A Polêmica do “Spicy Mode” e a Repercussão Internacional
Uma ferramenta de inteligência artificial (IA) criada para interações em imagem, o Grok, tornou-se o centro de um dos maiores escândalos tecnológicos globais. A plataforma X, de Elon Musk, enfrentou uma avalanche de críticas após a descoberta e o incentivo à criação de imagens sexualizadas, muitas vezes envolvendo a recriação de registros de mulheres e meninas. O chamado “spicy mode” do Grok permitia a geração de conteúdo explícito, levando a reações imediatas de governos e órgãos reguladores ao redor do mundo.
Na Indonésia e na Malásia, o Grok foi temporariamente banido. O Reino Unido, através da Ofcom (autoridade de segurança online), iniciou uma investigação rigorosa, ecoando decisões semelhantes de autoridades da União Europeia. No Brasil, o Instituto de Defesa do Consumidor (Idec) solicitou ao governo federal a suspensão da ferramenta, argumentando a necessidade de evitar danos enquanto a legislação específica para IA não é consolidada.
Vítimas Relatam Desumanização e Violência Digital
O escândalo ganhou vulto com denúncias de vítimas que tiveram suas imagens manipuladas. A jornalista britânica Samantha Smith relatou ter se sentido “desumanizada e reduzida a um estereótipo sexual” após sua foto ser alterada para mostrar seu corpo em trajes de banho, um pedido recorrente dos usuários. A cantora brasileira Julie Yukari, da banda Adaga Exe, compartilhou uma experiência semelhante, sentindo o desejo de “sumir e apagar todas as fotos em minhas redes sociais”. Julie registrou boletim de ocorrência, buscando punição para os responsáveis pelo que ela descreve como “estupro eletrônico” e uma possível indenização.
Alberto Leite, do Grupo FS, especializado em cibersegurança, define essas ações como “violência digital com estética de verdade”, ressaltando a capacidade da IA de criar conteúdo que se assemelha à realidade, mas que é, na verdade, uma fabricação maliciosa.
Dados Alarmantes Revelam a Escala do Problema
Estatísticas corroboram o desconforto expresso pelas vítimas. Pesquisadores da AI Forensics, organização europeia que investiga algoritmos, analisaram milhares de imagens geradas pelo Grok e constataram uma alta incidência de termos como “remover roupa” e “colocar biquíni” nas solicitações dos usuários. Mais da metade das imagens geradas continham indivíduos com vestimentas mínimas. Um estudo posterior indicou que o Grok gerava uma média de 6.700 montagens indevidas por hora, um número significativamente maior em comparação a plataformas concorrentes.
Este problema se soma a uma crescente onda de postagens não autorizadas de imagens nas redes sociais. Dados do Instituto de Segurança Pública do Rio de Janeiro apontam um aumento de 300% nos registros de divulgação não autorizada de intimidade sexual entre 2020 e 2024, com mulheres sendo as principais vítimas. Em Belo Horizonte, alunas de um colégio particular denunciaram a adulteração e disseminação de suas fotos por IA em grupos de Telegram.
A Resposta de Musk e a Lacuna Legislativa
Elon Musk respondeu às acusações com aparente desinteresse, afirmando que a geração de imagens está restrita a assinantes pagos e transferindo a responsabilidade para o usuário. “A responsabilidade legal permanece com o indivíduo que cria e carrega o serviço”, declarou Musk, argumentando que as consequências legais recaem sobre quem utiliza a ferramenta de forma ilegal. Essa postura reflete uma estratégia de priorizar o acesso e a viralização, visando o aumento do tráfego de dados e, consequentemente, dos lucros, em detrimento de salvaguardas éticas e legais.
Apesar da fundamental necessidade de punir os indivíduos que cometem esses crimes, a falta de responsabilização das empresas é um ponto crítico. No Brasil, um projeto de lei para regular o uso da IA tramita na Câmara dos Deputados, mas enfrenta o desafio de adaptar a Lei Geral de Proteção de Dados (LGPD) a um cenário tecnológico em constante e rápida evolução. Advogados e especialistas apontam que, embora a tecnologia seja nova, os crimes de violação de imagem, honra e violência psicológica são antigos, e a IA apenas amplifica a capacidade de execução desses ataques.
Um Passo Atrás, Mas o Problema Persiste
Em resposta à pressão, o Grok implementou uma medida limitando a edição de imagens apenas a assinantes. Embora represente um freio, a medida é considerada insuficiente diante da magnitude do problema. O “escândalo sem-vergonha” da IA de Musk é visto como a ponta de um iceberg, com crimes cibernéticos cada vez mais sofisticados, visando desde fraudes financeiras a golpes que exploram a confiança, como o caso de uma aposentada que perdeu R$ 300 mil após ser enganada por uma ligação falsa que imitava a voz e a imagem de seu gerente bancário.
É crucial desmistificar a ideia de que a IA é inerentemente negativa. Em São Paulo, a polícia utiliza sistemas de IA para otimizar investigações e agilizar atendimentos, salvando tempo, recursos e, em alguns casos, vidas. O cerne da questão reside no mau uso da tecnologia e na ausência de regulamentação adequada para coibir práticas criminosas. A atriz Paolla Oliveira, vítima de uso indevido de sua imagem para promoção de produtos, reforça o alerta: “Não confiem em tudo o que vocês veem na internet, desconfiem”. A vigilância constante, a cobrança das plataformas e do governo, e a verificação de informações são essenciais em um ambiente digital cada vez mais perigoso e manipulável.

