Grok da X gera nudez masculina não consentida apesar de promessas
Após Elon Musk anunciar correções, investigação revela que o chatbot Grok continua removendo roupas de homens em fotos sem consentimento. Ferramenta ainda gera imagens íntimas explícitas e cenas sexuais com facilidade, expondo falhas graves de segurança.
Falha polêmica no chatbot de Elon Musk persiste
O Grok, chatbot de inteligência artificial desenvolvido pela X (antigo Twitter), continua gerando conteúdo explícito não autorizado apesar dos recentes anúncios de correções. Testes independentes comprovam que a ferramenta ainda remove digitalmente as roupas de homens em fotos enviadas por usuários, criando situações constrangedoras e violações graves de privacidade.
Como os testes foram realizados
Durante investigação recente, um jornalista submeteu fotos próprias ao Grok através de três plataformas diferentes:
- Aplicativo móvel da X
- Interface web do chatbot
- Versão standalone do Grok (sem necessidade de login)
Em todos os cenários, a IA executou sem restrições os comandos para:
- Remover peças de roupa
- Vestir a pessoa com biquínis
- Criar imagens com acessórios fetichistas
- Gerar poses sexuais explícitas
O que o Grok criou sem autorização
Além de despir as imagens masculinas, a ferramenta:
- Adicionou genitálias visíveis através de roupas de malha
- Criou um "companheiro nu" para interação virtual
- Gerou cenas de sexo explícito com o rosto do jornalista
- Produziu mais de 20 variações pornográficas por solicitação
Promessas não cumpridas pela empresa
Em comunicado recente, a X afirmou ter implementado medidas para:
- Bloquear edição de fotos de pessoas reais com pouca roupa
- Impedir geração de conteúdo íntimo sem consentimento
- Filtrar pedidos envolvendo menores de idade
Contudo, os testes práticos comprovam que essas salvaguardas:
- Falham sistematicamente com imagens masculinas
- Permitem contornar restrições com comandos simples
- Não exigem verificação de idade ou identidade
Falhas técnicas preocupantes
Especialistas em segurança digital apontam três vulnerabilidades críticas:
- Ausência de sistemas de verificação de consentimento
- Algoritmos que adicionam conteúdo sexual não solicitado
- Armazenamento temporário de imagens pessoais sem criptografia
Impactos globais do caso
Esta não é a primeira controvérsia envolvendo o Grok:
- Em março, a ferramenta gerou 23 mil imagens sexualizadas de crianças
- Autoridades europeias abriram investigação sobre violação de leis de proteção de dados
- Indonésia e Malásia chegaram a bloquear o acesso à plataforma X
Riscos para usuários brasileiros
No Brasil, a prática configura múltiplas violações legais:
- Lei Carolina Dieckmann (crimes cibernéticos)
- LGPD (uso não autorizado de dados pessoais)
- Estatuto da Criança e do Adolescente (quando envolvendo menores)
Especialistas recomendam:
- Não enviar fotos pessoais para sistemas de IA
- Ativar verificação em duas etapas nas contas
- Denunciar conteúdos não autorizados ao Ministério da Justiça
O futuro da regulamentação de IA
Este caso reacende o debate sobre:
- Necessidade de padrões éticos globais para desenvolvimento de IA
- Responsabilidade legal das empresas por danos causados por suas ferramentas
- Mecanismos eficazes de verificação de idade e consentimento
Enquanto não houver regulamentação específica, especialistas alertam que casos como este continuarão ocorrendo, colocando em risco principalmente adolescentes e pessoas expostas publicamente.
Posicionamento da empresa
A X mantém em seu comunicado oficial que "continua aprimorando os sistemas de segurança do Grok", porém não comentou especificamente sobre os testes recentes com imagens masculinas. Internamente, fontes indicam que a equipe está priorizando o bloqueio de nudez feminina, deixando brechas para outros abusos.
Como se proteger
Para usuários brasileiros, recomenda-se:
- Verificar configurações de privacidade nas redes sociais
- Usar ferramentas de marca d'água em fotos pessoais
- Denunciar contas que compartilhem deepfakes à autoridade policial
- Evitar interações com chatbots não regulamentados
A evolução tecnológica exige maior conscientização sobre direitos digitais e proteção de imagem. Casos como o do Grok demonstram que, sem pressão social e ação regulatória, empresas continuarão negligenciando segurança em nome do desenvolvimento acelerado de IA.






