Nenhuma das IA’s operando no Brasil cumpre requisitos da lei de dados do país, aponta estudo

Ferramentas como ChatGPT, Gemini e Meta AI falham em garantir transparência e segurança exigidas pela LGPD

© Shutterstock

Nenhuma das plataformas de inteligência artificial generativa mais populares em operação no Brasil cumpre os requisitos mínimos da Lei Geral de Proteção de Dados (LGPD). É o que revela um estudo conduzido pelo Centro de Tecnologia e Sociedade da FGV Direito Rio, divulgado pela Folha de S.Paulo nesta sexta-feira (5).

O levantamento analisou as políticas de privacidade de seis IAs mais acessadas no país, com base em dados do site App Magic. A lista inclui o ChatGPT (OpenAI), Gemini (Google), Claude (Anthropic), Grok (X, de Elon Musk), DeepSeek (China), além da recém-lançada Meta AI, que ganhou destaque por estar integrada a plataformas como WhatsApp, Facebook e Instagram.

Segundo os pesquisadores, nem mesmo as plataformas mais avançadas seguem integralmente os princípios básicos da LGPD, que visa proteger os usuários contra abusos, vigilância indevida e práticas comerciais desleais.

O grupo utilizou como base de avaliação o Guia de Segurança da Informação para Agentes de Tratamento de Pequeno Porte, elaborado pela Autoridade Nacional de Proteção de Dados (ANPD), com 14 critérios mínimos.

Entre os piores desempenhos, estão a DeepSeek, que atende a apenas 5 dos 14 critérios, e o Grok, que cumpre 6. Ambas não possuem sequer versões em português de suas políticas de privacidade — requisito fundamental para a clareza e acessibilidade aos usuários brasileiros. A DeepSeek também não informa quem é o encarregado de dados pessoais (DPO), enquanto o Grok omite a transferência de dados para servidores internacionais, o que exige adequações conforme a legislação local.

Já o Claude, da Anthropic, foi o único que adotou um mecanismo aceito pela ANPD para a transferência de dados internacionais, embora não informe para qual país essas informações são enviadas. Claude, Gemini e Meta AI lideram o ranking da FGV, cumprindo 11 dos 14 critérios. Ainda assim, falham em aspectos como detalhamento dos direitos do usuário e transparência no compartilhamento internacional de dados.

O popular ChatGPT também ficou aquém: não informa o responsável pelo tratamento dos dados nem os países para os quais as informações dos usuários brasileiros são enviadas. De acordo com os autores do estudo, essa ausência de regulação pode facilitar o uso abusivo ou até criminoso dos dados pessoais — como fraudes financeiras e falsidade ideológica.

O professor Luca Belli, coordenador da pesquisa, alerta para a falta de clareza sobre quais informações são utilizadas no treinamento dessas IAs. Ele lembra que, pela LGPD, as empresas devem fornecer “informações claras, precisas e facilmente acessíveis” sobre o tratamento de dados, o que não tem ocorrido na prática.

Apesar de algumas empresas alegarem que orientam suas IAs a evitar o processamento de dados pessoais, falhas documentadas já foram registradas em ferramentas da OpenAI e Google, o que reforça a preocupação sobre a conformidade legal e a segurança do usuário.

google news