Ferramentas populares de inteligência artificial estão operando no Brasil sem atender algumas regras da Lei Geral de Proteção de Dados (LGPD). Muitas delas não disponibilizam suas políticas de privacidade em português, o que contraria uma exigência clara da legislação brasileira.
Em uma pesquisa realizada pelo Centro de Tecnologia e Sociedade da FGV Direito Rio (CTS-FGV), foi constatado que os sistemas ChatGPT, Gemini, Claude, Copilot, Grok, DeepSeek e Meta AI não cumprem integralmente as obrigações previstas nas LGPD. Foram considerados 14 critérios e todas as plataformas apresentaram falhas.
Entre as obrigações descumpridas estão a falta de explicações sobre os direitos dos usuários e a ausência de informações claras sobre a transferência internacional de dados, ponto central da LGPD.
Em entrevista ao jornal Globo, Luca Belli, professor da FGV e coordenador da pesquisa, afirmou que o nível de conformidade dessas plataformas com a legislação brasileira varia entre o baixo e o alarmante. Ele destaca que essas empresas, com milhões de usuários e recursos dedicados à privacidade, não conseguem cumprir o mínimo da lei, e alerta para a ausência de uma resposta regulatória eficaz diante dessas violações.
Risco é de uso indevido dos dados
O estudo utilizou a própria LGPD como base, complementada por documentos como o Guia de Segurança da Informação da Autoridade Nacional de Proteção de Dados (ANPD). O guia foi usado como referência de práticas mínimas aceitáveis.
Entre as sete ferramentas, apenas Claude, Meta AI e Gemini cumprem mais de dez dos critérios avaliados. Somente três exigências são respeitadas por todas as plataformas: ter uma política de privacidade publicada, identificar quem é o controlador dos dados e informar quais dados são coletados e processados.
Dos sistemas mais usados por brasileiros, apenas o DeepSeek, da China, não é de origem americana. As regras de proteção de dados vêm sendo criticadas por líderes dos EUA, como o presidente Donald Trump, que argumenta que legislações como a LGPD criam barreiras injustas para empresas americanas. Em um relatório recente, o governo dos EUA afirmou que a lei brasileira introduz incertezas e obstáculos ao tratamento de dados por empresas de tecnologia.
O relatório da FGV alerta para os riscos do uso indevido de dados pessoais. As ferramentas de IA dependem de grandes volumes de informações para serem treinadas, o que gera uma preocupação sobre como esses dados são obtidos, armazenados e utilizados.
Entre os piores desempenhos estão o Grok, da empresa de Elon Musk, e o DeepSeek. Ambos falham em mais da metade dos critérios analisados. Eles não oferecem políticas de privacidade em português, não explicam os direitos dos usuários, não descrevem medidas de proteção de dados e não justificam legalmente o uso de informações públicas.
O ChatGPT descumpre cinco dos catorze critérios. Assim como outras ferramentas, não informa claramente os direitos garantidos pelas regras da LGPD, nem as medidas de segurança adotadas. Outras plataformas de grandes empresas como Gemini (Google), Copilot (Microsoft) e Meta AI (Meta), também deixam de seguir diretrizes básicas da lei, como informar para quais países os dados são enviados e qual base legal é usada nessas transferências.
Belli também pontua que a falta de informações impede o usuário de exercer seus direitos. Sem saber para onde seus dados vão, quem os controla e o que pode ser feito com eles, o direito à autodeterminação informativa garantido por lei é esvaziado.