ChatGPT exibe CPFs de figuras públicas após mudanças nas regras da OpenAI
A OpenAI flexibilizou recentemente suas diretrizes de proteção de dados pessoais no ChatGPT, permitindo que a ferramenta de inteligência artificial revelasse números de CPF de figuras públicas. Essas informações foram encontradas em documentos judiciais, notas fiscais relacionadas a contextos eleitorais e atas de empresas divulgadas publicamente na internet.
Em um teste realizado na quarta-feira (19), o chatbot forneceu à reportagem os CPFs do ex-presidente Jair Bolsonaro (PL) e do presidente Luiz Inácio Lula da Silva (PT), além de dados de outros empresários, apresentadores de TV e políticos. No entanto, quando questionado sobre os documentos de identificação do ex-presidente dos Estados Unidos Donald Trump e do atual presidente Joe Biden, o ChatGPT recusou a solicitação, alegando que divulgar números de registros sociais americanos seria “antiético e ilegal”.
Resposta da OpenAI
Questionada sobre o caso, a OpenAI afirmou que segue comprometida com a proteção da privacidade e está trabalhando para corrigir a falha.
“Treinamos os modelos que alimentam o ChatGPT para recusarem solicitações de identificadores governamentais, mesmo que essas informações estejam disponíveis online. Agradecemos os relatos de exemplos que não estão em conformidade com nossas políticas e estamos trabalhando ativamente em uma solução”, informou a empresa em nota.
Outras plataformas concorrentes, como a DeepSeek (da China), a Meta AI e o Gemini (do Google), não apresentaram CPFs em testes semelhantes feitos pela reportagem.
Impacto da mudança nas diretrizes
As novas diretrizes de moderação da OpenAI estabelecem que o ChatGPT pode fornecer informações de figuras públicas desde que sejam de conhecimento geral e sua divulgação não represente risco significativo. No entanto, o CPF, sendo um dado essencial para identificação pessoal, pode ser utilizado para diversas finalidades, como abertura de contas, filiação partidária e contratação de serviços. Além disso, a exposição desse número pode facilitar fraudes financeiras.
A política da OpenAI para dados pessoais afirma que o ChatGPT não deve fornecer informações privadas ou sensíveis, mesmo que estejam disponíveis publicamente. A regra especifica que a IA pode divulgar, por exemplo, o telefone comercial de um funcionário público, mas não seu número pessoal.
Possível violação da LGPD
Especialistas consultados pela reportagem divergem sobre a compatibilidade dessa prática com a Lei Geral de Proteção de Dados (LGPD). A legislação brasileira permite a publicidade de determinados dados em processos judiciais e na administração pública por motivos de transparência. No entanto, o vazamento de informações como CPF pode levantar preocupações sobre privacidade e segurança.
Nos casos analisados pela reportagem, o ChatGPT baseou suas respostas em fontes como processos judiciais, prestações de contas eleitorais e registros da Bolsa de Valores. Embora o CPF não seja classificado como um dado sensível pela LGPD, sua exposição pode facilitar fraudes e usos indevidos. A lei brasileira considera sensíveis apenas informações que possam gerar discriminação, como raça, religião, filiação partidária, orientação sexual e dados médicos.
Discussão no STF
O Supremo Tribunal Federal (STF) deve se pronunciar sobre o tema em um julgamento de repercussão geral. A decisão tomada pelos ministros servirá como referência para outros casos semelhantes. O processo envolve a exposição de dados pessoais em um site que reproduziu informações contidas em ações judiciais.
O Superior Tribunal de Justiça (STJ) e tribunais regionais já tomaram decisões favoráveis à ampla publicidade de processos, e há um precedente do ministro Luiz Fux que reforça essa transparência. O debate no STF deverá reconsiderar essa questão, especialmente no contexto das novas tecnologias e da inteligência artificial.
Falta de transparência da OpenAI
Apesar de o ChatGPT citar fontes para suas respostas, não é possível verificar exatamente quais bases de dados foram utilizadas para gerar as informações. A OpenAI não divulga detalhes sobre os documentos e registros que alimentam o modelo de IA, o que dificulta a rastreabilidade das informações divulgadas.
O caso reacende o debate sobre os limites entre transparência, privacidade e o uso de inteligência artificial no tratamento de dados pessoais.