Problemas de Precisão e Transparência com ChatGPT Sob Investigação na UE

Na União Europeia, o Regulamento Geral sobre a Proteção de Dados (GDPR) estipula que as informações sobre indivíduos devem ser precisas, e garante o acesso total dos mesmos às informações armazenadas, incluindo a origem destas. No entanto, apesar das exigências legais, a OpenAI admite abertamente que não pode corrigir informações incorretas geradas pelo ChatGPT, e também não consegue identificar a origem dos dados utilizados pelo modelo. A empresa reconhece o problema, mas parece minimizar sua importância, alegando que a “precisão factual em modelos de linguagem de grande escala continua sendo uma área de pesquisa ativa”. Diante dessa situação, a organização noyb protocolou uma reclamação contra a OpenAI junto à autoridade de proteção de dados da Áustria.

Desde o lançamento do ChatGPT em novembro de 2022, a hype em torno da inteligência artificial atingiu níveis sem precedentes. O aplicativo, que gera “respostas a solicitações do usuário ao prever as palavras mais prováveis em resposta a cada prompt”, é amplamente utilizado para diversos fins, incluindo tarefas de pesquisa. Contudo, segundo a própria OpenAI, não há garantias de que as informações apresentadas pelo ChatGPT sejam corretas, visto que ferramentas de IA generativa são conhecidas por “alucinar” ou fabricar respostas.

Enquanto o uso do ChatGPT para ajudar em tarefas escolares pode ser aceitável, o mesmo não se aplica a informações sobre indivíduos. Desde 1995, a lei da UE exige que dados pessoais sejam precisos, atualmente consagrados no Artigo 5 do GDPR. Os indivíduos também têm o direito de retificação sob o Artigo 16 do GDPR, podendo solicitar a exclusão de informações falsas. Além disso, pelo “direito de acesso” no Artigo 15, as empresas devem ser capazes de mostrar quais dados possuem sobre os indivíduos e quais são suas fontes.

Maartje de Graaf, advogada de proteção de dados na noyb, argumenta que fabricar informações falsas é problemático, especialmente quando se trata de dados individuais, pois pode haver consequências sérias. Ela enfatiza que, se um sistema não pode produzir resultados precisos e transparentes, não deveria ser utilizado para gerar dados sobre indivíduos, pois a tecnologia deve seguir os requisitos legais.

Um exemplo ilustrativo desse problema é quando o ChatGPT, consultado sobre a data de nascimento de um reclamante público, forneceu informações incorretas repetidamente, em vez de admitir a falta de dados necessários. Apesar disso, a OpenAI recusou o pedido do reclamante para retificar ou apagar os dados, argumentando que não era possível corrigir esses dados. A empresa também não respondeu adequadamente ao pedido de acesso do reclamante.

As tentativas de supervisão das autoridades até agora têm sido infrutíferas. Desde a popularidade repentina do ChatGPT, as ferramentas de IA generativa rapidamente entraram no radar dos órgãos de proteção de dados europeus. Entre outras ações, a Autoridade Italiana de Proteção de Dados impôs uma restrição temporária ao processamento de dados em março de 2023, e pouco tempo depois, o Conselho Europeu de Proteção de Dados estabeleceu uma força-tarefa sobre o ChatGPT para coordenar esforços nacionais. Por enquanto, a OpenAI parece não fazer nem mesmo o esforço de parecer que pode cumprir o GDPR da UE.

A reclamação apresentada pela noyb solicita que a autoridade de proteção de dados da Áustria (DSB) investigue o processamento de dados pela OpenAI e as medidas tomadas para garantir a precisão dos dados pessoais processados neste contexto.