A ChatGPT, uma das inteligências artificiais mais populares do mundo, enfrenta sérias críticas por criar informações falsas que têm potencial para prejudicar a reputação de indivíduos. Recentemente, um usuário norueguês foi acusado de assassinato devido a uma "hallucinação" da AI, levando a organização *noyb* a apresentar uma queixa contra a OpenAI por violar o GDPR.
As chamadas "hallucinações" referem-se à tendência dos modelos de linguagem de gerar informações que, embora possam parecer plausíveis, são completamente fabricadas. Isto ocorre porque esses sistemas são projetados para prever palavras com base em padrões previamente aprendidos durante o treinamento. Enquanto essas discrepâncias podem ser inofensivas em algumas situações, um cenário em que envolvem acusações difamatórias pode ter consequências sérias.
Um caso emblemático é o de um cidadão norueguês, cujos dados pessoais foram utilizados por uma inteligência artificial para criar uma narratiovedade falsa que o incriminava no assassinato de seus filhos. A ChatGPT não só gerou essa história, mas também incluiu informações pessoais, como a quantidade e o gênero dos filhos da vítima, além de sua cidade de residência. Outro exemplo é o de Mark Walters, um radialista americano, que processou a OpenAI por difamação após a plataforma AI criar uma falsa acusação de que ele havia desviado fundos de uma organização ligada à defesa dos direitos das armas.
A centralidade da questão gira em torno da responsabilidade das empresas de inteligência artificial em casos de difamação. A OpenAI defende que os usuários são informados sobre a possibilidade de erros gerados pelo sistema, mas especialistas em direitos humanos e privacidade argumentam que esse aviso é insuficiente para evitar danos irreparáveis à reputação das pessoas afetadas. Em resposta, a *noyb* está exigindo melhorias na precisão dos modelos de IA, bem como a eliminação de informações errôneas, citando normas de proteção de dados estabelecidas pelo GDPR.
Com a evolução contínua da tecnologia de IA, torna-se imprescindível que as empresas que desenvolvem estas ferramentas adotem práticas que minimizem o risco de "hallucinações" que possam causar danos. Medidas poderiam incluir avanços nos algoritmos, bem como uma maior transparência sobre os limites e capacidades dos modelos em uso. O desafio de encontrar um equilíbrio entre inovação tecnológica e proteção à privacidade é um debate que promete continuar a moldar a indústria de inteligência artificial nos próximos anos.