Fofoca ou Babaleia?

Tudo que acontece no Brasil e no mundo você encontra aqui!
Norueguês processa OpenAI após erro do ChatGPT

Um homem norueguês, Arve Hjalmar Holmen, apresentou uma queixa após o ChatGPT informar erroneamente que ele havia assassinado dois de seus filhos e sido preso por 21 anos. Essa situação levantou preocupações sobre as chamadas “alucinações” da inteligência artificial (IA), em que sistemas de IA inventam informações e as apresentam como fatos. Holmen contatou a Autoridade de Proteção de Dados da Noruega e exigiu que a OpenAI, criadora do chatbot, fosse multada por disseminar informações falsas.

De acordo com Holmen, esse tipo de alucinação pode ser extremamente prejudicial. Ele expressou sua preocupação de que as pessoas possam acreditar na informação falsa. Após fazer uma busca no ChatGPT perguntando: “Quem é Arve Hjalmar Holmen?”, ele recebeu uma resposta que incluía detalhes incorretos sobre sua vida pessoal e uma tragédia envolvendo seus filhos.

O grupo de defesa digital Noyb entrou com a queixa em nome de Holmen, argumentando que o chatbot violou as normas de proteção de dados da Europa, que exigem precisão na divulgação de informações pessoais. Eles enfatizaram que Holmen “nunca foi acusado ou condenado por qualquer crime” e que ele é um cidadão consciente e respeitável.

O ChatGPT emite um aviso que diz: “O ChatGPT pode cometer erros. Verifique informações importantes.” No entanto, Noyb argumenta que esse aviso não é suficiente para justificar a disseminação de informações falsas. A advogada Joakim Söderberg declarou que não se pode simplesmente espalhar desinformação e depois se proteger com um aviso informal.

Alucinações são um problema significativo que cientistas vêm tentando resolver em IAs generativas. Esses episódios fraudulentos não são novos; outras plataformas, como o Apple News, também enfrentaram desafios semelhantes. O Google Gemini, por sua vez, apresentou informações absurdas, como recomendar o consumo de rochas como parte da dieta.

Simone Stumpf, professora de IA responsável na Universidade de Glasgow, afirmou que a compreensão das alucinações é uma área de pesquisa ativa. Muitas vezes, mesmo os desenvolvedores dessas tecnologias não compreendem como elas chegam a certas conclusões. Isso se torna um desafio tanto para os criadores quanto para os usuários, que precisam navegar por um sistema onde muito permanece obscuro.

Recentemente, o modelo do ChatGPT foi atualizado para incluir pesquisas em artigos de notícias atuais, o que poderia melhorar sua precisão. Apesar disso, Holmen relatou que, em várias pesquisas daquele dia, o modelo produziu múltiplas histórias incorretas sobre sua família. A Noyb também reconheceu que essas buscas anteriores poderiam ter influenciado as respostas sobre seus filhos.

A falta de transparência em relação aos dados utilizados pelos modelos de linguagem é uma crítica recorrente, com a OpenAI não respondendo a solicitações para acesso a essas informações. Essa obscuridade no funcionamento dos modelos de IA levanta questões sobre a confiabilidade e a responsabilidade na disseminação de informações.

Texto escrito com base no artigo.