Mundo

Comissão dos EUA avança com investigação sobre OPenAI e ChatGPT

None

A Comissão Federal do Comércio (FTC) iniciou uma ampla investigação sobre a OpenAI para determinar se o seu 'chatbot' ChatGPT violou leis de proteção do consumidor ao colocar em risco a reputação e dados pessoais dos utilizadores.

Esta informação foi avançada hoje pelo jornal Washington Post, que adianta que o processo de investigação civil, com 20 páginas, foi enviado esta semana à empresa liderada por Sam Altman, contendo várias perguntas sobre as práticas de formação de modelos de IA (inteligência artificial) e tratamento de informações pessoais dos utilizadores pela OpenAI.

Entre os vários exemplos que são detalhados na extensa carta, a que o Washington Post teve acesso, está um incidente verificado em 2020 em que a empresa revelou um 'bug' que permitia aos utilizadores ver informações sobre outros 'chats' e informação relacionada com pagamentos de outros utilizadores.

O ChatGPT ganhou grande visibilidade depois de ter sido lançado publicamente e em versão gratuita em novembro de 2022, tendo registado um recorde de 100 milhões de 'downloads' em apenas dois meses.

A FCT solicitou à OpenAI descrições pormenorizadas de todas as queixas recebidas sobre os seus produtos relativamente a declarações "falsas, enganosas, depreciativas ou prejudiciais".

Além disso, a comissão está também a investigar se a empresa se envolveu em práticas desleais ou enganosas que resultaram em "danos de reputação" dos consumidores.

Numa das suas respostas, o ChatGPT disse que um advogado tinha feito comentários de cariz sexual e tentado tocar numa aluna durante uma visita de estudo, citando para tal um artigo que o 'chatbot' diz ter surgido no Washington Post.

Só que esse artigo nunca existiu, a visita de estudo nunca aconteceu e o advogado afirmou que nunca foi acusado de assédio a nenhuma aluna.

A Comissão Federal do Comércio também exigiu uma descrição pormenorizada dos dados que a OpenAI utiliza para treinar os seus produtos e o que está a fazer para evitar aquilo que na indústria tecnológica é conhecido como "alucinação", um problema que ocorre quando as respostas do 'chatbot' estão bem estruturadas, mas são totalmente erradas.

Quando a FTC determina que uma empresa viola as leis de proteção do consumidor pode aplicar multas ou impor-lhe um decreto de consentimento, que pode ditar a forma como a empresa trata os dados.