Verificação de factos demora muito tempo a responder à desinformação
A investigadora do Instituto Superior Técnico (IST) Sofia Pinto afirmou que os mecanismos de verificação de factos atuais envolvem muito tempo, contribuindo para a proliferação indiscriminada de desinformação, pelo que a verificação automatizada de factos pode ser solução.
"A verificação manual de factos jornalísticos é a maneira usual de lidar com notícias falsas, no entanto, essa tarefa trabalhosa regularmente não é compatível com a escala do problema", pelo que a verificação automatizada de factos (AFC, sigla em inglês) é apresentada "como uma potencial solução", lê-se no artigo "Verificação de factos automatizada e explicada para jornalistas", da autoria da investigadora informática Sofia Pinto.
A verificação automatizada de factos tem como base ferramentas de Inteligência Artificial (IA), neste caso modelos de linguagem em grande escala (LLMs) para gerar automaticamente conjuntos de dados de verificação de factos, que suportem outras abordagens de verificação.
"A verificação humana é fundamental para reduzir os efeitos cada vez mais negativos das falsas notícias", mas "a disseminação viral de algumas afirmações frequentemente torna essa atividade demorada ineficaz", refere o documento.
Em entrevista à Lusa, Sofia Pinto, investigadora na área da IA do IST, explica que um dos objetivos do projeto é acelerar a identificação de desinformação, pois "leva muito tempo" entre a viralização de uma publicação 'online' e a publicação de um desmentido por um órgão jornalístico.
"A tarefa jornalística de verificação e criação das explicações de notícias falsas ou manipuladas envolvem tempo e recursos que dificultam a possibilidade de parar esta partilha viral logo no início, a tempo de deter a sua proliferação indiscriminada", afirma.
Para a investigadora, "o tempo que levam a serem desmentidas, faz com que as notícias falsas ou manipuladas, repetidas indiscriminadamente, se tornem "verdades" acreditadas por quem as lê e com que os desmentidos produzidos pelos 'fact-checkers' nunca venham a ter a mesma viralidade, porque o assunto já morreu, já são notícias de ontem".
De forma a ajudar nesta tarefa, o que a docente propõe é uma "ferramenta com a qual os jornalistas possam melhorar a capacidade de tentar reagir mais atempadamente à verificação de notícias".
O modelo em questão "procura reduzir o tempo necessário para avaliar conteúdos com potencial de fake news", agilizando a verificação de factos de conteúdos digitais para auxiliar jornalistas a combater o fenómeno da desinformação.
O sistema de IA executa automaticamente todos os passos de verificação de factos feitos manualmente por jornalistas profissionais, necessitando apenas da identificação do enunciado a provar.
O utilizador tem acesso a todos os passos que são tomados na obtenção de evidências, as fontes utilizadas na compilação da informação e um veredicto baseado nessa informação, sendo que o modelo gera ainda um artigo explicativo das razões que levam à atribuição do veredicto em questão.
Sofia Pinto confessa que, embora tenha "sido desenvolvido e testado em inglês (...), seria muito interessante desenvolver e verificar como se comporta uma variante portuguesa".
O trabalho envolveu um estudo que contou com a participação de mais de uma centena de jornalistas profissionais, de forma a validar o funcionamento do modelo e verificar a qualidade das explicações geradas.
A iniciativa desenvolvida por alunos do IST insere-se no projeto CIMPLE que visa pesquisar e desenvolver explicações criativas e inovadoras de IA social e baseada no conhecimento, e testá-las no domínio da deteção e rastreamento de informações manipuladas.
O CIMPLE baseia-se em modelos de criatividade humana, tanto na manipulação quanto na compreensão da informação, para projetar explicações mais compreensíveis, reconfiguráveis e personalizáveis.
Personificação da informação pode ser eficaz no combate à desinformação
Sofia Pinto defende que uma personalização dos conteúdos pode ser eficaz no combate à desinformação, sobretudo nas gerações mais jovens, onde os mecanismos tradicionais se revelam pouco eficazes.
Sofia Pinto tem-se dedicado ao estudo da desinformação e da Inteligência Artificial (IA) e começa por alertar que é cada vez mais "complicado fazer a distinção entre o verdadeiro e o falso, porque há muitos atores de desinformação e porque existem as redes sociais a espalhar muito rapidamente narrativas enganadoras".
Nesta perspetiva, a investigadora afirma que "há um caos imenso para o público em geral".
"Muita gente vive nas suas trincheiras muito contente e cada vez há menos a capacidade de ouvir o outro lado, uma falta de capacidade das pessoas ouvirem e falarem com os outros", o que facilita a assimilação de informação falsa ou enganadora, explica.
Além disso, as gerações mais novas estão muito "alienadas da forma tradicional de ir verificar se uma notícia é verdadeira ou falsa".
Oito em cada 10 jovens já foi exposto às fake-news
Um Eurobarómetro recente revela que a grande maioria dos jovens portugueses (81%) considera já ter estado exposto a desinformação e falsas notícias, quando a média europeia se centra nos 76%.
Segundo estes dados, redes sociais como o Instagram e o TikTok são grandes fontes de informação, com respetivamente 56% e 33% para os jovens portugueses e 47% e 39% para os jovens europeus.
Deste modo, a investigadora alerta para a necessidade de adaptar os atuais mecanismos de combate à desinformação para os jovens, defendendo "uma personalização, pois a linguagem das gerações de hoje não é a mesma das gerações mais velhas".
"Há um salto grande, eles vivem num mundo entre o real e muitos mundos paralelos", pelo que é importante criar novas formas de chegar a estes jovens, experimentando novos formatos e linguagens, uma vez que os mecanismos tradicionais revelam-se pouco eficazes nesta matéria.
Contudo, Sofia Pinto realça a necessidade de manter o rigor e a credibilidade da informação que será transmitida para não se deturpar a realidade e formar-se, assim, mais um agente de desinformação. "Há uma barreira muito subtil entre estes dois aspetos", defende.
Apesar da importância que a investigadora reconhece à IA, enquanto ferramenta facilitadora do combate da desinformação, Sofia Pinto também afirma que a tecnologia tem impactos negativos, por exemplo na educação, pelo que salienta a importância da literacia mediática e espírito crítico.
"Verifica-se que os alunos que só usam o 'chat' e copiam as respostas que são geradas não adquirem um pensamento profundo naquela resposta, eles nem se lembram da resposta que deram, alguns nem a leram. Supondo que leram, nem sequer memorizam", explica.
Um recente estudo Instituto de Tecnologia de Massachusetts (MIT, sigla em inglês), comprova que o uso prolongado de ferramentas de IA pode gerar uma "dívida cognitiva", com consequências prejudiciais para a memória, criatividade e pensamento crítico.
"Embora estes sistemas reduzam a carga cognitiva imediata, podem simultaneamente diminuir as capacidades de pensamento crítico e conduzir a um menor envolvimento em processos analíticos profundos", um fenómeno especialmente preocupante em contexto educativo, onde o desenvolvimento de competências cognitivas sólidas é fundamental, refere o documento.
O inquérito Eurobarómetro foi divulgado em Fevereiro, sendo realizado nos 27 Estados-Membros da União Europeia (UE), junto de 25.863 jovens, cerca de mil portugueses.