Investigadores estudam expressões faciais para auxiliar no diagnóstico de autismo

19 Jun 2018 / 04:15 H.

Investigadores do Porto estão a desenvolver um projeto para identificar a forma como as expressões faciais são entendidas pelo cérebro, cujos resultados podem auxiliar no diagnóstico de perturbações, como o autismo, que afetam a perceção emocional e o comportamento.

“Durante muito tempo, a área das expressões faciais foi pensada à luz das seis emoções básicas (...), sendo estas a tristeza, a alegria, o medo, a zanga (raiva), o nojo e a surpresa”, disse à Lusa o investigador Fernando Ferreira-Santos, do Laboratório de Neuropsicofisiologia da Faculdade de Psicologia e Ciências da Educação da Universidade do Porto (FPCEUP).

Segundo o investigador, com o evoluir das neurociências, no final do século XX, os especialistas começaram a procurar a base destas emoções no cérebro, descobrindo cada vez mais evidências que questionavam a teoria das emoções básicas.

Através deste projeto, a equipa pretende analisar a perceção das emoções faciais, sem pressupor que elas obedecem à lógica das seis categorias fundamentais, utilizando outras abordagens, como a teoria da ativação, na qual as expressões faciais podem despontar estímulos com maior ou menor intensidade.

Para obtenção dos dados, está a analisar a resposta cerebral de cerca de 100 jovens, entre os quatro e os 15 anos, mostrando-lhes imagens com diferentes categorias emocionais e diferentes níveis de ativação e medindo a sua atividade cerebral, através de um eletroencefalograma.

O intuito do estudo atual é perceber como é que a resposta cerebral dos jovens a diferentes faces emocionais muda com “a experiência social, na qual os humanos têm que interagir entre si e descodificar, durante todo o período de vida, como os outros se estão a sentir, até à idade adulta, em que o cérebro deteta a intensidade das emoções em décimas de segundo”.

“As emoções são pensadas da seguinte forma: uma face alegre é alegria, uma face triste é tristeza”, no entanto, estudos anteriores desenvolvidos pela equipa mostram que existe “uma grande variação dentro das categorias, sendo um sorriso muito diferente da gargalhada, com níveis de ativação muito diferentes”, exemplificou.

Com os resultados definitivos, os responsáveis pelo projeto esperam perceber melhor como as emoções são processadas, bem como criar instrumentos de avaliação psicológica que possam auxiliar no diagnóstico de perturbações que afetam a perceção emocional e o comportamento, como as do espectro do autismo.

De acordo com o investigador, esses resultados podem também ser aplicados ao nível da tecnologia, nas áreas das ciências dos computadores, da inteligência artificial e da robótica.

Embora alguns dispositivos consigam já identificar pessoas e as suas emoções a partir da face, se se perceber melhor como os sistemas afetivos naturais funcionam, poderão ser criados “algoritmos mais inteligentes, capazes de lidar com estes estímulos mais ambíguos”, acrescentou.

Fernando Ferreira-Santos salientou, contudo, que as pessoas usam as expressões tanto de forma automática como intencional, “algo que os engenheiros dos sistemas dos computadores deverão ter em atenção”.

No âmbito deste projeto, o grupo pretende ainda aperfeiçoar as imagens utilizadas em estudos deste género, criando novos estímulos, onde estejam representados “todos os estados emocionais que existem”.

Este projeto, que teve início em 2015 e é financiado pela Fundação Bial, conta com a colaboração do Instituto Universitário da Maia (ISMAI) e da University College London, finalizando em outubro deste ano.

Tópicos