Sistemas de IA serão mais socialmente conscientes no futuro
O ex-diretor de gestão do conhecimento do Centro de Voos Espaciais Goddard da NASA Jay Liebowitz considera, em entrevista à Lusa, que no futuro os sistemas de IA serão mais socialmente conscientes, resta saber se exibirão intuição artificial.
"A investigação mostra que a intuição pode ser treinada e desenvolvida", afirma o responsável, que foi orador da conferência internacional "Shaping the Future of Data, Knowledge and Innovation with AI for Global Sustainable Change", dedicada ao futuro dos dados do conhecimento e da inovação nas empresas com a inteligência artificial (IA), no ISCTE, na quinta-feira.
"Penso de facto que, no futuro, tornaremos estes sistemas de IA mais socialmente conscientes" e "com mais autoconsciência", mas "resta saber se poderão realmente exibir esta intuição artificial nos próximos anos", acrescenta.
O responsável sublinha que existem diferentes grupos de investigação, um deles na Universidade Emory em Atlanta, Geórgia, a estudar estas temáticas.
"Eles têm um laboratório de IA empática ['Empathetic AI Lab'] e estão a tentar desenvolver estes sistemas de IA que terão emoções e sentimentos como nós", exemplifica.
Portanto, "há trabalho a ser feito e quem sabe, talvez daqui a cinco, oito anos haja investigação mais interessante nessa área, mas não sei ao certo".
Sobre a gestão e a intuição, o ex-diretor da NASA refere que faz investigação para ver até que ponto os executivos confiam na sua intuição.
Trata-se "da sua aprendizagem experiencial e está relacionada com a gestão de conhecimento", refere.
"Trabalhei com colegas em Itália, Polónia, Canadá, Turquia" e verifica-se que "muitas das decisões que os executivos tomam baseiam-se no seu sentido intuitivo, não estritamente nos dados", aponta o responsável.
A razão é "porque afirmam que nem sempre podem confiar na qualidade dos seus dados internos. Portanto, não podem confiar nas análises que provêm dos dados. Por isso, acabam por confiar na sua própria experiência e intuição", diz.
Na sua opinião, "isso pode ser aceitável se acabarem por tomar a decisão certa, mas é realmente necessário um equilíbrio entre as análises", ou seja, "as evidências baseadas em dados, e a sua aprendizagem experiencial", esses dois "em conjunto permitir-lhe-ão ser bem-sucedidos".
Um dos estudos que Jay Liebowitz analisou foi: será que que os computadores alguma vez exibição intuição artificial?
"Inquirimos nove peritos em intuição em todo o mundo e nove peritos em IA num inquérito Delphi e depois também inquirimos 120 executivos em todo o mundo", relata.
Embora não seja uma grande amostra, "verificou-se que os peritos em intuição disseram que [intuição artificial] nunca acontecerá, mas os peritos em IA disseram que provavelmente daqui a seis ou oito anos" vai acontecer, diz.
Quanto aos executivos de negócios entrevistados, estes "estavam ainda mais otimistas" e "sentiam que aconteceria a curto prazo".
Para o ex-diretor da NASA, a próxima era será a computação quântica.
"É um pouco complexo para mim, mas essencialmente é desenvolver estes modelos matemáticos melhorados com a tecnologia, como a IBM tem e a Microsoft, que estão a fazer trabalho em computação quântica", prossegue.
Por exemplo, para a descoberta de medicamentos, "essa poderia ser uma grande aplicação usando 'quantum', e, talvez, de alguma forma, com intuição e mecânica quântica", mas "não sei ao certo".
A inteligência artificial veio para ficar
Jay Liebowitz assume-se como grande fã da inteligência artificial e considera que a IA veio para ficar. "Sou um grande fã de IA, mas há algumas empresas que, por razões de segurança, não permitem que os seus trabalhadores utilizem alguns destes sistemas de IA generativa (GenAI)", afirma o responsável.
"Mas alguns dos trabalhadores utilizam nos seus próprios telemóveis o ChatGPT, o Microsoft Copilot ou o Claude", entre outros.
Portanto, "o meu sentimento é que a IA veio para ficar e se a puder utilizar para talvez encontrar melhores formas de fazer as coisas, formas mais rápidas e eficientes, porque não tirar partido disso", defende.
Contudo, é preciso ter em atenção que nem sempre os sistemas de inteligência artificial fornecem informação correta e, por vezes, alucinam [resultados incorretos ou enganosos gerados pelos modelos].
"Dizemos aos nossos alunos que não podem confiar em tudo o que estes sistemas dizem. Por isso, têm de verificar duas vezes, porque eles alucinam e, portanto, nem sempre estão corretos", sublinha o ex-diretor da NASA.
Aliás, "tenho estado envolvido a ajudar algumas universidades a desenvolver a sua estratégia de IA e analisamos quatro áreas", diz.
Estas áreas são educação, que envolve o ensino, investigação, operações empresariais e políticas.
"Sentimos que praticamente todos os estudantes que saem agora devem ter algum tipo de literacia em IA na sua área específica", considera o responsável.
Já "os nossos netos quando chegarem ao ensino secundário ou à faculdade, portanto, têm quatro e seis anos, terão estes agentes personalizados com os quais terão crescido e que os ajudarão nos seus estudos", prevê Jay Liebowitz.
Para o responsável, há benefícios no uso da tecnologia em várias áreas, uma delas é a da saúde, onde dá o exemplo da radiologia.
"Nos Estados Unidos, os sistemas de IA são mais precisos em radiologia do que o radiologista humano", diz.
Contudo, não elimina o radiologista, embora pudesse, e é utilizado como uma segunda opinião.
Conselho a empresas a ter uma estratégia de IA bem coordenada
O ex-diretor da NASA aconselha as empresas a terem uma estratégia de IA bem coordenada, saber quem supervisiona os sistemas, mas acima de tudo certificarem-se que os dados são seguros.
Questionado sobre que conselho daria às empresas no que toca à utilização de IA, Jay Liebowitz aponta a estratégia.
"O primeiro ponto é que - e isto serve para qualquer empresa - deve ter realmente uma estratégia de IA bem coordenada", afirma, salientando que uma área é a governação.
Portanto, "quem é que vai supervisionar a aplicação, o desenvolvimento e a fiscalização destes sistemas de IA nas empresas? Isso entra na ética da IA e na IA responsável", prossegue.
Ou seja, a questão prende-se com quem vai supervisionar se um sistema falhar. Pois, se alguma informação no sistema for enviesada vai produzir resultados que talvez não sejam tão favoráveis como se esperaria.
"É preciso ter uma estratégia de IA muito bem concebida a um nível empresarial global", insiste o responsável.
Por isso, refere, "muitas empresas estão agora a contratar diretores de IA ('Chief AI Officers') ou, por vezes, são chamados 'Digital Ethics' [ética digital], para ajudar a desenvolver e implementar estes sistemas de IA".
Mas antes, acrescenta, a empresa deve "certificar-se de que os dados na sua organização e a sua estratégia são precisos, bem governados e bem protegidos", porque se estes dados "forem imprecisos, espúrios", então não se vai obter "a precisão e os resultados de que necessita", considera Jay Liebowitz
O ex-diretor de gestão do conhecimento do Centro de Voos Espaciais Goddard da NASA aborda ainda o facto da utilização de IA ainda não estar a ter o retorno do investimento.
"O aspeto negativo é que houve recentemente um relatório do MIT, o Massachusetts Institute of Technology, que é uma das melhores universidades técnicas dos EUA", em que "descobriram que 95% destes sistemas de IA generativa (GenAI) que foram implementados nas empresas não estão a obter o retorno do investimento que esperavam", diz.
A principal razão apontada "é que não foram integrados no fluxo de trabalho dos seus outros sistemas, têm sido uma espécie de sistemas autónomos e isolados (silos)".
A outra área é a utilização de agentes de IA, ou também conhecidos como "agentic AI", onde diferentes agentes de 'software colaboram' entre si para determinadas funções.
"E essa tem sido uma área crescente de aplicação que as empresas estão a utilizar, quer se trate de pequenas ou médias empresas ou de grandes companhias", salienta.