Microsoft alerta para abusos e perigos dos agentes de IA em empresas
A Microsoft alertou hoje para o risco dos agentes duplos, que aproveitam os acessos e privilégios concedidos aos agentes de inteligência artificial (IA) para realizar ações maliciosas sem que as empresas se apercebam.
De acordo com o relatório Cyber Pulse 2026 da Microsoft, as empresas pioneiras já trabalham com equipas mistas de pessoas e agentes de IA e mais de 80% das empresas da Fortune 500 utilizam agentes ativos criados com ferramentas de 'low code'.
A Fortune 500 é a lista anual elaborada pela revista Fortune que classifica as 500 maiores corporações dos Estados Unidos com base no seu volume de receitas totais.
Neste sentido, setores como 'software' e tecnologia (16%), manufatura (13%), instituições financeiras (11%) e comércio retalhista (9%) já utilizam agentes de IA para apoiar a realização de tarefas cada vez mais complexas, como redigir propostas, analisar dados financeiros, classificar alertas de segurança, automatizar processos repetitivos e obter informação.
Estes agentes podem funcionar de forma assistida, respondendo às indicações dos utilizadores, ou de forma autónoma, executando tarefas com muito pouca intervenção humana.
No entanto, a crescente adoção é acompanhada por novos riscos, uma vez que os agentes de IA estão a escalar mais rapidamente do que algumas empresas, o que provoca uma falta de visibilidade que pode dar origem ao que é conhecido como IA na sombra ('shadow IA') e agentes duplos.
Esta ameaça traduz-se no abuso dos agentes de IA, aproveitando-se do facto de terem amplas permissões e acesso aos sistemas para trabalhar de forma autónoma.
"Um agente com permissões excessivas, ou com instruções incorretas, pode tornar-se uma vulnerabilidade", alertou na Microsoft em comunicado.
Tal como acontece com as pessoas, os agentes de IA podem tornar-se agentes duplos "se não forem geridos, se tiverem permissões inadequadas ou receberem instruções de fontes não fiáveis".
Segundo o Índice de Segurança de Dados da Microsoft, apenas 47% das organizações de todos os setores afirmam estar a implementar controlos de segurança específicos para a IA generativa.
A tecnológica defende a adoção de uma abordagem de segurança de confiança zero ('Zero Trust') com os agentes, o que implica conceder acesso com privilégios mínimos e indispensáveis, verificar quem ou o que solicita acesso e projetar os sistemas partindo do princípio de que os atacantes podem vir a ter acesso.