O avanço da inteligência artificial (IA) nas rotinas corporativas tem levantado questionamentos sobre o uso ético e seguro dessa tecnologia, especialmente em relação à segurança e privacidade de dados. No contexto dessa discussão, estão os agentes de IA e, segundo o relatório “AI Agents Report 2025”, desenvolvido pelo ecossistema Distrito, 27% das empresas que já adotaram esses sistemas autônomos em suas atividades compartilham de preocupações em relação à segurança da informação.
Apesar do alerta, empresas como a plataforma de automação de processos Pipefy, demonstram que é possível estabelecer AI Agents a partir de padrões mais rigorosos de privacidade e segurança, usando as informações geradas apenas para criar respostas contextuais, no momento da interação, mantendo a confidencialidade.
O Fórum Econômico Mundial (WEF, na sigla em inglês) lançou recentemente o “Global Cybersecurity Outlook 2025”, estudo sobre a evolução da segurança cibernética e seus desafios. Nele, 71% dos especialistas em segurança alertam que as pequenas empresas globais atingiram um ponto crítico em sua capacidade de se proteger contra os crescentes riscos digitais.
Leia mais: Zup lança laboratório de inovação em parceria com MIT, UFPE e ICT
No Brasil, o desafio se torna ainda mais significativo, visto que foram registrados uma média de 2.754 tentativas de ciberataques semanais durante o segundo trimestre do ano passado. Em comparação ao mesmo período de 2023, houve um aumento de 67%, segundo um relatório da Check Point Research.
Daniele Gemignani, CTO da Pipefy, acredita que é preciso equilibrar três pilares para que todas as empresas – pequenas ou grandes – consigam utilizar os agentes de IA de forma segura e justa: investir em inovação, trazendo tecnologia relevante para os times; segurança, protegendo os dados contra vazamentos e ataques; além de privacidade, com a garantia de que as informações dos usuários não sejam mal utilizadas.
“Isso é possível quando deixamos a IA mais transparente, explicando como ela toma decisões, e também quando criamos regras claras e leis que definem o que é certo e errado no uso da tecnologia. Outro ponto é investir em proteção digital, com a utilização de ferramentas contra falhas e vazamentos de informação. Como a IA ainda é uma tecnologia nova, o mercado ainda está aprendendo e se adaptando para que seu uso seja ético e ainda mais seguro”, explica Daniele.
Fonte: https://itforum.com.br/noticias/27-empresas-agentes-ia-seguranca/