| Período: Novembro/2025 | ||||||
|---|---|---|---|---|---|---|
| D | S | T | Q | Q | S | S |
| 01 | 02 | 03 | 04 | 05 | 06 | 07 | 08 | 09 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17 | 18 | 19 | 20 | 21 | 22 | 23 | 24 | 25 | 26 | 27 | 28 | 29 | 30 |
Quando se fala em inovação, e principalmente, nas manchetes do mundo corporativo, a Inteligência Artificial (IA) é a estrela da vez. Incontestável. O assunto gira em torno de aumento de produtividade, redução de custos e otimização de tarefas. As situações e aplicações atuais, até pouco tempo, poderiam ser classificadas como ficção científica. E, de fato, a IA tem esse poder transformador. Contudo, com a minha vivência em Risk Advisory Services (RAS), recomendo um olhar além do brilho superficial dessas funcionalidades.
Neste momento de euforia é preciso coragem, mas alguém precisa dizer: há riscos! E eles são significativos. Caso negligenciados, podem não apenas frear o avanço, mas causar danos substanciais às empresas. A corrida pela implementação da IA é intensa, mas a gestão dos seus riscos, muitas vezes, fica em segundo plano. Muitas empresas só irão parar para pensar nisso depois que algo acontecer. Correr para aproveitar tudo que a IA oferece neste momento sem pensar se haverá consequência é o mesmo que construir uma casa sem pilares. Uma hora desmorona.
E quais são esses perigos? A resposta não é simples, uma vez que este risco é multifacetado e exige uma abordagem estratégica. À medida que a IA se integra aos sistemas críticos, ela se torna um novo vetor de ataque. Esses modelos podem ser envenenados com dados maliciosos ou manipulados para produzir resultados indesejados. A segurança dos dados usados para treinamento e o acesso aos próprios modelos se tornam pontos vulneráveis críticos que exigem defesas robustas.
A privacidade e confidencialidade de dados é um dos pontos mais sensíveis. A IA se alimenta de dados e o uso indevido, a coleta excessiva ou a falha na anonimização de informações corporativas ou dados pessoais podem resultar, a exemplo, em violações de privacidade e em multas pesadas, especialmente com a LGPD e outras legislações, além de potencial desgaste da imagem reputacional junto aos clientes.
Agora, a maior parte dos problemas pode vir da falta de transparência. Muitos modelos de IA, especialmente os mais complexos como as redes neurais profundas, operam como verdadeiras caixas-pretas. É difícil entender como chegam a certas decisões. Essa falta de explicabilidade dificulta a auditoria, a correção de erros e a conformidade regulatória, gerando desafios éticos e de responsabilidade.
Além dos riscos tecnológicos, há um aspecto que pode mudar a forma como profissionais de diversos setores atuam. E isso pode ser perigoso. Como o uso da IA traz uma série de facilidades para os usuários, ela pode causar uma dependência excessiva. Não pode existir nada pior do que a confiança cega em uma tecnologia. Isso pode levar, sem nenhum exagero, a atrofia de habilidades críticas.
Se o sistema falhar, seja por um erro de programação, dados corrompidos ou outro aspecto, é preciso ter um humano pronto para intervir. Caso o profissional destacado para esta tarefa esteja "viciado" nas facilidades da IA, é bem provável que ele não observe os pontos de ruptura e erros. A capacidade de intervenção humana não pode nunca estar comprometida. As consequências podem ser catastróficas.
Como minimizar os riscos
A primeira coisa importante quando falamos de minimizar riscos é que não existe uma fórmula mágica, eles não serão extintos com uma só ação. É um conjunto de coisas que vai levar ao aumento da segurança. É um processo contínuo de governança e vigilância.
A governança de dados é essencial. Ela deve vir, inclusive, antes da implementação da IA. É importante investir em qualidade, privacidade e segurança. Isso inclui políticas claras de coleta, armazenamento, uso e descarte, além de estratégias de anonimização e criptografia.
Transparência, nem precisava dizer, também é um pré-requisito. É preciso desenvolver ou adotar modelos de IA mais "explicáveis". E o que significa isso? A "caixa-preta" é obrigatória para compreender as razões por trás das decisões da IA. Junto com isso devem ser desenvolvidas políticas claras. É preciso estabelecer diretrizes éticas claras que guiem o desenvolvimento e a implementação de todas as soluções de IA da empresa. Devem abordar vieses, responsabilidade, privacidade e demais impactos.
Implementar auditorias regulares nos sistemas de IA, desde os dados de treinamento até os algoritmos e os resultados também é algo que precisa estar no radar de qualquer projeto.
A IA é o futuro. Sem dúvida, mas o verdadeiro valor e a sustentabilidade de sua adoção não estão apenas na capacidade de inovar, mas na maturidade e na disciplina com que as empresas irão adotar, sempre mantendo o gerenciamento de riscos atualizado. Negligenciar essa outra face da inovação é um erro que nenhuma organização pode se dar ao luxo de cometer. E quem entender isso primeiro tem muito mais chances de terminar essa corrida na liderança.
Toni Hebert é sócio líder de Risk Advisory Services da BDO
| Período: Novembro/2025 | ||||||
|---|---|---|---|---|---|---|
| D | S | T | Q | Q | S | S |
| 01 | 02 | 03 | 04 | 05 | 06 | 07 | 08 | 09 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17 | 18 | 19 | 20 | 21 | 22 | 23 | 24 | 25 | 26 | 27 | 28 | 29 | 30 |
| Compra | Venda | |
|---|---|---|
| Dólar Americano/Real Brasileiro | 5.3654 | 5.3684 |
| Euro/Real Brasileiro | 6.16903 | 6.18429 |
| Atualizado em: 03/11/2025 12:31 | ||