Ciência e Tecnologia

Cibersegurança: é seguro para as empresas usar ferramentas de IA aberta? O risco de “vazamento invisível de dados”

Especialistas alertam contra o uso generalizado e descontrolado de plataformas abertas de IA generativa no ambiente corporativo

Fuga de datos / Whisk-FW
Fuga de dados / Whisk-FW (Made with Google AI)

A ascensão de ferramentas de Inteligência Artificial (IA) generativa, como ChatGPT e Gemini, impulsionou a produtividade em diversas áreas de trabalho. No entanto, essa adoção massiva, muitas vezes impulsionada pelos funcionários e sem políticas internas claras de governança, abriu um debate crucial durante o Mês da Cibersegurança: o uso de plataformas abertas de IA expõe informações confidenciais e viola os padrões de segurança corporativa.

Clique para receber notícias de Tecnologia e Ciências pelo WhatsApp

Especialistas em segurança tecnológica alertam que o principal risco reside na falta de clareza sobre onde os dados corporativos inseridos nessas plataformas vão parar e quem tem acesso a eles. Informações confidenciais podem ser replicadas ou reutilizadas para treinar modelos externos, criando um novo e sério risco corporativo: o “vazamento invisível de dados”.

Fuga de datos / Whisk-FW
Fuga de dados / Whisk-FW (Made with Google AI)

A chave está na governança e nos agentes privados de IA

Diante desse cenário, as instituições devem se concentrar em alternativas que lhes permitam aproveitar o potencial da IA ​​(incluindo agentes inteligentes e análise preditiva) sem abrir mão do controle de suas informações para ambientes externos.


A Datawalt, plataforma SaaS especializada em unificação de dados corporativos, enfatiza que a solução está na integração direta da IA ​​às estruturas de segurança e governança da organização.

Fuga de datos / Whisk-FW
Fuga de dados / Whisk-FW (Made with Google AI)

Lucas Waltemath, CEO e fundador da Datawalt, enfatiza que a IA não deve ser uma ferramenta independente, mas sim parte do ecossistema de tecnologia empresarial:

“O grande risco hoje não está em usar IA, mas em usá-la arbitrariamente. A informação é o ativo mais valioso de qualquer organização e não pode estar nas mãos de sistemas abertos. Acreditamos que a inteligência artificial deve operar sob os mesmos padrões de qualquer outro processo crítico de negócios”, afirma Waltemath.

Super Analistas com Rastreabilidade Total

A proposta tecnológica de empresas como a Datawalt concentra-se em uma abordagem de IA responsável que combina análises avançadas e gerenciamento de dados com modelos proprietários de IA empresarial para cada cliente.

  • Ambientes Seguros: Esses modelos são hospedados em ambientes fechados, seguros e auditáveis.
  • Agentes Proprietários: A Datawalt desenvolveu um módulo “Agentes” que permite às empresas criar “super analistas” personalizados, com acesso seguro e controlado aos dados internos (por exemplo, do ERP).

Rastreabilidade e controle: essa abordagem garante precisão, rastreabilidade completa de cada interação e permissões configuráveis, mitigando o risco de vazamento de dados.

Fuga de datos / Whisk-FW
Fuga de dados / Whisk-FW

Leia Também:

WhatsApp permitirá que você adicione links diretos para suas contas do Instagram

Microsoft quer vencer a próxima geração de consoles: veja o que é planejado para seu próximo Xbox

Há um problema com os satélites de Elon Musk: eles estão caindo rápido demais

O objetivo final é promover o uso de IA em estruturas de auditoria contínuas que mantenham o controle total das informações, garantindo que decisões estratégicas e dados confidenciais permaneçam dentro dos limites seguros da organização.

Últimas Notícias