Rokas - stock.adobe.com

Netskope oferece solução de segurança para uso corporativo do ChatGPT e IA generativa

O uso do ChatGPT aumenta 25% a cada mês nas empresas, exigindo decisões importantes em relação a bloquear ou permitir com base em questões de segurança e na produtividade, assim como melhorar as estratégias de proteção de informações de negócios.

Após incidentes de exposição de dados confidenciais de IA generativa em 2023, a prioridade de muitas empresas agora é avaliar se permitirão o uso dessas ferramentas e como farão isso com segurança, para manter o suporte à inovação em inteligência artificial sem colocar seus negócios em risco.

Segundo a Netskope, aproximadamente 1 em cada 100 funcionários corporativos usa ativamente o ChatGPT diariamente, com cada usuário enviando, em média, 8 comandos por dia. Ainda mais, a adoção do ChatGPT está crescendo exponencialmente nas empresas, atualmente a uma taxa de 25% mês a mês. Como mecanismo de proteção, quase 10% das empresas estão bloqueando ativamente o uso do ChatGPT.

Mas o bloqueio não é suficiente, é necessário melhorar as estratégias de proteção de informações de negócios com soluções dinâmicas. Para enfrentar esse desafio, a Netskope, fornecedor de soluções Secure Access Service Edge (SASE), anunciou a disponibilidade geral de uma solução abrangente de proteção de dados para ajudar as empresas a gerenciar com segurança o uso do ChatGPT e outras ferramentas de inteligência artificial (IA) generativa, como Google Bard e Jasper.

A solução é parte da plataforma Intelligent Security Service Edge (SSE), a qual combina recursos da proteção de dados com inovações lançadas recentemente para classificar e controlar de forma dinâmica o uso seguro de ferramentas de IA generativa. Estes estão disponíveis como uma oferta de solução unificada aos clientes da Netskope e de sua rede de parceiros.

“Hoje, as empresas precisam decidir se devem bloquear o acesso ao ChatGPT e a outras aplicações de IA generativa para reduzir o risco de segurança ou permitir o uso e obter a eficiência e outros benefícios que essas ferramentas podem trazer. O uso seguro desses apps é um desafio avançado de proteção de dados”, diz Krishna Narayanaswamy, cofundador e diretor de tecnologia da Netskope. “A Netskope ajuda todas as organizações a incentivar o uso responsável dessas ferramentas cada vez mais populares, usando os controles de proteção de dados corretos que ajudam a manter os negócios seguros e produtivos.”

Segundo a Netskope, os recursos do Zero Trust Engine para a ativação segura de ferramentas de IA generativa incluem:

Visibilidade abrangente de uso de aplicações

  • Acesso instantâneo ao uso específico do ChatGPT e outras ferramentas dentro da empresa por meio da detecção de SaaS e painéis de análise avançada;
  • Cloud Confidence Index (CCI), um banco de dados que classifica ativamente novas aplicações de IA generativa e avalia seus riscos;
  • Contexto granular e reconhecimento de instância que discerne níveis de acesso e fluxos de dados por meio de contas em aplicações;
  • Identificação de domínios de IA generativa, permitindo que as equipes configurem políticas de controle de acesso e proteção em tempo real e gerenciem o tráfego destinado exclusivamente para as aplicações de IA generativa.

Controle avançado de acesso a aplicações

  • Capacidade de monitorar e permitir ou bloquear postagens de dados sensíveis (como código fonte) para chatbots de IA.
  • Mensagens visuais de coaching para alertar os usuários em tempo real sobre a possível exposição de dados e outros riscos sempre houver acesso às ferramentas de IA generativa.

Proteção avançada de dados

  • Capacidade de monitorar e permitir ou bloquear postagens e uploads de arquivos para chatbots de IA;
  • Suporte para requisitos de conformidade regulatória, como LGPD, GDPR, CCPA, HIPAA e mais.

 

Saiba mais sobre Inteligência artificial e automação