Rokas - stock.adobe.com
Netskope oferece solução de segurança para uso corporativo do ChatGPT e IA generativa
O uso do ChatGPT aumenta 25% a cada mês nas empresas, exigindo decisões importantes em relação a bloquear ou permitir com base em questões de segurança e na produtividade, assim como melhorar as estratégias de proteção de informações de negócios.
Após incidentes de exposição de dados confidenciais de IA generativa em 2023, a prioridade de muitas empresas agora é avaliar se permitirão o uso dessas ferramentas e como farão isso com segurança, para manter o suporte à inovação em inteligência artificial sem colocar seus negócios em risco.
Segundo a Netskope, aproximadamente 1 em cada 100 funcionários corporativos usa ativamente o ChatGPT diariamente, com cada usuário enviando, em média, 8 comandos por dia. Ainda mais, a adoção do ChatGPT está crescendo exponencialmente nas empresas, atualmente a uma taxa de 25% mês a mês. Como mecanismo de proteção, quase 10% das empresas estão bloqueando ativamente o uso do ChatGPT.
Mas o bloqueio não é suficiente, é necessário melhorar as estratégias de proteção de informações de negócios com soluções dinâmicas. Para enfrentar esse desafio, a Netskope, fornecedor de soluções Secure Access Service Edge (SASE), anunciou a disponibilidade geral de uma solução abrangente de proteção de dados para ajudar as empresas a gerenciar com segurança o uso do ChatGPT e outras ferramentas de inteligência artificial (IA) generativa, como Google Bard e Jasper.
A solução é parte da plataforma Intelligent Security Service Edge (SSE), a qual combina recursos da proteção de dados com inovações lançadas recentemente para classificar e controlar de forma dinâmica o uso seguro de ferramentas de IA generativa. Estes estão disponíveis como uma oferta de solução unificada aos clientes da Netskope e de sua rede de parceiros.
“Hoje, as empresas precisam decidir se devem bloquear o acesso ao ChatGPT e a outras aplicações de IA generativa para reduzir o risco de segurança ou permitir o uso e obter a eficiência e outros benefícios que essas ferramentas podem trazer. O uso seguro desses apps é um desafio avançado de proteção de dados”, diz Krishna Narayanaswamy, cofundador e diretor de tecnologia da Netskope. “A Netskope ajuda todas as organizações a incentivar o uso responsável dessas ferramentas cada vez mais populares, usando os controles de proteção de dados corretos que ajudam a manter os negócios seguros e produtivos.”
Segundo a Netskope, os recursos do Zero Trust Engine para a ativação segura de ferramentas de IA generativa incluem:
Visibilidade abrangente de uso de aplicações
- Acesso instantâneo ao uso específico do ChatGPT e outras ferramentas dentro da empresa por meio da detecção de SaaS e painéis de análise avançada;
- Cloud Confidence Index (CCI), um banco de dados que classifica ativamente novas aplicações de IA generativa e avalia seus riscos;
- Contexto granular e reconhecimento de instância que discerne níveis de acesso e fluxos de dados por meio de contas em aplicações;
- Identificação de domínios de IA generativa, permitindo que as equipes configurem políticas de controle de acesso e proteção em tempo real e gerenciem o tráfego destinado exclusivamente para as aplicações de IA generativa.
Controle avançado de acesso a aplicações
- Capacidade de monitorar e permitir ou bloquear postagens de dados sensíveis (como código fonte) para chatbots de IA.
- Mensagens visuais de coaching para alertar os usuários em tempo real sobre a possível exposição de dados e outros riscos sempre houver acesso às ferramentas de IA generativa.
Proteção avançada de dados
- Capacidade de monitorar e permitir ou bloquear postagens e uploads de arquivos para chatbots de IA;
- Suporte para requisitos de conformidade regulatória, como LGPD, GDPR, CCPA, HIPAA e mais.