KOHb - Getty Images

Como a governança de IA e a privacidade de dados andam de mãos dadas

Dadas as instâncias em que a inteligência artificial compromete a privacidade e a segurança dos dados, é imperativo que organizações entendam que a IA e a privacidade dos dados podem coexistir em suas estruturas de governança de IA.

A proteção de dados e a proteção da privacidade do usuário são fundamentais para regulamentações como a Lei de Portabilidade e Responsabilidade do Seguro de Saúde, a Lei de Privacidade do Consumidor da Califórnia, e a Lei Geral de Proteção de Dados (LGPD) no Brasil. Dentro do domínio da governança da inteligência artificial (IA), garantir a privacidade dos dados é igualmente prático e importante.

Essa forma de gerenciamento de risco não é apenas para conformidade regulatória, mas também para proteção contra possíveis danos à reputação da sua marca se as normas de privacidade de dados não forem atendidas. Para garantir a privacidade dos dados, uma organização pode usar uma estrutura de governança corporativa de IA que defina os requisitos de conformidade regulatória e incorpore controles apropriados para gerenciamento de riscos.

Os desafios para alcançar a privacidade de dados existem na governança de IA

É um truísmo que os dados estão no coração da IA. Da mesma forma, também está ficando claro que a governança de dados está no centro da governança de IA. Sem dúvida, parece haver uma tensão inerente entre a mineração de dados do usuário para insights acionáveis ​​e a preservação da privacidade, o que é conhecido como a troca de utilidade e privacidade. Mas também é possível encontrar um equilíbrio entre utilidade e privacidade.

O objetivo declarado de muitas organizações é ser orientada por dados. As organizações querem abrir seus aplicativos de dados e análises mais amplamente e capacitar seus funcionários. No entanto, esse objetivo de democratização de dados não é amplamente alcançado na prática, devido a questões de proteção e privacidade de dados. Muitos conjuntos de dados contêm informações pessoais dos usuários e as organizações se preocupam que, se os dados forem compartilhados mais amplamente, haverá uma chance maior de vazamento de informações de identificação pessoal, ou surgirão vetores de ataque.

Para evitar violações de regulamentos e requisitos de privacidade, o acesso a esses dados geralmente é restrito a equipes como TI ou análise. Em outras palavras, o medo da privacidade de dados está dificultando a democratização dos dados. Devido a essas preocupações, esses conjuntos de dados não são disponibilizados para as equipes de aprendizado de máquina para treinamento de modelos de IA. Isso apresenta o risco de potencialmente reduzir a eficácia e a utilidade desses modelos e aplicativos de IA.

Como a IA e a privacidade de dados podem coexistir em uma estrutura

Uma abordagem de privacidade por design ajuda a superar essas limitações, pois a IA e a privacidade de dados podem coexistir como duas partes do ciclo de vida da IA. Essencial para essa abordagem é usar técnicas de anonimização de dados que preservam a privacidade sem perder a utilidade dos dados em aplicativos de IA.

  • Desidentificação. Aqui, identificadores pessoais e atributos confidenciais são mascarados com valores de espaço reservado não confidenciais. As regras de mascaramento podem variar de simples, como ocultar os primeiros dígitos de um número de CPF ou cartão de crédito e mostrar apenas os últimos, a complexas, como usar tokenização aleatória para substituir um valor original por uma string aparentemente não relacionada.
  • K-anonimização. Aqui, a privacidade individual é protegida pelo agrupamento dos dados que identificam um indivíduo em um conjunto de dados em que todos têm atributos semelhantes. Essa técnica também pode ser chamada de "esconder-se na multidão" para que nenhum registro possa ser vinculado exclusivamente a um indivíduo. Por exemplo, a idade ou renda de um indivíduo é substituída por uma faixa etária ou de renda. Às vezes, certos atributos podem até ser descartados.
  • Privacidade diferencial. É possível inferir quais são as entradas de um modelo de IA analisando suas saídas. Essa técnica visa conter vazamentos de dados. Isso é feito adicionando "ruído" (na forma de dados sintéticos) ao conjunto de dados sem perder os "sinais" (ou seja, características preditivas úteis) nos dados. Técnicas de privacidade diferencial podem ser empregadas quando os requisitos de privacidade são maiores e os dados são mais sensíveis. Existem várias ferramentas de governança de dados que ajudam a implementar a privacidade diferencial.
  • Aprendizado de máquina federado. Aqui, o treinamento do modelo acontece iterativamente usando diferentes dispositivos descentralizados em vez de agregação centralizada de dados. Esta não é uma técnica de anonimização em si, mas ajuda a melhorar a privacidade.

As empresas têm várias técnicas à sua disposição para ajudar a melhorar as práticas de IA e privacidade de dados. Além da proteção da privacidade de dados no contexto da governança de IA, a prudência é garantida em toda a cadeia de fornecimento de dados –desde a coleta e armazenamento de dados até o processamento, acesso e compartilhamento. Portanto, as equipes de TI/engenharia, comercial e jurídica também têm seus papéis a desempenhar aqui.

Sobre o autor: Kashyap Kompella é analista do setor, autor, educador e consultor de IA para empresas e startups líderes nos EUA, Europa e região Ásia-Pacífico. Atualmente, ele é o CEO da RPA2AI Research, uma empresa global de analistas do setor de tecnologia. A RPA2AI aconselha corporações globais, empresas de capital de risco ou private equity e agências governamentais sobre investimentos em IA, IA empresarial, governança de IA, auditorias de IA e ética em IA.

Saiba mais sobre Privacidade e proteção de dados