Getty Images/iStockphoto
15 riscos de IA que as empresas devem enfrentar e como lidar com eles
Esses riscos associados à implementação de sistemas de IA devem ser reconhecidos pelas organizações que desejam usar a tecnologia de forma ética e com a menor responsabilidade possível.
As empresas sempre tiveram que gerenciar os riscos associados às tecnologias que adotam para construir seus negócios. Eles devem fazer o mesmo quando se trata de implementar inteligência artificial (IA).
Alguns dos riscos da IA são os mesmos da implementação de qualquer nova tecnologia: mau alinhamento estratégico com os objetivos de negócios, falta de habilidades para apoiar iniciativas e falta de adesão em todos os níveis da organização.
Para tais desafios, os executivos devem se apoiar nas melhores práticas que têm orientado a adoção efetiva de outras tecnologias. Consultores de gerenciamento e especialistas em IA disseram que aconselham os CIOs e seus colegas de nível C a identificar áreas em que a IA pode ajudá-los a atingir as metas organizacionais, desenvolver estratégias para garantir que eles tenham o conhecimento necessário para apoiar programas de IA e criar políticas robustas de gerenciamento de mudanças para suavizar e acelerar o processo de adoção nos negócios.
No entanto, os executivos estão descobrindo que a IA na empresa também traz riscos únicos que precisam ser reconhecidos e tratados de frente.
Aqui estão 15 áreas de risco que podem surgir à medida que as organizações implementam e usam tecnologias de IA na empresa.
1. A falta de confiança dos funcionários pode impedir a adoção da IA
Nem todos os trabalhadores estão prontos para adotar a IA.
A empresa de serviços profissionais KPMG, em parceria com a Universidade de Queensland, na Austrália, descobriu que 61% dos entrevistados em seu relatório "Trust in Artificial Intelligence: Global Insights 2023" são ambivalentes ou não querem confiar na IA.
Sem essa confiança, uma implementação de IA será improdutiva, de acordo com especialistas.
Considere, por exemplo, o que aconteceria se os trabalhadores não confiassem em uma solução de IA em um chão de fábrica que determinasse que uma máquina deveria ser desligada para manutenção. Mesmo que o sistema de IA seja quase sempre preciso, se o usuário não confiar na máquina, a IA é uma falha.
2. A IA pode ter vieses não intencionais
Em seu nível mais básico, a IA recebe grandes volumes de dados e então, usando algoritmos, identifica e aprende a agir de acordo com os padrões que identifica nos dados.
Mas quando os dados são distorcidos ou problemáticos, a IA produz resultados incorretos.
Da mesma forma, algoritmos problemáticos –como aqueles que refletem o viés do programador– podem fazer com que os sistemas de IA produzam resultados tendenciosos.
“Este não é um problema hipotético”, de acordo com “The Implications of Algorithms for Civil Rights”, um relatório de março de 2023 do Comitê Consultivo de Connecticut para a Comissão de Direitos Civis dos EUA.
O relatório explica como certos dados de treinamento podem levar a resultados distorcidos, citando como exemplo que "na cidade de Nova York, policiais pararam e revistaram mais de cinco milhões de pessoas na última década. Durante esse período, policiais negros e latinos foram nove vezes mais chances de serem presos do que seus colegas brancos. Como resultado, algoritmos de policiamento preditivo treinados em dados dessa jurisdição preverão crimes em bairros com residentes predominantemente negros e latinos."
3. Viés, erros muito ampliados pelo volume de transações de IA
Os trabalhadores humanos, é claro, são tendenciosos e cometem erros, mas as consequências de seus erros são limitadas à quantidade de trabalho que realizam antes que os erros sejam detectados –o que geralmente não é muito. No entanto, as consequências de vieses ou erros ocultos em sistemas operacionais de IA podem ser exponencialmente maiores.
Como explicaram os especialistas, os humanos podem cometer dezenas de erros em um dia, mas um bot que lida com milhões de transações por dia amplia qualquer erro em milhões.
4. A IA pode estar delirando
A maioria dos sistemas de IA é estocástica ou probabilística. Isso significa que algoritmos de aprendizado de máquina, aprendizado profundo, análise preditiva e outras tecnologias trabalham juntos para analisar dados e produzir a resposta mais provável em cada cenário. Isso contrasta com os ambientes de IA determinísticos, em que o comportamento de um algoritmo pode ser previsto a partir da entrada.
Mas a maioria dos ambientes de IA do mundo real são estocásticos ou probabilísticos e não 100% precisos.
"Eles retornam seu melhor palpite para o que você está pedindo", explicou Will Wong, diretor de pesquisa principal do Info-Tech Research Group.
Na verdade, resultados imprecisos são tão comuns –principalmente com mais e mais pessoas usando o ChatGPT– que existe um termo para o problema: alucinações de IA.
"Então, assim como você não pode acreditar em tudo na internet, você não pode acreditar em tudo que ouve de um chatbot –você tem que investigar", aconselhou Wong.
5. A IA pode criar resultados inexplicáveis, prejudicando assim a confiança
A explicabilidade, ou a capacidade de determinar e articular como e por que um sistema de IA chegou a suas decisões ou previsões, é outro termo frequentemente usado ao discutir a IA.
Embora a explicabilidade seja crítica para validar resultados e criar confiança na IA em geral, nem sempre é possível —especialmente quando se trata de sistemas sofisticados de IA que aprendem continuamente enquanto operam.
Por exemplo, disse Wong, os especialistas em IA geralmente não sabem como os sistemas de IA chegaram a essas conclusões erradas rotuladas como alucinações.
Tais situações podem dificultar a adoção da IA, apesar dos benefícios que ela pode trazer para muitas organizações.
Em um artigo de setembro de 2022, "Por que as empresas precisam de IA explicável - e como entregá-la", a empresa de gerenciamento global McKinsey & Company observou que "clientes, reguladores e o público em geral devem se sentir confiantes de que os modelos de IA têm consequências, as decisões estão sendo tomadas em de maneira precisa e justa. Da mesma forma, mesmo os sistemas de IA mais avançados acumularão poeira se os usuários pretendidos não entenderem a base para as recomendações fornecidas."
6. A IA pode ter consequências não intencionais
Da mesma forma, o uso da IA pode ter consequências que os líderes empresariais não contemplaram ou não puderam contemplar, disse Wong.
Um relatório de 2022 divulgado pela Casa Branca, "O impacto da inteligência artificial no futuro da força de trabalho na União Europeia e nos Estados Unidos da América", destacou esse ponto, citando as descobertas de pesquisadores do Google, que estudaram "como a linguagem natural modelos interpretam discussões sobre deficiências e doenças mentais e descobriram que vários modelos de sentimento penalizam tais discussões, criando um viés até mesmo contra frases positivas como 'eu lutarei pelas pessoas com doenças mentais'."
7. A IA pode se comportar de forma antiética e ilegal
Alguns usos da IA podem levantar dilemas éticos para seus usuários, disse Jordan Rae Kelly, gerente geral sênior e chefe de segurança cibernética para as Américas da FTI Consulting.
“Existe um impacto ético potencial na maneira como você usa a IA, com o qual suas partes interessadas internas ou externas podem ter problemas”, disse ele. Os trabalhadores, por exemplo, podem considerar o uso de um sistema de monitoramento baseado em IA uma invasão de privacidade e um exagero corporativo, acrescentou Kelly.
Outros levantaram preocupações semelhantes. O relatório da Casa Branca de 2022 também destacou como os sistemas de IA podem operar de maneiras potencialmente antiéticas, citando um caso em que "um algoritmo exibiu desproporcionalmente anúncios de carreiras STEM que tinham a intenção explícita de serem neutros em termos de gênero". para candidatas mais jovens é maior e a lucratividade otimizada pelo algoritmo."
8. O uso de IA pelos funcionários pode fugir ou escapar do controle corporativo
A "Pesquisa KPMG Generative AI" de abril de 2023 entrevistou 225 executivos e descobriu que 68% dos entrevistados não designaram uma pessoa ou equipe principal para organizar uma resposta ao aumento da tecnologia, observando que "no momento, a função de TI está liderando o esforço.
A KPMG também descobriu que 60% dos entrevistados acreditam que estão a um ou dois anos de implementar sua primeira solução de IA generativa, 72% disseram que a IA generativa desempenha um papel crítico na construção e manutenção da confiança nos negócios. efeito negativo na confiança de sua organização se as ferramentas corretas de gerenciamento de risco não estiverem em vigor.
Mas, à medida que os executivos consideram soluções e proteções de IA generativas a serem implementadas nos próximos anos, muitos trabalhadores já estão usando essas ferramentas. Uma pesquisa recente da Fishbowl, uma rede social para profissionais, descobriu que 43% dos 11.793 entrevistados usam ferramentas de IA para tarefas de trabalho e quase 70% o fazem sem o conhecimento do chefe.
Wong, do Info-Tech Research Group, disse que os líderes empresariais estão desenvolvendo uma série de políticas para governar o uso comercial de ferramentas de IA, incluindo o ChatGPT. No entanto, ele disse que as empresas que proibiram seu uso estão descobrindo que tais restrições não são populares ou mesmo viáveis de serem aplicadas. Como resultado, alguns estão reformulando suas políticas para permitir o uso de tais ferramentas em determinados casos e com dados não proprietários e irrestritos.
9. Questões de responsabilidade não foram resolvidas e indeterminadas
Questões legais sobre responsabilidade surgiram à medida que as organizações usam sistemas de IA para tomar decisões e integrá-los aos produtos e serviços que vendem, e a questão de quem seria responsável por resultados ruins permanece sem solução.
Por exemplo, Kelly, da FTI Consulting, disse que não está claro quem –ou o quê– seria ou deveria ser culpado se a IA escrevesse um código de computador defeituoso que causa problemas. Esse problema deixa executivos, juntamente com advogados, tribunais e legisladores, para avançar com casos de uso de IA com alto grau de incerteza.
10. O uso comercial pode entrar em conflito com as leis propostas e os regulamentos esperados
Governos de todo o mundo estão considerando se devem implementar leis para regular o uso da IA e quais devem ser essas leis. Especialistas em inteligência legal e artificial disseram esperar que os governos comecem a aprovar novas regras nos próximos anos.
As organizações podem precisar ajustar seus roteiros de IA, reduzir suas implantações planejadas ou até mesmo eliminar alguns de seus usos de IA se entrarem em conflito com qualquer legislação futura, disse Kelly.
Os executivos podem achar isso desafiador, acrescentou, já que a IA costuma estar incorporada às tecnologias e serviços que compram dos fornecedores. Isso significa que os líderes empresariais terão que revisar suas iniciativas de IA desenvolvidas internamente e a IA em produtos e serviços adquiridos de terceiros para garantir que não estejam infringindo nenhuma lei.
11. As principais habilidades podem correr o risco de serem corroídas pela IA
Depois de dois acidentes aéreos envolvendo aviões Boeing 737 Max, um no final de 2018 e outro no início de 2019, alguns especialistas levantaram preocupações de que os pilotos estavam perdendo habilidades básicas de voo à medida que se tornavam cada vez mais dependentes do número crescente de automação na cabine.
Embora esses incidentes sejam casos extremos, os especialistas disseram que a IA irá corroer outras habilidades importantes que as empresas podem querer preservar em sua força de trabalho humana.
"Vamos deixar de lado as pessoas que sabem como fazer as coisas sem tecnologia", disse Yossi Sheffi, especialista global em cadeia de suprimentos, diretor do Centro de Transporte e Logística do MIT e autor de The Magic Conveyer Belt: Supply Chains, IA e o futuro do trabalho .
12. A IA pode causar agitação social
Uma pesquisa de maio de 2023 intitulada "IA, automação e o futuro dos locais de trabalho", da fabricante de software Robin, descobriu que 61% dos entrevistados acreditam que ferramentas com tecnologia de IA tornarão alguns empregos obsoletos.
E muitos funcionários que não perderem seus empregos verão mudanças na maneira como trabalham e no tipo de trabalho que realizam, acrescentaram os especialistas.
Sheffi disse que essas mudanças impulsionadas pela tecnologia no mercado de trabalho provocaram distúrbios trabalhistas no passado e podem fazê-lo novamente.
Mesmo que tal cenário não aconteça com a IA, Sheffi e outros disseram que as organizações precisarão ajustar as responsabilidades do trabalho, além de ajudar os funcionários a aprender a usar as ferramentas de IA e adotar novas formas de trabalhar.
13. Dados de treinamento ruins, falta de monitoramento podem sabotar os sistemas de IA
Em 2016, a Microsoft lançou um chatbot chamado Tay no Twitter. Os engenheiros projetaram o bot para se envolver em interações on-line e aprender padrões de linguagem para que ela –sim, Tay foi projetada para imitar a fala de uma adolescente– soasse normal na internet.
Em vez disso, os trolls ensinaram a Tay linguagem racista, misógina e anti-semita, e sua linguagem tornou-se tão hostil e ofensiva em poucas horas que a Microsoft suspendeu a conta.
A experiência da Microsoft destaca outro grande risco na construção e uso da IA: ela precisa ser bem ensinada para funcionar corretamente.
14. Hackers podem usar IA para criar ataques mais sofisticados
Os malfeitores estão usando IA para aumentar a sofisticação de seus ataques, torná-los mais eficazes e aumentar a probabilidade de que seus ataques penetrem com sucesso nas defesas de suas vítimas.
“A IA pode acelerar a eficácia dos bandidos”, disse Kelly.
Hackers experientes não são os únicos a tirar vantagem da IA. Wong disse que a IA –e a IA generativa em particular– permite que aspirantes a hackers inexperientes desenvolvam códigos maliciosos com relativa facilidade e velocidade.
"Você pode conversar com o ChatGPT para descobrir como ser um hacker", disse Wong. "Você pode pedir ao ChatGPT para escrever o código para você. Você só precisa saber fazer as perguntas certas."
15. Más decisões sobre o uso de IA podem prejudicar a reputação
Após o tiroteio de fevereiro de 2023 em uma escola particular de Nashville, o Peabody Office of Equity, Diversity and Inclusion da Vanderbilt University respondeu ao trágico evento com um e-mail que incluía, no final, uma nota informando que a mensagem havia sido escrita usando o ChatGPT. Alunos e outros foram rápidos em criticar o uso da tecnologia em tais circunstâncias, levando a universidade a se desculpar por seu "mau julgamento".
O incidente destaca os riscos que as organizações enfrentam ao usar a IA: a forma como escolhem usar a tecnologia pode afetar a forma como são vistos por seus funcionários, clientes, parceiros e pelo público.
As organizações que usam IA de maneiras que alguns acreditam ser tendenciosas, invasivas, manipuladoras ou antiéticas podem enfrentar reações adversas e danos à reputação. "Isso pode mudar a percepção de sua marca de uma forma que eles não desejam", acrescentou Kelly.
Como gerenciar riscos
Os riscos decorrentes ou associados ao uso da IA não podem ser eliminados, mas podem ser gerenciados.
As organizações devem primeiro reconhecer e entender esses riscos, de acordo com vários especialistas em inteligência artificial e liderança executiva. A partir daí, eles devem implementar políticas para ajudar a minimizar a probabilidade de tais riscos afetarem negativamente suas organizações. Essas políticas devem garantir o uso de dados de alta qualidade para treinamento e exigir testes e validação para remover vieses indesejados.
As políticas também devem exigir monitoramento contínuo para evitar que vieses se infiltrem nos sistemas, que aprendem enquanto trabalham, e para identificar quaisquer consequências inesperadas que surjam com o uso.
E embora os líderes organizacionais possam não ser capazes de prever todas as considerações éticas, os especialistas disseram que as empresas precisam ter estruturas para garantir que seus sistemas de IA contenham as políticas e os limites para criar resultados éticos, transparentes, justos e imparciais –com funcionários humanos monitorando esses sistemas para confirmar se os resultados atendem aos padrões estabelecidos pela organização.
As organizações que buscam obter sucesso nesse trabalho devem envolver o conselho e o C-suite. Como disse Wong, "este não é apenas um problema de TI, então todos os executivos precisam estar envolvidos nisso".