adiruch na chiangmai - stock.ado
Quando se trata das questões éticas da IA, é preciso travar as batalhas certas
Diante das questões éticas levantadas pela IA, é necessário aplicar soluções técnicas no projeto de algoritmos, desenvolver soluções legais para limitar seu uso e promover a educação das pessoas sobre seu uso e a detecção de fraudes criadas com ela.
A inteligência artificial substituirá os seres humanos, poderá se voltar contra seus criadores e representará um perigo para a espécie humana? Essas são apenas algumas das perguntas que agitaram o debate público e abalaram a mídia desde a implantação maciça de ferramentas de IA generativa e as declarações sensacionalistas de algumas figuras públicas. Entretanto, por mais interessantes que sejam as especulações do ponto de vista filosófico, a maioria dos especialistas concorda que elas são um tanto prematuras.
É verdade que a inteligência artificial tem um potencial enorme. É uma tecnologia que possibilitará automatizar uma ampla gama de tarefas, criar novos serviços e, por fim, tornar as economias mais eficientes. A IA geradora marca um novo estágio nessa tendência subjacente, cujas múltiplas aplicações estamos apenas começando a explorar. No entanto, não devemos perder de vista o fato de que, apesar de suas notáveis capacidades, os sistemas de IA são essencialmente máquinas, nada mais do que algoritmos incorporados em processadores capazes de assimilar grandes quantidades de dados.
Fomos informados de que essas novas ferramentas serão capazes de passar no teste de Turing. Isso provavelmente é verdade, mas esse teste - que antes era considerado capaz de estabelecer a linha entre a inteligência humana e a inteligência artificial - há muito deixou de ter valor real. Essas máquinas são incapazes de ter inteligência humana, no sentido mais amplo do termo (ou seja, envolvendo senciência, adaptação ao contexto, empatia...), reflexividade e consciência, e provavelmente o serão por muito tempo.
Não podemos deixar de pensar que aqueles que imaginam que essas ferramentas logo terão essas características estão se deixando influenciar demais pela ficção científica e por figuras míticas como Prometeu ou o golem, que sempre exerceram um certo fascínio sobre nós.
Se adotarmos uma visão mais prosaica, perceberemos que as questões éticas levantadas pela crescente importância da inteligência artificial não são novas, e que o advento do ChatGPT e de outras ferramentas simplesmente as tornou mais urgentes. Além da questão do emprego, essas questões dizem respeito, por um lado, à discriminação criada ou ampliada pela IA e pelos dados de treinamento que ela usa e, por outro lado, à disseminação de desinformação, seja deliberadamente ou como resultado de "alucinações da IA". No entanto, esses dois problemas há muito preocupam os pesquisadores de algoritmos, legisladores e participantes do setor, que já começaram a implementar soluções técnicas e jurídicas para combater os riscos.
Vamos primeiro dar uma olhada nas soluções técnicas. Os princípios éticos estão sendo incorporados ao próprio desenvolvimento das ferramentas de IA. Na Thales, há muito tempo estamos comprometidos em não construir "caixas pretas" ao projetar sistemas de inteligência artificial. As diretrizes devem ser estabelecidas para garantir que os sistemas sejam transparentes e explicáveis, e nos esforçamos para minimizar o preconceito (especialmente de gênero e aparência física) no design de algoritmos por meio dos dados de treinamento usados e da composição das equipes.
Em segundo lugar, as soluções jurídicas. Nesse ponto, a União Europeia, sem dúvida, assumiu a liderança. A Comissão Europeia e o Parlamento Europeu estão trabalhando há mais de dois anos em um projeto de regulamentação que visa limitar por lei os usos mais perigosos da inteligência artificial.
No entanto, é também por meio da educação e de mudanças sociais reais que poderemos nos proteger dos riscos inerentes ao uso indevido da IA. Juntos, devemos conseguir nos afastar do tipo de cultura do imediatismo que floresceu com o advento da tecnologia digital e que provavelmente será exacerbada pela disseminação em massa dessas novas ferramentas.
Como sabemos, a IA generativa facilita a produção de conteúdo altamente viral, mas não necessariamente confiável. Há o risco de que ela amplie as deficiências amplamente reconhecidas na forma como as redes sociais operam, especialmente na promoção de conteúdo questionável e divisivo e na forma como provocam reações e confrontos instantâneos.
Além disso, ao nos acostumar a obter respostas "prontas para uso" sem precisar pesquisar, autenticar ou verificar as fontes, esses sistemas nos tornam intelectualmente preguiçosos. Eles correm o risco de agravar a situação ao enfraquecer nosso pensamento crítico.
Portanto, embora não seja razoável começar a agitar a bandeira vermelha de um perigo existencial para a raça humana, é necessário soar um alarme. É preciso buscar fórmulas para acabar com essa propensão nociva ao imediatismo que vem contaminando a democracia há quase duas décadas e criando um terreno fértil para as teorias da conspiração.
"Pense sobre isso por 30 segundos" é o fantástico título de um curso de treinamento criado pelo centro de Quebec para educação em mídia e informação. Reservar um tempo para contextualizar e avaliar a credibilidade do conteúdo e manter um diálogo construtivo, em vez de reagir imediatamente, são os pilares de uma vida digital saudável. Precisamos garantir que o ensino disso - tanto na teoria quanto na prática - seja uma prioridade máxima nos sistemas educacionais de todo o mundo.
Se enfrentarmos esse desafio, poderemos finalmente aproveitar o enorme potencial dessa tecnologia para avançar na ciência, na medicina, na produtividade e na educação.
Sobre o autor: Patrice Caine é Presidente e CEO do Thales Group.