adiruch na chiangmai - stock.ado
En las cuestiones éticas de la IA, se trata de librar las batallas correctas
Frente a las interrogantes éticas que levanta la IA, es necesario aplicar soluciones técnicas en el diseño de los algoritmos, desarrollar soluciones jurídicas para delimitar su uso, e impulsar la educación de las personas en su uso y detección de fraudes creados con ella.
¿La inteligencia artificial sustituirá al ser humano? ¿Podría volverse contra sus creadores? ¿Representa un peligro para la especie humana? Éstas son solo algunas de las preguntas que han suscitado el debate público y han sacudido a los medios de comunicación desde el despliegue masivo de herramientas de IA generativa y las declaraciones sensacionalistas de algunos personajes públicos. Sin embargo, por muy interesantes que sean las especulaciones desde un punto de vista filosófico, la mayoría de los expertos coinciden en que son un tanto prematuras.
Es cierto que la inteligencia artificial tiene un enorme potencial. Es una tecnología que va a permitir automatizar un amplio abanico de tareas, crear nuevos servicios y, en definitiva, hacer más eficientes las economías. La IA generativa marca una nueva etapa en esta tendencia subyacente, cuyas múltiples aplicaciones apenas estamos empezando a explorar. Sin embargo, no debemos perder de vista que, a pesar de sus notables prestaciones, los sistemas de IA son esencialmente máquinas, nada más que algoritmos integrados en procesadores capaces de asimilar grandes cantidades de datos.
Se nos ha dicho que estas nuevas herramientas serán capaces de superar la prueba de Turing. Probablemente sea cierto, pero ese examen –que anteriormente se creía capaz de trazar la línea divisoria entre la inteligencia humana y la inteligencia artificial– hace tiempo que dejó de tener un valor real. Estas máquinas son incapaces de inteligencia humana, en el sentido más amplio del término (es decir, que implique sensibilidad, adaptación al contexto, empatía...), reflexividad y conciencia, y probablemente lo serán por mucho tiempo.
Uno no puede evitar pensar que quienes imaginan que estas herramientas tendrán pronto esas características se están dejando influir demasiado por la ciencia ficción y por figuras míticas como Prometeo o el gólem, que siempre han ejercido cierta fascinación sobre nosotros.
Si adoptamos un punto de vista más prosaico, nos damos cuenta de que las cuestiones éticas planteadas por la creciente importancia de la inteligencia artificial no son nada nuevo, y que la llegada de ChatGPT y otras herramientas simplemente las ha hecho más apremiantes. Aparte del tema del empleo, estas cuestiones se refieren, por una parte, a la discriminación creada o amplificada por la IA y los datos de entrenamiento que utiliza y, por otra, a la propagación de información errónea, ya sea deliberadamente o como resultado de "alucinaciones de la IA". Sin embargo, estos dos temas preocupan desde hace tiempo a investigadores de algoritmos, legisladores y empresas del sector, que ya han empezado a aplicar soluciones técnicas y jurídicas para contrarrestar los riesgos.
Veamos, en primer lugar, las soluciones técnicas. Los principios éticos se están incorporando al propio desarrollo de las herramientas de IA. En Thales, llevamos tiempo comprometidos a no construir "cajas negras" cuando diseñamos sistemas de inteligencia artificial. Se debe establecer directrices que garanticen que los sistemas sean transparentes y explicables, y esforzarnos por minimizar los prejuicios (sobre todo de género y apariencia física) en el diseño de los algoritmos a través de los datos de entrenamiento utilizados y la composición de los equipos.
En segundo lugar, las soluciones jurídicas. Aquí, la Unión Europea ha tomado indiscutiblemente la delantera. La Comisión Europea y el Parlamento Europeo llevan más de dos años trabajando en un proyecto de reglamento destinado a limitar por ley los usos más peligrosos de la inteligencia artificial.
Sin embargo, es también a través de la educación y de un verdadero cambio social como lograremos protegernos de los riesgos inherentes al mal uso de la IA. Juntos, debemos conseguir apartarnos del tipo de cultura de la inmediatez que ha florecido con la llegada de la tecnología digital, y que probablemente se verá exacerbada por la difusión masiva de estas nuevas herramientas.
Como sabemos, la IA generativa permite producir fácilmente contenidos altamente virales, pero no necesariamente confiables. Existe el riesgo de que amplifique las deficiencias ampliamente reconocidas en el funcionamiento de las redes sociales, sobre todo en su promoción de contenidos cuestionables y divisivos, y en la forma en que provocan reacciones y enfrentamientos instantáneos.
Además, al acostumbrarnos a obtener respuestas "listas para usar" sin tener que buscar, autentificar o contrastar fuentes, estos sistemas nos vuelven intelectualmente perezosos. Corren el riesgo de agravar la situación al debilitar nuestro pensamiento crítico.
Por tanto, aunque no sería razonable empezar a enarbolar la bandera roja de un peligro existencial para la raza humana, sí es necesario emitir una señal de alarma. Hay que buscar fórmulas para acabar con esa nociva propensión a la inmediatez que lleva casi dos décadas contaminando la democracia y creando un caldo de cultivo para las teorías de la conspiración.
"Piénselo durante 30 segundos" es el fantástico título de un curso de formación creado por el centro quebequense de educación en medios de comunicación e información. Tomarse el tiempo necesario para contextualizar y evaluar la credibilidad de un contenido, y mantener un diálogo constructivo, en lugar de reaccionar inmediatamente, son los pilares de una vida digital sana. Tenemos que asegurarnos de que su enseñanza –tanto en la teoría, como en la práctica– sea una prioridad absoluta en los sistemas educativos de todo el mundo.
Si abordamos este desafío, por fin podremos aprovechar el tremendo potencial que tiene esta tecnología para hacer avanzar la ciencia, la medicina, la productividad y la educación.
Sobre el autor: Patrice Caine es presidente y CEO del Grupo Thales. Es graduado de la École Polytechnique y la École des Mines de París, con el grado de ingeniero en jefe del Corps des Mines y ha ocupado puestos en empresas como el grupo farmacéutico Fournier y el Charterhouse Bank Limited de Londres, así como la administración francesa. Es miembro de los Consejos de Administración de Naval Group desde 2015 y de L'Oréal desde 2018. Es vicepresidente de GIFAS (Groupement des Industries Françaises Aéronautiques et Spatiales); presidente de ANRT (Association Nationale de la Recherche et de la Technologie); vicepresidente de France Industrie; presidente del Cercle de l'Industrie; y miembro del comité ejecutivo del Conseil National de l'Industrie. También es miembro del comité de supervisión del programa francés Investissements d'Avenir. En Francia, ha recibido la Medalla de la Defensa Nacional (nivel bronce) y fue nombrado Caballero de la Orden Nacional del Mérito en 2014 y Caballero de la Legión de Honor en 2017.