Getty Images/iStockphoto
La IA no regulada es un peligro para la sociedad global
Tanium advierte que es urgente una regulación global eficaz sobre el uso y aplicaciones de la inteligencia artificial.
Tanium, proveedor de soluciones para seguridad y operaciones de TI, considera que la inteligencia artificial (IA) ha impactado fuertemente la vida cotidiana. Cuando ChatGPT de OpenAI se lanzó al público en general a fines de noviembre del 2022, registró un millón de usuarios en solo cinco días y, después de un mes, el chatbot rompió la marca de 100 millones.
Para Tanium el entusiasmo desenfrenado por los productos de las aplicaciones de IA pronto se vio empañado por la preocupación sobre su impacto en la sociedad: “el manejo acrítico de los resultados, algunos de los cuales son alucinaciones, es tan preocupante como las preguntas sobre sus cualidades disruptivas para el sistema educativo, el peligro de las campañas de desinformación escalables y gratuitas, el acceso de bajo espectro al código malicioso y, finalmente, sobre el cumplimiento y los derechos de autor que están aún sin resolver”, explican desde la compañía.
Los expertos de Tanium consideran que “está en juego el modelo de desarrollo más grande en la historia humana, con la promesa de una creación de valor automatizada casi ilimitada, saltos cuánticos en la ciencia y el consiguiente aumento de prosperidad para toda la humanidad.”
Sin embargo, solo unos pocos investigadores en todo el mundo se ocupan de las disciplinas de seguridad de la IA:
- Interpretabilidad.- se ocupa de desarrollar una comprensión profunda de cómo se producen los resultados respectivos de los diversos modelos de IA. Solo con la ayuda de esta comprensión se puede predecir el comportamiento futuro de la IA y evitar resultados dañinos.
- Investigación de alineación.- cuyo objetivo es equipar los modelos y agentes de IA actuales (débiles) y futuros (fuertes) con los valores centrales y fundamentales de la humanidad e integrarlos en su esencia.
Esta segunda disciplina es muy similar a las leyes básicas de la robótica de Isaac Asimov, diseñadas con el objetivo de controlar los avances de los robots dentro de un marco legal y ético con el fin de proteger a la humanidad. Las tres leyes de Asimov se resumen en:
1. Nunca dañar a un ser humano y salvaguardarlo de cualquier daño a toda costa.
2. Obedecer siempre las órdenes de los humanos, a menos que esto viole la regla número uno.
3. Proteger siempre la propia existencia, a menos que esto viole la regla número uno o dos.
“Si bien estas reglas son útiles como base para formular reglas de alineamiento para los agentes de IA como un buen punto de partida para pensar, no serán suficientes por sí solas para hacer que los futuros agentes de IA poderosos y que actúen de forma autónoma sean sostenibles y sólidamente seguras contra todos los cambios futuros posibles”, advierten desde Tanium.
A contrarreloj
Para Tanium, dado el estado actual de la investigación, aún no se ha llegado al punto en el que se debe temer una pérdida de control. Pero los efectos negativos del uso no regulado de la IA ya se están sintiendo.
“Industrias enteras corren el riesgo de ser devoradas por la automatización del trabajo cognitivo, las sociedades liberales con insuficiente alfabetización mediática corren el riesgo de ser víctimas de campañas de desinformación generadas por IA, los terroristas podrían obtener armas químicas o biológicas con la ayuda de aplicaciones de IA descontroladas. La lista de todos los peligros imaginables amenazados por el uso no regulado de aplicaciones de IA es muy larga. Por lo tanto, debemos convencer a nuestros legisladores de la urgencia de una regulación eficaz e inteligente lo antes posible”, comentó Miguel Llerena, vicepresidente para Latinoamérica de Tanium.
Países como Italia y China han tratado de restringir el uso de ChatGPT, siendo ejemplos iniciales de enfoques regulatorios complicados, ya que ni siquiera los principales desarrolladores de IA de OpenAI y Google comprenden (o no quieren revelar) los detalles de cómo se crean los resultados de sus modelos generativos de IA. Esto, por sí solo, es una señal de advertencia, de acuerdo con Tanium.
“Depende de los legisladores a escala global, establecer el curso regulatorio correcto para que se pueda gestionar el daño y potencial de mejoras revolucionarias de la IA para la ciencia, los negocios y toda la sociedad global. Pero, para poner en marcha el proceso regulatorio, los legisladores deben sentarse con los principales expertos en la materia para obtener las conclusiones correctas y aprobar una legislación adaptada antes de emitir reglas equivocadas e ineficaces”, finalizó Llerena.