Getty Images/iStockphoto

El CEO de OpenAI aboga por la regulación de la IA

Para mitigar los daños causados por la inteligencia artificial, los líderes de la industria, incluido el director ejecutivo de OpenAI, Sam Altman, dijeron que será necesaria una regulación.

Escuche este artículo. Este audio fue generado por IA

La regulación de la inteligencia artificial será vital para guiar los beneficios de las herramientas de IA generativa en el futuro y mitigar los riesgos asociados con la tecnología, dijo Sam Altman, director ejecutivo del creador de ChatGPT, OpenAI, ante un panel del Senado de Estados Unidos.

Altman dijo que su mayor temor es que la industria de la IA "cause un daño significativo al mundo". Las herramientas de IA generativa están generando preocupaciones , desde la creación de información incorrecta y dañina hasta el posible desplazamiento generalizado de puestos de trabajo.

“Creo que si esta tecnología sale mal, puede salir bastante mal”, dijo Altman durante la audiencia. "Y queremos expresarnos al respecto. Queremos trabajar con el gobierno para evitar que eso suceda".

Altman testificó ante el Subcomité Judicial del Senado sobre Privacidad, Tecnología y la Ley en una audiencia que inició una serie para ayudar a determinar un curso de acción del Congreso sobre la regulación de la IA.

Durante la audiencia, varios senadores de EE. UU., incluido el presidente del subcomité, el senador Richard Blumenthal, enfatizaron la necesidad de adelantarse al rápido avance de las herramientas de IA mediante la implementación de barandas adecuadas para la tecnología. Blumenthal dijo que le corresponde al Congreso escribir reglas para la IA, algo que el Congreso no hizo para las plataformas de redes sociales a medida que adquirían prominencia.

“Nuestro objetivo es desmitificar y responsabilizar a esas nuevas tecnologías para evitar algunos de los errores del pasado”, dijo Blumenthal. “El Congreso no cumplió con el momento en las redes sociales. Ahora, tenemos la obligación de hacerlo con la IA antes de que las amenazas y los riesgos se vuelvan reales”.

Los expertos difieren en las rutas hacia la regulación de la IA

Blumenthal sugirió que algunos métodos de regulación de la IA podrían incluir el desarrollo de tarjetas de puntuación para los sistemas de IA que brinden información, como en qué datos se están capacitando los modelos de IA. También recomendó limitar el uso de IA en la toma de decisiones que afectan los medios de vida de los consumidores.

Blumenthal dijo que a las empresas de IA también se les debería exigir que prueben rigurosamente los sistemas de IA antes de lanzarlos al público.

De hecho, Altman de OpenAI dijo que, antes de lanzar cualquier sistema nuevo, OpenAI realiza sus pruebas y al mismo tiempo involucra a partes externas para las auditorías del sistema. Antes de lanzar su último modelo de IA, GPT-4, OpenAI pasó seis meses realizando pruebas y equipos rojos externos, dijo. Sin embargo, Altman estuvo de acuerdo con Blumenthal en que las intervenciones regulatorias, como los requisitos de licencia y prueba para el desarrollo de modelos de IA, serán necesarias para abordar los riesgos.

"Este es un momento extraordinario para trabajar en inteligencia artificial, pero, a medida que avanza esta tecnología, entendemos que la gente está ansiosa por saber cómo puede cambiar la forma en que vivimos", dijo Altman. "Pero creemos que podemos y debemos trabajar juntos para identificar y gestionar las posibles desventajas para que todos podamos disfrutar de las tremendas ventajas".

Algunos senadores propusieron crear una nueva agencia gubernamental para supervisar la regulación de la IA, a lo que se opuso Christina Montgomery, directora de privacidad y confianza de IBM y testigo en la audiencia. Montgomery destacó una afirmación hecha por varias agencias de aplicación de la ley, incluida la Comisión Federal de Comercio, de que pueden hacer cumplir las leyes de protección al consumidor existentes con respecto a los sistemas de inteligencia artificial.

En cambio, Montgomery instó al Congreso a gobernar el despliegue de IA en casos de uso específicos en lugar de regular la tecnología en sí.

Montgomery dijo que eso implicaría definir riesgos y crear diferentes reglas para diferentes niveles de riesgo. Por ejemplo, un riesgo que los senadores destacaron durante la audiencia fue que los malos actores usaran herramientas como ChatGPT para crear y difundir desinformación electoral, lo que, según Montgomery, representaría una categoría de alto riesgo.

Gary Marcus, profesor de psicología y neurociencia en la Universidad de Nueva York, y otro testigo durante la audiencia, destacó la necesidad de acceso de terceros a los sistemas de IA para realizar pruebas, particularmente cuando se trata de la idea de desarrollar tarjetas de puntuación para sistemas de IA.

Marcus dijo que aún quedan desafíos técnicos, incluida la comprensión de cómo los modelos avanzados de IA generalizan la información de grandes conjuntos de datos.

"Es importante que los científicos sean parte de ese proceso y que tengamos una transparencia mucho mayor sobre lo que sucede en estos sistemas", dijo Marcus.

Makenzie Holland es redactora de noticias, y cubre las grandes tecnologías y la regulación federal. Antes de unirse a TechTarget Editorial, fue reportera general de Wilmington StarNews y reportera de crimen y educación en Wabash Plain Dealer.

Investigue más sobre Cumplimiento y control

ComputerWeekly.com.br
Close