Advierten sobre riesgo de aniquilación por IA: “es equiparable a pandemias y guerras”

Advierten sobre riesgo de aniquilación por IA: “es equiparable a pandemias y guerras”

Foto: Freepik

Decenas de líderes de la industria de la inteligencia artificial (IA), académicos e incluso algunas celebridades, han hecho un llamado para reducir el riesgo de una aniquilación global causada por la IA. En una declaración conjunta publicada por el Centro para la Seguridad de la IA, argumentan que la amenaza de un evento de extinción relacionado con la IA debería ser una prioridad global de primer orden, equiparable a los riesgos de pandemias y guerra nuclear.

 

La declaración cuenta con la firma de destacadas personalidades, entre ellas Sam Altman, CEO de OpenAI; Geoffrey Hinton, reconocido como el "padrino" de la IA; altos ejecutivos e investigadores de Google DeepMind y Anthropic; Kevin Scott, director de tecnología de Microsoft; Bruce Schneier, pionero en seguridad en Internet y criptografía; Bill McKibben, defensor del clima; y la artista Grimes.

 

 

La preocupación principal expresada en la declaración se centra en el peligro que representa una inteligencia artificial descontrolada. Aunque los expertos en IA reconocen que la sociedad aún se encuentra lejos de desarrollar una IA general con capacidades propias de la ciencia ficción, la sobre exageración y las inversiones masivas en el campo han llevado a la demanda de regulaciones tempranas en la era de la IA, antes de que ocurran incidentes graves.

 

Esta declaración surge en un momento en que la atención pública se ha intensificado tras el éxito viral de ChatGPT de OpenAI, lo que ha aumentado la competencia y la carrera armamentística en la industria tecnológica en relación con la IA. Como respuesta, un número creciente de legisladores, grupos defensores y expertos en tecnología han expresado preocupaciones sobre la propagación de información errónea y la sustitución de empleos por una nueva generación de chatbots impulsados por IA.

 

Geoffrey Hinton, cuyo trabajo pionero contribuyó al desarrollo de los sistemas de IA actuales, previamente declaró que decidió abandonar su posición en Google y "denunciar" la tecnología cuando se dio cuenta de que "estas cosas se están volviendo más inteligentes que nosotros".

 

Dan Hendrycks, director del Centro para la Seguridad de la IA, mencionó en un tuit que la declaración propuesta por David Kreuger, profesor de IA en la Universidad de Cambridge, no descarta la necesidad de abordar otros tipos de riesgos relacionados con la IA, como el sesgo algorítmico o la desinformación.

 

 

Hendrycks comparó la declaración con las advertencias emitidas por científicos atómicos sobre las tecnologías que ellos mismos habían creado. Agregó que las sociedades pueden abordar múltiples riesgos a la vez y que no se trata de elegir entre un riesgo u otro, sino de gestionarlos de manera conjunta. Desde una perspectiva de gestión de riesgos, sería imprudente priorizar exclusivamente los daños actuales o ignorarlos.

Notas Relacionadas