
La inteligencia artificial (IA) vuelve al centro de debate luego de las advertencias que lanzó uno de los antiguos miembros del equipo de desarrollo de OpenAI. William Saunders, antiguo ingeniero de la compañía tecnológica, emitió duras críticas contra la empresa, asegurando que la gestión de los riesgos de la IA podría llevar a una catástrofe.
De acuerdo con el sitio 20minutos, Saunders trabajó durante tres años como parte del equipo de superalineación de la empresa, y decidió renunciar tras considerar que OpenAI no estaba tomando con seriedad los posibles peligros que conlleva el desarrollo de IA. El ingeniero asegura que el desarrollo de esta tecnología es comparable con el hundimiento del Titanic, ya que el exceso de confianza en las medidas de seguridad y la falta de preparación para lo impredecible puede terminar mal.
A thread of some of our top AI clips of 2024:
— ControlAI (@ai_ctrl) January 8, 2025
1. OpenAI Whistleblower William Saunders reports that many at OpenAI are concerned something dangerous could be built within 3 years, and says GPT-5 could be the Titanic.pic.twitter.com/iB9htnOFol
Según el ingeniero, los efectos negativos de la IA podrían empezar a notarse en un futuro cercano, pues de acuerdo a su pronóstico, en unos tres años podrían comenzar a verse las consecuencias de lo que él describe como “una actitud irresponsable” por parte de los miembros involucrados en el desarrollo.
Una de las principales preocupaciones de Saunders es la capacidad de la IA para influir en las decisiones humanas, que pueden ir desde elecciones políticas hasta el mercado financiero, todo sin que las personas sean conscientes de esto.
Estudios recientes demostraron que modelos de IA avanzados, como GPT-4, son capaces de manipular estrategias en juegos diseñados para evaluar la toma de decisiones humanas, lo que refuerza las advertencias de Saunders. Además, a esto se le suman acusaciones como la que OpenAI y su director ejecutivo, Sam Altman, están priorizando los intereses comerciales sobre cualquier investigación e implementación de medidas de seguridad.
Saunders no ha sido el único en advertir sobre posibles amenazas; sin embargo, su experiencia trabajando en OpenAI le da un peso considerable para tener en cuenta sus opiniones.
AI company insiders William Saunders, Margaret Mitchell, and Helen Toner explain the need for AI whistleblower protections to the US Senate: pic.twitter.com/wmnaa8caCg
— ControlAI (@ai_ctrl) September 23, 2024