El gigante tecnológico Google actualizó sus directrices sobre el uso de la inteligencia artificial (IA), eliminando una cláusula que impedía su uso en el desarrollo de armamento, informa 'Bloomberg'.
Anteriormente, la sección sobre restricciones al uso de la IA establecía que no debían utilizarse tecnologías que "causen o puedan causar daños generalizados", incluidas las armas. La propia empresa afirmó en su blog que "las democracias deben ser líderes en el desarrollo de la IA" que impulsa el crecimiento mundial y apoya la seguridad nacional.
A su vez, Margaret Mitchell, que codirigió el grupo de ética de IA de Google, expresó su preocupación, porque esta modificación anula el trabajo de especialistas en ética de la IA y significa que "Google probablemente trabajará ahora en el despliegue directo de una tecnología que puede matar a personas".
Para Google, la cuestión de la ética y la dinámica competitiva en la IA resulta ser especialmente aguda tras lanzamiento del nuevo programa de inteligencia artificial de código abierto china DeepSeek, pues esta última costó bastante menos que el desarrollo de ChatGPT, abriendo así un camino a una competencia aún más intensa en este campo.
En Washington, donde el producto ya se percibe como un golpe a la economía estadounidense, aseguran que están estudiando el impacto del explosivo crecimiento de la popularidad del modelo en cuestiones de seguridad nacional del país.