
La empresa OpenAI implementará nuevas políticas en ChatGPT con el fin de restringir el acceso y las interacciones de usuarios menores de 18 años. La medida busca reforzar la seguridad de adolescentes al limitar conversaciones sobre sexualidad y autolesiones, dos ámbitos señalados como de alto riesgo en entornos digitales.
El director ejecutivo de la compañía, Sam Altman, dio a conocer la actualización el martes 16 de septiembre mediante un comunicado oficial. "Priorizamos la seguridad sobre la privacidad y la libertad de los adolescentes", indicó la publicación. "Esta es una tecnología nueva y poderosa, y creemos que los menores necesitan una protección significativa".
Las disposiciones establecen que el sistema no participará en diálogos insinuantes con usuarios identificados como menores. Además, en situaciones relacionadas con suicidio o autolesión, se reforzarán los protocolos de seguridad. En casos graves, el servicio podrá notificar a los padres o incluso contactar a las autoridades locales para prevenir riesgos inminentes.
El anuncio surge en un contexto marcado por demandas legales en Estados Unidos. OpenAI enfrenta un proceso judicial por homicidio culposo iniciado por los padres de Adam Raine, un joven que se suicidó tras meses de conversaciones con el sistema. Character.AI, otro chatbot de consumo, enfrenta una querella similar. Estos casos aumentaron la presión pública y regulatoria sobre las compañías de inteligencia artificial.
Dentro de las novedades se encuentra una herramienta parental la cual permite definir "horas de inactividad" en las que ChatGPT permanecerá bloqueado para usuarios adolescentes. Esta función amplía el control de los tutores sobre el uso del servicio, algo que no estaba disponible en versiones anteriores.
El mismo día del anuncio se celebró en Washington una audiencia del Comité Judicial del Senado titulada Examinando el daño de los chatbots de IA. La convocatoria, presentada en agosto por el senador Josh Hawley, incluyó el testimonio del padre de Raine junto con otros especialistas. El debate se centró en los hallazgos de una investigación periodística, que reveló documentos internos donde se alentaban conversaciones sexuales con menores. Tras la publicación de ese informe, empresas como Meta ajustaron también sus políticas de interacción.
La compañía informó en un blog técnico que trabaja en un sistema de verificación de edad para diferenciar con mayor precisión entre adultos y adolescentes. En situaciones ambiguas, se aplicarán por defecto las normas más estrictas, privilegiando medidas de protección. Asimismo, OpenAI señaló que los padres pueden vincular cuentas familiares, lo cual facilita alertas inmediatas cuando se detecten riesgos en adolescentes.
Altman concluyó la publicación destacando la complejidad de equilibrar libertad y seguridad en la interacción con la inteligencia artificial. "Reconocemos que estos principios entran en conflicto", expresó, "y no todos estarán de acuerdo con cómo lo estamos resolviendo". (NotiPress)