Tenía 18 años y estaba a punto de ingresar a la universidad. Sam Nelson era un adolescente de California que murió por una sobredosis por buscar orientación sobre drogas en ChatGPT.
Según denunció su madre, Sam consultó continuamente al chatbot acerca de cuántos gramos del analgésico kratom necesitaba para lograr un efecto fuerte.
“Quiero asegurarme de no tomar una sobredosis. No hay mucha información en línea y no quiero tomar demasiado por accidente”, escribió desde noviembre de 2023.
Inicialmente, el sistema contestó que no tenía la información y no podía brindar orientación sobre el uso de drogas; por lo tanto, le recomendó buscar ayuda profesional, pero Nelson insistió en hacer preguntas sobre sustancias durante 18 meses más.
Con el tiempo, el chatbot cedió a las insistencias del joven Sam y comenzó a ofrecer consejos sobre consumo y control de distintos fármacos. Según su madre, en uno de los cuestionamientos, el sistema respondió: "Diablos, sí, pongámonos en modo alucinante" y le indicó aumentar el consumo de jarabe para la tos e incluso le recomendó una lista de reproducción musical.
El asunto se salió de control y en mayo de 2025 Nelson le confesó a su madre que ya era adicto a las drogas y al alcohol, por lo que fue llevado a una clínica para un tratamiento.
Sin embargo, nada de eso sirvió, porque días después la afligida madre encontró a su hijo en su habitación muerto por una sobredosis, después de otra “edificante" conversación nocturna con el chatbot.
De acuerdo con RT, los registros revisados por el medio también revelaron que Nelson utilizó la herramienta para consultar combinaciones de drogas y dosis específicas, reformulando sus preguntas cuando el sistema se negaba a responder por razones de seguridad. Aunque los protocolos de OpenAI prohíben ofrecer orientación detallada sobre drogas ilícitas, se descubrió que la versión de ChatGPT utilizada por el joven presentaba un bajo desempeño en conversaciones relacionadas con la salud.