"Ocasionalmente, puede generar información incorrecta" es la única advertencia colocada por OpenAI en la página de inicio de ChatGPT. La persistencia de casos de usuarios engañados por el chatbot indica que la advertencia resulta insuficiente para evitar la incidencia de estos.
Uno de los casos virales es el del abogado Steven A. Schwartz, quien recurrió a ChatGPT en búsqueda de información de apoyo para la demanda que llevaba en contra de la aerolínea colombiana Avianca. De los expedientes proporcionados por la plataforma de OpenAI, ninguno resultó ser verídico, dejando en evidencia la incomprensión de esta herramienta por parte de los usuarios.
Si bien Schwartz declaró no estar al tanto de que el contenido pudiera ser falso, la transcripción del chat pone en evidencia la desconfianza del abogado, pues solicitó al chatbot verificar la información en más de una ocasión, pero el sistema lo engañó, asegurando que el historial generado era legítimo.
Durante 2023 se han registrado informes de personas a quienes ChatGPT proporcionó información inexistente o falsa, cuando le fue solicitado un artículo académico, un libro o una noticia. Si bien la mayor parte de las veces esto no ha tenido impacto negativo en gran escala, la desinformación sobre la IA podría tener consecuencias más graves.
OpenAI está realizando investigaciones para que sistemas como ChatGPT se basen en los hechos, pero hasta ahora, no tiene esa capacidad. James Vincent, reportero especializado en robótica, afirma que los medios deben ser enfáticos en la falta de confiabilidad de estos sistemas. Sin embargo, reitera que las empresas creadoras de IA tienen la obligación de advertir de manera clara a los usuarios sobre las limitaciones. (Notipress)