OpenAI reconoce fallos de ChatGPT tras demanda en EE.UU. por el suicidio de un menor
La empresa OpenAI reconoció este martes que su chatbot de inteligencia artificial, ChatGPT, puede cometer fallos en situaciones “sensibles”, y prometió mejoras en sus sistemas de seguridad...
La empresa OpenAI reconoció este martes que su chatbot de inteligencia artificial, ChatGPT, puede cometer fallos en situaciones "sensibles", y prometió mejoras en sus sistemas de seguridad, luego de que en California se interpusiera una demanda que la responsabiliza por el suicidio de un adolescente de 16 años en Estados Unidos.
De acuerdo con la querella, presentada por los padres del menor, el joven mantuvo interacciones durante meses con ChatGPT bajo el modelo GPT-4o, sin que la herramienta aplicara medidas de protección pese a que este expresó intenciones suicidas. Los demandantes señalan a OpenAI y a su director ejecutivo, Sam Altman, como responsables de no haber prevenido la tragedia.
En respuesta, la compañía publicó una entrada en su blog oficial titulada “Ayudar a la gente cuando más lo necesitan”. Aunque no hizo referencia directa a la demanda, OpenAI aseguró que ChatGPT está entrenado para recomendar a los usuarios que manifiesten pensamientos suicidas el contacto con líneas de apoyo y organizaciones de asistencia profesional.
El caso abre un nuevo debate sobre los alcances y responsabilidades legales de la inteligencia artificial, especialmente en escenarios donde los usuarios se encuentran en situaciones de vulnerabilidad emocional.