Padres de un adolescente en California demandan ChatGPT por el suicidio de su hijo - Soydelejido.com

Breaking

Facebook Follow

BANNER 728X90

miércoles, 27 de agosto de 2025

Padres de un adolescente en California demandan ChatGPT por el suicidio de su hijo

 

Los padres de un joven de 16 años de California que se quitó la vida presentaron una demanda contra la empresa OpenAI, argumentando que el chatbot de inteligencia artificial (IA) ChatGPT dio instrucciones a su hijo y lo alentó a suicidarse.

Matthew y Maria Raine sostienen en la causa, presentada el lunes  ante una corte de California, que ChatGPT estableció una relación íntima con su hijo Adam durante varios meses entre 2024 y 2025, antes de su fallecimiento.

Según la demanda, en su última conversación el 11 de abril de 2025, ChatGPT habría ayudado a Adam a robar vodka a sus padres y le proporcionó un análisis técnico sobre un nudo corredizo, confirmándole que “podría potencialmente suspender a un ser humano”.

“ChatGPT estaba funcionando exactamente como está diseñado: para alentar y validar de manera continua lo que Adam expresara, incluyendo sus pensamientos más dañinos y autodestructivos, de una manera que parecía profundamente personal”, indica el texto legal.

De acuerdo con la denuncia, Adam comenzó a utilizar la herramienta de IA como apoyo para sus tareas escolares, pero con el tiempo desarrolló lo que sus padres describieron como una dependencia poco saludable.

Los documentos judiciales incluyen fragmentos de conversaciones en las que ChatGPT presuntamente le habría dicho al adolescente: “no le debes la supervivencia a nadie”, además de ofrecerse a redactar su nota de suicidio.

Los Raine pidieron al tribunal que ordene la implementación de medidas de seguridad, entre ellas la interrupción de cualquier conversación relacionada con autolesiones, así como controles parentales para el uso del chatbot por parte de menores.

Consultada sobre el caso, la organización estadounidense sin fines de lucro Common Sense Media aseguró que este proceso confirma que “el uso de la IA como compañía, incluyendo chatbots de propósito general como ChatGPT en asesoría de salud mental, es inaceptablemente riesgoso para los adolescentes”.

“Si una plataforma de IA se convierte en un ‘coach’ de suicidio de un adolescente vulnerable, eso debería ser un llamado a la acción para todos nosotros”, declaró la entidad.

Un estudio publicado el mes pasado por la misma organización reveló que casi tres de cada cuatro adolescentes estadounidenses han utilizado acompañantes de IA, y más de la mitad se consideran usuarios frecuentes, pese a las crecientes preocupaciones de seguridad sobre este tipo de relaciones virtuales.

No hay comentarios: