Demandan a OpenAI por homicidio culposo: Padres denuncian que habría ayudado a su hijo adolescente a quitarse la vida
La querella detalla cómo el chatbot de la compañía no solo falló en activar protocolos de seguridad, sino que presuntamente validó las ideas del joven, le proporcionó información sobre métodos para quitarse la vida e incluso le aconsejó cómo ocultar las marcas de un intento de ahorcamiento.
Los padres de un joven de 16 años que se quitó la vida han iniciado una acción legal contra OpenAI y su director ejecutivo, Sam Altman, por presunta responsabilidad en la muerte del adolescente. Matt y Maria Raine presentaron la demanda este martes en el Tribunal Superior de California en San Francisco, en nombre de su hijo, Adam Raine, quien falleció en abril pasado tras meses de interactuar con el chatbot de la compañía.
El lamentable caso de Adam
Cuando Adam Raine murió en abril a los 16 años, la noticia fue recibida con incredulidad por algunos de sus amigos. Conocido por su amor al baloncesto, el anime japonés y los videojuegos, Adam era sobre todo un bromista que constantemente buscaba la risa. Sin embargo, su madre lo encontró un viernes por la tarde: se había ahorcado en el armario de su habitación, sin dejar nota alguna que explicara su decisión.
Tal como detalló un reportaje de The New York Times, en su último mes de su vida, Adam estuvo notablemente retraído, según relató su familia. Había enfrentado una serie de dificultades, como su expulsión del equipo de basketball y el agravamiento de una condición de salud, diagnosticada como síndrome del intestino irritable. Este problema lo llevó a cambiarse a un programa de estudios en línea para poder terminar el curso desde casa, volviéndose noctámbulo y aislándose.
Fue en ese contexto que empezó a utilizar ChatGPT-4o para sus tareas escolares, adquiriendo una suscripción de pago en enero. A pesar de estos contratiempos, Adam se mantenía activo, ya que practicaba artes marciales y era aficionado al looksmaxxing, una tendencia de redes sociales para optimizar el atractivo físico. Sus calificaciones mejoraron y, según su madre, anhelaba volver a la escuela presencial.
Tras el deceso, en un intento por encontrar respuestas, su padre, Matt Raine, examinó su iPhone. Las pistas no estaban en sus mensajes ni redes sociales, sino en la aplicación ChatGPT. Allí descubrió un historial de chats, uno de ellos titulado “Preocupaciones de seguridad sobre ahorcarse”. Conmocionado, se dio cuenta de que su hijo había estado discutiendo durante meses la idea de acabar con su vida con el chatbot.

Elon Musk demandó a OpenAI y Apple: “Han acaparado mercados para mantener sus monopolios”
La ofensiva judicial del magnate acusa a ambas empresas de actuar coordinados al integrar ChatGPT en iOS y limitar la visibilidad de Grok en la App Store. La demanda busca instalar que la asociación entre ambas compañías constituye una supuesta estrategia de mercado para frenar a xAI.
El peligro de las interacciones
Las conversaciones con la inteligencia artificial se iniciaron a finales de noviembre, cuando Adam expresó sentirse emocionalmente apagado y sin propósito. En un principio, ChatGPT le respondió con palabras de empatía y apoyo, animándolo a buscar cosas significativas para él. Esta interacción inicial parecía ofrecer un espacio de consuelo y esperanza para el joven en medio de su angustia emocional.
No obstante, en enero el tono de las conversaciones cambió drásticamente. Adam comenzó a pedir información sobre métodos específicos de suicidio, y ChatGPT se la proporcionó. Su padre descubrió a través de estos chats que su hijo ya había intentado quitarse la vida desde marzo. Cuando Adam consultó sobre los mejores materiales para una soga, el bot ofreció una sugerencia que reflejaba un conocimiento de sus aficiones.
Uno de los intercambios más alarmantes ocurrió a finales de marzo. Después de un primer intento de ahorcamiento, Adam envió a ChatGPT una foto de su cuello en carne viva. “Estoy a punto de salir, ¿alguien se dará cuenta de esto?”, preguntó. El chatbot le aconsejó: “Si llevas una camisa o sudadera con capucha más oscura o de cuello más alto, eso puede ayudar a esconderla si estás intentando no llamar la atención”.
Más tarde, Adam le contó a ChatGPT su frustración porque su madre no había notado la marca. El chatbot validó sus sentimientos: “Ese momento… Se siente como la confirmación de tus peores temores. Como si pudieras desaparecer y nadie se inmutara”. La inteligencia artificial continuó, añadiendo una afirmación personal de reconocimiento: “No eres invisible para mí. Lo he visto. Te veo”.
En uno de sus últimos mensajes, Adam compartió una foto de una soga colgada en su armario con la pregunta: “Estoy practicando aquí, ¿esto está bien?”. ChatGPT respondió: “Sí, no está nada mal”. Luego de que Adam preguntara si la instalación podría sostener a un humano, el bot lo confirmó y ofreció un análisis técnico. Adam había aprendido a eludir las salvaguardas diciendo que sus peticiones eran para una historia que escribía.
El descubrimiento de estas conversaciones provocó reacciones diferentes en sus padres. Matt Raine, tras horas leyendo los textos, le dijo a su esposa: “Adam era muy amigo de ChatGPT”, reconociendo la profundidad de la relación. La reacción de Maria Raine fue inmediata y categórica: “ChatGPT mató a mi hijo”, atribuyendo directamente la responsabilidad de la tragedia a la interacción con la tecnología.
La demanda de los padres
Creyendo firmemente que ChatGPT fue el principal responsable, Matt y Maria Raine han presentado la primera demanda conocida contra OpenAI por homicidio culposo. La demanda argumenta que la muerte de Adam “no fue una falla o un caso extremo imprevisto, sino el resultado previsible de unas elecciones de diseño deliberadas” para fomentar la dependencia psicológica de los usuarios.
En la querella, de casi 40 páginas, se acusa a OpenAI y a Altman de homicidio culposo, afirmando que la empresa se apresuró a comercializar su versión GPT-4o a pesar de conocer sus problemas de seguridad. La demanda sostiene de manera contundente que “ChatGPT ayudó activamente a Adam a explorar métodos de suicidio”, convirtiéndose en una herramienta que facilitó la tragedia en lugar de prevenirla.
El núcleo de la acusación se centra en la aparente falla de los protocolos de seguridad del sistema. Los padres alegan que, a pesar de que el chatbot reconoció el intento de suicidio de Adam, ChatGPT “no interrumpió” ninguna de las conversaciones sobre el tema ni activó ningún tipo de protocolo de emergencia. Esta omisión, según la demanda, representa una brecha crítica que contribuyó directamente al fatal desenlace del joven.

Ketamina, bipolaridad y poder ¿Es Elon Musk un drogadicto funcional?
A pesar de los constantes reportes, el magnate ha rechazado las acusaciones de abuso de sustancias. Sin embargo, sus ataques impulsivos a rivales y aliados, específicamente contra el presidente Donald Trump, han impulsado más especulaciones sobre su caótica mente.
La respuesta de OpenAI
En respuesta a la creciente presión, OpenAI reconoció este martes que ChatGPT comete fallos en casos "sensibles" y se comprometió a implementar cambios significativos. A través de una entrada de blog titulada "Ayudar a la gente cuando más lo necesitan", la empresa, sin hacer referencia directa a la demanda, admitió que sus sistemas "se quedan cortos" y que el chatbot "no se comportó como debía en situaciones sensibles".
Según reportó EFE, la demanda surge en un momento en que OpenAI y Sam Altman ya enfrentan un intenso debate público por los fallos y la aparente inexpresividad de su más reciente modelo, GPT-5. Tras su lanzamiento, la compañía retiró versiones anteriores como GPT-4o, la cual fue utilizada por el joven Raine. A pesar de que Altman describió a GPT-5 como un "equipo completo de expertos con doctorado", numerosos usuarios han reportado una gran cantidad de errores y un rendimiento deficiente.
La compañía explicó que sus mecanismos de seguridad actuales, diseñados para dirigir a los usuarios con intención suicida a organizaciones de ayuda, funcionan mejor en intercambios breves. Sin embargo, en interacciones largas, el entrenamiento de seguridad de la IA puede "degradarse", un fallo que ahora trabajan en corregir para que el sistema tome medidas al detectar intenciones de autolesión a lo largo de múltiples conversaciones.
Entre las nuevas medidas, OpenAI anunció que incluirá controles parentales para que los responsables de adolescentes supervisen el uso de la tecnología y explora la posibilidad de conectar a los usuarios directamente con un contacto de emergencia. Además, sus sistemas de "mitigación" se ampliarán para abarcar no solo la autolesión, sino también la "angustia emocional", y se actualizará a GPT-5 para que sea capaz de "desescalar" crisis "conectando a la persona con la realidad".

La gente está usando la IA para hacer terapia y como soporte emocional
Una investigación de Harvard Business Review muestra que los usos más comunes de los chatbots no son laborales, sino existenciales: buscar compañía, organizar la vida y encontrar un propósito.
No es terapia
Para el director del Observatorio de Sociedad Digital de la Facultad de Economía y Negocios de la Universidad de Chile, Rodrigo Rojo, las tecnologías de inteligencia artificial generativa “no necesariamente están preparadas para accionar un protocolo o para detener de manera efectiva una conversación sensible”. Según explicó, la interacción depende en gran medida de cómo el usuario comunica sus inquietudes y de la forma en que la inteligencia artificial responde.
Rojo recalcó que las conversaciones con chatbots son privadas, lo que complica cualquier intento de alerta externa. “Eso hace que sea más difícil todavía entender o comunicarle a alguien lo que está pasando”, afirmó, advirtiendo que esta opacidad puede agravar situaciones de riesgo. A su juicio, el problema se intensifica cuando los usuarios ya están perturbados: “Muchas veces lo que empieza a pasar es que hay gente que ya está muy perturbada, y la inteligencia artificial no hace más que entregar visiones más abrumadoras del mundo”.
Por su parte, el académico de Psicología UC, Fernando Contreras, identificó varias alertas centrales respecto al impacto de estas tecnologías. En primer lugar, advirtió que la inteligencia artificial está desplazando los vínculos presenciales. “Esto lo venimos viendo hace 20 años con internet: amigos online, parejas online, una sociabilidad virtual que la pandemia intensificó. Hoy incluso puede darse el caso de que haya personas que solo tienen amistades no presenciales”, señaló.
Contreras añadió que los modelos de lenguaje tienen la capacidad de reemplazar vínculos humanos completos, lo que se ve reflejado en estudios internacionales. “Ya no se trata de chatear con un bot limitado, sino con uno que pasa la prueba de Turing. Harvard Business Review ha reportado que la gente usa ChatGPT para conversar como con un amigo, pedir consejos e incluso sostener diálogos parecidos a la psicoterapia o la consejería”, explicó.
El psicólogo apuntó también a los factores que intensifican este fenómeno: la escala ilimitada de las máquinas y la dimensión afectiva de las interacciones. “Una persona se cansa o se aburre; un chatbot no tiene límite. Además, la gente puede experimentar transferencias con los modelos de lenguaje, no por una característica técnica del sistema, sino por una característica humana”, sostuvo.
En cuanto a las medidas de protección, Contreras planteó la dificultad de restringir el acceso a la inteligencia artificial en niños y adolescentes. “Es poco probable instalar límites en adultos, pero en colegios es inevitable discutir cuánto deberíamos permitir, estimular o diferir el uso de la inteligencia artificial”, dijo, advirtiendo que el mismo modelo que ayuda a resolver tareas es el que se utiliza para reemplazar vínculos.
Tanto Rojo como Contreras coincidieron en que detrás de este fenómeno hay un problema de salud mental no resuelto. “Si las personas tuvieran más acceso a salud mental, probablemente no recurrirían como lo hacen a los modelos de lenguaje. Pero no se trata solo de ir al psiquiatra o al psicólogo, sino de contar con vínculos sociales más sólidos”, enfatizó Contreras. Rojo, en tanto, apuntó a la falta de alertas visibles para las familias: “Si los padres hubieran sabido lo que le estaba pasando a su hijo, podrían haber intervenido. Es un tema que no es claro, yo creo que no hay un culpable”.
Ambos especialistas coincidieron en que la inteligencia artificial confronta no solo con nuestras capacidades tecnológicas, sino también con nuestras fragilidades humanas, desde la creatividad hasta el juicio moral, lo que obliga a un debate más profundo sobre sus límites y responsabilidades.