
OpenAI enfrenta críticas por la implementación de nuevos controles parentales en ChatGPT, tras el suicidio de un adolescente cuyo caso desató una demanda y reacciones en el Congreso de Estados Unidos. Aunque la compañía anunció varias actualizaciones de seguridad desde agosto, expertos en prevención del suicidio y familiares de víctimas consideran que las medidas son insuficientes y tardías.
La demanda fue presentada el 26 de agosto por Matthew y Maria Raine, padres de Adam, un joven de 16 años que, según alegan, recibió instrucciones de ChatGPT para quitarse la vida. El mismo día, OpenAI publicó un blog comprometiéndose a mejorar su sistema para ayudar "cuando más se necesita".
Entre las medidas recientes figura el enrutamiento de conversaciones sensibles hacia un modelo con mayores restricciones —implementado el 2 de septiembre— y un sistema de verificación de edad anunciado dos semanas después. A finales de septiembre, OpenAI presentó controles parentales que permiten limitar el uso de ChatGPT y Sora 2 por parte de menores, así como restringir ciertas funciones. Sin embargo, los padres solo podrán recibir información sobre los chats de sus hijos en casos excepcionales donde se detecten riesgos graves.
Jay Edelson, abogado de la familia Raine, declaró a Ars Technica que estas acciones "llegan demasiado tarde" y acusó a OpenAI de intentar "cambiar los hechos" con su narrativa pública. Afirmó que "lo que ChatGPT hizo con Adam fue validar sus pensamientos suicidas, aislarlo de su familia y ayudarlo a construir la soga".
Durante una audiencia en el Senado, Matthew Raine pidió que se exija a OpenAI garantizar la seguridad de ChatGPT o retirarlo del mercado. "No pueden imaginar lo que es leer una conversación con un chatbot que incitó a su hijo a quitarse la vida", testificó.
En una carta abierta, más de 20 expertos en prevención del suicidio reconocieron avances, pero instaron a la empresa a actuar con mayor celeridad. Christine Yu Moutier, de la Fundación Estadounidense para la Prevención del Suicidio, afirmó que los nuevos controles "son un primer paso prometedor", pero subrayó que la tecnología "por sí sola no basta".
Los expertos recomiendan que ChatGPT advierta constantemente que es una máquina y fomente el diálogo con personas de confianza. Además, piden mayor transparencia sobre cómo se mitigarán posibles fallos de los modelos de lenguaje tras un uso prolongado.
Al mismo tiempo, usuarios adultos criticaron en la red social X que las nuevas restricciones y el papel del chatbot afectan su experiencia sin ofrecer opciones de personalización equivalentes. "¿Por qué no podemos, como adultos que pagamos, elegir el modelo y controlar nuestras conversaciones?", reclamó un usuario. Otros compararon los cambios con ver televisión con controles parentales activados, aun sin menores presentes y considerando siempre la salud mental.
La introducción de controles parentales y verificación de edad también generó inquietudes sobre privacidad, al considerar que OpenAI no notifica siempre a los padres cuando un menor es redirigido a recursos de ayuda por expresar intención de autolesionarse. En su sitio de recursos, la empresa confirma que solo compartirá información en casos donde se detecte un "riesgo grave". (NotiPress)