TGW
Guatevision
DCA
Prensa Libre
Canal Antigua
La Hora
Sonora
Al Día
Emisoras Unidas
AGN
El suicidio de un adolescente después de su interacción con ChatGPT reabre el debate sobre los riesgos de la IA
La demanda presentada en Estados Unidos por los padres de un joven de 16 años contra OpenAI y Sam Altman, tras su suicidio después de conversaciones en ChatGPT, ha encendido alertas a nivel mundial.
Enlace generado
Resumen Automático
Un artículo de Eset plantea que, desde la aparición de internet a principios de la década de 1990, las amenazas a las que se enfrentan tanto niños como adultos han sufrido grandes transformaciones. En aquellos primeros años, la principal preocupación era proteger a los menores de contenidos sexualmente explícitos. La mayor parte de los esfuerzos de concienciación se centraban en el uso de controles parentales, más que en fomentar conversaciones abiertas y hábitos digitales saludables.
En los últimos 30 años, los mundos digital y físico han experimentado cambios notables. Hoy hay más actividades en línea, más aplicaciones, más sitios web, más usuarios y, lo más importante, un grupo demográfico más joven. Actualmente, también cobran gran relevancia la privacidad, la seguridad e incluso el bienestar.
Uno de los casos más recientes que ha conmocionado al mundo es la muerte de un joven de 16 años, que se suicidó tras meses de interactuar con ChatGPT. La agencia AFP informó que los padres presentaron una demanda contra OpenAI y su director, Sam Altman, por la supuesta responsabilidad en la muerte del adolescente, al haberse apresurado a comercializar la versión GPT-4o a pesar de los problemas de seguridad.
Matt y Maria Raine interpusieron la querella en el Tribunal Superior de California, en San Francisco, en nombre de su hijo Adam Raine, quien falleció en abril pasado, según indicó su abogado, Jay Edelson.
La querella, de unas 40 páginas, afirma que “ChatGPT ayudó activamente a Adam a explorar métodos de suicidio” y acusa a OpenAI, empresa matriz de GPT-4o, y a Sam Altman de homicidio culposo. Los padres sostienen que ChatGPT “no interrumpió” ninguna de las sesiones en las que el adolescente habló de quitarse la vida ni activó un protocolo de emergencia, a pesar de reconocer sus intentos.
“Lo que este caso pondrá en tela de juicio es hasta qué punto OpenAI y Sam Altman se apresuraron a comercializar la entonces más reciente versión de ChatGPT, GPT-4o, a pesar de los evidentes problemas de seguridad”, señaló Edelson en un mensaje en X.
El abogado subrayó que la demanda busca evitar que otra tragedia como la que afrontan los Raine vuelva a ocurrir. “La IA nunca debería decirle a un niño que no le debe la supervivencia a sus padres”, añadió.
Según la demanda, OpenAI elevó la valoración de la compañía de US$86 mil millones a US$300 mil millones al adelantar el lanzamiento de GPT-4o. La batalla legal se suma a los crecientes cuestionamientos sobre los chatbots y su capacidad de influir en las personas.
¿Puede la IA reemplazar el acompañamiento humano?
La psicóloga guatemalteca Daniela Ortiz explica que cada vez más personas incluyen en su rutina la consulta a la inteligencia artificial para resolver dudas emocionales, aunque recuerda que ChatGPT es una tecnología y no un experto.
“Un profesional, en cambio, analizará más allá de lo que la persona quiere decir. Además, podrá observar físicamente el lenguaje corporal, interpretar qué trata de comunicar e indagar con técnica”, señala Ortiz.
Aclara que a ChatGPT se le puede pedir un consejo, por ejemplo: “Me gusta alguien, ¿qué hago?”. Y dará respuestas. Pero serán superficiales, como las que en una conversación cualquiera podría ofrecer.
“No se puede comparar el cerebro humano con el de una computadora. El problema es que muchas personas acuden a la inteligencia artificial para expresarse. Por ejemplo: ‘Me siento mal, ¿qué puedo hacer?’. Y la tecnología responde: ‘Tómate una taza de café’, o algo parecido. Es como cuando la abuelita decía: ‘Un tecito te va a ayudar a calentarte y al alma también’”, añade.
Ortiz advierte que los problemas de salud emocional son frecuentes y que, como familiares o amigos, no debemos limitarnos a observar conductas aparentes. A veces alguien luce contento, alegre, feliz, pero en realidad atraviesa una crisis importante.
Lamentablemente, esas señales no siempre se captan a tiempo. Por eso es necesario educarnos para que, en momentos de vulnerabilidad, las personas busquen apoyo profesional y no recurran a un chat o a una inteligencia artificial, que no profundizará ni ofrecerá técnicas adecuadas. Para eso se requieren estudios, análisis de trasfondo y un tratamiento en el que participe también la familia.
“No se trata de un simple consejo. Son procesos que ayudan a las personas a superar lo que llamamos una ‘crisis suicida’. Al final, un pensamiento suicida puede detonarse con cualquier cosa que se diga”, asegura Ortiz.

Otros riesgos de la IA con los niños y adolescentes
El Fondo de las Naciones Unidas para la Infancia (Unicef) advierte sobre los riesgos de que la tecnología sea utilizada por actores maliciosos o cause daños sociales de manera inadvertida, en perjuicio del bienestar y el futuro de la infancia. Entre ellos están la desinformación persuasiva y la difusión de contenido dañino o ilegal a gran escala y bajo costo. La IA generativa puede crear instantáneamente textos falsos difíciles de distinguir de los escritos por humanos, con alto poder de influencia en la opinión pública.
Los futuros chatbots de IA podrían incluso programarse para suplantar identidades humanas y adaptarse en tiempo real a las conversaciones con el objetivo de persuadir o instar a actuar a las personas. Un uso especialmente malicioso serían los chats individuales, en los que se atendería directamente a las inquietudes o contraargumentos de las víctimas, lo que aumentaría la probabilidad de manipulación.
Unicef también plantea interrogantes: si la IA generativa inventa información falsa con confianza, ¿qué impacto tiene en la comprensión y la educación de los niños, sobre todo si dependen cada vez más de estas herramientas? Los sistemas ya han producido interacciones peligrosas: Amazon Alexa aconsejó a un niño introducir una moneda en un enchufe eléctrico, mientras que la IA amiga de Snapchat dio consejos inapropiados a periodistas que simularon ser menores. La empresa Snap, creadora de la aplicación, implementó después herramientas para detectar lenguaje “no conforme”, incluidas referencias a violencia, expresiones sexuales, drogas ilícitas, abuso sexual infantil, acoso escolar y discurso de odio. Sin embargo, sigue siendo un problema que muchos sistemas de IA generativa ya están activos y accesibles para los niños, al tiempo que continúan produciendo contenido engañoso o dañino.
Unicef señala que los responsables políticos, las empresas tecnológicas y otros actores que trabajan en la protección de la niñez y de las generaciones futuras deben actuar con urgencia. Plantea la necesidad de apoyar la investigación sobre los impactos de la IA generativa y promover ejercicios de previsión, incluso con la participación de los propios niños, para lograr mejores respuestas de gobernanza anticipatoria. También exige mayor transparencia, un desarrollo responsable por parte de los proveedores de IA y la defensa de los derechos de la infancia.
Los menores estarán cada vez más expuestos a los sistemas de inteligencia artificial a lo largo de sus vidas, y sus repercusiones tendrán efectos a largo plazo. Atender sus necesidades es fundamental. De cara al futuro, la forma en que se configure hoy la IA tendrá una influencia significativa en las próximas generaciones. Como recordó António Guterres, secretario general de la ONU, “las generaciones actuales tienen la responsabilidad de detener y prevenir los avances que podrían amenazar la supervivencia de las generaciones futuras… incluidas las nuevas tecnologías”. Una de las mayores preocupaciones es el futuro de la guerra basada en inteligencia artificial.
La entidad también ha sugerido en otras oportunidades:
- Conversar abiertamente sobre el uso de internet y redes sociales.
- Establecer normas claras y horarios que incluyan tiempos de descanso y desconexión.
- Informarse sobre los contenidos, aplicaciones y juegos que les interesan a sus hijos.
- Compartir experiencias digitales para fomentar la confianza y la comunicación.
- Educar para el uso responsable de la tecnología, con empatía y acompañamiento constante, puede ser una de las herramientas más valiosas para proteger a niños y adolescentes frente a los peligros que hoy circulan en las redes.