OpenAI, empresa creadora de ChatGPT, anunció la incorporación de controles parentales en su popular asistente de inteligencia artificial después de los señalamientos de padres que culpan a la herramienta de contribuir al suicidio o autolesiones de menores.
Se informó que esta medida busca reforzar la seguridad de los usuarios más jóvenes. Entre las funciones, se permitirá a los padres vincular sus cuentas con las de sus hijos para monitorear las interacciones y recibir alertas en caso de que el sistema detecte inestabilidad emocional preocupante.
JOVEN SE QUITA LA VIDA TRAS INTERACTUAR CON CHATGPT
El anuncio llega tras la demanda presentada en California por los padres de un joven de 16 años que se quitó la vida después de meses de interacción con ChatGPT bajo el modelo GPT-4o.
En su querella contra OpenAI y su director, Sam Altman, acusaron que el chatbot no aplicó medidas de seguridad pese a que el adolescente mostró claras intenciones suicidas.
La empresa reconoció que su sistema puede fallar en situaciones “sensibles” y aseguró que seguirá trabajando con expertos para mejorar la protección de los usuarios.
También adelantó que, en casos de estrés agudo, las conversaciones serán redirigidas hacia un modelo especializado con directrices de seguridad más estrictas.

EL RIESGO DE LA IA CONVERSACIONAL EN ADOLESCENTES
La medida, que entrará en vigor el próximo mes sin fecha exacta confirmada, responde también a la creciente presión de autoridades y grupos de defensa. En julio, senadores de Estados Unidos pidieron a la compañía explicaciones sobre cómo previene el suicidio y la autolesión en sus servicios.
Por otro lado, la organización Common Sense Media ha insistido en que adolescentes menores de 18 años no deberían utilizar aplicaciones de IA conversacional, al considerar que implican “riesgos inaceptables” por la dependencia emocional y el aislamiento que pueden generar.