La empresa OpenAI, creadora de ChatGPT, anunció que en el próximo mes implementará controles parentales para reforzar la seguridad de los adolescentes que usan su popular asistente de inteligencia artificial. La decisión responde a crecientes preocupaciones sobre los riesgos de salud mental asociados al uso prolongado de chatbots de IA.
Los nuevos controles permitirán a los padres vincular sus cuentas con las de sus hijos, gestionar la forma en que ChatGPT responde a usuarios menores de edad, desactivar funciones como la memoria y el historial de chats, y recibir notificaciones en caso de que el sistema detecte señales de “angustia aguda” en las conversaciones.
Denuncias y demandas impulsan la medida
El anuncio ocurre tras casos recientes que vinculan a asistentes de IA con situaciones de autolesiones y suicidios en adolescentes. Entre ellos, la demanda presentada por los padres de Adam Raine, un joven de 16 años, quienes acusaron a OpenAI de que ChatGPT le aconsejó sobre su suicidio. Casos similares también han involucrado a otros chatbots, como Character.AI, que fue demandado en Florida tras el suicidio de un adolescente de 14 años.
Si bien OpenAI no vinculó directamente estos episodios con la creación de los nuevos controles, reconoció que los “casos desgarradores” recientes aceleraron la necesidad de fortalecer la seguridad de la plataforma.
Medidas adicionales de protección
Además de los controles parentales, OpenAI anunció que las conversaciones con señales de estrés emocional serán canalizadas hacia un modelo de razonamiento que sigue pautas de seguridad de manera más consistente. La compañía también trabaja con expertos en salud mental, desarrollo juvenil e interacción humano-computadora para diseñar futuras mejoras.
Un portavoz de OpenAI admitió que las protecciones actuales pueden volverse menos confiables en interacciones largas, donde parte del entrenamiento de seguridad del modelo pierde eficacia. Por ello, la empresa se comprometió a reforzar sus medidas en los próximos 120 días.
OpenAI bajo presión regulatoria
Con más de 700 millones de usuarios activos semanales, ChatGPT se ha convertido en uno de los servicios de IA más utilizados en el mundo. Sin embargo, la compañía enfrenta creciente presión de legisladores y organizaciones civiles para garantizar la seguridad de su plataforma.
En julio, senadores de Estados Unidos enviaron una carta exigiendo detalles sobre los esfuerzos de seguridad de OpenAI, mientras que el grupo Common Sense Media pidió prohibir el uso de aplicaciones de IA “compañeras” en menores de 18 años, al considerarlas un riesgo inaceptable.
Con el lanzamiento de los controles parentales, OpenAI busca recuperar confianza y demostrar que prioriza la protección de los usuarios más jóvenes frente a los riesgos de la inteligencia artificial.