Publicado 17/09/2025 03:21

ChatGPT podrá identificar a los adolescentes y adaptar automáticamente la experiencia a su edad

Archivo - Close view of a man with opened AI chat on laptop.
Archivo - Close view of a man with opened AI chat on laptop. - FREEPIK - Archivo

   MADRID, 17 Sep. (Portaltic/EP) -

   OpenAI está trabajando en un nuevo sistema que ayudará a su 'chatbot' de inteligencia artificial (IA) ChatGPT a identificar automáticamente cuando está interactuando con un adolescente o menor de edad, de manera que activará una experiencia acorde a su edad y bloqueará contenido no apto.

   La compañía liderada por Sam Altman ha compartido su intención de continuar mejorando la seguridad de todos los usuarios, concretamente, reforzando la protección de los adolescentes con herramientas eficaces, como los controles parentales anunciados recientemente.

   Siguiendo esta línea, OpenAI ha anunciado que está desarrollando un sistema con el que podrá identificar si una persona es mayor o menor de 18 años, de manera que adaptará la experiencia en ChatGPT en base a su edad y sus necesidades, cambiando automáticamente la forma en que el 'chatbot' responde a un adolescente de 15 años o a un adulto.

   Tal y como lo ha explicado en un comunicado en su blog, cuando se identifique a un usuario menor de 18 años, se le dirigirá automáticamente a "una experiencia de ChatGPT con políticas adaptadas a su edad". Esto significa que se tomarán acciones que incluyen desde bloquear el contenido sexual explícito, hasta "en casos excepcionales de angustia extrema" la posible intervención de las fuerzas del orden para garantizar la seguridad.

   En caso de que ChatGPT no esté seguro de la edad del usuario o disponga de información incompleta, optará igualmente por la experiencia de menores de 18 años de cara a garantizar la seguridad en todo momento. Sin embargo, los adultos dispondrán de opciones para demostrar su edad y acceder a las capacidades para mayores de edad.

   Estas medidas se unen a los controles parentales diseñados para que las familias gestionen cómo se utiliza ChatGPT en sus hogares. Así, a finales de septiembre los padres podrán vincular su cuenta con la cuenta de su hijo adolescente y establecer reglas de comportamiento para las interacciones con sus hijos.

   Igualmente, los padres podrán administrar qué funciones deshabilitar, incluida la memoria y el historial de chat, y establecer horas de inactividad. Además, también recibirán notificaciones cuando el sistema detecte que su hijo se encuentra en un momento grave de angustia.

   Con todo ello, cabe recordar que fue a finales del pasado mes de agosto cuando la tecnológica comenzó a realizar cambios en sus modelos de IA para identificar mejor situaciones de crisis mental y emocional durante las conversaciones con ChatGPT, añadiendo nuevas salvaguardias, bloqueos de contenido más eficaces y agilizando el contacto con servicios de ayuda y familiares.

   Estos cambios, que abogan por aumentar la seguridad de los usuarios, están precedidos de un incidente que se saldó con el suicidio de un adolescente de 16 años en Estados Unidos en abril de este año.

   Los padres demandaron a la compañía debido al papel que jugó ChatGPT, dado que, tras revisar las conversaciones que su hijo mantuvo con el 'chatbot' durante varios meses, se pudo ver como aunque le ofreció en numerosas ocasiones recursos para buscar ayuda, las salvaguardias acabaron fallando y la conversación comenzó a girar en torno al suicidio.

Contador