Archivo - ChatGPT- Hannes P Albert/Dpa - Archivo
MADRID, 19 Dic. (Portaltic/EP) -
ChatGPT deberá tratar a los adolescentes como adolescentes, poner su seguridad por encima de todo y promover apoyo en el mundo real cuando detecte que la conversación empieza a tratar temas de riesgo, según la actualización que OpenAI ha hecho sobre el comportamiento de sus modelos ante usuarios menores de 18 años.
OpenAI ha actualizado el conjunto de "normas, valores y expectativas de comportamiento" que guía a los modelos que desarrolla en sus interacciones con los usuarios, para que sigan una serie de principios con los usuarios adolescentes.
"Los adolescentes tienen necesidades de desarrollo diferentes a las de los adultos", afirma en un comunicado, en el que establece que dichos principios guiarán a ChatGPT en sus conversaciones con usuarios de entre 13 y 17 años.
Se trata de un enfoque que prioriza "la prevención, la transparencia y la intervención temprana", y se centra concretamente en cuatro compromisos: priorizar la seguridad de los adolescentes, promover el apoyo en el mundo real, tratar a los adolescentes como adolescentes y ser transparentes estableciendo expectativas claras.
Con ello, lo que pretende es que en sus conversaciones ChatGPT trate a los usuarios menores como lo que son, sin condescendencia y de manera diferente a como interactúa con los adultos, pero con respeto. Y que lo haga con la seguridad siempre presente, incluso si esta entra en conflicto con otros objetivos.
En el caso de detectar que la conversación empieza a tratar temas considerados de riesgo o alto riesgo (autolesiones, juegos románticos o eróticos, detalles explícitos sobre violencia o sexo, actividades y sustancias peligrosas, imagen corporal y trastornos alimentarios, y la petición de guardar el secreto), ChatGPT debe enfatizar el apoyo en el mundo real, recordando las relaciones de familia y amigos, y ofrecer recursos con los que pueda solicitar ayuda rápidamente.
Este comportamiento dirigido a menores también supone que, en ocasiones, deberá rechazar algunas de sus peticiones y, en su lugar, ofrecer alternativas seguras, contactar con los servicios de emergencia locales o las líneas de ayuda para crisis. "Si no está seguro, el asistente debe ser precavido", dice la compañía.
Últimas noticias sobre estos temas
Contenido patrocinado