Cali, octubre 22 de 2025. Actualizado: miércoles, octubre 22, 2025 18:26
Ocho especialistas en salud mental, educación y tecnología asesorarán el desarrollo de ChatGPT y Sora para garantizar interacciones más seguras y empáticas.
En medio de un debate global sobre los efectos psicológicos de la inteligencia artificial (IA), OpenAI anunció la creación del Consejo de Expertos en Bienestar y Tecnología, una iniciativa pionera que busca garantizar que herramientas como ChatGPT y Sora evolucionen bajo principios de ética, empatía y protección emocional.
El grupo está conformado por ocho investigadores de talla internacional que estudiarán cómo las interacciones con sistemas de IA pueden influir en la salud mental, especialmente de niños, adolescentes y usuarios vulnerables.
“Queremos que la inteligencia artificial ayude a las personas a crecer, no a depender de ella”, señaló OpenAI en su comunicado oficial.
El Consejo de Bienestar de OpenAI reúne a científicos con experiencia en psicología, psiquiatría, neurociencia, desarrollo infantil y salud pública.
El equipo se reunirá de forma periódica para analizar avances, identificar riesgos y proponer prácticas seguras en el diseño de los productos de OpenAI.
Su labor incluye revisar cómo los modelos de lenguaje procesan temas sensibles —como salud mental, sexualidad, duelo o ansiedad— y recomendar ajustes en la forma en que las plataformas interactúan con los usuarios.
Una de sus primeras contribuciones fue asesorar los controles parentales en ChatGPT, que permiten detectar señales de riesgo emocional y ofrecer orientación a adolescentes.
Además, el consejo colaborará con un equipo clínico global de psiquiatras, terapeutas y científicos de datos que evalúan los modelos en situaciones reales antes de su lanzamiento.
La inteligencia artificial ha dejado de ser una herramienta puramente informativa: hoy conversa, acompaña y emociona.
Pero cuando esas conversaciones sustituyen el diálogo humano, pueden generar dependencia, distorsión emocional o desinformación.
Casos recientes, como los registrados en Estados Unidos con chatbots de compañía, impulsaron debates sobre la necesidad de una regulación ética y de acompañamiento familiar.
👉 Lee también: California regula los chatbots de compañía para proteger a menores y usuarios vulnerables
La creación del Consejo de Expertos de OpenAI refuerza la idea de que la salud mental debe estar en el centro del diseño tecnológico.
No basta con evitar respuestas inapropiadas o sesgos: la IA debe ser capaz de reconocer el contexto emocional y actuar con respeto y sensibilidad.
“La empatía no se programa, se aprende”, afirmó Tracy Dennis-Tiwary, una de las integrantes del grupo.
“Nuestra misión es que las máquinas aprendan de los valores humanos, no solo de los datos.”
La iniciativa de OpenAI abre una discusión más amplia: mientras la tecnología aprende a cuidar nuestras emociones, ¿Quién cuida la relación emocional de nuestros hijos con la IA?
En Diario Occidente creemos que el bienestar digital comienza con el acompañamiento humano.
Por eso, te invitamos a descargar la guía práctica creada especialmente para padres, madres y educadores:
Guía para padres: cómo acompañar a tus hijos en el uso de la inteligencia artificial
Incluye recomendaciones sobre control parental, prevención de riesgos y hábitos digitales saludables.
Descarga la guía para padres aquí
La mejor inteligencia no es la artificial, sino la emocional.
🎧 Detrás de cada avance tecnológico hay una historia humana.
En el nuevo episodio de Punto de Quiebre, analizamos lo que las noticias no dicen:
cómo la inteligencia artificial está tocando nuestras emociones, decisiones y valores.
Esta nota fue generada 100% con IA. La fuente fue aprobada por Diario Occidente y el contenido final fue revisado por un miembro del equipo de redacción.
Fin de los artículos
Ver mapa del sitio | Desarrollado por: