Cali, abril 18 de 2026. Actualizado: viernes, abril 17, 2026 22:47
Un comprador en línea conversa con un asistente que responde con frases perfectas pero no entiende sus preferencias.
Esa diferencia entre asistentes “ideales” y usuarios reales dificulta que las tiendas prueben mejoras sin gastar en pruebas con personas reales.
Google Research publicó el 9 de abril de 2026 ConvApparel, un conjunto de datos y un marco de evaluación para medir qué tan “reales” son los simuladores de usuarios que usan modelos de lenguaje grandes. Los autores principales son Ofer Meshi y Sally Goldman.
Un “simulador de usuario” es un programa que finge ser una persona para probar cómo responde un asistente conversacional.
Pruebas más baratas y repetibles para comercios
ConvApparel incluye más de 4.000 conversaciones en el dominio de ropa y anotaciones por turno sobre satisfacción y frustración.
Esto permite a equipos probar cambios en asistentes sin organizar grandes paneles de usuarios, ahorrando tiempo y dinero.
El dataset usa dos agentes controlados —uno útil y otro deliberadamente confuso— y tres pruebas (estadísticas poblacionales, puntuación de “human-likeness” y validación contrafactual).
Con eso, equipos pueden detectar si un simulador es demasiado paciente o habla siempre perfecto, problemas que antes pasaban desapercibidos.
Los investigadores mostraron que los métodos basados en datos (simuladores entrenados con ejemplos reales) imitan mejor a los usuarios que los que solo siguen instrucciones.
Eso ayuda a elegir simuladores que entrenen asistentes más resistentes antes de lanzarlos al público.
La idea se parece a probar un coche en dos pistas: una normal y otra llena de baches. ConvApparel envió usuarios reales a dos asistentes distintos (uno bueno y uno malo) para capturar reacciones variadas.
Luego evaluó simuladores comparando estadísticas generales, una medida automática de “parecer humano” y cómo reaccionan cuando encuentran un asistente inesperadamente malo.
Sigue sin saberse cuánta “similitud humana” es suficiente para que un simulador forme asistentes que funcionen bien con usuarios reales.
Tampoco está probado si entrenar agentes completos solo con simuladores de alta fidelidad reproduce el comportamiento del mundo real.
ConvApparel ofrece herramientas para medir y reducir la brecha entre simuladores y personas reales, un paso hacia asistentes conversacionales más confiables.
La investigación subraya la importancia de validar cómo reaccionan los sistemas ante situaciones inesperadas, no solo de que suenen correctos.
Esta nota fue generada 100% con IA. La fuente fue aprobada por Diario Occidente y el contenido final fue revisado por un miembro del equipo de redacción.


La curaduría y revisión editorial de estas notas está a cargo de Rosa María Agudelo Ayerbe, comunicadora social y periodista, con maestría en Transformación Digital y especialización en Inteligencia Artificial.
Desde su rol como líder del equipo de innovación y transformación digital del Diario Occidente, y a través de la unidad estratégica DO Tech, realiza un seguimiento permanente a las principales novedades en tecnología e inteligencia artificial a nivel global.
Estas notas se apoyan en un agente de investigación basado en inteligencia artificial, diseñado para monitorear semanalmente avances, lanzamientos y debates clave del sector.
El contenido es posteriormente leído, analizado, contextualizado y validado editorialmente antes de su publicación.
Este proceso forma parte del mecanismo de actualización continua que permite interpretar los desarrollos tecnológicos desde una mirada periodística, crítica y comprensible para audiencias no especializadas.

Fin de los artículos
Ver mapa del sitio | Desarrollado por: