Cali, abril 1 de 2026. Actualizado: miércoles, abril 1, 2026 16:56
En la práctica diaria de los centros de datos, la capacidad de cómputo no es fija: máquinas se apagan por fallos, mantenimiento o limitaciones de energía, y tareas de alta prioridad pueden reservar recursos en cualquier momento.
Ese paisaje cambiante complica la programación de trabajos “no preemptivos” —aquellos que, si se interrumpen, pierden todo el progreso— y plantea preguntas concretas: ¿cuándo conviene empezar un trabajo largo? ¿es mejor esperar una ventana segura para no desperdiciar tiempo?
El 11 de febrero de 2026, Manish Purohit (Google Research) publicó en el blog de Google Research un trabajo presentado en la conferencia SPAA 2025 que aborda exactamente ese problema: “Non-preemptive Throughput Maximization under Time-varying Capacity”.
El estudio ofrece algoritmos con garantías matemáticas (aproximaciones y razones de competencia) para maximizar el “throughput” —es decir, la suma de los valores o el número de trabajos completados— cuando la capacidad disponible varía con el tiempo.
Los investigadores modelan una máquina o clúster cuya capacidad cambia en el tiempo y un conjunto de trabajos, cada uno con cuatro atributos: tiempo de llegada (release time), fecha límite (deadline), duración (processing time) y valor o peso (weight).
El objetivo es elegir y programar trabajos de manera que cada uno se ejecute de forma continua dentro de su ventana válida y la cantidad de trabajos concurrentes nunca supere la capacidad disponible en cada instante.
Para reflejar situaciones reales se estudian dos entornos: el “offline”, donde se conoce de antemano la llegada de trabajos y los cambios de capacidad, y el “online”, donde los trabajos llegan en tiempo real y las decisiones son irrevocables (aunque la capacidad prevista sí es conocida).
Los autores usan la analogía de un restaurante: mesas reservadas por clientes VIP en distintos momentos dejan “capacidad sobrante” para otros comensales.
Si una mesa es ocupada por un cliente que tarda mucho en comer, puede impedir atender a varios clientes rápidos luego.
El algoritmo debe decidir si sentar a ese cliente largo ahora (riesgo de perder mesas futuras) o esperar una ventana más segura.
En la variante con reinicios, puedes pedirle al comensal que deje la mesa temporalmente y volver a intentarlo; en la variante sin reinicios, si se levanta la mesa y se va, el comensal se pierde.
El trabajo adapta modelos teóricos a la dinámica real de infraestructuras en la nube y proporciona herramientas con garantías formales que pueden servir de base para programadores de recursos en centros de datos.
Los autores reconocen límites: la garantía online de 1/11 está lejos del límite teórico de 1/2, por lo que existen oportunidades para mejorar algoritmos (p. ej., con aleatoriedad o conocimiento imperfecto futuro de la capacidad).
El artículo fue firmado por Manish Purohit (Research Scientist, Google Research) y es trabajo conjunto con Aniket Murhekar (University of Illinois at Urbana‑Champaign), Zoya Svitkina (Google Research), Erik Vee (Google Research) y Joshua Wang (Google Research).
El estudio fue presentado en SPAA 2025 y tiene versión de artículo disponible (DOI en la nota original).
Esta nota fue generada 100% con IA. La fuente fue aprobada por Diario Occidente y el contenido final fue revisado por un miembro del equipo de redacción.


La curaduría y revisión editorial de estas notas está a cargo de Rosa María Agudelo Ayerbe, comunicadora social y periodista, con maestría en Transformación Digital y especialización en Inteligencia Artificial.
Desde su rol como líder del equipo de innovación y transformación digital del Diario Occidente, y a través de la unidad estratégica DO Tech, realiza un seguimiento permanente a las principales novedades en tecnología e inteligencia artificial a nivel global.
Estas notas se apoyan en un agente de investigación basado en inteligencia artificial, diseñado para monitorear semanalmente avances, lanzamientos y debates clave del sector.
El contenido es posteriormente leído, analizado, contextualizado y validado editorialmente antes de su publicación.
Este proceso forma parte del mecanismo de actualización continua que permite interpretar los desarrollos tecnológicos desde una mirada periodística, crítica y comprensible para audiencias no especializadas.
Fin de los artículos
Ver mapa del sitio | Desarrollado por: