- Best-IA Newsletter
- Posts
- Boletín Semanal Best-IA #109
Boletín Semanal Best-IA #109
Aprende IA, día a día.
Tutoriales
Tutorial OpenAI Codex
¿El futuro de la programación? Review de TRAE, Editor de Código con IA
Noticias
OpenAI lanza GPT-5-Codex
OpenAI presentó GPT-5-Codex, una evolución de GPT-5 diseñada específicamente para Codex, con mayor precisión, autonomía y mejor integración en los flujos de trabajo de los desarrolladores.
🔑 Puntos clave
Más potente y preciso
Puede trabajar de forma autónoma durante más de 7 horas en tareas complejas. Logra 74,5% de precisión en SWE-bench Verified (vs. 72,8% de GPT-5), optimizando además el uso de tokens: gasta 93,7% menos en tareas simples y 102,2% más en las complejas.Integración fluida
Disponible en CLI e IDE extension con cuenta ChatGPT. Alimenta el agente en la nube de Codex web, el Code Review en GitHub, y pronto llegará a la API. Para tareas de front-end, puede mostrar capturas de pantalla de la UI.Acceso flexible según plan
Incluido en Plus, Pro, Business, Edu y Enterprise. Los planes Plus, Edu y Business cubren sesiones semanales enfocadas; Pro soporta una semana completa de trabajo en varios proyectos.
🎯 GPT-5-Codex marca un paso hacia agentes de desarrollo realmente autónomos, mejorando la productividad, calidad de código y colaboración en proyectos de software complejos.
Grok 4 Fast: IA más rápida y eficiente de xAI
xAI presentó Grok 4 Fast, un modelo que busca llevar la inteligencia de vanguardia a más usuarios y empresas con un enfoque en eficiencia de costos y velocidad. Combina razonamiento avanzado con respuestas rápidas en un mismo sistema, marcando un paso hacia la democratización de la IA.
🔑 Puntos Clave
Eficiencia extrema en tokens: logra el mismo rendimiento que Grok 4 usando un 40% menos de tokens y reduciendo el costo en un 98%, según la auditoría de Artificial Analysis.
Capacidades agenticas y búsqueda en tiempo real: Grok 4 Fast puede navegar la web y X (Twitter), seguir enlaces, procesar imágenes y videos, y sintetizar resultados rápidamente, gracias a su entrenamiento con tool-use reinforcement learning.
Resultados en benchmarks:
#1 en el Search Arena de LMArena con 1163 Elo, superando a modelos mayores como o3-search.
#8 en el Text Arena, a la par con Grok 4, pero muy por encima de modelos de su misma escala.
Arquitectura unificada: un solo modelo maneja tanto razonamiento profundo como respuestas rápidas, reduciendo latencia y costos, ideal para aplicaciones en tiempo real.
Ventana de contexto masiva: soporta hasta 2 millones de tokens, lo que permite trabajar con volúmenes de información extremadamente grandes en una sola sesión.
Disponibilidad y acceso: ya está activo en grok.com, apps de iOS y Android, además de OpenRouter, Vercel AI Gateway y la API de xAI. Incluso los usuarios gratuitos tienen acceso al modelo completo.

🎯 Relevancia
Grok 4 Fast redefine la relación entre costo y rendimiento en IA generativa. Su ventana de 2M tokens, junto con la eficiencia y acceso masivo, puede acelerar la adopción de modelos avanzados en consumo, empresas y nuevas aplicaciones.
Tongyi DeepResearch: el primer agente web open source que compite con OpenAI
El laboratorio chino de Qwen, Tongyi Lab, acaba de presentar Tongyi DeepResearch, el primer agente web de investigación completamente open-source que rivaliza en benchmarks con modelos propietarios como OpenAI o3, y con sólo 30B (A3B) de parámetros activos.
📊 Resultados sobresalientes en benchmarks:
Humanity’s Last Exam: 32.9 (vs 24.9 de o3)
xbench-DeepSearch: 75.0 (vs 67.0)
BrowseComp-ZH: 46.7 (vs 58.1)
En modo “Heavy” con agentes en paralelo, llega a 58.3 en BrowseComp y 38.3 en HLE.
🎯 Implicaciones
Tongyi DeepResearch pone en manos de la comunidad una alternativa open-source viable a los agentes cerrados de investigación, marcando un nuevo estándar para la exploración autónoma web y la síntesis de conocimiento.
Gamma 3.0: el futuro de las presentaciones con IA
Gamma presenta su mayor actualización hasta la fecha con Gamma 3.0, un salto generacional que redefine cómo crear y editar presentaciones con inteligencia artificial.
🔑 Puntos clave
Gamma Agent
Permite transformar toda una presentación con un solo prompt:“Hazlo más visual” → el agente analiza cada slide y mejora gráficos o datos.
Sube unas notas en imagen → sintetiza la información, busca en la web para completar huecos y genera una tabla ajustada a tu marca o tema.
Gamma API
Abre la puerta a la automatización total: por ejemplo, convertir transcripciones de reuniones en decks personalizados enviados automáticamente después de cada encuentro con clientes.Nuevos planes
Llegan las suscripciones Team & Business para empresas de cualquier tamaño y Ultra para usuarios avanzados que quieran llevar el storytelling visual al límite.
🎯 Gamma 3.0 busca romper con la lentitud y rigidez de PowerPoint, ofreciendo un entorno donde crear presentaciones sea ágil, visual y escalable, tanto para individuos como para grandes equipos.
World Labs revoluciona la IA espacial con mundos 3D persistentes
World Labs anunció un avance clave en inteligencia espacial, logrando generar mundos 3D navegables, persistentes y totalmente controlables a partir de texto o imágenes.
🔑 Puntos clave
Mundos persistentes
A diferencia de experiencias anteriores, estos entornos no tienen límites de tiempo, no se deforman ni cambian: se pueden explorar indefinidamente sin coste adicional.Mejores resultados técnicos
Mundos más grandes, diversos en estilo y con geometría 3D más limpia que en versiones previas.Exportación en Gaussian splats
Este formato ligero permite representar superficies con densidad y velocidad, ideal para renderizado en tiempo real en navegadores. Los desarrolladores pueden integrarlos fácilmente en Three.js usando el renderer abierto Spark.Consistencia visual total
A diferencia de mapas de profundidad o nubes de puntos dispersas, un mundo en splats mantiene coherencia geométrica desde cualquier ángulo de cámara.Ecosistema en marcha
La beta de Marble ya ofrece miles de mundos generados y la opción de solicitar acceso como creador.
🎯 Este avance acerca la creación de entornos 3D persistentes y usables en tiempo real a cualquier desarrollador, abriendo puertas en videojuegos, simulaciones, educación y experiencias inmersivas en la web.
Generate persistent 3D worlds from a single image, bigger and better than ever!
We’re excited to share our latest results and invite you to try out our world generation model in a limited beta preview.
— World Labs (@theworldlabs)
4:17 PM • Sep 16, 2025
WAITLIST: worldlabs.ai/waitlist
🎬 Luma AI presenta Ray3: el primer modelo de video con razonamiento
Luma Labs lanzó Ray3, un modelo pionero que combina razonamiento visual y lingüístico con calidad de producción en HDR de estudio, marcando un nuevo estándar en generación de video.
🔑 Puntos clave
Razonamiento visual
Ray3 entiende instrucciones complejas, combina texto e imágenes, y evalúa sus propias generaciones para entregar resultados más consistentes y precisos. Incluso permite dibujar o anotar sobre imágenes para dirigir cámara, objetos y movimientos.Draft Mode para iterar rápido
Nueva modalidad para explorar ideas en flujo creativo, con resultados 5 veces más rápidos y baratos, antes de pasar al acabado de alta fidelidad en 4K HDR.Fidelidad de estudio
Produce video en 10, 12 y 16 bits HDR, con simulaciones físicas, multitudes, iluminación interactiva, caústicas, motion blur y detalle anatómico preservado. Exporta en EXR para control total en postproducción.Aplicaciones inmediatas
Desde cine y publicidad hasta videojuegos y contenido social, Ray3 apunta a integrarse en pipelines de producción profesional con calidad lista para pantalla grande.
🎯 Ray3 inaugura una nueva generación de modelos de video: más rápidos, más precisos y con control creativo real, acercando la producción cinematográfica a cualquier creador con una laptop.
This is Ray3. The world’s first reasoning video model, and the first to generate studio-grade HDR. Now with an all-new Draft Mode for rapid iteration in creative workflows, and state of the art physics and consistency. Available now for free in Dream Machine.
— Luma AI (@LumaLabsAI)
2:31 PM • Sep 18, 2025
LINK: https://lumalabs.ai/ray
Pruébalo gratis en Dream Machine: https://lumalabs.ai/dream-machine
Google lanza Agent Payments Protocol (AP2): pagos seguros para agentes de IA
Google presentó AP2, un protocolo abierto para que los agentes de IA realicen compras autorizadas y rastreables con más de 60 socios globales.
🔑 Puntos clave
El problema
Los sistemas de pago actuales asumen que un humano aprueba cada transacción. Si la ejecuta un agente, bancos y comercios carecen de prueba de autorización, lo que abre la puerta a fraudes y disputas.La solución: Mandates
AP2 introduce contratos inmutables y firmados criptográficamente:Intent Mandate → define objetivos y límites (precio, tiempo, condiciones).
Cart Mandate → confirma ítems y precio finales aprobados.
Cada transacción queda con una prueba no repudiable de intención.
Agnóstico y escalable
Funciona con tarjetas, transferencias bancarias en tiempo real y stablecoins. Se integra con Agent2Agent (A2A) y Model Context Protocol (MCP) para pagos entre agentes y wallets cripto.Adopción real
Respaldado por Mastercard, American Express, PayPal, Adyen, Coinbase, entre otros, lo que refuerza su viabilidad como estándar abierto.
🎯 AP2 establece las bases para un ecosistema financiero confiable de agentes autónomos, con transparencia y trazabilidad que permiten a bancos, comercios y usuarios confiar en la economía de agentes.
Google Chrome integra Gemini y capacidades agénticas
El equipo de Google Chrome presentó novedades que llevan la navegación con IA a otro nivel, integrando Gemini directamente en el navegador para hacer la web más útil y segura.
🔑 Puntos clave
Gemini en todas tus pestañas
Ahora ayuda a comparar sitios, recuperar información y gestionar contenido en tiempo real.Omnibox potenciado con IA
El buscador de Chrome incorpora un AI Mode capaz de responder a preguntas complejas sin salir del navegador.Más seguridad
Nuevas funciones de IA bloquean estafas y spam, y permiten cambiar contraseñas comprometidas con un solo clic.Disponibilidad
Por el momento, sólo para usuarios de Mac y Windows en EE. UU. con el idioma configurado en inglés.
🎯 Con estas mejoras, Chrome evoluciona en navegador inteligente y proactivo, reforzando la seguridad y acercando la experiencia de agentes autónomos al uso cotidiano de la web.
Notion 3.0: Tu nuevo equipo son agentes de IA
Notion ha lanzado su versión 3.0 con agentes personalizados de inteligencia artificial que trabajan contigo —o por ti— dentro del entorno de productividad más versátil del mercado.
🔑 Puntos clave
🤖 Notion Agents pueden ejecutar tareas complejas de más de 20 minutos, interactuar con bases de datos, y adaptarse gracias a su sistema de memoria avanzada.
🧩 Cada agente puede tener un rol definido (investigación, planificación, redacción…), corriendo en segundo plano mientras tú haces otras cosas (o duermes).
🛠️ Los usuarios podrán crear y compartir agentes personalizados a través del Notion Marketplace, fomentando un ecosistema de flujos de trabajo automatizados a medida.
🎯 Notion se transforma de herramienta pasiva a teammate proactivo, integrando capacidades de IA que pueden redefinir cómo trabajamos a nivel individual y en equipo.
Robots
Project Go-Big: Robots humanoides que aprenden de vídeos humanos
Figure ha presentado Project Go-Big, un salto hacia la inteligencia robótica en el hogar. Su modelo Helix ahora puede aprender de vídeos humanos cotidianos y ejecutar órdenes en entornos reales, sin necesidad de datos específicos de robots.
🔑 Puntos clave
Preentrenamiento a escala internet: Figure crea el mayor dataset de comportamientos humanos aplicado a robots humanoides, con apoyo de Brookfield y sus más de 100.000 viviendas y millones de m² de espacios logísticos y de oficinas.
Transferencia directa de vídeo humano a robot: Helix consigue que los robots naveguen espacios desordenados siguiendo instrucciones en lenguaje natural (“ve a la nevera”), sin demostraciones robóticas previas.
Modelo unificado: Helix combina en una sola red la manipulación de objetos y la navegación, integrando visión, lenguaje y control motor de manera end-to-end.
Unlike LLMs, we can’t scrape the internet for robot data
Announcing Project Go-Big: we’re building the world's largest humanoid pretraining dataset
This is accelerated by our partnership with Brookfield, who owns over 100,000 residential units
— Figure (@Figure_robot)
3:45 PM • Sep 18, 2025
🎯 Este avance acerca la posibilidad de robots domésticos realmente útiles, capaces de comprender y actuar en hogares humanos con aprendizaje masivo de vídeo y comandos en lenguaje natural.
Any2Track: nueva técnica para imitar movimientos humanos bajo perturbaciones
Un nuevo sistema llamado Any2Track está revolucionando el aprendizaje de movimientos complejos en robots. Mediante un enfoque en dos etapas basado en aprendizaje por refuerzo (RL), el sistema logra imitar con precisión movimientos humanos, incluso en situaciones impredecibles o caóticas.
Any2Track tracks diverse motions under various disturbances.
The two-stage RL framework learns to track contact-rich human motions from motion capture datasets and adds adaptability to disturbances via dynamics-aware model prediction.
— The Humanoid Hub (@TheHumanoidHub)
5:45 AM • Sep 20, 2025