- Best-IA Newsletter
- Posts
- Boletín Semanal Best-IA #93
Boletín Semanal Best-IA #93
Aprende IA, día a día.
Tutoriales
Crea APPS con Google Stitch
Noticias
Google I/O 2025: La revolución Gemini
En su conferencia anual, Google ha presentado una avalancha de avances que consolidan su apuesta por la inteligencia artificial a través del ecosistema Gemini. Desde nuevos modelos y agentes inteligentes hasta mejoras en personalización, medios generativos y Search, todo apunta a una integración total de la IA en la vida cotidiana y profesional.
Principales anuncios de la Google I/O
1. Gemini 2.5: Modelos más potentes, rápidos y accesibles
Google presentó Gemini 2.5 Pro y 2.5 Flash, con mejoras sustanciales en razonamiento, velocidad y eficiencia. El nuevo modo “Deep Think” en 2.5 Pro aplica técnicas avanzadas de pensamiento paralelo para resolver tareas complejas, mientras que Flash brilla por su bajo coste y alto rendimiento.
2. Infraestructura de élite: el nuevo TPU Ironwood
El TPU de séptima generación alcanza 42,5 exaflops por pod y multiplica por 10 el rendimiento anterior, lo que permite a Google ofrecer modelos más potentes a menor coste y liderar la frontera de eficiencia y capacidad.
3. Adopción masiva: Gemini ya es mainstream
480 billones de tokens procesados al mes (vs. 9,7 billones en 2024).
400 millones de usuarios activos en la app Gemini.
7 millones de desarrolladores trabajando con Gemini (5x respecto al año pasado).
4. Gemini Live y el futuro del asistente universal
Inspirado en Project Astra, Gemini Live permite interacciones multimodales avanzadas con cámara y pantalla compartida. Ya está disponible en Android e iOS, integrándose pronto con otras apps de Google.
5. Google Beam: videollamadas 3D con IA en tiempo real
La evolución de Project Starline. Beam ofrece experiencias conversacionales en 3D mediante seis cámaras, seguimiento milimétrico de cabeza y renderizado en pantallas de campo lumínico. Los primeros dispositivos llegan este año junto a HP.
6. Traducción en vivo en Google Meet
Traducciones multilingües en tiempo real que imitan voz, tono y expresiones del hablante. Inicialmente en inglés y español, y pronto en más idiomas.
7. Agentes con iniciativa: Project Mariner y Agent Mode
La visión de asistentes que actúan por nosotros avanza con Mariner y su modo "teach and repeat". Google lanza su API para que empresas creen agentes con capacidad de uso de ordenador. Agent Mode también llegará a la app Gemini con funciones como búsqueda de pisos y programación de visitas.
8. Búsqueda con IA: llega AI Mode
El nuevo AI Mode en Google Search permite consultas mucho más complejas y prolongadas, con respuestas más precisas y contexto continuo. Desde hoy disponible en EE.UU. y potenciado por Gemini 2.5.
9. Personalización inteligente con contexto privado
Gemini usará (si lo permites) tu historial de Gmail, Drive y otras apps para crear respuestas contextuales que imitan tu tono y estilo. Gmail integrará respuestas inteligentes personalizadas a lo largo de este año.
10. Gemini App + Canvas: IA creativa y funcional
La app Gemini se refuerza con integración de Canvas, permitiendo generar infografías, tests y podcasts. También se amplían sus capacidades para conectar con archivos personales y generar investigaciones personalizadas.
11. Modelos generativos: Imagen 4 y Veo 3
Imagen 4 (para imágenes) y Veo 3 (para vídeo con audio nativo) ya están disponibles. Se suman herramientas como Flow, que permite a creadores expandir clips en escenas cinematográficas completas.
Google también ha anunciado:
Novedades en Android XR, la plataforma para auriculares XR y gafas inteligentes
Stitch, una plataforma de IA para crear UI con indicaciones de texto
Google Jules, un nuevo agente de codificación de IA
Google no solo ha presentado avances técnicos, sino una visión de IA integrada, accesible y personalizada. La aceleración del despliegue de Gemini redefine la relación entre humanos y máquinas, y anticipa un nuevo estándar de interacción digital.
Anthropic lanza Claude 4 Opus y Sonnet: Nuevos modelos para el desarrollo y agentes autónomos
Anthropic ha presentado Claude Opus 4 y Claude Sonnet 4, dos modelos que redefinen el panorama de la IA en programación, razonamiento complejo y agentes inteligentes.
¿Qué aportan los nuevos Claude 4?
Opus 4: rendimiento de élite en tareas complejas
Es el mejor modelo de codificación del mundo, según benchmarks como SWE-bench (72,5%) y Terminal-bench (43,2%).
Capaz de mantener tareas complejas activas durante horas, incluso resolviendo problemas de varios pasos sin pérdida de rendimiento.
Empresas como Cursor, Replit o Rakuten ya lo integran para refactorizaciones masivas, edición inteligente y resolución de errores.
Sonnet 4: equilibrio entre potencia y eficiencia
Mejora sustancial respecto a Sonnet 3.7, con 72,7% en SWE-bench y menor tasa de errores de navegación en código.
Ideal para escenarios prácticos y uso diario, integrándose en herramientas como GitHub Copilot para potenciar nuevos agentes de codificación.
Destacado por su razonamiento claro, mejor seguimiento de instrucciones y salidas más pulidas.
Nuevas capacidades para desarrolladores
Los modelos pueden usar herramientas (como búsquedas web o archivos locales) en paralelo y con memoria persistente, mejorando la continuidad en tareas largas.
Claude Code se lanza oficialmente con integración en IDEs (VS Code, JetBrains) y GitHub, facilitando la colaboración y automatización en flujos de trabajo.
Nuevas funciones en la API de Anthropic: ejecución de código, Conector MCP para herramientas externas, gestión de archivos, cacheo de prompts y más.
Claude 4 marca un nuevo estándar en el desarrollo de agentes de IA autónomos, combinando codificación avanzada, razonamiento sostenido y memoria integrada para tareas de largo plazo.

Microsoft Build 2025: La era de los agentes de IA y la web agéntica abierta
Durante el evento Build 2025, Microsoft presentó avances que consolidan un nuevo paradigma: la web agéntica, donde los agentes de IA interactúan, razonan y ejecutan tareas por y para los usuarios.
Puntos Clave
1. Agentes como nuevos compañeros de desarrollo
GitHub Copilot evoluciona de asistente a agente de codificación asincrónico, permitiendo escribir y mantener código de forma autónoma. Con nuevas capacidades como gestión de prompts, evaluaciones ligeras y control empresarial, se refuerza un enfoque abierto y colaborativo del desarrollo. Además, Windows AI Foundry ofrece una plataforma unificada para ejecutar modelos de lenguaje e imagen, tanto locales como en la nube.
2. Azure AI Foundry: Plataforma total para agentes empresariales
Azure AI Foundry se consolida como núcleo operativo para construir y desplegar agentes de IA. Integra modelos como Grok 3 (de xAI), herramientas como el Model Router (selección automática de modelos) y servicios como el Foundry Agent Service, que permite orquestar agentes múltiples para tareas complejas. También se incorporan mecanismos de trazabilidad, control de calidad y cumplimiento normativo con Entra Agent ID y Microsoft Purview.
3. Una web agentica abierta y semántica
Microsoft impulsa estándares abiertos como el Model Context Protocol (MCP), facilitando que agentes accedan a servicios y datos con seguridad. Además, presenta NLWeb, un nuevo estándar que permite a las webs ofrecer interfaces conversacionales y accesibilidad directa a agentes, transformando páginas en endpoints semánticos y colaborativos.
4. Personalización y orquestación de agentes en Microsoft 365
Copilot Tuning permite a las empresas entrenar modelos y crear agentes adaptados a sus datos, flujos y estilo, todo sin código. Además, la orquestación multiagente en Copilot Studio permite que varios agentes colaboren entre sí para abordar tareas más complejas.
5. Microsoft Discovery: IA al servicio de la ciencia
La nueva plataforma Microsoft Discovery está diseñada para acelerar el proceso de descubrimiento científico. Permite a investigadores y empresas de I+D aplicar agentes inteligentes en todas las fases del desarrollo, desde hipótesis hasta producción.
¿Por qué es importante?
La visión de Microsoft anticipa una web donde los agentes de IA son autónomos, seguros y colaborativos. Esto redefine cómo desarrollamos, operamos y descubrimos — acelerando el trabajo, la ciencia y la innovación empresarial.
Nvidia's 2025 Computex Keynote: La IA como nueva infraestructura global
Durante su keynote en COMPUTEX 2025, Jensen Huang, CEO de NVIDIA, presentó una visión transformadora: la Inteligencia Artificial no solo como una tecnología, sino como una nueva infraestructura comparable al internet o la electricidad. En un evento repleto de anuncios, Huang mostró cómo NVIDIA está liderando esta revolución, desde supercomputadoras hasta plataformas para robots humanoides.
Puntos clave del anuncio:
1. IA como infraestructura: las nuevas “fábricas”
Huang redefinió los centros de datos como “fábricas de IA” que transforman energía en tokens, destacando que la IA es ahora una infraestructura esencial. La magnitud de esta visión apunta a una industria valorada en billones de dólares.2. CUDA-X en todas partes
NVIDIA impulsa su ecosistema CUDA-X, adoptado masivamente por desarrolladores e industrias, y ahora clave en el desarrollo de redes 6G y computación cuántica acelerada por IA.3. Del razonamiento a la acción: el auge de la IA agéntica y física
Huang explicó cómo la IA está avanzando hacia agentes autónomos que perciben, entienden y actúan en el mundo físico, lo que abre paso a la robótica general y la IA industrial.4. Nueva infraestructura: Blackwell y NVLink Fusion
NVIDIA presentó NVLink Fusion, una arquitectura que permite soluciones personalizadas de computación a gran escala, y consolidó a Blackwell como la plataforma única desde la nube hasta el edge.5. Nuevos sistemas para desarrolladores y empresas
DGX Spark y DGX Station: supercomputadoras personales para IA, capaces de ejecutar modelos con hasta un trillón de parámetros.
RTX PRO Servers: servidores empresariales para operar “fábricas de IA” locales.
AI Data Platform: una nueva plataforma de almacenamiento optimizada para cargas modernas de IA.
6. Robótica avanzada y simulación física con Newton
Con Disney y DeepMind, NVIDIA desarrolló Newton, un motor de simulación para entrenamiento de robots. Además, presentó el modelo base Isaac GR00T N1.5 para inteligencia robótica y generación de datos sintéticos.7. Omniverse e IA física industrial
Grandes fabricantes taiwaneses están usando NVIDIA Omniverse para crear gemelos digitales de fábricas, mejorando diseño y productividad en la era de la IA física aplicada a la industria.8. NVIDIA Constellation: expansión en Taiwán
La presentación concluyó con la inauguración simbólica de NVIDIA Constellation, su nueva sede en Taiwán, subrayando la importancia del país como centro neurálgico de la revolución IA.
Esta keynote consolida a NVIDIA como actor central en la era de la IA, liderando desde el hardware hasta la robótica y la infraestructura digital del futuro. La IA no es una herramienta más: es la nueva columna vertebral de la economía global.
LINK: https://blogs.nvidia.com/blog/computex-2025-jensen-huang/
Robin: la IA que automatiza todo el proceso científico y hace su primer descubrimiento
FutureHouse ha presentado Robin, un sistema multiagente capaz de automatizar de principio a fin la investigación científica. Su primera hazaña: identificar un nuevo tratamiento potencial para la degeneración macular asociada a la edad seca (dAMD), una causa principal de ceguera irreversible. Este avance marca un nuevo paso hacia la ciencia asistida íntegramente por IA.
Puntos clave:
Robin integra varios agentes especializados
La novedad de Robin no es un único modelo, sino la orquestación de agentes ya existentes: Crow, Falcon y Finch. Crow busca y sintetiza literatura científica, Falcon diseña experimentos y selecciona compuestos candidatos, y Finch analiza los datos experimentales. Robin coordina este ecosistema para conducir investigaciones de forma autónoma.Primer caso de uso: tratamiento para la dAMD
Aplicado a la dAMD, Robin formuló la hipótesis de que aumentar la fagocitosis del epitelio pigmentario retinal (RPE) podría ser terapéutico. A partir de ello, identificó y validó en laboratorio el efecto de inhibidores ROCK, especialmente ripasudil —ya usado para el glaucoma— como posible fármaco para la dAMD.Trabajo científico 100% diseñado por IA
Todos los pasos intelectuales del proceso —hipótesis, diseño experimental, análisis de datos, redacción de figuras— fueron generados por Robin. Los humanos solo ejecutaron los experimentos físicos, pero la estructura científica del paper fue completamente dirigida por la IA.De concepto a descubrimiento en 2,5 meses
Lo más sorprendente es la velocidad del proceso: en sólo 10 semanas, un equipo reducido de investigadores creó Robin y completó su primera publicación científica. Esto sugiere que el futuro de la investigación podría acelerarse radicalmente mediante este tipo de arquitecturas.Robin es generalista y de código abierto
Aunque Robin fue probado en el campo biomédico, sus agentes son de propósito general. A partir del 27 de mayo, Robin será open source, lo que podría permitir su uso en áreas como ciencia de materiales, energía o clima.
Robin inaugura una era en la que la generación de conocimiento científico podría ser automatizada, no solo asistida. Este avance pone a la IA en el centro de la innovación, redefiniendo cómo se hará ciencia en las próximas décadas.
Devstral: el nuevo estándar abierto para agentes de codificación
Mistral AI y All Hands AI han lanzado Devstral, un modelo de lenguaje abierto diseñado específicamente para tareas complejas de ingeniería de software. Con un rendimiento líder en su categoría, Devstral promete llevar los agentes de codificación a un nuevo nivel.
Puntos clave:
Supera ampliamente a otros modelos en tareas reales
Devstral alcanza un 46,8 % en el benchmark SWE-Bench Verified, que evalúa la capacidad de resolver issues reales en GitHub. Esto lo sitúa más de 6 puntos por encima del mejor modelo open-source anterior y supera incluso a modelos cerrados como GPT‑4.1-mini y Claude 3.5 Haiku.Diseñado para entornos reales y complejos
A diferencia de los LLMs tradicionales, Devstral no solo completa funciones sueltas, sino que entiende relaciones entre archivos, contexto global y errores sutiles. Funciona con marcos como OpenHands o SWE-Agent, lo que le permite operar como un verdadero agente de desarrollo.Ligero, versátil y accesible
Devstral puede ejecutarse en una RTX 4090 o un Mac con 32 GB de RAM, ideal para despliegues locales y uso empresarial en entornos sensibles. Está disponible bajo licencia Apache 2.0, lo que permite su uso libre y personalización, además de contar con una API pública.
Devstral democratiza el acceso a agentes de codificación avanzados, con potencia competitiva frente a modelos cerrados y gran facilidad de integración, acelerando así el desarrollo de software autónomo y privado.
Robots
Head of robotics at Google DeepMind, Carolina Parada, talks about how a Gemini-powered robot – without prior training – performed a slam dunk with an unfamiliar toy basketball hoop, demonstrating surprising generalization from Gemini’s conceptual understanding of the world.
— The Humanoid Hub (@TheHumanoidHub)
5:38 PM • May 22, 2025
Un robot equipado con Gemini, sin haber sido entrenado específicamente para esta tarea, logró encestar en un aro de baloncesto desconocido. Este comportamiento muestra que Gemini permite al robot entender conceptos del mundo de forma general, facilitándole la capacidad de adaptarse a situaciones nuevas sin necesidad de entrenamientos extensos para cada caso concreto.
Reflexiones Finales
Dario Amodei, CEO de Anthropic: La primera compañía valorada en mil millones de dólares con un solo empleado humano podría surgir en 2026
Anthropic CEO, Dario Amodei:
the first billion-dollar company with a single human employee could emerge by 2026
— Haider. (@slow_developer)
7:20 PM • May 22, 2025