Boletín Semanal Best-IA #93

Aprende IA, día a día.

Tutoriales

Crea APPS con Google Stitch

Noticias

Google I/O 2025: La revolución Gemini

  • En su conferencia anual, Google ha presentado una avalancha de avances que consolidan su apuesta por la inteligencia artificial a través del ecosistema Gemini. Desde nuevos modelos y agentes inteligentes hasta mejoras en personalización, medios generativos y Search, todo apunta a una integración total de la IA en la vida cotidiana y profesional.

  • Principales anuncios de la Google I/O

    • 1. Gemini 2.5: Modelos más potentes, rápidos y accesibles

      • Google presentó Gemini 2.5 Pro y 2.5 Flash, con mejoras sustanciales en razonamiento, velocidad y eficiencia. El nuevo modo “Deep Think” en 2.5 Pro aplica técnicas avanzadas de pensamiento paralelo para resolver tareas complejas, mientras que Flash brilla por su bajo coste y alto rendimiento.

    • 2. Infraestructura de élite: el nuevo TPU Ironwood

      • El TPU de séptima generación alcanza 42,5 exaflops por pod y multiplica por 10 el rendimiento anterior, lo que permite a Google ofrecer modelos más potentes a menor coste y liderar la frontera de eficiencia y capacidad.

    • 3. Adopción masiva: Gemini ya es mainstream

      • 480 billones de tokens procesados al mes (vs. 9,7 billones en 2024).

      • 400 millones de usuarios activos en la app Gemini.

      • 7 millones de desarrolladores trabajando con Gemini (5x respecto al año pasado).

    • 4. Gemini Live y el futuro del asistente universal

      • Inspirado en Project Astra, Gemini Live permite interacciones multimodales avanzadas con cámara y pantalla compartida. Ya está disponible en Android e iOS, integrándose pronto con otras apps de Google.

    • 5. Google Beam: videollamadas 3D con IA en tiempo real

      • La evolución de Project Starline. Beam ofrece experiencias conversacionales en 3D mediante seis cámaras, seguimiento milimétrico de cabeza y renderizado en pantallas de campo lumínico. Los primeros dispositivos llegan este año junto a HP.

    • 6. Traducción en vivo en Google Meet

      • Traducciones multilingües en tiempo real que imitan voz, tono y expresiones del hablante. Inicialmente en inglés y español, y pronto en más idiomas.

    • 7. Agentes con iniciativa: Project Mariner y Agent Mode

      • La visión de asistentes que actúan por nosotros avanza con Mariner y su modo "teach and repeat". Google lanza su API para que empresas creen agentes con capacidad de uso de ordenador. Agent Mode también llegará a la app Gemini con funciones como búsqueda de pisos y programación de visitas.

    • 8. Búsqueda con IA: llega AI Mode

      • El nuevo AI Mode en Google Search permite consultas mucho más complejas y prolongadas, con respuestas más precisas y contexto continuo. Desde hoy disponible en EE.UU. y potenciado por Gemini 2.5.

    • 9. Personalización inteligente con contexto privado

      • Gemini usará (si lo permites) tu historial de Gmail, Drive y otras apps para crear respuestas contextuales que imitan tu tono y estilo. Gmail integrará respuestas inteligentes personalizadas a lo largo de este año.

    • 10. Gemini App + Canvas: IA creativa y funcional

      • La app Gemini se refuerza con integración de Canvas, permitiendo generar infografías, tests y podcasts. También se amplían sus capacidades para conectar con archivos personales y generar investigaciones personalizadas.

    • 11. Modelos generativos: Imagen 4 y Veo 3

      • Imagen 4 (para imágenes) y Veo 3 (para vídeo con audio nativo) ya están disponibles. Se suman herramientas como Flow, que permite a creadores expandir clips en escenas cinematográficas completas.

  • Google también ha anunciado:

    • Novedades en Android XR, la plataforma para auriculares XR y gafas inteligentes

    • Stitch, una plataforma de IA para crear UI con indicaciones de texto

    • Google Jules, un nuevo agente de codificación de IA

  • Google no solo ha presentado avances técnicos, sino una visión de IA integrada, accesible y personalizada. La aceleración del despliegue de Gemini redefine la relación entre humanos y máquinas, y anticipa un nuevo estándar de interacción digital.

Anthropic lanza Claude 4 Opus y Sonnet: Nuevos modelos para el desarrollo y agentes autónomos

  • Anthropic ha presentado Claude Opus 4 y Claude Sonnet 4, dos modelos que redefinen el panorama de la IA en programación, razonamiento complejo y agentes inteligentes.

  • ¿Qué aportan los nuevos Claude 4?

    • Opus 4: rendimiento de élite en tareas complejas

      • Es el mejor modelo de codificación del mundo, según benchmarks como SWE-bench (72,5%) y Terminal-bench (43,2%).

      • Capaz de mantener tareas complejas activas durante horas, incluso resolviendo problemas de varios pasos sin pérdida de rendimiento.

      • Empresas como Cursor, Replit o Rakuten ya lo integran para refactorizaciones masivas, edición inteligente y resolución de errores.

    • Sonnet 4: equilibrio entre potencia y eficiencia

      • Mejora sustancial respecto a Sonnet 3.7, con 72,7% en SWE-bench y menor tasa de errores de navegación en código.

      • Ideal para escenarios prácticos y uso diario, integrándose en herramientas como GitHub Copilot para potenciar nuevos agentes de codificación.

      • Destacado por su razonamiento claro, mejor seguimiento de instrucciones y salidas más pulidas.

    • Nuevas capacidades para desarrolladores

  • Claude 4 marca un nuevo estándar en el desarrollo de agentes de IA autónomos, combinando codificación avanzada, razonamiento sostenido y memoria integrada para tareas de largo plazo.

Microsoft Build 2025: La era de los agentes de IA y la web agéntica abierta

  • Durante el evento Build 2025, Microsoft presentó avances que consolidan un nuevo paradigma: la web agéntica, donde los agentes de IA interactúan, razonan y ejecutan tareas por y para los usuarios.

  • Puntos Clave

    • 1. Agentes como nuevos compañeros de desarrollo

      • GitHub Copilot evoluciona de asistente a agente de codificación asincrónico, permitiendo escribir y mantener código de forma autónoma. Con nuevas capacidades como gestión de prompts, evaluaciones ligeras y control empresarial, se refuerza un enfoque abierto y colaborativo del desarrollo. Además, Windows AI Foundry ofrece una plataforma unificada para ejecutar modelos de lenguaje e imagen, tanto locales como en la nube.

    • 2. Azure AI Foundry: Plataforma total para agentes empresariales

      • Azure AI Foundry se consolida como núcleo operativo para construir y desplegar agentes de IA. Integra modelos como Grok 3 (de xAI), herramientas como el Model Router (selección automática de modelos) y servicios como el Foundry Agent Service, que permite orquestar agentes múltiples para tareas complejas. También se incorporan mecanismos de trazabilidad, control de calidad y cumplimiento normativo con Entra Agent ID y Microsoft Purview.

    • 3. Una web agentica abierta y semántica

      • Microsoft impulsa estándares abiertos como el Model Context Protocol (MCP), facilitando que agentes accedan a servicios y datos con seguridad. Además, presenta NLWeb, un nuevo estándar que permite a las webs ofrecer interfaces conversacionales y accesibilidad directa a agentes, transformando páginas en endpoints semánticos y colaborativos.

    • 4. Personalización y orquestación de agentes en Microsoft 365

      • Copilot Tuning permite a las empresas entrenar modelos y crear agentes adaptados a sus datos, flujos y estilo, todo sin código. Además, la orquestación multiagente en Copilot Studio permite que varios agentes colaboren entre sí para abordar tareas más complejas.

    • 5. Microsoft Discovery: IA al servicio de la ciencia

      • La nueva plataforma Microsoft Discovery está diseñada para acelerar el proceso de descubrimiento científico. Permite a investigadores y empresas de I+D aplicar agentes inteligentes en todas las fases del desarrollo, desde hipótesis hasta producción.

  • ¿Por qué es importante?

    • La visión de Microsoft anticipa una web donde los agentes de IA son autónomos, seguros y colaborativos. Esto redefine cómo desarrollamos, operamos y descubrimos — acelerando el trabajo, la ciencia y la innovación empresarial.

Nvidia's 2025 Computex Keynote: La IA como nueva infraestructura global

  • Durante su keynote en COMPUTEX 2025, Jensen Huang, CEO de NVIDIA, presentó una visión transformadora: la Inteligencia Artificial no solo como una tecnología, sino como una nueva infraestructura comparable al internet o la electricidad. En un evento repleto de anuncios, Huang mostró cómo NVIDIA está liderando esta revolución, desde supercomputadoras hasta plataformas para robots humanoides.

  • Puntos clave del anuncio:

    • 1. IA como infraestructura: las nuevas “fábricas”
      Huang redefinió los centros de datos como “fábricas de IA” que transforman energía en tokens, destacando que la IA es ahora una infraestructura esencial. La magnitud de esta visión apunta a una industria valorada en billones de dólares.

    • 2. CUDA-X en todas partes
      NVIDIA impulsa su ecosistema CUDA-X, adoptado masivamente por desarrolladores e industrias, y ahora clave en el desarrollo de redes 6G y computación cuántica acelerada por IA.

    • 3. Del razonamiento a la acción: el auge de la IA agéntica y física
      Huang explicó cómo la IA está avanzando hacia agentes autónomos que perciben, entienden y actúan en el mundo físico, lo que abre paso a la robótica general y la IA industrial.

    • 4. Nueva infraestructura: Blackwell y NVLink Fusion
      NVIDIA presentó NVLink Fusion, una arquitectura que permite soluciones personalizadas de computación a gran escala, y consolidó a Blackwell como la plataforma única desde la nube hasta el edge.

    • 5. Nuevos sistemas para desarrolladores y empresas

      • DGX Spark y DGX Station: supercomputadoras personales para IA, capaces de ejecutar modelos con hasta un trillón de parámetros.

      • RTX PRO Servers: servidores empresariales para operar “fábricas de IA” locales.

      • AI Data Platform: una nueva plataforma de almacenamiento optimizada para cargas modernas de IA.

    • 6. Robótica avanzada y simulación física con Newton
      Con Disney y DeepMind, NVIDIA desarrolló Newton, un motor de simulación para entrenamiento de robots. Además, presentó el modelo base Isaac GR00T N1.5 para inteligencia robótica y generación de datos sintéticos.

    • 7. Omniverse e IA física industrial
      Grandes fabricantes taiwaneses están usando NVIDIA Omniverse para crear gemelos digitales de fábricas, mejorando diseño y productividad en la era de la IA física aplicada a la industria.

    • 8. NVIDIA Constellation: expansión en Taiwán
      La presentación concluyó con la inauguración simbólica de NVIDIA Constellation, su nueva sede en Taiwán, subrayando la importancia del país como centro neurálgico de la revolución IA.

  • Esta keynote consolida a NVIDIA como actor central en la era de la IA, liderando desde el hardware hasta la robótica y la infraestructura digital del futuro. La IA no es una herramienta más: es la nueva columna vertebral de la economía global.

  • LINK: https://blogs.nvidia.com/blog/computex-2025-jensen-huang/

Robin: la IA que automatiza todo el proceso científico y hace su primer descubrimiento

  • FutureHouse ha presentado Robin, un sistema multiagente capaz de automatizar de principio a fin la investigación científica. Su primera hazaña: identificar un nuevo tratamiento potencial para la degeneración macular asociada a la edad seca (dAMD), una causa principal de ceguera irreversible. Este avance marca un nuevo paso hacia la ciencia asistida íntegramente por IA.

  • Puntos clave:

    1. Robin integra varios agentes especializados
      La novedad de Robin no es un único modelo, sino la orquestación de agentes ya existentes: Crow, Falcon y Finch. Crow busca y sintetiza literatura científica, Falcon diseña experimentos y selecciona compuestos candidatos, y Finch analiza los datos experimentales. Robin coordina este ecosistema para conducir investigaciones de forma autónoma.

    2. Primer caso de uso: tratamiento para la dAMD
      Aplicado a la dAMD, Robin formuló la hipótesis de que aumentar la fagocitosis del epitelio pigmentario retinal (RPE) podría ser terapéutico. A partir de ello, identificó y validó en laboratorio el efecto de inhibidores ROCK, especialmente ripasudil —ya usado para el glaucoma— como posible fármaco para la dAMD.

    3. Trabajo científico 100% diseñado por IA
      Todos los pasos intelectuales del proceso —hipótesis, diseño experimental, análisis de datos, redacción de figuras— fueron generados por Robin. Los humanos solo ejecutaron los experimentos físicos, pero la estructura científica del paper fue completamente dirigida por la IA.

    4. De concepto a descubrimiento en 2,5 meses
      Lo más sorprendente es la velocidad del proceso: en sólo 10 semanas, un equipo reducido de investigadores creó Robin y completó su primera publicación científica. Esto sugiere que el futuro de la investigación podría acelerarse radicalmente mediante este tipo de arquitecturas.

    5. Robin es generalista y de código abierto
      Aunque Robin fue probado en el campo biomédico, sus agentes son de propósito general. A partir del 27 de mayo, Robin será open source, lo que podría permitir su uso en áreas como ciencia de materiales, energía o clima.

  • Robin inaugura una era en la que la generación de conocimiento científico podría ser automatizada, no solo asistida. Este avance pone a la IA en el centro de la innovación, redefiniendo cómo se hará ciencia en las próximas décadas.

Devstral: el nuevo estándar abierto para agentes de codificación

  • Mistral AI y All Hands AI han lanzado Devstral, un modelo de lenguaje abierto diseñado específicamente para tareas complejas de ingeniería de software. Con un rendimiento líder en su categoría, Devstral promete llevar los agentes de codificación a un nuevo nivel.

  • Puntos clave:

    1. Supera ampliamente a otros modelos en tareas reales
      Devstral alcanza un 46,8 % en el benchmark SWE-Bench Verified, que evalúa la capacidad de resolver issues reales en GitHub. Esto lo sitúa más de 6 puntos por encima del mejor modelo open-source anterior y supera incluso a modelos cerrados como GPT‑4.1-mini y Claude 3.5 Haiku.

    2. Diseñado para entornos reales y complejos
      A diferencia de los LLMs tradicionales, Devstral no solo completa funciones sueltas, sino que entiende relaciones entre archivos, contexto global y errores sutiles. Funciona con marcos como OpenHands o SWE-Agent, lo que le permite operar como un verdadero agente de desarrollo.

    3. Ligero, versátil y accesible
      Devstral puede ejecutarse en una RTX 4090 o un Mac con 32 GB de RAM, ideal para despliegues locales y uso empresarial en entornos sensibles. Está disponible bajo licencia Apache 2.0, lo que permite su uso libre y personalización, además de contar con una API pública.

  • Devstral democratiza el acceso a agentes de codificación avanzados, con potencia competitiva frente a modelos cerrados y gran facilidad de integración, acelerando así el desarrollo de software autónomo y privado.

  • LINK: https://mistral.ai/news/devstral

Robots

  • Un robot equipado con Gemini, sin haber sido entrenado específicamente para esta tarea, logró encestar en un aro de baloncesto desconocido. Este comportamiento muestra que Gemini permite al robot entender conceptos del mundo de forma general, facilitándole la capacidad de adaptarse a situaciones nuevas sin necesidad de entrenamientos extensos para cada caso concreto.

Reflexiones Finales

Dario Amodei, CEO de Anthropic: La primera compañía valorada en mil millones de dólares con un solo empleado humano podría surgir en 2026