Boletín Semanal Best-IA #22

Prompts. Tutoriales. Noticias de la semana.

Prompts

Medprompt y el poder del prompting

  • Microsoft ha publicado un artículo en el que demuestra que, con métodos sistemáticos de ingeniería de prompts, un modelo GPT-4 generalista puede rendir como un especialista en pruebas de referencia de problemas de desafíos médicos.

  • En su blog muestran que los mismos métodos que pueden utilizarse para superar por poco el rendimiento de Gemini Ultra en MMLU.

  • MMLU (Massive Multitask Language Understanding) se creó como prueba de los conocimientos generales y la capacidad de razonamiento de grandes modelos lingüísticos. El MMLU completo contiene decenas de miles de problemas de distintos tipos en 57 áreas, desde matemáticas básicas hasta historia de Estados Unidos, derecho, informática, ingeniería y medicina, entre otras.

  • Exploramos en profundidad la técnica Medprompt en nuestro blog.

Tutoriales

Cómo Instalar STABLE DIFFUSION

ACCEDE a las funciones de ChatGPT 4 TURBO gratis

Genera imágenes de alta calidad con Google

Crea tu avatar con IA de manera gratuita con Hey-Gen

Noticias

Lanzamiento oficial del modelo Mistral MoE de MistralAI.

  • Mistral ha anunciado su nuevo modelo Mixtral 8X7B, un modelo de Mixture-of-Experts (SMoE) de alta calidad y disperso, desarrollado por el equipo de Mistral AI.

  • Este modelo es parte de los esfuerzos de Mistral AI para ofrecer modelos de código abierto de alta calidad a la comunidad de desarrolladores y representa un avance tecnológico en inteligencia artificial.

  • Mixtral 8x7B supera a otros modelos en términos de rendimiento y eficiencia, siendo especialmente destacado por su relación costo/rendimiento.

  • Algunas características clave de Mixtral 8x7B incluyen:

    • Capacidad para manejar un contexto de 32,000 tokens.

    • Soporte para varios idiomas, incluyendo inglés, francés, italiano, alemán y español.

    • Excelente desempeño en la generación de código.

    • Capacidad para ser afinado para seguir instrucciones, logrando una puntuación de 8.3 en MT-Bench.

  • Mixtral utiliza una arquitectura de red dispersa de Mixture-of-Experts en la que un bloque de feedforward selecciona entre 8 grupos distintos de parámetros en cada capa para procesar y combinar la salida de manera aditiva. Esto permite aumentar el número total de parámetros del modelo mientras controla el costo y la latencia, ya que solo utiliza una fracción de los parámetros totales por token.

  • En términos de rendimiento, Mixtral supera a modelos como Llama 2 70B y GPT3.5 en la mayoría de las pruebas y muestra una mayor veracidad y menos sesgo en comparación con Llama 2 en ciertas pruebas de calidad y sesgo.

  • Mixtral también está disponible en una versión optimizada para seguir instrucciones llamada Mixtral 8x7B Instruct, que alcanza una puntuación de 8.30 en MT-Bench y es comparable a GPT3.5 en términos de rendimiento.

  • Disponibilidad de Mixtral en la plataforma de Mistral AI, con opciones para registrarse y obtener acceso temprano a sus capacidades generativas y de inserción.

  • LINKS:

APIs de IA: Los precios sufren una caída LOCA

Microsoft lanza Phi-2, el modelo más pequeño e impresionante

  • Phi-2 es un modelo de lenguaje con “sólo” 2.7 mil millones de parámetros.

  • Demuestra capacidades excepcionales de razonamiento y comprensión del lenguaje, y logra un rendimiento líder en la industria entre los modelos de lenguaje base con menos de 13 mil millones de parámetros.

  • Iguala o supera a modelos mucho más grandes en evaluaciones complejas, en ocasiones hasta 25 veces mejor, y, sin embargo, es lo suficientemente pequeño como para funcionar en un ordenador portátil o un dispositivo móvil.

  • El tamaño compacto de Phi-2 lo hace adecuado para fines de investigación, como explorar la interpretabilidad mecanicista, mejorar la seguridad o realizar experimentos de ajuste fino en diversas tareas.

  • Phi-2 está disponible en el catálogo de modelos de Azure AI Studio para respaldar la investigación y el desarrollo en el campo de modelos de lenguaje.

Amazon se suma a la creación de imágenes con IA con un nuevo modelo

Meta presenta Audiobox: Generación de audio a partir de mensajes de voz y lenguaje natural

  • Audiobox, el sucesor de Voicebox, avanza aún más en el campo de la IA generativa para audio unificando las funciones de generación y edición de voz, efectos sonoros (sonidos breves y discretos como el ladrido de un perro, el claxon de un coche, un trueno, etc.) y paisajes sonoros, con diversos mecanismos de entrada para maximizar la capacidad de control en cada caso de uso.

  • LINK: https://audiobox.metademolab.com/

Nueva actualización del Tesla Bot (Gen2)

TIME designa a Sam Altman como CEO del Año

Rumor: En los próximos días OpenAI lanzará GPT-4.5 Turbo

A lunes 18 de diciembre de 2023, mi modelo sigue siendo GPT-4.

Reflexiones Finales

GOOGLE LO VE TODO

¿Es la AGI inevitable?