Boletín Semanal Best-IA #31

Aprende IA, día a día.

Prompts

  • Hacer que que ChatGPT genere sus propios prompts

Eres GPT-4, el modelo de lenguaje avanzado de OpenAI. Hoy, tu trabajo es generar prompts para GPT-4. ¿Puedes generar los mejores prompts sobre formas de [lo que desees]?
  • Generar ideas para contenido creativo

Ofrece sugerencias creativas para contenido relacionado con [tema], incluyendo títulos de artículos, conceptos de videos o ideas para publicaciones en redes sociales.
  • Resúmenes de libros

Destila las lecciones más importantes de {Título del libro} en un resumen comprensivo, pero digerible.
  • Generar ideas innovadoras

Dame ideas innovadoras para [problema/tema] que aborden las necesidades actuales del mercado.
  • Brindar recomendaciones de películas o libros

Recomiéndame películas o libros similares a [título de película/libro] que puedan gustarme.

Tutoriales

4 métodos para aprender con ChatGPT

1. Aprendizaje a través de Canciones:

- Ejemplo de prompt: "Hazme una canción que me ayude a recordar todos los libros del Nuevo Testamento de la Biblia. Haz que tenga sentido con lo que sucede en cada libro, que sea corta y memorable".

2. Uso de Mapas Mentales y Diagramas de Flujo:

- Para un diagrama de flujo: "Visualízame la ósmosis inversa en un diagrama".

- Para un mapa mental: "Haz un mapa mental para generar ideas de videos de YouTube sobre inteligencia artificial, con cinco encabezados principales y subencabezados".

3. Creación de Analogías:

- Ejemplo: "Créame una analogía de cómo funciona la cadena de bloques de criptomonedas".

4. Explicación en Términos Simples (Estilo Einstein):

- Ejemplo de prompt: "En un párrafo, explícame esto como si yo fuera un niño de 5 años", utilizado en el contexto de simplificar una explicación sobre el mercado de valores.

Aprende a utilizar SHAKKER, nueva herramienta de creación de imágenes

6 ejemplos de uso de Gemini 1.5 Pro

  • Gemini 1.5 Pro dispone de un 1 millón de tokens de contexto. Aquí 6 ejemplos de uso:

    • Descomponer y comprender un vídeo largo.

    • Comprender y comparar las transcripciones completas de películas.

    • Traducir a una lengua hablada por menos de 2000 personas.

    • Ver, entender y distinguir si un vídeo de OpenAI Sora es IA o no.

    • Encontrar, comprender y explicar una cifra pequeña en un artículo largo.

    • Entender toda la transcripción de la película Interstellar y destacar los momentos clave.

Gemini Aplicación Móvil (Revisión en Español)

Noticias

Stability presenta el impresionante Stable Diffusion 3

  • 1. Mejora en el rendimiento: Stable Diffusion 3 presenta mejoras significativas en la capacidad de manejar solicitudes con múltiples temas, calidad de imagen y precisión en la ortografía, marcando un avance importante en la generación de texto a imagen.

    2. Vista previa temprana y lista de espera: El modelo se encuentra actualmente en una etapa de vista previa temprana, con invitaciones a interesados para unirse a la lista de espera y obtener acceso. Esta fase permite recopilar información para mejorar aún más el rendimiento y la seguridad antes de un lanzamiento como modelo open source.

    3. Opciones de escalabilidad: Stable Diffusion 3 ofrece una gama de modelos que van desde 800M hasta 8B de parámetros, brindando a los usuarios opciones de escalabilidad para adaptarse a sus necesidades creativas sin comprometer los estándares de calidad.

    4. Arquitectura técnica: Al combinar una arquitectura de transformers de difusión con coincidencia de flujo, Stable Diffusion 3 utiliza enfoques técnicos avanzados para lograr su impresionante rendimiento. Próximamente se publicará un informe técnico detallado sobre el funcionamiento del modelo.

    5. Seguridad y responsabilidad en la IA: Con énfasis en prácticas seguras y responsables en inteligencia artificial, Stability ha implementado diversas medidas de seguridad para evitar el mal uso de Stable Diffusion 3. Esto incluye medidas tomadas durante el entrenamiento, pruebas, evaluación e implementación, con una colaboración continua con investigadores y expertos para garantizar la integridad y la innovación.

  • LINK: https://stability.ai/news/stable-diffusion-3

El nuevo chip LPU de Groq ofrece velocidades de inferencia espectaculares

  • El chip Groq LPU (Language Proessing Unit), diseñado específicamente para modelos de lenguaje como GPT y LLAMA, ofrece velocidades de inferencia excepcionalmente rápidas, siendo crucial para proporcionar respuestas rápidas a los usuarios.

  • Con este nuevo chip, cualquier chatbot puede responder mucho más rápido, pero además con un coste económico menor.

  • Basado en la arquitectura Tensor-Streaming Processor, el chip Groq LPU cuenta con un solo núcleo y alcanza hasta 750 TOPS en INT8 y 188 TeraFLOPS en FP16, con capacidades para realizar multiplicación de matrices de 320×320 y 5120 ALUs vectoriales.

  • Según datos de LLMPerf, el chip Groq LPU supera en rendimiento de token y latencia a las soluciones actuales.

  • Con 230 MB de SRAM local, el Groq LPU puede proporcionar un ancho de banda de hasta 80 TB/s, permitiendo hasta 480 tokens por segundo en Mixtral 8x7B, 300 tokens por segundo en LLAMA 2 70B, y hasta 750 tokens por segundo en LLAMA 2 7B.

Google presenta su modelo abierto Gemma

  • Gemma es una nueva familia de modelos de IA abiertos desarrollados por Google, inspirados en los modelos Gemini y diseñados para promover el desarrollo responsable de IA.

  • Está disponible en dos tamaños de pesos de modelo (Gemma 2B y Gemma 7B) con variantes pre-entrenadas y ajustadas para instrucciones.

  • Los modelos Gemma pre-entrenados y ajustados para instrucciones pueden ejecutarse en su computadora portátil, estación de trabajo o Google Cloud con implementación fácil en Vertex AI y Google Kubernetes Engine (GKE).

  • Se proporciona un Toolkit de IA Generativa Responsable para ayudar a los desarrolladores a crear aplicaciones de IA seguras, que incluye orientación, herramientas de depuración y clasificación de seguridad.

  • Gemma ofrece soporte para inferencia y ajuste fino supervisado en los principales frameworks (JAX, PyTorch y TensorFlow), junto con integración con herramientas populares como Hugging Face y Kaggle.

  • Los modelos Gemma están diseñados con los Principios de IA de Google en mente, con técnicas automatizadas para proteger la privacidad y reducir los riesgos, y se ofrece acceso gratuito para investigación y desarrollo.

  • LINK: https://blog.google/technology/developers/gemma-open-models/

  • EJEMPLO DE USO con LANGCHAIN para resumir grandes PDF´s de manera local:

Alibaba presenta Mobile-Agent

Mobile-Agent es un agente autónomo multimodal para dispositivos móviles que utiliza percepción visual para interactuar con aplicaciones móviles, diferenciándose de métodos anteriores que dependen de archivos XML o metadatos del sistema​​.

  • Autonomía y Adaptabilidad: El agente planea y ejecuta tareas operativas complejas de manera autónoma y es adaptable a diversos entornos operativos móviles gracias a su enfoque centrado en la visión​​.

  • Funcionalidades Clave: Incluye ejecución de instrucciones detalladas (como abrir aplicaciones, hacer clic en textos o iconos), auto-planificación basada en el contexto visual y la historia de operaciones, y auto-reflexión para corregir errores o ajustar operaciones​​.

  • Benchmark Mobile-Eval: Se utilizó Mobile-Eval, un benchmark diseñado para evaluar el rendimiento del Mobile-Agent en aplicaciones móviles populares, con instrucciones de diferentes niveles de complejidad​​.

  • Resultados Experimentales Prometedores: Mobile-Agent demostró alta precisión y tasas de finalización en tareas complejas, incluyendo operaciones en múltiples aplicaciones, destacando su potencial en la automatización y la inteligencia artificial​​.

  • PAPER: https://huggingface.co/papers/2401.16158

Jim Fan ha anunciado la co-fundación de "GEAR"

  • Jim Fan ha anunciado la co-fundación de un nuevo grupo de investigación llamado "GEAR" en NVIDIA, en colaboración con el Profesor @yukez. GEAR significa "Generalist Embodied Agent Research" (Investigación de Agentes Encarnados Generalistas).

  • El enfoque del grupo es en un futuro donde todas las máquinas móviles serán autónomas y donde robots y agentes simulados serán tan comunes como los iPhones.

  • Su objetivo principal es desarrollar el "Agente Fundacional", una IA generalmente capaz que aprende a actuar hábilmente en muchos mundos, tanto virtuales como reales.

  • El 2024 es descrito como el Año de la Robótica, el Año de la IA en Juegos y el Año de la Simulación.

Reflexiones Finales

La INTELIGENCIA ARTIFICIAL cambiará EL CINE

Google Gemini: ¿Guerra cultural o miedo a la inteligencia artificial?