- Best-IA Newsletter
- Posts
- Boletín Semanal Best-IA #31
Boletín Semanal Best-IA #31
Aprende IA, día a día.
Prompts
Hacer que que ChatGPT genere sus propios prompts
Eres GPT-4, el modelo de lenguaje avanzado de OpenAI. Hoy, tu trabajo es generar prompts para GPT-4. ¿Puedes generar los mejores prompts sobre formas de [lo que desees]?
Generar ideas para contenido creativo
Ofrece sugerencias creativas para contenido relacionado con [tema], incluyendo títulos de artículos, conceptos de videos o ideas para publicaciones en redes sociales.
Resúmenes de libros
Destila las lecciones más importantes de {Título del libro} en un resumen comprensivo, pero digerible.
Generar ideas innovadoras
Dame ideas innovadoras para [problema/tema] que aborden las necesidades actuales del mercado.
Brindar recomendaciones de películas o libros
Recomiéndame películas o libros similares a [título de película/libro] que puedan gustarme.
Tutoriales
4 métodos para aprender con ChatGPT
1. Aprendizaje a través de Canciones:
- Ejemplo de prompt: "Hazme una canción que me ayude a recordar todos los libros del Nuevo Testamento de la Biblia. Haz que tenga sentido con lo que sucede en cada libro, que sea corta y memorable".
2. Uso de Mapas Mentales y Diagramas de Flujo:
- Para un diagrama de flujo: "Visualízame la ósmosis inversa en un diagrama".
- Para un mapa mental: "Haz un mapa mental para generar ideas de videos de YouTube sobre inteligencia artificial, con cinco encabezados principales y subencabezados".
3. Creación de Analogías:
- Ejemplo: "Créame una analogía de cómo funciona la cadena de bloques de criptomonedas".
4. Explicación en Términos Simples (Estilo Einstein):
- Ejemplo de prompt: "En un párrafo, explícame esto como si yo fuera un niño de 5 años", utilizado en el contexto de simplificar una explicación sobre el mercado de valores.
Aprende a utilizar SHAKKER, nueva herramienta de creación de imágenes
6 ejemplos de uso de Gemini 1.5 Pro
Gemini 1.5 Pro dispone de un 1 millón de tokens de contexto. Aquí 6 ejemplos de uso:
Descomponer y comprender un vídeo largo.
Comprender y comparar las transcripciones completas de películas.
Traducir a una lengua hablada por menos de 2000 personas.
Ver, entender y distinguir si un vídeo de OpenAI Sora es IA o no.
Encontrar, comprender y explicar una cifra pequeña en un artículo largo.
Entender toda la transcripción de la película Interstellar y destacar los momentos clave.
Gemini 1.5 Pro's 1,000,000+ token context length is incredible.
I got early access and spent my Saturday night running tests.
Here are 6 impressive capabilities I found:
— Rowan Cheung (@rowancheung)
6:15 PM • Feb 18, 2024
Gemini Aplicación Móvil (Revisión en Español)
Noticias
Stability presenta el impresionante Stable Diffusion 3
1. Mejora en el rendimiento: Stable Diffusion 3 presenta mejoras significativas en la capacidad de manejar solicitudes con múltiples temas, calidad de imagen y precisión en la ortografía, marcando un avance importante en la generación de texto a imagen.
2. Vista previa temprana y lista de espera: El modelo se encuentra actualmente en una etapa de vista previa temprana, con invitaciones a interesados para unirse a la lista de espera y obtener acceso. Esta fase permite recopilar información para mejorar aún más el rendimiento y la seguridad antes de un lanzamiento como modelo open source.
3. Opciones de escalabilidad: Stable Diffusion 3 ofrece una gama de modelos que van desde 800M hasta 8B de parámetros, brindando a los usuarios opciones de escalabilidad para adaptarse a sus necesidades creativas sin comprometer los estándares de calidad.
4. Arquitectura técnica: Al combinar una arquitectura de transformers de difusión con coincidencia de flujo, Stable Diffusion 3 utiliza enfoques técnicos avanzados para lograr su impresionante rendimiento. Próximamente se publicará un informe técnico detallado sobre el funcionamiento del modelo.
5. Seguridad y responsabilidad en la IA: Con énfasis en prácticas seguras y responsables en inteligencia artificial, Stability ha implementado diversas medidas de seguridad para evitar el mal uso de Stable Diffusion 3. Esto incluye medidas tomadas durante el entrenamiento, pruebas, evaluación e implementación, con una colaboración continua con investigadores y expertos para garantizar la integridad y la innovación.
El nuevo chip LPU de Groq ofrece velocidades de inferencia espectaculares
El chip Groq LPU (Language Proessing Unit), diseñado específicamente para modelos de lenguaje como GPT y LLAMA, ofrece velocidades de inferencia excepcionalmente rápidas, siendo crucial para proporcionar respuestas rápidas a los usuarios.
Con este nuevo chip, cualquier chatbot puede responder mucho más rápido, pero además con un coste económico menor.
Basado en la arquitectura Tensor-Streaming Processor, el chip Groq LPU cuenta con un solo núcleo y alcanza hasta 750 TOPS en INT8 y 188 TeraFLOPS en FP16, con capacidades para realizar multiplicación de matrices de 320×320 y 5120 ALUs vectoriales.
Según datos de LLMPerf, el chip Groq LPU supera en rendimiento de token y latencia a las soluciones actuales.
Con 230 MB de SRAM local, el Groq LPU puede proporcionar un ancho de banda de hasta 80 TB/s, permitiendo hasta 480 tokens por segundo en Mixtral 8x7B, 300 tokens por segundo en LLAMA 2 70B, y hasta 750 tokens por segundo en LLAMA 2 7B.
Groq is a Radically Different kind of AI architecture
Among the new crop of AI chip startups, Groq stands out with a radically different approach centered around its compiler technology for optimizing a minimalist yet high-performance architecture. Groq's secret sauce is this… twitter.com/i/web/status/1…
— Carlos E. Perez (@IntuitMachine)
2:04 PM • Feb 20, 2024
Puedes probarlo en : https://groq.com/
Google presenta su modelo abierto Gemma
Gemma es una nueva familia de modelos de IA abiertos desarrollados por Google, inspirados en los modelos Gemini y diseñados para promover el desarrollo responsable de IA.
Está disponible en dos tamaños de pesos de modelo (Gemma 2B y Gemma 7B) con variantes pre-entrenadas y ajustadas para instrucciones.
Los modelos Gemma pre-entrenados y ajustados para instrucciones pueden ejecutarse en su computadora portátil, estación de trabajo o Google Cloud con implementación fácil en Vertex AI y Google Kubernetes Engine (GKE).
Se proporciona un Toolkit de IA Generativa Responsable para ayudar a los desarrolladores a crear aplicaciones de IA seguras, que incluye orientación, herramientas de depuración y clasificación de seguridad.
Gemma ofrece soporte para inferencia y ajuste fino supervisado en los principales frameworks (JAX, PyTorch y TensorFlow), junto con integración con herramientas populares como Hugging Face y Kaggle.
Los modelos Gemma están diseñados con los Principios de IA de Google en mente, con técnicas automatizadas para proteger la privacidad y reducir los riesgos, y se ofrece acceso gratuito para investigación y desarrollo.
LINK: https://blog.google/technology/developers/gemma-open-models/
EJEMPLO DE USO con LANGCHAIN para resumir grandes PDF´s de manera local:
🤗Summarize large PDFs LOCALLY
Get started with Gemma Google's NEW open-source LLM model
This video from @Prince_Canuma goes through how to use Gemma via @huggingface to summarize long documents
YouTube: youtube.com/watch?v=b1XCEe…
— LangChain (@LangChainAI)
5:20 PM • Feb 25, 2024
Alibaba presenta Mobile-Agent
Mobile-Agent es un agente autónomo multimodal para dispositivos móviles que utiliza percepción visual para interactuar con aplicaciones móviles, diferenciándose de métodos anteriores que dependen de archivos XML o metadatos del sistema.
Autonomía y Adaptabilidad: El agente planea y ejecuta tareas operativas complejas de manera autónoma y es adaptable a diversos entornos operativos móviles gracias a su enfoque centrado en la visión.
Funcionalidades Clave: Incluye ejecución de instrucciones detalladas (como abrir aplicaciones, hacer clic en textos o iconos), auto-planificación basada en el contexto visual y la historia de operaciones, y auto-reflexión para corregir errores o ajustar operaciones.
Benchmark Mobile-Eval: Se utilizó Mobile-Eval, un benchmark diseñado para evaluar el rendimiento del Mobile-Agent en aplicaciones móviles populares, con instrucciones de diferentes niveles de complejidad.
Resultados Experimentales Prometedores: Mobile-Agent demostró alta precisión y tasas de finalización en tareas complejas, incluyendo operaciones en múltiples aplicaciones, destacando su potencial en la automatización y la inteligencia artificial.
Jim Fan ha anunciado la co-fundación de "GEAR"
Jim Fan ha anunciado la co-fundación de un nuevo grupo de investigación llamado "GEAR" en NVIDIA, en colaboración con el Profesor @yukez. GEAR significa "Generalist Embodied Agent Research" (Investigación de Agentes Encarnados Generalistas).
El enfoque del grupo es en un futuro donde todas las máquinas móviles serán autónomas y donde robots y agentes simulados serán tan comunes como los iPhones.
Su objetivo principal es desarrollar el "Agente Fundacional", una IA generalmente capaz que aprende a actuar hábilmente en muchos mundos, tanto virtuales como reales.
El 2024 es descrito como el Año de la Robótica, el Año de la IA en Juegos y el Año de la Simulación.
Career update: I am co-founding a new research group called "GEAR" at NVIDIA, with my long-time friend and collaborator Prof. @yukez. GEAR stands for Generalist Embodied Agent Research.
We believe in a future where every machine that moves will be autonomous, and robots and… twitter.com/i/web/status/1…
— Jim Fan (@DrJimFan)
3:34 PM • Feb 23, 2024