Raudamatic AI - #205
WhatsApp permitirá a los usuarios crear sus propios chatbots de AI para usar en la aplicación 🚀 | Meta y las gafas inteligentes de IA de Prada 🔥
Somos Rauda AI, una plataforma de agentes de IA especializados en automatizar la atención al cliente. Y esto es 🤖 Raudamatic AI, la newsletter más completa de inteligencia artificial en español.
🚀 Noticias destacadas de IA
WhatsApp permitirá a los usuarios crear sus propios chatbots de AI para usar en la aplicación— WhatsApp está probando una función "AI Studio" que permite a los usuarios crear chatbots personalizados sin necesidad de programación.
Meta y las gafas inteligentes de IA de Prada— Meta está desarrollando junto a Prada unas gafas inteligentes con AI, expandiéndose más allá de su colaboración con Ray-Ban y sugiriendo una línea más amplia que pronto podría incluir gafas Oakley de $360.
La opinión de Sam Altman sobre las ofertas de $100 millones de Meta— En un podcast, el CEO de OpenAI confirmó que Meta ofreció paquetes de nueve cifras para atraer investigadores a su equipo de superinteligencia, pero dijo que prácticamente nadie desertó, aprovechando para criticar el esfuerzo de reclutamiento de Meta.
👨🔬 Ingeniería e investigación
Guía práctica de OpenAI para construir agentes— Esta guía enfatiza comenzar con agentes individuales antes de sistemas multiagente, utilizando patrones de gerente donde un agente coordina a otros mediante llamadas de herramientas o transferencias descentralizadas para la delegación de tareas entre pares.
Comprendiendo y codificando el KV Cache en LLMs— Los cachés de clave-valor (KV) almacenan cálculos de atención intermedios durante la inferencia de LLM para evitar cálculos redundantes. Este tutorial explica cómo el almacenamiento en caché de valores ofrece aceleraciones de 5x y progresa desde la modificación de un modelo GPT de 124M de parámetros con buffers de caché básicos y seguimiento de posición hasta optimizaciones listas para producción.
MiniMax lanza el modelo de razonamiento de peso abierto M1— El modelo de 456B de parámetros de MiniMax utiliza una arquitectura híbrida de mezcla de expertos con "atención relámpago" que procesa contextos de 1 millón de tokens mientras usa un 25% menos de FLOPs en longitudes de generación de 100K tokens.