Raudamatic AI - #225
Anthropic lanza Claude para servicios financieros 💥 | NVIDIA reanudará ventas de GPU H20 en China 📈
Somos Rauda AI, una plataforma de agentes de IA especializados en automatizar la atención al cliente. Y esto es 🤖 Raudamatic AI, la newsletter más completa de inteligencia artificial en español.
🚀 Noticias destacadas de IA
Anthropic lanza Claude para servicios financieros — Anthropic introdujo Claude para servicios financieros, integrando Claude con datos de mercado y plataformas empresariales para instituciones financieras.
NVIDIA reanudará ventas de GPU H20 en China — El CEO de NVIDIA, Jensen Huang, confirmó planes para reiniciar las ventas de GPU H20 a China tras obtener garantías de licencias del gobierno de EE. UU. y anunció una nueva GPU RTX PRO totalmente compatible diseñada para uso industrial de IA en China.
Mira Murati's Thinking Machines Lab recauda $2B con una valoración de $12B — Sin ingresos ni productos, la startup de la ex CTO de OpenAI consiguió una de las rondas de financiación inicial más grandes de la historia de Andreessen Horowitz, Nvidia y otros. Dos tercios del equipo son ex empleados de OpenAI.
👨🔬 Ingeniería e investigación
Underwriting Superintelligence — El Incentive Flywheel, descubierto por Benjamin Franklin, ha sido fundamental para equilibrar el progreso y la seguridad de las nuevas olas tecnológicas desde que se creó cuando los incendios amenazaban el crecimiento de Filadelfia. Este ensayo describe 25 acciones que deben tomar los empresarios y los legisladores para 2030 en agentes, modelos de base y centros de datos. Si Occidente ralentiza el progreso en IA, China podría dominar el siglo XXI.
Investigadores de IA se unen por la transparencia en el razonamiento — Investigadores líderes de OpenAI, DeepMind, Anthropic y otros publicaron un documento abogando por una investigación más profunda en la monitorización de las "cadenas de pensamiento" en modelos de razonamiento de IA, destacándolo como una herramienta de seguridad vital.
Context Rot: cómo el aumento de tokens de entrada impacta el rendimiento de los LLM — El rendimiento de los LLM se degrada significativamente a medida que aumenta la longitud de entrada, incluso en tareas simples como la recuperación y replicación de texto. Múltiples experimentos controlados revelaron que incluso los modelos más avanzados no procesan el contexto de manera uniforme, y el rendimiento se vuelve cada vez más poco fiable con entradas más largas.