Raudamatic AI - #201
OpenAI lanza o3-pro con grandes recortes de precios 🚀 | Meta abre un laboratorio de 'superinteligencia' con el fundador de Scale AI 🔥
Somos Rauda AI, una plataforma de agentes de IA especializados en automatizar la atención al cliente. Y esto es 🤖 Raudamatic AI, la newsletter más completa de inteligencia artificial en español.
🚀 Noticias destacadas de IA
OpenAI lanza o3-pro con grandes recortes de precios— OpenAI lanzó o3-pro, un modelo de razonamiento mejorado que supera a los competidores mientras reduce sus precios de o3 en un 80% para desafiar a los modelos principales de Google y Anthropic. El modelo está diseñado para mejorar la fiabilidad y el rendimiento en campos técnicos y está disponible para los usuarios de ChatGPT Pro y Team de inmediato.
Meta abre un laboratorio de 'superinteligencia' con el fundador de Scale AI— Meta está creando un nuevo "laboratorio de superinteligencia" con el CEO de Scale AI, Alexandr Wang, quien liderará el grupo junto con otros talentos técnicos de Scale AI. Esta iniciativa surge tras la frustración de Zuckerberg con el rendimiento del modelo Llama 4 de Meta y busca superar a los competidores.
Mistral lanza Magistral— Mistral lanzó Magistral, su familia de razonamiento de código abierto con respuestas rápidas y soporte multilingüe, aunque los puntos de referencia en STEM y codificación están por detrás de los principales rivales.
👨🔬 Ingeniería e investigación
Camino hacia la superinteligencia según Sam Altman— En una publicación de blog, Sam Altman declara que hemos pasado el "horizonte de eventos" con sistemas como GPT-4 y o3. Predice que la superinteligencia remodelará la sociedad, con desarrollos significativos esperados en los próximos años.
Clusters de chips mixtos para entrenamiento AI— Investigadores con sede en Shanghái introdujeron DiTorch y DiComm, que unifican la programación a través de diversas arquitecturas de chips, haciendo posible entrenar modelos masivos en cualquier hardware disponible.
Pre-Entrenamiento por Refuerzo— El Pre-Entrenamiento por Refuerzo (RPT) es un nuevo paradigma de escalado para modelos de lenguaje grandes y aprendizaje por refuerzo, ofreciendo un método escalable para aprovechar vastas cantidades de datos de texto para RL de propósito general.