IA en Agosto 2025
Colección de enlaces que encontré interesantes, durante el mes de agosto.
Hay una serie de artículos de Quanta Magazine con temática en inteligencia artificial, lanzada a finales de Abril. La serie se llama “Science, Promise and Peril in the Age of AI”. Lo entretenido de la series es que está organizada en “secciones”:
- Input: explora los orígenes de la IA.
- Black box: Explica como las redes neuronales funcionan y por qué sus operaciones pueden ser difíciles de interpretar.
- Output: una exploración del profundo impacto que la nueva tecnología está alcanzando en ciencia y matemática.
Lanzamiento de nuevo modelo de razonamiento visual del laboratorio chino Zai: GLM 4.5-V. –Aparentemente, es superior a todos los modelos de código abierto en su gama (Qwen 2.5VL, Kimi-VL-2506)–.
Google está empujando la idea de agentes asíncronos con Jules.
Mas recursos para estudiar: OpenAI agrega la funcionalidad “Study Mode” a ChatGPT; sumándose a Google con su “Guided Learning” en Gemini.
Google va a invertir $9 mil millones USD en Oklahoma en cloud e infraestructura para AI.
Claude dice: “You’re are absolutely right” a todo xD.
Se lanza GPT-5 con amargo recibimiento de la comunidad (Aparentemente, eso es bueno xD).
Otro agente al estilo RooCode y Cline llamado Kilo.
La think tank The Institute for Progress (IFP) tiene una colección de artículos con un tema central: describir proyectos de IA concretos para acelerar el progreso en ciencia y seguridad.
No todo son modelos con billones de parámetros… También hay dominios en los que la eficiencia es crítico. En este contexto, Google lanzo un modelo pequeño: Gemma 3 270M. (Hay que considerar que para este tipo de modelos hacer fine-tunning es esencial).
Según el Financial Times DeepSeek se ha atrasado por intentar usar chips de Huawei.
Buena explicación en Quanta para el trabajo de Truthful AI, de hace unos meses, en el que se entrenó a un LLM con código inseguro y se desalineo completamente.
La carrera en IA va a estar determinada por la energía solar? O por lo menos eso da a entender Casey Handmer en el podcast de Dwarkesh.
La infraestructura para producción de energía en China le saca ventaja a USA.
El equivalente chino de TSMC es Semiconductor Manufacturing International Corporation (SMIC).
En abril de este año USA prohibió la exportación del chip H200 de NVIDIA a China. Este mes se eliminó esta sanción. Sin embargo, China esta viendo a los chip H200 como una amenaza de seguridad (posible seguimiento), causando el incentivo a usar chips locales como los de Huawei.
A mediados de mes leí en varios lugares titulares parecidos a “Puede ser la IA mejor que esto?1” –en referencia a ChatGPT 5–. Pero eso, en verdad, es lo que han intentado empujar los medios. Por otra parte, las opiniones de expertos es lo opuesto: GPT 5 es un gran salto. Me gustó la analogía que hizo Zvi de que está ocurriendo el efecto opuesto a el lanzamiento de Deepseek: Un modelo SOTA que es mal entendido como “mediocre”.
Alibaba lanzó la versión para editar imágenes de Qwen-Image llamado Qwen-Image-Edit. Su capacidad para editar imágenes de forma precisa sin perder sentido es buenísima, considerando que es un modelo abierto.
Google lanzó un nuevo chip para sus teléfonos pixel: Tensor G5. Supuestamente tiene una TPU un 60% más rápida que la de su predecesor; diseñada mediante 3nm process node de TSMC.
Supongo que era esperable que, en cualquier momento, saliera al público un sistema inteligente para generar assets en software de modelado –tipo blender–. Esto es exactamente lo que hace LL3M : Usa un equipo de LLMs en distintas etapas de la pipeline de diseño.
La documentación de la pipeline es detallada, las ideas más importantes son:
- Primer intento, usando RAG, para crear la el blueprint del diseño.
- Segunda etapa: Un agente “crítico” juzga el asset para asegurar coherencia, así, re-itera para ajustar las inconsistencias.
- Feedback de usuario.
Ahora se puede proveer un link para agregar contexto en Gemini API.
Altman está invirtiendo en un posible competidor a Neural Link, llamado Merge Labs.
Las instrucciones para los agentes ahora deben ir en un archivo
AGENTS.md.Sí, otro agente asíncrono, llamado Open SWE, desarrollado por Langchain. Es cloud-hosted y open source.
Vercel lanzó una librería de elementos para usar en aplicaciones con “AI”.
Un joven se suicido con lo que parece ser la ayuda de ChatGPT.
Se lanzo Gemini 2.5 Flash Image a.k.a Nano Banana.
Se lanza DeepSeek 3.1 –aparentemente no es bueno–.
Voy a cambiar el excel que ocupaba para comparar modelos por artificialanalysis.ai.
Zuck está con la pera: dejó de contratar por temor a la burbuja de AI.
Aparentemente, 95% de los prototipos utilizando Gen AI están fracasando.
Google va a realizar una inversión de 9 mil millones de USD en Virginia para infra en IA y cloud.
Esfuerzo conjunto de OpenAI y Anthropic plasmado en una investigación de alignment.