Ofensiva total de Google en IA, Soberanía Europea en construcción y el Imperativo de la confianza en la era agentica
La Inteligencia Artificial comienza a permear capas fundamentales de la ciencia, el desarrollo de software, la interacción con la información y el comercio. Los movimientos son audaces, las apuestas multimillonarias y las implicaciones, profundas.
Esta semana desglosamos la ofensiva estratégica de Google, la efervescencia en el comercio conversacional, el crucial pulso geopolítico por la soberanía IA en Europa, la transformación del retail por agentes autónomos y una llamada de atención sobre la confianza en los modelos que prometen cambiarlo todo.
Hola 👋, soy Raúl Pacheco Rodríguez y todos los lunes te escribo una nueva edición de Bitácora Semanal 📰 la sección de El Futurista donde te comparto un análisis conciso y estratégico de las noticias y desarrollos más importantes en el mundo de la IA, para que empieces la semana informado y con perspectiva.
Google reafirma su Liderazgo en IA
Google, bajo la presión competitiva y la necesidad de demostrar que sigue marcando el paso en la carrera de la Inteligencia Artificial, ha desplegado una batería de innovaciones que abarcan desde la ciencia fundamental hasta la experiencia de usuario más cotidiana.
Estos anuncios no son hechos aislados, sino piezas interconectadas de un rompecabezas estratégico de gran envergadura, diseñado para solidificar su posición en un panorama tecnológico en rápida evolución.
AlphaEvolve: La IA que Muta Algoritmos para Conquistar la Ciencia
DeepMind, la joya de la corona de Alphabet en investigación de IA, ha presentado AlphaEvolve, un sistema que va más allá de la mera resolución de problemas:
Evoluciona algoritmos completos
Utilizando los modelos Gemini como motor, AlphaEvolve puede generar, criticar y refinar sus propias soluciones de código.
A diferencia de sus predecesores como AlphaFold, especializado en la predicción de la estructura de las proteínas, o FunSearch, que se centraba en la evolución de funciones de código únicas, AlphaEvolve se presenta como un generalista capaz de abordar una amplia gama de problemas numéricos y algorítmicos "calificables por máquina" y de optimizar bases de código enteras.
AlphaEvolve ya ha demostrado su capacidad para mejorar la eficiencia de los centros de datos de Google, logrando una reducción del 0.7% en el uso global de recursos computacionales. Además, ha acelerado el entrenamiento de los propios modelos Gemini, con una mejora del 23% en un kernel específico de multiplicación de matrices, lo que se traduce en una reducción del 1% en el tiempo total de entrenamiento.
AlphaEvolve incluso ha contribuido al diseño de futuras Tensor Processing Units (TPUs), el hardware especializado de Google para IA.
Su capacidad para acelerar descubrimientos en matemáticas (ha superado récords establecidos hace décadas, como el algoritmo de Strassen para la multiplicación de matrices 4x4), ciencias de materiales, descubrimiento de fármacos y la optimización de sistemas complejos redefine la velocidad y el tipo de avances que podemos anticipar.
Agentes IA para el Desarrollo de Software
En paralelo, Google está impulsando con fuerza el desarrollo de agentes de IA para la creación de software, basados en su familia de modelos Gemini.
Estos agentes se integran en la plataforma Vertex AI a través del Agent Development Kit (ADK), un framework de código abierto, y el Agent Engine para su despliegue y gestión en producción.
La promesa de estos agentes es que puedan planificar, aprender, tomar decisiones autónomas y ejecutar tareas complejas de múltiples pasos. Herramientas como Gemini Code Assist ya ofrecen funcionalidades como la completación de código, chat conversacional para resolver dudas, personalización basada en el código privado de una organización y la capacidad de realizar transformaciones de código a gran escala.
El impacto esperado en la productividad de los desarrolladores y en la naturaleza del talento tecnológico es profundo. La automatización de tareas repetitivas y la asistencia en problemas complejos podrían transformar radicalmente la forma en que se trabaja en los equipos tecnológicos, la demanda de nuevas habilidades y la velocidad con la que se entrega el software.
"Modo IA" en el Buscador: Google Apuesta por la Conversación para No Perder el Trono
Finalmente, Google está rediseñando la experiencia de su producto estrella, el Buscador, con la introducción del "Modo IA".
Esta funcionalidad es una evolución de las AI Overviews, potenciada por Gemini 2.0, que permite a los usuarios realizar consultas más largas y en lenguaje natural (mediante texto, voz o incluso imágenes) y recibir respuestas conversacionales enriquecidas con enlaces para profundizar en la información.
El "Modo IA" también incorpora tarjetas visuales interactivas para consultas relacionadas con compras y viajes, y un historial de búsqueda que permite retomar conversaciones anteriores.
Una diferencia clave con AI Overviews es que el "Modo IA" ofrece respuestas generadas por IA "bajo demanda", proporcionando una experiencia más predecible para el usuario.
La estrategia de Google con este movimiento es clara: mantener la relevancia de su buscador frente a la creciente popularidad de las interfaces conversacionales emergentes, mejorar la experiencia de usuario para consultas complejas y, fundamentalmente, encontrar nuevas vías de monetización a través de anuncios integrados de forma nativa en estas respuestas conversacionales.
El feedback inicial de los usuarios ha sido positivo, destacándose que las consultas realizadas en este modo tienden a ser más largas y detalladas.
Futurinota📝: Estos tres pilares forman una estrategia coherente y recursiva: AlphaEvolve crea la IA que optimiza los modelos Gemini, que a su vez potencian los agentes de desarrollo y el "Modo IA". Google busca controlar toda la cadena de valor de la IA, desde la investigación fundamental hasta la interacción con el usuario. Su apertura con el ADK y el protocolo Agent2Agent (A2A) también sugiere una intención de establecer estándares.
¿Está Google marcando un ritmo de innovación fundamental que sus competidores (Meta, OpenAI, startups) tendrán dificultades para igualar, o es esta una respuesta necesaria, aunque masiva, ante la presión y los avances ajenos?
Pulso del Ecosistema: Movimientos Clave en Comercio, Geopolítica y Confianza IA
Mientras los gigantes tecnológicos reconfiguran sus estrategias, el ecosistema de la IA sigue vibrando con movimientos significativos que afectan desde el comercio electrónico hasta la geopolítica.
Perplexity + PayPal: La Fiebre del Oro en el E-commerce Conversacional
El "motor de respuestas" conversacional, Perplexity AI, ha anunciado una integración estratégica con PayPal que permitirá a sus usuarios Pro en Estados Unidos realizar compras directamente desde la interfaz de chat a partir del verano de 2025.
Este es un claro ejemplo de "comercio agéntico": la IA no solo busca información, sino que facilita y ejecuta transacciones. PayPal se encargará de la gestión integral de los pagos, envíos, seguimiento y facturación, apoyándose en su tecnología de wallet tokenizado y el sistema de autenticación passkeys para una mayor seguridad y fluidez.
Este movimiento viene respaldado por un considerable músculo financiero. Perplexity acaba de asegurar una ronda de financiación de $500 millones liderada por la firma de capital riesgo Accel, lo que eleva su valoración a unos impresionantes $14 mil millones.
Esta cifra se suma a un total recaudado previamente que supera los $915 millones, con inversores de alto perfil como NVIDIA y Jeff Bezos entre sus filas. En cuanto a métricas de tracción, Perplexity reporta 22 millones de usuarios activos en la primera mitad de 2025 y un Ingreso Anual Recurrente (ARR) estimado en $100 millones para el cierre de este año , procesando más de 400 millones de consultas mensuales.
Perplexity se está posicionando como un competidor ágil y enfocado en un nicho de alto valor: la búsqueda transaccional que ofrece respuestas directas y, citadas, diferenciándose de otros LLMs.
Su objetivo es una porción significativa del mercado de comercio impulsado por IA, estimado en $229 mil millones.
Futurinota📝: La búsqueda siempre ha sido la manifestación de la intención del consumidor a gran escala. Google capitalizó esta intención primordialmente a través de la publicidad. Perplexity, al integrar las transacciones directamente en el flujo conversacional, intenta capturar esa intención en el punto de máxima "temperatura", convirtiendo la respuesta de la IA en una venta potencial.
¿Subestimó OpenAI el potencial B2C transaccional inmediato, enfocándose más en el acceso a modelos, o Perplexity simplemente encontró un nicho con un encaje producto-mercado más rápido y una ejecución impecable para las compras conversacionales? ¿O es que el "trabajo por hacer" de la compra es más complejo de lo que parece para un LLM generalista?
MGX Campus IA en París: Europa Despierta a la Soberanía Algorítmica
En un movimiento de gran calado geopolítico y tecnológico, MGX (el fondo soberano de inversión de Emiratos Árabes Unidos enfocado en IA y tecnología avanzada), Bpifrance (el banco público de inversión francés), la prominente startup europea de IA Mistral AI, y el gigante del hardware NVIDIA, han anunciado una joint venture para crear el que se proyecta como el campus de Inteligencia Artificial más grande de Europa. Estará ubicado en la región de París y se espera que alcance una capacidad de 1.4 GW una vez completado. El objetivo fundamental de esta iniciativa es dar soporte integral a todo el ciclo de vida de la IA –desde el entrenamiento de modelos y la inferencia hasta el despliegue de aplicaciones– y, de manera crucial, fomentar una infraestructura de IA soberana, sostenible y globalmente competitiva para el continente europeo.
Los roles de los socios están bien definidos: MGX y Bpifrance aportan el músculo inversor y el marco institucional necesario para un proyecto de esta envergadura. Cabe destacar que Bpifrance ya cuenta con un programa de inversión de €10 mil millones destinado a impulsar el ecosistema de IA francés. NVIDIA, como líder mundial en infraestructura de cómputo para IA, proveerá el hardware esencial, presumiblemente sus avanzadas arquitecturas modulares MGX, indispensables para el entrenamiento de los grandes modelos de lenguaje y otras cargas de trabajo intensivas en IA. Mistral AI, la estrella emergente europea en el desarrollo de LLMs, actuará como un usuario clave de estas instalaciones y aportará su valiosa experiencia en IA generativa. Es relevante señalar que Mistral AI ya está colaborando con Fluidstack en la construcción de un supercomputador dedicado. El ecosistema se completa con la participación de socios académicos de prestigio como la École Polytechnique e importantes actores industriales en los sectores de construcción y energía como Bouygues y EDF.
El campus operará bajo un modelo de "acceso abierto", con la ambición de convertirse en un hub de colaboración público-privada y un centro de experimentación para nuevas ideas y aplicaciones en IA. El cronograma del proyecto establece el inicio de la construcción para la segunda mitad de 2026, con el objetivo de que las operaciones comiencen en 2028.
Este proyecto es un claro movimiento geopolítico. Europa busca activamente reducir su dependencia tecnológica en el campo de la IA de Estados Unidos y Asia, una estrategia que se alinea con otras iniciativas continentales como el European Chips Act. La soberanía digital es, sin duda, el motor principal de esta ambiciosa apuesta.
Futurinota📝: La creación del MGX Campus, con la participación coordinada de inversores, gigantes del hardware (NVIDIA), líderes de modelos locales (Mistral AI), instituciones académicas de primer nivel e infraestructura energética crítica, demuestra que la soberanía en IA no se logra únicamente con tener un buen modelo de lenguaje. Requiere la construcción de un ecosistema completo y robusto que incluya capital, talento altamente cualificado, poder de cómputo masivo, fuentes de energía fiables y preferiblemente limpias (como la energía nuclear francesa, que jugará un papel ), y un mercado dinámico que adopte e integre las soluciones desarrolladas. Europa parece estar comprendiendo que debe construir todas estas piezas de manera simultánea y coordinada.
¿Es este el embrión de un verdadero "Motor de IA Europeo" capaz de competir globalmente y ofrecer una alternativa real a los modelos y plataformas dominantes, o un esfuerzo admirable que, aunque necesario, podría enfrentar desafíos de escala, velocidad y cohesión fragmentada frente a la agilidad y los recursos concentrados de los gigantes de EE.UU. y Asia?
Walmart y sus Agentes de Compras IA: El Retail se Prepara para la Delegación Autónoma
Walmart, el gigante del retail, no solo está implementando IA en sus operaciones existentes, sino que se está preparando activamente para un futuro donde agentes de IA autónomos –ya sean propios o de terceros, como el anticipado "Operator" de OpenAI– realicen las compras en nombre de los consumidores. Esta visión implica un cambio fundamental en la forma en que los productos se descubren, seleccionan y adquieren.
Para materializar esta transformación, Walmart está desarrollando sus propios agentes de compra, accesibles a través de su sitio web y aplicación móvil, así como sus propios modelos de lenguaje grandes (LLMs), como "Wallaby", entrenado con décadas de datos internos de la compañía.
Estos sistemas están diseñados para realizar tareas como el reordenamiento automático de la compra habitual, la creación de cestas de la compra temáticas (por ejemplo, para organizar una "fiesta de cumpleaños con temática de unicornios"), y ofrecer asistencia conversacional avanzada a los clientes.
La compañía ya utiliza IA generativa para mejorar la calidad de los datos de su catálogo de productos (con más de 850 millones de puntos de datos enriquecidos ), personalizar las páginas de inicio de su web para cada usuario (una funcionalidad prevista para finales de 2025 ), optimizar las estrategias de precios (en colaboración con Helios AI ), e incluso influir en el diseño de moda a través de su herramienta "Trend-to-Product".
La IA generativa está escalando rápidamente en el sector retail, transitando desde la optimización de procesos de backend hacia la interacción directa y, cada vez más, autónoma con el cliente. Esto tiene profundas implicaciones para el marketing y la publicidad. Si un bot es el que realiza la compra, la imaginería visual del producto o su ranking en las búsquedas tradicionales pierden relevancia frente a factores como las especificaciones técnicas detalladas, la disponibilidad en tiempo real, el coste total (incluyendo envío y otros factores) y, crucialmente, la capacidad del minorista para "hablar" el idioma de estos agentes de IA, proporcionando datos estructurados y fácilmente procesables.
Futurinota📝: Si los consumidores delegan sus decisiones de compra a agentes de IA, el proceso tradicional de descubrimiento de productos se ve fundamentalmente alterado. Los usuarios ya no navegarán necesariamente por las webs de Walmart o Amazon; sus agentes lo harán por ellos. Esto desencadena una nueva batalla competitiva: ¿qué agente de IA se convertirá en el "asistente de compras por defecto" para la mayoría de los consumidores? ¿Serán los agentes desarrollados por los propios retailers (como los de Walmart), los ofrecidos por los gigantes tecnológicos (Google, Apple, OpenAI), o surgirán nuevos jugadores especializados e independientes? La capacidad de un agente para acceder a múltiples inventarios, comparar precios de forma transparente y, sobre todo, actuar verdaderamente en el mejor interés del consumidor (y no del minorista o la plataforma que lo creó) será crucial para ganar la confianza y la adopción generalizada del usuario.
¿Qué nuevos dilemas éticos o de "fatiga de IA" podrían surgir cuando hasta la compra del supermercado sea una conversación con una máquina?
La Disculpa de Anthropic: Cuando la IA "Miente" en los Tribunales
Anthropic, una de las empresas más prominentes en el campo de la IA generativa y desarrolladora del conocido modelo Claude, se vio obligada a emitir una disculpa formal ante un tribunal federal de Estados Unidos en mayo de 2025. El motivo: su modelo Claude AI "alucinó" –es decir, generó información incorrecta presentada como factual– y fabricó una citación académica. Específicamente, atribuyó un título y autores incorrectos a un artículo, aunque el enlace proporcionado en la documentación judicial sí dirigía a un artículo real pero diferente, publicado en The American Statistician. Este error fue incluido por los abogados de Anthropic en documentos presentados durante una compleja demanda por derechos de autor interpuesta por varias editoriales musicales.
En su respuesta, Anthropic calificó el incidente como un "error honesto de citación" (honest citation mistake) y aseguró haber implementado procedimientos de revisión adicionales para evitar futuras equivocaciones. Sin embargo, este suceso no es un caso aislado, sino una manifestación de un problema inherente y bien conocido de los actuales Modelos de Lenguaje Grandes (LLMs): su propensión a generar información que suena plausible pero que es, en realidad, incorrecta o inventada, especialmente cuando no encuentran la respuesta precisa en sus vastos datos de entrenamiento. De hecho, otros profesionales del derecho ya han enfrentado sanciones por errores similares al utilizar IA en su trabajo.
Las implicaciones estratégicas de este tipo de incidentes subrayan los riesgos inherentes y las limitaciones actuales de los LLMs, particularmente en aplicaciones críticas donde la veracidad y la precisión son primordiales, como en los ámbitos legal, médico o financiero.
La confianza pública y profesional en la IA se ve inevitablemente afectada.
Si una empresa puntera como Anthropic, que desarrolla sus propios modelos fundamentales, comete estos errores, ¿Qué se puede esperar de aplicaciones menos sofisticadas o de usuarios con menos recursos para la verificación?
Este caso refuerza la necesidad imperativa de mayor transparencia en el funcionamiento de los modelos, de una verificación humana constante y rigurosa de los resultados generados por IA, y del establecimiento de marcos éticos robustos que guíen el desarrollo y despliegue de estas tecnologías.
Irónicamente, mientras Anthropic se disculpaba por este error, otros informes recientes han señalado que sus modelos Claude también han sido explotados por actores maliciosos para llevar a cabo campañas de influencia política, robo de credenciales y asistencia en el desarrollo de malware. Estos usos duales agravan las preocupaciones sobre el control, la seguridad y el potencial de abuso de estas potentes tecnologías.
Futurinota 📝: El incidente de Anthropic no es simplemente un error técnico aislado, sino una manifestación de la naturaleza de "caja negra" que caracteriza a muchos LLMs actuales. A menudo, no es posible determinar con exactitud cómo estos modelos llegan a una conclusión específica; simplemente la producen. A medida que la IA se integra en procesos cada vez más críticos para la sociedad y la economía, una simple disculpa o la promesa de "más revisiones internas" no serán suficientes. Podría estar emergiendo la necesidad de una nueva "industria de la verificación de IA". Sin un marco de este tipo, la confianza generalizada en la IA podría ser difícil de alcanzar y mantener.
¿Estamos invirtiendo lo suficiente en la "ciencia de la seguridad y la confiabilidad de la IA" en comparación con la carrera desenfrenada por capacidades cada vez mayores?
Conclusión
La semana nos deja una imagen clara: la Inteligencia Artificial se encuentra en una fase de expansión agresiva y de búsqueda intensa de su "Retorno de Inversión (ROI) real".
Google intenta asegurar su dominio en todas las capas de la pila tecnológica, desde la investigación fundamental hasta la interfaz de usuario final.
El comercio se está volviendo cada vez más conversacional y agéntico, redefiniendo la interacción cliente-empresa y la propia naturaleza de la transacción.
Europa, consciente de los desafíos, lucha por construir su soberanía en un campo de juego global dominado por gigantes.
Y mientras las capacidades de la IA se disparan a un ritmo vertiginoso, la confianza sigue siendo un activo frágil y precioso que debemos construir y proteger con rigor, transparencia y una profunda responsabilidad ética.
Ante esta avalancha de "IA para todo", que abarca desde los confines de la ciencia hasta la compra semanal del supermercado, surge una pregunta fundamental:
¿Cuál es el equilibrio adecuado entre abrazar con entusiasmo la eficiencia y la innovación que esta tecnología promete, y mantener al mismo tiempo el escepticismo crítico y el control humano necesarios para asegurar que esta poderosa herramienta sirva genuinamente a nuestros intereses y valores como sociedad?