Queridos Dysruptores,
Soy Fernando Santa Cruz con la decimocuarta edición de Synapsis Semanal – donde esta semana presenciamos el momento exacto en que la industria de la IA abandonó la pretensión de competencia pura para abrazar la realidad de la interdependencia forzosa.
Desde Toronto, asesorando a empresas que ahora deben navegar un mundo donde Google conecta con Microsoft 365 y otras más de 8000 aplicaciones de pegamento digital como Zapier. Mientras tanto, en México, asesorando a instituciones educativas para prevenir ser parte de la estadística: 95% de proyectos de IA fracasan por exceso de hype, poca alineación con necesidades reales y capacitación insuficiente. Recordándonos que la tecnología sin estrategia humana es solo ruido costoso. (Mi trayectoria en LinkedIn).
Este boletín profundiza donde los resúmenes de WhatsApp (semana 25) apenas mencionaron las alianzas, para entender por qué esta semana marca una evolución fascinante: la era de la interdependencia estratégica.
El Día que Microsoft 365 Apareció en Google (Y Nadie Pestañeó)
Esta semana, un contratista que asistió a mi taller en Toronto me mostró algo genial. Usando Gemini Enterprise, accedía simultáneamente a sus archivos de Google Workspace y Microsoft 365. “¡Por fin puedo trabajar sin cambiar de contexto cada 5 minutos!”, exclamó aliviado.
Me di cuenta de que acababa de presenciar el equivalente tecnológico de Coca-Cola vendiendo Pepsi en sus máquinas expendedoras.
Google Gemini Enterprise, lanzado el 9 de octubre, no solo conecta con Google Workspace. Se integra nativamente con Microsoft 365, Salesforce, SAP. Competidores mortales compartiendo datos. Enemigos juramentados colaborando. Y lo más perturbador: a U$30 por usuario al mes, es más barato que comprar cada servicio por separado.
Esta misma semana, OpenAI anunció que ChatGPT ya no es un chatbot. Con 800 millones de usuarios semanales (duplicó desde marzo), ahora es una plataforma donde Booking, Canva, Spotify y Zillow viven como “apps”. No aplicaciones separadas. Apps dentro del chat. Como si WhatsApp de pronto hospedara Amazon, Netflix y tu banco, todo en la misma conversación.
Y para completar el círculo, OpenAI firmó con AMD para obtener 6 gigavatios de poder computacional. Seis. Gigavatios. El consumo eléctrico de San Francisco entero. Para entrenar modelos que competirán con… los mismos modelos que AMD ayuda a entrenar para otros clientes.
Bienvenidos a la era donde tus competidores son tus proveedores, tus rivales son tus socios, y la única constante es que todos dependen de todos.
OpenAI y la Plataformización Inevitable: 800M de Usuarios Convergentes
El Chat que Se Convirtió en Sistema Operativo
El DevDay 2025 de OpenAI reveló una visión audaz pero práctica. Con el lanzamiento del Apps SDK basado en el Model Context Protocol (MCP) – un estándar abierto desarrollado por Anthropic que funciona con múltiples plataformas – transformaron ChatGPT en algo más ambicioso: un ecosistema operativo.
800 millones de usuarios semanales. Más que la población de Europa. Todos convergiendo en un punto único. Y ahora, con apps integradas, ¿por qué saldrían? Puedes reservar vuelos con Booking, diseñar con Canva, estudiar con Coursera, todo sin abandonar el chat.
El Agent Builder visual permite crear flujos multi-agente sin código. Codex, su agente de programación, creció 10x en uso diario desde agosto. Cisco reporta revisiones 50% más rápidas. Ramp redujo ciclos de iteración 70%. Los números son impresionantes hasta que te das cuenta: cada mejora en productividad aumenta la dependencia.
Para reflexionar: Cuando una plataforma es tan conveniente que abandonarla se vuelve impensable, ¿sigue siendo una herramienta o se convierte en infraestructura? ¿Y qué pasa cuando esa infraestructura es privada?
6 Gigavatios: La Nueva Economía Energética de la Inteligencia
AMD y OpenAI: ¿Diversificación estratégica, no traición?
El acuerdo OpenAI-AMD no es solo grande. Es obsceno. 6 gigavatios de GPUs Instinct, comenzando con 1 GW de chips MI450 en 2026. Para contexto: la represa Hoover genera 2 GW. OpenAI necesitará tres represas Hoover solo para pensar.
Lo fascinante: AMD emitió garantías por 160 millones de acciones a OpenAI. Casi 10% de la empresa. No es un contrato de compra. Es un matrimonio corporativo. AMD ahora tiene incentivo financiero directo en el éxito de OpenAI… mientras vende los mismos chips a Google, Meta y Microsoft.
No es abandono de NVIDIA. Es diversificación inteligente. En un mundo donde los chips son el nuevo petróleo, depender de un solo proveedor es suicidio corporativo. AMD gana un cliente ancla, OpenAI gana leverage de negociación, NVIDIA gana competencia que la obliga a innovar.
Dilema energético: Si OpenAI necesita una ciudad entera de electricidad hoy, ¿cuántas ciudades necesitaremos cuando cada empresa quiera su propia superinteligencia? ¿Estamos construyendo IA o crisis energética?
Google y la Apertura Calculada: Conectar para Competir
Gemini Enterprise: Pragmatismo Sobre Purismo
Google hizo algo brillante: reconoció la realidad. Las empresas no viven en un solo ecosistema. Tienen datos en Microsoft 365, CRM en Salesforce, ERP en SAP. Ignorar esto es ignorar el mercado.
Gemini Enterprise conecta todo. 1,500+ agentes pre-construidos, workbench sin código, 100,000+ socios. No es rendición – es adaptación inteligente.
La API Gemini 2.5 Computer Use va más allá: controla navegadores directamente, automatiza tareas complejas. Es RPA (Robotic Process Automation) pero con inteligencia real, no solo scripts.
Para considerar: La interoperabilidad no es debilidad. En un mundo fragmentado, el que mejor conecta, gana. Google lo entendió antes que sus competidores.
Anthropic y Deloitte: 470,000 Cerebros Subcontratados
Cuando la Consultoría Se Convierte en Distribución de IA
El acuerdo Anthropic-Deloitte no es sobre tecnología. Es sobre legitimidad. 470,000 empleados de Deloitte en 150 países ahora tienen acceso a Claude. Pero no cualquier acceso – viene envuelto en el “Trustworthy AI™ Framework” de Deloitte.
Anthropic obtiene distribución masiva en sectores regulados (finanzas, salud, gobierno). Deloitte cobra por algo que no construyó. Los clientes obtienen IA “segura” porque Deloitte lo dice. Todos ganan excepto… bueno, los 470,000 consultores cuyo trabajo Claude aprenderá a hacer?
Incluye un Centro de Excelencia Claude y certificación de 15,000 profesionales.
Ironía: Las mismas consultoras que cobraban millones por “transformación digital” ahora cobran millones por instalar la herramienta que las volverá obsoletas si no se transforman.
El Talón de Aquiles: 250 Documentos para Destruir Todo
Cuando 0.00016% es Suficiente para el Caos
Mientras todos celebraban alianzas y plataformas, un estudio conjunto de Anthropic, el UK AI Security Institute y el Alan Turing Institute soltó una bomba: solo necesitas 250 documentos “envenenados” – el 0.00016% de los datos de entrenamiento – para crear backdoors indetectables en cualquier modelo.
Probaron con modelos desde 600 millones hasta 13 mil millones de parámetros. Todos vulnerables. Todos comprometibles. Y lo más aterrador: funciona con una simple palabra gatillo como “sudo” para activar comportamientos ocultos.
El State of AI Report añade sal a la herida: las 11 organizaciones más grandes de IA invierten combinadas $133 millones en seguridad. Menos de lo que gastan en cómputo en un solo día.
Oportunidad: Las startups de seguridad de IA serán los próximos unicornios.
Arduino + Qualcomm: Democratizando el Fin del Trabajo Manual
33 Millones de Makers. ¿Democratización Real?
Qualcomm compró Arduino. 33 millones de desarrolladores, estudiantes, hobbyistas. Lanzaron Arduino Uno Q a $39-44 con capacidad de IA en el dispositivo. La democratización definitiva del edge AI.
Es hermoso si no piensas demasiado. Millones tendrán acceso a IA local, barata, hackeable. También es el principio del fin para cualquier trabajo que pueda hacer un Arduino con IA.
Para meditar con optimismo cauteloso: Democratizar herramientas es democratizar poder. Pero también es democratizar la capacidad de automatizar a otros. Cada maker que celebra hoy podría estar construyendo el robot que lo reemplace mañana.
Stanford ACE: El Modelo que se Mejora Solo (Sin Pedirle Permiso)
Cuando el Contexto Evoluciona Más Rápido que el Código
Agentic Context Engineering (ACE) de Stanford es maravilloso y elegante. En lugar de reentrenar modelos (caro, lento), ACE permite que el modelo evolucione su propio contexto. El modelo escribe sus propias instrucciones, reflexiona, las edita, crea un manual interno cada vez más efectivo.
Superó a GPT-4 en +10.6% en benchmarks con 86.9% menos costo y latencia. No necesitas más hardware. Solo dejas que el modelo se hable a sí mismo hasta que mejore.
Reflexión: Si un modelo puede mejorar su propio pensamiento sin intervención humana, ¿cuánto falta para que decida que nuestras instrucciones son… subóptimas?
Figure 03 y MrBeast: El Futuro Físico vs el Futuro Sintético
Robots en Casa, Creadores sin Trabajo
Figure AI mostró su robot humanoide de tercera generación. Diseñado para hogares, cubierto con textiles suaves, menos industrial, más… familiar. Demo completamente autónoma con su modelo Hélix. En hogares seleccionados para 2026.
Mientras tanto, MrBeast (634 millones de seguidores, $85 millones anuales) advirtió que Sora 2 y herramientas similares van a “comoditizar” el contenido. Cuando cualquiera puede generar videos perfectos, ¿qué valor tiene ser creador?
Dualidad perfecta: Construimos robots para cuidar nuestros hogares mientras destruimos los trabajos que nos permiten pagarlos. Creamos herramientas para que todos sean creativos mientras eliminamos el valor de la creatividad.
La Gran Convergencia: Cuando Todos Dependen de Todos
44% de Adopción y el Nuevo Orden Mundial
44% de empresas en EE.UU. pagan por IA. Era 5% en 2023. 880% de crecimiento. La adopción no es gradual. Es vertical.
ServiceNow lanzó Thinker 1.5B – solo 1.5 mil millones de parámetros pero iguala modelos 10x más grandes. Reflection AI (fundada hace un año por ex-DeepMind) levantó $2 mil millones, valuación de $8 mil millones. Para automatizar creación de software.
Todos construyen sobre todos. Google usa chips de NVIDIA que compiten con los de AMD que usa OpenAI que compite con Anthropic que se alía con Deloitte que implementa Claude que compite con Gemini que se conecta con Microsoft 365 que compite con Google Workspace que…
¿Ven el patrón?
Verdad incómoda: No hay competencia pura. Solo interdependencia.
Mi Invitación Esta Semana
Hagan este experimento, pero háganlo con honestidad brutal.
Abran todas las herramientas de IA que usan. ChatGPT, Claude, Gemini, lo que sea. Ahora intenten calcular cuántas empresas tienen acceso a sus datos a través de estas “integraciones”. No directamente – indirectamente. A través de APIs, conectores, plugins.
¿Perdieron la cuenta? Exacto.
Esta semana no fue sobre competencia. Fue sobre la rendición a la conveniencia. Aceptamos que Google lea nuestro Office, que OpenAI controle nuestras apps, que AMD y NVIDIA decidan quién puede “pensar”.
Construimos herramientas para liberarnos, pero estamos terminando con plataformas que nos encadenan.
El futuro no está en las plataformas que nos atrapan. Está en las herramientas que nos liberan.
La pregunta es: ¿podemos distinguir entre ambas antes de que sea demasiado tarde?
Descubramoslo juntos.



