Queridos Dysruptores,
Fernando Santa Cruz aquí en la cuadragésima tercera edición de Synapsis Semanal – donde el Pentágono firmó con Google mientras 600 empleados se rebelaban, China canceló una compra de $2 mil millones de Meta, y la Casa Blanca le prohibió a Anthropic ampliar el modelo que puede hackear hospitales.
Desde Toronto, retomando las actividades y proyectos en el dinámico ecosistema de IA de la ciudad, mientras coordinamos con múltiples actores y voluntades en México para dinamizar el ecosistema y que los beneficios de la IA lleguen a más PyMEs y personas en su vida personal, con una mejor estrategia para Yucatán.
Esta semana cambió quién decide.
Los laboratorios de IA tomaban sus propias decisiones de producto. Lanzaban modelos, fijaban precios, escogían clientes.
Esta semana, los gobiernos entraron a la sala de máquinas.
El Pentágono integró IA de frontera en redes militares clasificadas. La Casa Blanca le dijo a un laboratorio privado a quién no podía vender. Beijing canceló una adquisición de $2 mil millones porque consideró la tecnología demasiado estratégica para que saliera del país.
La IA dejó de ser un mercado. Se convirtió en infraestructura soberana.
Este boletín profundiza los resúmenes de WhatsApp (semana del 27 de abril al 1 de mayo) para entender por qué tres gobiernos intervinieron en la misma semana, por qué un investigador de Google demostró matemáticamente que la IA nunca será consciente, y por qué la noticia más importante no fue ninguna de estas. Fue un sistema en Mayo Clinic que detecta cáncer de páncreas tres años antes que un humano.
El Pentágono Firmó a las 4 PM y 600 Ingenieros de DeepMind Perdieron la Carta: Google Cruza la Línea Roja del 2018
El 28 de abril, Google firmó un acuerdo con el Departamento de Defensa para que el Pentágono use Gemini con datos clasificados bajo “cualquier propósito gubernamental legal”. El contrato se firmó a las cuatro de la tarde.
Ese mismo día por la mañana, más de 600 empleados de Google y DeepMind firmaron una carta abierta pidiéndole al CEO Sundar Pichai que rechazara el contrato.
Pichai firmó de todas formas. Horas después.
En 2018, una carta similar con 4,000 firmas hizo que Google cancelara Project Maven. Esta vez, 600 firmas no movieron la aguja.
Pensemos en lo que cambió.
No fue la ética. Fue el costo de oportunidad.
OpenAI, xAI y Microsoft ya estaban operando en redes militares clasificadas. Anthropic se negó y el Pentágono la designó “riesgo de cadena de suministro” – una etiqueta normalmente reservada para empresas de países adversarios.
El mensaje al resto de la industria es claro. Como cuando una sola gasolinera decide cerrar de noche en una ciudad de 24 horas. La que no abre, pierde el cliente. La que abre, fija el precio.
Para cualquier empresa que construye productos sobre estos modelos, el mensaje es operacional. Las “líneas rojas éticas” de un proveedor de IA tienen vigencia hasta que un cliente más grande las cruce primero.
Pregunta para tu estrategia: ¿Tu empresa tiene claro qué proveedores de IA usa, y cómo cambian sus términos de servicio cuando entran clientes gubernamentales o militares?
$2 Mil Millones Pagados y un Veto que se Obedece: China Trata la IA como Petróleo Estratégico
El gobierno chino bloqueó la adquisición de Manus por parte de Meta. Una compra valuada en $2 mil millones, anunciada en diciembre, cancelada en abril por la Comisión Nacional de Desarrollo y Reforma.
Manus era una startup de IA agéntica fundada por ingenieros chinos. Para escapar al escrutinio regulatorio, sus fundadores se mudaron a Singapur antes de cerrar la venta. Capital ya transferido. Empleados ya integrados a Meta. Inversionistas como Tencent y Hongshan ya cobraron.
China los obligó a deshacer todo.
Como cuando un gobierno descubre que se vendió un yacimiento estratégico y exige que cada gramo de mineral regrese.
El mensaje no es para Meta. Es para el resto del ecosistema.
La IA agéntica, los sistemas que ejecutan tareas autónomamente sin supervisión humana, ya no se trata como software comercial. Se trata como armamento.
Esto fragmenta el mercado global de adquisiciones de IA en dos. Lo que es comprable en San Francisco no es comprable en Singapur, aunque la empresa esté legalmente registrada allí. Lo que importa no es dónde está la entidad legal. Es dónde aprendieron a programar sus fundadores.
Para una PyME latinoamericana, esto cambia el cálculo de proveedores. Una herramienta de IA agéntica de origen chino o estadounidense puede dejar de estar disponible mañana por una decisión geopolítica. No por una decisión de negocio.
Pregunta para tu cadena de suministro digital: ¿Sabes el origen geopolítico de las IAs que usa tu empresa, y qué pasa si una de ellas queda bloqueada por una orden gubernamental?
Un Bug de 27 Años en OpenBSD y 70 Empresas Bloqueadas: La Casa Blanca Quiere Mythos Solo para Ella
La Casa Blanca prohibió a Anthropic expandir Claude Mythos de aproximadamente 50 a 120 empresas. 70 organizaciones se quedaron afuera.
Mythos es el modelo restringido de ciberseguridad que en pruebas internas encontró un bug de 27 años en OpenBSD que ningún humano había detectado, identificó vulnerabilidades en redes eléctricas y vulneró sistemas hospitalarios.
La razón oficial: riesgo de seguridad nacional si cae en manos equivocadas. La razón secundaria: Anthropic no tiene suficiente cómputo para servir a 120 clientes corporativos sin afectar el acceso prioritario que ya tiene el gobierno federal.
Lo que pocos están conectando. El mismo gobierno que prohíbe a Anthropic ampliar el acceso comercial de Mythos, simultáneamente integró modelos de OpenAI y xAI en redes militares clasificadas. La Casa Blanca también está redactando una directiva ejecutiva que permitiría a agencias federales rodear la designación del Pentágono y usar Anthropic.
Como una madre que le prohíbe a su hijo prestarle el coche al amigo, pero al mismo tiempo le pide al amigo que la lleve al supermercado. La regla no es sobre el coche. Es sobre quién decide cuándo usarlo.
Lo que estamos viendo no es regulación coherente. Es captura estratégica disfrazada de regulación. El estado quiere acceso prioritario a las capacidades de IA más poderosas, y restringir a quién más se las venden.
Para PyMEs y empresas medianas, la implicación es directa. El acceso a los modelos más capaces ya no se decide por precio o por mérito técnico. Se decide en una llamada telefónica entre Washington y la sede del laboratorio.
Pregunta para tu plan de adopción: ¿Tu estrategia de IA depende de tener acceso al modelo de frontera, o puedes operar con modelos de tier intermedio que no enfrentan estas restricciones?
Licencia No Exclusiva Hasta 2032, -23% por Cada Power User y $14 Mil Millones en Pérdidas: El SaaS con IA Pierde por Diseño
Microsoft y OpenAI reestructuraron radicalmente su alianza histórica. Microsoft mantiene una licencia no exclusiva de la propiedad intelectual de OpenAI hasta 2032. OpenAI puede ahora ofrecer sus modelos en cualquier nube, incluyendo AWS y Google Cloud. Microsoft deja de pagarle regalías sobre ingresos a OpenAI. Y la cláusula que invalidaba todo el acuerdo si se alcanzaba “AGI” desapareció.
La misma semana, salió un dato que rompe la narrativa optimista del SaaS con IA. Cursor, el editor de código de IA más popular del mercado, reportó márgenes brutos negativos del 23% generando $2.7 mil millones en ingresos anualizados. Y OpenAI proyecta pérdidas de $14 mil millones para 2026.
Como un restaurante que llena cada mesa cada noche pero pierde 23 centavos por cada peso que cobra, porque la materia prima cuesta más de lo que el cliente está dispuesto a pagar.
Por décadas, el SaaS funcionó por una razón sencilla. Cada usuario nuevo costaba casi cero. La IA invierte esa ecuación. Cada power user, el cliente que más le gusta a la empresa, es el que más pérdidas genera. Mientras más usa, más pierde la empresa.
OpenAI separándose de Microsoft confirma que el problema es estructural. No se resuelve con mejor relación cliente-proveedor. Se resuelve, si acaso, con escala absoluta y modelos propios que reduzcan el costo unitario por debajo del precio cobrado.
Para una PyME que usa estas herramientas, hay dos lecciones. Los precios actuales son insostenibles, lo cual significa que van a subir. Y los proveedores que parecen consolidados hoy van a verse forzados a renegociar términos en los próximos 12 meses.
Pregunta para tu CFO: ¿Tu presupuesto de IA contempla un aumento de precios del 30 al 60 por ciento en los próximos 18 meses, o estás presupuestando con tarifas que el proveedor está subsidiando con capital de riesgo?
El Creador de AlphaGo Apuesta que el Texto Humano ya No Alcanza (y $1.1 Mil Millones para Empezar Sin Internet)
David Silver, el científico detrás de AlphaGo, AlphaZero y AlphaStar, salió de DeepMind para fundar Ineffable Intelligence. En su primera ronda, levantó $1.1 mil millones a una valuación de $5.1 mil millones. La ronda más grande de tipo seed en la historia de Europa.
Lo notable no es el dinero. Es la apuesta técnica.
Silver quiere construir una IA que aprenda 100 por ciento por refuerzo, sin entrenarse con datos humanos. Sin libros. Sin Wikipedia. Sin código de GitHub. Solo prueba y error contra el mundo.
Como si la próxima generación de matemáticos se educara sin tener acceso a un solo teorema previamente publicado, descubriéndolo todo de cero.
La razón detrás de esta apuesta es que los laboratorios de frontera asumen internamente que el “muro de datos” ya llegó. Los datos humanos disponibles en internet ya se agotaron, los nuevos están en disputa legal, y entrenar con datos sintéticos generados por otras IAs introduce errores acumulativos que degradan los modelos.
Si Silver tiene razón, dos cosas cambian. Primero, las demandas masivas por derechos de autor contra OpenAI, Anthropic y otros pierden relevancia económica. La próxima generación de modelos no necesitará ingerir propiedad intelectual humana. Segundo, los modelos que emerjan no serán predecibles. Una IA que se entrena sin texto humano no compartirá nuestras intuiciones ni nuestros sesgos. Generará conocimiento literalmente alienígena.
Para PyMEs no es una noticia operativa. Es una noticia direccional. La próxima ola de IA, si funciona, no se verá como ChatGPT. Se verá como un asesor que llegó a sus conclusiones por caminos que no podemos auditar.
Pregunta para tu visión a 3 años: ¿Tu estrategia de IA asume que los modelos seguirán evolucionando sobre la lógica de chatbots, o estás preparado para herramientas cuya forma de razonar no se parece a la humana?
Clínica Mayo Le Gana al Cáncer Más Letal del Mundo. 6 Meses de Ventaja y Tomografías de Rutina
Mayo Clinic publicó en Gut los resultados de validación de REDMOD, un modelo de IA que analiza tomografías abdominales de rutina y detecta cáncer de páncreas hasta 3 años antes del diagnóstico clínico tradicional. Identificó el 73% de los cánceres prediagnósticos con una mediana de 16 meses de antelación. Los radiólogos especialistas, viendo los mismos escaneos sin ayuda de IA, identificaron solo el 39%.
El cáncer de páncreas mata al 95% de los pacientes precisamente porque se detecta tarde. Cuando aparecen síntomas, el tumor casi siempre es inoperable. REDMOD encuentra la firma microscópica años antes de que el tumor se vuelva visible.
Esta semana hubo titulares sobre Pentágono, Casa Blanca, juicios millonarios y rondas récord. Esta noticia salió en revistas médicas y casi nadie la replicó.
Como cuando se inventó la mamografía. Tomó décadas pasar de “tecnología fascinante” a “estándar de atención que salva millones de vidas”.
La lección para PyMEs y emprendedores no es médica. Es estratégica. Mientras la conversación pública se concentra en ChatGPT, agentes y miedos existenciales, el verdadero valor económico y humano de la IA está apareciendo en lugares silenciosos. Reconocimiento de patrones invisibles para el ojo humano. Detección temprana. Anticipación.
Si quieres entender dónde la IA va a generar valor real en los próximos 5 años, no mires los keynotes de las grandes tecnológicas. Mira las publicaciones revisadas por pares en revistas especializadas de tu industria.
Pregunta para tu sector: ¿Qué patrones tu industria considera “invisibles” o “imposibles de detectar a tiempo”, y qué valor tendría una herramienta que los detectara con meses o años de anticipación?
Google Le Pone Techo Matemático al Apocalipsis de la IA
Alexander Lerchner, científico senior en Google DeepMind, publicó The Abstraction Fallacy, un paper que argumenta matemáticamente que la IA jamás podrá ser consciente. No por limitaciones de escala. Por la naturaleza misma de la computación.
El argumento es preciso. La computación no es un proceso físico real. Es un mapa que un observador consciente impone sobre transistores que cambian de voltaje. Decir que una GPU “computa” requiere de un humano consciente que decide qué estados físicos cuentan como qué símbolos. Sin ese cartógrafo, los chips solo hacen física pura. Electrones moviéndose.
Como una simulación perfecta de la fotosíntesis en una computadora. Por más exacto que sea el modelo, jamás producirá una sola molécula de glucosa.
Esto cambia dos cosas. Primero, los miedos apocalípticos sobre IAs cobrando voluntad propia y rebelándose, basados en la idea de que más parámetros eventualmente generan conciencia, pierden su fundamento técnico. Segundo, y más importante para empresas, redirige la conversación. La pregunta correcta nunca fue “¿esta IA va a sentir?” La pregunta correcta es “¿qué hace esta simulación con la velocidad y el alcance que tiene?”
Una IA sin conciencia sigue siendo capaz de hackear redes hospitalarias si alguien se lo pide. Sigue siendo capaz de generar contenido persuasivo a escala. Sigue siendo capaz de tomar decisiones financieras autónomas. El riesgo nunca fue la voluntad de la máquina. Es la voluntad humana orquestando máquinas potentísimas y descerebradas.
Pregunta filosófica para tu equipo: ¿La gobernanza de IA que tu empresa está construyendo se enfoca en lo que la IA “podría querer”, o en lo que humanos podrían pedirle que haga sin supervisión adecuada?
Herramientas que Ya Puedes Usar el Lunes
- Gemini exporta archivos directamente desde el chat – Google añadió la capacidad de generar y descargar Word, Excel, PDF, Google Docs, Sheets y Slides directamente desde la conversación. Una semana de notas se convierte en un PDF de una página. Un brainstorming de presupuesto se convierte en un Excel con fórmulas. Disponible globalmente para todos los usuarios. Si tu equipo gasta horas reformateando salidas de IA, esto las elimina.
- Microsoft Word Legal Agent – Un agente legal nativo dentro de Word que revisa contratos cláusula por cláusula contra un playbook interno, sugiere cambios, y mantiene formato y control de cambios intactos. Disponible en EE.UU. dentro del programa Frontier. Para PyMEs con presupuesto legal limitado, reduce la dependencia de revisión externa en contratos estándar.
- OpenAI Codex con uso de computadora – Codex ahora opera tu Mac autónomamente. Mueve el cursor, abre aplicaciones, navega, llena formularios. Múltiples agentes pueden correr en paralelo sin interrumpir tu trabajo. Pensado para desarrolladores hoy, expandiéndose a profesionales no técnicos. Ideal para automatizar flujos repetitivos en aplicaciones que no tienen API.
- NVIDIA Nemotron 3 Nano Omni – Modelo de pesos abiertos de 30 mil millones de parámetros que procesa texto, imagen, video y audio en un solo bucle. 9 veces más rendimiento operativo que sus competidores con la misma calidad. Disponible bajo licencia comercial. Para empresas que quieren ejecutar agentes multimodales localmente sin enviar datos sensibles a la nube.
- Claude integrado en Adobe, Autodesk y Blender – Anthropic lanzó conectores nativos para que Claude trabaje dentro del software de diseño, arquitectura y modelado 3D. Permite usar lenguaje natural para automatizar tareas repetitivas por lotes o generar elementos directamente en la interfaz creativa. Si tu PyME opera en diseño, marketing o producción de video, esto reduce horas de exportación e importación entre herramientas.
- Perplexity en Microsoft Teams y Excel – Perplexity llevó su asistente a las herramientas de trabajo cotidianas. Consultas dentro de canales de Teams. Panel lateral en Excel para analizar datos. Asociado con 1Password para que las contraseñas corporativas nunca se expongan a la IA. Si tu equipo ya usa Microsoft 365, baja la fricción de adopción.
- xAI Grok 4.3 – Modelo con contexto de 1 millón de tokens y precios de API entre 40 y 60 por ciento más bajos que la versión anterior. Suite de clonación de voz a $3 dólares por hora de interacción. Alternativa económica para empresas que están desarrollando integraciones de IA propias o automatización telefónica.
Mi Invitación Esta Semana: La Auditoría de Soberanía Digital
Esta semana tres gobiernos intervinieron en decisiones de IA.
La Casa Blanca le dijo a Anthropic a quién no podía vender. China canceló una compra ya cerrada. El Pentágono integró modelos en redes militares clasificadas.
Para una PyME, eso significa una cosa concreta. Las herramientas de IA que usamos hoy no son tuyas. Son inquilinas en infraestructura ajena, sujeta a decisiones políticas que ocurren en idiomas que nadie en tu empresa habla.
No te estoy invitando al pánico. Te invito al inventario.
1. Listemos las IAs que realmente usa nuestro equipo (10 min). Todas. ChatGPT, Claude, Gemini, Perplexity, Copilot, las integraciones dentro de Notion, Slack, HubSpot, Canva. Las herramientas de marketing, las de desarrollo, las de atención al cliente. Anotemos cada una con honestidad.
2. Identifiquemos el origen jurisdiccional de cada herramienta (10 min). ¿Es una empresa de Estados Unidos, China, Europa, otro lugar? ¿Su infraestructura corre en AWS, Azure, Google Cloud, en servidores propios? ¿Dónde se almacenan los datos que tu empresa le pasa? La mayoría no lo sabe. Buscar el dato es 90 por ciento del ejercicio.
3. Clasifiquemos cada herramienta por criticidad (10 min). Tres categorías. Crítica: si desaparece mañana, el negocio se detiene. Importante: si desaparece mañana, perdemos eficiencia pero seguimos operando. Sustituible: si desaparece mañana, encontramos un reemplazo en 48 horas.
4. Para cada herramienta crítica, definamos un Plan B concreto (15 min). No “buscaremos algo”. Un nombre específico de proveedor alternativo, idealmente de jurisdicción distinta. Cuánto costaría migrar. Cuánto tiempo tomaría. Quién en tu equipo lideraría la migración.
El resultado es una matriz de una página. Tres columnas: herramienta, criticidad, Plan B. Esa página es tu seguro contra una decisión gubernamental que ocurra mañana en una capital lejana.
La lección de esta semana no es que la IA sea peligrosa.
Es que la disponibilidad de la IA ya no la deciden las empresas que la construyen.
Y los que estamos construyendo negocios sobre estas herramientas necesitamos tener el mapa de quién decide.
Cierre
Google firmó con el Pentágono mientras 600 de sus empleados rechazaban el acuerdo.
China canceló una compra de $2 mil millones de Meta para impedir la fuga de IA agéntica.
El creador de AlphaGo levantó $1.1 mil millones para construir IA que aprenda sin datos de internet.
Mayo Clinic publicó un sistema que detecta cáncer de páncreas tres años antes que un humano.
Y un investigador de Google demostró matemáticamente que la IA jamás será consciente.
No es una semana de productos.
Es la semana donde quedó claro que la IA dejó de ser un mercado y se convirtió en infraestructura soberana.
Los gobiernos ya no son observadores.
Las empresas ya no fijan sus propias reglas.
Y las PyMEs y emprendedores que estamos construyendo con estas herramientas tenemos que aprender a leer geopolítica además de prompts.
Porque la disponibilidad ya no la decide solo el precio.
La decide quién está sentado en cuál capital.
Fernando Santa Cruz Head of AI & Automation @ Adivor Consulting



