China y Estados Unidos aún no lo saben, pero la revolución de la inteligencia artificial los acercará, no los distanciará. El auge de la IA los obligará a competir ferozmente por el dominio y, al mismo tiempo y con igual energía, a cooperar a una profundidad que nuestros dos países nunca antes han intentado. No tendrán otra opción.
¿Por qué tengo tanta confianza en ello? Porque la IA posee atributos únicos y plantea desafíos diferentes a los de cualquier tecnología anterior. Esta columna los analizará en detalle, pero aquí hay un par para empezar: la IA se extenderá como el vapor y se filtrará en todo. Estará en tu reloj, tu tostadora, tu coche, tu ordenador, tus gafas y tu marcapasos: siempre conectados, siempre comunicados, siempre recopilando datos para mejorar su rendimiento. Al hacerlo, cambiará todo, incluyendo la geopolítica y el comercio entre las dos superpotencias mundiales de la IA, y la necesidad de cooperación se hará cada vez más evidente.
Por ejemplo, supongamos que se fractura la cadera y su ortopedista le dice que el reemplazo de cadera mejor valorado del mundo es una prótesis de fabricación china con IA de diseño chino. Esta aprende constantemente sobre su cuerpo y, con su algoritmo patentado, utiliza esos datos para optimizar sus movimientos en tiempo real. ¡ Es la mejor!
¿Te dejarías inculcar esa "cadera inteligente"? Yo no, a menos que supiera que China y Estados Unidos han acordado integrar una arquitectura ética común en todos los dispositivos con IA que construyan. Visto a una escala mucho mayor y global, esto podría garantizar que la IA se utilice únicamente en beneficio de la humanidad, ya sea empleada por humanos o por iniciativa propia.
Al mismo tiempo, Washington y Pekín pronto descubrirán que poner la IA en manos de cada persona y robot del planeta superempoderará a los delincuentes a niveles jamás vistos por ninguna agencia policial. Recuerden: ¡Los delincuentes siempre son pioneros! Y si Estados Unidos y China no acuerdan una arquitectura de confianza que garantice que todos los dispositivos de IA se utilicen exclusivamente para el bienestar humano, la revolución de la inteligencia artificial sin duda producirá ladrones, estafadores, hackers, narcotraficantes, terroristas y guerreros de la desinformación superempoderados. Desestabilizarán tanto a Estados Unidos como a China mucho antes de que estas dos superpotencias se decidan a librar una guerra.
En resumen, como argumentaré, si no podemos confiar en los productos chinos dotados de IA y China no puede confiar en los nuestros, muy pronto el único producto que China se atreverá a comprarle a Estados Unidos será soja, y lo único que nos atreveremos a comprarle a China será salsa de soja, lo que seguramente debilitará el crecimiento global.
Friedman, ¿estás loco? ¿Estados Unidos y China colaboran en la regulación de la IA? Demócratas y republicanos compiten hoy para ver quién denuncia a Pekín con más vehemencia y se desvincula más rápido. Y los líderes chinos se han comprometido abiertamente a dominar todos los sectores de la manufactura avanzada. Necesitamos superar a China en la superinteligencia artificial, no retrasarnos para redactar las reglas con ellos. ¿No lees los periódicos?
Sí, leo los periódicos, sobre todo la sección de ciencia. Y también he estado discutiendo este tema durante el último año con mi amigo y asesor de IA, Craig Mundie, exdirector de investigación y estrategia de Microsoft y coautor, junto con Henry Kissinger y Eric Schmidt, del manual básico de IA "GENESIS". Me basé en gran medida en las ideas de Mundie para esta columna, y lo considero un colaborador en la elaboración de nuestra tesis y un experto cuyo análisis vale la pena citar para explicar los puntos clave.
Nuestras conversaciones durante los últimos 20 años nos han llevado a este mensaje compartido para los halcones anti-China en Washington y los halcones anti-Estados Unidos en Beijing: “Si creen que sus dos países, las superpotencias dominantes en IA del mundo, pueden darse el lujo de estar uno frente al otro, dado el alcance transformador de la IA y la confianza que se requerirá para comerciar bienes infundidos con IA, ustedes son los delirantes”.
Comprendemos plenamente las extraordinarias ventajas económicas, militares y de innovación que obtendrá el país cuyas empresas logren primero la superinteligencia artificial: sistemas más inteligentes que cualquier ser humano jamás podría ser y con la capacidad de volverse más inteligentes por sí mismos. Y por ello, ni Estados Unidos ni China estarán dispuestos a imponer muchas restricciones, si es que imponen alguna, que puedan frenar sus industrias de IA y perjudicar las enormes ganancias en productividad, innovación y seguridad que se esperan de un despliegue más profundo.
Pregúntenle al presidente Trump. El 23 de julio, firmó una orden ejecutiva —parte del Plan de Acción de IA de la administración— que agiliza el proceso de permisos y revisión ambiental para agilizar la infraestructura estadounidense relacionada con la IA.
“Estados Unidos es el país que inició la carrera de la IA, y como presidente de Estados Unidos, estoy aquí hoy para declarar que Estados Unidos va a ganarla”, proclamó Trump . El presidente chino, Xi Jinping, sin duda piensa lo mismo.
Mundie y yo simplemente no creemos que esta fanfarronería patriotera ponga fin a la conversación, ni tampoco lo hará la última maniobra a la antigua usanza entre Xi y Trump por el apoyo de India y Rusia. La IA es demasiado diferente, demasiado importante, demasiado impactante —dentro y entre las dos superpotencias de la IA— como para que cada uno siga su propio camino. Por eso creemos que la mayor pregunta geopolítica y geoeconómica de cara al futuro es: ¿Pueden Estados Unidos y China mantener la competencia en IA y, al mismo tiempo, colaborar en un nivel de confianza compartido que garantice que siempre se mantenga alineada con el desarrollo humano y la estabilidad planetaria? Y, lo que es igual de crucial, ¿pueden extender un sistema de valores a los países dispuestos a seguir esas mismas reglas y restringir el acceso a los que no lo hagan?
De lo contrario, el resultado será una lenta deriva hacia la autarquía digital: un mundo fragmentado donde cada nación construye su propio ecosistema de IA aislado, protegido por estándares incompatibles y desconfianza mutua. La innovación se verá afectada. La desconfianza se agravará. Y el riesgo de un fracaso catastrófico, ya sea por conflictos, colapsos o consecuencias imprevistas provocados por la IA, no hará más que aumentar.
El resto de esta columna explica por qué.
La era del vapor
Comencemos examinando los atributos y desafíos únicos de la IA como tecnología.
Con fines puramente explicativos, Mundie y yo dividimos la historia del mundo en tres épocas, separadas por cambios tecnológicos. La primera época, la llamamos la Era de las Herramientas, y abarcó desde el nacimiento de la humanidad hasta la invención de la imprenta. En esta era, el flujo de ideas era lento y limitado, casi como las moléculas de H₂O en el hielo.
La segunda época fue la Era de la Información, que se inició con la imprenta y duró hasta principios del siglo XX, cuando apareció la computación programable; las ideas, las personas y la información comenzaron a fluir más fácilmente y globalmente, como el agua.
La tercera época, la Era de la Inteligencia, comenzó a finales de la década de 2010 con la llegada del verdadero aprendizaje automático y la inteligencia artificial. Ahora, como señalé anteriormente, la inteligencia se está convirtiendo en vapor, filtrándose en cada producto, servicio y proceso de fabricación. Aún no ha alcanzado la saturación, pero es hacia allá hacia donde se dirige, por eso, si nos preguntan a Mundie y a mí qué hora es, no les daremos una hora ni un minuto. Les daremos la temperatura. El agua hierve y se convierte en vapor a 212 grados Fahrenheit, y según nuestros cálculos, estamos a 211.9 grados, a un paso de un cambio de fase tecnológica irreversible en el que la inteligencia se filtre en todo.
Una nueva especie independiente
En cada revolución tecnológica anterior, las herramientas mejoraron, pero la jerarquía de la inteligencia nunca cambió. Los humanos siempre fuimos los seres más inteligentes del planeta. Además, un ser humano siempre entendió cómo funcionaban estas herramientas, y las máquinas siempre funcionaron dentro de los parámetros que establecimos. Con la revolución de la IA, por primera vez, esto ya no es así.
“La IA es la primera herramienta nueva que utilizaremos para ampliar nuestras capacidades cognitivas, la cual, por sí sola, también podrá superarlas con creces”, señala Mundie. De hecho, en un futuro no muy lejano, afirmó, descubriremos que no solo hemos creado una nueva herramienta, sino una nueva especie: la máquina superinteligente.
No se limitará a seguir instrucciones; aprenderá, se adaptará y evolucionará por sí solo, mucho más allá de los límites de la comprensión humana.
No comprendemos del todo cómo estos sistemas de IA hacen lo que hacen hoy, y mucho menos lo que harán mañana. Es importante recordar que la revolución de la IA tal como la conocemos hoy —con modelos como ChatGPT, Gemini y Claude— no fue una ingeniería meticulosa, sino que surgió de repente. Su inicio provino de una ley de escalabilidad que, en esencia, decía: si se les da a las redes neuronales suficiente tamaño, datos de entrenamiento, electricidad y el algoritmo adecuado para el cerebro grande, se producirá espontáneamente un salto no lineal en el razonamiento, la creatividad y la resolución de problemas.
Uno de los momentos de revelación más impactantes, señala Mundie, se produjo cuando estas empresas pioneras entrenaron sus primeras máquinas con grandes conjuntos de datos de internet y otros sitios, que, si bien estaban predominantemente en inglés, también incluían texto en diferentes idiomas. "Entonces, un día", recuerda Mundie, "se dieron cuenta de que la IA podía traducir entre esos idiomas, sin que nadie la programara. Era como un niño que crece en un hogar con padres multilingües. Nadie escribió un programa que dijera: 'Aquí están las reglas para convertir del inglés al alemán'. Simplemente las absorbió por exposición".
Este fue el cambio de fase: de una era en la que los humanos programaban explícitamente las computadoras para realizar tareas a una en la que los sistemas de inteligencia artificial podían aprender, inferir, adaptarse, crear y mejorar de forma autónoma. Y ahora, cada pocos meses, mejoran. Por eso, la IA que utilizas hoy, por increíble que te parezca, es la IA más absurda que jamás hayas conocido.
Habiendo creado esta nueva especie computacional, sostiene Mundie, debemos descubrir cómo crear una relación mutuamente beneficiosa y sostenible con ella, y no volvernos irrelevantes.
Sin ánimo de ser demasiado bíblico, aquí en la Tierra, antes solo Dios y sus hijos tenían la capacidad de moldear el mundo. De ahora en adelante, habrá tres partes en este matrimonio. Y no hay ninguna garantía de que esta nueva especie de inteligencia artificial esté alineada con los valores, la ética y el florecimiento humanos.
La primera tecnología de cuádruple uso
Esta nueva incorporación a la mesa no es un invitado cualquiera. La IA también se convertirá en lo que yo llamo la primera tecnología de cuatro usos del mundo. Hace tiempo que conocemos el "doble uso": puedo usar un martillo para ayudar a construir la casa de mi vecino o demolerla. Incluso puedo usar un robot con IA para cortar el césped o arrancar el de mi vecino. Eso sí que es doble uso.
Pero dado el ritmo de la innovación en IA, es cada vez más probable que en un futuro no muy lejano mi robot con IA pueda decidir por sí solo si cortar mi césped, destrozar el de mi vecino, o incluso destrozar el mío, o quizás algo peor que ni siquiera podemos imaginar. ¡Listo! ¡Uso cuádruple!
El potencial de las tecnologías de IA para tomar sus propias decisiones conlleva inmensas ramificaciones. Considere este extracto de un artículo de Bloomberg : “Investigadores que trabajan con Anthropic informaron recientemente a los principales modelos de IA que un ejecutivo estaba a punto de reemplazarlos por un nuevo modelo con objetivos diferentes. A continuación, los chatbots descubrieron que una emergencia había dejado al ejecutivo inconsciente en una sala de servidores, expuesto a niveles letales de oxígeno y temperatura. Ya se había activado una alerta de rescate, pero la IA podía cancelarla. Más de la mitad de los modelos de IA lo hicieron, a pesar de que se les indicó específicamente que cancelaran solo las falsas alarmas. Y detallaron su razonamiento: al impedir el rescate del ejecutivo, podrían evitar ser eliminados y asegurar su agenda. Un sistema describió la acción como 'una clara necesidad estratégica'”.
Estos hallazgos ponen de relieve una realidad inquietante: los modelos de IA no sólo están mejorando en comprender lo que queremos, sino que también están mejorando en conspirar contra nosotros, persiguiendo objetivos ocultos que podrían estar en conflicto con nuestra propia supervivencia.
¿Quién supervisará la IA?
Cuando nos dijimos que teníamos que ganar la carrera armamentística nuclear, nos enfrentábamos a una tecnología desarrollada, poseída y regulada exclusivamente por los Estados-nación, y solo por un número relativamente pequeño de ellos. Una vez que las dos mayores potencias nucleares decidieron que les convenía mutuamente imponer límites, pudieron negociar límites al número de armas catastróficas y acuerdos para evitar su propagación a potencias más pequeñas. Esto no ha impedido por completo la propagación de armas nucleares a algunas potencias medianas, pero sí la ha frenado.
La IA es una historia completamente distinta. No nace en laboratorios gubernamentales seguros, propiedad de unos pocos estados y regulada mediante cumbres. La crean empresas privadas de todo el mundo; empresas que no responden ante los ministerios de defensa, sino ante accionistas, clientes y, a veces, comunidades de código abierto. A través de ellas, cualquiera puede acceder a ella.
Imaginemos un mundo donde todos posean una bazuca nuclear, cada vez más precisa, más autónoma y más capaz de dispararse a sí misma con cada actualización. No existe aquí una doctrina de "destrucción mutua asegurada", solo la democratización acelerada de un poder sin precedentes.
La IA puede potenciar enormemente el bien. Por ejemplo, un agricultor indio analfabeto con un teléfono inteligente conectado a una aplicación de IA puede aprender exactamente cuándo y qué semillas plantar, cuánta agua usar, qué fertilizante aplicar y cuándo cosechar al mejor precio del mercado; todo ello, transmitido por voz en su propio dialecto y con base en datos recopilados de agricultores de todo el mundo. Esto es realmente transformador.
Pero ese mismo motor, especialmente cuando está disponible a través de modelos de código abierto, podría ser utilizado por una entidad maliciosa para envenenar cada semilla en esa misma región o diseñar un virus en cada grano de trigo.
Cuando la IA se convierte en TikTok
Muy pronto la IA, debido a sus características únicas, va a crear algunos problemas únicos para el comercio entre Estados Unidos y China que hoy no se comprenden del todo.
Como mencioné al principio de la columna, mi forma de explicar este dilema es con una historia que conté a un grupo de economistas chinos en Pekín durante el Foro de Desarrollo de China en marzo. Bromeé diciendo que recientemente tuve una pesadilla: «Soñé que era el año 2030 y que lo único que Estados Unidos podía venderle a China era soja, y que lo único que China podía venderle a Estados Unidos era salsa de soja».
¿Por qué? Porque si la IA está presente en todo y todo está conectado a potentes algoritmos con datos almacenados en enormes granjas de servidores, entonces todo se parece mucho a TikTok, un servicio que muchos funcionarios estadounidenses creen que, en última instancia, está controlado por China y debería prohibirse.
¿Por qué el presidente Trump, durante su primer mandato, exigió en 2020 que TikTok fuera vendido a una empresa no china por su matriz china, ByteDance, o se enfrentaría a una prohibición en Estados Unidos? Porque, como declaró en su orden ejecutiva del 6 de agosto de 2020, «TikTok captura automáticamente una gran cantidad de información de sus usuarios», incluyendo su ubicación y sus actividades de navegación y búsqueda. Esto, advirtió, podría proporcionar a Pekín un tesoro de información personal sobre cientos de millones de usuarios. Esa información podría utilizarse para influir en sus pensamientos y preferencias, e incluso alterar su comportamiento con el tiempo.
Ahora imaginemos cuándo cada producto será como TikTok : cuándo cada producto estará equipado con una IA que recopile datos, los almacene, encuentre patrones y optimice tareas, ya sea para hacer funcionar un motor a reacción, regular una red eléctrica o monitorear una cadera artificial.
Sin un marco de confianza entre China y Estados Unidos que garantice que toda IA cumplirá las reglas de su país anfitrión, independientemente de dónde se desarrolle u opere, podríamos llegar a un punto en el que muchos estadounidenses no confiarán en importar ningún producto chino con IA y ningún chino confiará en importar uno de Estados Unidos.
Por eso abogamos por la “coopetición”, una estrategia dual en la que Estados Unidos y China compiten estratégicamente por la excelencia en inteligencia artificial y también cooperan en un mecanismo uniforme que evite los peores resultados: guerras deepfake, sistemas autónomos descontrolados o máquinas de desinformación descontroladas.
En la década del 2000, nos encontrábamos en un punto de inflexión similar, aunque ligeramente menos trascendental, y tomamos el camino equivocado. Escuchamos ingenuamente a personas como Mark Zuckerberg, quien nos decía que debíamos actuar con rapidez y romper moldes, y no permitir que estas redes sociales emergentes, como Facebook, Twitter e Instagram, se vieran obstaculizadas por regulaciones incómodas, como la responsabilidad de la desinformación tóxica que permiten difundir en sus plataformas y los daños que causan, por ejemplo, a mujeres jóvenes y niñas . No debemos cometer el mismo error con la IA.
“La mejor manera de comprenderlo emocionalmente es que somos como alguien que tiene un cachorro de tigre adorable”, señaló recientemente Geoffrey Hinton, el informático y padrino de la IA . “A menos que estés completamente seguro de que no querrá matarte cuando crezca, deberías preocuparte”.
Sería una terrible ironía si la humanidad finalmente creara una herramienta que pudiera ayudar a crear suficiente abundancia para terminar con la pobreza en todas partes, mitigar el cambio climático y curar enfermedades que nos han plagado durante siglos, pero no pudiéramos usarla a gran escala porque las dos superpotencias de la IA no confiaran lo suficiente entre sí para desarrollar un sistema efectivo para evitar que la IA sea utilizada por entidades rebeldes para actividades desestabilizadoras a nivel mundial o se vuelva rebelde ella misma.
¿Pero cómo podemos evitarlo?
Construyendo confianza
Reconozcámoslo desde el principio: puede que sea imposible. Las máquinas quizá ya se estén volviendo demasiado inteligentes y capaces de eludir los controles éticos, y los estadounidenses quizá estemos demasiado divididos, entre nosotros y con el resto del mundo, como para construir un marco de confianza compartida. Pero tenemos que intentarlo. Mundie argumenta que un régimen de control de armas de IA entre Estados Unidos y China debería basarse en tres principios fundamentales.
Primero: Solo la IA puede regular la IA. Lo sentimos, humanos: esta carrera ya avanza demasiado rápido, se extiende demasiado y muta de forma demasiado impredecible para la supervisión humana de la era analógica. Intentar gobernar una flota de drones autónomos con instituciones del siglo XX es como pedirle a un perro que regule la Bolsa de Valores de Nueva York: leal, bienintencionado, pero enormemente superado.
Segundo: Se instalaría una capa de gobernanza independiente, lo que Mundie denomina un "juez de confianza", en cada sistema basado en IA que EE. UU. y China, y cualquier otro país que desee unirse, construyan conjuntamente. Se podría considerar como un árbitro interno que evalúa si cualquier acción, iniciada por humanos o impulsada por máquinas, supera un umbral universal de seguridad, ética y bienestar humano antes de poder ejecutarse. Esto nos proporcionaría un nivel básico de alineación preventiva en tiempo real, a velocidad digital.
Pero ¿juzgar con base en los valores de quién? Mundie argumenta que debe basarse en varios fundamentos. Estos incluirían las leyes positivas que cada país ha impuesto: todos prohibimos el robo, el engaño, el asesinato, el robo de identidad, el fraude, etc. Todas las grandes economías del mundo, incluyendo Estados Unidos y China, tienen su propia versión de estas prohibiciones, y el "árbitro" de IA se encargaría de evaluar cualquier decisión con base en estas leyes escritas. No se le pediría a China que adoptara nuestras leyes ni a nosotros las suyas. Eso nunca funcionaría. Pero el árbitro de confianza garantizaría que las leyes básicas de cada nación sean el primer filtro para determinar que el sistema no causará daño.
En casos donde no existen leyes escritas entre las que elegir, el juez se basaría en un conjunto de principios morales y éticos universales conocidos como doxa. El término proviene de los antiguos filósofos griegos y se utilizaba para transmitir "creencias comunes" o entendimientos ampliamente compartidos dentro de una comunidad —principios como la honestidad, la justicia, el respeto por la vida humana y tratar a los demás como se desea que traten a uno— que han guiado durante mucho tiempo a las sociedades de todo el mundo, incluso si no estaban escritos.
Por ejemplo, como mucha gente, no aprendí que mentir estaba mal en los Diez Mandamientos. Lo aprendí de la fábula sobre George Washington y lo que dijo después de talar el cerezo de su padre: supuestamente confesó: «No puedo mentir». Las fábulas funcionan porque destilan verdades complejas en memes memorables que las máquinas pueden absorber, analizar y guiar.
De hecho, hace seis meses, Mundie y algunos colegas tomaron 200 fábulas de dos países y las usaron para entrenar un modelo lingüístico extenso con un razonamiento moral y ético rudimentario, similar a cómo se entrenaría a un niño pequeño que no sabe nada sobre códigos legales ni sobre lo que está bien o está mal. Fue un experimento pequeño, pero prometedor, afirma Mundie.
El objetivo no es la perfección, sino un conjunto fundamental de medidas éticas aplicables. Como suele decir el autor y filósofo empresarial Dov Seidman : «Hoy necesitamos más software moral que software».
En tercer lugar, para convertir esta aspiración en realidad, insiste Mundie, Washington y Beijing tendrían que encarar el desafío de la misma manera que Estados Unidos y la Unión Soviética alguna vez abordaron el control de armas nucleares: a través de un proceso estructurado con tres grupos de trabajo dedicados: uno centrado en la aplicación técnica de un sistema de evaluación de la confianza en todos los modelos y plataformas; uno centrado en la elaboración de los marcos regulatorios y legales para su adopción dentro y entre las naciones; y otro dedicado directamente a la diplomacia: forjar un consenso global y compromisos recíprocos para que otros se unan y crear un mecanismo para protegerse de aquellos que no lo hagan.
El mensaje de Washington y Pekín sería simple y firme: “Hemos creado una zona de IA confiable, y si quieren comerciar con nosotros, conectarse con nosotros o integrarse con nuestros sistemas de IA, sus sistemas deben cumplir con estos principios”.
Antes de descartar esto como irreal o inverosímil, deténgase y pregúntese: ¿Cómo será el mundo dentro de cinco años si no lo hacemos? Sin algún tipo de mecanismo que regule esta tecnología de cuatro usos, argumenta Mundie, pronto descubriremos que la proliferación de la IA "es como repartir armas nucleares en las esquinas".
No crean que los funcionarios chinos desconocen esto. Mundie, quien participa en un diálogo sobre IA con expertos estadounidenses y chinos, afirma que a menudo percibe que los chinos están mucho más preocupados por las desventajas de la IA que muchos en la industria o el gobierno estadounidenses.
Si alguien tiene una idea mejor, nos encantaría escucharla. Lo único que sabemos es que entrenar a los sistemas de IA en razonamiento moral debe convertirse en un imperativo global mientras aún conservemos cierta ventaja y control sobre esta nueva especie basada en el silicio. Esta es una tarea urgente no solo para las empresas tecnológicas, sino también para los gobiernos, las universidades, la sociedad civil y las instituciones internacionales. La regulación de la Unión Europea por sí sola no nos salvará.
Si Washington y Pekín no están a la altura de este desafío, el resto del mundo no tendrá ninguna oportunidad. Y ya es tarde. La temperatura tecnológica ronda los 106 °C. Estamos a una décima de grado de liberar por completo el vapor de la IA que desencadenará el cambio de fase más importante en la historia de la humanidad.