Las empresas tecnológicas emergentes tienen un nuevo objetivo: acabar con un billón de dólares de valor bursátil en un solo día. Eso es lo que logró la empresa china de inteligencia artificial DeepSeek el 27 de enero. DeepSeek emplea a unas 200 personas y sus prácticas de contratación siguen el tan promocionado modelo de Silicon Valley (un modelo que sigue estando lejos de la realidad en el propio Silicon Valley): contratar talento joven, no tener en cuenta las cualificaciones, centrarse en el mero intelecto y evitar las jerarquías fijas. Cabe destacar que todo su equipo de investigación se formó en el país.

Lo que ocurrió después es como un complot de Hollywood. Un equipo de jóvenes renegados de un fondo de cobertura se la jugó a gigantes tecnológicos, grandes empresas con mucho dinero. El 28 de enero, la hasta entonces inexpugnable Nvidia (el fabricante de chips estadounidense que impulsó el auge de la inteligencia artificial en Silicon Valley y que acababa de superar a Apple como la empresa más valiosa del mundo) vio caer sus acciones un 17%. Mientras tanto, Sam Altman, el arrogante CEO de la empresa estadounidense de inteligencia artificial OpenAI, tuiteó algo tan modesto que me pregunté si su cuenta había sido hackeada: «Obviamente ofreceremos modelos mucho mejores y también es realmente estimulante tener un nuevo competidor», publicó sobre DeepSeek.

Las implicaciones parecían trascendentales, aunque no estaba nada claro cuáles eran. DeepSeek afirmó que había entrenado su gran modelo de lenguaje (un modelo de IA, como ChatGPT de OpenAI, que puede generar y comprender lenguaje) por solo 6 millones de dólares, una miseria en comparación con los expansivos presupuestos de sus rivales occidentales. La empresa también afirmó haber utilizado solo 2.048 chips Nvidia más antiguos y lentos, una necesidad impuesta por las sanciones estadounidenses, en comparación con los 50.000 chips de última generación que supuestamente usaron Microsoft y OpenAI para entrenar GPT-5. Teniendo en cuenta estas cifras (que a muchos les cuesta creer pero que no han sido desmentidas), era plausible concluir que la valoración de Nvidia, que alcanzó un máximo de más de 3,6 billones de dólares, era insostenible. Tal vez los modelos avanzados de IA podrían entrenarse con solo una fracción del hardware que alguna vez se consideró necesario. La idea de gastar 100.000 millones de dólares en centros de datos para entrenar modelos líderes que probablemente se convertirán en productos básicos antes de que se les haya encontrado algún uso de repente parecía imprudente.

La amenaza para Nvidia y otras empresas tecnológicas estadounidenses es aún mayor. La capacidad de procesamiento podría no perder valor en un mundo en el que se pueda utilizar de manera más eficiente con algoritmos superiores: imaginemos lo que la brillantez algorítmica de DeepSeek podría lograr con chips por valor de 100.000 millones de dólares. Como dijo el economista francés Olivier Blanchard, DeepSeek puede resultar el mayor impacto positivo en la productividad de la historia del mundo. Pero si los modelos subyacentes son chinos en lugar de estadounidenses, es probable que el ecosistema circundante de hardware y fuentes de energía también sea chino. Nvidia debería estar menos preocupada por lo barato que fue desarrollar DeepSeek y más preocupada por la noticia de que para utilizar el modelo en lugar de entrenarlo (lo que se llama inferencia), la start-up recurrió a los chips Ascend de la firma china Huawei.

Aunque el impacto de DeepSeek se ha sentido ampliamente, todavía puede que se lo subestime. Si una pequeña empresa china pudo reunir este tipo de talento de ingeniería y lograr un avance aparentemente superior al de sus rivales estadounidenses, ¿qué otras reservas de talento podrían estar ocultas en los bajos fondos de Hangzhou y Shenzhen? Han surgido nuevas dudas sobre si Washington podrá negar a China el acceso a chips de última generación. ¿Están los ingenieros chinos cerca de lograr sorprendentes avances también en la creación de chips? Nadie lo sabe. Todavía.

DeepSeek también ha puesto a disposición de todos su modelo para que lo inspeccionen, lo utilicen e incluso lo instalen localmente en su propio hardware. Tanto la empresa como China se beneficiarán de esa decisión, que contrasta vivamente con el enfoque de código cerrado (en el que el software no está disponible públicamente) adoptado por la mayoría de sus competidores estadounidenses. DeepSeek probablemente podrá seguir contratando a los mejores talentos, que tienden a sentirse atraídos por el impacto que pueden tener. China cuenta ahora con modelos de IA tan baratos y potentes que los jóvenes emprendedores de todo el mundo pueden elegirlos como base para nuevas aplicaciones.

La semana posterior al debut de DeepSeek, viajé por la India y me enteré de que allí había jóvenes que descargaban el modelo en sus equipos y debatían ideas para aplicaciones revolucionarias en los servicios financieros y de atención sanitaria. Todas las empresas del mundo pueden utilizar DeepSeek sin enviar datos a ningún país específico.

DeepSeek debería hacernos reflexionar por otra razón. En lugar de confiar en el aprendizaje supervisado con retroalimentación humana, los ingenieros de la empresa confiaron en lo que se llama aprendizaje de refuerzo. Se trata de una técnica en la que se deja que el modelo aprenda por sí solo, recibiendo un refuerzo positivo cuando llega a la respuesta correcta. El aprendizaje de refuerzo puro es el Santo Grial del aprendizaje automático porque crea oportunidades para una comprensión genuina en lugar de una memorización mecánica, pero hasta ahora nadie había logrado hacerlo funcionar. Y si el modelo de DeepSeek también pudo aprender de otros modelos, incluidos sus principales rivales (como ha afirmado OpenAI), a través de un proceso llamado destilación, entonces parece que hemos llegado al punto en el que la IA ha comenzado a mejorarse a sí misma (en lugar de tener que esperar a los ingenieros humanos) y a hacerlo a velocidad de computadora en lugar de humana. Abróchense los cinturones.

¿Qué son estos modelos de razonamiento que están surgiendo constantemente? O, tal vez, ¿quiénes son? Es necesario hacer una presentación adecuada.

Hasta ahora, la imagen que guiaba a una IA era la de un oráculo sumamente inteligente al que, con el tiempo, uno podía dirigir cualquier pregunta y obtener las respuestas que los seres humanos siempre han soñado con obtener. Pero ¿y si esta imagen es errónea? ¿Y si la imagen más precisa no es la de una mente, sino la de un mundo? Las mentes necesitan un mundo en el que existir y operar. Para lograr que un agente de IA realice una tarea, es necesario darle ejemplos de cómo se ve el éxito. La función de recompensa en el aprendizaje de refuerzo lo hace diciéndole al modelo que está en el camino correcto, creando una imagen del mundo. Incluso los vehículos autónomos deben operar en un entorno virtual, como un mapa digital de una ciudad utilizado por el algoritmo de conducción. ¿Qué es la inteligencia sino un modelo integral de la realidad?

Los modelos de lenguaje grandes (LLM, por sus siglas en inglés) son ejercicios de construcción de mundos. Cuando les damos una indicación, les estamos preguntando lo siguiente: dadas las regularidades del mundo del lenguaje humano, ¿cómo es probable que continúe un texto o una oración que comience con estas palabras? ¿Cómo se debería generar este texto de manera que respete los mismos patrones contenidos en los textos existentes? Los patrones son los del corpus del lenguaje, pero como el texto se está recreando desde cero, siempre existe la posibilidad de crear nuevas realidades, siempre que respeten la mayoría de los patrones generales. Muchas personas que usaron un LLM por primera vez se sintieron atraídas por estas posibilidades virtuales. Por ejemplo, podrían querer crear un soneto de Shakespeare sobre Taylor Swift o una canción de Taylor Swift sobre Shakespeare. O imágenes de un tigre siberiano comiendo una olla china con palillos en el caso de un generador de video. El modelo de IA estaba creando mundos virtuales y nos invitaba a entrar, al mismo tiempo que se metía en nuestras mentes, redefiniendo nuestro sentido de lo real.

La introducción de los primeros modelos de generación de video altamente efectivos en febrero de 2024 subrayó las profundas conexiones entre la IA y la creación de mundos. Si bien los modelos de lenguaje parecían rastrear la inteligencia humana, que de hecho se expresa en el lenguaje, la generación de mundos virtuales parecía más como un poder divino. El modelo de texto a video de OpenAI, Sora, es capaz de crear escenas complejas con múltiples personajes, tipos específicos de movimiento y detalles precisos del sujeto y el fondo.

Li Zhifei, uno de los empresarios que impulsa el auge de la inteligencia artificial en China, dijo poco después de la aparición de Sora que los grandes modelos de lenguaje emulan el mundo del pensamiento virtual, mientras que los modelos de generación de video emulan el mundo físico. “Una vez construidos los mundos físico y virtual”, preguntó, “¿qué es exactamente la realidad?”

La marcha hacia estos modelos integrales de la realidad ilustra vívidamente la tesis principal de mi nuevo libro World Builders : que el mundo se dividirá en dos niveles. En uno está el programador que crea el motor; en el otro están los usuarios que toman el mundo construido como su realidad singular e ineludible. Amos y esclavos.

Los investigadores han estudiado cómo se pueden construir modelos para exhibir patrones adquiridos mediante entrenamiento, ajuste fino, aprendizaje de refuerzo o un conjunto de datos especializado. La selección de un determinado conjunto de datos delata la jugada: uno podría seleccionar fácilmente un corpus chino o estadounidense. Los usuarios en China pueden conectarse al sitio web de la asociación de ciberseguridad del país y descargar el corpus básico chino para los LLM. El año pasado, China incluso produjo uno entrenado a partir de un conjunto fijo de textos sobre la doctrina ideológica de Xi Jinping. Como tal, cada modelo que utiliza ese corpus expresa una visión específica. Nunca habrá un modelo neutral.

La preocupación de que el sesgo en los datos pueda dar lugar a sesgos en los resultados de los modelos ha plagado la industria durante mucho tiempo. Si se le pide que cree una imagen de una enfermera, un generador de imágenes puede producir una imagen de una mujer, simplemente porque fue entrenado en una base de datos de imágenes en las que las enfermeras tienden a ser mujeres. Cuando Google ofreció la generación de imágenes a través de su plataforma Gemini en febrero de 2024, tuvo que encontrar una manera de abordar estos problemas de diversidad y sesgo, pero la supuesta cura fue peor que la enfermedad. La solución fue modificar las indicaciones del usuario antes de introducirlas en el modelo de generación de imágenes. El proceso de inyección de indicaciones puede añadir palabras como «diverso» o «inclusivo», o incluso especificar etnias o géneros no incluidos en la entrada original. Este tipo de ingeniería de indicaciones ayuda a guiar el comportamiento del modelo añadiendo contexto o restricciones, en el proceso modificando sutilmente nuestro sentido de la realidad. DeepSeek se niega a responder preguntas sobre Taiwán o la Plaza de Tiananmen y, cuando se le presiona, da respuestas que siguen las líneas del partido chino. Los modelos estadounidenses no son diferentes: algunos se niegan a responder a cualquier pregunta sobre Trump; Los LLM que evalué respondieron preguntas sobre los derechos de israelíes y palestinos de manera muy diferente.

Como Meta admitió en un informe técnico de septiembre de 2023, la ingeniería de indicaciones “funciona entre bastidores”, pero en ocasiones se hace patente. Cuando los usuarios empezaron a experimentar con Gemini, los resultados fueron cómicos y catastróficos para Google: el modelo respondió a una solicitud de “un retrato de un padre fundador de Estados Unidos” con imágenes de un hombre nativo americano con un tocado tradicional, y cuando se le pidió que creara la imagen de un papa, inexplicablemente devolvió la imagen de una papa mujer.

Este episodio ofreció la primera demostración pública de que la IA nunca es imparcial, aunque su presentación como un proceso técnico puede hacer imposible identificar la voluntad humana “entre bastidores”. Esta es quizás la forma más alta de poder: la voluntad humana disfrazada de realidad.

Cualquier modelo que se vuelva dominante o fundacional tendrá el poder singular de moldear la forma en que sus usuarios ven el mundo y su realidad. “Hubo un tiempo en que los hombres entregaron su pensamiento a las máquinas con la esperanza de que esto los liberara”, explica la Reverenda Madre en el clásico de ciencia ficción Dune . “Pero eso solo permitió que otros hombres con máquinas los esclavizaran”.

Aunque los modelos de lenguaje se utilizaron para impulsar robots de conversación como ChatGPT, su impacto parecía benigno y limitado. Pero a los pocos meses de su lanzamiento público, su uso se había generalizado. El texto generado por modelos de IA se incluye cada vez más en las páginas web, por lo que Internet está reproduciendo su estructura y sus sesgos. La gente pide al modelo planes y consejos para su vida profesional y personal y luego implementa los resultados. Los estudiantes aprenden al interactuar con él. El modelo puede realizar tareas en su nombre y tomar el control de su dispositivo o computadora personal. Los LLM se pueden conectar a robots, lo que les proporciona cerebros artificiales. El modelo se está comiendo el mundo.

Un modelo se vuelve más poderoso a medida que se vuelve parte integral de la infraestructura general de la sociedad. La IA es el cerebro central o sistema operativo de un mundo virtual, que organiza entradas y salidas en todos los formatos, escribe código y procesa datos y memoria. El objetivo no es crear una superinteligencia que se guarde en un servidor de datos gigante, sino liberarla y ver cómo se convierte en el cerebro mundial. Al ofrecer su modelo como código abierto y reducir los costos operativos, DeepSeek parece tener una comprensión intuitiva de este punto, lo que ofrece algunas posibilidades democráticas.

Puede que no se entiendan estas implicaciones, pero están presentes en la idea misma de una carrera entre superpotencias. Quienes construyen el mundo en el que actúan los demás deben encontrar un lugar para todos, o corren el riesgo de que se construya un marco más general sobre su propia construcción fallida. El crecimiento de las ciudades como depósitos de civilizaciones sucesivas es una metáfora adecuada para ayudarnos a visualizar el proceso. En cuanto a quién se convierte en constructor del mundo, lo que hay que destacar es que cada modelo fundacional es un intento de crear un mundo, y la carrera está abierta, llena de posibilidades inexploradas. Por desgracia, aquí es donde terminan las implicaciones democráticas.

Este año surgirán una gran cantidad de agentes inteligentes: inteligencias artificiales que realizan un trabajo real en lugar de simplemente pensar y hablar, pasando de “charlar” a “hacer”. Estos agentes funcionan según un modelo básico, pero están entrenados para realizar tareas como organizar su agenda y reservar vuelos y hoteles, negociar acuerdos por usted, asistir a reuniones en su lugar o reemplazar a su médico durante las citas médicas de rutina. También pueden aparecer robots inteligentes y tal vez incluso empresas o firmas completamente dotadas de agentes de IA. El modelo básico es el mundo virtual dentro del cual operan estos agentes. Seguirá siendo el premio mayor.

En un mundo así no hay posibilidad de recurrir a una autoridad externa. El poder de la ingeniería ha establecido las reglas de antemano y es el único que disfruta de un acceso singular a ellas. Los hackers llaman a esto el modo Dios: acceso a todo y privilegios de root para hacer todo. Quienes diseñaron el modelo fundacional tendrán la capacidad de introducir “políticas” específicas. La ingeniería de indicaciones –esa manipulación deliberada de las indicaciones que los usuarios introducen en el modelo– es sólo un ejemplo. Los modelos tienen políticas que los desarrolladores les enseñan a seguir, y esas políticas pueden estar ocultas. Los usuarios de un gran modelo de lenguaje pueden no saber acerca de los sesgos ocultos si no tienen acceso a su funcionamiento interno o no comprenden cómo se entrenó o el conjunto de datos en el que se desarrolló, que pueden haber sido textos altamente selectivos.

A lo largo de la historia, las nuevas tecnologías han aumentado el potencial destructivo del conflicto directo. En la era de la inteligencia artificial, se ha abierto una nueva vía: los Estados pueden ahora luchar entre sí no ganando en batallas directas, sino construyendo el mundo que todos los demás deben habitar. Imaginemos una época en la que realmente exista un cerebro global que dirija todas las actividades sociales y económicas. Tal vez sea posible o incluso fácil insertar una política o un objetivo específico al que esas actividades deben contribuir, y ocultar esa política tan profundamente en el modelo que nadie, salvo quienes la construyeron, sepa nunca que está ahí.

Los modelos disponibles hoy en día pueden parecer simples chatbots, pero esto es solo el comienzo. DeepSeek nos enseñó dos lecciones importantes: primero, que el proceso se acelerará, o ya ha comenzado. Segundo, que la verdadera batalla es construir un modelo de la realidad que pueda adoptarse globalmente. Va mucho más allá de la infraestructura física. Un modelo fundacional es la infraestructura del pensamiento.

Digamos que es una forma de gobierno invisible, un regreso al mito de un rey oculto que gobierna el mundo desde la ciudad subterránea de Agartha. Tal vez sus oponentes supongan que la forma en que funcionan las cosas es natural o dada, que la realidad existe fuera del control humano, pero de hecho ustedes han ascendido un nivel en el gran juego. Su oponente está jugando un videojuego. Ustedes lo están codificando.

“Constructores de mundos: tecnología y la nueva geopolítica”, de Bruno Maçães, será publicado por Cambridge University Press el 13 de febrero

Publicado originalmente por New Statesman: https://www.newstatesman.com/technology/2025/02/deepseek-race-to-god-mode-ai

Bruno Maçães.-es corresponsal extranjero de New Statesman y fue ministro de Asuntos Exteriores de Portugal entre 2013 y 2015. También es autor de “Geopolítica para el fin de los tiempos: de la pandemia a la crisis climática”.

Por Víctor H. Becerra

Presidente de México Libertario y del Partido Libertario Mx. Presidente de la Alianza Libertaria de Iberoamérica. Estudió comunicación política (ITAM). Escribe regularmente en Panampost en español, El Cato y L'Opinione delle Libertà entre otros medios.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *