La versión actual de la IA ya edita nuestros correos electrónicos, ordena nuestras bandejas de entrada y elige la próxima canción que escuchamos. Pero la comodidad es solo el principio. Pronto, esta misma tecnología podría determinar qué ideas llegan a tu mente o se forman en ella.
Se avecinan dos futuros posibles. En uno, la inteligencia artificial se convierte en un censor oculto: las reglas de clasificación ocultas sofocarán la disidencia, el temor a la responsabilidad civil inhibirá la libertad de expresión, las recomendaciones predeterminadas y los mensajes halagadores debilitarán nuestro juicio, y la gente dejará de cuestionar la información que se le proporciona. Esto es una tiranía algorítmica.
En el otro, la IA se convierte en socia en la búsqueda de la verdad. Descubrirá contraargumentos, señalará preguntas abiertas, extraerá información que va mucho más allá de cualquier mente individual y nos impulsará a verificar la evidencia y las fuentes. Los errores se irán eliminando gradualmente y el conocimiento crecerá. Nuestra libertad para cuestionarlo todo se mantendrá intacta e incluso prosperará.
Hay mucho en juego. La IA actualmente controla aproximadamente una quinta parte de nuestras horas de vigilia, según nuestro análisis de uso del tiempo de 2024. Redacta nuestros contratos, diagnostica nuestras enfermedades e incluso redacta nuestras leyes. Los principios codificados en estos sistemas se están convirtiendo en la estructura oculta que configura el pensamiento humano.
A lo largo de la historia, los gobiernos han prohibido libros, clausurado periódicos y silenciado a sus críticos. Como descubrió Sócrates al ser condenado a muerte por «corromper a la juventud», cuestionar la autoridad siempre ha conllevado riesgos. El poder de la IA para moldear el pensamiento corre el riesgo de perpetuar uno de los patrones de control más antiguos de la humanidad.
El objetivo no ha cambiado, el método sí.
Hoy en día, el espectro de la censura va de lo obvio a lo sutil: el gran cortafuegos chino bloquea directamente el contenido para mantener el control del partido; los sistemas de verificación de datos aplican etiquetas con el objetivo de reducir la desinformación; las organizaciones toman pequeñas decisiones, orientadas a la seguridad , que reducen gradualmente lo que podemos ver; y las plataformas moderan excesivamente con la esperanza de parecer responsables. Las ideas controvertidas no tienen por qué prohibirse cuando simplemente desaparecen cuando los algoritmos, entrenados para «pecar de eliminado», silencian cualquier cosa que parezca arriesgada.
El costo de la supresión de ideas es personal. Imaginemos a un niño cuyo asma podría mejorar con un tratamiento no autorizado. Incluso si este medicamento es utilizado con éxito por miles de personas, una búsqueda con IA podría mostrar solo protocolos «aprobados», ocultando así la opción que salva vidas. Una vez que unos pocos sistemas centrales se conviertan en nuestro estándar de verdad, la gente podría creer que no vale la pena investigar ninguna alternativa.
Desde la medicina hasta las finanzas y la política, las fronteras invisibles ahora tienen el poder de moldear lo que podemos saber y considerar. Frente a estas amenazas en constante evolución, se alzan principios atemporales que debemos proteger y promover.
Estas incluyen tres ideas fundamentales , articuladas por el filósofo John Stuart Mill, para proteger el libre pensamiento: Primero, reconocer que los humanos cometemos errores. Las «verdades» abandonadas de la historia —desde la astronomía geocéntrica hasta las jerarquías raciales desacreditadas— demuestran que ninguna autoridad escapa al error. Segundo, aceptar las opiniones contrarias. Las ideas solo mejoran cuando se enfrentan a contraargumentos sólidos, y los problemas complejos rara vez encajan en una sola perspectiva. Tercero, cuestionar regularmente incluso las verdades aceptadas. Incluso las creencias correctas pierden fuerza si no se reexaminan con frecuencia.
Estos tres principios —lo que llamamos el » Tridente de Mill «— sientan las bases donde la verdad emerge mediante la competencia y la experimentación. Pero este intercambio necesita participantes activos, no consumidores pasivos. Los estudios demuestran que aprendemos mejor cuando nos hacemos nuestras propias preguntas en lugar de simplemente aceptar las respuestas. Como enseñó Sócrates, la sabiduría comienza con preguntas que revelan lo que desconocemos. En este intercambio de ideas, quienes más cuestionan adquieren el conocimiento más profundo.
Para mantener vivo el libre desarrollo del pensamiento en la era de la IA, debemos traducir estos principios atemporales en salvaguardias prácticas. Los tribunales tienen la facultad de limitar la censura gubernamental, y las protecciones constitucionales en muchas democracias son baluartes necesarios para defender la libertad de expresión. Pero estas protecciones legales se construyeron para controlar a los gobiernos, no para supervisar los sistemas privados de IA que filtran la información que nos llega.
Meta compartió recientemente las ponderaciones (los números brutos que conforman el modelo de IA) de Llama 3. Este es un avance positivo hacia la transparencia, pero Llama 3 aún oculta muchos datos. Incluso si fueran públicos, la exorbitante cantidad de dinero invertida en computación pone la replicación real fuera del alcance de casi todos. Además, muchos otros sistemas líderes de IA permanecen completamente cerrados, y su funcionamiento interno permanece completamente oculto al escrutinio externo.
Las ponderaciones abiertas ayudan, pero la transparencia por sí sola no resolverá el problema. También necesitamos una competencia abierta. Cada sistema de IA refleja decisiones sobre qué datos son importantes y qué objetivos perseguir. Si un modelo predomina, esas decisiones marcan los límites del debate para todos. Necesitamos la capacidad de comparar modelos en paralelo, y los usuarios deben tener la libertad de mover su atención (y sus datos) entre sistemas a voluntad. Cuando los sistemas de IA compiten abiertamente, podemos compararlos entre sí en tiempo real y detectar sus errores con mayor facilidad.
Para proteger verdaderamente la libre investigación en el futuro, los principios que valoramos deben integrarse en la propia tecnología. Por ello, nuestras organizaciones —el Instituto Cosmos y la Fundación para los Derechos Individuales y la Expresión (FIRE)— anuncian subvenciones por un millón de dólares para apoyar proyectos de IA de código abierto que amplíen el mercado de ideas y garanticen la libertad en el futuro de la IA.
Piensa en un contrincante de IA que desmiente tus presuposiciones y luego te guía; o en un escenario donde modelos de IA abiertos e intercambiables debaten a plena vista bajo una audiencia en vivo; o en un registro a prueba de manipulaciones que registra cada respuesta de un modelo de IA en un registro público, para que nada se pueda borrar discretamente y cada cambio sea visible para todos. Queremos sistemas de IA que ayuden a las personas a descubrir, cuestionar y debatir más, no a dejar de pensar.
Para nosotros, como individuos, el paso más importante es el más simple: seguir haciendo preguntas. La tentación de dejar que la IA se convierta en un «autocompletado de por vida» será irresistible. Depende de nosotros oponernos a los sistemas que no muestran su eficacia y buscar lo inesperado, lo ignorado y lo contrario.
Una buena IA debería agudizar tu pensamiento, no reemplazarlo. Tu curiosidad, y no cualquier algoritmo, sigue siendo la fuerza más poderosa para encontrar la verdad.
Publicado originalmente en Reason: https://reason.com/2025/05/16/will-ai-kill-our-freedom-to-think/
Brendan McCord es fundador y presidente del Cosmos Institute.
Twitter: @mbrendan1
Greg Lukianoff es presidente y director ejecutivo de la Fundación para los Derechos Individuales y la Expresión (FIRE) y coautor de The Canceling of the American Mind (Simon & Schuster) y The Coddling of the American Mind: How Good Intentions and Bad Ideas Are Setting Up a Generation for Failure (Penguin Press).
Twitter: @glukianoff
Philipp Koralus es investigador sénior del Cosmos Institute y director fundador del Laboratorio de IA Centrada en el Ser Humano (HAI Lab) de la Universidad de Oxford.
Twitter: @PhilippKoralus
.