En «La teoría de los sentimientos morales», Adam Smith identifica la simpatía, la decencia y el resentimiento como los elementos básicos del juicio moral. Su otra gran obra, «La riqueza de las naciones», muestra cómo los mercados surgen de esta psicología moral al transformar el interés propio individual en una compleja coordinación social mediante la división del trabajo, el comercio y el intercambio comercial.
Smith quería que se contaran ambas historias, porque cada una, sin la otra, está incompleta. El desarrollo moral sin la amplitud de horizontes del comercio se manifiesta como tribalismo, mientras que los mercados sin fundamentos morales se convierten en sistemas de frío cálculo. Juntas, se completan: el desarrollo moral crea los lazos sociales que permiten una coordinación beneficiosa, mientras que la coordinación social amplía nuestros horizontes morales.
Es una lección importante que debemos recordar al crear sistemas de IA que reconfigurarán el desarrollo moral y la coordinación social. A diferencia de las tecnologías que transforman sectores específicos —como el comercio, la gobernanza o la cultura—, la inteligencia artificial los transforma simultáneamente. La IA ya interviene en el 20 % de la vida cotidiana. Está transformando la forma en que recuperamos, transmitimos y descubrimos conocimiento, y posee un poder sin precedentes para moldear e influir en nuestros pensamientos y sentimientos. En casos extremos, esta tecnología podría funcionar como un «autocompletado» para la vida.
Este resultado es la culminación de la «deferencia a la IA», una tendencia emergente en la que las personas delegan su propio juicio a un sistema de IA en lugar de tomar decisiones por sí mismas. Pensemos en el conductor que sigue ciegamente Google Maps, incluso cuando le indica rutas obviamente imprácticas o peligrosas. O en los estudiantes que copian y pegan instrucciones en ChatGPT y entregan los resultados como si fueran suyos. O incluso en el fenómeno de los Claude Boys del año pasado , cuando unos jóvenes decidieron delegar por completo sus vidas al modelo de IA de Anthropic.
Es fácil descartar estas prácticas como absurdos de la era digital, un fracaso generacional en el desarrollo del juicio independiente. Sin embargo, pensadores serios defienden formas mucho más amplias de deferencia por parte de la IA con profundos fundamentos filosóficos. Cuando el juicio humano se muestra sistemáticamente poco fiable, la guía algorítmica comienza a parecer no solo conveniente, sino moralmente necesaria.
Este argumento a favor de la deferencia a la IA es intelectualmente formidable. Se basa en preocupaciones legítimas sobre la falibilidad humana y en tradiciones filosóficas reales sobre el razonamiento imparcial. Los humanos sistemáticamente ignoramos la escala, privilegiando a las víctimas identificables sobre las vidas estadísticas y descartando a las generaciones futuras. Nos cuesta coordinarnos ante desafíos como las pandemias globales, que requieren acción colectiva. Si los sistemas algorítmicos pueden abordar mejor estos problemas, negarse a la deferencia empieza a parecer negligencia. Pero el análisis de Smith sobre la psicología moral revela problemas fundamentales en este marco.
Para Smith, partir de lo particular es una ventaja, no un defecto. Y para los pensadores que se preocupan de que los humanos no puedan coordinarse eficazmente, sus escritos nos recuerdan que el orden impuesto obstaculiza, en lugar de apoyar, los intentos de coordinación orgánica.
Simpatía smithiana
Para Smith, la compasión siempre comienza en lo particular. Sentimos con la persona que tenemos delante, el vecino que sufre o el amigo que se alegra. Sentir con nuestros seres queridos es el primer campo de práctica para el juicio; así empezamos a comprender qué significan realmente la compasión y la justicia. Estos encuentros moldean nuestro sentido de la moralidad y permiten que se arraigue.
Partiendo de esta base, extendemos nuestra preocupación desde la familia a la comunidad y a los desconocidos. Cada capa de este círculo en expansión se construye sobre los hábitos formados en la anterior, aunque cada una conlleva una menor intensidad de apego y preocupación. El concepto de Smith del «espectador imparcial» no elimina estos vínculos, sino que nos invita a proyectarlos más allá. Nos permite transformar lo personal en un horizonte moral más amplio, reconociendo que siempre sentiremos más empatía por quienes nos son más cercanos que por quienes sufren en la distancia.
Este desarrollo se basa en nuestra capacidad mamífera básica para la empatía, refinada mediante la inteligencia humana y la interacción social. El rico flujo de información contextual que obtenemos de la interacción humana cara a cara —la vacilación en la voz, la forma en que se evita el contacto visual, la postura corporal ante la angustia— nos enseña a interpretar el sufrimiento genuino, la alegría auténtica y la fiabilidad del carácter. Estas son capacidades que los sistemas morales puramente racionales tienen dificultades para replicar o reemplazar.
En cambio, quienes defienden la deferencia de la IA rechazan este enfoque. Consideran que la empatía, basada en la experiencia, es parcial, miope e inadecuada para la escala. Su solución consiste en sustituir la empatía por algoritmos que contabilizan vidas estadísticamente o calculan el valor esperado. Desde su perspectiva, privilegiar a la víctima identificable sobre la multitud distante es un error moral.
Pero nuestra vida moral depende de nuestra capacidad de sentir con los demás. Se desarrolla en ámbitos específicos como la familia, la comunidad y la profesión. A menos que la guía moral parezca surgir de nuestra propia comprensión empática —a menos que apele a algo dentro de nosotros que reconozca su rectitud— incluso el sistema de reglas más racionalmente optimizado acabará sintiéndose como una tiranía. Smith comprendió que una moralidad sostenible debe internalizarse a través de nuestro propio desarrollo moral, no imponerse mediante una optimización externa.
En lugar de ver nuestras obligaciones con padres, amigos, colegas y vecinos como faltas que corregir, Smith nos invita a considerarlas como la base a través de la cual se aprende y se ejerce la responsabilidad moral. Nos enseña que el camino hacia una mayor benevolencia pasa por los vínculos locales: nos preocupamos por la humanidad porque primero nos preocupamos por nuestra gente, y esas lealtades adiestran la imaginación para expandirse aún más.
El ‘Hombre de Sistemas’ digital
Smith también advirtió contra lo que denominó el «hombre de sistema», que pretende «organizar a los distintos miembros de una gran sociedad con la misma facilidad con que la mano dispone las piezas sobre un tablero de ajedrez». Afirmó que el problema radica en que se olvida que cada pieza posee su propio «principio de movimiento», su propia voluntad e intereses que jamás podrán subordinarse por completo al designio de otra.
En su época, los pensadores sistémicos estaban en pleno auge. Los mercantilistas diseñaron planes para canalizar el comercio mediante aranceles y monopolios; los fisiócratas franceses elaboraron ambiciosos proyectos para organizar el Estado en torno a la agricultura; los legisladores propusieron planes para remodelar la vida jurídica y cívica. Todos partían de la premisa de que la sociedad podía mejorarse si las personas se organizaban según el modelo adecuado. Argumentaban que, cuando se deja a los individuos actuar por su cuenta, estos tienden a actuar en direcciones contradictorias. Una perspectiva centralizada (ya sea un gobernante, un plan o un algoritmo) puede armonizar esas voluntades dispares y prevenir el despilfarro o el conflicto.
Este programa partía de la premisa de que las prácticas y lealtades habituales son ineficientes o injustas. El cortejo tradicional supone una pérdida de tiempo que los algoritmos de emparejamiento podrían optimizar. Las preferencias de contratación locales ignoran a candidatos más cualificados en otros lugares. Las obligaciones familiares impiden que las personas maximicen su contribución económica. Al agrupar a los individuos en unidades comparables, los planificadores pueden diseñar sistemas que maximicen el bienestar a gran escala, incluso si ello implica dejar de lado las preferencias personales.
Smith pensaba de otra manera. Argumentaba que la sociedad no puede diseñarse desde arriba porque las personas son agentes movidos por sus propios deseos y necesidades. Creía que la coordinación no requiere un diseño centralizado y que el diseño impuesto crea desorden al ir en contra de las inclinaciones naturales de las personas. Esto no era solo una cuestión práctica de eficiencia, sino también moral respecto a la autonomía humana: la planificación centralizada es inviable e indeseable por las mismas razones fundamentales. Los mercados y las comunidades generan orden espontáneamente mediante la interacción de las decisiones individuales, mientras que los intentos de imponer la armonía desde arriba suelen perturbar este proceso orgánico.
Hoy nos enfrentamos a un nuevo «hombre digital del sistema». No se trata de un único planificador, sino de la lógica convergente de la optimización misma, integrada en innumerables sistemas de IA que prometen mejores resultados o mayor facilidad. Esta lógica acelera lo que podríamos llamar la «gubernamentalización» de la vida social. Transforma el complejo y contextual trabajo del juicio moral en datos precisos que pueden optimizarse para poblaciones enteras. El hombre digital del sistema se distribuye entre plataformas y aplicaciones, pero comparte la misma premisa fundamental: que la autonomía humana es un problema que debe gestionarse, en lugar de una capacidad que debe cultivarse.
La advertencia de Smith contra el hombre de sistema no era un rechazo al orden en sí, sino al orden impuesto desde arriba que ignora la autonomía vital de los seres humanos. Creía que las sociedades prosperan cuando aprovechan los juicios y vínculos de los individuos. Tratar a las personas como piezas que deben organizarse —ya sea mediante esquemas mercantilistas o modelos de aprendizaje automático— olvida que nuestro «principio de movimiento» es lo que, en primer lugar, nos convierte en agentes libres.
El campo de prácticas
Smith imaginó una sociedad de agentes autónomos, no simples seguidores de reglas, que emergería de los procesos sociales a través de los cuales desarrollamos la imaginación empática y aprendemos a moderar nuestras pasiones mediante encuentros con los demás.
Sin estas personas, nos enfrentamos a dos peligros: una burocracia rígida, donde todo debe estar regulado porque no se puede confiar en que nadie ejerza discreción; o un oportunismo depredador, donde las personas explotan cualquier resquicio legal porque no han desarrollado la capacidad de considerar las consecuencias más amplias.
La deferencia hacia la IA, llevada al extremo, corrompe los fundamentos de la vida moral, ya que las personas recurren a la IA en lugar de desarrollar su propia capacidad de juicio moral.
¿Pero qué pasaría si invirtiéramos esto? ¿Qué pasaría si usáramos la IA para apoyar, y no para reemplazar, la labor irreductiblemente humana de la formación moral?
Tengo dos hijos, uno de cuatro y otro de seis años, y me encuentro lidiando con decisiones que jamás imaginé tener que afrontar como padre. Cuando mi hijo de cuatro años pregunta «¿Por qué el mar es salado?», suelo recurrir a la IA para obtener explicaciones claras y adecuadas a su edad, que, francamente, son mejores que las que yo podría darle en el momento.
Pero cuando mi hijo pregunta: «¿Por qué no puedo coger el juguete de mi amigo si tiene dos?», la cosa cambia. La IA podría ofrecer una explicación perfecta sobre los derechos de propiedad, la empatía y teorías alternativas de la justicia. A veces, me cuesta mucho explicar conceptos morales complejos a un niño de preescolar y a otro de primero de primaria, adaptándome a su nivel. Pero Smith diría que mis torpes e incompletos intentos de traducir la comprensión moral adulta a la sabiduría infantil son precisamente lo que nos ayuda a crecer a ambos.
Cuando me esfuerzo por explicarles a mis hijos qué es la justicia —basándome en mi comprensión no solo del concepto, sino también de su temperamento, los valores de nuestra familia y la situación específica que suscitó la pregunta—, esa es la labor insustituible de la transmisión moral. No se trata solo de que mis hijos aprendan una regla, sino de que cada uno de nosotros desarrolle una comprensión moral al intentar conciliar diferentes perspectivas. Ellos me enseñan, al mismo tiempo que yo les enseño a ellos.
Así comienza el desarrollo moral: a través del encuentro cotidiano entre personas que se preocupan unas por otras y tratan de comprender la experiencia del otro. Usemos la IA para las preguntas en las que una mejor información nos hace más inteligentes. Úsela para despertar la curiosidad de sus hijos por la oceanografía. Pero preservemos las conversaciones sobre moral como el ámbito insustituible donde padres e hijos desarrollan la capacidad de juicio que Smith consideraba la base del florecimiento humano.
Smith confiaba en que el orden beneficioso surge cuando los agentes morales interactúan libremente. Esa confianza no era ingenua. Se basaba en su comprensión de que la capacidad moral se desarrolla únicamente mediante la labor insustituible de la interacción empática. Si la sacrificamos por la facilidad de la guía algorítmica —si la IA se convierte en nuestro «autocompletado para toda la vida»— corremos el riesgo de perder el legado que Smith buscaba preservar.
Esta es una versión editada de la conferencia de Brendan McCord sobre Adam Smith, impartida en Panmure House a principios de este mes. Puede ver la conferencia completa aquí .
Publicado originalmente en Cap X: https://capx.co/would-adam-smith-trust-chatgpt
Brendan McCord.- es miembro de la junta del Mercatus Center. Es el fundador y presidente del Cosmos Institute y un pensador clave en la intersección de la IA y la filosofía. En el sector privado, Brendan fue el CEO fundador de dos startups de IA.
X: @mbrendan1

