La inteligencia artificial (IA) podría ser la revolución tecnológica más prometedora de todos los tiempos. La IA promete impulsar la atención médica y la medicina, acelerar los descubrimientos científicos, transformar la educación y el aprendizaje, e impulsar drásticamente la productividad y la riqueza.

Los beneficios que ofrece la IA no son teóricos, solo se materializarán en un futuro lejano e incierto. La mayoría de mis compañeros utilizan regularmente herramientas de IA en mi organización para aumentar su productividad y potenciar su creatividad. La eficiencia obtenida mediante la IA les permite dedicar más tiempo a la reflexión razonada y profunda, lo que permite que nuestro trabajo genere mayor impacto y mejores resultados.

Como solo un ejemplo del mundo corporativo, Microsoft ha informado que el aumento de la productividad y la eficiencia impulsado por la IA en sus centros de llamadas ha generado ahorros de 500 millones de dólares en un solo año. Y ya hemos visto aplicaciones vitales de esta tecnología en áreas tan diversas como la recuperación de accidentes cerebrovasculares y la lucha contra incendios forestales.

Pero los beneficios hasta la fecha podrían ser insignificantes comparados con lo que nos depara el futuro cercano. Sí, algunos expertos creen que las ganancias derivadas de la aplicación de la IA serán modestas: del orden de un aumento del 1% al 2% del producto interior bruto (PIB) estadounidense durante la próxima década. Y aunque no es algo despreciable, los analistas más optimistas prevén un aumento del PIB de hasta un 8% o incluso un 15% en el mismo período.

La amenaza regulatoria al progreso

La extralimitación de la regulación gubernamental puede suponer una grave amenaza para las tecnologías emergentes y prometedoras. Esto es especialmente cierto en el caso de la IA, donde muchos pronosticadores han argumentado que podría suponer riesgos sustanciales, incluso existenciales, para la humanidad. Esto ha puesto a los responsables políticos y a los reguladores en alerta máxima para detectar las amenazas emergentes de la IA y los ha predispuesto a aplicar una regulación drástica para abordar dichas amenazas percibidas.

La mayoría de nosotros no somos tecnólogos ni, Dios sabe, futuristas. Pero todos reconocemos uno de los patrones más comunes de la historia: el surgimiento de una tecnología prometedora casi siempre viene acompañado de temores a sus riesgos o desventajas, a menudo incluyendo escenarios catastróficos. Y en todos los casos históricos, las tecnologías sí conllevaron riesgos y desventajas, pero estas fueron eclipsadas por los enormes beneficios para la humanidad. Los argumentos en contra de la IA no carecen de verosimilitud. Pero aún más verosímil es el argumento de que la IA podría ser una de las tecnologías más beneficiosas que la humanidad haya creado jamás.

Es por esto que la sobrerregulación es particularmente preocupante en el caso de la IA.

En primer lugar, el coste de equivocarse —de sofocar la tecnología y negar a la sociedad sus ventajas— es incalculable. Y frenar la innovación en IA puede, en sí mismo, causar daños; por ejemplo, al ralentizar inventos que salvan vidas, como los coches autónomos y las herramientas sanitarias, o al denegar el acceso a aplicaciones de ciberseguridad basadas en IA.

En segundo lugar, el impulso a la regulación para que la IA sea «segura» enfrenta los temores especulativos con los beneficios tangibles y crecientes de la tecnología. Irónicamente, «regular la IA para que sea segura» seguramente será una tarea inútil: así como no se puede detener el flujo del agua, la evolución de las capacidades avanzadas de IA, tanto buenas como malas, sin duda avanzará a buen ritmo, independientemente de las regulaciones promulgadas por Estados Unidos u otros países desarrollados de Occidente. El resultado más probable será colocar a Estados Unidos en desventaja competitiva frente a la otra superpotencia de la IA, China. Y con herramientas de IA gratuitas, de código abierto y de alta calidad fácilmente disponibles, es difícil imaginar cómo la regulación podría impedir que las personas usen dichas aplicaciones, que simplemente pueden descargarse de internet.

A esta amenaza se suma el riesgo de captura regulatoria. Las grandes empresas establecidas a menudo se convierten en promotoras de la regulación, ya que esta les ayuda a consolidar sus posiciones: pueden presionar a favor de regulaciones, cuyo coste pueden absorber fácilmente, sabiendo que los competidores más pequeños y emergentes no pueden. Las startups innovadoras son, lógicamente, las menos capaces de soportar dicha carga. En el ámbito de la IA, las regulaciones basadas en el tamaño del modelo o los recursos computacionales favorecen inherentemente a las grandes empresas frente a las empresas emergentes innovadoras que, de otro modo, podrían desarrollar enfoques más eficientes.

Aprendiendo de la historia

Hoy en día, siete de las diez empresas más valiosas del mundo son gigantes tecnológicos estadounidenses. Una razón de este éxito es la prudencia con la que los legisladores estadounidenses han regulado la tecnología en general, y el internet en particular, durante los últimos 25 años. Sin embargo, podríamos terminar siguiendo un camino muy diferente con la tecnología de IA, que es al menos igual de prometedora.

Mi colega, Jennifer Huddleston, investigadora sénior de Cato, observó: “Gran parte del debate en torno a las políticas de IA se ha basado en la presunción de que esta tecnología es inherentemente peligrosa y necesita intervención y regulación gubernamental”.

Esta mentalidad motivó a la administración del presidente estadounidense Joe Biden a emitir su “Orden ejecutiva sobre el desarrollo y uso seguro, protegido y confiable de la inteligencia artificial” en octubre de 2023. La orden ejecutiva se centró significativamente en las posibles desventajas de la IA, incluida la seguridad, las amenazas a la privacidad y los derechos individuales, los riesgos del mercado laboral relacionados con la dilución o eliminación de empleos y el potencial de los algoritmos de IA para exacerbar los sesgos o la discriminación.

El amplio alcance de la orden ejecutiva prometía crear amplios requisitos de información y un marco regulatorio significativo. Sin embargo, gran parte de este marco permaneció indefinido, ya que numerosas agencias gubernamentales se encargaron de desarrollar normas, directrices y regulaciones para abordar preocupaciones muy generales en una amplia gama de industrias y disciplinas.

Una medida tan temprana y exhaustiva hacia la regulación de la IA levanta dos banderas amarillas.

En primer lugar, si bien el desarrollo y la aplicación de la inteligencia artificial han abarcado décadas, la rapidez con la que esta tecnología avanza actualmente implica que aún nos encontramos en las primeras etapas de su evolución. Quizás sea el colmo de la arrogancia de los responsables políticos creer que, en un momento como este, se podría diseñar e implementar un marco regulatorio que sea eficaz para lograr sus ambiciosos objetivos sin obstaculizar la tecnología ni perjudicar a la industria estadounidense de la IA. La trayectoria y el impacto general de la IA siguen siendo demasiado inciertos.

En segundo lugar, esta incertidumbre sugiere que cualquier avance hacia una regulación integral podría ser desaconsejable. Esto es sin duda cierto cuando dicha medida se realiza mediante una orden ejecutiva. Si Estados Unidos considera adoptar una regulación significativa sobre IA a nivel federal, los riesgos y la incertidumbre hacen crucial, en este contexto, respetar nuestra arquitectura constitucional. Es decir, que los cambios significativos en las políticas de IA se implementen únicamente mediante el proceso legislativo, en lugar de órdenes ejecutivas, y que los tribunales apliquen las leyes vigentes a las aplicaciones emergentes de IA sin adoptar nuevas teorías jurídicas.

La actual administración estadounidense, bajo la presidencia de Donald Trump, dio un paso en la dirección correcta al revocar la orden ejecutiva sobre IA de 2023 del presidente Biden a la mayor brevedad posible. Y su Plan de Acción de IA para Estados Unidos , publicado recientemente, articula algunos objetivos sensatos para las políticas de IA. Entre ellos, destacan la eliminación de las barreras que limitan el desarrollo y la aplicación de la IA, la promoción de la IA de código abierto y la reducción de las barreras regulatorias que impiden el desarrollo de la infraestructura crítica necesaria para respaldar el creciente uso de la IA.

Sin embargo, el plan de acción también sugiere un papel del gobierno federal en la educación sobre IA, la capacitación de los trabajadores y diversas inversiones y apoyos potenciales en un amplio espectro del ecosistema de IA. Si bien se necesitan más detalles para comprender plenamente el alcance de estas posibles intervenciones, es probable que revelen una confianza en la eficacia de dichas acciones gubernamentales que la experiencia histórica desmiente.

Y quizás la omisión más flagrante del plan de la administración sea cualquier mención a la posible inmigración y la retención de talento internacional para impulsar los esfuerzos de Estados Unidos en inteligencia artificial. Si bien se defiende con vehemencia la necesidad de que Estados Unidos «gane la carrera de la IA» con China, no se menciona uno de nuestros activos más importantes en este sentido: el deseo de tantas personas en todo el mundo —que, sin duda, incluye a los mejores investigadores e ingenieros de IA— de emigrar a Estados Unidos. Dada la postura general de la administración sobre la inmigración, quizás esto no sea una sorpresa. Pero, sin duda, es un error.

El camino por delante

Se podría argumentar que el sector tecnológico es una de las pocas historias de éxito del régimen regulatorio estadounidense en este siglo: un enfoque liviano y orientado al mercado que tuvo cuidado de preservar el enorme potencial alcista de la industria sin una fuerte presunción de riesgo de caída.

Deberíamos permitir que la historia se repita y seguir un rumbo similar en la futura regulación de las tecnologías de IA. Con cada innovación que conlleva sus propios riesgos, tendemos a olvidar que un conjunto de leyes existentes, incluidas las relacionadas con el fraude, la discriminación y la protección del consumidor, es suficiente para abordar gran parte de las posibles desventajas. Además, antes de recurrir a la regulación, conviene considerar las alternativas. Por ejemplo, la educación y la alfabetización digital desempeñan un papel importante en la protección de las personas contra el fraude y otras amenazas facilitadas por la IA, como los deepfakes. Estas defensas empoderan a los consumidores a la vez que preservan los beneficios de la innovación en IA.

Finalmente, otra lección de la explosión de nuevas tecnologías en los últimos 30 años y el dominio estadounidense del sector es el papel crucial que desempeña el extraordinario talento que Estados Unidos logra atraer. La prevalencia de inmigrantes entre los líderes de las empresas tecnológicas estadounidenses y las prometedoras startups tecnológicas debería sernos reveladora.

Para hacer realidad la promesa de la inteligencia artificial, no podemos erigir cargas regulatorias que amenacen con matar lo que podría ser una gallina de los huevos de oro. Y si Estados Unidos se toma en serio, como afirma, mantener su liderazgo en IA, como lo ha hecho en tantas otras áreas tecnológicas, las barreras gubernamentales y regulatorias a la migración de talento y la innovación deben desaparecer y mantenerse.

Publicado originalmente por Banker International: https://internationalbanker.com/technology/why-ai-overregulation-could-kill-the-worlds-next-tech-revolution/

Peter Goettler , presidente y director ejecutivo del Cato Institute.




Por Víctor H. Becerra

Presidente de México Libertario y del Partido Libertario Mx. Presidente de la Alianza Libertaria de Iberoamérica. Estudió comunicación política (ITAM). Escribe regularmente en Panampost en español, El Cato y L'Opinione delle Libertà entre otros medios.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *