La periodista e ingeniera Karen Hao es una  de las voces más influyentes a la hora de hablar de inteligencia artificial y cómo está reconfigurando el mundo desde los laboratorios de Silicon Valley hasta las comunidades que sufren el impacto directo de su existencia en el Sur Global. Tras su paso por MIT Technology Review y The Wall Street Journal en su libro El imperio de la IA (Península), Hao reconstruye el ascenso de OpenAI como un auténtico imperio tecnológico, obsesionado con la escala, la captura de poder y la extracción de recursos. Muy lejos de la organización sin ánimo de lucro que empezó siendo.

PUBLICIDAD

Hao traza una radiografía del nuevo orden que se está consolidando alrededor de la inteligencia artificial generativa.​​ Hao conecta esa carrera por la IA con la explotación laboral en países como Kenia, los conflictos medioambientales en Chile y los riesgos que estas tecnologías plantean para la democracia y los derechos fundamentales. 

Pregunta: ¿Por qué hay un imperialismo subyacente en la expansión de la inteligencia artificial?

Respuesta: Llamo imperios a estas empresas porque las tácticas con las que han acumulado una cantidad extraordinaria de poder económico y político son muy similares a las de los imperios clásicos. En el libro señalo cuatro paralelismos principales: El primero es que reclaman recursos que no les pertenecen, incluido el uso de los datos con los que entrenan sus modelos. El segundo es que explotan una cantidad extraordinaria de trabajo. Esto incluye tanto a los trabajadores contratados en otros países para tareas de anotación de datos y moderación de contenidos, como el hecho de que sus modelos están diseñados para automatizar el trabajo humano. Esa no es una característica inherente de la inteligencia artificial, sino una decisión política deliberada de estas compañías para producir una tecnología que sustituye mano de obra. El tercero es que monopolizan la producción de conocimiento. Actualmente, estas empresas controlan a la mayoría de los investigadores en IA del mundo, ya sea contratándolos directamente o financiando su trabajo en el ámbito académico. Eso significa que buena parte de la “ciencia” que se produce responde a intereses corporativos, no al interés público. Así, no existe una comprensión real de las limitaciones y capacidades de estas tecnologías: solo entendemos aquello que la empresa —o el imperio— quiere que entendamos sobre ellas.

El cuarto paralelismo es que los imperios siempre articulan un relato moral o existencial sobre sí mismos: se presentan como el “buen imperio”, en una misión civilizadora para llevar progreso y modernidad a la humanidad. Estas compañías adoptan el mismo discurso, afirmando que compiten contra un “imperio del mal” que, si logra acaparar los recursos, la mano de obra y el territorio, llevará a la humanidad a la devastación o a una especie de infierno de la IA. Según su narrativa, solo el “buen imperio” debe tener acceso a todos esos recursos, porque así podrá conducirnos hacia una utopía o un “cielo de la inteligencia artificial”.

P: ¿Se ha convertido la IA en un elemento geopolítico más?

R: En realidad, no estoy de acuerdo con la idea general de que estemos en algún tipo de carrera armamentista tecnológica. Lo que sí comparto es que Silicon Valley intenta imponer la narrativa de que ellos representan a Occidente, equiparando la situación con la carrera nuclear, presentándose como los "buenos" frente a unos "nazis" del otro lado. Pero la inteligencia artificial es una tecnología muy diferente a las armas nucleares, porque es fundamentalmente software. Las armas nucleares son una tecnología física que puede ser contenida, mientras que el software se propaga fácilmente a través de fronteras.

El software es, en esencia, muy difícil de controlar porque consiste principalmente en conocimiento sobre cómo construirlo. La historia del desarrollo de la IA muestra que ha habido mucha colaboración transfronteriza, especialmente entre EE. UU. y China. De hecho, uno de los avances más importantes en IA fue producto de esa colaboración: la red neuronal residual, precursora del auge de la IA generativa. Esta red neuronal fue crucial para aplicaciones en salud, educación e industrias diversas y fue inventada por investigadores chinos en la oficina de Microsoft en Pekín, demostrando cómo el intercambio de ideas a nivel internacional impulsa la innovación.

Ahora, Silicon Valley intenta negar o ignorar esta colaboración transnacional, como si no existiera, y promueve la idea de que la IA estadounidense es pura y superior, y que cualquier otro tipo de IA podría traer consecuencias devastadoras. Sin embargo, en los últimos diez años este discurso ha fortalecido precisamente el ecosistema chino de IA, que ha ganado terreno con modelos abiertos que están siendo usados incluso por empresas de Silicon Valley. Por lo tanto, esta narrativa no es cierta y no ha dado a EE. UU. ninguna ventaja decisiva en la dominancia de la IA. La realidad es que la colaboración internacional sigue siendo fundamental y la competencia no excluye la cooperación en este campo.

P: Ese discurso tiene un fin utilitarista que se hace sobre el temor de una Inteligencia artificial general (IAG) que unos temen que va a llegar y otros que no.

R: Señalabas que hay personas que creen que la IAG podría llegar, y otras que piensan que no. Creo que lo primero es reconocer que, como bien dijiste, ambas posiciones son creencias: no existe evidencia científica que confirme una u otra. Este año, el 75 % de los investigadores encuestados afirmó que no cree que las técnicas y el rumbo actuales nos conduzcan a una inteligencia artificial general, y que aún hay mucha incertidumbre sobre si llegar a ella será siquiera posible.

Aun así, la idea de que pueda surgir un sistema de IA con inteligencia humana —o incluso superior— se ha difundido en ciertos círculos tecnológicos, en parte del público y entre algunos responsables políticos. Esa narrativa permite a las grandes compañías justificar su carrera frenética por alcanzarla: bajo ese relato, se presentan como los “buenos” que deben llegar primero. Coincido contigo en que es una lógica claramente utilitarista, porque utilizan el fin —una “buena” IAG o una “superinteligencia benéfica”— para justificar los daños que provocan en el camino.

La industria de la IA es extractivista; extrae recursos de la tierra, los datos, el trabajo, la energía, el agua y el capital.

De esta manera, sostienen que, aunque hoy estén acelerando el cambio climático con la construcción de enormes centros de datos alimentados con combustibles fósiles, eso no importa demasiado, porque algún día esa IAG resolverá el problema; o, en el peor de los casos, si no la crean ellos, lo hará una “IAG malvada” que podría destruirnos. De modo que, según esa lógica, lo correcto es seguir construyendo y avanzar sin freno. Por eso este tipo de discurso resulta tan problemático: permite que las empresas continúen causando perjuicios reales, demostrables y actuales, mientras se eximen de responsabilidad amparándose en una idea puramente teórica de que en el futuro podría surgir algo supuestamente mejor... o terriblemente peor.

P: Es el miedo el gran motor de la Inteligencia artificial.

R: En muchos aspectos, sí lo es. Pero, al mismo tiempo, la otra cara de la moneda es que la esperanza también funciona como un enorme motor para la IAG . Las empresas apelan a uno u otro sentimiento según el público al que se dirijan y lo que consideren más eficaz. Por ejemplo, Altman suele decir que la IAG también va a resolver el cambio climático o curar el cáncer. Eso no busca despertar miedo, sino seducir con grandes sueños: visiones fantásticas de un futuro mucho mejor. En definitiva, se trata de usar la utopía o la distopía, la zanahoria o el palo, según convenga.  

P: Con lo cual, son creencias.

R: La fe es un componente fundamental que impulsa todo el fanatismo en torno a esta tecnología. Por eso abro el libro con una cita de Sam Altman que dice que los fundadores más exitosos no buscan crear empresas, sino religiones. Creo que esa frase resume perfectamente cómo comprender a OpenAI, su búsqueda de la IAG y el efecto que está teniendo en las personas.  

P: ¿Es la IA una industria extractivista? 

R: Es extractiva en muchos sentidos. Sí, creo que esa es una buena forma de resumirlo.  Extrae recursos de la tierra, los datos, el trabajo, la energía, el agua y el capital. En última instancia, como bien señalaste, todo se reduce a la extracción del entorno y del conocimiento intelectual. 

P: ¿Por qué aseguras que la ciencia cautiva en torno a la inteligencia artificial? 

R: En los últimos diez años se ha producido una gran migración en el ámbito de la investigación en inteligencia artificial. Tradicionalmente, la mayor parte de esta labor se realizaba en el mundo académico, pero hoy la mayoría de los investigadores en IA reciben algún tipo de financiación de las grandes tecnológicas: ya sea porque trabajan directamente en ellas, o porque, aun permaneciendo en la universidad, su investigación está íntegramente sufragada por esas empresas.

Esto les otorga a las compañías un poder considerable —tanto blando como duro— sobre el tipo de investigación que se lleva a cabo. El poder blando se ejerce, por ejemplo, al financiar solo determinadas líneas de trabajo, o al favorecer, dentro del entorno corporativo, que solo ciertas ideas circulen entre colegas y que ciertos proyectos sean aprobados por los ejecutivos. Pero también existe una influencia dura, cuando se censuran estudios que no resultan convenientes para la empresa.

Un ejemplo claro es el de Timnit Gebru, la investigadora que codirigía el equipo de IA ética en Google. Cuando publicó un artículo crítico sobre los grandes modelos de lenguaje, Google decidió despedirla. Como consecuencia, el público no tiene una visión completa ni transparente de cuáles son las verdaderas capacidades y limitaciones de estas tecnologías.

Es una situación análoga a lo que ocurriría si la mayoría de los científicos del clima dependieran económicamente de las compañías petroleras: nuestra comprensión de la crisis climática estaría distorsionada, porque las petroleras harían todo lo posible por impedir que se difundieran datos que perjudicaran sus intereses. Y eso es, precisamente, lo que está pasando en la industria de la inteligencia artificial.

P: ¿La industria de la IA debería ser fiscalizada? ¿Qué tipo de regularización se necesita para la IA?

R: Creo que los impuestos podrían ser uno de los muchos mecanismos posibles. En última instancia, necesitamos contener el poder de estas empresas en múltiples direcciones. Por ejemplo, deberíamos aumentar la transparencia sobre sus actividades para que la gente pueda protestar cuando no les gusten.

Deberíamos saber qué tipo de datos utilizan para entrenar sus modelos de IA, si emplean ciertas propiedades intelectuales, dónde construyen sus centros de datos, cuánta energía consumen, cuánta agua requieren para refrigerarlos, y a quién venden realmente sus productos. Hay dos capas de empresas: los desarrolladores de modelos y los de aplicaciones, y no hay una comprensión clara de la cadena de suministro entre ellos. 

En la vida cotidiana, podrías ir al médico y su aplicación de IA podría enviar tus datos a OpenAI, Google u otra compañía sin que lo sepas; lo mismo ocurre con los profesores en las escuelas, donde no sabes adónde va la información capturada por la IA.

las compañías eléctricas suben las tarifas a los usuarios promedio para compensar la demanda extra de los centros de datos de la IA

Además, deberíamos pensar en cómo redistribuir la acumulación de capital de estas empresas, ya sea mediante impuestos o exigiendo que paguen un salario mínimo a los anotadores de datos y moderadores de contenido que contratan. También habría que limitar los subsidios gubernamentales que reciben para construir centros de datos, ya que muchos costos energéticos se cubren con dinero de los contribuyentes: las compañías eléctricas suben las tarifas a los usuarios promedio para compensar la demanda extra de los centros de datos de la IA.

De esta forma, estas empresas no están ofreciendo a la sociedad ni a los individuos un intercambio justo de valor por lo que extraen de todos. El objetivo principal debería ser presionar contra ellas para lograr ese equilibrio justo, ya sea mediante accountability pública —con la gente expresando sus preocupaciones— o a través de legislación y regulación gubernamental.

P: ¿Cuál es el peligro de la IA que no estamos encarando como sociedad?

R: Quiero aclarar primero que la IA es un conjunto de muchas tecnologías diferentes. Por tanto, las amenazas que percibo están ligadas específicamente al tipo de IA que Silicon Valley desarrolla actualmente: modelos a gran escala que exigen enormes recursos y capital. Existen numerosos sistemas de IA que no siguen este patrón, son altamente eficientes en costos, no necesitan centros de datos masivos y aportan grandes beneficios a la sociedad.

Para mí, hay varias amenazas, pero una clave es que, al absorber todos los recursos para este tipo de IA concreto, estas empresas limitan nuestra capacidad de innovar no solo en IA, sino en cualquier tecnología esencial. Un artículo de Bloomberg reveló que las inversiones en tecnologías climáticas han caído drásticamente, ya que los inversores que antes apostaban por ellas ahora financian estos costosos modelos de IA a gran escala. Esa es una amenaza concreta.

La mayor amenaza surge si consideramos que estas compañías representan nuevas formas de imperio, esto nos devuelve a una era imperial en la que unos pocos en la cima afectan profundamente a miles de millones de personas en todo el mundo, sin que estas tengan libertad ni control real sobre sus vidas. Esa es, para mí, la amenaza fundamental, la democracia no sobrevivirá si permitimos a las empresas de IA expandirse sin rendir cuentas.

PUBLICIDAD