Edición

Borrar

Karen Hao

La ingeniera que destapa los trapos sucios de la IA

"Las tecnológicas operan como los imperios coloniales"

Esta ingeniera está en la lista negra de Sam Altman, el director ejecutivo de OpenAI, creadora de ChatGPT. Las investigaciones de Karen Hao se han convertido en libros superventas que desvelan el lado oscuro de esta compañía y de las grandes tecnológicas. Hablamos con ella.

Viernes, 24 de Octubre 2025

Tiempo de lectura: 10 min

Karen Hao es un dolor de muelas para Silicon Valley. Hija de inmigrantes chinos que trabajaban como científicos computacionales en Nueva Jersey, Hao parecía destinada a integrarse en la industria tecnológica. Estudió Ingeniería en el Instituto Tecnológico de Massachusetts y trabajaba en una start-up surgida del laboratorio X, el brazo ultrasecreto de Google. Pero lo que vio no le gustó. «La mayoría de estas empresas no se sostiene sin la financiación de fondos de capital riesgo (venture capital). Son estos fondos los que deciden qué tecnología llega al mundo. Y los guía el lucro rápido, no el bien social. Como no podía cambiar el sistema desde dentro, decidí documentarlo», explica. Primero destapó el infierno de cientos de miles de trabajadores en precario que entrenan a la inteligencia artificial. Su serie de reportajes impulsó una investigación del Congreso de Estados Unidos. Ahora desvela los trapos sucios de los amos de la IA.

En 2020, Hao publicó el primer gran perfil de OpenAI, que por entonces preparaba las primeras versiones de lo que terminaría siendo ChatGPT. El artículo contaba cómo la compañía estaba traicionando su misión original de transparencia que venía incluso en el nombre, open, 'abierto'. Sam Altman, director ejecutivo de OpenAI, la puso en la lista negra. Pero Hao siguió investigando y en mayo publicó Empire of AI. Altman intentó desacreditarla en X (antes, Twitter), pero logró el efecto contrario: los lectores se lanzaron a averiguar qué había en esas páginas que tanto le molestaba.

El libro entró en la lista de best sellers del New York Times. Península publica la edición española a finales de noviembre. Hao atiende a XLSemanal desde Hong Kong.

XLSemanal. ¿Cómo logró hablar con decenas de empleados y directivos de OpenAI para este último libro a pesar del veto de Sam Altman?

Karen Hao. Muchos querían hablar precisamente por ese primer artículo. Me decían: «Tú no publicas lo que quieren los jefes». Para algunos fue casi terapéutico. Otros sentían que estaban haciendo historia y querían que alguien lo contara.

XL. Su libro se titula Imperio de IA. ¿Por qué 'imperio'?

K.H. No son simples negocios. Operan a una escala y con una influencia extraordinaria. Y sus tácticas son idénticas a las de los imperios coloniales.

«Hay un submundo laboral invisible que, sin contrato y con salarios miserables, hace el trabajo sucio de la IA»

XL. ¿Qué tácticas?

K.H. Primero, se apropian de recursos que no son suyos: datos de Internet, material protegido de artistas y escritores… Segundo, la explotación laboral: un submundo invisible de gente sin contrato que hace el trabajo sucio de la IA por salarios miserables. Tercero, monopolizan el conocimiento: han contratado a los mejores científicos de IA del mundo, así que las investigaciones están condicionadas por sus intereses.

XL. ¿En qué sentido?

K.H. Es como si todos los científicos del clima trabajasen para petroleras. La investigación se centra en escalar modelos, en hacerlos más grandes, porque eso justifica inversiones astronómicas. Hay poquísima investigación independiente sobre la eficiencia o los daños de la IA. Por si todo esto fuera poco, además usan una narrativa de buenos y malos.

XL. Explíquese.

K.H. Se presentan como una misión civilizadora que traerá progreso a la humanidad. Pero advierten que si los «imperios malvados» –primero Google, ahora China– llegan antes será la ruina.

XL. Altman escribió que «la gente más exitosa construye religiones» y que «la mejor manera de construir una religión es fundar una empresa». ¿Va en serio?

K.H. No es retórica. Google quería «organizar la información del mundo». Hay ambición ahí, pero Google no te promete el cielo. Altman va más allá: se dio cuenta de que necesitas dar a la gente una creencia. Es la forma más poderosa de acumular control: ofrecer a inversores, empleados y usuarios algo en lo que creer que se vuelve más grande que ellos mismos.

XL. ¿Y eso es lo que ha pasado con la IA?

K.H. Exacto. Hablan de estas tecnologías como si fueran a traernos el nirvana. O la destrucción total si se hace mal.

XL. Muchas fuentes describen a Altman como un mentiroso compulsivo.

K.H. En Silicon Valley, para un líder visionario es más importante contar una buena historia que ser sincero.

alternative text
Alta tensión. Sam Altman, el director ejecutivo de OpenAI, antes de un evento reciente en Berlín.

XL. Compara a Altman con Elon Musk y ninguno sale bien parado…

K.H. Altman quiere que lo escuches, pero que no sepas lo que piensa. Musk habla sin filtro. Algunas personas prefieren a Musk porque creen que lo ven venir. Otras ven a Altman más estable. Y muchas no prefieren a ninguno y consideran que ambos tienen problemas profundos.

XL. El antiguo jefe de Altman, Paul Graham, dijo que si dejases caer a Altman en una isla de caníbales se haría con el poder en cinco años. ¿Está de acuerdo?

K.H. Tal vez. Sigue siendo increíblemente persuasivo y también acumulando poder como nadie, pero mucha gente ya no confía en él.

XL. Usted ha documentado cómo Altman ideó la metamorfosis de OpenAI: de organización sin ánimo de lucro a una de las empresas más lucrativas de Silicon Valley en solo 18 meses.

K.H. En sus inicios, OpenAI era una más del montón. Para volverse competitiva, el principal obstáculo era el talento. Necesitaban reclutar a investigadores top. No podía competir en salarios, pero sí en tener una misión, ese sentido de propósito que te inspira. Así convencieron a Ilya Sutskever, que dejó Google, aceptando un recorte de salario brutal. Lo invitaron a una cena a la que solo fue porque asistiría Musk (cofundador de OpenAI), que por entonces encarnaba esa idea del líder visionario.

XL.  Y el talento ya no fue un obstáculo…

K.H. Exacto. Una vez que OpenAI contrató a los mejores ingenieros, el obstáculo era el capital. Fue entonces cuando Altman potenció el enfoque comercial. Siempre va un paso por delante.

Los tres enemigos de Sam Altman

Ilya Sutskever: El golpe fallido

→El 17 de noviembre de 2023, Sam Altman fue despedido de OpenAI. La junta directiva, liderada por Ilya Sutskever, el científico jefe, le comunicó que ya no confiaba en su liderazgo. «Había dos pilares para Sutskever. Uno, lograr la inteligencia artificial general. Dos, hacerlo de forma responsable. El comportamiento de Altman ponía en riesgo ambos». explica Hao. Pero los empleados... Leer más

XL. ¿Cuánto depende la capitalización de la compañía de la promesa de alcanzar la inteligencia artificial general (AGI, por sus siglas en inglés), esa IA todopoderosa que lo cambiará todo?

K.H. Es esencial. Si miras los números, no tiene ningún sentido. Estas empresas no generan ni de lejos los ingresos necesarios para que la inversión tenga retorno.

XL. ¿Y por qué los inversores siguen dando dinero?

K.H. Por la creencia de que al final del túnel habrá algo tan transformador que lo justificará todo. La AGI es ese algo. El Santo Grial.

XL. Ha mencionado a Ilya Sutskever, que da la impresión de ser una figura atormentada. Como Oppenheimer con la bomba atómica…

K.H. Sutskever es un profeta de la AGI, pero al mismo tiempo le aterra. Le contaré una anécdota.

XL. Cuénteme.

K.H. En un retiro corporativo de OpenAI en un spa de las montañas de California, Sutskever reunió a sus científicos sénior. Imagíneselos sentados en círculo, vestidos con albornoces. Sutskever había encargado un monigote de madera que representaba «una AGI buena y benéfica para la humanidad». Tras el debate concluyeron que era engañosa y malévola. Y la quemaron.

XL. ¿Qué nos dice eso de la cultura dentro de OpenAI?

K.H. Que está impulsada por una búsqueda religiosa nunca vista antes en la industria tecnológica.

XL. ¿Y qué implica eso?

K.H. Que la autorregulación nunca funcionará porque para nada conciben que lo que hacen sea problemático. Lo ven como una llamada divina. Una vez que entiendes eso, ves que es muy peligroso dejar el desarrollo de esta tecnología solo en sus manos sin ningún tipo de contrapesos.

«La inteligencia artificial está impulsada por una búsqueda religiosa nunca vista en la industria tecnológica. Creen que siguen una llamada divina»

XL. DeepSeek, el gran rival chino, alcanzó las capacidades de OpenAI a una fracción del coste…

K.H. Fue un mazazo. Demostró que puedes conseguir lo mismo con mucho menos. DeepSeek lo mostró al público, pero la gente del mundillo lo sabía desde hace tiempo. No necesitas tanto tamaño, lo que importa es la ingeniería.

XL. Pero las valoraciones de estas empresas son estratosféricas. OpenAI vale 500.000 millones, ha superado a SpaceX como la start-up más valiosa del mundo…

K.H. Estamos ante una burbuja donde el gasto supera cualquier valor económico. Hablan de quemar un billón de dólares, cuando han generado diez mil millones en ingresos. Es una broma.

XL. Usted recorrió Chile documentando la implantación de centros de datos que consumen mil veces más agua que las comunidades locales. ¿Cómo justifican estas empresas su impacto ambiental?

K.H. Con una retórica mesiánica: están construyendo la inteligencia que resolverá el cambio climático. Frente a esa promesa, ¿a quién le importa que una comunidad se quede sin agua? Ese es su eterno comodín: no importan los problemas porque van a desaparecer cuando la AGI llegue y lo solucione todo.

XL. En Kenia, la India y Latinoamérica habló con etiquetadores de contenido para la IA, gente que se pasa el día revisando colonoscopias sin conocimientos médicos o moderando textos e imágenes violentas…

K.H. Sí, leían día tras día descripciones de abusos sexuales infantiles, todo tipo de horrores... Las empresas de Silicon Valley necesitan limpiar esa basura, pero nadie en San Francisco quiere ensuciarse las manos, así que externalizan el trauma psicológico pagando 80 céntimos por hora.

XL. La esclavitud moderna.

K.H.  Sí.

XL. Dice que le costó mantener la objetividad mientras escribía este libro. ¿Por qué?

K.H. Porque empecé a sentir una rabia profunda después de

entrevistar a los trabajadores de Kenia. ¿Cómo hemos permitido que se trate así a otros seres humanos? ¿No hemos aprendido nada de los últimos siglos? ¿Y cómo es posible que los desalmados que perpetran estos abusos sigan siendo elogiados como los heraldos del progreso? No tiene sentido.