El director ejecutivo de Anthropic, Dario Amodei, ha acusado a OpenAI de utilizar “teatro de seguridad” para justificar su reciente acuerdo con el Pentágono y ha calificado la estrategia de la compañía rival de “mentira” y de operación de “marketing”. Las críticas aparecen en un memorando interno de unas 1.600 palabras enviado a los empleados de la empresa y filtrado en las últimas horas a medios especializados.
En ese documento, Amodei sostiene que OpenAI ha tergiversado el propósito del contrato militar firmado con el Departamento de Defensa estadounidense. Según el directivo, las salvaguardas de seguridad que la compañía de Sam Altman asegura haber establecido “no funcionan en su mayoría” y forman parte de una narrativa destinada a presentar a la empresa como un “pacificador”.
La filtración se ha producido pocos días después de que el Gobierno de Estados Unidos haya declarado a Anthropic como un “riesgo para la cadena de suministro de la seguridad nacional”. Esa designación obliga a los contratistas del Pentágono a certificar que no emplean los modelos de inteligencia artificial desarrollados por la compañía.
Excluidos por razones políticas
Amodei ha atribuido esa decisión a razones políticas. “Las razones reales por las que (el Departamento de Guerra) y la Administración Trump no nos quieren es porque no hemos donado a Trump”, escribió en el memorando, en referencia a los 25 millones de dólares que el presidente de OpenAI, Greg Brockman, habría aportado a un comité de acción política republicano.
En su mensaje, el ejecutivo defiende que Anthropic ha colaborado activamente con el aparato de seguridad estadounidense y que sus modelos ya se utilizan en redes clasificadas del Gobierno, laboratorios nacionales y agencias de inteligencia para tareas como el análisis de información, la simulación estratégica o las operaciones cibernéticas.
El documento insiste en que la empresa apoya el uso de la inteligencia artificial para la defensa de Estados Unidos y de otras democracias frente a adversarios autoritarios, pero establece dos límites que considera incompatibles con sus principios: la vigilancia masiva de la población dentro del país y el desarrollo de armas completamente autónomas.
Límites éticos
“Usar estos sistemas para vigilancia masiva doméstica es incompatible con los valores democráticos”, afirma el memorando, que advierte de que la capacidad de la inteligencia artificial para combinar grandes volúmenes de datos podría permitir reconstruir “una imagen completa de la vida de cualquier persona, de forma automática y a gran escala”.
El texto también rechaza el uso de modelos de IA en armamento totalmente autónomo. Según Amodei, los sistemas actuales “no son lo suficientemente fiables” para operar sin intervención humana y podrían poner en riesgo tanto a militares como a civiles.
Pese a las presiones del Departamento de Defensa para aceptar “cualquier uso legal” de la tecnología, el directivo asegura que Anthropic mantendrá esas dos salvaguardas. “No podemos, en conciencia, acceder a esa petición”, afirma el memorando.
Amodei concluye el mensaje defendiendo que, incluso si el Pentágono decide prescindir de la empresa, Anthropic seguirá ofreciendo una transición ordenada para evitar interrupciones en operaciones militares o de planificación. Al mismo tiempo, sostiene que la compañía mantendrá sus “líneas rojas con integridad” frente a un acuerdo que, a su juicio, una parte del público percibe como “sospechoso”.
Te puede interesar
-
Telefónica se alía con OpenAI y ofrecerá ChatGPT gratis a sus clientes por seis meses
-
LA SGAE alemana celebra el primer fallo europeo contra OpenAI por vulnerar derechos de autor
-
ChatGPT Atlas: así es el navegador de OpenAI que compite con Google
-
Del psicólogo al sexting: así podrás usar ChatGPT a partir de diciembre