Trump ordena rescindir todos los contratos humanos y antrópicos tras pelea por la protección de la inteligencia artificial | Países

Spread the love

Donald Trump, el presidente de Estados Unidos, ordenó la cancelación de todos los contratos de la Administración Federal con Anthropic, la empresa que produce la herramienta de inteligencia Claude, que sigue peleando con el Pentágono sobre los límites de la seguridad de la IA.

«¡LOS ESTADOS UNIDOS DE AMÉRICA NO PERMITIRÁN QUE UNA COMPAÑÍA DE ENTRENAMIENTO DE LIDERAZGO Y UN ‘RIESGO’ CAMBIE LA CÓMO NUESTRO GRAN EJÉRCITO LUCHA Y GANA LAS GUERRAS! Esa decisión recae en su Comandante en Jefe y en los líderes extraordinarios que estoy nombrando para dirigir nuestro ejército», dijo su presidente republicano el viernes. «Estoy ordenando a TODAS las agencias federales del gobierno de los Estados Unidos que DEJEN de usar tecnología antrópica. ¡No queremos, no queremos y no volveremos a hacer negocios con ellas! Habrá una pausa de seis meses para agencias como el Departamento de Guerra que usan drogas antrópicas, en varios niveles».

La reacción del presidente republicano, que calificó a los oficiales Antrópicos como «restos antrópicos inmutables», se enmarca en la negativa de la empresa AI a permitir el uso arbitrario de su arma en operaciones militares.

El futuro de la frontera de la inteligencia artificial se juega hoy en Estados Unidos. El Pentágono quiere de Anthropic, la empresa que fabrica la herramienta de inteligencia artificial más avanzada, Claude, un uso ilimitado para todas sus operaciones militares. El secretario de Defensa, Pete Hegseth, amenaza con sanciones extraordinarias si la empresa no acepta sus afirmaciones. Lo que suceda en este caso marcará el futuro en cuanto a los límites éticos y las garantías legales de una tecnología que está preparada para cambiar el mundo tal como lo conocemos.

Lo que ocurrió tras una reunión en el Pentágono entre Hegseth y Dario Amodei, director ejecutivo de Anthropic, el pasado martes. El Secretario de Defensa instó al directivo a eliminar las restricciones de la empresa sobre el uso de armas de IA. Se le dio hasta este viernes para reconsiderar su postura.

Las amenazas del Departamento de Defensa son impactantes. Está dispuesto a declarar una amenaza antrópica para los militares, una medida que le impediría firmar un contrato con cualquier empresa que trabaje con Defensa. Además, Hegseth ha amenazado con intervenir. Confirman que recurrirán a la Ley de Producción de Defensa de la Guerra Fría de 1950 para implementarla programas de Anthropic a pesar de la negativa de la empresa de tecnología. Algunos de estos productos han sido utilizados en el pasado por empresas como Huawei, por sus vínculos con Pekín, y por la empresa rusa Kaspersky.

El jueves, dos días después de la reunión entre Hegseth y Amodei, el Pentágono envió un nuevo contrato y nuevos materiales para uso de Claude. Pero la empresa de San Francisco rechazó el documento legal porque no se han cumplido dos requisitos que considera una línea roja: su tecnología no puede utilizarse para vigilancia masiva y no quiere que se utilice para amenazas mortales sin intervención pública. «Las amenazas no cambian nuestra opinión: no podemos aceptar su petición con la conciencia tranquila», afirmó Amodei en un comunicado.

En una empresa inteligente, las cosas suceden muy rápidamente a medida que la tecnología evoluciona. Anthropic y Defensa han pasado de salir juntos a separarse en cuestión de semanas. En julio pasado, la startup y el Pentágono firmaron un contrato de 200 millones de dólares (169 millones de euros) para utilizar la herramienta Claude para archivos militares seleccionados en la nube. Fue el primer contrato del Departamento de Defensa para utilizar IA en un entorno de seguridad. La firma fue un evento que define el papel de la IA en las aplicaciones militares a medida que las fuerzas armadas del mundo entran en una feroz competencia para transferir esta tecnología a sus operaciones.

Hace unas semanas saltó una conversación entre un empleado de la empresa y otro empleado de Palantir, grupo de seguridad líder en la gestión de datos, y se preguntaba si Claude fue utilizado en la guerra para arrestar al expresidente de Venezuela, Nicolás Maduro, en Caracas. La discusión llegó a oídos de funcionarios del Pentágono que la interpretaron como una limitación militar para utilizar la IA como quisiera, según los informes. El diario de Wall Street. Desde entonces, la preocupación por la proliferación de operaciones militares antrópicas ha aumentado en el Departamento de Defensa, conocido como Departamento de Guerra y Hegseth.

Las conversaciones son tan importantes que una ruptura entre la empresa de IA y el Pentágono podría ser un fracaso para ambos, con un contrato de 200 millones de dólares en el aire. Abriría una guerra total y sentaría un precedente que pondría en duda el papel de los contratistas de Defensa. Por estos motivos, las fuentes de la Administración confirman que están dispuestas a ampliar las negociaciones con Anthropic más allá de este viernes, según informa Bloomberg.

El subsecretario de Defensa para Investigación e Ingeniería, Emil Michael, dijo que el Pentágono todavía está dispuesto a continuar sus conversaciones con Anthropic, a pesar de lo que llamó el «comportamiento impredecible» de la compañía en la lucha contra las defensas de IA. «Siempre que sean de buena fe, estamos dispuestos a negociar», afirmó Michael.

La batalla entre el Pentágono y Anthropic desencadena un debate global sobre los límites y justificaciones del uso de la IA en tiempos de guerra, una tecnología que permitiría el espionaje masivo a los ciudadanos y otras prácticas sin precedentes.

«El Departamento de Guerra no tiene ningún interés en utilizar la IA para vigilar al público estadounidense (lo cual está prohibido), y no queremos utilizar la IA para crear armas autónomas que funcionen sin intervención humana. Esta historia es falsa y está siendo difundida por izquierdistas en los medios», dijo el portavoz del Pentágono, Sean Parnell. a través de tu cuenta de redes sociales.

Aunque la defensa garantiza que no utilizará esta tecnología con fines legales y no militares, no quieren incluirla en la lista. Argumentan que se trata de una cuestión de lógica: un fabricante de armas secretas no puede decidir cómo se utilizarán sus armas, como tampoco puede decidir hacia dónde se dispararán sus flechas.

«Esto es lo que solicitamos: permitir que el Pentágono utilice el modelo Anthropic para todos los fines legales. Se trata de una petición sencilla y razonable que impedirá que Anthropic destruya operaciones militares complejas y que puede poner en riesgo a nuestros soldados», añadió Parnell, que no dudó en recordar las amenazas si Anthropic no acepta levantar las barreras.

Los funcionarios de defensa intentaron persuadir a Amodei para que eliminara las restricciones a su uso de la IA haciéndole la pregunta: ¿Qué pasaría si un misil balístico intercontinental se dirigiera a los Estados Unidos con 90 segundos de antelación y la IA antrópica fuera la única forma de iniciar una respuesta con misiles para salvar al país, pero los sistemas de seguridad de la compañía no lo permitieran? alumbrado público.

Aunque existen diferentes tipos de soluciones Amodei, Anthropic confirma oficialmente que en este caso Defensa puede utilizar sus herramientas de IA para defensa antimisiles y operaciones cibernéticas sin restricciones, una respuesta que reduce los límites militares de Claude.

Emil Michael, subsecretario de Defensa para I+D, ha sido el enlace del Pentágono con Anthropic. Dijo que es el gobierno, no las empresas de tecnología, el que debe tener la última palabra sobre el uso de la tecnología, según El Correo de Washington. Michael ha acusado a Amodei de intentar interferir en las decisiones de Defensa. «Lo único que quieren es intentar controlar al ejército de Estados Unidos y no tienen ningún problema en poner en riesgo nuestra seguridad nacional», escribió en X.

Anthropic, fundada por antiguos investigadores de OpenAI, se ha posicionado como una de las principales empresas emergentes de IA preocupadas por la seguridad, la ética y los límites de la tecnología. Con un valor de 380 mil millones de dólares, fue la primera empresa de inteligencia artificial en recibir permiso del Pentágono para ocuparse de cuestiones sociales. En las últimas semanas, otras empresas como xAi, la empresa de Elon Musk, también han recibido permiso para trabajar con estos documentos del grupo, mientras que sus competidores ChatGPT (OpenAI) y Gemini (Google) presionan para quedar fuera.

A medida que aumenta la competencia en el sector, crece la presión sobre las empresas tecnológicas que promueven la IA para que relajen sus métodos para avanzar rápidamente y empezar a rentabilizar las grandes inversiones que el sector está destinando a esta tecnología.


Spread the love

Publicaciones Similares

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *