IA y ética en tiempos de guerra: debates que dan forma al futuro de la tecnología | Moderno
En enero de 2026, el secretario de Guerra de Estados Unidos, Pete Hegseth, emitió una directiva que exigía que los contratos con empresas que desarrollan sistemas de inteligencia artificial (IA) permitieran su uso sin restricciones. Gracias a estas instrucciones, a finales del pasado mes de febrero se vio una disputa entre la empresa Anthropic Anthropic y el Departamento de Guerra de Estados Unidos que salió bien. En el centro del conflicto estaban dos líneas rojas establecidas por el director ejecutivo de Anthropic, Dario Amodei: la negativa a permitir que su modelo de IA, Claude, se utilice para vigilancia masiva interna o dispositivos autónomos. El gobierno estadounidense exigió que se eliminaran estas líneas rojas, y cuando Amodei se negó, el gobierno estadounidense respondió declarando a Anthropic una «empresa peligrosa» para la seguridad nacional, categoría que en el pasado se utilizó principalmente contra enemigos extranjeros como Huawei. El presidente Trump también ordenó a las agencias federales que dejaran de usar productos Anthropic y el Pentágono prohibió a sus contratistas hacer negocios con la empresa.
Anthropic también se ha visto amenazada con el cumplimiento de la Ley de Producción de Defensa, una ley de la época de la Guerra Fría que otorga al presidente amplios poderes para obligar a las empresas a contribuir a la seguridad nacional. La inconsistencia de esta medida es obvia porque, por un lado, el Pentágono considera que Anthropic es un riesgo para la seguridad y, por otro lado, amenaza con regalar su tecnología, lo que significa que es muy importante para la seguridad nacional.
La disputa va más allá de la disputa contractual. Esto representa una lucha importante sobre quién establece los límites al uso de la IA en la guerra en ausencia de reglas claras y actualizadas. A medida que los sistemas de IA se vuelven más poderosos y se integran más profundamente en las operaciones de seguridad nacional, la brecha entre la innovación tecnológica y la gobernanza democrática se ha ampliado.
Esto pone de relieve una verdad muy preocupante: cuando los países dejan que las leyes establezcan límites a la IA (como es el caso de Estados Unidos), es hipócrita esperar que las grandes empresas de tecnología impongan límites por su propia voluntad si esto amenaza sus ganancias o su bienestar. De hecho, el año pasado, varias empresas tecnológicas importantes abandonaron sus acuerdos anteriores para conseguir contratos militares más lucrativos.
Google es un buen ejemplo. En 2018, tras las protestas de los empleados por participar en el Proyecto Maven (un programa del Pentágono que utilizaba IA para analizar imágenes de drones), la empresa se retiró de Maven y estableció un código de conducta que excluye las operaciones militares y la vigilancia masiva. Sin embargo, en febrero de 2025 eliminó silenciosamente las restricciones de su sitio web, justificando el cambio debido a la competencia nacional y las necesidades de seguridad nacional.
OpenAI siguió un camino similar. En 2024 levantó la prohibición del servicio militar obligatorio. En 2025, durante su reorganización como organización con fines de lucro, eliminó la «IA segura» de su agenda y, en su lugar, asumió un compromiso vago de «garantizar que la inteligencia artificial beneficie a las personas», sin mencionar la seguridad. No es difícil ver que retirar el libro dificulta la búsqueda de respuestas. Por su parte, xAI de Elon Musk dio un paso más al firmar un acuerdo que permite utilizar su modelo Grok en aplicaciones militares sin restricciones. Meta, por su parte, anunció en noviembre de 2024 que pondría sus razas de Llama a disposición del gobierno de EE. UU. para su uso en seguridad nacional.
Incluso si la IA segura fuera el verdadero objetivo de las Big Tech, sería muy difícil de lograr. La razón de esto es la existencia de un problema técnico de las llamadas «alucinaciones» (respuestas falsas dadas por la apariencia completa de la conexión). Este problema no se puede resolver porque está relacionado con la estructura de estos sistemas. En el contexto militar, el problema no es trivial porque puede definir errores en la identificación y selección de objetivos, que no pueden revertirse. Algunos errores costarán vidas, otros costarán muchas vidas. Algunos pueden conducir a más conflictos (matar a más personas inocentes puede hacerlo). En el peor de los casos, la gran cantidad de personas que no logran lanzar IA podría conducir a una guerra nuclear. Considerando la situación en Medio Oriente, esta preocupación no es sólo académica.
En este contexto, es importante aclarar que Anthropic no se niega en absoluto a participar en el ejército, al contrario. Dario Amodei, en la conferencia de IA de París en febrero de 2025, utilizó la amenaza de los gobiernos gobernantes de establecer un liderazgo militar en inteligencia artificial como argumento para fortalecer el liderazgo estadounidense en el sector militar. De hecho, Claude, su familia de modelos de IA, ha sido utilizada activamente por las agencias de seguridad y aplicación de la ley de Estados Unidos. Por ejemplo, Claude fue utilizado, en asociación con Palantir, una empresa que gestiona contratos multimillonarios con el ejército de Estados Unidos, en la guerra de Estados Unidos contra el ex presidente venezolano Nicolás Maduro.
Además, Anthropic anunció que retiraría su compromiso de defensa la misma semana que se reunió con el Departamento de Defensa. Esto significa que está eliminando un pilar central de su plan de desarrollo que se comprometía a no entrenar un sistema de IA sin verificar primero que sus medidas de seguridad eran las adecuadas. Si bien la compañía dice que no está renunciando a la seguridad, está reemplazando las garantías previas al envío con compromisos flexibles posteriores al envío, como la notificación de accidentes. No es nada alentador que una empresa que ha hecho de la seguridad una parte central de su identidad ahora adopte este cambio.
Todo esto puede indicar una seria duda sobre el papel de Darío Amodei: la posibilidad de que nos enfrentemos a un crimen limpieza moral. Es decir, la creación humana de líneas rojas es, entre otras cosas, una estrategia destinada a lavarle la cara a Anthropic en un mercado cada vez más competitivo y proteger su marca de reguladores e inversores. Desde este punto de vista, la negativa a utilizar otros no puede incluir otros tipos de cooperación militar que tengan problemas similares, sino que puede fijar límites legales, es decir, lo suficientemente restrictivos para mostrar lealtad, pero lo suficientemente flexibles para abrir la posibilidad de acuerdos estratégicos. La cuestión, entonces, no es sólo la existencia de líneas rojas, sino cómo se definen, quién las cuenta y los incentivos económicos que las rodean.
El papel de OpenAI en este conflicto entre Anthropic y el Pentágono refleja claramente la tensión en Silicon Valley. Aunque Sam Altman confirmó las mismas líneas rojas internamente y expresó públicamente su apoyo a Dario Amodei, anunció una asociación con el Pentágono el mismo día en que se prohibió Anthropic, y ambos negociaron activamente sus contratos con el Departamento de Guerra. Al mismo tiempo, esto reveló la evidente hipocresía de Altman: apoyar la retórica de la resistencia moral, por un lado, y la integración y expansión de los acuerdos militares, por el otro. Los detalles de los contratos no se han hecho públicos, lo que lleva a pensar que el gobierno adjudicó el contrato y castigó la negativa.
En última instancia, este episodio plantea una gran pregunta para la democracia: cómo equilibrar la seguridad, el poder tecnológico y las libertades fundamentales. Si las empresas no tienen límites éticos o los abandonan debido a presiones económicas o políticas, las salvaguardas desaparecerán. Si el Gobierno utiliza su poder para poder utilizar la IA sin restricciones éticas o incluso violando las leyes nacionales e internacionales, como es el caso de Estados Unidos, la independencia de las empresas desaparece. Y si, más allá de eso, las declaraciones éticas corporativas funcionan como herramientas de posicionamiento, a través de limpieza moralMás que promesas concretas, la amenaza no es sólo luchar contra la IA, sino también socavar el lenguaje mismo.
El resultado de este debate determinará el futuro de la democratización de la IA en el ámbito militar. Lamentablemente, no existen factores políticos, económicos y geoestratégicos que alienten el optimismo para el futuro. En base a esto, quizás la única manera de lograr una presión democrática real sea promover el desprecio permanente hacia la IA que envían estas grandes corporaciones, negarnos como ciudadanos y consumidores a ser aprobados por el dinero, y nuestro uso, un enfoque tecnológico muy relacionado con las ideas de los militares y las fuerzas antimilitares y sin ley.
Es importante señalar que las huelgas generales pueden tener efectos económicos insignificantes. Sin embargo, y la cuestión es esta, puede tener consecuencias negativas para las organizaciones detrás de la producción de IA. Según una investigación de Gartner, el 80% del uso de la IA generativa corresponde a tareas no profesionales -entretenimiento o cambio de buscadores de información-, mientras que el 20% restante, profesionales, no tienen un impacto significativo en la economía. Un artículo de Correo de Washington El 23 de febrero de 2026, citando un estudio de Goldman Sachs, dijo que la mayoría de las inversiones en IA en los Estados Unidos han contribuido «casi cero» al crecimiento económico. Para él, el premio Nobel de Economía Daron Acemoglu, en su artículo Macroeconomía simple para IA, publicado por la Oficina Nacional de Investigación Económica en mayo de 2024, informó el impacto limitado de la IA generativa en la fabricación.
Por tanto, no existen motivos económicos que puedan hacer que nos quedemos marginados. Cada uso, cada suscripción, alimenta el modelo tecnológico que integra el poder militar y corporativo en nuestras vidas. ¿Seguiremos unidos en nuestro silencio?