{"id":2001,"date":"2026-03-15T15:40:40","date_gmt":"2026-03-15T20:40:40","guid":{"rendered":"https:\/\/cablesdenoticias.prensalibre.com\/?p=2001"},"modified":"2026-03-17T18:37:22","modified_gmt":"2026-03-18T00:37:22","slug":"anthropic-la-empresa-de-ia-que-se-enfrento-al-pentagono-en-ee-uu-y-por-que-esto-nos-concierne-a-todos","status":"publish","type":"post","link":"https:\/\/cablesdenoticias.prensalibre.com\/?p=2001","title":{"rendered":"Anthropic, la empresa de IA que se enfrent\u00f3 al Pent\u00e1gono en EE.UU. y por qu\u00e9 esto nos concierne a todos"},"content":{"rendered":"<p>This <a href=\"https:\/\/www.bbc.com\/mundo\/articles\/cddnjd34p7no?xtor=AL-73-%5Bpartner%5D-%5Bprensalibre.com%5D-%5Bheadline%5D-%5Bmundo%5D-%5Bbizdev%5D-%5Bisapi%5D\" target=\"_blank\">post<\/a> was originally published on <a href=\"https:\/\/information-syndication.api.bbc.com\/articles?api_key=LIhwV24f34gSy1AEcnQZjtXfdD4AJ47g&feed=mundo-tecnologia&mixins=thumbnail_images,summary,body,body_images,worldwide_verticals,visual_journalism&twitter_format=embedded&youtube_format=embedded&instagram_format=embedded&page_view_tracking=javascript&sort=date_desc&accept_override=rss2\" target=\"_blank\">this site<\/a>.<\/p><div>\n<figure>\n        <img loading=\"lazy\" decoding=\"async\" alt=\"Logo del Departamento de Guerra (o de Defensa) de EE.UU. y un tel&eacute;fono con el logo de Anthropic en la pantalla\" src=\"https:\/\/cablesdenoticias.prensalibre.com\/wp-content\/uploads\/2026\/03\/ef3437a0-1f1f-11f1-a600-6bf0292beaaf.jpg\" width=\"1024\" height=\"576\"><\/p>\n<footer>Getty Images<\/footer><figcaption>La disputa entre Anthropic y el Pent&aacute;gono gir&oacute; en torno al acceso &eacute;tico a la IA de punta.<\/figcaption><\/figure>\n<p><strong>Mientras el mundo observaba la operaci&oacute;n estadounidense en Venezuela y c&oacute;mo la guerra con Ir&aacute;n se hac&iacute;a inevitable, en Washington se iba fraguando una batalla que advert&iacute;a que el futuro profetizado durante siglos ya es presente.<\/strong><\/p>\n<p>Una empresa de Inteligencia Artificial (IA) de Silicon Valley le dijo no al Pent&aacute;gono y este la trat&oacute; como si fuera enemiga del Estado. No obstante, su tecnolog&iacute;a de IA segu&iacute;a siendo usada, porque el ej&eacute;rcito de EE.UU. no pod&iacute;a darse el lujo de prescindir de ella.<\/p>\n<p>Eso es lo que pas&oacute; entre Anthropic y el Departamento de Defensa en las &uacute;ltimas semanas. Y aunque suena a disputa corporativa, es mucho m&aacute;s que eso. <\/p>\n<p>Es la primera vez que una empresa de IA enfrenta a un aparato militar, neg&aacute;ndose a eliminar los l&iacute;mites &eacute;ticos de su tecnolog&iacute;a. <\/p>\n<p>El enfrentamiento dej&oacute; preguntas en el aire que nos ata&ntilde;en a todos: &iquest;Hasta d&oacute;nde ya estamos delegando decisiones irreversibles y letales en las m&aacute;quinas? &iquest;Qui&eacute;n decide c&oacute;mo se usa la IA? <\/p>\n<p>No son preguntas ret&oacute;ricas. Expertos de de la Universidad de Oxford advierten que este episodio &#8220;revela brechas de gobernanza de larga data en la integraci&oacute;n de la IA en operaciones militares, brechas que preceden a esta administraci&oacute;n y sobrevivir&aacute;n a la controversia actual&#8221;. <\/p>\n<p>&iquest;Por qu&eacute;, si la humanidad lleva tanto tiempo temiendo llegar a este punto, a&uacute;n hay tal vac&iacute;o en la gobernanza de la IA?<\/p>\n<p>Se trata de un vac&iacute;o que Logan Graham, l&iacute;der del equipo rojo de Anthropic, el cual analiza los peores escenarios de la tecnolog&iacute;a, desde ciberataques hasta amenazas de bioseguridad, conoce de cerca.<\/p>\n<p>&#8220;La intuici&oacute;n de alguna gente, por haber crecido en un mundo pac&iacute;fico, es que en alg&uacute;n lugar hay una sala llena de adultos que saben c&oacute;mo arreglar todo&#8221;, le dijo a la revista <em>Time<\/em>. <\/p>\n<p>&#8220;No existen esos grupos de adultos. Ni siquiera existe la sala. T&uacute; eres responsable&#8221;. <\/p>\n<p>Retomemos lo que ocurri&oacute;. <\/p>\n<h2>Una llamada inc&oacute;moda<\/h2>\n<p>En alg&uacute;n momento de la operaci&oacute;n que culmin&oacute; el pasado 3 de enero con la captura del entonces presidente de Venezuela, Nicol&aacute;s Maduro, una herramienta de IA llamada Claude estuvo presente, procesando datos y ayudando a tomar decisiones. <\/p>\n<p>As&iacute; lo reportaron de manera independiente el diario <em>Wall Street Journal<\/em> y el sitio web Axios, citando fuentes con conocimiento directo de los hechos, y lo reafirm&oacute; posteriormente la revista <em>Time<\/em>, que public&oacute; un extenso perfil de Anthropic, la empresa de San Francisco que cre&oacute; Claude. <\/p>\n<p>Ni el Departamento de Defensa ni Anthropic lo confirmaron oficialmente. Pero lo que sucedi&oacute; despu&eacute;s est&aacute; documentado, y dice m&aacute;s que el hecho mismo.<\/p>\n<figure>\n        <img loading=\"lazy\" decoding=\"async\" alt='Persona sosteniendo una imagen de Maduro tras las rejas y un sello de \"capturado\"' src=\"https:\/\/cablesdenoticias.prensalibre.com\/wp-content\/uploads\/2026\/03\/9a5fcc20-1f20-11f1-a600-6bf0292beaaf.jpg\" width=\"922\" height=\"519\"><\/p>\n<footer>Getty Images<\/footer><figcaption>El operativo para capturar a Nicol&aacute;s Maduro fue un detonante. <\/figcaption><\/figure>\n<p>Tras la captura de Maduro, un ejecutivo de Anthropic contact&oacute; a Palantir -la empresa de an&aacute;lisis de datos que act&uacute;a como intermediaria tecnol&oacute;gica entre Silicon Valley y el gobierno estadounidense- y pregunt&oacute;: &iquest;fue usado nuestro software en esa operaci&oacute;n?<\/p>\n<p>La pregunta encendi&oacute; alarmas en Washington. <\/p>\n<p>Emil Michael, el subsecretario de Defensa y jefe de tecnolog&iacute;a del Pent&aacute;gono, explic&oacute; que les gener&oacute; una preocupaci&oacute;n profunda: &iquest;podr&iacute;a Anthropic, en un conflicto futuro, &#8220;apagar su modelo en medio de una operaci&oacute;n&#8221; -activar alg&uacute;n mecanismo de rechazo- &#8220;y poner vidas en riesgo&#8221;?<\/p>\n<p>Anthropic disputa esa lectura: la empresa dice que jam&aacute;s intent&oacute; limitar el uso del Pent&aacute;gono en un caso concreto y que la pregunta fue rutinaria.<\/p>\n<p>Lo que sigui&oacute; fue una escalada a c&aacute;mara r&aacute;pida. <\/p>\n<p>El Pent&aacute;gono exigi&oacute; que Anthropic entregara acceso irrestricto a su tecnolog&iacute;a para &#8220;todos los usos legales&#8221;. Anthropic se neg&oacute;. <\/p>\n<p>Pete Hegseth, el secretario de Defensa de Trump, design&oacute; a Anthropic como un &#8220;riesgo en la cadena de suministro&#8221;, una etiqueta que hist&oacute;ricamente se reserva para empresas vinculadas a adversarios extranjeros como Huawei o Kaspersky, no para compa&ntilde;&iacute;as estadounidenses que simplemente discrepan con el gobierno.<\/p>\n<p>Anthropic demand&oacute; al Pent&aacute;gono por exceder su autoridad y sus salvaguardas &eacute;ticas, violando derechos b&aacute;sicos. Varios expertos legales consideran que la empresa tiene opciones s&oacute;lidas de ganar en los tribunales.<\/p>\n<p>El presidente Donald Trump, por su lado, orden&oacute; a todas las agencias federales que dejen de usar la tecnolog&iacute;a de Anthropic. <\/p>\n<p>Y remat&oacute; la pol&eacute;mica con un mensaje en la plataforma Truth Social, escrito todo en may&uacute;sculas: &#8220;Estados Unidos nunca permitir&aacute; que una empresa de izquierda radical y <em>woke<\/em> dicte c&oacute;mo combate y gana guerras nuestro gran ej&eacute;rcito&#8221;.<\/p>\n<p>En su vocabulario y el de sus seguidores, &#8216;<em>woke<\/em>&#8216; es el insulto m&aacute;ximo, una etiqueta despectiva para describir ideas o pol&iacute;ticas progresistas sobre identidad, desigualdad o justicia social.<\/p>\n<p>Quiz&aacute;s el calificativo es adecuado: Anthropic, efectivamente, se empe&ntilde;a en ser una empresa &#8216;virtuosa&#8217;. <\/p>\n<h2>L&iacute;neas rojas<\/h2>\n<p>Anthropic tiene una historia sui g&eacute;neris. <\/p>\n<p>Fue fundada en 2021 por exinvestigadores de OpenAI con la premisa expl&iacute;cita de que la inteligencia artificial representa uno de los mayores riesgos existenciales para la humanidad y que, precisamente por eso, es mejor que quienes la desarrollen sean personas comprometidas con hacerlo de manera segura.<\/p>\n<figure>\n        <img loading=\"lazy\" decoding=\"async\" alt=\"Retrato de Dario Amodei\" src=\"https:\/\/cablesdenoticias.prensalibre.com\/wp-content\/uploads\/2026\/03\/f9330140-1f20-11f1-801d-ed3cff6bf876.jpg\" width=\"1024\" height=\"576\"><\/p>\n<footer>Getty Images<\/footer><figcaption>Dario Amodei, el cofundador y director ejecutivo de Anthropic, fue vicepresidente de investigaci&oacute;n en OpenAI.<\/figcaption><\/figure>\n<p>En julio de 2025, firm&oacute; un contrato de US$200 millones con el Departamento de Defensa, el primero de su clase: un laboratorio de IA que integra sus modelos en flujos de trabajo de misiones en redes clasificadas. <\/p>\n<p>El CEO de Anthropic, Dario Amodei, lo justific&oacute; en un ensayo publicado en enero de este a&ntilde;o.<\/p>\n<p>Anthropic, escribi&oacute;, apoyaba a las fuerzas militares y de inteligencia estadounidenses porque &#8220;la &uacute;nica manera de responder a las amenazas autocr&aacute;ticas es igualarlas y superarlas militarmente&#8221;.<\/p>\n<p>Y a&ntilde;adi&oacute;: &#8220;La formulaci&oacute;n a la que he llegado es que debemos usar la IA para la defensa nacional en todas las formas, excepto en aquellas que nos har&iacute;an m&aacute;s parecidos a nuestros adversarios autocr&aacute;ticos&#8221;.<\/p>\n<p>En concordancia, el contrato con el Pent&aacute;gono trazaba dos &#8220;l&iacute;neas rojas&#8221;: Claude no podr&iacute;a usarse para vigilancia masiva dom&eacute;stica ni para armas completamente aut&oacute;nomas. <\/p>\n<p>Esos l&iacute;mites infranqueables no son arbitrarios; se sustentan en un documento de la empresa que funciona como su &#8220;alma&#8221;.<\/p>\n<p>Su objetivo declarado es &#8220;evitar cat&aacute;strofes a gran escala&#8221;, incluyendo la posibilidad de que la IA sea usada por un grupo humano para &#8220;tomar el poder de manera ileg&iacute;tima y no colaborativa&#8221;.<\/p>\n<p>Amodei tambi&eacute;n argument&oacute; ante el Pent&aacute;gono que &#8220;los sistemas de IA de vanguardia simplemente no son lo suficientemente confiables como para impulsar armas totalmente aut&oacute;nomas&#8221;.<\/p>\n<p>En sentido estricto, no hablamos de armas que decidan por s&iacute; solas a qui&eacute;n matar; en este contexto, &#8220;autonom&iacute;a&#8221; significa que un sistema pueda cumplir ciertos objetivos por su cuenta -o con m&iacute;nima supervisi&oacute;n humana- en entornos complejos.<\/p>\n<p>Pero s&iacute; existen sistemas automatizados que ayudan a tomar decisiones sobre ataques. Y los expertos en inteligencia artificial advierten de un problema conocido como &#8220;sesgo de automatizaci&oacute;n&#8221;: cuando las reglas de uso son vagas, los humanos tendemos a confiar en las recomendaciones de la m&aacute;quina m&aacute;s de lo que deber&iacute;amos.<\/p>\n<p>La IA no reemplaza el juicio humano de golpe: lo va erosionando poco a poco, hasta que el operador deja de cuestionarla. <\/p>\n<p>En una situaci&oacute;n tensa, si el sistema -que sabes que analiz&oacute; una cantidad inmensa de informaci&oacute;n- se&ntilde;ala en la pantalla unos pocos p&iacute;xeles como un objetivo urgente, es f&aacute;cil aceptar su recomendaci&oacute;n sin dudar lo suficiente.<\/p>\n<p>O si un sistema de reconocimiento facial se&ntilde;ala a alguien en medio de la multitud, es probable que un agente de seguridad conf&iacute;e en el resultado y proceda al arresto. <\/p>\n<p>Hay precedentes concretos: en m&uacute;ltiples ocasiones documentadas, varios departamentos de polic&iacute;a en EE.UU. terminaron arrestando personas equivocadas.<\/p>\n<p>Eso resuena con la otra l&iacute;nea roja que enfureci&oacute; al gobierno de Trump, la de la vigilancia masiva, que toca la vida cotidiana de personas que no est&aacute;n en ninguna zona de guerra.<\/p>\n<p>Cabe anotar que Anthropic se opuso espec&iacute;ficamente a la vigilancia masiva de ciudadanos estadounidenses. Su postura no es universalista. Pero el principio que la sustenta s&iacute; tiene un alcance m&aacute;s amplio. <\/p>\n<p>Y cobra urgencia porque, en paralelo a este conflicto, el gobierno estadounidense anunci&oacute; planes de usar IA a trav&eacute;s de Palantir para apoyar las operaciones de ICE -la agencia de inmigraci&oacute;n- rastreando ubicaciones en tiempo real e historial financiero de personas indocumentadas. <\/p>\n<p>La vigilancia masiva, en distintos grados y sobre distintas poblaciones, ya existe. La pregunta ya no es si ocurre, sino cu&aacute;ntos controles quedan sobre c&oacute;mo se usa. <\/p>\n<p>En ese contexto, las &#8220;l&iacute;neas rojas&#8221; de Anthropic no son solo filosof&iacute;a corporativa: son, por ahora, uno de los pocos frenos concretos que existen.<\/p>\n<p>El problema es que las restricciones son tan s&oacute;lidas como el mecanismo que las hace cumplir. <\/p>\n<p>Y cuando el Pent&aacute;gono rechaz&oacute; esos l&iacute;mites y exigi&oacute; acceso irrestricto, Anthropic se encontr&oacute; sola sosteniendo su postura, sin un marco legal que la respaldara, sin regulaci&oacute;n internacional que la protegiera, con solo sus cl&aacute;usulas contractuales como escudo.<\/p>\n<h2>&iquest;Qu&eacute; es &#8220;legal&#8221;?<\/h2>\n<p>La reticencia del Departamento de Defensa a que una empresa privada le imponga l&iacute;mites es, para muchos, justificada. <\/p>\n<p>Aunque las operaciones militares recientes en ciudades estadounidenses,  Venezuela e Ir&aacute;n se llevaron a cabo con una m&iacute;nima consulta al Congreso, el uso de la IA es tan cr&iacute;tico que debe estar regulado por leyes aprobadas por representantes elegidos democr&aacute;ticamente, opinan algunos. <\/p>\n<p>Desafortunadamente, el poder legislativo no ha legislado al respecto.<\/p>\n<p>As&iacute;, el hecho de que el Pent&aacute;gono exija la libertad de usar a Claude para &#8220;todos los usos legales&#8221; suena razonable hasta que se pregunta qu&eacute; es, exactamente, legal en este &aacute;mbito.<\/p>\n<p>No existe una definici&oacute;n consensuada en el derecho internacional sobre qu&eacute; constituye un arma letal aut&oacute;noma. <\/p>\n<p>El derecho internacional humanitario -las reglas que rigen los conflictos armados desde los Convenios de Ginebra- fue construido en torno a decisiones humanas: un soldado que aprieta un gatillo, un comandante que da una orden. <\/p>\n<p>Esos marcos no contemplan sistemas que detectan, seleccionan y eliminan objetivos con m&iacute;nima intervenci&oacute;n humana directa o sin ella.<\/p>\n<p>Es lo que los expertos llaman &#8220;vac&iacute;o de responsabilidad&#8221;: una deficiencia cr&iacute;tica en la que los marcos legales existentes no logran determinar qui&eacute;n responde cuando un sistema aut&oacute;nomo comete una infracci&oacute;n. <\/p>\n<p>Si un dron con IA mata a civiles, &iquest;qui&eacute;n responde? &iquest;El programador? &iquest;El comandante? &iquest;La empresa que fabric&oacute; el sistema? <\/p>\n<p>El derecho internacional no tiene una respuesta clara. Y en ausencia de esa respuesta, &#8220;uso legal&#8221; significa, en la pr&aacute;ctica, lo que cada Estado decida que significa.<\/p>\n<figure>\n        <img loading=\"lazy\" decoding=\"async\" alt=\"Hegseth con banderas de EE.UU. detr&aacute;s\" src=\"https:\/\/cablesdenoticias.prensalibre.com\/wp-content\/uploads\/2026\/03\/86669e50-1f21-11f1-801d-ed3cff6bf876.jpg\" width=\"1024\" height=\"657\"><\/p>\n<footer>Getty Images<\/footer><figcaption>Peter Hegseth, el secretario de Guerra de EE.UU. (oficialmente el secretario de Defensa) es un presentador de televisi&oacute;n, escritor y oficial de la Guardia Nacional del Ej&eacute;rcito estadounidense. <\/figcaption><\/figure>\n<p>En este contexto, surge una pregunta delicada: &iquest;llega esta discusi&oacute;n a tiempo? La respuesta quiz&aacute;s es: a tiempo para ser preventiva, no; a tiempo para ser &uacute;til, todav&iacute;a s&iacute;. <\/p>\n<p>El debate formal sobre las armas aut&oacute;nomas comenz&oacute; en 2013. Once a&ntilde;os despu&eacute;s, el resultado son gu&iacute;as voluntarias. <\/p>\n<p>En 2024, durante una conferencia internacional en Viena, el ministro de Exteriores de Austria urgi&oacute; a avanzar con una frase inquietante: &#8220;Este es el momento Oppenheimer de nuestra generaci&oacute;n&#8221;. <\/p>\n<p>Alud&iacute;a al momento en el que la humanidad tom&oacute; conciencia del poder destructivo de la bomba at&oacute;mica: como entonces, la tecnolog&iacute;a ya existe y ahora toca decidir c&oacute;mo controlarla. <\/p>\n<p>Solo que, a diferencia de las armas nucleares -caras, escasas y con una firma inequ&iacute;voca- los sistemas aut&oacute;nomos son baratos, masificables y dif&iacute;ciles de atribuir. Por lo tanto, son estructuralmente m&aacute;s dif&iacute;ciles de controlar mediante tratados. <\/p>\n<p>Ese mismo a&ntilde;o, la Asamblea General de la ONU aprob&oacute; una resoluci&oacute;n sobre armas aut&oacute;nomas con 166 votos a favor. Solo tres pa&iacute;ses votaron en contra: Rusia, Corea del Norte y Bielorrusia. <\/p>\n<p>Hay un consenso moral casi universal. Lo que no hay es un tratado vinculante ni mecanismos de cumplimiento, algo que el Secretario General de la ONU pidi&oacute; para 2026.<\/p>\n<p>Algunos expertos, sin embargo, temen que, como con otras armas, ese tratado solo llegue despu&eacute;s de una cat&aacute;strofe.<\/p>\n<h2>La l&oacute;gica de la velocidad<\/h2>\n<p>Mientras los abogados y los diplom&aacute;ticos debaten, los ingenieros construyen. Y lo que construyen ya est&aacute; siendo usado.<\/p>\n<p>El general estadounidense Stanley McChrystal, excomandante de las fuerzas de EE.UU. y la OTAN en Afganist&aacute;n, lo resumi&oacute; una vez con crudeza: nunca antes en la historia alguien hab&iacute;a podido ver, decidir y matar a una persona al otro lado del mundo en cuesti&oacute;n de minutos.<\/p>\n<p>Esa frase ya requiere actualizaci&oacute;n.<\/p>\n<p>La cuesti&oacute;n ya no es solo ver, decidir y matar, sino cu&aacute;nto de esa decisi&oacute;n estamos dispuestos a delegarle a una m&aacute;quina.<\/p>\n<p>Esa transici&oacute;n ya se est&aacute; probando en el campo de batalla. En Ucrania, en diciembre de 2024, las fuerzas del pa&iacute;s llevaron a cabo la primera operaci&oacute;n completamente no tripulada cerca de J&aacute;rkiv: decenas de veh&iacute;culos terrestres aut&oacute;nomos y drones atacaron posiciones rusas sin soldados en el terreno.<\/p>\n<p>La l&oacute;gica t&aacute;ctica es iluminadora. Los operadores lanzan los drones y veh&iacute;culos aut&oacute;nomos sabiendo que la comunicaci&oacute;n con ellos ser&aacute; bloqueada en minutos. El &eacute;xito depende de cu&aacute;n bien est&eacute;n programados para actuar solos cuando eso ocurra. <\/p>\n<p>Navegan de forma aut&oacute;noma, evaden interferencias electr&oacute;nicas y contin&uacute;an la misi&oacute;n incluso sin supervisi&oacute;n humana. <\/p>\n<p>No es un detalle menor: en ese frente, los drones ya provocan entre el 70% y el 80&#8239;% de las bajas, seg&uacute;n estimaciones de inteligencia europeas.<\/p>\n<figure>\n        <img loading=\"lazy\" decoding=\"async\" alt=\"Logo de Open AI sobre dibujo del Pent&aacute;gono\" src=\"https:\/\/cablesdenoticias.prensalibre.com\/wp-content\/uploads\/2026\/03\/22dc5ee0-1f23-11f1-9120-a910fc22c6ac.jpg\" width=\"1024\" height=\"683\"><\/p>\n<footer>Getty Images<\/footer><figcaption>Apenas Anthopic perdi&oacute; el contrato, su rival Open AI lo tom&oacute;&#8230; y no era la &uacute;nica esperando entre bambalinas. <\/figcaption><\/figure>\n<p>En la regi&oacute;n del Golfo la tendencia apunta en la misma direcci&oacute;n. <\/p>\n<p>El almirante estadounidense Brad Cooper, jefe del Comando Central de EE.UU., reconoci&oacute; que la inteligencia artificial es una herramienta clave para identificar objetivos, al permitir &#8220;tamizar vastas cantidades de datos en segundos para que nuestros l&iacute;deres puedan tomar decisiones m&aacute;s inteligentes m&aacute;s r&aacute;pido que el enemigo&#8221;.<\/p>\n<p>M&aacute;s r&aacute;pido que el enemigo. Esa frase contiene toda la l&oacute;gica que hace tan dif&iacute;cil frenar este proceso. En un contexto competitivo, quien se detiene a revisar pierde. La presi&oacute;n estructural empuja siempre hacia menos supervisi&oacute;n humana, no hacia m&aacute;s.<\/p>\n<h2>Tecnolog&iacute;a divina<\/h2>\n<p>La historia tiene un desenlace parad&oacute;jico. Dario Amodei declar&oacute;, refiri&eacute;ndose a las exigencias del Pent&aacute;gono: &#8220;No podemos, en conciencia, acceder a su solicitud&#8221;.  Anthropic perdi&oacute; el contrato.<\/p>\n<p>Horas despu&eacute;s del anuncio, OpenAI lleg&oacute; un acuerdo con el Departamento de Defensa.<\/p>\n<p>Y entonces ocurri&oacute; algo inesperado. <\/p>\n<p>El d&iacute;a despu&eacute;s de que el Pent&aacute;gono anunciara el nuevo acuerdo, la aplicaci&oacute;n de Claude super&oacute; a ChatGPT de OpenAI en el App Store de Apple por primera vez en su historia. <\/p>\n<p>Esa semana, m&aacute;s de un mill&oacute;n de personas se registraron cada d&iacute;a en Claude, llev&aacute;ndola al primer puesto en m&aacute;s de 20 pa&iacute;ses. Las ventas de la empresa se dispararon entre el p&uacute;blico general.<\/p>\n<p>Hay m&aacute;s. Dos coaliciones de trabajadores de Amazon, Google, Microsoft y OpenAI les pidieron p&uacute;blicamente a sus empresas que siguieran el ejemplo de Anthropic. <\/p>\n<p>Decenas de cient&iacute;ficos e investigadores de compa&ntilde;&iacute;as rivales firmaron un amicus brief en apoyo a Anthropic. <\/p>\n<p>Un general retirado de la Fuerza A&eacute;rea, que estuvo al frente del Proyecto Maven -el pol&eacute;mico programa de IA para drones que en 2018 provoc&oacute; protestas masivas de empleados de Google hasta que la empresa abandon&oacute; el contrato- escribi&oacute; en redes sociales que, aunque se esperar&iacute;a que apoyara al Pent&aacute;gono, simpatizaba m&aacute;s con la postura de Anthropic.<\/p>\n<p>Y quiz&aacute;s igual de importante: Anthropic consolid&oacute; el apoyo de sus propios ingenieros, algunos de los profesionales m&aacute;s cotizados de Silicon Valley, en uno de los mercados de talento m&aacute;s competitivos del planeta, donde los contratos para atraer o retener a estas personas pueden valer decenas de millones de d&oacute;lares. <\/p>\n<p>No todos en ese mundo se sienten c&oacute;modos construyendo tecnolog&iacute;a para matar. Anthropic, al trazar sus l&iacute;neas, les dijo que trabajar all&iacute; no requer&iacute;a ignorar esa incomodidad.<\/p>\n<p>En un mundo en el que la IA puede facilitar la captura de alguien al otro lado del mundo y nadie tiene claro c&oacute;mo juzgar esas acciones, una empresa privada en San Francisco se convirti&oacute; en uno de los pocos actores dispuestos a poner l&iacute;mites. <\/p>\n<p>Aun as&iacute;, no podemos depender de los escr&uacute;pulos de una firma de Silicon Valley.<\/p>\n<p>Seguimos lidiando con lo que el bi&oacute;logo Edward O. Wilson defini&oacute; como &#8220;el verdadero problema de la humanidad&#8221;.<\/p>\n<p>&#8220;Tenemos emociones paleol&iacute;ticas, instituciones medievales y tecnolog&iacute;a casi divina&#8221;.<\/p>\n<figure>\n        <img loading=\"lazy\" decoding=\"async\" alt=\"l&iacute;nea\" src=\"https:\/\/cablesdenoticias.prensalibre.com\/wp-content\/uploads\/2026\/03\/cad4fc40-1e0d-11f1-9120-a910fc22c6ac.png\" width=\"800\" height=\"100\"><\/p>\n<footer>BBC<\/footer>\n<\/figure>\n<p><a href=\"https:\/\/www.bbc.com\/mundo?xtor=AL-73-%5Bpartner%5D-%5Bprensalibre.com%5D-%5Blink%5D-%5Bmundo%5D-%5Bbizdev%5D-%5Bisapi%5D\"><em>Haz clic aqu&iacute;<\/em><\/a><em> para leer m&aacute;s historias de BBC News Mundo<\/em>.<\/p>\n<p><a href=\"https:\/\/www.bbc.com\/mundo\/send\/u184973209?xtor=AL-73-%5Bpartner%5D-%5Bprensalibre.com%5D-%5Blink%5D-%5Bmundo%5D-%5Bbizdev%5D-%5Bisapi%5D\"><em>Suscr&iacute;bete aqu&iacute;<\/em><\/a><em> a nuestro nuevo newsletter para recibir cada viernes una selecci&oacute;n de nuestro mejor contenido de la semana<\/em>.<\/p>\n<p><em>Tambi&eacute;n puedes seguirnos en <\/em><a href=\"https:\/\/www.youtube.com\/user\/BBCMundo?sub_confirmation=1\"><em>YouTube<\/em><\/a><em>, <\/em><a href=\"https:\/\/www.instagram.com\/bbcmundo?igsh=Z2lweHlqOG5vdDc3&amp;utm_source=qr\"><em>Instagram<\/em><\/a><em>, <\/em><a href=\"https:\/\/www.tiktok.com\/@bbcnewsmundo?is_from_webapp=1&amp;sender_device=pc\"><em>TikTok<\/em><\/a><em>, <\/em><a href=\"https:\/\/twitter.com\/bbcmundo\"><em>X<\/em><\/a><em>, <\/em><a href=\"https:\/\/www.facebook.com\/BBCnewsMundo\"><em>Facebook<\/em><\/a><em> y en nuestro nuevo canal de <\/em><a href=\"https:\/\/whatsapp.com\/channel\/0029VaUm1Ss3WHTbgIXrjw3D\"><em>WhatsApp<\/em><\/a><em>, donde encontrar&aacute;s noticias de &uacute;ltima hora y nuestro mejor contenido.<\/em><\/p>\n<p><em>Y recuerda que puedes recibir notificaciones en nuestra app. Descarga la &uacute;ltima versi&oacute;n y act&iacute;valas<\/em>.<\/p>\n<ul>\n<li><a href=\"https:\/\/www.bbc.com\/mundo\/articles\/c39p7g92v0po?xtor=AL-73-%5Bpartner%5D-%5Bprensalibre.com%5D-%5Blink%5D-%5Bmundo%5D-%5Bbizdev%5D-%5Bisapi%5D\">Qui&eacute;nes son los &#8220;arquitectos de la IA&#8221;, elegidos Persona del A&ntilde;o por la revista Time<\/a><\/li>\n<li><a href=\"https:\/\/www.bbc.com\/mundo\/articles\/cy90nrdjnlpo?xtor=AL-73-%5Bpartner%5D-%5Bprensalibre.com%5D-%5Blink%5D-%5Bmundo%5D-%5Bbizdev%5D-%5Bisapi%5D\">Por qu&eacute; algunos expertos creen que la inteligencia artificial ya cobr&oacute; conciencia <\/a><\/li>\n<li><a href=\"https:\/\/www.bbc.com\/mundo\/noticias-65759254?xtor=AL-73-%5Bpartner%5D-%5Bprensalibre.com%5D-%5Blink%5D-%5Bmundo%5D-%5Bbizdev%5D-%5Bisapi%5D\">La inteligencia artificial puede llevar a la extinci&oacute;n de la humanidad: la advertencia de los grandes expertos en IA<\/a><\/li>\n<\/ul>\n<\/div>\n","protected":false},"excerpt":{"rendered":"<p>This post was originally published on this site. Getty ImagesLa disputa entre Anthropic y el Pent&aacute;gono gir&oacute; en torno al acceso &eacute;tico a la IA de punta. Mientras el mundo observaba la operaci&oacute;n estadounidense en Venezuela y c&oacute;mo la guerra con Ir&aacute;n se hac&iacute;a inevitable, en Washington se iba fraguando una batalla que advert&iacute;a que [&hellip;]<\/p>\n","protected":false},"author":2,"featured_media":2002,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[11],"tags":[],"class_list":["post-2001","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-bbc-news-mundo-tecnologia"],"_links":{"self":[{"href":"https:\/\/cablesdenoticias.prensalibre.com\/index.php?rest_route=\/wp\/v2\/posts\/2001","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/cablesdenoticias.prensalibre.com\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/cablesdenoticias.prensalibre.com\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/cablesdenoticias.prensalibre.com\/index.php?rest_route=\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/cablesdenoticias.prensalibre.com\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=2001"}],"version-history":[{"count":1,"href":"https:\/\/cablesdenoticias.prensalibre.com\/index.php?rest_route=\/wp\/v2\/posts\/2001\/revisions"}],"predecessor-version":[{"id":2009,"href":"https:\/\/cablesdenoticias.prensalibre.com\/index.php?rest_route=\/wp\/v2\/posts\/2001\/revisions\/2009"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/cablesdenoticias.prensalibre.com\/index.php?rest_route=\/wp\/v2\/media\/2002"}],"wp:attachment":[{"href":"https:\/\/cablesdenoticias.prensalibre.com\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=2001"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/cablesdenoticias.prensalibre.com\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=2001"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/cablesdenoticias.prensalibre.com\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=2001"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}