This post was originally published on this site.
SAN FRANCISCO — El mes pasado, la empresa de inteligencia artificial Anthropic dijo que limitaría el lanzamiento de su último sistema de IA a un grupo reducido de organizaciones, entre ellas, unas cuantas empresas tecnológicas grandes como Microsoft y Google, así como grupos que gestionan componentes clave de Internet.
Claude Mythos, el nuevo sistema es demasiado potente como para compartirlo con el público en general, dijo Anthropic, ya que los hackers podrían utilizarlo para explotar agujeros de seguridad en redes informáticas a una velocidad sorpendente.
Ejecutivos en Silicon Valley y funcionarios en Washington se alarmaron ante lo que Mythos podía hacer y su lanzamiento pudo haber contribuido a que el gobierno de Trump dejara de defender a la IA frente a la regulación gubernamental.
La Casa Blanca está ahora considerando la supervisión gubernamental de los nuevos modelos de IA, a través de un decreto ejecutivo que creará un grupo de trabajo de IA que estará integrado por ejecutivos tecnológicos y funcionarios del Gobierno para examinar posibles procedimientos de supervisión. Entre los posibles planes se encuentra un proceso formal de revisión gubernamental para los nuevos modelos de IA.
Sin embargo, a más de un mes del lanzamiento de Mythos, los expertos en ciberseguridad siguen sin ponerse de acuerdo sobre si Anthropic tomó la decisión correcta o no. Algunos aplauden a la empresa por restringir quién tendrá acceso a Mythos. Otros critican a Anthropic por no compartirlo con un grupo más amplio de investigadores que pudieran probarlo y hacerse una idea de lo que puede y no puede hacer. Hasta ahora, parece que el único consenso es que no hay consenso sobre Mythos.
Anthropic compartió la tecnología con unas 40 organizaciones que sostienen una infraestructura informática crítica, para que puedan utilizar el sistema y corregir vulnerabilidades de seguridad antes de que los hackers las exploten.
Solo unos cuantos grupos o empresas que han estado utilizando Mythos quisieron hablar del tema con The New York Times. No obstante, las empresas y los investigadores que no tuvieron acceso a ella estaban más que dispuestos a compartir su opinión sobre la forma en que Anthropic lanzó su nueva IA.
La retroalimentación que han dado hasta ahora oscila entre una grave preocupación y la indiferencia. Podría pasar algún tiempo antes de que la comunidad tecnológica en general llegue a una conclusión sobre si Anthropic hizo bien en limitar el lanzamiento de Mythos o no, un reto que los ejecutivos de Anthropic reconocen.
“Para capacidades como esta, o para un modelo tan potente como este, se trata de una situación sin precedentes en la que realmente no tenemos todas las respuestas”, dijo en una entrevista Logan Graham, director del Frontier Red Team de Anthropic, que evalúa los riesgos de Claude. “No sabemos realmente cuál es la mejor manera de implementar modelos como este”.
Los expertos pueden analizar la misma situación y llegar a conclusiones muy diferentes debido a la naturaleza intrínsecamente compleja de la ciberseguridad. Se pueden utilizar sistemas como Mythos para atacar redes informáticas, pero también para defenderse de los ataques. Durante décadas, se ha debatido sobre las mejores formas de gestionar esa doble naturaleza.
La mayoría de los expertos coinciden en que las tecnologías de IA como Mythos están cambiando radicalmente la ciberseguridad. El cambio cobró impulso hace unos seis meses, cuando Anthropic y su principal rival, OpenAI, lanzaron nuevos sistemas especialmente eficaces para escribir código informático. Si un sistema de IA puede escribir código, tiene el potencial de encontrar y explotar vulnerabilidades en aplicaciones de software.
Cuando Anthropic presentó Mythos, la empresa dijo que había utilizado la tecnología para encontrar miles de vulnerabilidades de seguridad que habían pasado desapercibidas en sistemas de software populares durante años. Anthropic también dijo que Mythos era más eficaz a la hora de identificar fallos de seguridad dispares y enlazarlos a “cadenas de explotación”, que utilizan los hackers maliciosos para aprovechar varios agujeros de seguridad como parte de un ataque coordinado. En palabras de la empresa, la tecnología representaba un “cambio radical” en cuanto a lo que es posible con la IA.
Cisco, la empresa de hardware y software informático, es una de las empresas que ha utilizado Mythos. Anthony Grieco, vicepresidente sénior y director de seguridad y confianza de la empresa, dijo que la tecnología es significativamente más potente que los sistemas existentes en determinadas áreas.
Empresas como Cisco, comentó, deberían ser “muy agresivas en cuanto a cómo utilizamos esta tecnología para identificar vulnerabilidades, solucionarlas y poner esas soluciones en manos de nuestros clientes lo más rápido posible”.
Afirmó que Mythos era, efectivamente, mejor a la hora de identificar cadenas de explotación. Pero añadió que esas habilidades podían utilizarse para defender una red informática, no solo para atacarla. “Estamos utilizando esa capacidad para ayudar a clasificar las vulnerabilidades y comprender cuáles hay corregir, para que ese tipo de capacidades tengan también una connotación realmente positiva en términos de defensa”, expresó.
Es precisamente por esa razón que algunos investigadores de ciberseguridad sostienen que Anthropic debería difundir de manera más amplia su sistema. Así como cualquier otra herramienta de ciberseguridad, es útil tanto para el ataque como para la defensa.
“La tecnología no es tan peligrosa como para no liberarla”, dijo Gary McGraw, un veterano investigador en seguridad e IA. “Si no lanzas una herramienta como esta –o la acaparas–, no estás resolviendo el problema real”.
Poco después del anuncio de Anthropic, investigadores independientes demostraron que los sistemas de IA existentes podían detectar los mismos agujeros de seguridad que Mythos había encontrado. Algunos expertos en ciberseguridad argumentaron que Anthropic había exagerado los peligros de Mythos.
Para Pavel Gurvich, cofundador y director ejecutivo de la empresa de seguridad Tenzai, parte del problema radica en que los expertos independientes en ciberseguridad no pueden probar el sistema y entender por completo sus fortalezas y debilidades. Este entendimiento puede ayudarlos a defenderse de los ataques de la tecnología.
“No creo que la decisión de compartir el modelo con un grupo tan reducido de empresas nos ayude a avanzar”, dijo Gurvich. “Esto es especialmente cierto porque el anuncio vino acompañado de afirmaciones muy audaces que no podemos evaluar”.
Una semana después de que Anthropic presentara Mythos, su competidor OpenAI dijo que también estaba compartiendo una tecnología similar solo con un grupo de socios. Sin embargo, la empresa compartió el modelo GPT-5.4-Cyber con un grupo mucho más amplio. Dijo que inicialmente compartiría el modelo con cientos de organizaciones y que luego lo pondría a disposición de miles de socios más en las próximas semanas.
(The Times demandó a OpenAI y Microsoft en 2023 por infracción de los derechos de autor de contenidos informativos relacionados con sistemas de IA. Las dos empresas han negado esas acusaciones).
Gurvich afirmó que este enfoque “tenía más sentido”, en parte porque OpenAI dijo que, al compartir su tecnología, trabajará para verificar la identidad de los usuarios con el fin de evitar un uso indebido.
Stanislav Fort, un antiguo investigador de Anthropic que ahora dirige una empresa de seguridad llamada Aisle, dijo que mantener la tecnología de IA en secreto no será posible a largo plazo, ya que son muchos los gigantes tecnológicos, las empresas emergentes y los desarrolladores independientes que están creando sistemas muy potentes. Muchas de estas organizaciones están “abriendo el código fuente” de su IA, lo que permite a cualquiera utilizar y modificar la tecnología subyacente.
A medida que pase el tiempo, añadió, compartir ampliamente estas tecnologías será esencial para la ciberseguridad.
“Mantener la seguridad en la oscuridad en este campo ha sido una mala idea desde hace mucho tiempo,” concluyó.
Carteles que promocionan el modelo de inteligencia artificial Claude de Anthropic en San Francisco el 7 de mayo de 2026. Anthropic sacudió al mundo tecnológico con el lanzamiento limitado de su modelo de IA Claude Mythos. (Jason Henry/The New York Times)

Leave a Reply