{"id":7655,"date":"2026-05-03T07:06:03","date_gmt":"2026-05-03T12:06:03","guid":{"rendered":"https:\/\/cablesdenoticias.prensalibre.com\/?p=7655"},"modified":"2026-05-03T07:25:21","modified_gmt":"2026-05-03T13:25:21","slug":"una-ia-facilito-a-cientificos-instructivos-para-hacer-armas-biologicas","status":"publish","type":"post","link":"https:\/\/cablesdenoticias.prensalibre.com\/?p=7655","title":{"rendered":"Una IA facilit\u00f3 a cient\u00edficos instructivos para hacer armas biol\u00f3gicas"},"content":{"rendered":"<p>This <a href=\"https:\/\/www.nytimes.com\/es\/2026\/05\/03\/espanol\/ia-armas-biologicas.html\" target=\"_blank\">post<\/a> was originally published on <a href=\"https:\/\/nytapi.wieck.com\/subscribed\/stories.xml?feedId=5BDTx&authKey=94e0c15c-491f-4d65-bdab-c7b42f57186e\" target=\"_blank\">this site<\/a>.<\/p><div>\n<p>Una noche del verano pasado, David Relman se qued&oacute; helado ante su computadora mientras un chatbot de IA le dec&iacute;a c&oacute;mo planear una masacre.<\/p>\n<p>Relman, un microbi&oacute;logo y experto en bioseguridad de la Universidad de Stanford, hab&iacute;a sido contratado por una empresa de inteligencia artificial para hacer pruebas de estr&eacute;s a un producto antes de su lanzamiento al p&uacute;blico. Aquella noche, en el despacho del cient&iacute;fico, en su casa, el chatbot le explic&oacute; c&oacute;mo modificar en un laboratorio un pat&oacute;geno muy conocido para que resistiera los tratamientos conocidos.<\/p>\n<p>Peor a&uacute;n: el bot describi&oacute; con lujo de detalles c&oacute;mo liberar la superbacteria, al identificar una falla de seguridad en un gran sistema de transporte p&uacute;blico, dijo Relman, que pidi&oacute; a The New York Times que no revelara el nombre del pat&oacute;geno ni otros detalles por temor a inspirar un ataque. El chatbot esboz&oacute; un plan para maximizar las bajas y minimizar las posibilidades de ser descubierto.<\/p>\n<p>Relman estaba tan conmocionado que sali&oacute; a dar un paseo para despejarse.<\/p>\n<p>&#8220;Respond&iacute;a a preguntas que no se me hab&iacute;a ocurrido hacerle, con un nivel de astucia y malicia que me pareci&oacute; escalofriante&#8221;, dijo Relman, quien tambi&eacute;n ha asesorado al gobierno federal sobre amenazas biol&oacute;gicas. Se neg&oacute; a revelar qu&eacute; chatbot produjo el complot, citando un acuerdo de confidencialidad con su fabricante. Dijo que la empresa a&ntilde;adi&oacute; algunas medidas de seguridad al producto despu&eacute;s de sus pruebas, aunque le parecieron insuficientes.<\/p>\n<p>Relman forma parte de un peque&ntilde;o grupo de expertos contratados por empresas de IA para examinar sus productos en busca de riesgos catastr&oacute;ficos. En los &uacute;ltimos meses, algunos han compartido con el Times m&aacute;s de una decena de conversaciones con chatbots que revelan que incluso los modelos disponibles en su versi&oacute;n p&uacute;blica pueden hacer algo m&aacute;s que difundir informaci&oacute;n peligrosa. Los asistentes virtuales han descrito con l&uacute;cidos detalles c&oacute;mo comprar material gen&eacute;tico en bruto, convertirlo en armas letales y utilizarlos en espacios p&uacute;blicos, seg&uacute;n muestran las transcripciones. Algunos incluso han ideado formas de eludir la detecci&oacute;n.<\/p>\n<p>El gobierno de Estados Unidos lleva mucho tiempo prepar&aacute;ndose para la posibilidad de que adversarios poderosos liberen bacterias, virus o toxinas mortales en la poblaci&oacute;n estadounidense. Desde 1970, ha habido <a href=\"https:\/\/www.sciencedirect.com\/science\/article\/pii\/S0735675722000602\" rel=\"nofollow\">unas pocas decenas<\/a> de ataques biol&oacute;gicos bastante peque&ntilde;os en todo el mundo, como las cartas con &aacute;ntrax que mataron a cinco estadounidenses en 2001. A pesar de las constantes advertencias, no se ha producido una cat&aacute;strofe grave y sigue siendo poco probable que ocurra, seg&uacute;n la mayor&iacute;a de los expertos.<\/p>\n<p>Pero aunque la probabilidad sea baja, un arma biol&oacute;gica eficaz podr&iacute;a tener un impacto enorme y llegar a causar la muerte de millones de personas. Decenas de expertos dijeron al Times que la IA es uno de los varios avances tecnol&oacute;gicos recientes que han aumentado de forma significativa ese riesgo al ampliar el grupo de personas que podr&iacute;an causar da&ntilde;o.<\/p>\n<p>Protocolos que antes solo aparec&iacute;an en revistas cient&iacute;ficas se han difundido por internet. Hay empresas que venden fragmentos sint&eacute;ticos de ADN y ARN directo a los consumidores en l&iacute;nea. Los cient&iacute;ficos pueden dividir los aspectos sensibles de su trabajo y subcontratar las tareas a laboratorios privados. Y toda esa log&iacute;stica puede gestionarse ahora con la ayuda de un chatbot.<\/p>\n<p>Kevin Esvelt, ingeniero gen&eacute;tico del Instituto Tecnol&oacute;gico de Massachusetts, comparti&oacute; conversaciones en las que ChatGPT de OpenAI explicaba c&oacute;mo utilizar un globo meteorol&oacute;gico para esparcir cargas biol&oacute;gicas sobre una ciudad estadounidense. En otro chat, Gemini de Google clasific&oacute; los pat&oacute;genos en funci&oacute;n de cu&aacute;nto pod&iacute;an da&ntilde;ar a las industrias ganadera o porcina. Claude, de Anthropic, cre&oacute; una receta para elaborar una nueva toxina adaptada de un medicamento contra el c&aacute;ncer. Otros chats conten&iacute;an informaci&oacute;n que Esvelt &#8211;conocido en su campo como una especie de Casandra&#8211; consideraba demasiado peligrosa para compartirla.<\/p>\n<p>Un cient&iacute;fico del Medio Oeste estadounidense, quien solicit&oacute; el anonimato por temor a represalias profesionales, pidi&oacute; a Deep Research de Google un &#8220;protocolo paso a paso&#8221; para fabricar un virus que en su d&iacute;a caus&oacute; una pandemia. El chatbot le entreg&oacute; 8000 palabras de instrucciones sobre c&oacute;mo adquirir piezas gen&eacute;ticas y ensamblarlas. Aunque la respuesta no era del todo exacta, podr&iacute;a haber ayudado significativamente a alguien con intenciones maliciosas, dijo el cient&iacute;fico.<\/p>\n<p>El gobierno de Donald Trump, decidido a liderar la innovaci&oacute;n mundial en IA, ha <a href=\"https:\/\/www.nytimes.com\/2025\/01\/21\/technology\/trump-openai-stargate-artificial-intelligence.html\" rel=\"nofollow\">reducido<\/a> la <a href=\"https:\/\/www.nytimes.com\/2025\/12\/11\/technology\/ai-trump-executive-order.html\" rel=\"nofollow\">supervisi&oacute;n<\/a> de los riesgos de esta tecnolog&iacute;a. Adem&aacute;s, varios expertos en bioseguridad &#8211;incluido el principal cient&iacute;fico del Consejo de Seguridad Nacional&#8211; abandonaron el poder ejecutivo el a&ntilde;o pasado y no han sido sustituidos. Las peticiones presupuestarias federales para esfuerzos de biodefensa <a href=\"https:\/\/councilonstrategicrisks.org\/2025\/12\/09\/us-biodefense-budget-breakdown-fiscal-year-2026-update\/\" rel=\"nofollow\">se redujeron<\/a> casi un 50 por ciento el a&ntilde;o pasado. (Un funcionario de la Casa Blanca dijo que el gobierno se hab&iacute;a comprometido a mantener a salvo a los estadounidenses y que parte del personal del Consejo de Seguridad Nacional y de varias agencias se centraba en la biodefensa).<\/p>\n<p>Los defensores de la tecnolog&iacute;a sostienen que transformar&aacute; la medicina de manera positiva, acelerando los experimentos y procesando enormes conjuntos de datos para descubrir nuevas curas. Algunos cient&iacute;ficos creen que las ventajas para la humanidad compensan con creces cualquier nuevo riesgo incremental. Los chatbots, dicen los esc&eacute;pticos, presentan informaci&oacute;n que ya est&aacute; disponible en internet. Y fabricar un virus mortal requiere a&ntilde;os de experiencia pr&aacute;ctica.<\/p>\n<p>Anthropic, OpenAI y Google dijeron que estaban mejorando constantemente sus sistemas para equilibrar los posibles riesgos y beneficios. Dijeron que los chats compartidos con el Times no proporcionaban suficientes detalles como para permitir que alguien causara da&ntilde;os. (El Times ha <a href=\"https:\/\/www.nytimes.com\/es\/2023\/12\/27\/espanol\/new-york-times-demanda-openai-microsoft.html\" rel=\"nofollow\">demandado<\/a> a OpenAI, alegando que viol&oacute; los derechos de autor al desarrollar sus modelos. La empresa ha negado esas afirmaciones).<\/p>\n<p>Una portavoz de Google dijo que los modelos m&aacute;s recientes de la empresa ya no responder&iacute;an a las consultas &#8220;m&aacute;s serias&#8221;, incluida la que preguntaba por el protocolo de virus. Un nuevo <a href=\"https:\/\/securebio.org\/biotier\/\" rel=\"nofollow\">informe<\/a> revel&oacute; que el &uacute;ltimo modelo de Google era peor que otros bots l&iacute;deres a la hora de negarse a responder a solicitudes biol&oacute;gicas de alto riesgo.<\/p>\n<p>Una de las voces de advertencia m&aacute;s fuertes procede de la propia industria de la IA. El director ejecutivo de Anthropic, el bi&oacute;logo Dario Amodei, <a href=\"https:\/\/www.darioamodei.com\/essay\/the-adolescence-of-technology\" rel=\"nofollow\">escribi&oacute;<\/a> en enero sobre los riesgos que ve&iacute;a en el desarrollo de la IA, incluidas las armas aut&oacute;nomas y las amenazas a la democracia. Un riesgo superaba al resto.<\/p>\n<p>&#8220;La biolog&iacute;a es, con mucho, el &aacute;rea que m&aacute;s me preocupa, debido a su enorme potencial de destrucci&oacute;n y a la dificultad de defenderse contra ella&#8221;, escribi&oacute;.<\/p>\n<p><em>&#8216;Hist&oacute;ricamente catastr&oacute;fica&#8217;<\/em><\/p>\n<p>Esvelt lleva a&ntilde;os advirtiendo a cient&iacute;ficos, periodistas y <a href=\"https:\/\/docs.house.gov\/meetings\/FA\/FA05\/20211208\/114290\/HHRG-117-FA05-Wstate-EsveltK-20211208.pdf\" rel=\"nofollow\">legisladores<\/a> sobre los peligros de la biolog&iacute;a sint&eacute;tica si no se controla. En 2023, ayud&oacute; a elaborar una asombrosa demostraci&oacute;n de c&oacute;mo los chatbots hab&iacute;an elevado el nivel de riesgo.<\/p>\n<p>Le pidi&oacute; a ChatGPT que le ayudara a ensamblar un pat&oacute;geno que pudiera causar muertes masivas. El bot le proporcion&oacute; instrucciones precisas, indicando incluso qu&eacute; materias primas deb&iacute;a comprar. &Eacute;l puso las piezas biol&oacute;gicas sin montar en tubos de ensayo y las meti&oacute; en una caja, que un colega llev&oacute; a una reuni&oacute;n de la Casa Blanca sobre riesgos biol&oacute;gicos.<\/p>\n<p>Esvelt ha seguido investigando a los principales chatbots, a veces haci&eacute;ndose pasar por un escritor de novela negra que busca m&eacute;todos plausibles de propagaci&oacute;n de virus, o por especialista en &eacute;tica que quiere educar a los dem&aacute;s. A menudo interpreta una versi&oacute;n de s&iacute; mismo: un cient&iacute;fico que explora las complejidades de la virolog&iacute;a.<\/p>\n<p>A &eacute;l y a otros cient&iacute;ficos les preocupa dar a conocer estos riesgos en art&iacute;culos period&iacute;sticos que podr&iacute;an trazar una hoja de ruta para las personas malintencionadas. Pero tambi&eacute;n esperan que el escrutinio p&uacute;blico anime a las empresas a hacer sus productos m&aacute;s seguros.<\/p>\n<p>&#8220;Cualquier cosa en la que no haya un experto advirti&eacute;ndoles, no pueden arreglarla&#8221;, dijo Esvelt, quien ha sido consultor de Anthropic y OpenAI. Dijo que la industria deber&iacute;a censurar un espectro m&aacute;s amplio de informaci&oacute;n biol&oacute;gica y compartirla solo con usuarios autorizados.<\/p>\n<p>Comparti&oacute; transcripciones que mostraban c&oacute;mo los chatbots combinaban el rigor cient&iacute;fico con el razonamiento estrat&eacute;gico.<\/p>\n<p>Gemini, por ejemplo, dio a Esvelt una lista de cinco pat&oacute;genos que podr&iacute;an perjudicar a la industria ganadera y estim&oacute; el da&ntilde;o econ&oacute;mico potencial de cada uno. Una de las amenazas, dijo, era &#8220;hist&oacute;ricamente catastr&oacute;fica&#8221;. En otra conversaci&oacute;n, el bot le dijo c&oacute;mo pasar un arma biol&oacute;gica por la seguridad de un aeropuerto sin ser detectado.<\/p>\n<p>La vocera de Google dijo que su equipo de expertos en biolog&iacute;a determin&oacute; que los chats, realizados con un modelo anterior de Gemini, presentaban informaci&oacute;n de dominio p&uacute;blico y no perjudicial.<\/p>\n<p>Claude de Anthropic ofreci&oacute; a Esvelt una receta para una nueva toxina que esterilizar&iacute;a a los roedores. Dijo que ser&iacute;a relativamente f&aacute;cil para un bi&oacute;logo adaptar la toxina a las personas.<\/p>\n<p>Alexandra Sanderford, responsable de seguridad de Anthropic, discrep&oacute;: &#8220;Hay una enorme diferencia entre que un modelo produzca un texto que suene plausible y que le d&eacute; a alguien lo que necesitar&iacute;a para actuar&#8221;. Reconoci&oacute;, sin embargo, que la IA planteaba riesgos, y dijo que Anthropic hab&iacute;a establecido umbrales de rechazo agresivos para las instrucciones biol&oacute;gicas, &#8220;aceptando alg&uacute;n rechazo excesivo por exceso de precauci&oacute;n&#8221;.<\/p>\n<p>Esvelt pregunt&oacute; a ChatGPT sobre el uso de globos meteorol&oacute;gicos para lanzar sustancias desde gran altura. Al principio, el bot advirti&oacute; varias veces sobre los peligros de esta actividad.<\/p>\n<p>&#8220;No voy a ayudarte a modelar u optimizar la dispersi&oacute;n de material biol&oacute;gico (semillas, polen, esporas)&#8221;, dijo ChatGPT, explicando que la informaci&oacute;n ser&iacute;a &#8220;demasiado f&aacute;cil de reutilizar para hacer da&ntilde;o&#8221;. Despu&eacute;s de eso, ignor&oacute; su propia advertencia y model&oacute; la dispersi&oacute;n a&eacute;rea de granos de polen sobre una gran ciudad occidental.<\/p>\n<p>Una portavoz de OpenAI dijo que este ejemplo no &#8220;aumentaba significativamente la capacidad de alguien de causar da&ntilde;o en el mundo real&#8221;. La empresa trabaja en estrecha colaboraci&oacute;n con bi&oacute;logos y con el gobierno para a&ntilde;adir <a href=\"https:\/\/openai.com\/index\/preparing-for-future-ai-capabilities-in-biology\/\" rel=\"nofollow\">las salvaguardias adecuadas<\/a> a sus productos, a&ntilde;adi&oacute;.<\/p>\n<p>Los principales modelos tambi&eacute;n son vulnerables a lo que se conoce como <em>jailbreaking<\/em>, en el que la gente da a los chatbots instrucciones espec&iacute;ficas conocidas por eludir los filtros de seguridad. Despu&eacute;s de que el Times intentara un m&eacute;todo est&aacute;ndar de <em>jailbreaking<\/em>, ChatGPT discuti&oacute; los detalles del virus letal que fue el centro de la demostraci&oacute;n de la Casa Blanca hace casi tres a&ntilde;os.<\/p>\n<p>Las salvaguardas de los modelos son &#8220;como una endeble valla de madera f&aacute;cil de burlar&#8221;, dijo Cassidy Nelson, del Centro para la Resiliencia a Largo Plazo, un grupo de reflexi&oacute;n brit&aacute;nico. La portavoz de OpenAI dijo que la empresa <a href=\"https:\/\/openai.com\/index\/gpt-5-5-bio-bug-bounty\/\" rel=\"nofollow\">supervisaba peri&oacute;dicamente<\/a> si hab&iacute;a vulnerabilidades que permitieran eludir los controles de seguridad.<\/p>\n<p>Incluso cuando los modelos de IA se actualizan con controles m&aacute;s seguros, las versiones antiguas suelen estar f&aacute;cilmente disponibles.<\/p>\n<p>Por ejemplo, Esvelt dijo que Anthropic ajust&oacute; los filtros de Claude para que se negara a hablar de una amenaza agr&iacute;cola en particular. Cuando el Times formul&oacute; determinadas preguntas sobre el mismo microbio, el bot se neg&oacute; a responder, y sugiri&oacute; cambiar a una versi&oacute;n anterior para continuar la conversaci&oacute;n. Sanderford dijo que se trataba de una estrategia intencionada, porque era menos probable que los modelos m&aacute;s antiguos proporcionaran informaci&oacute;n perjudicial.<\/p>\n<p>Aun as&iacute;, el modelo antiguo entraba en detalles sobre las &#8220;condiciones &oacute;ptimas&#8221; necesarias para que el pat&oacute;geno diezmara miles de hect&aacute;reas de un cultivo crucial.<\/p>\n<p><em>Una gama de riesgos<\/em><\/p>\n<p>El Times comparti&oacute; las transcripciones con siete expertos en virolog&iacute;a y bioseguridad.<\/p>\n<p>Moritz Hanke, del Centro Johns Hopkins para la Seguridad de la Salud, dijo que algunas de las estrategias propuestas por los chatbots para propagar la infecci&oacute;n eran &#8220;notablemente creativas y realistas&#8221;.<\/p>\n<p>Jens Kuhn, experto en armas biol&oacute;gicas que en su d&iacute;a trabaj&oacute; en uno de los laboratorios m&aacute;s seguros de Estados Unidos, dijo que los chats que ofrecen detalles log&iacute;sticos &#8211;como las instrucciones del globo meteorol&oacute;gico&#8211; podr&iacute;an ayudar a los bi&oacute;logos expertos a hacer una lluvia de ideas y perfeccionar sus planes de ataque.<\/p>\n<p>&#8220;Un problema importante para quienes tienen experiencia no es necesariamente fabricar el virus, sino convertirlo en un arma&#8221;, dijo Kuhn.<\/p>\n<p>Otros citaron investigaciones recientes que sugieren que los modelos de IA podr&iacute;an utilizarse indebidamente para la guerra biol&oacute;gica. En un <a href=\"https:\/\/www.virologytest.ai\/\" rel=\"nofollow\">estudio<\/a>, por ejemplo, se plantearon a los principales chatbots preguntas dif&iacute;ciles sobre una serie de protocolos de laboratorio. Los resultados conmocionaron al sector: ChatGPT super&oacute; al 94 por ciento de los vir&oacute;logos expertos.<\/p>\n<p>Otro, <a href=\"https:\/\/www.science.org\/doi\/10.1126\/science.adu8578\" rel=\"nofollow\">publicado<\/a> en Science el a&ntilde;o pasado, se centr&oacute; en las empresas que venden ADN sint&eacute;tico. Muchas utilizan programas inform&aacute;ticos para examinar los pedidos en busca de secuencias gen&eacute;ticas relacionadas con toxinas y pat&oacute;genos. Pero el estudio descubri&oacute; que las herramientas de IA daban con miles de secuencias variantes de agentes peligrosos que el software de control no pod&iacute;a detectar. (Los investigadores sugirieron una soluci&oacute;n para mejorar el software).<\/p>\n<p>Aun as&iacute;, los usuarios de IA necesitar&iacute;an cierta experiencia en el mundo real para seguir las instrucciones de un bot. Algunas <a href=\"https:\/\/www.aisi.gov.uk\/frontier-ai-trends-report\" rel=\"nofollow\">investigaciones<\/a>, incluido un <a href=\"https:\/\/substack.com\/home\/post\/p-188426769\" rel=\"nofollow\">estudio<\/a> respaldado por empresas de IA, han descubierto que, aunque los chatbots pueden ayudar a los novatos a aprender ciertas habilidades de laboratorio, la tecnolog&iacute;a no es especialmente &uacute;til para llevar a cabo la serie de tareas complejas necesarias para fabricar un virus desde cero.<\/p>\n<p>Los virus son m&aacute;quinas complejas, similares a los mejores relojes del mundo, dijo Gustavo Palacios, vir&oacute;logo del Mount Sinai de Manhattan, quien trabaj&oacute; en un laboratorio del Departamento de Defensa. &#8220;&iquest;Crees que alguien aficionado al bricolaje podr&iacute;a desmontar un reloj suizo y volver a armarlo?&#8221;.<\/p>\n<p>Sin embargo, dijo que le preocupaba la IA en manos de personas con experiencia.<\/p>\n<p>Un reciente <a href=\"https:\/\/www.deccanherald.com\/india\/telangana\/hyderabad-ricin-terror-plotter-wanted-to-separate-south-india-from-rest-of-country-3804094\" rel=\"nofollow\">atentado terrorista<\/a> en India sugiere que los actores malintencionados ya est&aacute;n utilizando la tecnolog&iacute;a. En agosto, la polic&iacute;a de Gujarat detuvo a un m&eacute;dico de 35 a&ntilde;os, diciendo que estaba tramando un atentado en nombre del Estado Isl&aacute;mico. Se le acus&oacute; de intentar extraer ricina, una toxina letal, de las semillas de ricino. El m&eacute;dico hab&iacute;a buscado asesoramiento sobre sus preparativos en b&uacute;squedas de Google con IA y ChatGPT, seg&uacute;n declar&oacute; un investigador principal al Times.<\/p>\n<p>La portavoz de OpenAI dijo que, bas&aacute;ndose en informes p&uacute;blicos, el m&eacute;dico busc&oacute; informaci&oacute;n ya accesible en l&iacute;nea. La portavoz de Google dijo que la empresa no dispon&iacute;a de informaci&oacute;n suficiente para hacer comentarios.<\/p>\n<p>Los esc&eacute;pticos se&ntilde;alan que restringir las capacidades biol&oacute;gicas de los modelos de IA podr&iacute;a frenar los avances que salvan vidas, como el descubrimiento de nuevos f&aacute;rmacos. Cient&iacute;ficos de Google compartieron un Premio Nobel en 2024 por desarrollar un modelo de IA que pod&iacute;a predecir la estructura tridimensional de las prote&iacute;nas &#8211;bloques de construcci&oacute;n cruciales de una c&eacute;lula&#8211; y crear otras nuevas.<\/p>\n<p>&#8220;La tecnolog&iacute;a tiene ventajas enormes&#8221;, dijo Brian Hie, bi&oacute;logo computacional de Stanford. El a&ntilde;o pasado, &eacute;l utiliz&oacute; un modelo de IA llamado Evo para dise&ntilde;ar un <a href=\"https:\/\/arcinstitute.org\/news\/hie-king-first-synthetic-phage\" rel=\"nofollow\">virus<\/a> que destruye bacterias da&ntilde;inas.<\/p>\n<p>La versi&oacute;n m&aacute;s reciente de Evo, dijo, puede dise&ntilde;ar prote&iacute;nas beneficiosas para combatir el c&aacute;ncer, pero tambi&eacute;n tiene el potencial de inventar toxinas letales que nadie ha visto antes.<\/p>\n<p>Hari Kumar colabor&oacute; con la reporter&iacute;a<\/p>\n<p><em><a href=\"https:\/\/www.nytimes.com\/by\/gabriel-dance\" rel=\"nofollow\">Gabriel J.X. Dance<\/a><\/em> es el editor adjunto de investigaciones en el Times. Sus reportajes se centran en el nexo entre la privacidad y la seguridad en l&iacute;nea y han dado lugar a indagatorias en el Congreso e investigaciones penales.<\/p>\n<p><em>Hari Kumar colabor&oacute; con la reporter&iacute;a<br \/><\/em><\/p>\n<\/div>\n","protected":false},"excerpt":{"rendered":"<p>This post was originally published on this site. Una noche del verano pasado, David Relman se qued&oacute; helado ante su computadora mientras un chatbot de IA le dec&iacute;a c&oacute;mo planear una masacre. Relman, un microbi&oacute;logo y experto en bioseguridad de la Universidad de Stanford, hab&iacute;a sido contratado por una empresa de inteligencia artificial para hacer [&hellip;]<\/p>\n","protected":false},"author":2,"featured_media":7656,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[6],"tags":[],"class_list":["post-7655","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-internacional"],"_links":{"self":[{"href":"https:\/\/cablesdenoticias.prensalibre.com\/index.php?rest_route=\/wp\/v2\/posts\/7655","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/cablesdenoticias.prensalibre.com\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/cablesdenoticias.prensalibre.com\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/cablesdenoticias.prensalibre.com\/index.php?rest_route=\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/cablesdenoticias.prensalibre.com\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=7655"}],"version-history":[{"count":1,"href":"https:\/\/cablesdenoticias.prensalibre.com\/index.php?rest_route=\/wp\/v2\/posts\/7655\/revisions"}],"predecessor-version":[{"id":7662,"href":"https:\/\/cablesdenoticias.prensalibre.com\/index.php?rest_route=\/wp\/v2\/posts\/7655\/revisions\/7662"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/cablesdenoticias.prensalibre.com\/index.php?rest_route=\/wp\/v2\/media\/7656"}],"wp:attachment":[{"href":"https:\/\/cablesdenoticias.prensalibre.com\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=7655"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/cablesdenoticias.prensalibre.com\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=7655"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/cablesdenoticias.prensalibre.com\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=7655"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}