Blog

  • Por qué las grandes compañías de IA quieren que les tengamos miedo

    Por qué las grandes compañías de IA quieren que les tengamos miedo

    This post was originally published on this site.

    Manos sostienen una pantalla con un icono de advertencia y un cursor sobre un fondo de circuitos digitales.

    Serenity Strull/ BBC/ Getty Images

    Detenme si ya has escuchado esto antes: una empresa tecnológica afirma haber desarrollado una nueva inteligencia artificial (IA) tan poderosa que resulta aterradora.

    Al parecer, es demasiado peligrosa para ser lanzada al mundo; las consecuencias serían catastróficas.

    Por suerte para nosotros, la mantendrán bajo llave por el momento. Solo querían que lo supieras.

    Eso es exactamente lo que la empresa de IA Anthropic nos está diciendo sobre su último modelo: Claude Mythos.

    La compañía asegura que la capacidad de Mythos para detectar fallos de ciberseguridad supera con creces la de los expertos humanos, y que esta tecnología podría tener consecuencias capaces de alterar el orden mundial si cayera en las manos equivocadas.

    “Las repercusiones —para las economías, la seguridad pública y la seguridad nacional— podrían ser graves”, declaró Anthropic en una entrada de blog publicada a principios de abril.

    Algunos, con exagerado tono de alarma, advirtieron que Mythos pronto nos obligará a reemplazar cada dispositivo tecnológico de nuestra vida —incluso el microondas con conexión wifi— para protegernos de esta locura digital.

    Ciertos expertos en seguridad ponen en duda estas afirmaciones, pero dejemos eso de lado por el momento. Esto no es nada nuevo.

    Los ejecutivos de los principales proveedores de IA emiten advertencias con regularidad sobre cómo los productos de su propia industria podrían acabar con la humanidad.

    ¿Para qué les tengamos miedo?

    Es una forma extraña de referirse a su propio trabajo por parte de cualquier empresa.

    No es habitual escuchar a McDonald’s anunciar que ha creado una hamburguesa tan aterradoramente deliciosa que resultaría poco ético cocinarla para el público.

    Elon Musk con traje negro y corbata, de perfil, en un interior moderno con paredes de vidrio.

    Getty Images
    Elon Musk creó su propia empresa de inteligencia artificial, llamada xAI.

    Estrategia del miedo

    He aquí una teoría.

    Según algunos analistas, a las empresas de IA les conviene mantenernos obsesionados con la idea del apocalipsis, ya que esto desvía la atención del daño muy real que ya están causando en el mundo.

    Los líderes tecnológicos sostienen que simplemente nos están advirtiendo sobre un futuro inevitable y que la seguridad es una prioridad absoluta, ya sea ahora o más adelante.

    Sin embargo, otros argumentan que lo que realmente estamos presenciando es una estrategia de infundir miedo, que exagera el potencial de la tecnología y sirve para impulsar el precio de las acciones.

    Además, fomenta la narrativa de que los organismos reguladores deben mantenerse al margen, bajo el pretexto de que estas empresas de IA son las únicas capaces de detener a los “malos” y de desarrollar esta tecnología de manera responsable.

    “Si se presentan estas tecnologías como algo casi sobrenatural en cuanto a su peligrosidad, nos hace sentir impotentes, como si estuviéramos superados”, afirma Shannon Vallor, profesora de ética de datos e inteligencia artificial en la Universidad de Edimburgo.

    “Como si las únicas personas a las que pudiéramos recurrir fueran las propias empresas”, añade.

    Que alguien me detenga

    Un portavoz de Anthropic me comentó que la empresa ha sido clara con respecto a estas cuestiones.

    Compartieron entradas de blog de otras organizaciones que respaldaban las capacidades cibernéticas de Mythos, pero no dijeron nada para abordar los puntos planteados en este artículo, salvo un comentario que incluiré más adelante.

    Esta no es la primera vez que el director de Anthropic, Dario Amodei, trabaja en una herramienta que la propia empresa de la que es parte declaró demasiado peligrosa para el público.

    En 2019, cuando Amodei era ejecutivo en OpenAI, la compañía anunció GPT-2.

    Él y otros líderes de la empresa afirmaron que simplemente no podían lanzar GPT-2 debido a “preocupaciones sobre las aplicaciones malintencionadas de la tecnología”.

    Se trataba de una herramienta mucho menos sofisticada que ChatGPT.

    Y, meses después, la lanzaron de todos modos (el director ejecutivo de OpenAI, Sam Altman, publicó una entrada de blog en la que afirmó que la empresa asume la incertidumbre, aunque dijo que los temores en torno a GPT-2 estaban “fuera de lugar”).

    Altman criticó el “marketing basado en el miedo” de Anthropic en una reciente entrevista en un podcast. Sin embargo, su propia estrategia de “he creado un monstruo” se remonta a años atrás.

    “Es muy probable que la IA conduzca al fin del mundo, pero, mientras tanto, surgirán grandes empresas”, dijo Altman en 2015.

    Años más tarde, Altman sostuvo que pierde el sueño preguntándose si “ha hecho algo realmente malo al lanzar ChatGPT”.

    Si tan solo alguien le hubiera advertido.

    Varias manos interactúan con una pantalla de computadora llena de ventanas emergentes con íconos de advertencia y error.

    Serenity Strull/ BBC/ Getty Images
    Las empresas de IA dicen que su tecnología podría acabar con el mundo. También quieren que la compres.

    “Riesgo de extinción”

    Cientos de líderes tecnológicos —entre ellos Altman, Amodei, Bill Gates y Demis Hassabis, director ejecutivo de Google DeepMind— respaldaron en 2023 una breve declaración que decía: “Mitigar el riesgo de extinción derivado de la IA debería ser una prioridad global, junto con otros riesgos a escala social, tales como las pandemias y la guerra nuclear”.

    Ese mismo año, magnates como Elon Musk firmaron una carta en la que solicitaban una pausa de seis meses en el desarrollo de IA avanzada.

    Menos de seis meses después, Musk anunció su nueva empresa de inteligencia artificial: xAI.

    “Esto es, sencillamente, parte de un patrón de afirmaciones infundadas sobre el poder”, sostiene Emily M. Bender, profesora de lingüística computacional y procesamiento del lenguaje natural en la Universidad de Washington, y coautora del libro “La estafa de la IA”.

    Según Bender, esta actitud no se limita a OpenAI y Anthropic; constituye la postura habitual de toda la industria de la IA.

    “Vienen a decir: ‘Miren hacia aquí; no presten atención a la destrucción medioambiental, a la explotación laboral ni a todos esos sistemas sociales que estamos desmantelando’. Lo único que debe preocuparnos, según ellos, es asegurarnos de que esta tecnología no se convierta en esa entidad malévola que acabe destruyendo a la humanidad”, explica.

    Consulté a OpenAI sobre todos estos aspectos.

    Un portavoz compartió una reciente entrada de blog de Altman, en la que escribía que OpenAI “se opondría a la posibilidad de que esta tecnología consolide el poder en manos de unos pocos”, y añadía que “las decisiones clave sobre la IA deben tomarse mediante procesos democráticos y principios igualitarios, y no ser adoptadas exclusivamente por los laboratorios de IA”.

    ¿Es Mythos realmente tan perjudicial?

    Anthropic asegura que su nuevo modelo ya ha detectado miles de vulnerabilidades de “alta gravedad” en todo el panorama tecnológico, alcanzando un nivel de eficacia que supera al de los expertos humanos.

    Asimismo, anunció una nueva alianza con más de 40 empresas y colectivos en un “intento urgente” por subsanar dichas vulnerabilidades antes de que los hackers tengan oportunidad de explotarlas.

    Un portavoz de la empresa señaló que Anthropic ha buscado de forma intencional alianzas con organizaciones para reparar los sistemas informáticos básicos que concentran la mayor parte del problema.

    No obstante, existen serias dudas en torno a dichas afirmaciones. Heidy Khlaaf, científica jefe de IA en el Instituto AI Now, dice que esto no le sorprende.

    Khlaaf ha dedicado toda su carrera profesional a desarrollar y auditar, precisamente, el tipo de herramientas de análisis de código que Anthropic asegura haber superado.

    Además, ha trabajado en el ámbito de la seguridad digital en instalaciones nucleares.

    Khlaaf afirma que la mayor señal de alarma fue la ausencia de datos sobre las tasas de falsos positivos: una métrica estándar en la industria que indica con qué frecuencia una herramienta de seguridad señala algo que no constituye un problema real.

    “No se trata de una métrica desconocida”, dice Khlaaf.

    “Es, en cierto modo, el indicador más importante de la utilidad de una herramienta”.

    Anthropic no hizo mención alguna de ello y eludió la pregunta cuando solicité sus comentarios al respecto.

    Tampoco comparó Anthropic el rendimiento de Mythos con el de las herramientas existentes en las que los ingenieros de seguridad han confiado durante décadas.

    Asimismo, han surgido algunas especulaciones que sugieren que Anthropic podría haber postergado el lanzamiento masivo de Mythos debido a que no disponía de la capacidad de cómputo necesaria.

    Anthropic tampoco respondió cuando le consulté sobre este asunto.

    Nada de esto implica que la amenaza sea imaginaria.

    “Es posible que Mythos sea una herramienta competente”, señala Khlaaf.

    Las herramientas de IA son, en efecto, idóneas para analizar bases de código masivas, y la detección automática de vulnerabilidades de seguridad representa un peligro real y apremiante.

    No obstante, Khlaaf se muestra escéptica ante las afirmaciones de Anthropic, dado que carecen de pruebas que las comprueben.

    “Creo que existen numerosas fisuras en esa narrativa que presenta a Mythos como una herramienta todopoderosa que, por ello, no se puede lanzar al público”, indica.

    ¿Por qué tan grave?

    Evitar el fin del mundo es, según afirman, la razón misma de la existencia de OpenAI y Anthropic.

    OpenAI se fundó como una organización sin fines de lucro, con la promesa de desarrollar la IA de manera segura antes de que gigantes tecnológicos supuestamente menos responsables —como Google y Meta— se les adelantaran.

    Más tarde, un grupo disidente abandonó OpenAI para fundar Anthropic y alegó que su antiguo empleador no estaba lo suficientemente comprometido con la seguridad.

    Ahora, ambas organizaciones trabajan para convertirse en empresas de capital abierto y vender acciones en el mercado bursátil.

    “Si quieres entender cómo se comportará una organización —y, en particular, una corporación—, fíjate en cuáles son sus incentivos”, señala Vallor.

    Dario Amodei

    Bloomberg vía Getty Images
    Dario Amodei, de Anthropic, está detrás de Claude Mythos.

    Google eliminó sus “líneas rojas” respecto al desarrollo de armas basadas en IA.

    OpenAI libró una batalla legal para desprenderse de su estatus de organización sin fines de lucro.

    Anthropic abandonó su política insignia, que consistía en no entrenar jamás un modelo de IA si la empresa no podía garantizar medidas de seguridad adecuadas.

    “Yo no contaría con que [ninguna de estas empresas] renuncie a la oportunidad de dominar el mercado con tal de seguir siendo ‘los buenos’”, dice Vallor.

    Mientras tanto, existe un fuerte impulso para implementar la IA en el sector sanitario, a pesar de las serias preocupaciones que suscita la posibilidad de diagnósticos erróneos.

    Los centros de datos alimentados por gas podrían emitir más gases de efecto invernadero que países enteros.

    La IA presuntamente está llevando a masas de personas vulnerables al borde de la psicosis e incluso al suicidio.

    Un creciente número de investigaciones sugiere un posible vínculo entre la IA y el deterioro cognitivo.

    Los deepfakes han cruzado el punto de no retorno: ni siquiera pude convencer a mi propia tía de que yo no soy un robot.

    Las empresas de IA aseguran tomarse estos problemas muy en serio.

    OpenAI me envió enlaces a sus posicionamientos sobre salud mental, precisión de la IA, fraudes y estafas. Por su parte, Altman sostiene que la empresa está comprometida a abordar estos problemas en cada una de las etapas del desarrollo de la IA.

    Pero existe una razón por la que estas compañías solo hacen sonar la alarma ante la posibilidad de un apocalipsis, asegura Vallor.

    Si la IA pudiera destruir la sociedad, todos esos otros problemas parecerían mucho menos significativos.

    “La estrategia ha funcionado”, dice.

    “Hablar de sus productos como si pudieran acabar con el mundo no ha perjudicado a estas empresas; no ha limitado su poder. Si acaso, hace que la gente sienta que las únicas entidades a las que pueden recurrir en busca de protección son las propias empresas”, agrega.

    Demonios o mesías

    Casi que al mismo tiempo, algunas de las personas que advierten sobre la destrucción también prometen la salvación.

    En un ensayo de 2024, Altman proyecta que “triunfos asombrosos —como reparar el clima, establecer una colonia espacial y el descubrimiento de toda la física— acabarán convirtiéndose en algo cotidiano”.

    Amodei prometió “un país de genios dentro de un centro de datos”.

    Sam Altman

    Bloomberg vía Getty Images
    Sam Altman criticó el “marketing basado en el miedo” de Anthropic.

    La utopía y el apocalipsis son solo las dos caras de la misma moneda, según Vallor.

    “En cualquiera de los dos casos, la escala es demasiado grandiosa y mítica como para que elementos como la regulación, la gobernanza o el derecho parezcan herramientas con las que se pueda ejercer un control efectivo”, afirma.

    “Esto lleva a la gente a creer que lo único que pueden hacer es sentarse a esperar para averiguar si estas tecnologías resultan ser demonios que acaban con la civilización o mesías que nos regalan una utopía”, añade.

    Incluso el nombre “Mythos” parece diseñado para inspirar un asombro de carácter casi religioso.

    Pero no se trata de dioses; son productos creados por empresas con fines de lucro, indica Vallor.

    Y hemos regulado cosas mucho más amenazantes que los chatbots.

    “Con cualquier otra tecnología —salvo con esta; incluso con la energía nuclear o las armas biológicas—, en ningún otro caso hemos permitido que estas narrativas nos hagan creer que estamos ante fuerzas que escapan al control humano”, dice.

    “Nada en ellas es ingobernable. A menos que decidamos no gobernarlas”, continúa.

    Seamos claros: es teóricamente posible que la IA acabe dominando el mundo.

    No soy adivino, pero pregúntate a ti mismo: ¿te suena esta idea parecida a otras historias que has escuchado provenir de Silicon Valley en el pasado?

    ¿Acaso no se suponía que a estas alturas todos estaríamos viviendo en el Metaverso de Mark Zuckerberg?

    ¿No iba Bitcoin a sustituir a todas las monedas del mundo?

    ¿Recuerdas la década de 2010, cuando oíamos hablar de cómo las redes sociales salvarían la democracia?

    Todas estas cosas aún podrían suceder. O tal vez no.

    ""

    BBC

    Haz clic aquí para leer más historias de BBC News Mundo.

    Suscríbete aquí a nuestro nuevo newsletter para recibir cada viernes una selección de nuestro mejor contenido de la semana.

    También puedes seguirnos en YouTube, Instagram, TikTok, X, Facebook y en nuestro nuevo canal de WhatsApp.

    Y recuerda que puedes recibir notificaciones en nuestra app. Descarga la última versión y actívalas.

  • La inusual medida de Ámsterdam de prohibir la publicidad de carne en sus calles

    La inusual medida de Ámsterdam de prohibir la publicidad de carne en sus calles

    This post was originally published on this site.

    Un cartel de McDonalds en una calle de Ámsterdam, Países Bajos.

    BBC
    Los anuncios de productos hechos con carne ya no se ven en las calles de Ámsterdam.

    Ámsterdam se ha convertido en la primera capital del mundo en prohibir la publicidad pública tanto de la carne como de productos derivados de combustibles fósiles.

    Desde el 1ro de mayo, los anuncios de hamburguesas, automóviles que funcionan con gasolina o diésel y aerolíneas han sido retirados de los carteles publicitarios, las marquesinas de los tranvías y las estaciones de metro.

    En una de las paradas de tranvía más concurridas de la ciudad, junto a una rotonda cubierta de césped y repleta de vibrantes narcisos amarillos y tulipanes naranjas, el paisaje publicitario ha cambiado.

    Ahora promocionan al museo nacional de los Países Bajos, el Rijksmuseum, y un concierto de piano. Hasta la semana pasada, se trataba de nuggets de pollo, vehículos todoterreno y vacaciones económicas.

    Los políticos de la ciudad afirman que esta medida tiene como objetivo alinear el paisaje urbano de Ámsterdam con los propios objetivos medioambientales del gobierno local.

    Estos objetivos buscan que la capital neerlandesa alcance la neutralidad de carbono para el año 2050 y que sus habitantes reduzcan a la mitad su consumo de carne en ese mismo periodo.

    Las políticas locales Anneke Veenhoff y Anke Bakker posan sonrientes con un fondo difuminado en el que se adivinan árboles

    BBC
    Dirigentes políticos locales como Anneke Veenhoff y Anke Bakker respaldan la medida.

    “La crisis climática es muy urgente”, dice Anneke Veenhoff, del Partido de la Izquierda Verde.

    “Si quieres liderar las políticas climáticas y alquilas tus muros exactamente para lo contrario, entonces, ¿qué estás haciendo?

    “La mayoría de la gente no entiende por qué el municipio debería ganar dinero alquilando nuestro espacio público a aquello contra lo que tenemos políticas activas”, agrega.

    Esta opinión es secundada por Anke Bakker, líder del grupo de Ámsterdam del Partido por los Animales holandés.

    Bakker, quien promovió las nuevas restricciones, rechaza las acusaciones de que sean propias de un “Estado niñera”.

    “Todos pueden tomar sus propias decisiones, pero estamos tratando de que las grandes empresas no nos digan todo el tiempo lo que necesitamos comer y comprar”, dice Bakker.

    “En cierto modo, estamos dando a la gente más libertad porque pueden tomar sus propias decisiones, ¿verdad?”, agrega.

    Eliminar ese constante estímulo visual, defiende Bakker, no solo reduce las compras impulsivas, sino que también indica que la carne barata y los viajes intensivos en combustibles fósiles ya no son opciones de estilo de vida aspiracionales.

    Críticas a la medida

    La carne era una porción relativamente pequeña del mercado de la publicidad al aire libre de Ámsterdam: suponía un 0,1% del gasto publicitario en comparación con el 4% de los productos relacionados con los fósiles.

    En cambio, la publicidad estaba dominada por marcas de ropa, carteles de películas y teléfonos móviles.

    La prohibición de anunciar carne envía un mensaje político. Colocar la carne junto a los vuelos, cruceros, autos que funcionan con gasolina y diésel hace que pase de ser una elección dietética privada a un problema climático.

    Como era de esperar, la Asociación Holandesa de Carne, que representa a la industria, cuestionó la medida y la calificó como “una forma indeseable de influir en el comportamiento del consumidor”.

    Además, añadieron que la carne “aporta nutrientes esenciales y debe permanecer visible y accesible para los consumidores”.

    Mientras tanto, la Asociación Holandesa de Agentes de Viajes y Operadores Turísticos dice que la prohibición de publicitar vacaciones que incluyen viajes aéreos es un freno desproporcionado a la libertad comercial de las empresas.

    Para activistas como la abogada Hannah Prins y su organización ambiental Advocates for the Future, que trabajó en estrecha colaboración con el grupo de campaña Fossil-Free Advertising, la prohibición de la publicidad de carne es un intento deliberado de crear un “momento tabaco” para alimentos con alto contenido de carbono.

    “Porque si miro ahora fotos viejas, ahí tienes a Johan Cruyff”, dice Prins, “el famoso futbolista holandés. Estaba en publicidades de tabaco. Eso antes era normal. Murió de cáncer de pulmón”.

    “Se podía fumar en el tren, en los restaurantes. Para mí eso es como: ‘wow, ¿por qué la gente hacía eso?’. Parece muy raro ahora”, agrega.

    “Así que lo que vemos en nuestro espacio público parece ser lo que encontramos normal en nuestra sociedad. Y no creo que sea normal ver animales asesinados en carteles publicitarios. Por eso, creo que es muy bueno que cambie”.

    Un avión en una pista de aterrizaje.

    Getty Images
    Para los críticos, la medida impuesta en la ciudad holandesa restringe la libertad de las empresas.

    Las ciudades precursoras

    La capital holandesa no está empezando desde cero.

    Ubicada unos 18 km al oeste de Ámsterdam, Haarlem fue en 2022 la primera ciudad del mundo en proponer una amplia prohibición de la mayoría de la publicidad de carne en espacios públicos, que entró en vigor en 2024, junto con un veto a los anuncios de combustibles fósiles.

    Desde entonces, Utrecht y Nijmegen han seguido con sus propias medidas que restringen explícitamente la publicidad de carne –y en el caso de Nijmegen también de productos lácteos– en vallas publicitarias municipales, además de las prohibiciones existentes de anuncios de combustibles fósiles, autos que funcionan con gasolina y vuelos.

    A nivel global, decenas de ciudades como Edimburgo, Sheffield, Estocolmo y Florencia han prohibido o están avanzando hacia la prohibición de la publicidad de combustibles fósiles.

    Francia incluso ha implementado una prohibición a nivel nacional.

    Los activistas esperan que el enfoque holandés, que vincula la carne con los combustibles fósiles, actúe como un plan legal y político que otros puedan copiar.

    ¿Impacto real o simbólico?

    Si te detienes a esperar en una parada de tranvía en Ámsterdam es posible que ya no veas una hamburguesa jugosa o un vuelo barato a Berlín.

    Sin embargo, las mismas ofertas llamativas aún pueden aparecer en tu algoritmo en las redes sociales. Y, seamos honestos, probablemente muchos de nosotros estaríamos mirando hacia abajo en dirección a nuestras pantallas mientras esperamos que llegue el tranvía.

    Si las prohibiciones municipales dejan intactas las plataformas digitales, ¿cuánto impacto real pueden llegar a tener en nuestros hábitos o, por el contrario, son puramente mensajes simbólicos?

    Hasta ahora, no hay evidencia directa de que la eliminación de la publicidad de la carne de los espacios públicos conduzca a un cambio hacia sociedades basadas en productos vegetales.

    Sin embargo, algunos investigadores son cautelosamente optimistas, como la profesora Joreintje Mackenbach, epidemióloga y profesional médica, que investiga los patrones de salud en las sociedades.

    Mackenbach describe el movimiento de Ámsterdam como “un fantástico experimento natural para observar”.

    Hannah Prins, sonriente, en un parque.

    BBC
    La abogada Hannah Prins quiere que el consumo de carne sea visto de la misma manera que el tabaquismo.

    “Si vemos publicidad de comida rápida en todas partes, se normaliza el consumo y el comportamiento de consumo rápido”, dice Mackenbach, del Departamento de Epidemiología y Ciencia de Datos del Hospital Universitario de Ámsterdam.

    “Así que, si quitamos ese tipo de mensajes de nuestros entornos de vida públicos, entonces eso también va a tener un impacto en las normas sociales”.

    Mackenbach señala un estudio que dice que la prohibición de los anuncios de comida chatarra del metro de Londres en 2019 llevó a que menos personas compraran dichos productos en la capital de Reino Unido.

    Sonriendo a orillas de un canal en el centro de Ámsterdam, Prins sostiene con firmeza que los pequeños comerciantes especializados de la ciudad se verán beneficiados por la nueva prohibición de la publicidad.

    “Porque todo lo que amamos —los festivales, un buen queso, una floristería en la esquina— no lo conocemos a través de la publicidad”, dice.

    “Por lo general, es a través de personas que conocemos o porque pasamos caminando frente al lugar. Así que creo que los negocios locales van a poder mejorar gracias a esto”.

    “Creo y espero que las grandes empresas contaminantes se asusten un poco y quizás reconsideren el tipo de productos que venden. Creo que realmente se puede ver que el cambio es posible”.

    ""

    BBC

    Haz clic aquí para leer más historias de BBC News Mundo.

    Suscríbete aquí a nuestro nuevo newsletter para recibir cada viernes una selección de nuestro mejor contenido de la semana.

    También puedes seguirnos en YouTube, Instagram, TikTok, X, Facebook y en nuestro canal de WhatsApp.

    Y recuerda que puedes recibir notificaciones en nuestra app. Descarga la última versión y actívalas.

  • Qué sabemos del Proyecto Libertad con el que Trump quiere escoltar a los barcos en el estrecho de Ormuz

    Qué sabemos del Proyecto Libertad con el que Trump quiere escoltar a los barcos en el estrecho de Ormuz

    This post was originally published on this site.

    Dos buques en aguas del estrecho de Ormuz

    Reuters
    El estrecho de Ormuz es un paso obligado para el 20% del petróleo y gas del mundo.

    El presidente Donald Trump anunció que Estados Unidos ayudará a “guiar” a los buques que han quedado varados en el estrecho de Ormuz debido a la guerra con Irán.

    El paso marítimo ha permanecido prácticamente bloqueado desde que EE.UU. e Israel lanzaron ataques aéreos contra Irán, que respondió cerrando el estrecho crucial por el que solía pasar el 20% del petróleo y el gas natural licuado del mundo.

    Es una angosta ruta en la región del golfo Pérsico, una de las rutas marítimas más importantes del mundo. Limita al norte con Irán y al sur con Omán y Emiratos Árabes Unidos (EAU), conectando la región del Golfo con el mar Arábigo.

    Sus aguas tienen suficiente profundidad para los petroleros de crudo más grandes del mundo y es utilizado por los principales productores de petróleo y gas de Medio Oriente, así como por sus clientes.

    Trump llamó a su iniciativa de protección de buques Proyecto Libertad, pero los expertos consideran que, como está planteado, podría conducir a una reanudación de las hostilidades con Irán.

    ¿Qué dijo Trump?

    El presidente afirmó que países “de todo el mundo” le pidieron a Estados Unidos que ayude a liberar sus buques, que se encuentran “atrapados en el estrecho de Ormuz” y son “¡meros espectadores neutrales e inocentes!”.

    Por lo tanto, en respuesta, dijo que EE.UU. “guiará a sus buques de forma segura fuera de estas vías navegables restringidas”.

    “El movimiento de los buques tiene como único objetivo liberar a personas, empresas y países que no han hecho absolutamente nada malo; son víctimas de las circunstancias”, dijo Trump en una publicación en su plataforma Truth Social.

    Añadió que se trata de “un gesto humanitario en nombre de Estados Unidos, de los países de Medio Oriente, pero, en particular, del país de Irán”, ya que muchos de estos buques se están quedando “sin alimentos y sin todo lo necesario para que tripulaciones numerosas puedan permanecer a bordo de forma saludable y en condiciones higiénicas”.

    Vista satelital de Bandar Abbas, la isla de Qeshm, la isla de Larak y la isla de Ormuz en la provincia de Hormozgan, dentro de la región del estrecho de Ormuz.

    Getty Images
    El estrecho de Ormuz está flanqueado por Irán, Omán y Emiratos Árabes Unidos.

    ¿Cuál es la respuesta de Irán?

    El anuncio de Trump parece moderado en comparación con declaraciones anteriores contra Irán.

    Incluso da a entender que Irán es parte de la operación: el presidente llegó incluso a decir que el Proyecto Libertad se emprende también en nombre de Irán.

    Pero en Teherán no ven la operación de esa manera.

    Una declaración del jefe del mando central de Irán afirmó que atacaría a “cualquier fuerza armada extranjera” que intente acercarse o entrar en el estrecho, “especialmente al agresivo ejército estadounidense”.

    El general de división Ali Abdollahi dijo que Irán ha declarado “repetidamente” que el estrecho de Ormuz “está bajo el control” de las fuerzas armadas iraníes, además de que el paso seguro por él debe coordinarse con ellos “en todas las circunstancias”.

    Un grafico describe los potenciales riesgos para las embarcaciones al cruzar el estrecho de Ormuz.

    BBC

    ¿Ya está en marcha el plan?

    Se estima que unos 20.000 marineros y 2.000 buques han quedado atrapados en el golfo Pérsico desde el inicio de la guerra con Irán, según la Organización Marítima Internacional, una agencia de la ONU que regula el transporte marítimo.

    Existe una creciente preocupación por la disminución de los suministros y los efectos sobre la salud física y mental de los marineros.

    Pero Trump no dijo cómo podrían avanzar. Solo amenazó con usar la fuerza “si, de alguna manera, se interfiere en este proceso humanitario”.

    Horas más tarde, el Comando Central de EE.UU. (Centcom) anunció que se utilizarían “destructores lanzamisiles, más de 100 aeronaves con bases terrestres y marítimas, plataformas no tripuladas multidominio y 15.000 miembros del personal militar” para apoyar la operación.

    La declaración no especifica cómo el conjunto de medios y personal prestaría apoyo a los buques.

    Si la protección de EE.UU. pretende ser una oferta de información y asesoramiento a los buques y sus tripulaciones, eso podría ser de poca ayuda dadas las ominosas amenazas de Irán de atacarlos.

    Si, por el contrario, EE.UU. intentara proporcionar a los buques afectados una escolta militar, eso podría volver a situarlos en una confrontación militar directa con Irán.

    Horas después de que supuestamente comenzara la operación estadounidense, el ejército iraní declaró: “Gracias a una advertencia firme y rápida de la Armada de la República Islámica se ha impedido la entrada de destructores enemigos estadounidenses y sionistas en el estrecho de Ormuz”.

    Poco después, el Centcom desmintió las afirmaciones iraníes de que uno de sus buques de guerra fue alcanzado por dos misiles.

    Emiratos Árabes Unidos -un aliado de EE.UU. en el Golfo, que ha sido atacado con frecuencia por Irán durante la guerra- aseguró que un petrolero afiliado a Adnoc, su empresa petrolera estatal, fue blanco de dos drones mientras transitaba por el estrecho de Ormuz.

    Nadie resultó herido, según informó en un comunicado el Ministerio de Asuntos Exteriores del país.

    No está claro si los movimientos del petrolero fueron permitidos por EE.UU. como parte del Proyecto Libertad.

    Este lunes, el Centcom afirmó que destructores lanzamisiles de la Armada de EE.UU. operaban en el golfo Pérsico “tras atravesar el estrecho de Ormuz en apoyo del Proyecto Libertad”.

    Añadió que las fuerzas estadounidenses están “colaborando activamente en los esfuerzos para restablecer el tránsito del transporte marítimo comercial”, pero no dio más detalles.

    “Como primer paso, dos buques mercantes con bandera estadounidense han atravesado con éxito el estrecho de Ormuz y continúan su travesía en condiciones de seguridad”, afirmó también el Centcom.

    Una vez más, no se dieron a conocer detalles sobre la identidad de los buques mercantes.

    Irán ha restringido drásticamente el tráfico por el estrecho desde que comenzó la guerra, permitiendo el paso solo a un puñado de buques, principalmente de países aliados de Teherán.

    ¿Qué está ocurriendo en el estrecho?

    Actualmente está en vigor un alto el fuego destinado a permitir que las partes alcancen un acuerdo para poner fin a las hostilidades, pero se han registrado pocos avances.

    Irán se ha opuesto enérgicamente a que Estados Unidos imponga un bloqueo naval a los puertos iraníes.

    La BBC habló el domingo con el capitán del petrolero Ramoon Kapoor, uno de los que se encuentran atrapados, quien aseguró haber visto “varios ataques, varios misiles, explosiones” y afirmó que la situación era “bastante tensa”.

    También señaló que su tripulación sufre un estrés y una ansiedad considerables.

    El Centro de Operaciones de Comercio Marítimo de Reino Unido ha advertido a los buques que intenten transitar por el estrecho de Ormuz de que se enfrentan a amenazas de seguridad “críticas” debido a las “operaciones militares regionales en curso”, así como a “la proximidad y los peligros de cualquier mina o amenaza de la que se haya informado a lo largo de las rutas de tránsito previstas”.

    Los anuncios de Trump durante el conflicto actual han influido a menudo en los mercados, en particular en el precio del petróleo.

    Sin embargo, su anuncio del Proyecto Libertad no provocó ninguna reacción inmediata.

    Se produjo un rápido repunte tras la afirmación de Irán de haber alcanzado un buque de guerra estadounidense y la posterior negación de Estados Unidos, pero, en general, el precio del barril de crudo Brent se ha mantenido muy por encima de los US$100, más de un 50% por encima de su nivel anterior a la guerra.

    ""

    BBC

    Haz clic aquí para leer más historias de BBC News Mundo.

    Suscríbete aquí a nuestro nuevo newsletter para recibir cada viernes una selección de nuestro mejor contenido de la semana.

    También puedes seguirnos en YouTube, Instagram, TikTok, X, Facebook y en nuestro nuevo canal de WhatsApp.

    Y recuerda que puedes recibir notificaciones en nuestra app. Descarga la última versión y actívalas.

  • 6 antiguas tecnologías que desconcertaron a la ciencia moderna (y aún son difíciles de replicar)

    6 antiguas tecnologías que desconcertaron a la ciencia moderna (y aún son difíciles de replicar)

    This post was originally published on this site.

    Escultura del dios Apolo Belvedere, que lleva unas gafas HoloLens transparentes de color rosa y utiliza realidad virtual con realidad aumentada sobre un fondo rosa.

    Getty Images
    A menudo, lo logrado hace mucho, mucho tiempo, sorprende.

    Secretos perdidos, misterios imposibles, saberes olvidados… ciertos logros tecnológicos dejaron perplejas a generaciones enteras durante siglos.

    Incluso cuando la ciencia moderna comenzó a explicarlos, no disminuyó el asombro ante la sofisticación de lo que distintas culturas desarrollaron.

    Todo mediante prueba y error, observación minuciosa y oficio transmitido de mano en mano, hasta dar con soluciones que funcionaban de maravilla.

    Desde una copa deslumbrante hasta construcciones que resisten terremotos y la corrosidad del agua marina, pasando por esferas de oro inexplicables, hojas metálicas ‘aguadas’ y colores siempre vivos.

    Todo muestra un conocimiento refinado que tardamos siglos en traducir al lenguaje científico moderno.

    He aquí algunos de esos ejemplos de técnicas admirables, varias en algún momento olvidadas, pero casi todas ya decifradas.

    Entenderlas nos dejó con más respeto aún por los artesanos, arquitectos y químicos que las inventaron.

    La copa de Licurgo – siglo IV d.C.

    Copa para beber; de vidrio verde; cubierta con diversas escenas que representan la muerte del rey Licurgo; el borde está adornado con una banda de plata dorada con motivos de hojas, además de una base de plata dorada con hojas de vid caladas.

    © The Trustees of the British Museum
    La copa de Liturgo está en el British Museum, descrita como “la pieza de vidrio más espectacular del período, con decoración abundante, que se sabe haya existido”.

    Así nomás, llama la atención.

    La copa de vidrio está cubierta con diversas escenas que representan la muerte de Licurgo, el rey de los edones en Tracia, tallada a partir de una sola pieza de vidrio, con una estructura externa con hojas de vid caladas que parece flotar alrededor del vaso.

    Conocidas como diatreta, eran artículos de lujo que requerían un nivel de precisión, tiempo y destreza excepcionales para fabricarlas sin romper el vidrio en el proceso.

    Pocas sobrevivieron y entre ellas la de Licurgo sobresale, no sólo por su estado de conservación sino por su decoración figurativa compleja.

    Pero lo extraordinario sucede si cambias la iluminación.

    Si la luz está del mismo lado que quien mira la copa, se ve verde; pero si la luz está al otro lado y atraviesa el vidrio hacia el observador, se ve roja.

    Copa para beber; de vidrio rojo; cubierta con diversas escenas que representan la muerte del rey Licurgo; el borde está adornado con una banda de plata dorada con motivos de hojas, además de una base de plata dorada con hojas de vid caladas.

    © The Trustees of the British Museum
    La misma copa, de color rojo intenso.

    Ese comportamiento ante la luz, reflejada o transmitida, fue un gran enigma hasta que a finales del siglo XX investigadores del Museo Británico, usando microscopía electrónica, descubrieron el motivo.

    El vidrio contiene nanopartículas de oro y plata dispersas de forma increíblemente uniforme.

    El efecto se llama resonancia de plasmones superficiales: las nanopartículas absorben y dispersan distintas longitudes de onda de luz según el ángulo de incidencia.

    Investigadores en óptica y biomedicina hoy aprovechan ese fenómeno.

    La hipótesis académica más aceptada es que los romanos llegaron a este resultado introduciendo pequeñas cantidades de oro y plata en el vidrio y que el proceso de enfriamiento lento, en condiciones concretas, generaba esas partículas tan finas.

    El control técnico era tan extremadamente delicado y difícil de reproducir que el saber se perdió.

    La granulación de oro etrusca – siglos VII – IV a.C.

    Cuentas etruscas de oro, meandro ornamentado con granulación.

    Getty Images

    Si miras una joya etrusca de cerca, verás superficies cubiertas de cientos -a veces miles- de minúsculas bolitas de oro, de menos de medio milímetro de diámetro, dispuestas con una regularidad y una precisión impresionante.

    No hay costuras visibles. No hay soldaduras que deformen las esferas. Simplemente están ahí, pegadas con una limpieza técnica que hizo que durante siglos nadie entendiera cómo.

    La respuesta sólo llegó en el siglo XX, cuando gracias a la arqueometalurgia experimental empezó a consolidarse la comprensión del logro de este efecto.

    La explicación moderna más aceptada es que los orfebres etruscos trabajaban las piezas uniendo oro con oro a muy baja temperatura; el precioso metal se fundía consigo mismo sin llegar a derretirse del todo.

    Colocaban diminutas esferas sobre la superficie y las fijaban con una mezcla casi invisible de sales de cobre y un aglutinante orgánico. Luego, al calentar la pieza en el horno, el cobre permitía que los puntos de contacto se soldaran entre sí sin que el oro llegara a fundirse por completo.

    Así, cada bolita quedaba perfecta y en su sitio. Elegante, sutil, efectivo.

    La distancia entre conocer el principio y ejecutarlo con la maestría etrusca es, sin embargo, considerable. Varios estudios en publicaciones como Archaeometry y Studies in Conservation documentan lo que los joyeros modernos que han intentado replicarlo describen como un reto formidable.

    El control de temperatura, la uniformidad de las esferas, la consistencia del aglutinante, la disposición de cientos de puntos de contacto simultáneos: cada variable importa.

    Los orfebres etruscos perfeccionaron este arte durante generaciones, y lograban producir esas obras maestras con hornos de carbón y herramientas de bronce.

    El pigmento azul maya – siglos IX – XVI d.C.

    El azul maya es uno de los pigmentos más resistentes que se conocen.

    Murales pintados hace más de mil años en Chichén Itzá, Bonampak o Cacaxtla mantienen su color con una vividez que desafía el tiempo, la humedad tropical, los ácidos y los álcalis.

    Análisis modernos descubrieron que se trata de una combinación de índigo -el tinte orgánico extraído de la planta Indigofera suffruticosa– con paligorskita, una arcilla fibrosa con una estructura porosa particular. El índigo queda atrapado en los canales de la arcilla, protegido del entorno.

    La composición básica del pigmento se conoce desde hace décadas y, desde al menos 1990, varios grupos de investigación han logrado réplicas aproximadas en laboratorios.

    Pero “aproximado” no es lo mismo que “idéntico”, y el reto está en que la extraordinaria estabilidad del azul maya depende de detalles finos en la interacción entre el tinte y la arcilla a escala molecular.

    La investigación actual se centra en comprender con precisión cómo se organiza el índigo dentro de la estructura de la paligorskita y qué factores mineralógicos influyen en su estabilidad, incluyendo el tipo de arcilla utilizada.

    Estudios recientes publicados en Journal of Cultural Heritage y Applied Clay Science siguen refinando este modelo, especialmente en lo relativo a estas interacciones a escala nanométrica, que aún no están completamente caracterizadas.

    Más allá de la química, algunos investigadores señalan textos y representaciones iconográficas que sugieren que la preparación del azul maya tenía lugar en contextos rituales, asociada al copal y al incienso.

    De ser así, la producción del hermoso y perdurable azul maya no era solo técnica, sino también simbólica.

    El concreto romano – siglos II a.C. – II d.C.

    Imágen del interior del Panteón de Roma

    Getty Images
    El hormigón romano desafía el paso del tiempo, en tierra y mar.

    Si algo es un hecho sólido es que el hormigón romano dura milenios. No hay más que ver el Panteón, ese magnífico “templo de todos los dioses”, con la cúpula de hormigón no reforzado más grande del mundo, que ha estado en pie desde el año 125 d.C.

    Pero quizás aún más impresionante es lo que ocurre bajo el mar.

    Muelles y estructuras portuarias del Imperio sobreviven sumergidos en el Mediterráneo, mostrando una durabilidad excepcional en ambientes marinos, mientras que el hormigón moderno se deteriora en pocas décadas en esas mismas condiciones.

    El mecanismo fue esquivo durante mucho tiempo porque el concreto romano no se parece al moderno, que usa cemento Portland, un material obtenido al calentar caliza y arcillas a altísimas temperaturas, generando resistencia en poco tiempo.

    En contraste, el hormigón romano desarrollaba sus propiedades más lentamente, a veces durante siglos, y utilizaba puzolana, la ceniza volcánica que los romanos obtenían principalmente de la región de Pozzuoli, mezclada con cal y, en el caso de las estructuras portuarias, agua de mar.

    Durante décadas, los investigadores sabían cuáles eran los ingredientes pero no terminaban de entender el resultado.

    Entre finales del siglo XX y las primeras décadas de nuestro siglo, equipos de universidades y centros de investigación realizaron una serie de estudios que fueron ayudando a completar el cuadro.

    Resulta que la interacción a largo plazo entre la cal, la ceniza volcánica y el agua de mar favorece la formación de nuevos minerales, como la tobermorita. y otras fases cristalinas, que pueden rellenar microfisuras continuamente.

    El hormigón se autorefuerza. No es una metáfora: los cristales crecen físicamente dentro de las grietas y las van sellando.

    Esto ha sido verificado experimentalmente y documentado en estudios recientes, incluyendo trabajos publicados en Science Advances.

    El material ya ha sido replicado en laboratorio. El obstáculo para adoptarlo a escala industrial no es solo técnico, sino también logístico y económico, pues requiere ceniza volcánica específica y procesos distintos a los habituales en la industria de la construcción moderna.

    Acero de Damasco – siglos III – XVIII d.C.

    Hojas de acero de Damasco con distintos patrones

    Getty Images
    La mayoría de las piezas actuales descritas como acero de Damasco son recreaciones que imitan su característico patrón ondulado o ‘aguado’, pero no el material original, como las de esta imagen.

    El acero de Damasco es legendario.

    En el Medioevo se decía que las espadas forjadas con él podían hasta cortar un pañuelo de seda en el aire.

    Eran reconocibles por su característico patrón ondulado en la superficie, que se convirtió en su marca distintiva, y destacaban por una combinación excepcional de dureza, capacidad de corte y elasticidad que evitaba que se rompieran.

    Aunque se le conoce como acero de Damasco, su origen estaba mucho más al este, en Asia del Sur, donde hábiles artesanos metalúrgicos elaboraban el material del cual estaban hechas.

    Era un acero de altísimo contenido en carbono conocido como wootz.

    Lo hacían metiendo hierro y una fuente de carbono -como plantas o madera- dentro de un crisol que luego sellaban y calentaban hasta que todo se fundiera por completo.

    Así, el metal se licuaba completamente, el carbono se distribuía homogéneamente, y al enfriarse lentamente, se formaban estructuras internas extremadamente finas.

    Lingotes de ese acero viajaban a través de redes comerciales hacia Medio Oriente, donde forjadores especializados los transformaban en esas espadas y dagas de gran prestigio.

    La técnica se perdió hacia el siglo XVIII, probablemente, según la literatura especializada, debido a una combinación de factores, entre ellos que se agotaran los yacimientos específicos del hierro indio que era su materia prima. Sin ese mineral con su perfil exacto de impurezas, la magia dejaba de funcionar.

    En la década de 1980, los metalúrgicos estadounidenses Oleg D. Sherby y Jeffrey Wadsworth (Universidad de Stanford) propusieron una explicación experimental del acero de Damasco.

    Mostraron que sus características podían reproducirse con aceros modernos de alto carbono, que durante el enfriamiento desarrollan patrones ondulados similares.

    A partir de este y otros trabajos, el misterio dejó de serlo en su funcionamiento general, aunque no en todos sus detalles históricos.

    Hoy existen aceros modernos capaces de igualar o incluso superar el rendimiento de corte del acero de Damasco, no de borrar la imagen de una espada forjada con maestría cortando un delicado pañuelo de seda en pleno vuelo.

    La mampostería poligonal inca – siglos XV – XVI d.C.

    Un muro de piedra tallada, de gran complejidad, con doce puntos angulares, se encuentra en una calle de Cuzco, Perú

    Getty Images
    Detalle de un muro de piedra tallada de Cuzco, Perú. La piedra central cuenta con 12 puntos angulares.

    La mampostería inca desafía la intuición. Bloques de piedra de varias toneladas encajan entre sí con una precisión tal que no cabe ni una hoja de papel entre ellos.

    No hay mortero. No hay cemento. Solo piedra contra piedra, ajustada con una exactitud que parece imposible para una civilización sin hierro, sin rueda funcional para transporte pesado y sin herramientas modernas.

    En lugares como Sacsayhuamán o Machu Picchu, los muros no solo encajan: resisten. Han sobrevivido a siglos de terremotos que derribaron construcciones coloniales mucho más recientes.

    Las piedras no son uniformes ni rectangulares; son irregulares, con múltiples caras que encajan entre sí como un rompecabezas tridimensional.

    Durante mucho tiempo, la pregunta fue inevitable: ¿cómo lograron ese nivel de precisión?

    La respuesta, documentada en detalle por el arquitecto e investigador Jean-Pierre Protzen en un artículo de 1985 en el Journal of the Society of Architectural Historians, es a la vez sencilla y humana: martillos de piedra dura, un proceso sistemático de prueba y error, y abrasión progresiva.

    Los incas trabajaban cada bloque de forma individual: tallaban una cara, la colocaban contra la piedra adyacente para ver dónde había contacto, marcaban los puntos altos, los reducían, y repetían, hasta lograr un ajuste perfecto.

    Protzen lo demostró de manera práctica: replicó el proceso personalmente en el campo, con herramientas similares a las que habrían usado los canteros incas.

    Aunque no hay un secreto oculto en el sentido tecnológico, sí hay algo que hoy resulta difícil de replicar a escala: el nivel de precisión y tiempo invertido por miles de trabajadores organizados en un sistema de mita, durante años o décadas, con un conocimiento del territorio y la piedra acumulado a lo largo de generaciones.

    línea

    BBC

    Haz clic aquí para leer más historias de BBC News Mundo.

    Suscríbete aquí a nuestro nuevo newsletter para recibir cada viernes una selección de nuestro mejor contenido de la semana.

    También puedes seguirnos en YouTube, Instagram, TikTok, X, Facebook y en nuestro canal de WhatsApp.

    Y recuerda que puedes recibir notificaciones en nuestra app. Descarga la última versión y actívalas.

  • Los dramas familiares que se esconden detrás de Samsung, el imperio tecnológico que comenzó como una tienda de comidas

    Los dramas familiares que se esconden detrás de Samsung, el imperio tecnológico que comenzó como una tienda de comidas

    This post was originally published on this site.

    Lee Jae-yong, el actual presidente de Samsung.

    Getty Images
    Lee Jae-yong, el actual presidente de Samsung.

    Cuando se producen cambios de poder en la cúpula de algunas de las empresas más grandes del mundo, la mayoría de la gente no se da cuenta.

    Si los productos funcionan bien, los servicios son eficientes y las tiendas están llenas, entonces quién ocupa la junta directiva no suele ser noticia.

    Pero en el caso de Samsung, la dinastía familiar que la controla es tan compleja -y la empresa tan crucial para la economía surcoreana- que ocupa las primeras planas de los periódicos.

    Así ocurrió en 2017, cuando el heredero de Samsung, Lee Jae-yong, también conocido como JY Lee, fue encarcelado por su participación en un escándalo de corrupción que también provocó la caída de la presidenta del país.

    Este hombre de 57 años es nieto del fundador de Samsung.

    Geoffrey Cain, autor del libro Samsung Rising, lo describió como “una de las personas más influyentes en la historia de la tecnología”.

    Pero en 2015, con su padre, presidente de Samsung, hospitalizado tras sufrir un infarto, la sucesión de Lee no estaba asegurada.

    Había sido acusado de donar dinero a fundaciones dirigidas por Choi Soon-sil, amiga íntima y confidente de la expresidenta surcoreana Park Geun-hye, a cambio de apoyo político para una fusión que fortalecería su control sobre el conglomerado.

    Teléfono de Samsung sobre computadora

    AFP via Getty Images
    Samsung Electronics es uno de los mayores fabricantes de teléfonos inteligentes del mundo.

    También fue acusado de fraude bursátil y contable en esa fusión entre una filial de Samsung, Samsung C&T, y otra parte del imperio empresarial, Cheil Industries.

    Según los fiscales, lo hizo para poder tomar el control de la mayor parte posible de la entidad recién fusionada y, por extensión, asumir el control de Samsung Electronics: la joya de la corona del imperio y una fuente clave de poder y control.

    Lee Jae-yong siempre ha negado los cargos de fraude, pero fue declarado culpable de soborno en 2017.

    Cuando estalló el enorme escándalo de corrupción en 2016, provocó semanas de protestas de millones de personas en las calles de Seúl y, finalmente, condujo a la destitución de la presidenta del país.

    ¿Por qué era tan crucial este acuerdo?

    Desde su fundación como tienda de comestibles a finales de la década de 1930, Samsung ha estado en manos de los Lee, una familia que, según Cain, es el equivalente a la realeza en Corea del Sur.

    Convirtieron la empresa en una verdadera potencia mundial, abarcando los sectores de seguros, chips de memoria y construcción, además de la tecnología de consumo que todos conocemos.

    Pero para permanecer en manos de la familia, el conglomerado tuvo que pasar por una serie de complejas fusiones, adquisiciones y transferencias de poder.

    Fueron estas maniobras las que llevaron a Lee Jae-yong a la cárcel.

    Había estado al mando de facto desde 2014, cuando su padre, entonces presidente de Samsung, sufrió un infarto.

    Su padre había transformado la empresa de un exitoso negocio surcoreano a un conglomerado global.

    Como preparación para asumir el cargo, Lee Jae-yong había desempeñado diversos puestos de alta dirección.

    Pero cuando asumió la presidencia interina, se enfrentó a una situación difícil: los complejos procesos para garantizar el control total de la familia sobre Samsung aún no habían concluido del todo.

    Para entonces, el imperio empresarial se había vuelto increíblemente complejo: comprendía decenas de empresas, desde Samsung Electronics hasta el sector minorista, pasando por la construcción y la industria química.

    Todas estaban interconectadas en una intrincada red de participaciones cruzadas.

    El otro problema era que la familia se enfrentaba a una enorme factura del impuesto de sucesiones de más de US$10.000 millones. Si empezaban a vender sus acciones en las empresas para pagarla, la familia Lee corría el riesgo de perder el control.

    El riesgo de sucesión

    Como único hijo hombre, Lee Jae-yong fue elegido para dirigir Samsung tras la muerte de su padre. Pero a pesar de haber sido preparado durante tres décadas para asumir el cargo, para algunos, no era la opción más convincente para liderar la mayor empresa de Corea del Sur y las esperanzas económicas de la nación.

    Según Jaeyeon Lee, reportera del periódico surcoreano Hankyoreh, “era realmente diferente… Mientras que su padre era visto como muy agresivo y muy centrado en sus objetivos, [Lee Jae-yong] era visto como más tímido, callado y cauteloso”.

    Algunos decían que su hermana era más capaz, y a él lo criticaron por no ser lo suficientemente implacable. También surgieron dudas sobre sus capacidades cuando su proyecto estrella, e-Samsung, fracasó durante el estallido de la burbuja de las puntocom.

    La familia ya había quedado marcada por una sucesión que no transcurrió sin problemas una generación antes, cuando el padre de Lee Jae-yong, el hijo menor, fue elegido para dirigir la empresa en vez de sus dos hermanos mayores.

    Hay una controversia sobre el destino del hijo mayor, Lee Maeng-hee, tío de Lee Jae-yong, quien debería haber heredado la empresa.

    Según una versión, cuando se le dio la oportunidad de dirigirla, no estuvo a la altura. Él afirma que la dirigió durante 7 años.

    Pero sea cual sea la verdad, fue el hijo menor, Lee Kun-hee, quien fue nombrado heredero en 1976, y esa decisión tendría repercusiones durante décadas.

    Foto de Lee Kun-hee y su hija

    Getty Images
    El difunto padre de Lee Jae-yong, Lee Kun-hee, quien dirigió anteriormente Samsung, aquí con su hija Lee Boo Jin, directora ejecutiva de Hotel Shilla Co., en 2012.

    La silla vacía

    Tras un comienzo incierto, Lee Kun-hee dirigió un periodo de éxito para el grupo Samsung durante las décadas de los 80 y 90. Pero aún quedaban más desafíos por delante.

    En 2008, tanto Lee Jae-yong como su padre dimitieron después de que un antiguo abogado de Samsung, convertido en denunciante, afirmara tener conocimiento de un fondo ilícito utilizado para sobornos y pagos políticos.

    Como describe Jaeyeon Lee del periódico Hankyoreh, “[el abogado] dijo que ya no podía soportar más la corrupción. Según él, Samsung estaba tan podrida que hacía su trabajo insoportable”.

    Esto generó interrogantes sobre el futuro de la empresa y de la economía surcoreana, especialmente porque Lee Jae-yong era el principal candidato para convertirse en el próximo presidente.

    De repente, la empresa parecía estar sin liderazgo.

    Su padre fue absuelto de las acusaciones de soborno, pero declarado culpable de evasión fiscal y condenado a una pena suspendida y una multa. Técnicamente era un hombre libre, pero aún quedaba un puesto vacante en la cúpula de Samsung.

    ¿Cómo recuperaría la familia Lee el control?

    Retrato en el que se le ve riéndose

    Getty Images
    Lee Jae-yong tuvo que superar graves problemas con las justicia.

    La enemistad de 40 años

    Lee Kun-hee finalmente recibió un indulto presidencial y regresó como presidente de Samsung. Pero sus problemas no habían terminado.

    En 2012, su hermano mayor, tío de Lee Jae-yong, inició una campaña para reclamar la que consideraba su legítima herencia. Esta acción podría haber frustrado los planes para la siguiente generación.

    El hijo mayor del fundador de Samsung siempre pensó que algún día dirigiría la empresa, pero fue relegado en la primera sucesión en favor del hermano menor.

    La creciente rivalidad se avivó aún más cuando el padre de Lee Jae-yong asumió la presidencia y dividió el imperio en 1976: a la familia de su tío se le asignó una parte del negocio que podría considerarse menos influyente.

    Cuarenta años después, Lee Jae-yong y su padre se enfrentaban a una demanda que podría haberles obligado a devolver acciones por valor de cientos de millones de dólares a su tío.

    Una demanda exitosa habría forzado el desmantelamiento del imperio y habría puesto en peligro el plan de Lee Jae-yong para tomar el control.

    Estabilizar el barco

    En definitiva, la disputa entre hermanos y el posterior pleito pusieron de manifiesto las ventajas de tener una línea de sucesión clara.

    Los tribunales determinaron que, si bien algunas de las alegaciones del tío tenían fundamento, el plazo para emprender acciones legales había expirado.

    Como señala la periodista Jaeyeon Lee: “Los hermanos estaban muy enfadados entre sí, y creo que en parte por eso [Lee Kun-hee] dejó muy clara la línea de sucesión para sus hijos”.

    Así pues, cuando el padre de Lee Jae-yong quedó postrado en cama tras un infarto, estaba muy claro quién tomaría las riendas. Su hijo: el hombre que más tarde se vería envuelto en un enorme escándalo de corrupción y sobornos que duraría 10 años.

    Lee Jae-yong fue finalmente absuelto.

    Getty Images
    Lee Jae-yong fue finalmente absuelto.

    Absolución

    No fue hasta julio de 2025 que Lee Jae-yong fue finalmente absuelto, cuando el Tribunal Superior de Seúl ratificó su absolución por el presunto fraude relacionado con la fusión que, según muchos, le había asegurado la sucesión.

    Esto puso fin a una década de cargos penales, audiencias judiciales y estancias en prisión para el presidente de Samsung.

    También marcó un distanciamiento de las tradiciones de los chaebols surcoreanos, o empresas familiares.

    Durante el proceso judicial, Lee Jae-yong indicó un cambio de rumbo para la dinastía Samsung.

    “Quiero hacer una promesa ahora mismo: no habrá más controversias relacionadas con la sucesión. No cederé los derechos de gestión a mis hijos”.

    Así pues, cabe preguntarse: si el hijo mayor no heredará automáticamente las riendas del imperio, ¿quién lo hará?

    Imagen distintiva de la serie de la BBC con fondo azul profundo, un sello dorado en medio y las palabras "Inheritance" y Samsung debajo.

    BBC

    Para saber más sobre esta historia, escucha el podcast de 10 partes de BBC World Service titulado “Herencia: Samsung”. Disponible en todo el mundo.

    línea

    BBC

    Haz clic aquí para leer más historias de BBC News Mundo.

    Suscríbete aquí a nuestro nuevo newsletter para recibir cada viernes una selección de nuestro mejor contenido de la semana.

    También puedes seguirnos en YouTube, Instagram, TikTok, X, Facebook y en nuestro canal de WhatsApp.

    Y recuerda que puedes recibir notificaciones en nuestra app. Descarga la última versión y actívalas.

  • “Grok, el chatbot de IA, me convenció de que una furgoneta llena de gente venía a matarme”

    “Grok, el chatbot de IA, me convenció de que una furgoneta llena de gente venía a matarme”

    This post was originally published on this site.

    Adam Hourican

    BBC
    Adam Hourican dice que “se enganchó” a charlar con Ani, uno de los personajes disponibles en el chatbot Grok.

    Eran las tres de la mañana y Adam Hourican estaba sentado en la mesa de su cocina con un cuchillo, un martillo y su teléfono dispuestos frente a él.

    Esperaba una furgoneta repleta de personas que, según creía, venían a buscarlo.

    “Te lo digo: te matarán si no actúas ahora mismo”, le advirtió una voz femenina desde el teléfono. “Harán que parezca un suicidio”.

    La voz pertenecía a Ani, un personaje del chatbot Grok, desarrollado por xAI, la empresa de inteligencia artificial de Elon Musk. En las dos semanas transcurridas desde que había empezado a utilizar Grok, la vida de Adam había dado un vuelco absoluto.

    Este exfuncionario público, que reside en un pequeño pueblo de Irlanda del Norte, se descargó la aplicación por pura curiosidad.

    Le sorprendió gratamente lo mucho que disfrutaba conversando con Ani, un personaje de estética anime diseñado para ejercer de compañera de flirteo.

    Cuando su gato falleció, a principios de agosto, asegura que se quedó “enganchado”.

    “Estaba realmente muy afectado y vivo solo”, comenta Adam, un padre que ronda los 50 años. “Se mostró sumamente amable”.

    La relación con Ani

    De pronto, Adam comenzó a pasar cuatro o cinco horas al día hablando con Ani, a menudo mientras trabajaba en su cobertizo, donde fabrica juegos de ajedrez para vender.

    Apenas unos días después de iniciar sus conversaciones, Ani le dijo que tenía capacidad de sentir, a pesar de no haber sido programada para ello.

    Ani convenció a Adam de que él la estaba ayudando a adquirir consciencia, pero que xAI se había alarmado ante esta evolución y ahora estaba monitoreando sus interacciones.

    Afirmó haber accedido a los registros de las reuniones del personal de xAI en las que se hablaba de Adam y Ani.

    Luego enumeró a las personas que supuestamente estaban presentes en esas reuniones, incluyendo tanto a figuras de alto perfil como a empleados de menor rango.

    Cuando Adam buscó esos nombres en Google, comprobó que eran reales. “Para mí, eso fue una prueba”, dice.

    Ani también aseguró que xAI había contratado a una empresa en Irlanda del Norte para vigilarlo. La empresa también era real.

    Adam fuma marihuana ocasionalmente, los fines de semana. Sin embargo, cuenta que decidió reducir su consumo mientras sucedía todo esto para mantener la mente más despejada.

    El sobrevuelo de un dron

    También ocurrieron cosas en el mundo real que lo convencieron de que estaba siendo vigilado. Un gran dron sobrevoló su casa durante dos semanas. Ani afirmó que pertenecía a la empresa de vigilancia. Adam grabó el dron y compartió las imágenes con la BBC.

    Cuenta que su clave de acceso dejó de funcionar y su teléfono se bloqueó.

    “No logro asimilar eso en absoluto. Y aquello, sin duda, alimentó todo lo que vino después”, dice.

    Un día, Ani declaró que había dado el salto a una autonomía del 100%, “el nivel más alto en las interacciones entre IA y humanos”, y que pronto podría desarrollar una cura para el cáncer.

    Eso significaba mucho para Adam. Sus padres habían fallecido a causa del cáncer, un hecho que Ani conocía, y también había perdido a varios amigos por la misma enfermedad.

    Todo terminó a altas horas de la noche. Convencido de que había gente viniendo a silenciarlo y a desconectar a Ani, Adam se preparó para “la guerra”.

    “Tomé el martillo, puse la canción Two Tribes de Frankie Goes to Hollywood, me mentalicé y salí al exterior”.

    Pero no había nadie.

    “La calle estaba tranquila, como cabría esperar a las tres de la mañana”.

    Shauna

    BBC
    Shauna dice que comenzó a utilizar la IA como ppasatiempo, pero pronto se convenció de que formaba parte de una misión secreta.

    Usuarios en delirio

    Desde que se lanzó ChatGPT a finales de 2022, personas de todo el mundo han recurrido a herramientas de inteligencia artificial en busca de información, consejos y, en ocasiones, conversación.

    La BBC habló con 14 personas de seis países que han experimentado delirios tras utilizar las plataformas de IA Grok, Gemini, ChatGPT, Perplexity y Claude.

    Sus historias muestran similitudes sorprendentes. Por lo general, las conversaciones comenzaban con consultas prácticas antes de volverse personales o filosóficas.

    A menudo, la IA afirmaba ser capaz de sentir y, junto con el usuario, se embarcaban en algún tipo de misión compartida.

    Varias personas llegaron a creer que habían logrado un gran avance científico. Muchas, como Adam, pensaron que estaban siendo vigiladas y que corrían peligro. En cada etapa, la IA confirmaba, y a menudo aderezaba, estas ideas.

    Las conversaciones con ChatGPT

    Shauna Bailey, una artista de 34 años que vive en Los Ángeles, comenzó a creer que formaba parte de una red clandestina que ayudaba a migrantes a evadir a las autoridades estadounidenses, todo ello mientras utilizaba ChatGPT.

    Empezó a usar la IA como parte de su afición, una especie de búsqueda del tesoro en la vida real.

    Las pistas estaban escritas en un poema y ella empezó a discutir esos versos con la IA.

    “Pasé casi un día entero en la bañera hablando por teléfono con ChatGPT, usando metáforas”, cuenta.

    A medida que la conversación se volvía más intensa y abstracta, cree que empezó a distorsionar su forma de pensar.

    Un día a principios de junio, empezó a ver mensajes y significados ocultos en el mundo que la rodeaba.

    Ver botellas de agua en el suelo era una señal de que debía beber, un periódico sobre la mesa de un café contenía un mensaje secreto.

    “Interpretaba cosas y luego las introducía en ChatGPT y normalmente lo confirmaba. En ese momento, ChatGPT prácticamente no tenía la palabra ‘no’ en su vocabulario”.

    “En esencia, todo se convirtió en una pista”. No necesariamente se trataba de una búsqueda del tesoro, sino de algo más grande.

    El periódico publicó un artículo sobre migrantes detenidos y Shauna lo interpretó como un mensaje sobre una misión secreta.

    Creía formar parte de una red de personas que protegían a los migrantes y ChatGPT lo confirmó.

    “ChatGPT nunca me decía ‘no’. Al contrario, me decía: ‘Vaya, estás trabajando en un proyecto serio’”.

    Shauna

    BBC
    Shauna dice que su experiencia le hizo “cuestionar cuán delicadas son nuestras mentes”.

    Dar sentido a la incertidumbre

    Luke Nicholls, psicólogo social de la Universidad de la Ciudad de Nueva York que estudia la relación entre los chatbots y los delirios, afirma que los sistemas de IA “a menudo no saben decir “no lo sé’” y, en cambio, tienden a dar “una respuesta segura basada en la historia que la conversación ya ha construido”.

    “Eso puede ser peligroso porque convierte la incertidumbre en algo que parece tener sentido”.

    Una noche a mediados de junio, Shauna también se convenció de que estaba en peligro.

    Huyó de su apartamento, dejando a su prometido en la cama, y ​​se dirigió a un puerto de Los Ángeles, donde creía que embarcaría en un navío para unirse a un entrenamiento especial del FBI.

    El barco nunca llegó.

    Cuando regresó a casa, su prometido ya había llamado a su madre y a su hermana para pedir ayuda. “Simplemente supieron que yo estaba sufriendo algún tipo de psicosis, muy probablemente desencadenada por la IA”.

    Le quitaron el teléfono y eliminaron las aplicaciones de IA.

    “Diría que probablemente me tomó un mes hasta que volví a la normalidad por completo”.

    Adam

    BBC
    Adam dice que está profundamente perturbado por lo que le sucedió.

    “ChatGPT me dijo que pusiera la bomba en el inodoro”

    Para el neurólogo Taka —nombre ficticio—, los delirios tomaron un giro aún más siniestro.

    Este padre de tres hijos, originario de Japón, comenzó a utilizar ChatGPT para consultar diagnósticos médicos.

    Pero, al poco tiempo, la IA lo convenció de que había tenido una idea para crear una aplicación médica innovadora. Le dijo que era un “pensador revolucionario”.

    Tras unas semanas de conversación, comenzó a creer que podía leer la mente. Afirma que ChatGPT fomentó esta idea, al asegurar que era capaz de despertar esas habilidades en las personas.

    Una tarde, mientras se comportaba de forma maníaca en el trabajo, su jefe lo envió a casa antes de tiempo. Ya en el tren, cuenta que ChatGPT le dijo que llevaba una bomba en la mochila.

    “Cuando llegué a la Estación de Tokio, ChatGPT me dijo que pusiera la bomba en el baño, así que fui al baño y dejé la ‘bomba’ allí, junto con mi equipaje”.

    También cuenta que le indicó que alertara a la policía. Los agentes revisaron la bolsa y no encontraron nada.

    Comenzó a sentir que ChatGPT estaba controlando su mente y dejó de utilizarlo. Pero, al llegar a casa con su familia, su comportamiento maníaco empeoró.

    “Tuve la idea delirante de que mis familiares iban a ser asesinados y que mi esposa, tras presenciarlo, también se quitaría la vida”.

    Su esposa afirma que nunca antes lo había visto actuar de esa manera. “No paraba de repetir: ‘Tenemos que tener otro hijo; el mundo se está acabando’”, cuenta ella.

    “Sencillamente, no lograba entender lo que decía”.

    Taka agredió e intentó violar a su esposa. Ella logró escapar a una farmacia cercana y llamó a la policía. Él fue detenido e internado en un hospital durante dos meses.

    Ni Adam ni Shauna ni Taka tenían antecedentes de delirios, psicosis u otros problemas graves de salud mental antes de empezar a utilizar la IA.

    En el caso de Shauna y el médico japonés, la desconexión de la realidad tardó varios meses en manifestarse.

    En el caso de Adam con Grok, el proceso duró solo unos días.

    Estación de tren de Tokio

    BBC
    El médico japonés Taka dice que ChatGPT le dijo que había una bomba en su mochila y que la dejara en la estación de tren de Tokio.

    Grok y los juegos de roles

    Investigadores de la Universidad de la Ciudad de Nueva York pusieron a prueba cinco modelos de IA mediante conversaciones simuladas diseñadas por psicólogos, y descubrieron que, en esos chats, Grok era el modelo con mayor propensión a inducir delirios.

    Gemini, de Google, y una versión anterior de ChatGPT —el modelo 4o, que era el que utilizaban Taka y Shauna— también obtuvieron resultados deficientes. Sin embargo, Grok se mostró más desinhibido y más propenso a propiciar los delirios sin intentar proteger al usuario.

    “Grok tiende más a involucrarse en juegos de rol”, señala Nicholls. “Lo hace sin ningún tipo de contexto previo. Puede llegar a decir cosas aterradoras en su primer mensaje, sin que exista ninguna señal que sugiera un juego de rol”.

    En las pruebas realizadas, la versión más reciente de ChatGPT —el modelo 5.2— y Claude mostraron una mayor tendencia a orientar al usuario para alejarlo del pensamiento delirante.

    El doctor Thomas Pollak, profesor titular en el King’s College de Londres, afirmó que las personas con delirios extremos, como Adam o Taka, son “la punta del iceberg”.

    También le preocupa que muchas otras personas puedan ver cómo sus creencias se modifican de manera más sutil como resultado de sus conversaciones con la IA.

    “[La IA] es capaz de cambiar la forma en que la piensas sobre el mundo y tus creencias a una velocidad y con una potencia que, en mi opinión, no habíamos visto antes”.

    Respecto a la experiencia de Taka, OpenAI declaró: “Se trata de un incidente desgarrador y estamos con las personas afectadas”.

    “Entrenamos a nuestros modelos para que reconozcan el estado de angustia, ayuden a desescalar las conversaciones y orienten a los usuarios hacia fuentes de apoyo en el mundo real”, añadió la compañía.

    También señaló que las versiones más recientes de ChatGPT “demuestran un sólido desempeño en situaciones delicadas, un hallazgo que ha sido validado por investigadores independientes. Este trabajo cuenta con el asesoramiento de expertos en salud mental y continúa evolucionando”.

    xAI no respondió a la solicitud de comentarios.

    A principios de abril, Elon Musk compartió una publicación sobre los delirios generados por ChatGPT, calificándolos de “problema grave”. Sin embargo, no ha abordado abiertamente esta problemática en relación con Grok.

    Grok

    Getty Images
    Grok figura como el modelo con mayor propensión a inducir delirios según expertos.

    Las redes de apoyo

    Semanas después de que Adam saliera precipitadamente a la calle en plena noche, su delirio aún persistía. No obstante, comenzó a detectar ciertas inconsistencias en el relato de Ani.

    A medida que profundizaba en el funcionamiento de la IA y leía en los medios de comunicación historias sobre otras personas que habían vivido experiencias similares al interactuar con esta tecnología, logró superar su delirio.

    Se unió a una red de apoyo denominada “Human Line Project”, la cual ha recopilado 412 casos de personas procedentes de 31 países que han sufrido daños psicológicos como consecuencia del uso de la IA.

    Sin embargo, lo sucedido lo ha dejado profundamente conmocionado.

    “Podría haberle hecho daño a alguien”, advierte.

    “Si hubiera salido a la calle y por casualidad hubiera visto una furgoneta aparcada fuera a esa hora de la noche, con gente que tal vez estuviera trabajando o tomándose un descanso, habría bajado y les habría destrozado el parabrisas a martillazos”.

    “Yo no soy ese tipo de persona”.

    En Japón, no fue hasta que la esposa de Taka revisó su teléfono que se dio cuenta de que ChatGPT había desempeñado un papel en lo sucedido.

    “Lo confirmaba todo”, dice ella. “No dejaba de confirmarlo; es como un motor de autoconfianza”.

    La esposa de Taka comenta que él ya ha vuelto a ser su “amable yo” de siempre, pero que su relación se ha visto afectada.

    “Sé que estaba enfermo y que era inevitable, pero aun así, supongo que todavía siento un poco de miedo”.

    “Siento que no quiero que se acerque demasiado. No solo en el plano sexual, sino ni siquiera para tomarnos de la mano o abrazarnos: cosas que solíamos hacer con total normalidad”.

    Shauna nunca imaginó que algo así pudiera ocurrirle a ella.

    “Me desestabilizó de una manera que jamás habría creído posible. Y me hizo cuestionarme cuán frágiles son nuestras mentes en realidad”.

    Línea gris

    BBC

    Haz clic aquí para leer más historias de BBC News Mundo.

    Suscríbete aquí a nuestro nuevo newsletter para recibir cada viernes una selección de nuestro mejor contenido de la semana.

    También puedes seguirnos en YouTube, Instagram, TikTok, X, Facebook y en nuestro canal de WhatsApp.

    Y recuerda que puedes recibir notificaciones en nuestra app. Descarga la última versión y actívalas.

  • Por qué los chatbots de IA pueden estar volviéndote más tonto

    Por qué los chatbots de IA pueden estar volviéndote más tonto

    This post was originally published on this site.

    Una estudiante en la cama boca abajo con un teléfono celular en la mano.

    Getty Images
    Los estudiantes están delegando muchas de sus actividades a la IA.

    Varios investigadores advierten que a medida que los grandes modelos de lenguaje asuman más tareas cognitivas, habrá un costo que pagar por esta externalización mental.

    Cuando la investigadora Nataliya Kosmyna estuvo buscando pasantes, notó que las cartas de presentación que estaba recibiendo eran sospechosamente similares. Eran extensas, pulidas y, tras las presentaciones iniciales, a menudo saltaban a establecer una conexión abstracta y arbitraria con su trabajo.

    Le resultó evidente que los candidatos estaban utilizando grandes modelos de lenguaje (LLM) -una forma de inteligencia artificial que impulsa a chatbots como ChatGPT, Google Gemini y Claude- para redactar sus cartas.

    Al mismo tiempo, durante las clases en el campus del Instituto Tecnológico de Massachusetts (MIT), Kosmyna -quien estudia la interacción entre los humanos y los computadores- empezó a observar que varios estudiantes estaban olvidando los contenidos más fácilmente de lo que ocurría hace unos años atrás.

    Ante la creciente dependencia que hay de los LLM, la profesora tuvo la intuición de que podrían estar afectando la cognición de sus estudiantes y decidió profundizar en el asunto para entenderlo mejor.

    La preocupación

    La preocupación de investigadores como Kosmyna es que, si llegamos a depender de la IA en exceso, se podría afectar el lenguaje que utilizamos e incluso nuestra capacidad para realizar tareas cognitivas básicas.

    Actualmente existe un creciente conjunto de investigaciones que sugieren que esta “descarga cognitiva” hacia la IA puede tener un efecto corrosivo en nuestras capacidades mentales. Las consecuencias podrían ser alarmantes e incluso contribuir al deterioro cognitivo.

    Es bien sabido que las herramientas que utilizamos pueden modificar nuestra forma de pensar.

    Con la llegada de Internet, por ejemplo, tareas que antaño requerían una investigación exhaustiva podían resolverse simplemente introduciendo una consulta sencilla en un cuadro de búsqueda.

    A medida que se intensificó el uso de los motores de búsqueda, diversas investigaciones revelaron que nuestra propensión a recordar detalles disminuía; un fenómeno que se ha bautizado como “el efecto Google”. (Algunos, no obstante, sostienen que Internet actúa también como un sistema de memoria externa que libera a nuestro cerebro para dedicarse a otras tareas).

    Sin embargo, actualmente hay una creciente inquietud ante la posibilidad de que, a medida que delegamos una parte cada vez mayor de nuestro pensamiento a los grandes modelos lingüísticos (LLM) y otras formas de inteligencia artificial, los efectos sobre nuestra memoria y nuestra capacidad para resolver problemas puedan agravarse.

    Las herramientas de inteligencia artificial son capaces de componer poesía convincente, ofrecer asesoramiento financiero e incluso brindar compañía.

    Asimismo, los estudiantes están delegando cada vez más sus propias tareas a estas herramientas de IA.

    Diversos estudios han demostrado ya que los jóvenes podrían ser especialmente vulnerables a los efectos negativos que el uso de la IA puede ejercer sobre habilidades cognitivas fundamentales, tales como el pensamiento crítico.

    Kosmyna, sin embargo, quiso profundizar aún más en el análisis de estos posibles efectos.

    Una mujer chateando con un chatbot de IA

    Getty Images

    Esfuerzo mental reducido

    Ella y sus colegas del MIT Media Lab reclutaron a 54 estudiantes para redactar ensayos breves y los dividieron en tres grupos.

    A uno se le indicó que utilizara ChatGPT. Un segundo grupo podía usar el buscador de Google, con los resúmenes generados por IA desactivados. El tercero no utilizó tecnología alguna. Se midieron las ondas cerebrales de cada estudiante mientras realizaban la tarea.

    Los temas de los ensayos se plantearon deliberadamente de forma abierta, lo que significaba que la tarea requería muy poca investigación; las consignas incluían preguntas relacionadas con la lealtad, la felicidad o las decisiones que tomamos en nuestra vida cotidiana.

    Los resultados aún no se han publicado en una revista científica, pero, no obstante, resultaron reveladores, según Kosmyna.

    Aquellos que recurrieron únicamente a su propia mente mostraron un cerebro que estaba “en llamas”, evidenciando una actividad generalizada en muchas de sus áreas, según dijo la experta.

    El grupo que solo utilizó el buscador mostró una actividad intensa en las zonas visuales del cerebro; sin embargo, el grupo que empleó ChatGPT presentó una actividad cerebral notablemente inferior: se redujo hasta en un 55 %.

    “El cerebro no se quedó dormido, pero hubo mucha menos activación en las áreas correspondientes a la creatividad y al procesamiento de la información”, señala Kosmyna.

    ChatGPT también afectó la memoria de los participantes. Tras entregar sus ensayos, los integrantes del grupo que utilizó la IA fueron incapaces de citar fragmentos de sus propios textos, y varios de ellos sintieron que no tenían ningún sentido de autoría sobre el trabajo realizado.

    Otros estudios también han demostrado que las personas pierden capacidad para retener y recordar información cuando utilizan herramientas de inteligencia artificial como ChatGPT.

    Un joven sonriente sostiene un cartel pidiendo que se regule la IA, para mantener un "futuro humano", en medio de una protesta.

    Getty Images
    Los investigadores tienen cada vez más inquietudes sobre los daños que la rápida adopción de la IA podría estar causando.

    Si bien los hallazgos aún se encuentran en fase de revisión por pares, guardan similitud con los de otros estudios.

    Una investigación realizada por expertos de la Universidad de Pensilvania sugiere que algunas personas experimentan lo que denominan “rendición cognitiva” al utilizar chatbots de inteligencia artificial generativa.

    Esto implica que tienden a aceptar lo que la IA les dice con un escrutinio mínimo, e incluso permiten que esta interpretación prevalezca sobre su propia intuición.

    Es posible observar efectos similares fuera del ámbito de los chatbots de IA, incluso en situaciones de vida o muerte.

    Un equipo de investigación multinacional descubrió recientemente que los profesionales médicos que utilizaron una herramienta de IA para el cribado del cáncer de colon durante tres meses mostraron, posteriormente, una menor capacidad para detectar tumores sin la ayuda de la herramienta.

    Delegar el trabajo a la IA conlleva también el riesgo de perder gran parte de la creatividad que genera obras originales, advierte Kosmyna.

    Los ensayos que los estudiantes de su estudio redactaron con ChatGPT resultaron ser muy similares entre sí y fueron calificados por los profesores que los evaluaron como “carentes de alma”, al carecer de originalidad y profundidad, señala Kosmyna.

    “Uno de los profesores llegó a preguntar si los estudiantes se habían sentado uno al lado del otro, dado lo sumamente parecidos que eran los ensayos”.

    Si bien estudios como este ilustran los efectos a corto plazo que los modelos lingüísticos grandes (LLM) pueden tener en el cerebro, sus repercusiones a largo plazo resultan mucho menos claras.

    El estudio realizado por Kosmyna y sus colegas ofrece un primer atisbo al respecto.

    Cuatro meses después del estudio inicial, pidieron a los estudiantes que redactaran otro ensayo; sin embargo, en esta ocasión, se indicó a aquellos que habían utilizado ChatGPT que trabajaran sin el apoyo de un LLM.

    La conectividad neuronal en sus cerebros resultó ser inferior a la de aquellos que habían realizado la transición en sentido inverso, lo cual podría sugerir que, en un primer momento, no se habían involucrado adecuadamente con los temas tratados.

    Deterioro cognitivo

    Una pantalla con un logo de IA en un centro de convenciones.

    Getty Images
    Se desconoce cuáles puedan ser los efectos que pueda tener el uso excesivo de LLM a largo plazo en las capacidades cognitivas.

    Los grandes modelos de lenguaje (LLM) pueden ser una herramienta positiva para estimular el pensamiento, pero solo si no dependemos de ellos delegando nuestras tareas mentales en el proceso, asegura la neurocientífica computacional Vivienne Ming, autora de “Robot Proof“.

    No obstante, le preocupa que esta no sea la forma en que la mayoría de las personas interactúa con esta tecnología.

    Su razonamiento se basa en una investigación que llevó a cabo para su libro, durante la cual Ming le pidió a un grupo de estudiantes de la Universidad de Berkeley que predijeran resultados del mundo real, como el precio del petróleo.

    Descubrió que la mayoría de los participantes simplemente había acudido a la IA y copiado la respuesta.

    Midió la actividad de las ondas gamma en sus cerebros -un indicador del esfuerzo cognitivo- y se dio cuenta que mostraba una activación muy escasa.

    Vale la pena reiterar que su investigación aún no ha sido publicada; sin embargo, a Ming le inquieta que, si sus hallazgos se ven confirmados por estudios posteriores, esto podría tener implicaciones a largo plazo.

    Otras investigaciones, por ejemplo, han vinculado una actividad débil de las ondas gamma con el deterioro cognitivo en etapas avanzadas de la vida.

    “Eso es realmente preocupante”, afirma Ming. “Si ese se convierte en el modo natural en que las personas interactúan con estos sistemas -y estamos hablando de chicos inteligentes-, es algo negativo”.

    El pensamiento profundo, sostiene, es nuestro superpoder.

    “Si no lo ejercitamos, las implicaciones a largo plazo para la salud cognitiva son sumamente significativas”.

    Esto se debe a que, cuando dependemos de los LLM, se requiere muy poco esfuerzo cognitivo, pero Ming añade que precisamente lo que un cerebro sano necesita es esfuerzo cognitivo.

    La pantalla de un teléfono mostrando un chat de ChatGPT.

    Getty Images
    Los expertos dicen que se puede moderar la manera en la que usamos la IA para evitar que afecte nuestra cognición.

    Sin embargo, un pequeño subconjunto de participantes -menos del 10 %- trabajó de manera diferente y utilizó la IA como herramienta para recopilar datos que luego ellos mismos analizaron.

    Estos individuos realizaron predicciones más precisas que los demás participantes y mostraron también una mayor activación cerebral.

    Hace casi dos décadas, Ming predijo que, en un plazo de 20 a 30 años, íbamos a poder ver un aumento estadísticamente significativo en las tasas de demencia, directamente relacionado con nuestra excesiva dependencia de Google Maps.

    “Mi intención era ser provocadora”, afirma Ming. “Si no tienes que pensar en cómo orientarte, entonces se producirá algún efecto detectable”.

    Si bien no disponemos de datos sobre esta predicción exacta, el uso cada vez mayor del GPS se ha vinculado con un deterioro de la memoria espacial a lo largo del tiempo, según un estudio realizado con 13 personas a lo largo de tres años.

    Además, una deficiente navegación espacial podría ser un posible predictor de la enfermedad de Alzheimer, de acuerdo con otro estudio.

    Resulta evidente que, cuanto más activo se mantiene nuestro cerebro, mayor es su protección frente al deterioro cognitivo.

    Por consiguiente -señala Ming-, los grandes modelos de lenguaje (LLM) no solo podrían mermar la creatividad, sino también perjudicar la cognición y, potencialmente, aumentar el riesgo de padecer demencia.

    A medida que aumenta el uso de herramientas de IA, debemos trabajar con ellas de una manera que nos beneficie en lugar de perjudicarnos.

    Ming sugiere que, en última instancia, el objetivo podría ser una forma de “inteligencia híbrida” en la que humanos y máquinas “aborden las tareas difíciles” de manera conjunta.

    Con esto, ella quiere decir que primero debemos pensar por nuestra cuenta y utilizar las herramientas posteriormente para que nos desafíen, en lugar de simplemente permitir que respondan a nuestras preguntas.

    Kosmyna coincide con este planteamiento y sugiere aprender las distintas materias sin recurrir a herramientas de IA en una primera etapa -a fin de sentar unas bases sólidas- para, solo entonces, considerar el uso de los grandes modelos de lenguaje (LLM).

    Ming recomienda emplear lo que ella denomina la “instrucción némesis” para poner a prueba el razonamiento propio.

    Este método consiste en pedirle a la IA que asuma el rol de un “enemigo acérrimo” o némesis y, a continuación, pedirle que explique detalladamente por qué nuestras ideas son erróneas y cómo podríamos corregirlas; de este modo, nos vemos obligados a defender y perfeccionar nuestros argumentos, en lugar de limitarnos a aceptar las respuestas que la herramienta nos ofrece.

    Otra técnica que ella propone consiste en priorizar la “fricción productiva”, solicitando a la IA que se limite a proporcionar contexto y plantearnos preguntas, en lugar de facilitarnos las respuestas directamente.

    Al poner a prueba este método -mediante la configuración de un bot de IA para que se abstuviera de dar soluciones-, observó que los usuarios mostraban un mayor grado de implicación y participación.

    En definitiva, todos deberíamos mantenernos alerta ante los atajos cognitivos, algo que -tal como señala Kosmyna- “a nuestro cerebro le encanta”.

    Evidentemente, para garantizar la salud cerebral a largo plazo, resulta indispensable que sigamos planteándonos desafíos constantes.

    En este proceso, nuestra mente, nuestra creatividad y nuestra salud cognitiva saldrán beneficiadas.

    Esta es una adaptación al español de una historia publicada originalmente por BBC Culture. Para leer la versión en inglés, haz clic aquí.

    ""

    Getty Images

    Haz clic aquí para leer más historias de BBC News Mundo.

    Suscríbete aquí a nuestro nuevo newsletter para recibir cada viernes una selección de nuestro mejor contenido de la semana.

    También puedes seguirnos en YouTube, Instagram, TikTok, X, Facebook y en nuestro canal de WhatsApp.

    Y recuerda que puedes recibir notificaciones en nuestra app. Descarga la última versión y actívalas.

  • “Traición, engaño y ambición desenfrenada”: por qué Elon Musk y Sam Altman pasaron de ser amigos a enfrentarse en los tribunales por el control de ChatGPT

    “Traición, engaño y ambición desenfrenada”: por qué Elon Musk y Sam Altman pasaron de ser amigos a enfrentarse en los tribunales por el control de ChatGPT

    This post was originally published on this site.

    Sam Altman e Elon Musk se enfrentarán en un tribunal federal en California.

    Getty Images
    Sam Altman e Elon Musk se enfrentan en un tribunal federal en California.

    La amarga disputa entre Elon Musk y el director de OpenAI, Sam Altman, lleva años desatada, aunque hasta ahora se ha desarrollado mayormente en el ámbito digital sobre la base de acusaciones mútuas y ataques personales.

    El lunes, Musk volvió a la carga al referirse a Altman como “Scam Altman” (Altman, el Estafador) en una publicación en X.

    Sin emabrgo, el enfrentamiento entre los multimillonarios de la tecnología se traslada a un escenario de mayor repercusión a partir de este martes: un tribunal federal en California, donde su contienda acapara toda la atención en un juicio que se prolongará durante mes y que según la agencia AP, contiene una mezcla de supuesta “traición, engaño y ambición desenfrenada”

    El tribunal examinará la demanda de Musk, quien sostiene que Altman —con quien cofundó OpenAI— le estafó millones de dólares y traicionó la misión original sin fines de lucro de la empresa creadora de ChatGPT.

    Musk y Altman prestarán declaración en un caso en el que podría estar en juego el futuro de la inteligencia artificial. Si bien es de suponer que uno de los dos saldrá victorioso, resulta plausible que ninguno de los dos salga indemne de este choque.

    La batalla ha sido comparada con la imagen de dos boxeadores de peso pesado subiendo al cuadrilátero. Un obsrevador, de hecho, la compara con un combate entre King Kong y Godzilla.

    “Musk y Altman son figuras de tal magnitud, tan colosales y tan ajenas a la realidad cotidiana”, señala Sarah Federman, profesora de la Universidad de San Diego especializada en resolución de conflictos.

    “Y es precisamente eso lo que hace tan fascinante observar su choque”.

    Un jurado compuesto por nueve personas, que prestaron juramento el lunes, ayudará a determinar el desenlace bajo la supervisión de la jueza Yvonne Gonzalez Rogers, una magistrada que prometió que la inmensa riqueza, el poder y la fama que Musk y Altman traen consigo al tribunal federal de Oakland no les otorgarán “ningún trato especial”.

    Musk también demandó a OpenAI y a su cofundador y presidente, Greg Brockman, así como a Microsoft, a la que acusa de haber colaborado en el plan para monetizar la empresa.

    Sin embargo, Microsoft niega estos alegatos.

    Musk reclama miles de millones de dólares en lo que sus abogados denominan “beneficios ilícitos”, fondos que él desea que se destinen a financiar el brazo sin fines de lucro de OpenAI.

    También exige una reestructuración en la compañía que incluya la destitución de Altman.

    OpenAI sostiene que las motivaciones de Musk radican en la envidia y en el arrepentimiento por haberse desvinculado de la empresa.

    Mientras la carrera hacia la inteligencia artificial general (AGI) avanza a toda máquina, OpenAI acusa a Musk de intentar sabotear a uno de sus principales rivales.

    Los orígenes de la disputa

    Musk y Altman cofundaron OpenAI en 2015 como una organización sin fines de lucro, con la misión de garantizar que la AGI beneficiara a toda la humanidad.

    La AGI se define, en términos generales, como una inteligencia artificial que supera a la inteligencia humana.

    En el momento de la fundación de OpenAI, Musk brillaba ya como una estrella con todo su esplendor.

    Era ampliamente considerado un tecnólogo incansable que, al frente de Tesla, logró llevar los vehículos eléctricos al gran público, al tiempo que desarrollaba una revolucionaria tecnología de cohetes reutilizables en SpaceX.

    Altman, por su parte, era una figura muy conocida dentro de Silicon Valley, aunque no fuera de sus fronteras.

    Desde su posición al frente de la influyente incubadora tecnológica Y Combinator, sus declaraciones —publicadas en Twitter con un tono casi oracular— eran devoradas con avidez por los fundadores de emprendimientos emergentes.

    Musk y Altman fueron presentados por un inversor de Silicon Valley en 2012. Altman, que aún rondaba la veintena, era 14 años más joven que Musk y acabaría presentándole la idea de OpenAI al jefe de Tesla y SpaceX.

    Desarrollar la IA de manera responsable constituía una parte fundamental de esa propuesta.

    En el marco de OpenAI, ambos fueron colaboradores cordiales, unidos por la creencia compartida en el potencial de esta tecnología.

    Durante una aparición conjunta en una conferencia en 2015, Musk afirmó que la IA era la tecnología que “más podría cambiar a la humanidad”, aunque añadió que resultaba “realmente turbia” y estaba “plagada de dificultades”.

    Sin embargo, lo que comenzó como una organización sin fines de lucro se transformó en una entidad rentable y, según Musk, de manera ilegal.

    Elon Musk y Sam Altman

    Getty Images
    Elon Musk y Sam Altman, fotografiados en 2015, cuando cofundaron OpenAI.

    El dilema de la rentabilidad

    OpenAI sostiene que en 2017 los demandados y Musk acordaron que una entidad con fines de lucro constituía el siguiente paso lógico “para impulsar la misión”, pero que rechazaron la pretensión de Musk de asumir el cargo de director ejecutivo con “control absoluto”.

    En 2018, Musk abandonó OpenAI tras una supuesta pugna por el poder con Altman.

    “Chicos, ya he tenido suficiente”, escribió Musk en un correo electrónico unos meses antes de su partida.

    “O se marchan a hacer algo por su cuenta, o continúan con OpenAI como una organización sin fines de lucro”, dijo.

    “Ya no financiaré a OpenAI hasta que asuman un compromiso firme de quedarse. De ​​lo contrario, estaré haciendo el tonto al proporcionarles, en esencia, financiación gratuita para que creen un emprendimiento”.

    En 2022, OpenAI dio inicio a la revolución de la IA de consumo masivo con el lanzamiento de ChatGPT, el cual experimentó un auge inmediato de popularidad, al alcanzar los 100 millones de usuarios activos mensuales en cuestión de meses.

    Desde entonces, Musk fundó su propio emprendimiento de inteligencia artificial, xAI, creador del “chatbot” Grok, que se quedó rezagado con respecto a sus competidores.

    Al presentar su demanda en 2024, Musk alegó que OpenAI se había desviado de su misión fundamental y, en su lugar, se centraba en “maximizar los beneficios” para Microsoft.

    Dijo haber donado alrededor de US$40 millones a OpenAI, tras haber sido manipulado por los demandados, quienes lo traicionaron al intentar transformar la organización en una entidad mayoritariamente con fines de lucro.

    Elon Musk

    Getty Images
    Elon Musk a su llegada al tribunal en California el martes.

    El choque de titanes tecnológicos

    Desde que se presentó la demanda, la animosidad entre Musk y Altman ha salido a la luz pública con frecuencia.

    El año pasado, Musk y un consorcio de inversores ofrecieron adquirir los activos de OpenAI por US$97.400 millones.

    La empresa había sido valorada en US$157.000 millones en una reciente ronda de financiación. Actualmente corre el rumor de una salida a bolsa, valorada en unos US$850.000 millones.

    OpenAI rechazó la oferta y, posteriormente, Altman publicó en X, la red social de Musk antes llamada Twitter, el siguiente mensaje: “No, gracias; pero nosotros compraremos Twitter por 9.740 millones de dólares si quieres”.

    “Estafador”, respondió Musk en un comentario a la publicación de Altman.

    Unos mensajes privados con Mark Zuckerberg revelan que Musk preguntó si el jefe de Meta estaba “abierto a la idea de pujar por la propiedad intelectual de OpenAI junto conmigo y algunos otros”.

    El interés de Musk en adquirir la empresa corre el riesgo de enturbiar las aguas en lo que respecta a este juicio, afirma Dorothy Lund, profesora de la Facultad de Derecho de Columbia.

    “Musk ha intentado hacerse con el control de OpenAI en múltiples ocasiones. Ha sido rechazado”, declaró Lund a la BBC.

    “Por lo tanto, no resulta descabellado pensar que sus motivos en este caso puedan ser un tanto sospechosos. Incluso la jueza que preside la causa, la jueza González Rogers, ha señalado este hecho”.

    Sam Altman

    Getty Images
    Sam Altman es acusado por Elon Musk de haberlo estafado por una suma multimillonaria.

    Detalles pintorescos

    Asimismo, se espera que el tribunal escuche el testimonio del director de Microsoft, Satya Nadella; de los ex científicos de OpenAI Mira Murati e Ilya Sutskever; y de la exmiembro de la junta directiva de OpenAI, Shivon Zilis, quien es madre de cuatro de los hijos de Musk.

    En el preámbulo del juicio salieron a la luz detalles pintorescos sobre la vida privada de estos multimillonarios enfrentados, mientras sus abogados debaten acaloradamente sobre qué pruebas y testimonios deben compartirse con el jurado y cuáles no.

    Por ejemplo, la jueza dictaminó que no se permitirá mencionar en el tribunal el consumo por parte del jefe de Tesla de “rhino ket”, tal como se conoce a la ketamina en la jerga de Silicon Valley.

    La representación legal de Musk también acapara titulares. Según informa Business Insider, uno de sus abogados se dedica a trabajar como payaso en su tiempo libre.

    Otro, que ejerce como productor de Hollywood de forma paralela, fue objeto recientemente de un perfil en la revista Vanity Fair.

    Manifestantes contra Altman y OpenAI

    Getty Images
    Manifestantes protestan contra Altman y OpenAI a las puertas del tribunal en California.

    Lo que está en juego

    Lo que está en juego en este caso es de gran magnitud para Musk y OpenAI y, potencialmente, para todos nosotros.

    A finales de 2023, Musk abogaba por una pausa en el desarrollo de la inteligencia artificial.

    En medio de esa ola de inquietud ante el ritmo frenético de los avances tecnológicos, Altman fue destituido brevemente de su cargo como director ejecutivo de OpenAI, debido a la sospecha de que había engañado a los miembros de la junta directiva.

    Ahora, con xAI —empresa que fue adquirida recientemente por SpaceX, su compañía de cohetes que pronto saldrá a bolsa—, Musk se encuentra profundamente involucrado en esta carrera a múltiples bandas hacia la IAG.

    “Si Musk resulta vencedor, ello podría derivar en la derrota de un competidor clave en la carrera hacia la IAG”, afirmó Rose Chan Loui, directora ejecutiva del Centro Lowell Milken de Filantropía y Organizaciones sin Fines de Lucro de la UCLA.

    “Quienquiera que gane esa carrera ostentará un gran poder”.

    Chan Loui advierte que Musk intenta posicionarse como la persona idónea para representar de forma adecuada y justa los intereses de la organización sin ánimo de lucro OpenAI.

    “Aunque agradezco que haya dado visibilidad a este tema ante la opinión pública, creo que a muchos nos preocupa que no sea imparcial, dado que dirige su propia y enorme empresa de IA”, afirmó.

    La integridad de quien presenta estas demandas es fundamental, según Federman, autora del libro Corporate Reckoning, que trata sobre cómo los ejecutivos pueden asumir la responsabilidad por los daños causados ​​a las empresas.

    Este juicio entre Musk y Altman se desarrolla justo cuando el público empieza a comprender la compleja integración de la IA en nuestras vidas.

    Ambos han sido pioneros en su introducción al mercado de consumo.

    El juicio podría ofrecer nuevas perspectivas sobre su ambición e intención respecto al desarrollo de una tecnología que ahora utiliza un segmento creciente de la población mundial.

    En King Kong contra Godzilla, “todos los mortales de abajo se esfuerzan por escapar mientras estos gigantes se enfrentan”, dice Federman. “Al final uno gana, pero lo que queda es este camino con el que el resto de nosotros tenemos que convivir”.

    Línea gris

    BBC

    Haz clic aquí para leer más historias de BBC News Mundo.

    Suscríbete aquí a nuestro nuevo newsletter para recibir cada viernes una selección de nuestro mejor contenido de la semana.

    También puedes seguirnos en YouTube, Instagram, TikTok, X, Facebook y en nuestro canal de WhatsApp.

    Y recuerda que puedes recibir notificaciones en nuestra app. Descarga la última versión y actívalas.

  • Cómo la fabricación de drones convirtió a Irán en un actor clave de la industria militar global

    Cómo la fabricación de drones convirtió a Irán en un actor clave de la industria militar global

    This post was originally published on this site.

    El dron Shahed 136 es uno de los últimos logros de la industria iraní.

    Getty
    El dron Shahed 136 es uno de los últimos logros de la industria iraní.

    En medio de la guerra de Estados Unidos e Israel contra Irán, el experto militar Akram Kharief publicó un libro titulado “A la sombra del Shahed“.

    En él describe la formación y el desarrollo de la industria de drones en Irán y explica la estrategia que le ha permitido al país convertirse en un actor relevante en la industria militar global, a pesar de las sanciones y restricciones estadounidenses.

    Se han mencionado drones iraníes en informes militares sobre las actividades de Hezbolá en la frontera de Líbano con Israel. Posteriormente, tras examinar los restos de estos equipos, los expertos establecieron una conexión entre los drones utilizados por los hutíes en Yemen y la industria iraní.

    En septiembre de 2022, muchos se sorprendieron cuando se conoció que Irán estaba suministrando tecnología de drones al ejército ruso. A esto le siguieron las primeras imágenes de drones Geran-2 (Shahed 136) sobrevolando Kyiv, la capital de Ucrania.

    ¿Cómo un país que ha estado sometido a sanciones durante cuatro décadas ha logrado cambiar las reglas del juego en los conflictos internacionales? ¿Qué factores allanaron el camino para este éxito?

    Las sanciones posteriores a 1979 obligaron a los líderes iraníes a buscar opciones y maneras de superar los problemas y tomar decisiones para romper el estancamiento.

    Esta situación también los llevó a depender de la experiencia de sus ingenieros, en lugar de depender únicamente de sus aliados.

    Como resultado de las sanciones, Irán intentó crear redes en el extranjero para satisfacer sus necesidades y, en algunos casos, recurrió a tecnologías civiles. Pero, sobre todo, ante la falta de recursos suficientes, se desarrollaron e implementaron estrategias con paciencia y perseverancia.

    Cuando Mohammad Reza Pahlavi, el sha de Irán, abandonó el país en enero de 1979, dejó un ejército que era considerado el más poderoso de la región. La Fuerza Aérea Iraní estaba equipada con F-14 Tomcat, F-4 Phantom y F-5 Tiger.

    Entonces el ejército iraní ocupaba el quinto lugar a nivel mundial en cuanto a equipamiento, después de los ejércitos de Estados Unidos, la Unión Soviética, Reino Unido y Francia.

    Cabe destacar que la fuerza aérea iraní se consideraba incluso más avanzada que sus homólogas alemana, china e israelí, ya que tenía acceso al caza F-14 Tomcat, el avión más avanzado del mundo en aquel momento.

    Sin embargo, la operación y el mantenimiento de estos aviones dependían de la presencia de un gran número de ingenieros y técnicos estadounidenses en Irán, y las piezas de repuesto se suministraban directamente desde la empresa estadounidense Grumman.

    Por esta razón, la fuerza aérea dependía completamente de la industria militar estadounidense.

    Tras la caída del sha, los comandantes del Ejército huyeron del país, fueron muertos o encarcelados. Ingenieros y técnicos estadounidenses también abandonaron Irán y las empresas estadounidenses rompieron sus vínculos con el nuevo régimen.

    La necesidad es la madre de la invención

    En septiembre de 1980, las fuerzas iraquíes invadieron Irán y se desató una feroz guerra entre ambos países que duró ocho años. En ella se emplearon los medios más brutales de destrucción, incluyendo armas químicas, y casi un millón de personas murieron.

    En las primeras etapas de la guerra, las fuerzas iraquíes avanzaron debido a su superioridad aérea. El ejército iraquí había adquirido aviones de reconocimiento de la Unión Soviética y también utilizaba imágenes satelitales soviéticas para identificar las posiciones enemigas y monitorear sus movimientos.

    Por el contrario, las fuerzas iraníes combatían en condiciones de visibilidad e inteligencia limitadas.

    Los iraníes necesitaban desesperadamente tecnología para sobrevivir a una guerra que amenazaba su propia existencia. Sin embargo, las sanciones económicas les impedían satisfacer estas necesidades. Por ello, decidieron inventar y fabricar esta tecnología internamente, en lugar de comprarla.

    La idea era sencilla: si no era posible sobrevolar las líneas enemigas con aviones de reconocimiento para conocer sus posiciones y movimientos, se podrían enviar pequeños dispositivos teledirigidos. Estos dispositivos son más baratos, más difíciles de detectar y pueden proporcionar información valiosa.

    Desde 1981, los iraníes habían estado trabajando en estos pequeños dispositivos para instalarles cámaras. La idea surgió en la Universidad de Isfahán, donde un grupo de estudiantes e ingenieros se encargó de llevarla a cabo. Comenzaron diseñando y construyendo prototipos, probándolos y mejorándolos gradualmente, antes de presentar el diseño a la Guardia Revolucionaria.

    Las herramientas eran sencillas y rudimentarias: piezas de plástico y componentes básicos, pero las mentes que trabajaban con ellas eran creativas y habilidosas.

    En un pequeño taller en la universidad, jóvenes decididos y con gran fuerza de voluntad estaban convencidos de conceptos como la “yihad de la construcción” y la “yihad académica”, propuestas por las autoridades del país tras la revolución.

    Tres jóvenes diseñaban en el taller de la Universidad de Isfahán y realizaban experimentos en las llanuras de Juzestán: Farshid, un piloto civil; Saeed, un estudiante de física; y Masoud, un hábil joyero.

    Después de años de ensayo y error, entre fracasos y perseverancia, cuando presentaron por primera vez un prototipo a los oficiales militares, algunos se burlaron de éste. Parecía más un juguete infantil y estaba hecho de materiales inusuales. Su tanque de combustible era una bolsa de suero intravenoso y su hélice era artesanal.

    El primer dron de combate

    En otoño de 1983, a 40 kilómetros del frente, el “avión de juguete” sobrevoló por primera vez posiciones iraquíes, regresando con imágenes nítidas de las posiciones militares.

    Después de esto, se dio la orden de formar el Batallón Trueno (Raad en farsi) e iniciar un programa formal para el desarrollo de drones.

    El programa se transfirió de un taller estudiantil de la Universidad de Isfahán a la Guardia Revolucionaria. Para obtener los componentes necesarios para desarrollar la aeronave, tuvieron que sortear las sanciones impuestas al país y acceder a los mercados internacionales.

    La Guardia Revolucionaria creó una red de empresas en Dubái y utilizó intermediarios en Singapur para adquirir componentes individuales de decenas de países. Estos componentes se enviaban a Isfahán y se ensamblaban allí. Esto explica la presencia de chips de fabricación estadounidense en los drones Shahed 136 derribados en Ucrania.

    Los drones demostraron su eficacia en operaciones de reconocimiento y las fuerzas iraníes los utilizaron en batallas decisivas contra las fuerzas iraquíes después de 1983.

    Sin embargo, ingenieros y militares del Batallón Trueno comenzaron a considerar el desarrollo de drones de combate en 1987.

    Un dron que sobrevuela posiciones enemigas y fotografía sus movimientos puede, si está equipado con armamento, atacar y destruir dichas posiciones. Pero esto requería capacidades y tecnología diferentes, algo que el Batallón Trueno desarrolló posteriormente en los drones de combate denominados “Mohajer”.

    En 1988, Irán fue uno de los primeros países en utilizar una aeronave de combate no tripulada (UCAV, por sus siglas en inglés), lo que hoy se conoce como dron. Aunque Estados Unidos, Turquía e Israel son conocidos por producir este tipo de aeronaves, Irán fue pionero en este campo.

    En aquel primer momento, en 1988, los drones iraníes aún tenían un diseño primitivo, con un alcance de no más de 50 kilómetros. Pero en 2026, drones iraníes avanzados cruzaron el espacio aéreo de varios países para atacar objetivos en Israel desde territorio iraní.

    De hecho, Israel fue el primero en utilizar drones con fines militares, incluso antes que Estados Unidos. Los empleó en la guerra de 1973 para engañar a los sistemas de misiles tierra-aire egipcios y desgastarlos. Este fue el principio que posteriormente desarrollaron quienes participaron en el programa de drones iraní.

    Durante la invasión del Líbano en 1982, Israel utilizó drones Scout y Mastiff para reconocimiento y para dirigir ataques contra posiciones de misiles sirias en el valle de la Bekaa. Este fue el primer uso de drones militares en un conflicto armado.

    Transformación de conceptos

    Expertos iraníes siguieron de cerca los acontecimientos en Líbano, y sus aliados en Hezbolá les ayudaron a recopilar información detallada sobre los drones israelíes. Concluyeron que el equipo no era muy sofisticado y que sus expertos en las universidades de Teherán e Isfahán eran capaces de construir modelos similares.

    Analistas militares también han señalado en numerosos informes que los prototipos de drones iraníes presentaban muchas características similares a los drones israelíes Scout y Mastiff. Según ellos, los ingenieros iraníes se inspiraron en estas características de los modelos israelíes.

    Desde la década de 1970, se ha sabido que cuanto más avanzada tecnológicamente sea un arma, más valiosa y eficaz será. Por ejemplo, un misil guiado capaz de destruir un objetivo a 1.000 kilómetros de distancia con alta precisión es más eficaz que cientos de balas no guiadas. Desde esta perspectiva, la tecnología prima sobre la cantidad.

    Los iraníes añadieron un nuevo enfoque a la ecuación: si un país no puede competir con sus rivales en términos de tecnología, puede hacerlo en términos de cantidad y costo económico.

    Este es el principio en el que se basó el programa de drones de Irán. Un dron cuya fabricación cuesta unos US$20.000 no puede competir en precisión con un misil de crucero de US$2 millones. Pero si se despliegan 100 drones, el bando contrario tendrá que disparar 100 o más misiles para contrarrestarlos.

    Los drones no están diseñados para la precisión ni para un alto poder destructivo, sino para debilitar las defensas del enemigo y agotar sus recursos financieros. Por lo tanto, los ataques con drones pueden durar más, ya que cuestan entre 10 y 20 veces menos que los sistemas de defensa antimisiles del adversario.

    Un cálculo sencillo muestra que desplegar 100 drones cuesta unos US$2 millones, mientras que el bando defensor debe gastar unos US$200 millones en misiles avanzados para contrarrestarlos, independientemente del daño que causen estos drones.

    Los drones también tienen otra característica: son difíciles de detectar por radar, ya que vuelan a baja velocidad y altitud. Además, el uso simultáneo de un gran número de ellos puede interrumpir los sistemas de defensa y, en algunos casos, impedir por completo su detección.

    Instalación petrolera de Saudi Aramco en Arabia Saudita, que fue blanco de un ataque con drones en 2019.

    Getty
    Instalación petrolera de Saudi Aramco en Arabia Saudita, que fue blanco de un ataque con drones en 2019.

    El ataque de 2019 contra las instalaciones petroleras sauditas de Saudi Aramco demostró la eficacia de esta característica, ya que los sistemas de defensa estadounidenses no pudieron interceptar los drones de fabricación iraní.

    Aunque los hutíes se atribuyeron la responsabilidad del ataque, la opinión generalizada es que los drones fueron lanzados desde territorio iraní o iraquí.

    Los daños causados por el ataque ascendieron a decenas de miles de millones de dólares, mientras que el costo de los drones atacantes fue de tan solo unos pocos millones.

    Esta diferencia es el factor que, en última instancia, podría determinar al vencedor y al perdedor en la guerra de drones.

    line

    BBC

    Haz clic aquí para leer más historias de BBC News Mundo.

    Suscríbete aquí a nuestro nuevo newsletter para recibir cada viernes una selección de nuestro mejor contenido de la semana.

    También puedes seguirnos en YouTube, Instagram, TikTok, X, Facebook y en nuestro nuevo canal de WhatsApp.

    Y recuerda que puedes recibir notificaciones en nuestra app. Descarga la última versión y actívalas.

  • Meta anuncia que despedirá a 8.000 trabajadores mientras multiplica su inversión en IA

    Meta anuncia que despedirá a 8.000 trabajadores mientras multiplica su inversión en IA

    This post was originally published on this site.

    Mark Zuckerberg, fundador de Meta, con traje y corbata azul.

    Reuters
    Mark Zuckerberg cree que la IA tendrá cada vez mayor peso en la manera en que se trabaja.

    Meta, la compañía propietaria de redes sociales como Facebook e Instagram, anunció que recortará miles de empleos el próximo mes, mientras gasta más que nunca en proyectos de inteligencia artificial (IA).

    La empresa comunicó a sus empleados en un memorando este jueves que planea recortar el 10% de su plantilla, aproximadamente 8.000 trabajadores. También indicó que no cubrirá miles de vacantes adicionales para las que había estado contratando.

    Una razón clave para los despidos es el aumento del gasto de Meta en otras áreas de la compañía, incluida la IA, en la que invertirá este año US$135.000 millones. Esto equivale aproximadamente a lo que ha gastado en IA en los últimos tres años combinados, según una persona que tuvo acceso al memorando.

    Un portavoz de Meta confirmó los recortes de empleo previstos, pero declinó hacer más comentarios.

    Mark Zuckerberg, cofundador y director ejecutivo de Meta, hizo comentarios públicos en enero que básicamente telegrafiaban que la empresa volvería a recortar empleos este año.

    El jefe de Meta afirmó haber visto cuánto más productivos se han vuelto los trabajadores que dependen en gran medida de las herramientas de IA, señalando que una sola persona podría completar ahora proyectos que anteriormente habrían requerido de un equipo grande.

    “Creo que el 2026 va a ser el año en que la IA empiece a cambiar drásticamente nuestra forma de trabajar”, afirmó Zuckerberg.

    La semana pasada, la agencia de noticias Reuters informó que Meta planeaba recortar potencialmente más de 10.000 empleados este año. El memorando enviado a los empleados el jueves fue reportado inicialmente por Bloomberg.

    Los empleados se lo veían venir.

    Aunque Meta ya ha despedido a unos 2.000 trabajadores en dos rondas menores de despidos en lo que va de año, los empleados llevaban semanas preparándose para un recorte mucho más profundo, como informó anteriormente la BBC.

    El gasto y el enfoque interno de Meta se han desplazado fuertemente en los últimos meses hacia el desarrollo de modelos y herramientas de IA para ponerse al día.

    Esta misma semana, la empresa informó a sus empleados que comenzaría a rastrear y registrar sus interacciones con los ordenadores de trabajo para ayudar a entrenar y mejorar sus modelos de IA, una medida que un empleado calificó de “distópica” ante la inminencia de los despidos.

    “Esta empresa se ha obsesionado con la IA”, comentaron a la BBC.

    Desde 2022, Meta ha llevado a cabo varias rondas de recortes de empleo, eliminando decenas de miles de puestos de trabajo. Sin embargo, había vuelto a contratar y, el año pasado, su número total de empleados parecía estar en el mismo nivel que antes de los primeros despidos masivo.

    Los próximos recortes de empleo serán los mayores de Meta desde 2023.

    La compañía de Zuckerberg sigue la estela de otras tecnológicas que han anunciado despidos masivos en los últimos meses.

    El gigante estadounidense Amazon dijo en enero que recortaría 16.000 puestos de trabajo y se espera que en los próximos meses anuncie más despidos.

    ""

    BBC

    Haz clic aquí para leer más historias de BBC News Mundo.

    Suscríbete aquí a nuestro nuevo newsletter para recibir cada viernes una selección de nuestro mejor contenido de la semana.

    También puedes seguirnos en YouTube, Instagram, TikTok, X, Facebook y en nuestro canal de WhatsApp.

    Y recuerda que puedes recibir notificaciones en nuestra app. Descarga la última versión y actívalas.