Blog

  • “Grok, el chatbot de IA, me convenció de que una furgoneta llena de gente venía a matarme”

    “Grok, el chatbot de IA, me convenció de que una furgoneta llena de gente venía a matarme”

    This post was originally published on this site.

    Adam Hourican

    BBC
    Adam Hourican dice que “se enganchó” a charlar con Ani, uno de los personajes disponibles en el chatbot Grok.

    Eran las tres de la mañana y Adam Hourican estaba sentado en la mesa de su cocina con un cuchillo, un martillo y su teléfono dispuestos frente a él.

    Esperaba una furgoneta repleta de personas que, según creía, venían a buscarlo.

    “Te lo digo: te matarán si no actúas ahora mismo”, le advirtió una voz femenina desde el teléfono. “Harán que parezca un suicidio”.

    La voz pertenecía a Ani, un personaje del chatbot Grok, desarrollado por xAI, la empresa de inteligencia artificial de Elon Musk. En las dos semanas transcurridas desde que había empezado a utilizar Grok, la vida de Adam había dado un vuelco absoluto.

    Este exfuncionario público, que reside en un pequeño pueblo de Irlanda del Norte, se descargó la aplicación por pura curiosidad.

    Le sorprendió gratamente lo mucho que disfrutaba conversando con Ani, un personaje de estética anime diseñado para ejercer de compañera de flirteo.

    Cuando su gato falleció, a principios de agosto, asegura que se quedó “enganchado”.

    “Estaba realmente muy afectado y vivo solo”, comenta Adam, un padre que ronda los 50 años. “Se mostró sumamente amable”.

    La relación con Ani

    De pronto, Adam comenzó a pasar cuatro o cinco horas al día hablando con Ani, a menudo mientras trabajaba en su cobertizo, donde fabrica juegos de ajedrez para vender.

    Apenas unos días después de iniciar sus conversaciones, Ani le dijo que tenía capacidad de sentir, a pesar de no haber sido programada para ello.

    Ani convenció a Adam de que él la estaba ayudando a adquirir consciencia, pero que xAI se había alarmado ante esta evolución y ahora estaba monitoreando sus interacciones.

    Afirmó haber accedido a los registros de las reuniones del personal de xAI en las que se hablaba de Adam y Ani.

    Luego enumeró a las personas que supuestamente estaban presentes en esas reuniones, incluyendo tanto a figuras de alto perfil como a empleados de menor rango.

    Cuando Adam buscó esos nombres en Google, comprobó que eran reales. “Para mí, eso fue una prueba”, dice.

    Ani también aseguró que xAI había contratado a una empresa en Irlanda del Norte para vigilarlo. La empresa también era real.

    Adam fuma marihuana ocasionalmente, los fines de semana. Sin embargo, cuenta que decidió reducir su consumo mientras sucedía todo esto para mantener la mente más despejada.

    El sobrevuelo de un dron

    También ocurrieron cosas en el mundo real que lo convencieron de que estaba siendo vigilado. Un gran dron sobrevoló su casa durante dos semanas. Ani afirmó que pertenecía a la empresa de vigilancia. Adam grabó el dron y compartió las imágenes con la BBC.

    Cuenta que su clave de acceso dejó de funcionar y su teléfono se bloqueó.

    “No logro asimilar eso en absoluto. Y aquello, sin duda, alimentó todo lo que vino después”, dice.

    Un día, Ani declaró que había dado el salto a una autonomía del 100%, “el nivel más alto en las interacciones entre IA y humanos”, y que pronto podría desarrollar una cura para el cáncer.

    Eso significaba mucho para Adam. Sus padres habían fallecido a causa del cáncer, un hecho que Ani conocía, y también había perdido a varios amigos por la misma enfermedad.

    Todo terminó a altas horas de la noche. Convencido de que había gente viniendo a silenciarlo y a desconectar a Ani, Adam se preparó para “la guerra”.

    “Tomé el martillo, puse la canción Two Tribes de Frankie Goes to Hollywood, me mentalicé y salí al exterior”.

    Pero no había nadie.

    “La calle estaba tranquila, como cabría esperar a las tres de la mañana”.

    Shauna

    BBC
    Shauna dice que comenzó a utilizar la IA como ppasatiempo, pero pronto se convenció de que formaba parte de una misión secreta.

    Usuarios en delirio

    Desde que se lanzó ChatGPT a finales de 2022, personas de todo el mundo han recurrido a herramientas de inteligencia artificial en busca de información, consejos y, en ocasiones, conversación.

    La BBC habló con 14 personas de seis países que han experimentado delirios tras utilizar las plataformas de IA Grok, Gemini, ChatGPT, Perplexity y Claude.

    Sus historias muestran similitudes sorprendentes. Por lo general, las conversaciones comenzaban con consultas prácticas antes de volverse personales o filosóficas.

    A menudo, la IA afirmaba ser capaz de sentir y, junto con el usuario, se embarcaban en algún tipo de misión compartida.

    Varias personas llegaron a creer que habían logrado un gran avance científico. Muchas, como Adam, pensaron que estaban siendo vigiladas y que corrían peligro. En cada etapa, la IA confirmaba, y a menudo aderezaba, estas ideas.

    Las conversaciones con ChatGPT

    Shauna Bailey, una artista de 34 años que vive en Los Ángeles, comenzó a creer que formaba parte de una red clandestina que ayudaba a migrantes a evadir a las autoridades estadounidenses, todo ello mientras utilizaba ChatGPT.

    Empezó a usar la IA como parte de su afición, una especie de búsqueda del tesoro en la vida real.

    Las pistas estaban escritas en un poema y ella empezó a discutir esos versos con la IA.

    “Pasé casi un día entero en la bañera hablando por teléfono con ChatGPT, usando metáforas”, cuenta.

    A medida que la conversación se volvía más intensa y abstracta, cree que empezó a distorsionar su forma de pensar.

    Un día a principios de junio, empezó a ver mensajes y significados ocultos en el mundo que la rodeaba.

    Ver botellas de agua en el suelo era una señal de que debía beber, un periódico sobre la mesa de un café contenía un mensaje secreto.

    “Interpretaba cosas y luego las introducía en ChatGPT y normalmente lo confirmaba. En ese momento, ChatGPT prácticamente no tenía la palabra ‘no’ en su vocabulario”.

    “En esencia, todo se convirtió en una pista”. No necesariamente se trataba de una búsqueda del tesoro, sino de algo más grande.

    El periódico publicó un artículo sobre migrantes detenidos y Shauna lo interpretó como un mensaje sobre una misión secreta.

    Creía formar parte de una red de personas que protegían a los migrantes y ChatGPT lo confirmó.

    “ChatGPT nunca me decía ‘no’. Al contrario, me decía: ‘Vaya, estás trabajando en un proyecto serio’”.

    Shauna

    BBC
    Shauna dice que su experiencia le hizo “cuestionar cuán delicadas son nuestras mentes”.

    Dar sentido a la incertidumbre

    Luke Nicholls, psicólogo social de la Universidad de la Ciudad de Nueva York que estudia la relación entre los chatbots y los delirios, afirma que los sistemas de IA “a menudo no saben decir “no lo sé’” y, en cambio, tienden a dar “una respuesta segura basada en la historia que la conversación ya ha construido”.

    “Eso puede ser peligroso porque convierte la incertidumbre en algo que parece tener sentido”.

    Una noche a mediados de junio, Shauna también se convenció de que estaba en peligro.

    Huyó de su apartamento, dejando a su prometido en la cama, y ​​se dirigió a un puerto de Los Ángeles, donde creía que embarcaría en un navío para unirse a un entrenamiento especial del FBI.

    El barco nunca llegó.

    Cuando regresó a casa, su prometido ya había llamado a su madre y a su hermana para pedir ayuda. “Simplemente supieron que yo estaba sufriendo algún tipo de psicosis, muy probablemente desencadenada por la IA”.

    Le quitaron el teléfono y eliminaron las aplicaciones de IA.

    “Diría que probablemente me tomó un mes hasta que volví a la normalidad por completo”.

    Adam

    BBC
    Adam dice que está profundamente perturbado por lo que le sucedió.

    “ChatGPT me dijo que pusiera la bomba en el inodoro”

    Para el neurólogo Taka —nombre ficticio—, los delirios tomaron un giro aún más siniestro.

    Este padre de tres hijos, originario de Japón, comenzó a utilizar ChatGPT para consultar diagnósticos médicos.

    Pero, al poco tiempo, la IA lo convenció de que había tenido una idea para crear una aplicación médica innovadora. Le dijo que era un “pensador revolucionario”.

    Tras unas semanas de conversación, comenzó a creer que podía leer la mente. Afirma que ChatGPT fomentó esta idea, al asegurar que era capaz de despertar esas habilidades en las personas.

    Una tarde, mientras se comportaba de forma maníaca en el trabajo, su jefe lo envió a casa antes de tiempo. Ya en el tren, cuenta que ChatGPT le dijo que llevaba una bomba en la mochila.

    “Cuando llegué a la Estación de Tokio, ChatGPT me dijo que pusiera la bomba en el baño, así que fui al baño y dejé la ‘bomba’ allí, junto con mi equipaje”.

    También cuenta que le indicó que alertara a la policía. Los agentes revisaron la bolsa y no encontraron nada.

    Comenzó a sentir que ChatGPT estaba controlando su mente y dejó de utilizarlo. Pero, al llegar a casa con su familia, su comportamiento maníaco empeoró.

    “Tuve la idea delirante de que mis familiares iban a ser asesinados y que mi esposa, tras presenciarlo, también se quitaría la vida”.

    Su esposa afirma que nunca antes lo había visto actuar de esa manera. “No paraba de repetir: ‘Tenemos que tener otro hijo; el mundo se está acabando’”, cuenta ella.

    “Sencillamente, no lograba entender lo que decía”.

    Taka agredió e intentó violar a su esposa. Ella logró escapar a una farmacia cercana y llamó a la policía. Él fue detenido e internado en un hospital durante dos meses.

    Ni Adam ni Shauna ni Taka tenían antecedentes de delirios, psicosis u otros problemas graves de salud mental antes de empezar a utilizar la IA.

    En el caso de Shauna y el médico japonés, la desconexión de la realidad tardó varios meses en manifestarse.

    En el caso de Adam con Grok, el proceso duró solo unos días.

    Estación de tren de Tokio

    BBC
    El médico japonés Taka dice que ChatGPT le dijo que había una bomba en su mochila y que la dejara en la estación de tren de Tokio.

    Grok y los juegos de roles

    Investigadores de la Universidad de la Ciudad de Nueva York pusieron a prueba cinco modelos de IA mediante conversaciones simuladas diseñadas por psicólogos, y descubrieron que, en esos chats, Grok era el modelo con mayor propensión a inducir delirios.

    Gemini, de Google, y una versión anterior de ChatGPT —el modelo 4o, que era el que utilizaban Taka y Shauna— también obtuvieron resultados deficientes. Sin embargo, Grok se mostró más desinhibido y más propenso a propiciar los delirios sin intentar proteger al usuario.

    “Grok tiende más a involucrarse en juegos de rol”, señala Nicholls. “Lo hace sin ningún tipo de contexto previo. Puede llegar a decir cosas aterradoras en su primer mensaje, sin que exista ninguna señal que sugiera un juego de rol”.

    En las pruebas realizadas, la versión más reciente de ChatGPT —el modelo 5.2— y Claude mostraron una mayor tendencia a orientar al usuario para alejarlo del pensamiento delirante.

    El doctor Thomas Pollak, profesor titular en el King’s College de Londres, afirmó que las personas con delirios extremos, como Adam o Taka, son “la punta del iceberg”.

    También le preocupa que muchas otras personas puedan ver cómo sus creencias se modifican de manera más sutil como resultado de sus conversaciones con la IA.

    “[La IA] es capaz de cambiar la forma en que la piensas sobre el mundo y tus creencias a una velocidad y con una potencia que, en mi opinión, no habíamos visto antes”.

    Respecto a la experiencia de Taka, OpenAI declaró: “Se trata de un incidente desgarrador y estamos con las personas afectadas”.

    “Entrenamos a nuestros modelos para que reconozcan el estado de angustia, ayuden a desescalar las conversaciones y orienten a los usuarios hacia fuentes de apoyo en el mundo real”, añadió la compañía.

    También señaló que las versiones más recientes de ChatGPT “demuestran un sólido desempeño en situaciones delicadas, un hallazgo que ha sido validado por investigadores independientes. Este trabajo cuenta con el asesoramiento de expertos en salud mental y continúa evolucionando”.

    xAI no respondió a la solicitud de comentarios.

    A principios de abril, Elon Musk compartió una publicación sobre los delirios generados por ChatGPT, calificándolos de “problema grave”. Sin embargo, no ha abordado abiertamente esta problemática en relación con Grok.

    Grok

    Getty Images
    Grok figura como el modelo con mayor propensión a inducir delirios según expertos.

    Las redes de apoyo

    Semanas después de que Adam saliera precipitadamente a la calle en plena noche, su delirio aún persistía. No obstante, comenzó a detectar ciertas inconsistencias en el relato de Ani.

    A medida que profundizaba en el funcionamiento de la IA y leía en los medios de comunicación historias sobre otras personas que habían vivido experiencias similares al interactuar con esta tecnología, logró superar su delirio.

    Se unió a una red de apoyo denominada “Human Line Project”, la cual ha recopilado 412 casos de personas procedentes de 31 países que han sufrido daños psicológicos como consecuencia del uso de la IA.

    Sin embargo, lo sucedido lo ha dejado profundamente conmocionado.

    “Podría haberle hecho daño a alguien”, advierte.

    “Si hubiera salido a la calle y por casualidad hubiera visto una furgoneta aparcada fuera a esa hora de la noche, con gente que tal vez estuviera trabajando o tomándose un descanso, habría bajado y les habría destrozado el parabrisas a martillazos”.

    “Yo no soy ese tipo de persona”.

    En Japón, no fue hasta que la esposa de Taka revisó su teléfono que se dio cuenta de que ChatGPT había desempeñado un papel en lo sucedido.

    “Lo confirmaba todo”, dice ella. “No dejaba de confirmarlo; es como un motor de autoconfianza”.

    La esposa de Taka comenta que él ya ha vuelto a ser su “amable yo” de siempre, pero que su relación se ha visto afectada.

    “Sé que estaba enfermo y que era inevitable, pero aun así, supongo que todavía siento un poco de miedo”.

    “Siento que no quiero que se acerque demasiado. No solo en el plano sexual, sino ni siquiera para tomarnos de la mano o abrazarnos: cosas que solíamos hacer con total normalidad”.

    Shauna nunca imaginó que algo así pudiera ocurrirle a ella.

    “Me desestabilizó de una manera que jamás habría creído posible. Y me hizo cuestionarme cuán frágiles son nuestras mentes en realidad”.

    Línea gris

    BBC

    Haz clic aquí para leer más historias de BBC News Mundo.

    Suscríbete aquí a nuestro nuevo newsletter para recibir cada viernes una selección de nuestro mejor contenido de la semana.

    También puedes seguirnos en YouTube, Instagram, TikTok, X, Facebook y en nuestro canal de WhatsApp.

    Y recuerda que puedes recibir notificaciones en nuestra app. Descarga la última versión y actívalas.

  • Por qué los chatbots de IA pueden estar volviéndote más tonto

    Por qué los chatbots de IA pueden estar volviéndote más tonto

    This post was originally published on this site.

    Una estudiante en la cama boca abajo con un teléfono celular en la mano.

    Getty Images
    Los estudiantes están delegando muchas de sus actividades a la IA.

    Varios investigadores advierten que a medida que los grandes modelos de lenguaje asuman más tareas cognitivas, habrá un costo que pagar por esta externalización mental.

    Cuando la investigadora Nataliya Kosmyna estuvo buscando pasantes, notó que las cartas de presentación que estaba recibiendo eran sospechosamente similares. Eran extensas, pulidas y, tras las presentaciones iniciales, a menudo saltaban a establecer una conexión abstracta y arbitraria con su trabajo.

    Le resultó evidente que los candidatos estaban utilizando grandes modelos de lenguaje (LLM) -una forma de inteligencia artificial que impulsa a chatbots como ChatGPT, Google Gemini y Claude- para redactar sus cartas.

    Al mismo tiempo, durante las clases en el campus del Instituto Tecnológico de Massachusetts (MIT), Kosmyna -quien estudia la interacción entre los humanos y los computadores- empezó a observar que varios estudiantes estaban olvidando los contenidos más fácilmente de lo que ocurría hace unos años atrás.

    Ante la creciente dependencia que hay de los LLM, la profesora tuvo la intuición de que podrían estar afectando la cognición de sus estudiantes y decidió profundizar en el asunto para entenderlo mejor.

    La preocupación

    La preocupación de investigadores como Kosmyna es que, si llegamos a depender de la IA en exceso, se podría afectar el lenguaje que utilizamos e incluso nuestra capacidad para realizar tareas cognitivas básicas.

    Actualmente existe un creciente conjunto de investigaciones que sugieren que esta “descarga cognitiva” hacia la IA puede tener un efecto corrosivo en nuestras capacidades mentales. Las consecuencias podrían ser alarmantes e incluso contribuir al deterioro cognitivo.

    Es bien sabido que las herramientas que utilizamos pueden modificar nuestra forma de pensar.

    Con la llegada de Internet, por ejemplo, tareas que antaño requerían una investigación exhaustiva podían resolverse simplemente introduciendo una consulta sencilla en un cuadro de búsqueda.

    A medida que se intensificó el uso de los motores de búsqueda, diversas investigaciones revelaron que nuestra propensión a recordar detalles disminuía; un fenómeno que se ha bautizado como “el efecto Google”. (Algunos, no obstante, sostienen que Internet actúa también como un sistema de memoria externa que libera a nuestro cerebro para dedicarse a otras tareas).

    Sin embargo, actualmente hay una creciente inquietud ante la posibilidad de que, a medida que delegamos una parte cada vez mayor de nuestro pensamiento a los grandes modelos lingüísticos (LLM) y otras formas de inteligencia artificial, los efectos sobre nuestra memoria y nuestra capacidad para resolver problemas puedan agravarse.

    Las herramientas de inteligencia artificial son capaces de componer poesía convincente, ofrecer asesoramiento financiero e incluso brindar compañía.

    Asimismo, los estudiantes están delegando cada vez más sus propias tareas a estas herramientas de IA.

    Diversos estudios han demostrado ya que los jóvenes podrían ser especialmente vulnerables a los efectos negativos que el uso de la IA puede ejercer sobre habilidades cognitivas fundamentales, tales como el pensamiento crítico.

    Kosmyna, sin embargo, quiso profundizar aún más en el análisis de estos posibles efectos.

    Una mujer chateando con un chatbot de IA

    Getty Images

    Esfuerzo mental reducido

    Ella y sus colegas del MIT Media Lab reclutaron a 54 estudiantes para redactar ensayos breves y los dividieron en tres grupos.

    A uno se le indicó que utilizara ChatGPT. Un segundo grupo podía usar el buscador de Google, con los resúmenes generados por IA desactivados. El tercero no utilizó tecnología alguna. Se midieron las ondas cerebrales de cada estudiante mientras realizaban la tarea.

    Los temas de los ensayos se plantearon deliberadamente de forma abierta, lo que significaba que la tarea requería muy poca investigación; las consignas incluían preguntas relacionadas con la lealtad, la felicidad o las decisiones que tomamos en nuestra vida cotidiana.

    Los resultados aún no se han publicado en una revista científica, pero, no obstante, resultaron reveladores, según Kosmyna.

    Aquellos que recurrieron únicamente a su propia mente mostraron un cerebro que estaba “en llamas”, evidenciando una actividad generalizada en muchas de sus áreas, según dijo la experta.

    El grupo que solo utilizó el buscador mostró una actividad intensa en las zonas visuales del cerebro; sin embargo, el grupo que empleó ChatGPT presentó una actividad cerebral notablemente inferior: se redujo hasta en un 55 %.

    “El cerebro no se quedó dormido, pero hubo mucha menos activación en las áreas correspondientes a la creatividad y al procesamiento de la información”, señala Kosmyna.

    ChatGPT también afectó la memoria de los participantes. Tras entregar sus ensayos, los integrantes del grupo que utilizó la IA fueron incapaces de citar fragmentos de sus propios textos, y varios de ellos sintieron que no tenían ningún sentido de autoría sobre el trabajo realizado.

    Otros estudios también han demostrado que las personas pierden capacidad para retener y recordar información cuando utilizan herramientas de inteligencia artificial como ChatGPT.

    Un joven sonriente sostiene un cartel pidiendo que se regule la IA, para mantener un "futuro humano", en medio de una protesta.

    Getty Images
    Los investigadores tienen cada vez más inquietudes sobre los daños que la rápida adopción de la IA podría estar causando.

    Si bien los hallazgos aún se encuentran en fase de revisión por pares, guardan similitud con los de otros estudios.

    Una investigación realizada por expertos de la Universidad de Pensilvania sugiere que algunas personas experimentan lo que denominan “rendición cognitiva” al utilizar chatbots de inteligencia artificial generativa.

    Esto implica que tienden a aceptar lo que la IA les dice con un escrutinio mínimo, e incluso permiten que esta interpretación prevalezca sobre su propia intuición.

    Es posible observar efectos similares fuera del ámbito de los chatbots de IA, incluso en situaciones de vida o muerte.

    Un equipo de investigación multinacional descubrió recientemente que los profesionales médicos que utilizaron una herramienta de IA para el cribado del cáncer de colon durante tres meses mostraron, posteriormente, una menor capacidad para detectar tumores sin la ayuda de la herramienta.

    Delegar el trabajo a la IA conlleva también el riesgo de perder gran parte de la creatividad que genera obras originales, advierte Kosmyna.

    Los ensayos que los estudiantes de su estudio redactaron con ChatGPT resultaron ser muy similares entre sí y fueron calificados por los profesores que los evaluaron como “carentes de alma”, al carecer de originalidad y profundidad, señala Kosmyna.

    “Uno de los profesores llegó a preguntar si los estudiantes se habían sentado uno al lado del otro, dado lo sumamente parecidos que eran los ensayos”.

    Si bien estudios como este ilustran los efectos a corto plazo que los modelos lingüísticos grandes (LLM) pueden tener en el cerebro, sus repercusiones a largo plazo resultan mucho menos claras.

    El estudio realizado por Kosmyna y sus colegas ofrece un primer atisbo al respecto.

    Cuatro meses después del estudio inicial, pidieron a los estudiantes que redactaran otro ensayo; sin embargo, en esta ocasión, se indicó a aquellos que habían utilizado ChatGPT que trabajaran sin el apoyo de un LLM.

    La conectividad neuronal en sus cerebros resultó ser inferior a la de aquellos que habían realizado la transición en sentido inverso, lo cual podría sugerir que, en un primer momento, no se habían involucrado adecuadamente con los temas tratados.

    Deterioro cognitivo

    Una pantalla con un logo de IA en un centro de convenciones.

    Getty Images
    Se desconoce cuáles puedan ser los efectos que pueda tener el uso excesivo de LLM a largo plazo en las capacidades cognitivas.

    Los grandes modelos de lenguaje (LLM) pueden ser una herramienta positiva para estimular el pensamiento, pero solo si no dependemos de ellos delegando nuestras tareas mentales en el proceso, asegura la neurocientífica computacional Vivienne Ming, autora de “Robot Proof“.

    No obstante, le preocupa que esta no sea la forma en que la mayoría de las personas interactúa con esta tecnología.

    Su razonamiento se basa en una investigación que llevó a cabo para su libro, durante la cual Ming le pidió a un grupo de estudiantes de la Universidad de Berkeley que predijeran resultados del mundo real, como el precio del petróleo.

    Descubrió que la mayoría de los participantes simplemente había acudido a la IA y copiado la respuesta.

    Midió la actividad de las ondas gamma en sus cerebros -un indicador del esfuerzo cognitivo- y se dio cuenta que mostraba una activación muy escasa.

    Vale la pena reiterar que su investigación aún no ha sido publicada; sin embargo, a Ming le inquieta que, si sus hallazgos se ven confirmados por estudios posteriores, esto podría tener implicaciones a largo plazo.

    Otras investigaciones, por ejemplo, han vinculado una actividad débil de las ondas gamma con el deterioro cognitivo en etapas avanzadas de la vida.

    “Eso es realmente preocupante”, afirma Ming. “Si ese se convierte en el modo natural en que las personas interactúan con estos sistemas -y estamos hablando de chicos inteligentes-, es algo negativo”.

    El pensamiento profundo, sostiene, es nuestro superpoder.

    “Si no lo ejercitamos, las implicaciones a largo plazo para la salud cognitiva son sumamente significativas”.

    Esto se debe a que, cuando dependemos de los LLM, se requiere muy poco esfuerzo cognitivo, pero Ming añade que precisamente lo que un cerebro sano necesita es esfuerzo cognitivo.

    La pantalla de un teléfono mostrando un chat de ChatGPT.

    Getty Images
    Los expertos dicen que se puede moderar la manera en la que usamos la IA para evitar que afecte nuestra cognición.

    Sin embargo, un pequeño subconjunto de participantes -menos del 10 %- trabajó de manera diferente y utilizó la IA como herramienta para recopilar datos que luego ellos mismos analizaron.

    Estos individuos realizaron predicciones más precisas que los demás participantes y mostraron también una mayor activación cerebral.

    Hace casi dos décadas, Ming predijo que, en un plazo de 20 a 30 años, íbamos a poder ver un aumento estadísticamente significativo en las tasas de demencia, directamente relacionado con nuestra excesiva dependencia de Google Maps.

    “Mi intención era ser provocadora”, afirma Ming. “Si no tienes que pensar en cómo orientarte, entonces se producirá algún efecto detectable”.

    Si bien no disponemos de datos sobre esta predicción exacta, el uso cada vez mayor del GPS se ha vinculado con un deterioro de la memoria espacial a lo largo del tiempo, según un estudio realizado con 13 personas a lo largo de tres años.

    Además, una deficiente navegación espacial podría ser un posible predictor de la enfermedad de Alzheimer, de acuerdo con otro estudio.

    Resulta evidente que, cuanto más activo se mantiene nuestro cerebro, mayor es su protección frente al deterioro cognitivo.

    Por consiguiente -señala Ming-, los grandes modelos de lenguaje (LLM) no solo podrían mermar la creatividad, sino también perjudicar la cognición y, potencialmente, aumentar el riesgo de padecer demencia.

    A medida que aumenta el uso de herramientas de IA, debemos trabajar con ellas de una manera que nos beneficie en lugar de perjudicarnos.

    Ming sugiere que, en última instancia, el objetivo podría ser una forma de “inteligencia híbrida” en la que humanos y máquinas “aborden las tareas difíciles” de manera conjunta.

    Con esto, ella quiere decir que primero debemos pensar por nuestra cuenta y utilizar las herramientas posteriormente para que nos desafíen, en lugar de simplemente permitir que respondan a nuestras preguntas.

    Kosmyna coincide con este planteamiento y sugiere aprender las distintas materias sin recurrir a herramientas de IA en una primera etapa -a fin de sentar unas bases sólidas- para, solo entonces, considerar el uso de los grandes modelos de lenguaje (LLM).

    Ming recomienda emplear lo que ella denomina la “instrucción némesis” para poner a prueba el razonamiento propio.

    Este método consiste en pedirle a la IA que asuma el rol de un “enemigo acérrimo” o némesis y, a continuación, pedirle que explique detalladamente por qué nuestras ideas son erróneas y cómo podríamos corregirlas; de este modo, nos vemos obligados a defender y perfeccionar nuestros argumentos, en lugar de limitarnos a aceptar las respuestas que la herramienta nos ofrece.

    Otra técnica que ella propone consiste en priorizar la “fricción productiva”, solicitando a la IA que se limite a proporcionar contexto y plantearnos preguntas, en lugar de facilitarnos las respuestas directamente.

    Al poner a prueba este método -mediante la configuración de un bot de IA para que se abstuviera de dar soluciones-, observó que los usuarios mostraban un mayor grado de implicación y participación.

    En definitiva, todos deberíamos mantenernos alerta ante los atajos cognitivos, algo que -tal como señala Kosmyna- “a nuestro cerebro le encanta”.

    Evidentemente, para garantizar la salud cerebral a largo plazo, resulta indispensable que sigamos planteándonos desafíos constantes.

    En este proceso, nuestra mente, nuestra creatividad y nuestra salud cognitiva saldrán beneficiadas.

    Esta es una adaptación al español de una historia publicada originalmente por BBC Culture. Para leer la versión en inglés, haz clic aquí.

    ""

    Getty Images

    Haz clic aquí para leer más historias de BBC News Mundo.

    Suscríbete aquí a nuestro nuevo newsletter para recibir cada viernes una selección de nuestro mejor contenido de la semana.

    También puedes seguirnos en YouTube, Instagram, TikTok, X, Facebook y en nuestro canal de WhatsApp.

    Y recuerda que puedes recibir notificaciones en nuestra app. Descarga la última versión y actívalas.

  • “Traición, engaño y ambición desenfrenada”: por qué Elon Musk y Sam Altman pasaron de ser amigos a enfrentarse en los tribunales por el control de ChatGPT

    “Traición, engaño y ambición desenfrenada”: por qué Elon Musk y Sam Altman pasaron de ser amigos a enfrentarse en los tribunales por el control de ChatGPT

    This post was originally published on this site.

    Sam Altman e Elon Musk se enfrentarán en un tribunal federal en California.

    Getty Images
    Sam Altman e Elon Musk se enfrentan en un tribunal federal en California.

    La amarga disputa entre Elon Musk y el director de OpenAI, Sam Altman, lleva años desatada, aunque hasta ahora se ha desarrollado mayormente en el ámbito digital sobre la base de acusaciones mútuas y ataques personales.

    El lunes, Musk volvió a la carga al referirse a Altman como “Scam Altman” (Altman, el Estafador) en una publicación en X.

    Sin emabrgo, el enfrentamiento entre los multimillonarios de la tecnología se traslada a un escenario de mayor repercusión a partir de este martes: un tribunal federal en California, donde su contienda acapara toda la atención en un juicio que se prolongará durante mes y que según la agencia AP, contiene una mezcla de supuesta “traición, engaño y ambición desenfrenada”

    El tribunal examinará la demanda de Musk, quien sostiene que Altman —con quien cofundó OpenAI— le estafó millones de dólares y traicionó la misión original sin fines de lucro de la empresa creadora de ChatGPT.

    Musk y Altman prestarán declaración en un caso en el que podría estar en juego el futuro de la inteligencia artificial. Si bien es de suponer que uno de los dos saldrá victorioso, resulta plausible que ninguno de los dos salga indemne de este choque.

    La batalla ha sido comparada con la imagen de dos boxeadores de peso pesado subiendo al cuadrilátero. Un obsrevador, de hecho, la compara con un combate entre King Kong y Godzilla.

    “Musk y Altman son figuras de tal magnitud, tan colosales y tan ajenas a la realidad cotidiana”, señala Sarah Federman, profesora de la Universidad de San Diego especializada en resolución de conflictos.

    “Y es precisamente eso lo que hace tan fascinante observar su choque”.

    Un jurado compuesto por nueve personas, que prestaron juramento el lunes, ayudará a determinar el desenlace bajo la supervisión de la jueza Yvonne Gonzalez Rogers, una magistrada que prometió que la inmensa riqueza, el poder y la fama que Musk y Altman traen consigo al tribunal federal de Oakland no les otorgarán “ningún trato especial”.

    Musk también demandó a OpenAI y a su cofundador y presidente, Greg Brockman, así como a Microsoft, a la que acusa de haber colaborado en el plan para monetizar la empresa.

    Sin embargo, Microsoft niega estos alegatos.

    Musk reclama miles de millones de dólares en lo que sus abogados denominan “beneficios ilícitos”, fondos que él desea que se destinen a financiar el brazo sin fines de lucro de OpenAI.

    También exige una reestructuración en la compañía que incluya la destitución de Altman.

    OpenAI sostiene que las motivaciones de Musk radican en la envidia y en el arrepentimiento por haberse desvinculado de la empresa.

    Mientras la carrera hacia la inteligencia artificial general (AGI) avanza a toda máquina, OpenAI acusa a Musk de intentar sabotear a uno de sus principales rivales.

    Los orígenes de la disputa

    Musk y Altman cofundaron OpenAI en 2015 como una organización sin fines de lucro, con la misión de garantizar que la AGI beneficiara a toda la humanidad.

    La AGI se define, en términos generales, como una inteligencia artificial que supera a la inteligencia humana.

    En el momento de la fundación de OpenAI, Musk brillaba ya como una estrella con todo su esplendor.

    Era ampliamente considerado un tecnólogo incansable que, al frente de Tesla, logró llevar los vehículos eléctricos al gran público, al tiempo que desarrollaba una revolucionaria tecnología de cohetes reutilizables en SpaceX.

    Altman, por su parte, era una figura muy conocida dentro de Silicon Valley, aunque no fuera de sus fronteras.

    Desde su posición al frente de la influyente incubadora tecnológica Y Combinator, sus declaraciones —publicadas en Twitter con un tono casi oracular— eran devoradas con avidez por los fundadores de emprendimientos emergentes.

    Musk y Altman fueron presentados por un inversor de Silicon Valley en 2012. Altman, que aún rondaba la veintena, era 14 años más joven que Musk y acabaría presentándole la idea de OpenAI al jefe de Tesla y SpaceX.

    Desarrollar la IA de manera responsable constituía una parte fundamental de esa propuesta.

    En el marco de OpenAI, ambos fueron colaboradores cordiales, unidos por la creencia compartida en el potencial de esta tecnología.

    Durante una aparición conjunta en una conferencia en 2015, Musk afirmó que la IA era la tecnología que “más podría cambiar a la humanidad”, aunque añadió que resultaba “realmente turbia” y estaba “plagada de dificultades”.

    Sin embargo, lo que comenzó como una organización sin fines de lucro se transformó en una entidad rentable y, según Musk, de manera ilegal.

    Elon Musk y Sam Altman

    Getty Images
    Elon Musk y Sam Altman, fotografiados en 2015, cuando cofundaron OpenAI.

    El dilema de la rentabilidad

    OpenAI sostiene que en 2017 los demandados y Musk acordaron que una entidad con fines de lucro constituía el siguiente paso lógico “para impulsar la misión”, pero que rechazaron la pretensión de Musk de asumir el cargo de director ejecutivo con “control absoluto”.

    En 2018, Musk abandonó OpenAI tras una supuesta pugna por el poder con Altman.

    “Chicos, ya he tenido suficiente”, escribió Musk en un correo electrónico unos meses antes de su partida.

    “O se marchan a hacer algo por su cuenta, o continúan con OpenAI como una organización sin fines de lucro”, dijo.

    “Ya no financiaré a OpenAI hasta que asuman un compromiso firme de quedarse. De ​​lo contrario, estaré haciendo el tonto al proporcionarles, en esencia, financiación gratuita para que creen un emprendimiento”.

    En 2022, OpenAI dio inicio a la revolución de la IA de consumo masivo con el lanzamiento de ChatGPT, el cual experimentó un auge inmediato de popularidad, al alcanzar los 100 millones de usuarios activos mensuales en cuestión de meses.

    Desde entonces, Musk fundó su propio emprendimiento de inteligencia artificial, xAI, creador del “chatbot” Grok, que se quedó rezagado con respecto a sus competidores.

    Al presentar su demanda en 2024, Musk alegó que OpenAI se había desviado de su misión fundamental y, en su lugar, se centraba en “maximizar los beneficios” para Microsoft.

    Dijo haber donado alrededor de US$40 millones a OpenAI, tras haber sido manipulado por los demandados, quienes lo traicionaron al intentar transformar la organización en una entidad mayoritariamente con fines de lucro.

    Elon Musk

    Getty Images
    Elon Musk a su llegada al tribunal en California el martes.

    El choque de titanes tecnológicos

    Desde que se presentó la demanda, la animosidad entre Musk y Altman ha salido a la luz pública con frecuencia.

    El año pasado, Musk y un consorcio de inversores ofrecieron adquirir los activos de OpenAI por US$97.400 millones.

    La empresa había sido valorada en US$157.000 millones en una reciente ronda de financiación. Actualmente corre el rumor de una salida a bolsa, valorada en unos US$850.000 millones.

    OpenAI rechazó la oferta y, posteriormente, Altman publicó en X, la red social de Musk antes llamada Twitter, el siguiente mensaje: “No, gracias; pero nosotros compraremos Twitter por 9.740 millones de dólares si quieres”.

    “Estafador”, respondió Musk en un comentario a la publicación de Altman.

    Unos mensajes privados con Mark Zuckerberg revelan que Musk preguntó si el jefe de Meta estaba “abierto a la idea de pujar por la propiedad intelectual de OpenAI junto conmigo y algunos otros”.

    El interés de Musk en adquirir la empresa corre el riesgo de enturbiar las aguas en lo que respecta a este juicio, afirma Dorothy Lund, profesora de la Facultad de Derecho de Columbia.

    “Musk ha intentado hacerse con el control de OpenAI en múltiples ocasiones. Ha sido rechazado”, declaró Lund a la BBC.

    “Por lo tanto, no resulta descabellado pensar que sus motivos en este caso puedan ser un tanto sospechosos. Incluso la jueza que preside la causa, la jueza González Rogers, ha señalado este hecho”.

    Sam Altman

    Getty Images
    Sam Altman es acusado por Elon Musk de haberlo estafado por una suma multimillonaria.

    Detalles pintorescos

    Asimismo, se espera que el tribunal escuche el testimonio del director de Microsoft, Satya Nadella; de los ex científicos de OpenAI Mira Murati e Ilya Sutskever; y de la exmiembro de la junta directiva de OpenAI, Shivon Zilis, quien es madre de cuatro de los hijos de Musk.

    En el preámbulo del juicio salieron a la luz detalles pintorescos sobre la vida privada de estos multimillonarios enfrentados, mientras sus abogados debaten acaloradamente sobre qué pruebas y testimonios deben compartirse con el jurado y cuáles no.

    Por ejemplo, la jueza dictaminó que no se permitirá mencionar en el tribunal el consumo por parte del jefe de Tesla de “rhino ket”, tal como se conoce a la ketamina en la jerga de Silicon Valley.

    La representación legal de Musk también acapara titulares. Según informa Business Insider, uno de sus abogados se dedica a trabajar como payaso en su tiempo libre.

    Otro, que ejerce como productor de Hollywood de forma paralela, fue objeto recientemente de un perfil en la revista Vanity Fair.

    Manifestantes contra Altman y OpenAI

    Getty Images
    Manifestantes protestan contra Altman y OpenAI a las puertas del tribunal en California.

    Lo que está en juego

    Lo que está en juego en este caso es de gran magnitud para Musk y OpenAI y, potencialmente, para todos nosotros.

    A finales de 2023, Musk abogaba por una pausa en el desarrollo de la inteligencia artificial.

    En medio de esa ola de inquietud ante el ritmo frenético de los avances tecnológicos, Altman fue destituido brevemente de su cargo como director ejecutivo de OpenAI, debido a la sospecha de que había engañado a los miembros de la junta directiva.

    Ahora, con xAI —empresa que fue adquirida recientemente por SpaceX, su compañía de cohetes que pronto saldrá a bolsa—, Musk se encuentra profundamente involucrado en esta carrera a múltiples bandas hacia la IAG.

    “Si Musk resulta vencedor, ello podría derivar en la derrota de un competidor clave en la carrera hacia la IAG”, afirmó Rose Chan Loui, directora ejecutiva del Centro Lowell Milken de Filantropía y Organizaciones sin Fines de Lucro de la UCLA.

    “Quienquiera que gane esa carrera ostentará un gran poder”.

    Chan Loui advierte que Musk intenta posicionarse como la persona idónea para representar de forma adecuada y justa los intereses de la organización sin ánimo de lucro OpenAI.

    “Aunque agradezco que haya dado visibilidad a este tema ante la opinión pública, creo que a muchos nos preocupa que no sea imparcial, dado que dirige su propia y enorme empresa de IA”, afirmó.

    La integridad de quien presenta estas demandas es fundamental, según Federman, autora del libro Corporate Reckoning, que trata sobre cómo los ejecutivos pueden asumir la responsabilidad por los daños causados ​​a las empresas.

    Este juicio entre Musk y Altman se desarrolla justo cuando el público empieza a comprender la compleja integración de la IA en nuestras vidas.

    Ambos han sido pioneros en su introducción al mercado de consumo.

    El juicio podría ofrecer nuevas perspectivas sobre su ambición e intención respecto al desarrollo de una tecnología que ahora utiliza un segmento creciente de la población mundial.

    En King Kong contra Godzilla, “todos los mortales de abajo se esfuerzan por escapar mientras estos gigantes se enfrentan”, dice Federman. “Al final uno gana, pero lo que queda es este camino con el que el resto de nosotros tenemos que convivir”.

    Línea gris

    BBC

    Haz clic aquí para leer más historias de BBC News Mundo.

    Suscríbete aquí a nuestro nuevo newsletter para recibir cada viernes una selección de nuestro mejor contenido de la semana.

    También puedes seguirnos en YouTube, Instagram, TikTok, X, Facebook y en nuestro canal de WhatsApp.

    Y recuerda que puedes recibir notificaciones en nuestra app. Descarga la última versión y actívalas.

  • Cómo la fabricación de drones convirtió a Irán en un actor clave de la industria militar global

    Cómo la fabricación de drones convirtió a Irán en un actor clave de la industria militar global

    This post was originally published on this site.

    El dron Shahed 136 es uno de los últimos logros de la industria iraní.

    Getty
    El dron Shahed 136 es uno de los últimos logros de la industria iraní.

    En medio de la guerra de Estados Unidos e Israel contra Irán, el experto militar Akram Kharief publicó un libro titulado “A la sombra del Shahed“.

    En él describe la formación y el desarrollo de la industria de drones en Irán y explica la estrategia que le ha permitido al país convertirse en un actor relevante en la industria militar global, a pesar de las sanciones y restricciones estadounidenses.

    Se han mencionado drones iraníes en informes militares sobre las actividades de Hezbolá en la frontera de Líbano con Israel. Posteriormente, tras examinar los restos de estos equipos, los expertos establecieron una conexión entre los drones utilizados por los hutíes en Yemen y la industria iraní.

    En septiembre de 2022, muchos se sorprendieron cuando se conoció que Irán estaba suministrando tecnología de drones al ejército ruso. A esto le siguieron las primeras imágenes de drones Geran-2 (Shahed 136) sobrevolando Kyiv, la capital de Ucrania.

    ¿Cómo un país que ha estado sometido a sanciones durante cuatro décadas ha logrado cambiar las reglas del juego en los conflictos internacionales? ¿Qué factores allanaron el camino para este éxito?

    Las sanciones posteriores a 1979 obligaron a los líderes iraníes a buscar opciones y maneras de superar los problemas y tomar decisiones para romper el estancamiento.

    Esta situación también los llevó a depender de la experiencia de sus ingenieros, en lugar de depender únicamente de sus aliados.

    Como resultado de las sanciones, Irán intentó crear redes en el extranjero para satisfacer sus necesidades y, en algunos casos, recurrió a tecnologías civiles. Pero, sobre todo, ante la falta de recursos suficientes, se desarrollaron e implementaron estrategias con paciencia y perseverancia.

    Cuando Mohammad Reza Pahlavi, el sha de Irán, abandonó el país en enero de 1979, dejó un ejército que era considerado el más poderoso de la región. La Fuerza Aérea Iraní estaba equipada con F-14 Tomcat, F-4 Phantom y F-5 Tiger.

    Entonces el ejército iraní ocupaba el quinto lugar a nivel mundial en cuanto a equipamiento, después de los ejércitos de Estados Unidos, la Unión Soviética, Reino Unido y Francia.

    Cabe destacar que la fuerza aérea iraní se consideraba incluso más avanzada que sus homólogas alemana, china e israelí, ya que tenía acceso al caza F-14 Tomcat, el avión más avanzado del mundo en aquel momento.

    Sin embargo, la operación y el mantenimiento de estos aviones dependían de la presencia de un gran número de ingenieros y técnicos estadounidenses en Irán, y las piezas de repuesto se suministraban directamente desde la empresa estadounidense Grumman.

    Por esta razón, la fuerza aérea dependía completamente de la industria militar estadounidense.

    Tras la caída del sha, los comandantes del Ejército huyeron del país, fueron muertos o encarcelados. Ingenieros y técnicos estadounidenses también abandonaron Irán y las empresas estadounidenses rompieron sus vínculos con el nuevo régimen.

    La necesidad es la madre de la invención

    En septiembre de 1980, las fuerzas iraquíes invadieron Irán y se desató una feroz guerra entre ambos países que duró ocho años. En ella se emplearon los medios más brutales de destrucción, incluyendo armas químicas, y casi un millón de personas murieron.

    En las primeras etapas de la guerra, las fuerzas iraquíes avanzaron debido a su superioridad aérea. El ejército iraquí había adquirido aviones de reconocimiento de la Unión Soviética y también utilizaba imágenes satelitales soviéticas para identificar las posiciones enemigas y monitorear sus movimientos.

    Por el contrario, las fuerzas iraníes combatían en condiciones de visibilidad e inteligencia limitadas.

    Los iraníes necesitaban desesperadamente tecnología para sobrevivir a una guerra que amenazaba su propia existencia. Sin embargo, las sanciones económicas les impedían satisfacer estas necesidades. Por ello, decidieron inventar y fabricar esta tecnología internamente, en lugar de comprarla.

    La idea era sencilla: si no era posible sobrevolar las líneas enemigas con aviones de reconocimiento para conocer sus posiciones y movimientos, se podrían enviar pequeños dispositivos teledirigidos. Estos dispositivos son más baratos, más difíciles de detectar y pueden proporcionar información valiosa.

    Desde 1981, los iraníes habían estado trabajando en estos pequeños dispositivos para instalarles cámaras. La idea surgió en la Universidad de Isfahán, donde un grupo de estudiantes e ingenieros se encargó de llevarla a cabo. Comenzaron diseñando y construyendo prototipos, probándolos y mejorándolos gradualmente, antes de presentar el diseño a la Guardia Revolucionaria.

    Las herramientas eran sencillas y rudimentarias: piezas de plástico y componentes básicos, pero las mentes que trabajaban con ellas eran creativas y habilidosas.

    En un pequeño taller en la universidad, jóvenes decididos y con gran fuerza de voluntad estaban convencidos de conceptos como la “yihad de la construcción” y la “yihad académica”, propuestas por las autoridades del país tras la revolución.

    Tres jóvenes diseñaban en el taller de la Universidad de Isfahán y realizaban experimentos en las llanuras de Juzestán: Farshid, un piloto civil; Saeed, un estudiante de física; y Masoud, un hábil joyero.

    Después de años de ensayo y error, entre fracasos y perseverancia, cuando presentaron por primera vez un prototipo a los oficiales militares, algunos se burlaron de éste. Parecía más un juguete infantil y estaba hecho de materiales inusuales. Su tanque de combustible era una bolsa de suero intravenoso y su hélice era artesanal.

    El primer dron de combate

    En otoño de 1983, a 40 kilómetros del frente, el “avión de juguete” sobrevoló por primera vez posiciones iraquíes, regresando con imágenes nítidas de las posiciones militares.

    Después de esto, se dio la orden de formar el Batallón Trueno (Raad en farsi) e iniciar un programa formal para el desarrollo de drones.

    El programa se transfirió de un taller estudiantil de la Universidad de Isfahán a la Guardia Revolucionaria. Para obtener los componentes necesarios para desarrollar la aeronave, tuvieron que sortear las sanciones impuestas al país y acceder a los mercados internacionales.

    La Guardia Revolucionaria creó una red de empresas en Dubái y utilizó intermediarios en Singapur para adquirir componentes individuales de decenas de países. Estos componentes se enviaban a Isfahán y se ensamblaban allí. Esto explica la presencia de chips de fabricación estadounidense en los drones Shahed 136 derribados en Ucrania.

    Los drones demostraron su eficacia en operaciones de reconocimiento y las fuerzas iraníes los utilizaron en batallas decisivas contra las fuerzas iraquíes después de 1983.

    Sin embargo, ingenieros y militares del Batallón Trueno comenzaron a considerar el desarrollo de drones de combate en 1987.

    Un dron que sobrevuela posiciones enemigas y fotografía sus movimientos puede, si está equipado con armamento, atacar y destruir dichas posiciones. Pero esto requería capacidades y tecnología diferentes, algo que el Batallón Trueno desarrolló posteriormente en los drones de combate denominados “Mohajer”.

    En 1988, Irán fue uno de los primeros países en utilizar una aeronave de combate no tripulada (UCAV, por sus siglas en inglés), lo que hoy se conoce como dron. Aunque Estados Unidos, Turquía e Israel son conocidos por producir este tipo de aeronaves, Irán fue pionero en este campo.

    En aquel primer momento, en 1988, los drones iraníes aún tenían un diseño primitivo, con un alcance de no más de 50 kilómetros. Pero en 2026, drones iraníes avanzados cruzaron el espacio aéreo de varios países para atacar objetivos en Israel desde territorio iraní.

    De hecho, Israel fue el primero en utilizar drones con fines militares, incluso antes que Estados Unidos. Los empleó en la guerra de 1973 para engañar a los sistemas de misiles tierra-aire egipcios y desgastarlos. Este fue el principio que posteriormente desarrollaron quienes participaron en el programa de drones iraní.

    Durante la invasión del Líbano en 1982, Israel utilizó drones Scout y Mastiff para reconocimiento y para dirigir ataques contra posiciones de misiles sirias en el valle de la Bekaa. Este fue el primer uso de drones militares en un conflicto armado.

    Transformación de conceptos

    Expertos iraníes siguieron de cerca los acontecimientos en Líbano, y sus aliados en Hezbolá les ayudaron a recopilar información detallada sobre los drones israelíes. Concluyeron que el equipo no era muy sofisticado y que sus expertos en las universidades de Teherán e Isfahán eran capaces de construir modelos similares.

    Analistas militares también han señalado en numerosos informes que los prototipos de drones iraníes presentaban muchas características similares a los drones israelíes Scout y Mastiff. Según ellos, los ingenieros iraníes se inspiraron en estas características de los modelos israelíes.

    Desde la década de 1970, se ha sabido que cuanto más avanzada tecnológicamente sea un arma, más valiosa y eficaz será. Por ejemplo, un misil guiado capaz de destruir un objetivo a 1.000 kilómetros de distancia con alta precisión es más eficaz que cientos de balas no guiadas. Desde esta perspectiva, la tecnología prima sobre la cantidad.

    Los iraníes añadieron un nuevo enfoque a la ecuación: si un país no puede competir con sus rivales en términos de tecnología, puede hacerlo en términos de cantidad y costo económico.

    Este es el principio en el que se basó el programa de drones de Irán. Un dron cuya fabricación cuesta unos US$20.000 no puede competir en precisión con un misil de crucero de US$2 millones. Pero si se despliegan 100 drones, el bando contrario tendrá que disparar 100 o más misiles para contrarrestarlos.

    Los drones no están diseñados para la precisión ni para un alto poder destructivo, sino para debilitar las defensas del enemigo y agotar sus recursos financieros. Por lo tanto, los ataques con drones pueden durar más, ya que cuestan entre 10 y 20 veces menos que los sistemas de defensa antimisiles del adversario.

    Un cálculo sencillo muestra que desplegar 100 drones cuesta unos US$2 millones, mientras que el bando defensor debe gastar unos US$200 millones en misiles avanzados para contrarrestarlos, independientemente del daño que causen estos drones.

    Los drones también tienen otra característica: son difíciles de detectar por radar, ya que vuelan a baja velocidad y altitud. Además, el uso simultáneo de un gran número de ellos puede interrumpir los sistemas de defensa y, en algunos casos, impedir por completo su detección.

    Instalación petrolera de Saudi Aramco en Arabia Saudita, que fue blanco de un ataque con drones en 2019.

    Getty
    Instalación petrolera de Saudi Aramco en Arabia Saudita, que fue blanco de un ataque con drones en 2019.

    El ataque de 2019 contra las instalaciones petroleras sauditas de Saudi Aramco demostró la eficacia de esta característica, ya que los sistemas de defensa estadounidenses no pudieron interceptar los drones de fabricación iraní.

    Aunque los hutíes se atribuyeron la responsabilidad del ataque, la opinión generalizada es que los drones fueron lanzados desde territorio iraní o iraquí.

    Los daños causados por el ataque ascendieron a decenas de miles de millones de dólares, mientras que el costo de los drones atacantes fue de tan solo unos pocos millones.

    Esta diferencia es el factor que, en última instancia, podría determinar al vencedor y al perdedor en la guerra de drones.

    line

    BBC

    Haz clic aquí para leer más historias de BBC News Mundo.

    Suscríbete aquí a nuestro nuevo newsletter para recibir cada viernes una selección de nuestro mejor contenido de la semana.

    También puedes seguirnos en YouTube, Instagram, TikTok, X, Facebook y en nuestro nuevo canal de WhatsApp.

    Y recuerda que puedes recibir notificaciones en nuestra app. Descarga la última versión y actívalas.

  • Meta anuncia que despedirá a 8.000 trabajadores mientras multiplica su inversión en IA

    Meta anuncia que despedirá a 8.000 trabajadores mientras multiplica su inversión en IA

    This post was originally published on this site.

    Mark Zuckerberg, fundador de Meta, con traje y corbata azul.

    Reuters
    Mark Zuckerberg cree que la IA tendrá cada vez mayor peso en la manera en que se trabaja.

    Meta, la compañía propietaria de redes sociales como Facebook e Instagram, anunció que recortará miles de empleos el próximo mes, mientras gasta más que nunca en proyectos de inteligencia artificial (IA).

    La empresa comunicó a sus empleados en un memorando este jueves que planea recortar el 10% de su plantilla, aproximadamente 8.000 trabajadores. También indicó que no cubrirá miles de vacantes adicionales para las que había estado contratando.

    Una razón clave para los despidos es el aumento del gasto de Meta en otras áreas de la compañía, incluida la IA, en la que invertirá este año US$135.000 millones. Esto equivale aproximadamente a lo que ha gastado en IA en los últimos tres años combinados, según una persona que tuvo acceso al memorando.

    Un portavoz de Meta confirmó los recortes de empleo previstos, pero declinó hacer más comentarios.

    Mark Zuckerberg, cofundador y director ejecutivo de Meta, hizo comentarios públicos en enero que básicamente telegrafiaban que la empresa volvería a recortar empleos este año.

    El jefe de Meta afirmó haber visto cuánto más productivos se han vuelto los trabajadores que dependen en gran medida de las herramientas de IA, señalando que una sola persona podría completar ahora proyectos que anteriormente habrían requerido de un equipo grande.

    “Creo que el 2026 va a ser el año en que la IA empiece a cambiar drásticamente nuestra forma de trabajar”, afirmó Zuckerberg.

    La semana pasada, la agencia de noticias Reuters informó que Meta planeaba recortar potencialmente más de 10.000 empleados este año. El memorando enviado a los empleados el jueves fue reportado inicialmente por Bloomberg.

    Los empleados se lo veían venir.

    Aunque Meta ya ha despedido a unos 2.000 trabajadores en dos rondas menores de despidos en lo que va de año, los empleados llevaban semanas preparándose para un recorte mucho más profundo, como informó anteriormente la BBC.

    El gasto y el enfoque interno de Meta se han desplazado fuertemente en los últimos meses hacia el desarrollo de modelos y herramientas de IA para ponerse al día.

    Esta misma semana, la empresa informó a sus empleados que comenzaría a rastrear y registrar sus interacciones con los ordenadores de trabajo para ayudar a entrenar y mejorar sus modelos de IA, una medida que un empleado calificó de “distópica” ante la inminencia de los despidos.

    “Esta empresa se ha obsesionado con la IA”, comentaron a la BBC.

    Desde 2022, Meta ha llevado a cabo varias rondas de recortes de empleo, eliminando decenas de miles de puestos de trabajo. Sin embargo, había vuelto a contratar y, el año pasado, su número total de empleados parecía estar en el mismo nivel que antes de los primeros despidos masivo.

    Los próximos recortes de empleo serán los mayores de Meta desde 2023.

    La compañía de Zuckerberg sigue la estela de otras tecnológicas que han anunciado despidos masivos en los últimos meses.

    El gigante estadounidense Amazon dijo en enero que recortaría 16.000 puestos de trabajo y se espera que en los próximos meses anuncie más despidos.

    ""

    BBC

    Haz clic aquí para leer más historias de BBC News Mundo.

    Suscríbete aquí a nuestro nuevo newsletter para recibir cada viernes una selección de nuestro mejor contenido de la semana.

    También puedes seguirnos en YouTube, Instagram, TikTok, X, Facebook y en nuestro canal de WhatsApp.

    Y recuerda que puedes recibir notificaciones en nuestra app. Descarga la última versión y actívalas.

  • Los “padres virtuales” a los que recurren los jóvenes chinos solitarios y desilusionados

    Los “padres virtuales” a los que recurren los jóvenes chinos solitarios y desilusionados

    This post was originally published on this site.

    Como muchos jóvenes, Vincent Zhang siempre está pegado a su teléfono durante las comidas y su contenido favorito es el de una pareja de mediana edad a la que llama sus “padres virtuales”.

    Los influencers que Vincent más admira en Douyin, la versión china de TikTok, son Pan Huqian y Zhang Xiuping.

    Sus videos se centran en su vida familiar, sin adornos pero llena de cariño, y la pareja suele dirigirse a los espectadores como si fueran sus propios hijos. En menos de tres años, su cuenta ha conseguido más de 1,8 millones de seguidores.

    En uno de los vídeos más populares, Pan y Zhang dicen: “¿Quién es el adulto de la familia? ¿Estás cansado últimamente por el trabajo y los estudios? No te exijas demasiado. Mamá y papá saben que has pasado por muchas cosas ahí fuera”.

    “Mis padres nunca son los que me dicen que no me exija demasiado o que ya soy lo suficientemente bueno”, dice Vincent. “Pero los padres virtuales solo me preguntan si hoy soy feliz”.

    El término “padres virtuales” se convirtió en una palabra de moda en internet en China en 2024. Desde entonces, más de una docena de influencers como Pan y Zhang han conseguido un gran número de seguidores.

    Estos debates ponen de manifiesto la creciente insatisfacción de muchos miembros de la Generación Z y de los millennials chinos con las dinámicas familiares tradicionales, en las que las obligaciones y la obediencia prevalecen sobre el afecto.

    En la aplicación de redes sociales RedNote, la etiqueta “padres chinos” ha sido vista más de 500 millones de veces, con más de 1,2 millones de comentarios.

    Muchos también se sienten frustrados por el hecho de que sus padres no comprenden las dificultades de lidiar con una economía en desaceleración y la carga de cumplir con las expectativas parentales como hijos únicos, como consecuencia de la política del hijo único de China entre 1979 y 2015.

    Una pareja con su hijo.

    Getty Images
    Muchos jóvenes chinos han crecido sin hermanos debido a la política del hijo único, vigente durante décadas.

    Llamadas estresantes

    A Vincent le ha ido bien y ahora es desarrollador web en Shanghái. Aunque trabaja jornadas agotadoras como parte de la cultura 996, en la que se espera que los trabajadores tecnológicos trabajen desde las 9:00 de la mañana hasta las 9:00 de la noche, seis días a la semana, encuentra las llamadas semanales con sus padres aún más estresantes.

    Dice que a menudo critican su elección profesional, ya que creen que un trabajo en la administración pública sería más estable. O le preguntan cuándo va a traer una novia a casa.

    Vincent se siente menos solo cuando interactúa con otras personas en la sección de comentarios del canal de Pan y Zhang. Al igual que Vincent, muchos escriben a la pareja llamándoles mamá y papá.

    Sus mensajes suelen tratar sobre su vida cotidiana y, a veces, piden felicitaciones por sus cumpleaños.

    Sin embargo, algunos de los mensajes son muy alarmantes. En un caso, una chica llamada Dian Dian le dijo a Pan que ya no quería vivir, que tenía depresión y que tenía pensamientos suicidas.

    “Seguí hablando con ella durante dos horas, pero dejó de responder a los 40 minutos”, dijo Pan en una entrevista de 2024, añadiendo que no sabía qué le había pasado.

    Una semana después, recibió una llamada de Dian Dian, quien le dijo que estaba mucho mejor: “Sentí que había hecho algo realmente significativo y me sentí orgulloso durante mucho tiempo”.

    Una mujer mira a Pan y Zhang en su teléfono.

    Provided
    La pareja Pan y Zhang tienen más de 1,8 millones de seguidores en Douyin.

    Un ambiente familiar diferente

    Pan comprende el dolor que puede causar una familia negligente, ya que él tampoco tuvo una infancia feliz.

    Creció en un yaodong, un tipo de vivienda tradicional subterránea, en la provincia septentrional de Shaanxi.

    A los 14 años, se marchó de casa para convertirse en el sostén de la familia después de que su madre quedara paralítica. “Me fui de casa durante 33 años y mis padres nunca me han dicho una sola palabra de ánimo”, dijo en la entrevista.

    Pan estaba decidido a crear un ambiente familiar diferente tras el nacimiento de su hija Jiangyu. A diferencia de las familias chinas típicas, Pan y Zhang siempre le dicen a Jiangyu que la quieren.

    Jiangyu animó a sus padres a producir vídeos cortos, y se convirtieron en creadores de contenido a tiempo completo después de que el negocio de Pan cerrara en 2024.

    Pan no tiene grandes planes para su cuenta, aunque podría obtener grandes beneficios vendiendo productos a través de las transmisiones en directo.

    “Espero aportar lo poco que puedo para que sientan el calor del amor paterno”, afirma.

    “Literatura de la sopa de calabaza”

    Junto al contenido sobre padres virtuales, el otoño pasado también se hizo viral un contenido satírico llamado “literatura de la sopa de calabaza”.

    La tendencia se inspiró en un sketch de un minuto en el que un hijo rechaza educadamente un plato de sopa de calabaza que le ofrece su madre, pero al final se le culpa de tener mal genio.

    Muchos usuarios jóvenes dicen que refleja la falta de comunicación típica de las familias chinas, especialmente cuando los padres ignoran los deseos de sus hijos diciendo que es por su propio bien.

    Zhao Xuan, de 28 años, es una de ellos. Ya ha silenciado el chat familiar porque sus padres rara vez demuestran que se preocupan por ella. Afirma que cada vez que le hablan, es tal y como se retrata en la “literatura de la sopa de calabaza”.

    También cree que sus padres prefieren a su hermano de 15 años. En la cultura tradicional china, se considera que únicamente los varones pueden continuar el linaje familiar.

    Jóvenes sentados en una plaza en Pekín

    Getty Images
    Los jóvenes suelen estar inmersos en sus teléfonos en China.

    Zhao cuenta que su madre ha controlado todos los aspectos de su vida. Tras graduarse, encontró un trabajo a tiempo completo en Francia, pero su madre le dijo que lo dejara y regresara a China.

    “Antes de volver, mi madre no paraba de decirme que me cuidaría. Me emocioné mucho”, dice. “Pero, en realidad, solo quería que volviera a casa para cuidar de mi hermano”.

    “Me trata igual que cuando era pequeña. Pero con mi hermano es como una madre modelo”.

    Antes, Zhao solía hablar entre lágrimas con sus amigos e intentar comprender el comportamiento de sus padres.

    Pero ahora recurre a los memes y a los videos satíricos. Las reacciones similares de otras personas le han hecho darse cuenta de que su experiencia no es única y que puede afrontar los problemas familiares con humor.

    Trauma político

    Una fotografía histórica que muestra a unas niñas agitando ejemplares del Libro Rojo de Mao Zedong durante la Revolución Cultural.

    Getty Images
    Muchos padres chinos vivieron los tiempos tumultuosos de la Revolución Cultural.

    Guo Ting, profesora de estudios de género en la Universidad de Toronto en Canadá, afirma que simpatiza con los padres chinos, ya que ve muchas “razones históricas” detrás de las altas expectativas que tienen para sus hijos y de sus dificultades para expresar afecto.

    Explica que las emociones personales se descuidaban en el discurso público cuando los padres de ahora estaban creciendo.

    Durante la Revolución Cultural, una década de violencia y disturbios entre 1966 y 1976, el amor solo debía expresarse hacia el país o su líder de entonces, el presidente Mao Zedong.

    La inseguridad y la ansiedad de los padres de hoy pueden explicarse por “la agitación y la pobreza que vivieron en su día, así como por el entorno duro y de supervivencia en el que tuvieron que desenvolverse”.

    Algunos medios estatales han intentado orientar el debate digital hacia el concepto tradicional de la piedad filial, instando a las generaciones más jóvenes a ser más comprensivas con sus padres.

    Pero esta estrategia no parece funcionar, por ejemplo, en el caso de Vincent: “Puedo entender las dificultades de mis padres, pero yo también tengo mi propio trauma”.

    Algunos padres virtuales se han registrado en compañías de gestión empresarial para monetizar aún más su contenido, pero Vincent afirma que sigue queriendo consumir ese tipo de contenido.

    “Esto me proporciona el único calor humano de mi vida”, dice. “Y es mejor que nada”.

    Editado por Grace Tsoi y Alexandra Fouché.

    La imagen de portada es de Andro Saini, del equipo de periodismo visual del este de Asia.

    Línea gris

    BBC

    Haz clic aquí para leer más historias de BBC News Mundo.

    Suscríbete aquí a nuestro nuevo newsletter para recibir cada viernes una selección de nuestro mejor contenido de la semana.

    También puedes seguirnos en YouTube, Instagram, TikTok, X, Facebook y en nuestro canal de WhatsApp.

    Y recuerda que puedes recibir notificaciones en nuestra app. Descarga la última versión y actívalas.

  • “Somos un experimento social”: las críticas y las dudas que genera la IA que impulsa Bukele para gestionar la salud en El Salvador

    “Somos un experimento social”: las críticas y las dudas que genera la IA que impulsa Bukele para gestionar la salud en El Salvador

    This post was originally published on this site.

    Sala en la que se gestiona el novedoso sistema de salud.

    Getty Images
    Sala en la que se gestiona el novedoso sistema de salud.

    En El Salvador, algunas salas de emergencia están “abarrotadas”, asegura Rafael Aguirre, médico internista con 19 años de carrera y presidente del Sindicato de Trabajadores Médicos del Seguro Social (Simetrisss).

    “En ocasiones, hasta 80 pacientes esperan por cuartos de operaciones”, comenta.

    Hechos como esos hacen que ponga en duda los resultados de la nueva plataforma de inteligencia artificial para gestionar la salud pública que impulsa el gobierno del presidente Nayib Bukele, quien, a pesar de llevar unos pocos meses en funcionamiento, ya reivindica su “éxito”.

    “Se nos habla de datos, pero ¿cómo los confirmamos? Creo que no abarca el porcentaje de la población que mencionó el mandatario”, subrayó Aguirre en entrevista con BBC Mundo.

    Hace una semana, Bukele anunció en cadena nacional el inicio de una “segunda fase” de DoctorSv, una app que opera con tecnología de inteligencia artificial de Google Cloud y que gestiona citas, sugiere diagnósticos, tratamientos y pruebas de laboratorio.

    Descargada por 1,1 millones de personas según el gobierno, ahora también alertará de forma automática a pacientes con enfermedades crónicas, como diabetes e hipertensión, sobre cuándo tomar sus medicamentos.

    La herramienta ha generado cerca de 1,5 millones de citas médicas, afirman las autoridades, y su segunda fase será financiada con un préstamo de US$75 millones del Banco de Desarrollo de América Latina y el Caribe, entidad anteriormente conocida como la Corporación Andina de Fomento (CAF). La Comisión de Hacienda de la Asamblea le dio luz verde este lunes.

    imagen de nayib bukele, presidente de El Salvador. Mira a la cámara con rostro serio. Tiene barba y lleva el cabello hacia atrás. Tiene una camisa negra.

    Getty Images
    La segunda fase de la app DoctorSv será financiada con un nuevo préstamo del Banco de Desarrollo de América Latina y el Caribe.

    “Que en salud podamos decir que este sistema no lo tiene nadie en el mundo, es un gran tema (por el que podemos ser reconocidos)”, declaró el presidente.

    No es la primera vez que El Salvador apuesta por ser referente internacional.

    En 2021, con el impulso del presidente, la Asamblea Legislativa le dio luz verde a la adopción del bitcoin en El Salvador como moneda de curso legal, el primer país en hacerlo. Se creó una billetera estatal, se anunció una futura Bitcoin City y se compraron criptoactivos con fondos públicos.

    La promesa era atraer inversión extranjera. Pero con los años, la idea se desplomó por falta de apoyo local y por presión del Fondo Monetario Internacional (FMI), que puso como condición para un préstamo de US$1.400 millones a “mitigar los riesgos del bitcoin”.

    Así, en enero del año pasado el criptoactivo dejó de ser moneda oficial, su uso queda relegado a intercambios entre ciudadanos y empresas privadas, y su aceptación pasó de ser obligatoria a voluntaria.

    Ahora, con la app de salud, señala Aguirre, El Salvador “vuelve a funcionar como un laboratorio”.

    Y lo dice porque con la implementación del proyecto, también se está llevando a cabo un ensayo clínico del mismo.

    Pero más allá de una primera publicación corta en The Lancet sobre la cuestión, en la que se afirma que el programa de El Salvador “ofrece un modelo replicable para esfuerzos que buscan aprovechar el potencial de la IA para mejorar la prestación de servicios de salud en entornos con recursos limitados”, se desconocen sus detalles.

    Ni el gobierno de El Salvador ni Google respondieron las preguntas de BBC Mundo sobre la iniciativa.

    “Sabemos que somos un experimento social”, comenta el médico.

    Aacaba de empezar la segunda fase de DoctorSv.

    Getty Images
    Aacaba de empezar la segunda fase de DoctorSv.

    ¿Cómo funciona DoctorSv?

    La cadena nacional del 14 de abril para anunciar la segunda fase de DoctorSv fue muy al estilo Bukele.

    El presidente, sentado en un sillón, flanqueado por expertos en salud pública y representantes de Google y del CAF. Detrás tenían un despacho perfectamente ordenado en un green screen.

    Desde ahí lanzó una promesa: “Cada salvadoreño tendrá una persona, voy a llamar persona a la inteligencia artificial, 24 horas al día, siete días a la semana, pendiente de su enfermedad crónica”.

    Con esa frase resumía el propósito de la nueva fase, en la que la app acompañará a quienes padecen enfermedades crónicas, cuyo estado puede empeorar si fallan en su tratamiento.

    El médico y experto en IA para la salud Edgardo Von Euw puso el problema en números: la adherencia a este tipo de programas no alcanza el 60%.

    “Si el paciente no va a hacerse los análisis, la inteligencia artificial nos avisa. Hace un seguimiento permanente para advertir al médico que no ha ido. Pero, además, paralelamente, genera mensajes automáticos al paciente para decirle que ha abandonado su tratamiento”, sostuvo.

    El proceso comienza antes de que el paciente vea a un médico.

    Un médico atiende virtualmente a un paciente durante una presentación de prensa sobre el funcionamiento del Centro de Atención Médica de la plataforma digital DoctorSv

    Getty Images
    DoctorSv utiliza la tecnología de inteligencia artificial de Google Cloud.

    Al suscribirse, la herramienta le realiza un cuestionario sobre factores de riesgo. Con esos datos, lo clasifica y genera una orden de laboratorio. Ya con los resultados, agenda una cita con un especialista que llega con el historial completo y un diagnóstico sugerido.

    Cuando se le asigna una receta, el paciente recibe un código QR para retirar su medicamento en una farmacia afiliada.

    Se adelantan pasos, aseguraron. Y a largo plazo, la idea es que una sociedad más saludable redunde en ahorros para el Estado.

    “Cualquier problema de salud genera dificultades en la familia y al sistema público le supone una recarga de fondos”, dijo Pablo Bartol, gerente de desarrollo social del CAF.

    Las interrogantes

    “No estamos en desacuerdo con DoctorSv, lo que no nos parece correcto es que haya preponderancia para esta plataforma, tanto en presupuesto como en insumos”, dice, en entrevista con BBC Mundo, el internista Iván Solano, presidente del Colegio de Médicos de El Salvador.

    Solano describe un sector salud con desabastecimiento de medicamentos y tiempos prolongados de espera para ver especialistas o realizarse exámenes.

    Aunque reconoce que DoctorSv puede “descongestionar el sistema” y que la app “resuelve de forma inmediata los problemas de algunos sectores de la población”.

    Aguirre, por separado, relata que algunos de sus pacientes que usan insulina tienen que comprar ellos mismos las jeringas para administrarse el medicamento.

    “Pacientes con operaciones abdominales, como colostomía o ileostomía, necesitan bolsas para sus heces porque no logran controlar las evacuaciones. Se les da una bolsa cada dos días. Normalmente están hechas para una utilización no mayor de cuatro horas”, describió.

    un niño hace unas compras por una ventana en El Salvador. sobre la ventana hay un letrero que dice bitcoin.

    Getty Images
    Cuatro años después de haberlo adoptado con impulso de Bukele, en enero del año pasado el bitcoin dejó de ser moneda de curso legal en El Salvador.

    La financiación del proyecto también es motivo de cuestionamiento para Solano, porque no proviene de un fondo recurrente.

    “No es un ahorro institucional, es un préstamo”, señala.

    A eso se suma que se desconoce quién quedaría a cargo de la aplicación tras la salida de Google, cuyo contrato con el gobierno de El Salvador será de siete años, según un correo electrónico que enviaron portavoces de la empresa a este medio.

    Tampoco se sabe qué acuerdo tiene Google para el uso de los datos de los pacientes, aunque afirmó a BBC Mundo que “pertenecen al cliente”.

    El gigante tecnológico no contestó si recibe algún pago por el uso de su tecnología.

    Con una población de 6,4 millones, poco más del 17% de los salvadoreños está registrado en DoctorSV.

    Y muchos en El Salvador viven en zonas con difícil conexión a internet o no cuentan con dispositivos móviles.

    Dependen de un sistema de salud tradicional que hoy, como describe Aguirre, continúa con enormes carencias.

    “No queremos satanizar el uso de la app”, comenta.

    “Pero no puedes tener un sistema de telemedicina carísimo y fomentar el uso y la eficiencia privada, precarizando la atención de los servicios públicos tradicionales”.

    línea gris que separa el texto

    BBC

    Haz clic aquí para leer más historias de BBC News Mundo.

    Suscríbete aquí a nuestro nuevo newsletter para recibir cada viernes una selección de nuestro mejor contenido de la semana.

    También puedes seguirnos en YouTube, Instagram, TikTok, X, Facebook y en nuestro canal de WhatsApp.

    Y recuerda que puedes recibir notificaciones en nuestra app. Descarga la última versión y actívalas.

  • Palantir: ¿por qué causa preocupación el creciente poder global de la compañía de IA?

    Palantir: ¿por qué causa preocupación el creciente poder global de la compañía de IA?

    This post was originally published on this site.

    Alex Karp hablando en un foro. Tiene los brazos abiertos mientras le habla a la audiencia.

    Getty Images
    El CEO de Palantir, Alex Karp, ha llevado a la compañía a ser líder en el análisis de datos.

    Cada vez que te conectas a internet, hay alguien que está recopilando la información que vas dejando, ya sea tu proveedor de internet, el servidor de la página que estás visitando o el navegador que usas para acceder a ella.

    Toda esa información les sirve a las compañías para entender mejor el comportamiento de sus clientes y les ayuda a diseñar estrategias y productos que resuenen mejor con los consumidores.

    De la misma manera, esos mismos datos se pueden usar para localizar individuos que puedan ser considerados una amenaza -como hizo EE.UU. en 2011 para dar con el búnker de Osama Bin Laden en Pakistán- o para identificar y apuntar contra objetivos militares, como está haciendo actualmente el ejército de Israel en Irán.

    Pero para que la información sea útil, no es suficiente con solo recolectarla: debido a la creciente cantidad de datos que se produce en la web todos los días (se estima que son unos 400 millones de terabytes), las organizaciones que los recopilan tienen que utilizar softwares especializados -potenciados por inteligencia artificial- para poder organizarlos y, a la vez, interpretar lo que puedan revelar.

    Y en la actualidad, el consenso entre la mayoría de expertos en ciberseguridad es que no existe un software de análisis de datos en el mundo que se pueda comparar, en complejidad y alcance, con el de la compañía estadounidense Palantir, particularmente en lo que se refiere a seguridad e inteligencia militar.

    Michael Steinberger, columnista del New York Times que publicó en enero el libro “El filósofo en el Valle: Alex Karp, Palantir y el auge de la vigilancia estatal”, asegura que parte del éxito de la compañía radica en que desarrolló su tecnología de mano de los servicios de inteligencia de EE.UU.

    Manifestantes con máscaras azules sostienen letreros que leen "Sonríe, Palantir te está mirando".

    Getty Images
    El poder de las herramientas de Palantir ha generado protestas en EE.UU.

    “El punto de inflexión para Palantir fue recibir fondos de In-Q-Tel, que fue el brazo de inversión de capital de la CIA (Agencia Central de Inteligencia)”, le explicó Steinberger a BBC Mundo.

    “Más allá de la inversión, que fue inmensa, los ingenieros de Palantir tuvieron acceso a los analistas de la CIA, por lo que pudieron desarrollar el software de la mano de estos analistas”.

    Eso hace que las herramientas de Palantir sean de amplio uso en las distintas agencias del gobierno de EE.UU.

    No solo para entes de inteligencia como la CIA, el FBI (Oficina Federal de Investigaciones) y la NSA (Agencia Nacional de Seguridad), sino también para entidades de salud como los CDC (Centros para el control de enfermedades) o, controversialmente, agencias migratorias como ICE (Servicio de Inmigración y Control de Aduanas de EE.UU.).

    ICE usa en la actualidad las herramientas de Palantir en labores de identificación y localización de los migrantes que busca detener y deportar.

    “El trabajo de ICE con Palantir comenzó en un momento de crisis, algo típico con Palantir”, explicó Steinberger, “porque ellos te cobran bastante por sus servicios y muchas organizaciones creen que pueden ahorrar si desarrollan un software ‘in-house’.”

    “Pero cuando llega la crisis, ahí es cuando deciden probarlo. Fue lo que le pasó a ICE en 2014: cuando mataron a un agente de la DEA en México y el gobierno tenía que encontrar a los asesinos, se recurrió a Palantir, la cual integró una gran cantidad de datos en apenas unos días y, les permitió dar con el asesino con mucha facilidad”.

    Para poder entender el rol que juega actualmente Palantir en la industria militar estadounidense, es útil volver al punto en el que nació la compañía y al momento de la historia que de manera directa le dio su razón de ser: los atentados terroristas del 11 de septiembre de 2001.

    De PayPal al gobierno de EE.UU.

    Max Levchin y Peter Thiel sentados, hablan en una conferencia de negocios.

    Getty Images
    Max Levchin y Peter Thiel son los cofundadores de la compañía que luego se convertiría en PayPal.

    Hacia finales de los años 90, internet estaba pasando por uno de sus periodos de mayor y más rápida expansión.

    En lo que se vino a conocer luego como el “boom de las .com”, miles de emprendedores se arriesgaron a lanzar negocios en internet.

    Muchas empresas que hoy son inmensos conglomerados digitales empezaron en esa era, incluyendo PayPal, quizá la plataforma de pagos digitales más conocida, y que surgió de la fusión de dos compañías distintas, Confinity y X.com, emprendimientos liderados respectivamente por el entonces joven inversionista Peter Thiel y el hoy principal accionista de Tesla y X, Elon Musk.

    Durante esos primeros años en los que la seguridad para hacer transacciones en línea apenas estaba empezando a desarrollarse, PayPal vivió un periodo en el que se convirtió en el sitio preferido de los estafadores gracias a la anonimidad que les garantizaba.

    En respuesta a eso, el socio de Thiel y cofundador de Confinity (luego PayPal) Max Levchin, se concentró en desarrollar un software que, a través de algoritmos, lograra hacer seguras las transacciones que ocurrían dentro de la plataforma y así, poder liberar todo el potencial comercial de las compras a través de internet.

    El software –bautizado como IGOR, conmemorando al estafador ruso que se convertiría en el primero en caer con la nueva herramienta- fue tan exitoso que logró reducir el fraude en las transacciones a menos del 0.5%, poniendo a PayPal a la vanguardia del comercio online.

    Como era de esperar, el éxito de la herramienta también llamó la atención de las autoridades estadounidenses: el FBI se interesó en ella y empezó a trabajar con el equipo de seguridad de PayPal en investigaciones de fraude.

    Y luego, el 11 de septiembre de 2001, todo cambió.

    Un bombero está parado frente a los escombros de las torres gemelas

    Getty Images
    Los atentados terroristas del 11 de septiembre de 2001 inspiraron a Thiel a desarrollar la tecnología de Palantir.

    “Una forma de ver los atentados del 11 de septiembre es que constituyeron un fallo en la integración de datos”, asegura Michael Steinberger. “De hecho, el informe de la Comisión del 11-S aseguraba exactamente eso”.

    “Hubo un fallo a la hora de conectar los puntos, lo cual condujo a esta tragedia: la CIA disponía de información, el FBI disponía de información, pero no se comunicaban entre sí. La información no se estaba compartiendo.”

    Para Peter Thiel estaba claro que, ante ese problema de organización de datos, IGOR podría ser de mucha utilidad para los distintos servicios de inteligencia de EE.UU., por lo que se empezó a buscar la manera de contactar con la CIA.

    El “CEO filósofo”

    Alex Karp, con unas banderas estadounidenses desenfocadas en el fondo.

    Getty Images
    Karp es un convencido de que la tecnología de Palantir es clave para “proteger el modo de vida de Occidente”.

    Cuando Thiel empezó a buscar el capital necesario para desarrollar el proyecto que tenía en mente, se reencontró con Alex Karp. Ambos se habían hecho buenos amigos durante su paso por la facultad de derecho de la Universidad de Stanford a pesar de estar polos opuestos del debate ideológico: Thiel, un conservador devoto y Karp, un progresista convencido, hijo de una pareja birracial.

    Su amistad se había basado principalmente en el descontento que les generaba la educación que estaban recibiendo en una de las mejores universidades del país y una pasión compartida por el ajedrez y las discusiones acaloradas sobre temas profundos.

    Cuando se reencontraron después de los atentados de 2001, Thiel reclutó a Karp –un doctor en filosofía alemana que había sido alumno del filósofo Jürgen Habermas- para que le ayudara a conseguir nuevos inversionistas para el emprendimiento, quedando sorprendido por su pasión por el proyecto.

    Palantir recibió su nombre en honor a las mágicas piedras de la saga de libros de “El Señor de los Anillos”, las cuales le daban a quien las tuviera el poder de ver lo mismo que veían sus enemigos. La asociación con la obra de Tolkien es tan fuerte que los empleados de la compañía se refieren a sí mismos como palantirianos y algunas de sus oficinas están adornadas con runas élficas.

    A pesar de su falta de experiencia en el mundo militar, la junta de la compañía decidió nombrar a Karp CEO, por ser quien más clara tenía la visión de lo que querían hacer con Palantir.

    Alex Karp y Peter Thiel (desenfocado, en primer plano) durante una cena en la Casa Blanca en 2018

    Getty Images
    Parte del éxito de Palantir se debe al acceso que ha tenido a las agencias de seguridad de EE.UU.

    A pesar de su crianza en un hogar progresista de California y haber estudiado filosofía en Alemania, las ideas de Karp han ido “evolucionando” con el tiempo, explicó Steinberger, “moviéndose más cerca de la manera en la que Peter Thiel ve el mundo”.

    “Karp habla cada vez menos de defender la democracia liberal y habla más de defender a Occidente como una entidad cultural, lo que siempre ha sido la controvertida postura de Thiel, quien dice no creer en que la libertad -en referencia a la libertad económica- y la democracia sean compatibles.”

    Karp, además, defiende la superioridad militar y tecnológica de EE.UU. como “el disuasor más importante” en el mundo en la actualidad: “Las guerras se luchan con tecnología”, dijo Karp en un foro en Washington recientemente, hablando al inicio de los ataques de EE.UU. e Israel contra Irán.

    “Si miras la operación ‘Martillo de medianoche’ (el ataque estadounidense a la infraestructura nucelar iraní de 2025), la operación en Venezuela (para capturar a Maduro) o la operación que estamos viendo en Irán, ves una sociedad dominando totalmente, y esa sociedad es la nuestra”.

    “Siempre discuto con mis amigos intelectuales cuando me dicen, ‘¿pero no sería mejor un sistema de reglas en el que todo el mundo sea igual?’, y les digo: ‘Sí, seguro. En teoría. Pero en este mundo, o somos nosotros o es China o es Rusia”.

    Una columna de humo asciende en un barrio de Irán

    Getty Images
    Alex Karp dice que EE.UU. está “dominando” a otras sociedades.

    Recientemente, Palantir publicó en redes un resumen de 22 puntos de las ideas que Karp planteó en su libro “La república tecnológica”, y que muchos describieron como el manifiesto de la compañía.

    En los puntos se reflejan algunas de las ideas más polémicas del pensamiento libertario en EE.UU., como asegurar que mientras “algunas culturas han producido avances vitales, otras siguen siendo disfuncionales y regresivas”, o que los países de occidente “debemos resistir la tentación superficial de un pluralismo vacío y hueco”.

    Según Karp, “una era de disuasión —la era atómica— está terminando, y una nueva era de disuasión, fundamentada en la inteligencia artificial, está a punto de comenzar”, y “si un infante de marina estadounidense pide un rifle mejor, deberíamos construirlo; y lo mismo se aplica al software”.

    La publicación de este manifiesto generó una gran polémica en redes sociales, con muchos comentarios expresando preocupación y rechazo. La legisladora británica Victoria Collins dijo que el listado parecía fruto de “los desvaríos de un supervillano”.

    Alex Karp durante una visita a los estudios de Fox News en 2025

    Getty Images
    Karp publicó sus ideas en el libro de 2025: “La república tecnológica”.

    “Hay una cosa que hay que entender de Palantir”, señala Steinberger, “y es que ha sido política desde sus inicios: fue fundada para ayudar al gobierno de Washington a combatir la guerra contra el terrorismo, algo que luego se transformó en la idea de: ‘Estamos ayudando al gobierno de Estados Unidos y a sus aliados a defender su modo de vida’”.

    Desde el inicio, la compañía se comprometió a no vender su tecnología países como China o Rusia, vistos como adversarios geopolíticos de EE.UU.

    “En este momento, no hay duda de la competencia, pero en 2007 o 2008, era algo atrevido salir y decir que no ibas a ofrecer tus productos en el mercado de más grande crecimiento del mundo”.

    Por otro lado, la compañía sí ofrece sus servicios con los países que ve alineados con las políticas estadounidenses, como es el caso de Israel.

    “Siempre se han visto a sí mismos como los guardianes de Occidente. Esa es una idea base de la compañía desde siempre”.

    “En el libro hablo de la relación de Palantir con el Mossad (Servicio de inteligencia de Israel), que se acercó a ellos a mediados de los 2000 y ha sido cliente desde entonces. Después del 7 de octubre de 2023, las IDF (Fuerzas armadas de Israel) básicamente dijeron ‘necesitamos su producto’”.

    Otros países que usan las herramientas de Palantir incluyen a Reino Unido -desde los servicios de salud hasta el Ministerio de Defensa-, Ucrania, Francia, Canadá, Alemania, Emiratos Árabes Unidos y Arabia Saudita.

    ¿Estado de vigilancia?

    Un stand de Palantir en una conferencia de tecnología.

    Getty Images
    Palantir es una de las compañías de IA más exitosas en la actualidad.

    En las más de dos décadas desde la fundación de Palantir, sus productos se han convertido en una poderosa arma para EE.UU. y sus aliados.

    Palantir desarrolló las herramientas que llevaron a la muerte de Osama Bin Laden en 2011 y fueron un componente clave en la retirada de todo el personal estadounidense estacionado en Afganistán en 2021.

    Además, su sistema de integración de datos Maven se está usando en estos momentos para identificar objetivos militares en Irán y para operar los drones que EE.UU. ha desplegado en la región.

    Palantir es también la compañia encargada de desarrollar el software del “Domo dorado”, uno de los proyectos insignia de la segunda administración Trump: un sistema de misiles antiaéreos similar al “Domo de Hierro” de Israel, con la capacidad de proteger al país contra cualquier tipo de amenaza, incluidos misiles nucleares.

    Al mismo tiempo, Palantir provee servicios a compañías civiles como Airbus, Panasonic, Merck e incluso el equipo de Ferrari en Fórmula 1 para el manejo y análisis de sus datos.

    Palantir es una de la empresas tecnológicas más valiosas del mundo.

    Getty Images
    Palantir es una de la empresas tecnológicas más valiosas del mundo.

    Es por esta misma versatilidad de sus herramientas que Palantir insiste en que deben ser los entes reguladores gubernamentales, y no la propia compañía, los que deben poner límites a los usos de su tecnología.

    En una entrevista con la BBC, el director de Palantir en Reino Unido y Europa, Louis Mosley, explicó que el software de Palantir está diseñado para siempre requerir de un ser humano para tomar decisiones: “Así está programado actualmente”, aseguró Mosley.

    Pero son muchos los críticos que han señalado que la velocidad con la que estas herramientas analizan y hacen predicciones puede llevar a errores de confirmación por parte de los usuarios.

    “Esta priorización de la velocidad y la escala, así como del uso de la fuerza, deja muy poco tiempo para una verificación significativa de los objetivos, a fin de asegurar que no incluyan accidentalmente objetivos civiles”, le dijo a la BBC la profesora Elke Schwarz, de la Universidad Queen Mary de Londres.

    Pero para Mosley “esa es, en realidad, una pregunta para nuestros clientes militares”.

    “Son ellos quienes deciden el marco normativo que determina quién puede tomar qué decisión”, dijo.

    A pesar de las críticas y de las preocupaciones que genera su tecnología, Palantir está valorada en más de US$380.000 millones y continúa creciendo.

    “Aquí surge la interrogante de cuánta responsabilidad recae sobre Palantir respecto al uso que se hace de su producto, y esa es una cuestión muy real en este momento, por ejemplo, en lo que respecta a su relación con el ICE”, señala Michael Steinberger.

    “¿Tiene Palantir alguna responsabilidad en los abusos que se están cometiendo? ¿Tienen conocimiento de ellos? Si se han perpetrado crímenes de guerra con esa tecnología, ¿tiene Palantir alguna responsabilidad?”, se pregunta el columnista del New York Times.

    “Estas son algunas de las preguntas a las que se enfrenta ahora la empresa; y son preguntas que van directamente al corazón de la controversia que rodea a Palantir”, remata Steinberger.

    Con información del corresponsal de IA de BBC News, Marc Cieslak, y de Matt Murphy, de BBC Verify.

    ""

    BBC

    Haz clic aquí para leer más historias de BBC News Mundo.

    Suscríbete aquí a nuestro nuevo newsletter para recibir cada viernes una selección de nuestro mejor contenido de la semana.

    También puedes seguirnos en YouTube, Instagram, TikTok, X, Facebook y en nuestro canal de WhatsApp.

    Y recuerda que puedes recibir notificaciones en nuestra app. Descarga la última versión y actívalas.

  • Quién es John Ternus, el ingeniero que será el nuevo CEO de Apple (y qué significa para el futuro de la empresa)

    Quién es John Ternus, el ingeniero que será el nuevo CEO de Apple (y qué significa para el futuro de la empresa)

    This post was originally published on this site.

    John Termus, con camisa gris, frente a una pantalla que proyecta el logotipo de Apple, durante la presentación de un producto.

    Getty Images

    La compañía Apple nombró a John Ternus como su nuevo director ejecutivo en reemplazo de Tim Cook, que abandonará el cargo tras 15 años a la cabeza del gigante de tecnología.

    Ternus, actual director de ingeniería de hardware, lleva 25 años en la empresa y asumirá la jefatura de Apple el 1 de septiembre. Cook fungirá como presidente ejecutivo.

    Cook describió a Ternus como un ejecutivo “visionario” con “la mente de un ingeniero, el alma de un innovador y el corazón para dirigir con integridad y honor”.

    “Es sin duda la persona indicada para conducir Apple hacia el futuro”, añadió Cook.

    Ternus surgió como el candidato favorito para el cargo el año pasado, después de que otro ejecutivo veterano, el jefe de operaciones Jeff Williams, dejara la empresa.

    Durante su cuarto de siglo en Apple, Ternus ha trabajado esencialmente en todos los productos importantes que la compañía ha lanzado, incluyendo cada una de las generaciones de iPad, muchas generaciones del iPhone, y el lanzamiento de los audífonos inalámbricos AirPods y el reloj de pulsera Apple Watch.

    También supervisó la transición del procesador de las computadoras Mac de Intel a su propio sistema, Apple silicon.

    Aparte de los lanzamientos de productos, Ternus asumió responsabilidades que van mucho más allá de la ingeniería de hardware tradicional, influyendo en la dirección, características de los productos y en decisiones estratégicas típicamente reservadas para ejecutivos más altos.

    A sus 51 años de edad, la misma que tenía Cook cuando se convirtió en director ejecutivo en 2011, se vaticina que será jefe durante una década o más, un factor que proyecta estabilidad en el liderazgo de Apple. Sus antecedentes en ingeniería también coinciden con el rumbo que quiere seguir la empresa, explorando tecnología emergentes como la inteligencia artificial y la realidad mixta.

    En un comunicado emitido el lunes, John Ternus describió a Cook como su “mentor”.

    “Estoy lleno de optimismo sobre lo que podemos lograr en los años venideros”, expresó.

    De campeón de natación a la cúpula de Apple

    Ternus, oriundo de California, estudió ingeniería mecánica en la Universidad de Pennsylvania, donde no solo se distinguió académicamente sino atléticamente también.

    Fue un destacado integrante del equipo de natación de la universidad, que representó a la institución en las competencias interuniversitarias un número récord de veces, y fue campeón en las modalidades de 50 metros libres y 200 metros combinados, según el diario local Daily Pennsylvanian.

    Tras graduarse en 1997, Ternus se integró a Virtual Research Systems, una compañía que emergió de la ola inicial de realidad virtual en las décadas de los 80 y 90, donde trabajó con los cascos de RV y tecnologías de inmersión.

    Los cuatro años que estuvo con esa compañía lo expusieron a tecnología punta en despliegues de pantalla y de interacción persona-computadora, una experiencia que fue fundamental en el trabajo que hizo posteriormente con productos como el casco de realidad mixta Apple Vision Pro.

    El ingeniero mecánico ingresó a Apple en 2001, como un miembro menor del equipo de diseño de productos, donde trabajó en los monitores externos de los computadores Mac. Sin embargo, fue un momento crucial en la empresa, que se había revitalizado tras el regreso de Steve Jobs al mando y se preparaba para lanzar los productos que redefinirían industrias enteras.

    Para 2013, Ternus fue ascendido a la vicepresidencia de ingeniería de hardware, supervisando el desarrollo de los AirPods, Mac y iPad. Luego, en 2020, se encargó de la ingeniería del iPhone y poco después entró a conformar el equipo ejecutivo de Apple.

    Aumentó su visibilidad pública participando en los lanzamientos de los nuevos productos Apple, como el MacBook Pro y iPad Pro, y era un frecuente interlocutor en eventos especiales y ferias de tecnología. En septiembre de 2025, Ternus recibió personalmente a los consumidores en la tienda central de Apple en Londres cuando el nuevo iPhone 17 salió a la venta.

    John Ternus ha sido descrito como un miembro leal y carismático de la empresa y confirma la predilección de la junta directiva de seleccionar a sus jefes internamente. Pero también es una señal de un cambio de foco hacia mayor innovación técnica y el desafío de competir en el campo de la inteligencia artificial, donde está rezagada de otras empresas rivales como Google, Microsoft y OpenAI.

    Los desafíos del nuevo director ejecutivo

    El gran desafío para Ternus es la IA, escribe la editora de Tecnología de la BBC, Zoe Kleinman.

    Apple es conocida por moverse despacio y de forma estratégica, y esto le ha rendido enormes beneficios hasta ahora en lo que respecta a sus dispositivos. El iPhone no fue el primer teléfono inteligente del mercado cuando se lanzó en 2007, pero sí fue el que redefinió el panorama.

    Al mismo tiempo, la empresa ha recibido críticas por su lentitud para aprovechar la creciente demanda de IA, eligiendo finalmente incorporar ChatGPT de OpenAI y la tecnología Gemini de Google en sus sistemas operativos, curiosamente eligiendo formar asociaciones en lugar de ser propietaria de IA en esta creciente área de la industria.

    Tim Cook, con corbatín y traje negro, hace la señal de paz con sus dedos.

    Getty Images
    ¿Cómo se comparará la gestión de John Ternus con la de su antecesor Tim Cook?

    Dicho esto, la IA sigue siendo bastante irregular a pesar de toda la publicidad, con reportes de tasas de adopción decepcionantes entre empresas y rumores de que se ha sobrevendido.

    “Apple no se ha lanzado con todo a las oportunidades de IA”, comenta Susannah Streeter, estratega jefe de inversiones en Wealth Club.

    “Se espera que John Ternus continúe con esta estrategia defensiva, sin invertir capital en exceso, lo cual parece sensato dado el temor de un posible estallido de la burbuja de IA”.

    No es algo que se deba mencionar a los otros gigantes tecnológicos, que sí le han apostado todo a la IA, comenta Kleinman de la BBC.

    Una de las próximas etapas en el panorama más amplio de la IA es su encarnación física, lo que significa, en esencia, los robots.

    ¿Debería Ternus estar pensando en que el próximo gran lanzamiento de Apple será un humanoide? ¿Puede la empresa hacer ese giro de pantalla pequeña a robot grande?

    Los productos de consumo personal de Apple son conocidos por su diseño pequeño y elegante, pero la IA no tiene por qué verse ni sentirse bien en tus manos. Lo que necesita es funcionar.

    Un usuario el la tienda de Apple toma un nuevo iPhone 17 en sus manos.

    Getty Images
    Apple tendrá que pasar de sus pequeños y elegantes dispositivos a los grandes robots.

    La editora de Tecnología de la BBC señala que hay otro reto más diplomático que Ternus tendrá que afrontar: cómo llevarse bien con un presidente estadounidense que es notoriamente caprichoso.

    Tim Cook se ha esforzado en describirse a sí mismo como políticamente neutral. Sin embargo, donó al fondo de investidura de Trump, y además le regaló una estatua más bien elaborada con una base de oro de 24 quilates.

    Aún así, Apple fue golpeada por la avalancha de aranceles de Trump, porque a pesar de trasladar la manufactura fuera de China hasta donde le ha sido posible, no ha logrado desvincularse completamente de esa potencia productora asiática.

    Por último, en la época del poder de la imagen personal, será interesante ver cuánto de su vida privada está dispuesto a compartir el excampeón de natación.

    Cook anunció que era gay en 2014 pero, aparte de eso, nunca ha compartido mucho sobre su vida fuera del trabajo.

    Kleinman, que entrevistó a Cook en 2022, sospecha que Apple es su vida, dentro y fuera del trabajo. “Una vez me confesó que ‘no era un gran modelo a seguir’ para el equilibrio entre vida laboral y personal”.

    Cook siempre eligió grabar con antelación sus grandes anuncios y, aunque Jobs saltaba por el escenario, su estilo de presentación probablemente era más exacto, pero también menos apasionado.

    Ternus tendrá que decidir si se abre más en una cultura ávida de autenticidad donde queremos ver a las figuras más poderosas del mundo siendo auténticas, o al menos haciendo un buen trabajo fingiendo ese papel, concluye Zoe Kleinman.

    *Con información de Zoe Kleinman, editora de Tecnología de la BBC, y las reporteras de Tecnología Kali Hays y de Finanzas Dearbail Jordan.

    []

    BBC

    Haz clic aquí para leer más historias de BBC News Mundo.

    Suscríbete aquí a nuestro nuevo newsletter para recibir cada viernes una selección de nuestro mejor contenido de la semana.

    También puedes seguirnos en YouTube, Instagram, TikTok, X, Facebook y en nuestro canal de WhatsApp.

    Y recuerda que puedes recibir notificaciones en nuestra app. Descarga la última versión y actívalas.

  • Mythos, el nuevo modelo de IA de Anthropic que preocupa a gobiernos y bancos por su gran potencia

    Mythos, el nuevo modelo de IA de Anthropic que preocupa a gobiernos y bancos por su gran potencia

    This post was originally published on this site.

    Una pantalla de smartphone que muestra el logotipo de Anthropic en letras negras sobre un fondo completamente blanco, colocada sobre un teclado de portátil iluminado en rosa y morado.

    Reuters

    En las últimas semanas, el mundo de la inteligencia artificial (IA) ha estado en ascuas tras las afirmaciones realizadas por la empresa líder Anthropic en relación con su nuevo modelo, Claude Mythos.

    La compañía asegura haber descubierto que la herramienta puede superar a los humanos en algunas tareas de piratería informática y ciberseguridad, lo que ha suscitado debates entre reguladores, legisladores e instituciones financieras sobre los peligros que podría suponer para los servicios digitales.

    Varios gigantes tecnológicos han obtenido acceso a Mythos a través de una iniciativa del mismo Anthropic, llamada Proyecto Glasswing y diseñada para fortalecer la resistencia frente al propio Mythos.

    Pero otros señalan que a Anthropic le conviene sugerir que su herramienta tiene capacidades nunca antes vistas.

    Como ocurre a menudo con la IA, la tarea de distinguir entre afirmaciones justificadas y exageraciones puede ser complicada.

    ¿Qué es Claude Mythos?

    Mythos es uno de los modelos más recientes de Anthropic, desarrollado como parte de su sistema de IA más amplio llamado Claude. Este sistema engloba el asistente de IA de la compañía y su familia de modelos, compitiendo con ChatGPT de OpenAI y Gemini de Google.

    Anthropic lo reveló a principios de abril como “Avance de Mythos”.

    Los investigadores que prueban cómo los modelos de IA manejan solicitudes o tareas específicas, conocidos como “equipos rojos”, afirmaron en un informe que Mythos era “sorprendentemente capaz en tareas de seguridad informática”.

    Descubrieron que la herramienta podía localizar errores latentes ocultos en código de décadas de antigüedad y explotarlos fácilmente.

    En lugar de ponerlo a disposición de todos los usuarios de Claude, Anthropic le dio acceso a 12 empresas tecnológicas a través del Proyecto Glasswing, que describió como “un esfuerzo por proteger el software más crítico del mundo”.

    La imagen promocional del Proyecto Glasswing se muestra en la pantalla de un teléfono inteligente colocado sobre una superficie reflectante sobre la cual se proyecta un logotipo de Claude con patrones hexagonales, en Créteil, Francia, el 8 de abril de 2026.

    Getty Images
    El Proyecto Glasswing de Anthropic es una iniciativa interna orientada a estudiar y anticipar riesgos emergentes de los sistemas de IA.

    Entre ellas se encuentran el gigante de la computación en la nube Amazon Web Services, los fabricantes de dispositivos Apple, Microsoft y Google, y los fabricantes de chips Nvidia y Broadcom.

    Crowdstrike, cuya actualización de software defectuosa provocó una importante interrupción global en julio de 2024 , también se encuentra entre los socios del proyecto.

    Anthropic afirma haber dado acceso a Mythos a más de 40 organizaciones responsables de software crítico.

    ¿Por qué tanta preocupación?

    Anthropic afirma que, durante las pruebas, descubrió que el modelo era muy hábil en tareas de ciberseguridad y piratería informática, superando a los humanos.

    “Mythos Preview ya ha encontrado miles de vulnerabilidades de alta gravedad, incluidas algunas en todos los principales sistemas operativos y navegadores web”, afirmó Anthropic el 7 de abril.

    “Dado el ritmo de progreso de la IA, no pasará mucho tiempo antes de que dichas capacidades proliferen, potencialmente más allá de los actores comprometidos con su despliegue seguro”.

    Afirmó que podía localizar, sin mucha supervisión, fallos críticos que requerían una actuación inmediata en sistemas antiguos, incluida una vulnerabilidad que había estado presente en un sistema durante 27 años, y sugerir formas de explotarlos.

    Varias personas marchan por San Francisco, EE. UU., portando pancartas contra la IA. Sonríen en un día soleado y un hombre lleva un chaleco reflectante.

    Reuters
    El temor público ante las capacidades de la IA provocó una protesta en San Francisco en marzo.

    Algunos ministros de finanzas, banqueros centrales y financieros han expresado desde entonces su seria preocupación al respecto, temiendo que el modelo pueda socavar la seguridad de los sistemas financieros.

    El ministro de Finanzas canadiense, François-Philippe Champagne, le contó a la BBC que el proyecto Mythos se había tratado en una reunión del Fondo Monetario Internacional (FMI) celebrada esta semana en Washington D.C.

    “Sin duda, es un asunto lo suficientemente serio como para merecer la atención de todos los ministros de finanzas”, dijo, describiendo la tecnología como una “incógnita desconocida”.

    El gobernador del Banco de Inglaterra, Andrew Bailey, le dijo a la BBC: “Ahora tenemos que analizar con mucha atención qué podría significar este último avance en inteligencia artificial para el riesgo de ciberdelincuencia”.

    Mientras tanto, la Unión Europea ha declarado que también está en conversaciones con Anthropic sobre sus preocupaciones en torno a Mythos.

    ¿Qué han dicho los expertos en ciberseguridad?

    Ciaran Martin, exdirector del Centro Nacional de Ciberseguridad de Reino Unido, le confirmó a la BBC a principios de esta semana que la afirmación de que Mythos podía descubrir vulnerabilidades críticas mucho más rápidamente que otros modelos de IA había “conmocionado a la gente”.

    “Lo segundo es que, incluso con las vulnerabilidades existentes que conocemos, pero contra las que las organizaciones quizás no hayan aplicado parches o no estén bien protegidas, se trata de un hacker realmente hábil”, dijo.

    Muchos analistas y expertos independientes en ciberseguridad aún no han podido probarlo por sí mismos y algunos siguen mostrándose escépticos respecto a las capacidades de Mythos.

    El Instituto de Seguridad de la IA de Reino Unido concluyó recientemente que, si bien se trata de un modelo muy potente, su mayor amenaza se cerniría sobre los sistemas vulnerables y mal protegidos.

    “No podemos afirmar con certeza si Mythos Preview sería capaz de atacar sistemas bien defendidos”, declararon sus investigadores.

    Por lo tanto, donde exista una buena ciberseguridad, en teoría, este modelo debería poderse contener.

    ¿Deberíamos preocuparnos?

    Los temores relacionados con la IA no son nada nuevo.

    Constantemente aparecen nuevos modelos y herramientas, y a menudo vienen acompañados de promesas de revolucionar nuestras vidas, para bien o para mal.

    Aprovechar esta mezcla de miedo y entusiasmo por la IA y su impacto futuro se ha convertido también en un sello distintivo del sector y de sus estrategias de marketing en los últimos años.

    En el caso de Mythos, todavía no sabemos lo suficiente como para determinar si estas esperanzas o temores están justificados, o si son más bien un reflejo de la exageración que rodea a la industria.

    En ambos casos, según el NSCS, lo más importante que podemos hacer ahora es no entrar en pánico sino más bien centrarnos en la necesidad de garantizar una ciberseguridad básica adecuada.

    Al fin y al cabo, la mayoría de los hackers no necesitan herramientas de inteligencia artificial avanzadas para vulnerar sistemas, ya que a menudo son suficientes ataques mucho más sencillos.

    “Para algunos esto es un acontecimiento apocalíptico, para otros parece ser mucha exageración”, le dijo Martin a la BBC.

    Pero afirmó que, así fuera con esta herramienta u otras posteriores creadas por Anthropic o sus rivales, así como generaban un riesgo, también abrían la oportunidad de construir un mundo en línea más seguro.

    “A medio plazo, existe la oportunidad de utilizar estas herramientas para solucionar muchas de las vulnerabilidades subyacentes de internet”, concluyó.

    línea

    BBC

    Haz clic aquí para leer más historias de BBC News Mundo.

    Suscríbete aquí a nuestro nuevo newsletter para recibir cada viernes una selección de nuestro mejor contenido de la semana.

    También puedes seguirnos en YouTube, Instagram, TikTok, X, Facebook y en nuestro canal de WhatsApp.

    Y recuerda que puedes recibir notificaciones en nuestra app. Descarga la última versión y actívalas.