Blog

  • ¡Victoria histórica! Venezuela gana su primer Clásico Mundial de Béisbol tras derrotar a EE.UU. en Miami

    ¡Victoria histórica! Venezuela gana su primer Clásico Mundial de Béisbol tras derrotar a EE.UU. en Miami

    This post was originally published on this site.

    Los jugadores venezolanos tras su histórica victoria de este martes.

    Getty Images
    Los jugadores venezolanos tras su histórica victoria de este martes.

    Venezuela se proclamó por primera vez campeón mundial de béisbol tras vencer al “equipo de ensueño” de Estados Unidos por 3-2 este martes por la noche en Miami.

    La presidenta encargada de Venezuela, Delcy Rodríguez, decretó para el miércoles Día de Júbilo Nacional no laborable, según anunció en la red social X.

    El trinfo del país en el certamen provocó festejos en distintas ciudades, entre ellas, la capital, Caracas.

    Un doble de Eugenio Suárez impulsó la carrera decisiva en un dramático final que le dio a Venezuela su primer título del Clásico Mundial de béisbol.

    El batazo de Suárez en la parte de la novena entrada impulsó a Javier Sanoja con la carrera de la ventaja.

    El lanzador Daniel Palencia selló el triunfo con una imponente actuación al retirar a los tres bateadores que enfrentó, dos por la vía del ponche.

    El triunfo de Venezuela se produjo después de que Estados Unidos lograra empatar el marcador a dos en el octavo inning gracias a un jonrón de dos carreras del estadounidense Bryce Harper ante el relevista Andrés Machado.

    Jugadores celebran levantando un gran trofeo plateado rodeados de confeti.

    Getty Images
    Venezuela logró el título por primera vez en la historia.

    “Es una celebración para toda Venezuela”

    “¿Qué puedo decir? Es increíble”, declaró Eugenio Suárez.

    “Nadie creía en Venezuela, pero hoy ganamos el campeonato. Esta es una celebración para toda Venezuela”, agregó.

    “Esto es para nuestro país, para cada uno de sus habitantes… Ahora tenemos que disfrutarlo”, comentó, a su vez, el lanzador Eduardo Rodríguez después del juego.

    El también jugador Maikel García afirmó estar “agradecido con Dios por esta oportunidad de hacer historia con este gran grupo”.

    “Nosotros salíamos a jugar todos los días por los 30 millones de venezolanos”, remarcó.

    Ronald Acuña Jr., número 21 del equipo de Venezuela, celebra con sus compañeros después de que Venezuela derrotara a Estados Unidos en el Clásico Mundial de Béisbol 2026.

    MLB Photos vía Getty Images

    Aparte del jonrón de Harper, los lanzadores venezolanos permitieron solo dos hits a la poderosa alineación de Estados Unidos.

    La selección estadounidense perdió la final por segunda vez consecutiva y se quedó sin poder repetir el título que consiguió en 2017.

    Estados Unidos cayó 3-2 ante Japón en la final de 2023.

    Venezuela, que por primera vez llegaba a la final, venció sorpresivamente en cuartos de final a Japón, tres veces campeón del torneo.

    Luego eliminó en semifinales a Italia, la revelación del campeonato.

    Venezolanos miran el juego en la capital venezolana

    Getty Images
    Venezolanos festejan en la Plaza de la Juventud de Caracas.

    El presidente de Estados Unidos, Donald Trump, aprovechó el triunfo de Venezuela para volver a sugerir que el país sudamericano sea un estado de Estados Unidos.

    “Statehood (condición de Estado)”, publicó en su cuenta de Truth Social.

    El lunes ya había emitido un comentario similar al celebrar la victoria de Venezuela sobre Italia en las semifinales.

    “Últimamente le están pasando cosas buenas a Venezuela. Me pregunto a qué se debe esta magia… ¿Estado número 51?”, señaló el mandatario estadounidense.

    Jugador venezolano

    Getty Images

    Fiesta en el estadio, en las calles y en las redes

    El equipo venezolano jugó arropado por el apoyo de gran cantidad de migrantes de ese país que que llevaron al estadio LoanDepot Park de Miami no solamente los colores de su bandera, sino también la alegría, el ruido y el desenfado que caracteriza a los estadios de beisbol en Venezuela, donde cada partido es una fiesta.

    “No he visto un evento deportivo con una pasión de los aficionados tan desbordada. Ni siquiera el Super Bowl”, comentó Jason Mackey, periodista que cubre a los Piratas de Pittsburgh para la MLB, en un mensaje en X acompañado de un video en el que se veía el estadio a desbordar de gente.

    Ese mismo ambiente festivo se reprodujo en varios lugares de Caracas, donde el juego fue transmitido a través de pantallas gigantes como la plaza de los Museos, en el oeste de la ciudad, y la plaza Francia, en el este.

    Tras la victoria, miles de personas salieron a las calles en la capital y en otras ciudades de Venezuela para un festejo que se alargó hasta la madrugada.

    La prensa venezolana comparó el triunfo de este miércoles con el alcanzado por la selección de ese país en la IV Serie Mundial en La Habana en 1941, en la que logró imponerse a Cuba, equipo favorito y anfitrión. Desde entonces, en la historia del deporte venezolano se habla de los “Héroes del 41”.

    Un grupo de personas están reunidas en medio de una calle de un barrio humilde de Caracas, mirando una pantalla.

    Getty Images
    En grandes plazas, pero también en humildes barrios los venezolanos se reunieron para ver la final del Mundial de Beisbol.

    Los venezolanos llevaron su celebración a las redes sociales y, aunque la conquista del título de campeón mundial de béisbol fue celebrada como propia por venezolanos de todas las tendencias, la alegría deportiva no escapó de la actualidad política.

    Así mientras la presidenta interina, Delcy Rodríguez, declaró un día de fiesta en Venezuela, la líder de la oposición, María Corina Machado, publicó un mensaje en X en el que celebraba el triunfo. “¡Somos campeones del mundo! Qué orgullo ser venezolana; gracias, muchachos”, escribió en un mensaje acompañado con emojis con tres banderas de Venezuela y tres arepas.

    Indira Urbaneja, una analista política próxima al chavismo, publicó un mensaje en el que recordaba la operación militar de EE.UU. del 3 de enero pasado, durante la cual fue detenido el entonces presidente venezolano, Nicolás Maduro, y su esposa, Cilia Flores.

    “¡Ganó Venezuela! Nos bombardearon, pero no nos robaron ni la dignidad ni el talento. Por 203 minutos demostramos que podemos ser un solo país, es tiempo de cerrar heridas y reunificar la patria”, escribió Urbaneja.

    Otros usuarios, aparentemente más próximos a la oposición, hacían recuento de las cosas buenas que le han pasado a Venezuela en los tiempos recientes. “2 santos. Un nobel de la paz. Maduro preso. Campeones del mundo. Nadie me despierte”, escribió una usuaria identificada como @MaryanisB, junto a una foto de una mujer subida al techo de una casa ondeando una bandera de Venezuela.

    ""

    BBC

    Haz clic aquí para leer más historias de BBC News Mundo.

    Suscríbete aquí a nuestro nuevo newsletter para recibir cada viernes una selección de nuestro mejor contenido de la semana.

    También puedes seguirnos en YouTube, Instagram, TikTok, X, Facebook y en nuestro nuevo canal de WhatsApp.

    Y recuerda que puedes recibir notificaciones en nuestra app. Descarga la última versión y actívalas.

  • Declaran a Marruecos ganador de la Copa de África de fútbol pese a que perdió la final contra Senegal

    Declaran a Marruecos ganador de la Copa de África de fútbol pese a que perdió la final contra Senegal

    This post was originally published on this site.

    Los jugadores de Senegal celebran en el estadio con la Copa África que creían haber conquistado ante Marruecos.

    Getty Images
    El título de Senegal hubiera sido el segundo de su historia.

    Marruecos ha sido declarado ganador de la Copa Africana de Naciones 2025 después de que la Confederación Africana de Fútbol (CAF) revocara el resultado de la final tras el polémico abandono momentáneo de Senegal.

    La selección senegalesa venció a Marruecos 1-0 en la final disputada el pasado 18 de enero en Rabat, un partido que quedó eclipsado cuando los jugadores senegaleses se negaron a seguir jugando después de que el árbitro pitara un penalti a favor de los anfitriones en el tiempo de descuento con el partido aún sin goles.

    Tras una demora de alrededor de 17 minutos, los jugadores finalmente regresaron y el portero detuvo el penalti de Brahim Díaz antes de que Pape Gueye anotara el gol de la victoria de Senegal en el tiempo extra.

    Sin embargo, ese resultado ha sido ahora revocado tras una decisión de un tribunal de apelaciones del organismo rector del fútbol africano.

    Un comunicado de la CAF declaró que se ha resuelto que Senegal “perdió por incomparecencia en el encuentro final” con el “resultado del partido registrado como 3-0 a favor” de Marruecos.

    La decisión sigue a una apelación de la Federación Marroquí de Fútbol (FRMF) que la CAF declaró “admisible en forma” y fue aceptada.

    La CAF añadió que, “a través de la conducta de su equipo”, Senegal infringió el Artículo 82 del reglamento de la Copa Africana de Naciones y como resultado el Artículo 84 es de aplicación.

    El Artículo 82 establece que si un equipo se niega a jugar o abandona el terreno de juego antes del final del tiempo reglamentario sin la autorización del árbitro, se le considerará perdedor y será eliminado de la competición.

    El Artículo 84 complementa esta disposición y establece que cualquier equipo que viole el Artículo 82 será eliminado permanentemente y perderá el partido 3-0.

    La Federación Marroquí dijo en un comunicado que su decisión de apelar el resultado final “nunca tuvo la intención de cuestionar el rendimiento deportivo de los equipos” sino que fue una solicitud para la “aplicación del reglamento de la competición”.

    “La federación reafirma su compromiso de respetar las reglas, asegurar claridad en el marco competitivo y mantener la estabilidad dentro de las competiciones africanas”, añadió el comunicado de la FRMF.

    “También desea elogiar a todas las naciones que participaron en esta edición de la CAN, que ha sido un momento importante para el fútbol africano”.

    La Federación Senegalesa de Fútbol aún no ha comentado la decisión, pero un video publicado en la cuenta de X de su selección masculina muestra a los jugadores celebrando en un desfile en autobús con el trofeo y un emoji de ‘OK’.

    Maher Mezahi, periodista de fútbol norteafricano, le dijo a BBC Radio 5 Live que la decisión de revocar el resultado no cambiará el impacto emocional de lo que se desarrolló en el campo para quienes lo presenciaron.

    “No podemos borrar los últimos 16 minutos de ese partido y lo que vimos”, dijo.

    “No podemos borrar los sentimientos de ver a Senegal levantar el trofeo y a los jugadores regresar a casa con la medalla y tener un desfile”.

    ¿Qué pasó en la final de la Copa de África?

    Con el marcador 0-0, el árbitro Jean Jacques Ndala señaló un penalti a favor de Marruecos en el octavo minuto del tiempo añadido.

    El árbitro asistente de video (VAR) aconsejó a Ndala consultar el monitor al costado del campo y revisar la entrada del defensor El Hadji Malick Diouf sobre Díaz.

    El entrenador de Senegal, Pape Thiaw, todavía enfurecido por la decisión de Ndala momentos antes de anular un gol del senegalés Ismaila Sarr, ordenó a su equipo abandonar el campo.

    El delantero Sadio Mané se quedó en el campo e intentó animar a sus compañeros de Senegal a terminar el partido.

    Después de 17 minutos, los jugadores de Senegal regresaron al césped.

    El delantero marroquí del Real Madrid Brahim Díaz lanzó el penalti al estilo Panenka, pero el arquero senegalés Edouard Mendy le adivinó la intención y atrapó el balón sin apenas moverse.

    El árbitro Ndala tocó el silbato del final del tiempo inmediatamente después.

    A los cuatro minutos de la prórroga, el mediocampista senegalés Gueye anotó el gol de la victoria para sellar el segundo título continental en cinco años para Senegal.

    En la conferencia de prensa posterior al partido, el entonces entrenador de Marruecos, Walid Regragui, dijo que las acciones de Senegal fueron “vergonzosas” y no “honran a África”.

    El presidente de la FIFA, Gianni Infantino, condenó enérgicamente las “escenas desagradables” en una publicación en Instagram.

    La rueda de prensa de Thiaw fue cancelada después de que surgiera un altercado en la sala de los periodistas.

    En una entrevista posterior al partido, el entrenador de Senegal aceptó que no debió haber ordenado a su equipo abandonar el campo y que había reaccionado “en el calor del momento”.

    Tras la derrota en la final, Marruecos prescindió del entrenador Walid Regragui, cuatro meses antes de la Copa del Mundo.

    ""

    BBC

    Haz clic aquí para leer más historias de BBC News Mundo.

    Suscríbete aquí a nuestro nuevo newsletter para recibir cada viernes una selección de nuestro mejor contenido de la semana.

    También puedes seguirnos en YouTube, Instagram, TikTok, X, Facebook y en nuestro nuevo canal de WhatsApp.

    Y recuerda que puedes recibir notificaciones en nuestra app. Descarga la última versión y actívalas.

  • Irán quiere cambiar la sede de sus partidos del Mundial de EE.UU. a México pero la FIFA se opone

    Irán quiere cambiar la sede de sus partidos del Mundial de EE.UU. a México pero la FIFA se opone

    This post was originally published on this site.

    La incertidumbre por la participación de Irán en el Mundial 2026 sigue aumentando, luego de que la Federación de Fútbol iraní dijera que su selección quiere cambiar la sede de sus partidos de EE.UU. a México, algo a lo que se opone la FIFA.

    El presidente de la Federación iraní, Mehdi Taj, aseguró que se estaban llevando a cabo negociaciones para cambiar sus partidos de la fase de grupos, con el fin de garantizar la seguridad de sus jugadores.

    Esto debido a la guerra de Irán iniciada por los ataques de Estados Unidos e Israel al país de Medio Oriente.

    Sin embargo, este martes la FIFA declaró en un comunicado que esperaba que el calendario de partidos se mantenga como está.

    “La FIFA mantiene un contacto regular con todas las federaciones participantes, incluida la Federación de Fútbol de Irán, para discutir la planificación de la Copa Mundial de la FIFA 2026. La FIFA espera que todos los equipos participantes compitan según el calendario de partidos anunciado”, señala la nota.

    Estados Unidos es coanfitrión del Mundial, que se celebra entre el 11 de junio y el 19 de julio, junto con Canadá y México.

    Irán tiene previsto enfrentarse en Los Ángeles a Nueva Zelanda el 16 de junio y a Bélgica el 21 de junio, y a Egipto en Seattle el 27 de junio.

    Pero la semana pasada, el presidente de EE.UU., Donald Trump, dijo que, aunque Irán es “bienvenido al Mundial”, no cree que “sea apropiado” que los jugadores asistan “por su propia vida y seguridad”.

    “Cuando Trump ha declarado explícitamente que no puede garantizar la seguridad de la selección iraní, ciertamente no viajaremos a Estados Unidos”, dijo Taj en una publicación en una cuenta de redes sociales perteneciente a la embajada iraní en México.

    “Estamos negociando con la FIFA para que los partidos de Irán en la Copa del Mundo se celebren en México”, añadió el jefe del fútbol iraní.

    Sin embargo, la FIFA no mencionó que hubiera tales negociaciones.

    Gianni Infantino y Donald Trump

    Getty Images
    Trump ha expresado que Irán es “bienvenido” al Mundial, pero que no garantiza su seguridad.

    La guerra y el fútbol

    Irán se clasificó hace un año para su cuarto Mundial consecutivo en las eliminatorias de Asia, pero desde entonces el país ha enfrentado conflictos bélicos que han escalado.

    En junio de 2025, Estados Unidos lanzó una oleada de bombardeos sobre tres instalaciones nucleares en el país. Aunque entonces surgió la pregunta de la participación iraní en el Mundial 2026, su Federación descartó renunciar al campeonato.

    Sin embargo, ante la situación de la guerra actual, la postura iraní ha cambiado.

    El ministro de Deportes y Juventud de Irán, Ahmad Donyamali, dijo que “bajo ninguna circunstancia contamos con las condiciones adecuadas para participar en el Mundial”.

    En un mensaje reciente en la cuenta de Telegram de la selección nacional, señalaba que la FIFA es la organizadora del Mundial, no un país en particular.

    “El país que debería ser excluido es aquel que, aunque ostenta el título de anfitrión, no tiene la capacidad de garantizar la seguridad de los equipos que participan en este evento”, añadió.

    El presidente de la FIFA dijo posteriormente que el presidente de EE.UU. le había comunicado que Irán era “bienvenido a competir” en la fase final de este verano, a pesar de que ambos países están en guerra.

    Pero este martes surgió el pronunciamiento del organismo que rechaza el cambio al calendario y sus sedes.

    Desde México, la presidenta Claudia Sheinbaum dijo que su país está abierto a recibir a la selección iraní: “México tiene relación con todos los países del mundo. Vamos a ver qué establece la FIFA y a partir de ahí informaríamos”.

    ""

    BBC

    Haz clic aquí para leer más historias de BBC News Mundo.

    Suscríbete aquí a nuestro nuevo newsletter para recibir cada viernes una selección de nuestro mejor contenido de la semana.

    También puedes seguirnos en YouTube, Instagram, TikTok, X, Facebook y en nuestro nuevo canal de WhatsApp.

    Y recuerda que puedes recibir notificaciones en nuestra app. Descarga la última versión y actívalas.

  • nota prueba v4

    nota prueba v4

    nota de prueba v4

  • nota de prueba v2

    nota de prueba v2

    nota de prueba con imagen

  • nota de prueba con imagen

    nota de prueba con imagen

    esto es una prueba de nota con imagen

  • Anthropic, la empresa de IA que se enfrentó al Pentágono en EE.UU. y por qué esto nos concierne a todos

    Anthropic, la empresa de IA que se enfrentó al Pentágono en EE.UU. y por qué esto nos concierne a todos

    This post was originally published on this site.

    Logo del Departamento de Guerra (o de Defensa) de EE.UU. y un teléfono con el logo de Anthropic en la pantalla

    Getty Images
    La disputa entre Anthropic y el Pentágono giró en torno al acceso ético a la IA de punta.

    Mientras el mundo observaba la operación estadounidense en Venezuela y cómo la guerra con Irán se hacía inevitable, en Washington se iba fraguando una batalla que advertía que el futuro profetizado durante siglos ya es presente.

    Una empresa de Inteligencia Artificial (IA) de Silicon Valley le dijo no al Pentágono y este la trató como si fuera enemiga del Estado. No obstante, su tecnología de IA seguía siendo usada, porque el ejército de EE.UU. no podía darse el lujo de prescindir de ella.

    Eso es lo que pasó entre Anthropic y el Departamento de Defensa en las últimas semanas. Y aunque suena a disputa corporativa, es mucho más que eso.

    Es la primera vez que una empresa de IA enfrenta a un aparato militar, negándose a eliminar los límites éticos de su tecnología.

    El enfrentamiento dejó preguntas en el aire que nos atañen a todos: ¿Hasta dónde ya estamos delegando decisiones irreversibles y letales en las máquinas? ¿Quién decide cómo se usa la IA?

    No son preguntas retóricas. Expertos de de la Universidad de Oxford advierten que este episodio “revela brechas de gobernanza de larga data en la integración de la IA en operaciones militares, brechas que preceden a esta administración y sobrevivirán a la controversia actual”.

    ¿Por qué, si la humanidad lleva tanto tiempo temiendo llegar a este punto, aún hay tal vacío en la gobernanza de la IA?

    Se trata de un vacío que Logan Graham, líder del equipo rojo de Anthropic, el cual analiza los peores escenarios de la tecnología, desde ciberataques hasta amenazas de bioseguridad, conoce de cerca.

    “La intuición de alguna gente, por haber crecido en un mundo pacífico, es que en algún lugar hay una sala llena de adultos que saben cómo arreglar todo”, le dijo a la revista Time.

    “No existen esos grupos de adultos. Ni siquiera existe la sala. Tú eres responsable”.

    Retomemos lo que ocurrió.

    Una llamada incómoda

    En algún momento de la operación que culminó el pasado 3 de enero con la captura del entonces presidente de Venezuela, Nicolás Maduro, una herramienta de IA llamada Claude estuvo presente, procesando datos y ayudando a tomar decisiones.

    Así lo reportaron de manera independiente el diario Wall Street Journal y el sitio web Axios, citando fuentes con conocimiento directo de los hechos, y lo reafirmó posteriormente la revista Time, que publicó un extenso perfil de Anthropic, la empresa de San Francisco que creó Claude.

    Ni el Departamento de Defensa ni Anthropic lo confirmaron oficialmente. Pero lo que sucedió después está documentado, y dice más que el hecho mismo.

    Persona sosteniendo una imagen de Maduro tras las rejas y un sello de "capturado"

    Getty Images
    El operativo para capturar a Nicolás Maduro fue un detonante.

    Tras la captura de Maduro, un ejecutivo de Anthropic contactó a Palantir -la empresa de análisis de datos que actúa como intermediaria tecnológica entre Silicon Valley y el gobierno estadounidense- y preguntó: ¿fue usado nuestro software en esa operación?

    La pregunta encendió alarmas en Washington.

    Emil Michael, el subsecretario de Defensa y jefe de tecnología del Pentágono, explicó que les generó una preocupación profunda: ¿podría Anthropic, en un conflicto futuro, “apagar su modelo en medio de una operación” -activar algún mecanismo de rechazo- “y poner vidas en riesgo”?

    Anthropic disputa esa lectura: la empresa dice que jamás intentó limitar el uso del Pentágono en un caso concreto y que la pregunta fue rutinaria.

    Lo que siguió fue una escalada a cámara rápida.

    El Pentágono exigió que Anthropic entregara acceso irrestricto a su tecnología para “todos los usos legales”. Anthropic se negó.

    Pete Hegseth, el secretario de Defensa de Trump, designó a Anthropic como un “riesgo en la cadena de suministro”, una etiqueta que históricamente se reserva para empresas vinculadas a adversarios extranjeros como Huawei o Kaspersky, no para compañías estadounidenses que simplemente discrepan con el gobierno.

    Anthropic demandó al Pentágono por exceder su autoridad y sus salvaguardas éticas, violando derechos básicos. Varios expertos legales consideran que la empresa tiene opciones sólidas de ganar en los tribunales.

    El presidente Donald Trump, por su lado, ordenó a todas las agencias federales que dejen de usar la tecnología de Anthropic.

    Y remató la polémica con un mensaje en la plataforma Truth Social, escrito todo en mayúsculas: “Estados Unidos nunca permitirá que una empresa de izquierda radical y woke dicte cómo combate y gana guerras nuestro gran ejército”.

    En su vocabulario y el de sus seguidores, ‘woke‘ es el insulto máximo, una etiqueta despectiva para describir ideas o políticas progresistas sobre identidad, desigualdad o justicia social.

    Quizás el calificativo es adecuado: Anthropic, efectivamente, se empeña en ser una empresa ‘virtuosa’.

    Líneas rojas

    Anthropic tiene una historia sui géneris.

    Fue fundada en 2021 por exinvestigadores de OpenAI con la premisa explícita de que la inteligencia artificial representa uno de los mayores riesgos existenciales para la humanidad y que, precisamente por eso, es mejor que quienes la desarrollen sean personas comprometidas con hacerlo de manera segura.

    Retrato de Dario Amodei

    Getty Images
    Dario Amodei, el cofundador y director ejecutivo de Anthropic, fue vicepresidente de investigación en OpenAI.

    En julio de 2025, firmó un contrato de US$200 millones con el Departamento de Defensa, el primero de su clase: un laboratorio de IA que integra sus modelos en flujos de trabajo de misiones en redes clasificadas.

    El CEO de Anthropic, Dario Amodei, lo justificó en un ensayo publicado en enero de este año.

    Anthropic, escribió, apoyaba a las fuerzas militares y de inteligencia estadounidenses porque “la única manera de responder a las amenazas autocráticas es igualarlas y superarlas militarmente”.

    Y añadió: “La formulación a la que he llegado es que debemos usar la IA para la defensa nacional en todas las formas, excepto en aquellas que nos harían más parecidos a nuestros adversarios autocráticos”.

    En concordancia, el contrato con el Pentágono trazaba dos “líneas rojas”: Claude no podría usarse para vigilancia masiva doméstica ni para armas completamente autónomas.

    Esos límites infranqueables no son arbitrarios; se sustentan en un documento de la empresa que funciona como su “alma”.

    Su objetivo declarado es “evitar catástrofes a gran escala”, incluyendo la posibilidad de que la IA sea usada por un grupo humano para “tomar el poder de manera ilegítima y no colaborativa”.

    Amodei también argumentó ante el Pentágono que “los sistemas de IA de vanguardia simplemente no son lo suficientemente confiables como para impulsar armas totalmente autónomas”.

    En sentido estricto, no hablamos de armas que decidan por sí solas a quién matar; en este contexto, “autonomía” significa que un sistema pueda cumplir ciertos objetivos por su cuenta -o con mínima supervisión humana- en entornos complejos.

    Pero sí existen sistemas automatizados que ayudan a tomar decisiones sobre ataques. Y los expertos en inteligencia artificial advierten de un problema conocido como “sesgo de automatización”: cuando las reglas de uso son vagas, los humanos tendemos a confiar en las recomendaciones de la máquina más de lo que deberíamos.

    La IA no reemplaza el juicio humano de golpe: lo va erosionando poco a poco, hasta que el operador deja de cuestionarla.

    En una situación tensa, si el sistema -que sabes que analizó una cantidad inmensa de información- señala en la pantalla unos pocos píxeles como un objetivo urgente, es fácil aceptar su recomendación sin dudar lo suficiente.

    O si un sistema de reconocimiento facial señala a alguien en medio de la multitud, es probable que un agente de seguridad confíe en el resultado y proceda al arresto.

    Hay precedentes concretos: en múltiples ocasiones documentadas, varios departamentos de policía en EE.UU. terminaron arrestando personas equivocadas.

    Eso resuena con la otra línea roja que enfureció al gobierno de Trump, la de la vigilancia masiva, que toca la vida cotidiana de personas que no están en ninguna zona de guerra.

    Cabe anotar que Anthropic se opuso específicamente a la vigilancia masiva de ciudadanos estadounidenses. Su postura no es universalista. Pero el principio que la sustenta sí tiene un alcance más amplio.

    Y cobra urgencia porque, en paralelo a este conflicto, el gobierno estadounidense anunció planes de usar IA a través de Palantir para apoyar las operaciones de ICE -la agencia de inmigración- rastreando ubicaciones en tiempo real e historial financiero de personas indocumentadas.

    La vigilancia masiva, en distintos grados y sobre distintas poblaciones, ya existe. La pregunta ya no es si ocurre, sino cuántos controles quedan sobre cómo se usa.

    En ese contexto, las “líneas rojas” de Anthropic no son solo filosofía corporativa: son, por ahora, uno de los pocos frenos concretos que existen.

    El problema es que las restricciones son tan sólidas como el mecanismo que las hace cumplir.

    Y cuando el Pentágono rechazó esos límites y exigió acceso irrestricto, Anthropic se encontró sola sosteniendo su postura, sin un marco legal que la respaldara, sin regulación internacional que la protegiera, con solo sus cláusulas contractuales como escudo.

    ¿Qué es “legal”?

    La reticencia del Departamento de Defensa a que una empresa privada le imponga límites es, para muchos, justificada.

    Aunque las operaciones militares recientes en ciudades estadounidenses, Venezuela e Irán se llevaron a cabo con una mínima consulta al Congreso, el uso de la IA es tan crítico que debe estar regulado por leyes aprobadas por representantes elegidos democráticamente, opinan algunos.

    Desafortunadamente, el poder legislativo no ha legislado al respecto.

    Así, el hecho de que el Pentágono exija la libertad de usar a Claude para “todos los usos legales” suena razonable hasta que se pregunta qué es, exactamente, legal en este ámbito.

    No existe una definición consensuada en el derecho internacional sobre qué constituye un arma letal autónoma.

    El derecho internacional humanitario -las reglas que rigen los conflictos armados desde los Convenios de Ginebra- fue construido en torno a decisiones humanas: un soldado que aprieta un gatillo, un comandante que da una orden.

    Esos marcos no contemplan sistemas que detectan, seleccionan y eliminan objetivos con mínima intervención humana directa o sin ella.

    Es lo que los expertos llaman “vacío de responsabilidad”: una deficiencia crítica en la que los marcos legales existentes no logran determinar quién responde cuando un sistema autónomo comete una infracción.

    Si un dron con IA mata a civiles, ¿quién responde? ¿El programador? ¿El comandante? ¿La empresa que fabricó el sistema?

    El derecho internacional no tiene una respuesta clara. Y en ausencia de esa respuesta, “uso legal” significa, en la práctica, lo que cada Estado decida que significa.

    Hegseth con banderas de EE.UU. detrás

    Getty Images
    Peter Hegseth, el secretario de Guerra de EE.UU. (oficialmente el secretario de Defensa) es un presentador de televisión, escritor y oficial de la Guardia Nacional del Ejército estadounidense.

    En este contexto, surge una pregunta delicada: ¿llega esta discusión a tiempo? La respuesta quizás es: a tiempo para ser preventiva, no; a tiempo para ser útil, todavía sí.

    El debate formal sobre las armas autónomas comenzó en 2013. Once años después, el resultado son guías voluntarias.

    En 2024, durante una conferencia internacional en Viena, el ministro de Exteriores de Austria urgió a avanzar con una frase inquietante: “Este es el momento Oppenheimer de nuestra generación”.

    Aludía al momento en el que la humanidad tomó conciencia del poder destructivo de la bomba atómica: como entonces, la tecnología ya existe y ahora toca decidir cómo controlarla.

    Solo que, a diferencia de las armas nucleares -caras, escasas y con una firma inequívoca- los sistemas autónomos son baratos, masificables y difíciles de atribuir. Por lo tanto, son estructuralmente más difíciles de controlar mediante tratados.

    Ese mismo año, la Asamblea General de la ONU aprobó una resolución sobre armas autónomas con 166 votos a favor. Solo tres países votaron en contra: Rusia, Corea del Norte y Bielorrusia.

    Hay un consenso moral casi universal. Lo que no hay es un tratado vinculante ni mecanismos de cumplimiento, algo que el Secretario General de la ONU pidió para 2026.

    Algunos expertos, sin embargo, temen que, como con otras armas, ese tratado solo llegue después de una catástrofe.

    La lógica de la velocidad

    Mientras los abogados y los diplomáticos debaten, los ingenieros construyen. Y lo que construyen ya está siendo usado.

    El general estadounidense Stanley McChrystal, excomandante de las fuerzas de EE.UU. y la OTAN en Afganistán, lo resumió una vez con crudeza: nunca antes en la historia alguien había podido ver, decidir y matar a una persona al otro lado del mundo en cuestión de minutos.

    Esa frase ya requiere actualización.

    La cuestión ya no es solo ver, decidir y matar, sino cuánto de esa decisión estamos dispuestos a delegarle a una máquina.

    Esa transición ya se está probando en el campo de batalla. En Ucrania, en diciembre de 2024, las fuerzas del país llevaron a cabo la primera operación completamente no tripulada cerca de Járkiv: decenas de vehículos terrestres autónomos y drones atacaron posiciones rusas sin soldados en el terreno.

    La lógica táctica es iluminadora. Los operadores lanzan los drones y vehículos autónomos sabiendo que la comunicación con ellos será bloqueada en minutos. El éxito depende de cuán bien estén programados para actuar solos cuando eso ocurra.

    Navegan de forma autónoma, evaden interferencias electrónicas y continúan la misión incluso sin supervisión humana.

    No es un detalle menor: en ese frente, los drones ya provocan entre el 70% y el 80 % de las bajas, según estimaciones de inteligencia europeas.

    Logo de Open AI sobre dibujo del Pentágono

    Getty Images
    Apenas Anthopic perdió el contrato, su rival Open AI lo tomó… y no era la única esperando entre bambalinas.

    En la región del Golfo la tendencia apunta en la misma dirección.

    El almirante estadounidense Brad Cooper, jefe del Comando Central de EE.UU., reconoció que la inteligencia artificial es una herramienta clave para identificar objetivos, al permitir “tamizar vastas cantidades de datos en segundos para que nuestros líderes puedan tomar decisiones más inteligentes más rápido que el enemigo”.

    Más rápido que el enemigo. Esa frase contiene toda la lógica que hace tan difícil frenar este proceso. En un contexto competitivo, quien se detiene a revisar pierde. La presión estructural empuja siempre hacia menos supervisión humana, no hacia más.

    Tecnología divina

    La historia tiene un desenlace paradójico. Dario Amodei declaró, refiriéndose a las exigencias del Pentágono: “No podemos, en conciencia, acceder a su solicitud”. Anthropic perdió el contrato.

    Horas después del anuncio, OpenAI llegó un acuerdo con el Departamento de Defensa.

    Y entonces ocurrió algo inesperado.

    El día después de que el Pentágono anunciara el nuevo acuerdo, la aplicación de Claude superó a ChatGPT de OpenAI en el App Store de Apple por primera vez en su historia.

    Esa semana, más de un millón de personas se registraron cada día en Claude, llevándola al primer puesto en más de 20 países. Las ventas de la empresa se dispararon entre el público general.

    Hay más. Dos coaliciones de trabajadores de Amazon, Google, Microsoft y OpenAI les pidieron públicamente a sus empresas que siguieran el ejemplo de Anthropic.

    Decenas de científicos e investigadores de compañías rivales firmaron un amicus brief en apoyo a Anthropic.

    Un general retirado de la Fuerza Aérea, que estuvo al frente del Proyecto Maven -el polémico programa de IA para drones que en 2018 provocó protestas masivas de empleados de Google hasta que la empresa abandonó el contrato- escribió en redes sociales que, aunque se esperaría que apoyara al Pentágono, simpatizaba más con la postura de Anthropic.

    Y quizás igual de importante: Anthropic consolidó el apoyo de sus propios ingenieros, algunos de los profesionales más cotizados de Silicon Valley, en uno de los mercados de talento más competitivos del planeta, donde los contratos para atraer o retener a estas personas pueden valer decenas de millones de dólares.

    No todos en ese mundo se sienten cómodos construyendo tecnología para matar. Anthropic, al trazar sus líneas, les dijo que trabajar allí no requería ignorar esa incomodidad.

    En un mundo en el que la IA puede facilitar la captura de alguien al otro lado del mundo y nadie tiene claro cómo juzgar esas acciones, una empresa privada en San Francisco se convirtió en uno de los pocos actores dispuestos a poner límites.

    Aun así, no podemos depender de los escrúpulos de una firma de Silicon Valley.

    Seguimos lidiando con lo que el biólogo Edward O. Wilson definió como “el verdadero problema de la humanidad”.

    “Tenemos emociones paleolíticas, instituciones medievales y tecnología casi divina”.

    línea

    BBC

    Haz clic aquí para leer más historias de BBC News Mundo.

    Suscríbete aquí a nuestro nuevo newsletter para recibir cada viernes una selección de nuestro mejor contenido de la semana.

    También puedes seguirnos en YouTube, Instagram, TikTok, X, Facebook y en nuestro nuevo canal de WhatsApp, donde encontrarás noticias de última hora y nuestro mejor contenido.

    Y recuerda que puedes recibir notificaciones en nuestra app. Descarga la última versión y actívalas.

  • 6 consejos de expertos sobre cómo hablarle a la IA para obtener mejores respuestas

    6 consejos de expertos sobre cómo hablarle a la IA para obtener mejores respuestas

    This post was originally published on this site.

    Una mujer con una tableta usando inteligencia artificial

    Getty Images
    Cada cosa que dices, desde la elección de palabras hasta una coma de más, afectará la respuesta de la IA

    Cuando un grupo de investigadores decidió comprobar si el “pensamiento positivo” aumentaba la precisión de los chatbots de inteligencia artificial (IA), obtuvieron resultados sorprendentes.

    Al formular preguntas a varios chatbots, intentaron llamarlos “inteligentes”, los animaron a pensar con cuidado e incluso terminaron sus preguntas con comentarios como: “¡Esto será divertido!”.

    Nada de esto tuvo un impacto significativo, pero hubo una técnica que se destacó. Cuando hicieron que una IA fingiera estar en la saga Star Trek, mejoró en matemáticas básicas.

    La gente tiene todo tipo de estrategias extrañas para obtener mejores respuestas de los grandes modelos de lenguaje (LLM), la tecnología de IA que sustenta herramientas como ChatGPT.

    Algunos juran que la IA funciona mejor si se la amenaza, otros creen que los chatbots son más cooperativos si se es educado y hay quienes piden a los robots que se hagan pasar por expertos en el tema que estén abordando.

    La lista continúa. Forma parte de la mitología en torno a la “ingeniería de indicaciones” o la “ingeniería de contexto”, diferentes formas de construir instrucciones para que la IA ofrezca mejores resultados.

    La cuestión es la siguiente: los expertos me dicen que muchos de los conocimientos generalizados al respecto simplemente no funcionan. En algunos casos, incluso podrían ser peligrosos. Pero la forma en que se le habla a una IA sí importa y algunas técnicas realmente marcan la diferencia.

    “Mucha gente cree que existe un conjunto mágico de palabras que permiten a los LLM resolver un problema”, afirma Jules White, profesor de informática que estudia IA generativa en la Universidad de Vanderbilt (EE.UU.). “Pero no se trata de la elección de palabras, sino de cómo se expresa fundamentalmente lo que se intenta hacer”.

    ¿Cuidar los modales?

    El año pasado un usuario de la red social X publicó un tuit que decía: “Me pregunto cuánto dinero ha perdido OpenAI en electricidad por los mensajes de ‘por favor’ y ‘gracias’ de los usuarios”.

    Sam Altman, director ejecutivo de OpenAI, empresa creadora de ChatGPT, respondió: “Decenas de millones de dólares bien gastados”, dijo. “Nunca se sabe”.

    La mayoría de la gente interpreta la última línea como una referencia descarada a la idea de un posible apocalipsis de la IA, aunque es difícil saber con qué seriedad tomar esa cifra de “decenas de millones de dólares”. Pero la cortesía también es una cuestión práctica.

    Los chatbots LLM funcionan dividiendo tus palabras en pequeños fragmentos llamados “tokens”, antes de analizarlos mediante estadísticas para generar una respuesta adecuada.

    Esto significa que cada cosa que dices, desde la elección de palabras hasta una coma de más, afectará la respuesta de la IA. El problema es que es extremadamente difícil de predecir.

    Se han realizado numerosas investigaciones buscando patrones en pequeños cambios en las indicaciones de la IA, pero gran parte de la evidencia es contradictoria y no concluyente.

    Por ejemplo, un estudio de 2024 descubrió que los chatbots LLM daban respuestas mejores y más precisas cuando se preguntaba con cortesía en lugar de simplemente dar órdenes.

    Aún más extraño, existían diferencias culturales. En comparación con el chino y el inglés, los chatbots que hablaban japonés obtuvieron un rendimiento ligeramente inferior al excederse en la cortesía.

    Pero, en general, no se ha investigado lo suficiente sobre este tema para llegar a conclusiones sólidas. Además, las empresas de IA actualizan constantemente sus chatbots, lo que significa que las investigaciones pueden quedar obsoletas.

    Los expertos afirman que los modelos de IA han mejorado drásticamente en tan solo unos años, lo que ha convertido técnicas como la adulación, la cortesía, los insultos o las amenazas en una pérdida de tiempo si el objetivo es que la IA sea más precisa.

    Una mujer toca su mano con la de un robot más grande que ella. Ambos están en un campo artificial creado por computadora.

    Getty Images

    Según expertos, los modelos de IA más recientes que se encuentran en cualquier producto convencional, como ChatGPT, Gemini o Claude, son mejores a la hora de captar las partes más importantes de la instrucción.

    Probablemente no se dejarán influir por estos pequeños cambios en el lenguaje, al menos no de una forma consistente que se pueda aprovechar.

    Esto es inquietante a su manera. Las empresas suelen diseñar IA para que se comporten como personas, por lo que es lógico que a veces parezcan tener estados de ánimo o personalidades que se pueden controlar.

    Pero no te dejes engañar. Las herramientas de IA son imitadores, no seres vivos. Simplemente simulan el comportamiento humano.

    Si quieres mejores respuestas, deja de tratar a la IA como a una persona y empieza a tratarla como una herramienta.

    Cómo hablar con tu chatbot

    La IA presenta problemas muy reales, desde cuestiones éticas hasta su impacto ambiental. Algunas personas se niegan a interactuar con ella por completo.

    Pero si vas a usar un LLM, aprender a obtener lo que quieres de forma más rápida y eficiente será mejor para ti y, probablemente, para la energía que consumes en el proceso.

    Estos seis consejos te ayudarán a empezar.

    Una niña usa un asistente virtual de IA para hacer las tareas escolares.

    Getty Images
    Si quieres mejores respuestas, deja de tratar a la IA como a una persona y empieza a tratarla como una herramienta.

    1. Solicita múltiples opciones

    “Lo primero que les digo a las personas es que no pidan una sola respuesta, sino tres o cinco”, dice White.

    Si necesitas ayuda con un texto, por ejemplo, dile a la IA que te dé múltiples opciones que varíen de forma significativa. “Esto obliga al ser humano a reflexionar y a pensar en lo que le gusta y por qué”, explica.

    2. Da ejemplos

    Proporciona a la IA una muestra siempre que sea posible. “Por ejemplo, veo gente que le pide a un LLM que escriba un correo electrónico y luego se frustra porque piensa: ‘Eso no me suena para nada’”, dice White.

    El impulso natural es responder con una lista de instrucciones, como “haz esto” y “no hagas aquello”. White afirma que es mucho más efectivo decir: “Aquí tienes 10 correos electrónicos que he enviado antes. Usa mi estilo de escritura”.

    3. Solicita una entrevista

    “Supongamos que quieres generar una descripción de puesto. Dile a la IA: ‘Quiero que me hagas preguntas, una a una, hasta que hayas recopilado suficiente información para escribir una oferta de trabajo convincente’”, explica White.

    “Al hacerlo pregunta por pregunta, puede adaptarse a tus respuestas”.

    Mujer con un teléfono móvil hablando con un chatbot

    Getty Images
    El impulso natural es dar a la IA una lista de instrucciones (“haz esto” y “no hagas aquello”), pero es mejor dar ejemplos.

    4. Cuidado con los juegos de rol

    “Se solía pensar que si le decías a la IA que era profesor de matemáticas, por ejemplo, tendría mayor precisión al responder preguntas de matemáticas”, afirma Sander Schulhoff, emprendedor e investigador que ayudó a popularizar la idea de la ingeniería rápida.

    Sin embargo, cuando se busca información o se hacen preguntas con una sola respuesta correcta, Schulhoff y otros afirman que los juegos de rol pueden reducir la precisión de los modelos de IA.

    “Eso realmente puede ser peligroso”, dice Rick Battle, ingeniero de aprendizaje automático aplicado en Broadcom y coautor del estudio de “Viaje a las estrellas”.

    “En realidad, estás fomentando la alucinación porque le estás diciendo que es un experto y que debería confiar en su conocimiento paramétrico interno”.

    En esencia, esto puede hacer que la IA actúe con demasiada confianza.

    Pero para tareas muy abiertas sin una respuesta única, el juego de roles es efectivo. Piensa en consejos, lluvia de ideas y resolución creativa o exploratoria de problemas.

    O si te ponen nervioso las entrevistas de trabajo, pedirle a un chatbot que imite a un gerente de contratación podría ser una buena práctica.

    Un hombre de traje en una oficina conversando con un robot.

    Getty Images
    Si estás nervioso por una entrevistas de trabajo, pedirle a un chatbot que imite a un gerente de contratación podría ser una buena práctica.

    5. Mantente neutral

    “No guíes al testigo”, dice Battle. Si intentas decidir entre dos autos, no digas que te inclinas por el Toyota. “De lo contrario, esa es la respuesta que probablemente obtendrás”.

    6. Por favor y gracias

    Según una encuesta del Pew Research Center de 2019, más de la mitad de los estadounidenses dicen “por favor” cuando hablan con sus asistentes inteligentes.

    Parece que esta tendencia continúa. Una encuesta realizada en 2025 por la editorial Future reveló que el 70% de las personas son educadas con la IA cuando la usan. La mayoría afirmó hacerlo porque es lo correcto, aunque el 12% sostuvo que era para protegerse en caso de rebeliones de robots.

    La cortesía puede no protegerte de robots enfadados ni hacer que los LLM sean más precisos, pero hay otras razones para seguir haciéndolo.

    “Para mí, lo más importante es que decir ‘por favor’ y ‘gracias’ puede hacerte sentir más cómodo interactuando con la IA”, afirma Schulhoff. “No mejora el rendimiento del modelo, pero si te ayuda a usarlo más porque te sientes más cómodo, entonces es útil”.

    También hay que considerar la sensibilidad de tu propia naturaleza humana. El filósofo Immanuel Kant argumentó que una razón por la que no se debe ser cruel con los animales es que también es perjudicial para uno mismo.

    En esencia, ser hostil con cualquier cosa te convierte en una persona más cruel. No puedes herir los sentimientos de una IA porque no los tiene, pero quizá deberías ser amable de todos modos. Es un hábito que podría beneficiar otros aspectos de tu vida.

    *Puedes leer la versión original en inglés de este artículo de BBC Future aquí.

    line

    BBC

    Haz clic aquí para leer más historias de BBC News Mundo.

    Suscríbete aquí a nuestro nuevo newsletter para recibir cada viernes una selección de nuestro mejor contenido de la semana.

    También puedes seguirnos en YouTube, Instagram, TikTok, X, Facebook y en nuestro canal de WhatsApp.

    Y recuerda que puedes recibir notificaciones en nuestra app. Descarga la última versión y actívalas.