La incertidumbre por la participación de Irán en el Mundial 2026 sigue aumentando, luego de que la Federación de Fútbol iraní dijera que su selección quiere cambiar la sede de sus partidos de EE.UU. a México, algo a lo que se opone la FIFA.
El presidente de la Federación iraní, Mehdi Taj, aseguró que se estaban llevando a cabo negociaciones para cambiar sus partidos de la fase de grupos, con el fin de garantizar la seguridad de sus jugadores.
Esto debido a la guerra de Irán iniciada por los ataques de Estados Unidos e Israel al país de Medio Oriente.
Sin embargo, este martes la FIFA declaró en un comunicado que esperaba que el calendario de partidos se mantenga como está.
“La FIFA mantiene un contacto regular con todas las federaciones participantes, incluida la Federación de Fútbol de Irán, para discutir la planificación de la Copa Mundial de la FIFA 2026. La FIFA espera que todos los equipos participantes compitan según el calendario de partidos anunciado”, señala la nota.
Estados Unidos es coanfitrión del Mundial, que se celebra entre el 11 de junio y el 19 de julio, junto con Canadá y México.
Irán tiene previsto enfrentarse en Los Ángeles a Nueva Zelanda el 16 de junio y a Bélgica el 21 de junio, y a Egipto en Seattle el 27 de junio.
Pero la semana pasada, el presidente de EE.UU., Donald Trump, dijo que, aunque Irán es “bienvenido al Mundial”, no cree que “sea apropiado” que los jugadores asistan “por su propia vida y seguridad”.
“Cuando Trump ha declarado explícitamente que no puede garantizar la seguridad de la selección iraní, ciertamente no viajaremos a Estados Unidos”, dijo Taj en una publicación en una cuenta de redes sociales perteneciente a la embajada iraní en México.
“Estamos negociando con la FIFA para que los partidos de Irán en la Copa del Mundo se celebren en México”, añadió el jefe del fútbol iraní.
Sin embargo, la FIFA no mencionó que hubiera tales negociaciones.
Trump ha expresado que Irán es “bienvenido” al Mundial, pero que no garantiza su seguridad.
La guerra y el fútbol
Irán se clasificó hace un año para su cuarto Mundial consecutivo en las eliminatorias de Asia, pero desde entonces el país ha enfrentado conflictos bélicos que han escalado.
En junio de 2025, Estados Unidos lanzó una oleada de bombardeos sobre tres instalaciones nucleares en el país. Aunque entonces surgió la pregunta de la participación iraní en el Mundial 2026, su Federación descartó renunciar al campeonato.
Sin embargo, ante la situación de la guerra actual, la postura iraní ha cambiado.
El ministro de Deportes y Juventud de Irán, Ahmad Donyamali, dijo que “bajo ninguna circunstancia contamos con las condiciones adecuadas para participar en el Mundial”.
En un mensaje reciente en la cuenta de Telegram de la selección nacional, señalaba que la FIFA es la organizadora del Mundial, no un país en particular.
“El país que debería ser excluido es aquel que, aunque ostenta el título de anfitrión, no tiene la capacidad de garantizar la seguridad de los equipos que participan en este evento”, añadió.
El presidente de la FIFA dijo posteriormente que el presidente de EE.UU. le había comunicado que Irán era “bienvenido a competir” en la fase final de este verano, a pesar de que ambos países están en guerra.
Pero este martes surgió el pronunciamiento del organismo que rechaza el cambio al calendario y sus sedes.
Desde México, la presidenta Claudia Sheinbaum dijo que su país está abierto a recibir a la selección iraní: “México tiene relación con todos los países del mundo. Vamos a ver qué establece la FIFA y a partir de ahí informaríamos”.
Haz clic aquí para leer más historias de BBC News Mundo.
Suscríbete aquí a nuestro nuevo newsletter para recibir cada viernes una selección de nuestro mejor contenido de la semana.
La disputa entre Anthropic y el Pentágono giró en torno al acceso ético a la IA de punta.
Mientras el mundo observaba la operación estadounidense en Venezuela y cómo la guerra con Irán se hacía inevitable, en Washington se iba fraguando una batalla que advertía que el futuro profetizado durante siglos ya es presente.
Una empresa de Inteligencia Artificial (IA) de Silicon Valley le dijo no al Pentágono y este la trató como si fuera enemiga del Estado. No obstante, su tecnología de IA seguía siendo usada, porque el ejército de EE.UU. no podía darse el lujo de prescindir de ella.
Eso es lo que pasó entre Anthropic y el Departamento de Defensa en las últimas semanas. Y aunque suena a disputa corporativa, es mucho más que eso.
Es la primera vez que una empresa de IA enfrenta a un aparato militar, negándose a eliminar los límites éticos de su tecnología.
El enfrentamiento dejó preguntas en el aire que nos atañen a todos: ¿Hasta dónde ya estamos delegando decisiones irreversibles y letales en las máquinas? ¿Quién decide cómo se usa la IA?
No son preguntas retóricas. Expertos de de la Universidad de Oxford advierten que este episodio “revela brechas de gobernanza de larga data en la integración de la IA en operaciones militares, brechas que preceden a esta administración y sobrevivirán a la controversia actual”.
¿Por qué, si la humanidad lleva tanto tiempo temiendo llegar a este punto, aún hay tal vacío en la gobernanza de la IA?
Se trata de un vacío que Logan Graham, líder del equipo rojo de Anthropic, el cual analiza los peores escenarios de la tecnología, desde ciberataques hasta amenazas de bioseguridad, conoce de cerca.
“La intuición de alguna gente, por haber crecido en un mundo pacífico, es que en algún lugar hay una sala llena de adultos que saben cómo arreglar todo”, le dijo a la revista Time.
“No existen esos grupos de adultos. Ni siquiera existe la sala. Tú eres responsable”.
Retomemos lo que ocurrió.
Una llamada incómoda
En algún momento de la operación que culminó el pasado 3 de enero con la captura del entonces presidente de Venezuela, Nicolás Maduro, una herramienta de IA llamada Claude estuvo presente, procesando datos y ayudando a tomar decisiones.
Así lo reportaron de manera independiente el diario Wall Street Journal y el sitio web Axios, citando fuentes con conocimiento directo de los hechos, y lo reafirmó posteriormente la revista Time, que publicó un extenso perfil de Anthropic, la empresa de San Francisco que creó Claude.
Ni el Departamento de Defensa ni Anthropic lo confirmaron oficialmente. Pero lo que sucedió después está documentado, y dice más que el hecho mismo.
El operativo para capturar a Nicolás Maduro fue un detonante.
Tras la captura de Maduro, un ejecutivo de Anthropic contactó a Palantir -la empresa de análisis de datos que actúa como intermediaria tecnológica entre Silicon Valley y el gobierno estadounidense- y preguntó: ¿fue usado nuestro software en esa operación?
La pregunta encendió alarmas en Washington.
Emil Michael, el subsecretario de Defensa y jefe de tecnología del Pentágono, explicó que les generó una preocupación profunda: ¿podría Anthropic, en un conflicto futuro, “apagar su modelo en medio de una operación” -activar algún mecanismo de rechazo- “y poner vidas en riesgo”?
Anthropic disputa esa lectura: la empresa dice que jamás intentó limitar el uso del Pentágono en un caso concreto y que la pregunta fue rutinaria.
Lo que siguió fue una escalada a cámara rápida.
El Pentágono exigió que Anthropic entregara acceso irrestricto a su tecnología para “todos los usos legales”. Anthropic se negó.
Pete Hegseth, el secretario de Defensa de Trump, designó a Anthropic como un “riesgo en la cadena de suministro”, una etiqueta que históricamente se reserva para empresas vinculadas a adversarios extranjeros como Huawei o Kaspersky, no para compañías estadounidenses que simplemente discrepan con el gobierno.
Anthropic demandó al Pentágono por exceder su autoridad y sus salvaguardas éticas, violando derechos básicos. Varios expertos legales consideran que la empresa tiene opciones sólidas de ganar en los tribunales.
El presidente Donald Trump, por su lado, ordenó a todas las agencias federales que dejen de usar la tecnología de Anthropic.
Y remató la polémica con un mensaje en la plataforma Truth Social, escrito todo en mayúsculas: “Estados Unidos nunca permitirá que una empresa de izquierda radical y woke dicte cómo combate y gana guerras nuestro gran ejército”.
En su vocabulario y el de sus seguidores, ‘woke‘ es el insulto máximo, una etiqueta despectiva para describir ideas o políticas progresistas sobre identidad, desigualdad o justicia social.
Quizás el calificativo es adecuado: Anthropic, efectivamente, se empeña en ser una empresa ‘virtuosa’.
Líneas rojas
Anthropic tiene una historia sui géneris.
Fue fundada en 2021 por exinvestigadores de OpenAI con la premisa explícita de que la inteligencia artificial representa uno de los mayores riesgos existenciales para la humanidad y que, precisamente por eso, es mejor que quienes la desarrollen sean personas comprometidas con hacerlo de manera segura.
Dario Amodei, el cofundador y director ejecutivo de Anthropic, fue vicepresidente de investigación en OpenAI.
En julio de 2025, firmó un contrato de US$200 millones con el Departamento de Defensa, el primero de su clase: un laboratorio de IA que integra sus modelos en flujos de trabajo de misiones en redes clasificadas.
El CEO de Anthropic, Dario Amodei, lo justificó en un ensayo publicado en enero de este año.
Anthropic, escribió, apoyaba a las fuerzas militares y de inteligencia estadounidenses porque “la única manera de responder a las amenazas autocráticas es igualarlas y superarlas militarmente”.
Y añadió: “La formulación a la que he llegado es que debemos usar la IA para la defensa nacional en todas las formas, excepto en aquellas que nos harían más parecidos a nuestros adversarios autocráticos”.
En concordancia, el contrato con el Pentágono trazaba dos “líneas rojas”: Claude no podría usarse para vigilancia masiva doméstica ni para armas completamente autónomas.
Esos límites infranqueables no son arbitrarios; se sustentan en un documento de la empresa que funciona como su “alma”.
Su objetivo declarado es “evitar catástrofes a gran escala”, incluyendo la posibilidad de que la IA sea usada por un grupo humano para “tomar el poder de manera ilegítima y no colaborativa”.
Amodei también argumentó ante el Pentágono que “los sistemas de IA de vanguardia simplemente no son lo suficientemente confiables como para impulsar armas totalmente autónomas”.
En sentido estricto, no hablamos de armas que decidan por sí solas a quién matar; en este contexto, “autonomía” significa que un sistema pueda cumplir ciertos objetivos por su cuenta -o con mínima supervisión humana- en entornos complejos.
Pero sí existen sistemas automatizados que ayudan a tomar decisiones sobre ataques. Y los expertos en inteligencia artificial advierten de un problema conocido como “sesgo de automatización”: cuando las reglas de uso son vagas, los humanos tendemos a confiar en las recomendaciones de la máquina más de lo que deberíamos.
La IA no reemplaza el juicio humano de golpe: lo va erosionando poco a poco, hasta que el operador deja de cuestionarla.
En una situación tensa, si el sistema -que sabes que analizó una cantidad inmensa de información- señala en la pantalla unos pocos píxeles como un objetivo urgente, es fácil aceptar su recomendación sin dudar lo suficiente.
O si un sistema de reconocimiento facial señala a alguien en medio de la multitud, es probable que un agente de seguridad confíe en el resultado y proceda al arresto.
Hay precedentes concretos: en múltiples ocasiones documentadas, varios departamentos de policía en EE.UU. terminaron arrestando personas equivocadas.
Eso resuena con la otra línea roja que enfureció al gobierno de Trump, la de la vigilancia masiva, que toca la vida cotidiana de personas que no están en ninguna zona de guerra.
Cabe anotar que Anthropic se opuso específicamente a la vigilancia masiva de ciudadanos estadounidenses. Su postura no es universalista. Pero el principio que la sustenta sí tiene un alcance más amplio.
Y cobra urgencia porque, en paralelo a este conflicto, el gobierno estadounidense anunció planes de usar IA a través de Palantir para apoyar las operaciones de ICE -la agencia de inmigración- rastreando ubicaciones en tiempo real e historial financiero de personas indocumentadas.
La vigilancia masiva, en distintos grados y sobre distintas poblaciones, ya existe. La pregunta ya no es si ocurre, sino cuántos controles quedan sobre cómo se usa.
En ese contexto, las “líneas rojas” de Anthropic no son solo filosofía corporativa: son, por ahora, uno de los pocos frenos concretos que existen.
El problema es que las restricciones son tan sólidas como el mecanismo que las hace cumplir.
Y cuando el Pentágono rechazó esos límites y exigió acceso irrestricto, Anthropic se encontró sola sosteniendo su postura, sin un marco legal que la respaldara, sin regulación internacional que la protegiera, con solo sus cláusulas contractuales como escudo.
¿Qué es “legal”?
La reticencia del Departamento de Defensa a que una empresa privada le imponga límites es, para muchos, justificada.
Aunque las operaciones militares recientes en ciudades estadounidenses, Venezuela e Irán se llevaron a cabo con una mínima consulta al Congreso, el uso de la IA es tan crítico que debe estar regulado por leyes aprobadas por representantes elegidos democráticamente, opinan algunos.
Desafortunadamente, el poder legislativo no ha legislado al respecto.
Así, el hecho de que el Pentágono exija la libertad de usar a Claude para “todos los usos legales” suena razonable hasta que se pregunta qué es, exactamente, legal en este ámbito.
No existe una definición consensuada en el derecho internacional sobre qué constituye un arma letal autónoma.
El derecho internacional humanitario -las reglas que rigen los conflictos armados desde los Convenios de Ginebra- fue construido en torno a decisiones humanas: un soldado que aprieta un gatillo, un comandante que da una orden.
Esos marcos no contemplan sistemas que detectan, seleccionan y eliminan objetivos con mínima intervención humana directa o sin ella.
Es lo que los expertos llaman “vacío de responsabilidad”: una deficiencia crítica en la que los marcos legales existentes no logran determinar quién responde cuando un sistema autónomo comete una infracción.
Si un dron con IA mata a civiles, ¿quién responde? ¿El programador? ¿El comandante? ¿La empresa que fabricó el sistema?
El derecho internacional no tiene una respuesta clara. Y en ausencia de esa respuesta, “uso legal” significa, en la práctica, lo que cada Estado decida que significa.
Peter Hegseth, el secretario de Guerra de EE.UU. (oficialmente el secretario de Defensa) es un presentador de televisión, escritor y oficial de la Guardia Nacional del Ejército estadounidense.
En este contexto, surge una pregunta delicada: ¿llega esta discusión a tiempo? La respuesta quizás es: a tiempo para ser preventiva, no; a tiempo para ser útil, todavía sí.
El debate formal sobre las armas autónomas comenzó en 2013. Once años después, el resultado son guías voluntarias.
En 2024, durante una conferencia internacional en Viena, el ministro de Exteriores de Austria urgió a avanzar con una frase inquietante: “Este es el momento Oppenheimer de nuestra generación”.
Aludía al momento en el que la humanidad tomó conciencia del poder destructivo de la bomba atómica: como entonces, la tecnología ya existe y ahora toca decidir cómo controlarla.
Solo que, a diferencia de las armas nucleares -caras, escasas y con una firma inequívoca- los sistemas autónomos son baratos, masificables y difíciles de atribuir. Por lo tanto, son estructuralmente más difíciles de controlar mediante tratados.
Ese mismo año, la Asamblea General de la ONU aprobó una resolución sobre armas autónomas con 166 votos a favor. Solo tres países votaron en contra: Rusia, Corea del Norte y Bielorrusia.
Hay un consenso moral casi universal. Lo que no hay es un tratado vinculante ni mecanismos de cumplimiento, algo que el Secretario General de la ONU pidió para 2026.
Algunos expertos, sin embargo, temen que, como con otras armas, ese tratado solo llegue después de una catástrofe.
La lógica de la velocidad
Mientras los abogados y los diplomáticos debaten, los ingenieros construyen. Y lo que construyen ya está siendo usado.
El general estadounidense Stanley McChrystal, excomandante de las fuerzas de EE.UU. y la OTAN en Afganistán, lo resumió una vez con crudeza: nunca antes en la historia alguien había podido ver, decidir y matar a una persona al otro lado del mundo en cuestión de minutos.
Esa frase ya requiere actualización.
La cuestión ya no es solo ver, decidir y matar, sino cuánto de esa decisión estamos dispuestos a delegarle a una máquina.
Esa transición ya se está probando en el campo de batalla. En Ucrania, en diciembre de 2024, las fuerzas del país llevaron a cabo la primera operación completamente no tripulada cerca de Járkiv: decenas de vehículos terrestres autónomos y drones atacaron posiciones rusas sin soldados en el terreno.
La lógica táctica es iluminadora. Los operadores lanzan los drones y vehículos autónomos sabiendo que la comunicación con ellos será bloqueada en minutos. El éxito depende de cuán bien estén programados para actuar solos cuando eso ocurra.
Navegan de forma autónoma, evaden interferencias electrónicas y continúan la misión incluso sin supervisión humana.
No es un detalle menor: en ese frente, los drones ya provocan entre el 70% y el 80 % de las bajas, según estimaciones de inteligencia europeas.
Apenas Anthopic perdió el contrato, su rival Open AI lo tomó… y no era la única esperando entre bambalinas.
En la región del Golfo la tendencia apunta en la misma dirección.
El almirante estadounidense Brad Cooper, jefe del Comando Central de EE.UU., reconoció que la inteligencia artificial es una herramienta clave para identificar objetivos, al permitir “tamizar vastas cantidades de datos en segundos para que nuestros líderes puedan tomar decisiones más inteligentes más rápido que el enemigo”.
Más rápido que el enemigo. Esa frase contiene toda la lógica que hace tan difícil frenar este proceso. En un contexto competitivo, quien se detiene a revisar pierde. La presión estructural empuja siempre hacia menos supervisión humana, no hacia más.
Tecnología divina
La historia tiene un desenlace paradójico. Dario Amodei declaró, refiriéndose a las exigencias del Pentágono: “No podemos, en conciencia, acceder a su solicitud”. Anthropic perdió el contrato.
Horas después del anuncio, OpenAI llegó un acuerdo con el Departamento de Defensa.
Y entonces ocurrió algo inesperado.
El día después de que el Pentágono anunciara el nuevo acuerdo, la aplicación de Claude superó a ChatGPT de OpenAI en el App Store de Apple por primera vez en su historia.
Esa semana, más de un millón de personas se registraron cada día en Claude, llevándola al primer puesto en más de 20 países. Las ventas de la empresa se dispararon entre el público general.
Hay más. Dos coaliciones de trabajadores de Amazon, Google, Microsoft y OpenAI les pidieron públicamente a sus empresas que siguieran el ejemplo de Anthropic.
Decenas de científicos e investigadores de compañías rivales firmaron un amicus brief en apoyo a Anthropic.
Un general retirado de la Fuerza Aérea, que estuvo al frente del Proyecto Maven -el polémico programa de IA para drones que en 2018 provocó protestas masivas de empleados de Google hasta que la empresa abandonó el contrato- escribió en redes sociales que, aunque se esperaría que apoyara al Pentágono, simpatizaba más con la postura de Anthropic.
Y quizás igual de importante: Anthropic consolidó el apoyo de sus propios ingenieros, algunos de los profesionales más cotizados de Silicon Valley, en uno de los mercados de talento más competitivos del planeta, donde los contratos para atraer o retener a estas personas pueden valer decenas de millones de dólares.
No todos en ese mundo se sienten cómodos construyendo tecnología para matar. Anthropic, al trazar sus líneas, les dijo que trabajar allí no requería ignorar esa incomodidad.
En un mundo en el que la IA puede facilitar la captura de alguien al otro lado del mundo y nadie tiene claro cómo juzgar esas acciones, una empresa privada en San Francisco se convirtió en uno de los pocos actores dispuestos a poner límites.
Aun así, no podemos depender de los escrúpulos de una firma de Silicon Valley.
Seguimos lidiando con lo que el biólogo Edward O. Wilson definió como “el verdadero problema de la humanidad”.
“Tenemos emociones paleolíticas, instituciones medievales y tecnología casi divina”.
Haz clic aquí para leer más historias de BBC News Mundo.
Suscríbete aquí a nuestro nuevo newsletter para recibir cada viernes una selección de nuestro mejor contenido de la semana.
También puedes seguirnos en YouTube, Instagram, TikTok, X, Facebook y en nuestro nuevo canal de WhatsApp, donde encontrarás noticias de última hora y nuestro mejor contenido.
Y recuerda que puedes recibir notificaciones en nuestra app. Descarga la última versión y actívalas.
Cada cosa que dices, desde la elección de palabras hasta una coma de más, afectará la respuesta de la IA
Cuando un grupo de investigadores decidió comprobar si el “pensamiento positivo” aumentaba la precisión de los chatbots de inteligencia artificial (IA), obtuvieron resultados sorprendentes.
Al formular preguntas a varios chatbots, intentaron llamarlos “inteligentes”, los animaron a pensar con cuidado e incluso terminaron sus preguntas con comentarios como: “¡Esto será divertido!”.
Nada de esto tuvo un impacto significativo, pero hubo una técnica que se destacó. Cuando hicieron que una IA fingiera estar en la saga Star Trek, mejoró en matemáticas básicas.
La gente tiene todo tipo de estrategias extrañas para obtener mejores respuestas de los grandes modelos de lenguaje (LLM), la tecnología de IA que sustenta herramientas como ChatGPT.
Algunos juran que la IA funciona mejor si se la amenaza, otros creen que los chatbots son más cooperativos si se es educado y hay quienes piden a los robots que se hagan pasar por expertos en el tema que estén abordando.
La lista continúa. Forma parte de la mitología en torno a la “ingeniería de indicaciones” o la “ingeniería de contexto”, diferentes formas de construir instrucciones para que la IA ofrezca mejores resultados.
La cuestión es la siguiente: los expertos me dicen que muchos de los conocimientos generalizados al respecto simplemente no funcionan. En algunos casos, incluso podrían ser peligrosos. Pero la forma en que se le habla a una IA sí importa y algunas técnicas realmente marcan la diferencia.
“Mucha gente cree que existe un conjunto mágico de palabras que permiten a los LLM resolver un problema”, afirma Jules White, profesor de informática que estudia IA generativa en la Universidad de Vanderbilt (EE.UU.). “Pero no se trata de la elección de palabras, sino de cómo se expresa fundamentalmente lo que se intenta hacer”.
¿Cuidar los modales?
El año pasado un usuario de la red social X publicó un tuit que decía: “Me pregunto cuánto dinero ha perdido OpenAI en electricidad por los mensajes de ‘por favor’ y ‘gracias’ de los usuarios”.
Sam Altman, director ejecutivo de OpenAI, empresa creadora de ChatGPT, respondió: “Decenas de millones de dólares bien gastados”, dijo. “Nunca se sabe”.
La mayoría de la gente interpreta la última línea como una referencia descarada a la idea de un posible apocalipsis de la IA, aunque es difícil saber con qué seriedad tomar esa cifra de “decenas de millones de dólares”. Pero la cortesía también es una cuestión práctica.
Los chatbots LLM funcionan dividiendo tus palabras en pequeños fragmentos llamados “tokens”, antes de analizarlos mediante estadísticas para generar una respuesta adecuada.
Esto significa que cada cosa que dices, desde la elección de palabras hasta una coma de más, afectará la respuesta de la IA. El problema es que es extremadamente difícil de predecir.
Se han realizado numerosas investigaciones buscando patrones en pequeños cambios en las indicaciones de la IA, pero gran parte de la evidencia es contradictoria y no concluyente.
Por ejemplo, un estudio de 2024 descubrió que los chatbots LLM daban respuestas mejores y más precisas cuando se preguntaba con cortesía en lugar de simplemente dar órdenes.
Aún más extraño, existían diferencias culturales. En comparación con el chino y el inglés, los chatbots que hablaban japonés obtuvieron un rendimiento ligeramente inferior al excederse en la cortesía.
Pero, en general, no se ha investigado lo suficiente sobre este tema para llegar a conclusiones sólidas. Además, las empresas de IA actualizan constantemente sus chatbots, lo que significa que las investigaciones pueden quedar obsoletas.
Los expertos afirman que los modelos de IA han mejorado drásticamente en tan solo unos años, lo que ha convertido técnicas como la adulación, la cortesía, los insultos o las amenazas en una pérdida de tiempo si el objetivo es que la IA sea más precisa.
Según expertos, los modelos de IA más recientes que se encuentran en cualquier producto convencional, como ChatGPT, Gemini o Claude, son mejores a la hora de captar las partes más importantes de la instrucción.
Probablemente no se dejarán influir por estos pequeños cambios en el lenguaje, al menos no de una forma consistente que se pueda aprovechar.
Esto es inquietante a su manera. Las empresas suelen diseñar IA para que se comporten como personas, por lo que es lógico que a veces parezcan tener estados de ánimo o personalidades que se pueden controlar.
Pero no te dejes engañar. Las herramientas de IA son imitadores, no seres vivos. Simplemente simulan el comportamiento humano.
Si quieres mejores respuestas, deja de tratar a la IA como a una persona y empieza a tratarla como una herramienta.
Cómo hablar con tu chatbot
La IA presenta problemas muy reales, desde cuestiones éticas hasta su impacto ambiental. Algunas personas se niegan a interactuar con ella por completo.
Pero si vas a usar un LLM, aprender a obtener lo que quieres de forma más rápida y eficiente será mejor para ti y, probablemente, para la energía que consumes en el proceso.
Estos seis consejos te ayudarán a empezar.
Si quieres mejores respuestas, deja de tratar a la IA como a una persona y empieza a tratarla como una herramienta.
1. Solicita múltiples opciones
“Lo primero que les digo a las personas es que no pidan una sola respuesta, sino tres o cinco”, dice White.
Si necesitas ayuda con un texto, por ejemplo, dile a la IA que te dé múltiples opciones que varíen de forma significativa. “Esto obliga al ser humano a reflexionar y a pensar en lo que le gusta y por qué”, explica.
2. Da ejemplos
Proporciona a la IA una muestra siempre que sea posible. “Por ejemplo, veo gente que le pide a un LLM que escriba un correo electrónico y luego se frustra porque piensa: ‘Eso no me suena para nada’”, dice White.
El impulso natural es responder con una lista de instrucciones, como “haz esto” y “no hagas aquello”. White afirma que es mucho más efectivo decir: “Aquí tienes 10 correos electrónicos que he enviado antes. Usa mi estilo de escritura”.
3. Solicita una entrevista
“Supongamos que quieres generar una descripción de puesto. Dile a la IA: ‘Quiero que me hagas preguntas, una a una, hasta que hayas recopilado suficiente información para escribir una oferta de trabajo convincente’”, explica White.
“Al hacerlo pregunta por pregunta, puede adaptarse a tus respuestas”.
El impulso natural es dar a la IA una lista de instrucciones (“haz esto” y “no hagas aquello”), pero es mejor dar ejemplos.
4. Cuidado con los juegos de rol
“Se solía pensar que si le decías a la IA que era profesor de matemáticas, por ejemplo, tendría mayor precisión al responder preguntas de matemáticas”, afirma Sander Schulhoff, emprendedor e investigador que ayudó a popularizar la idea de la ingeniería rápida.
Sin embargo, cuando se busca información o se hacen preguntas con una sola respuesta correcta, Schulhoff y otros afirman que los juegos de rol pueden reducir la precisión de los modelos de IA.
“Eso realmente puede ser peligroso”, dice Rick Battle, ingeniero de aprendizaje automático aplicado en Broadcom y coautor del estudio de “Viaje a las estrellas”.
“En realidad, estás fomentando la alucinación porque le estás diciendo que es un experto y que debería confiar en su conocimiento paramétrico interno”.
En esencia, esto puede hacer que la IA actúe con demasiada confianza.
Pero para tareas muy abiertas sin una respuesta única, el juego de roles es efectivo. Piensa en consejos, lluvia de ideas y resolución creativa o exploratoria de problemas.
O si te ponen nervioso las entrevistas de trabajo, pedirle a un chatbot que imite a un gerente de contratación podría ser una buena práctica.
Si estás nervioso por una entrevistas de trabajo, pedirle a un chatbot que imite a un gerente de contratación podría ser una buena práctica.
5. Mantente neutral
“No guíes al testigo”, dice Battle. Si intentas decidir entre dos autos, no digas que te inclinas por el Toyota. “De lo contrario, esa es la respuesta que probablemente obtendrás”.
6. Por favor y gracias
Según una encuesta del Pew Research Center de 2019, más de la mitad de los estadounidenses dicen “por favor” cuando hablan con sus asistentes inteligentes.
Parece que esta tendencia continúa. Una encuesta realizada en 2025 por la editorial Future reveló que el 70% de las personas son educadas con la IA cuando la usan. La mayoría afirmó hacerlo porque es lo correcto, aunque el 12% sostuvo que era para protegerse en caso de rebeliones de robots.
La cortesía puede no protegerte de robots enfadados ni hacer que los LLM sean más precisos, pero hay otras razones para seguir haciéndolo.
“Para mí, lo más importante es que decir ‘por favor’ y ‘gracias’ puede hacerte sentir más cómodo interactuando con la IA”, afirma Schulhoff. “No mejora el rendimiento del modelo, pero si te ayuda a usarlo más porque te sientes más cómodo, entonces es útil”.
También hay que considerar la sensibilidad de tu propia naturaleza humana. El filósofo Immanuel Kant argumentó que una razón por la que no se debe ser cruel con los animales es que también es perjudicial para uno mismo.
En esencia, ser hostil con cualquier cosa te convierte en una persona más cruel. No puedes herir los sentimientos de una IA porque no los tiene, pero quizá deberías ser amable de todos modos. Es un hábito que podría beneficiar otros aspectos de tu vida.
*Puedes leer la versión original en inglés de este artículo de BBC Future aquí.
Haz clic aquí para leer más historias de BBC News Mundo.
Suscríbete aquí a nuestro nuevo newsletter para recibir cada viernes una selección de nuestro mejor contenido de la semana.