El cáncer de Yvonne Cook fue detectado durante la investigación.
La detección del cáncer de mama puede mejorarse en más de un 10% con el uso de una herramienta de inteligencia artificial, según los resultados de un nuevo estudio.
La evaluación fue liderada por la Universidad de Aberdeen, Escocia, bajo un proyecto del Servicio Nacional de Salud.
El equipo evaluó cómo el software de IA podría utilizarse para apoyar al personal sanitario en las mamografías de rutina de más de 10.000 mujeres, quienes además podrían recibir los resultados con mayor rapidez.
Yvonne Cook, residente de Aberdeen de 60 años participó en la investigación con IA, y gracias a la herramienta se le pudo detectar y tratar el cáncer de mama. “Me siento increíblemente afortunada”, declaró.
Los hallazgos del estudio ahora se ampliarán como parte de un ensayo más extenso que analizará el uso de la IA en las mamografías en centros de todo Reino Unido.
La herramienta de IA, llamada Mia, fue desarrollada por la empresa de tecnología médica Kheiron.
Puede detectar posibles áreas pequeñas y difíciles de observar en las mamografías que podrían pasar desapercibidas para el ojo humano.
El estudio sobre la detección del cáncer de mama, publicado en la revista Nature Cancer, reveló que podría aumentar la detección en un 10,4%.
También se observó que podría reducir la carga de trabajo del personal y acortar el tiempo de notificación a las mujeres afectadas.
El equipo de investigación calificó los hallazgos de “enormemente significativos”, ya que la detección temprana permite un tratamiento más precoz y, por consiguiente, una mayor probabilidad de éxito del tratamiento.
La herramienta de IA busca posibles áreas de preocupación en las mamografías.
Yvonne acudió a lo que pensó que sería una mamografía de rutina en 2023.
En la sala de espera, vio un cartel que explicaba que se estaba llevando a cabo un proyecto con inteligencia artificial (IA) para ayudar en la revisión de las mamografías, y que la participación era opcional.
“Ni por un segundo se me ocurrió no participar”, dijo. “Creo que decía que la IA se usaría como parte del proyecto de investigación para revisar la mamografía, y pensé: ¿por qué no?”.
Poco después, recibió una carta pidiendo someterse a pruebas adicionales.
“Supongo que no querían alarmar a la gente innecesariamente. La carta decía que querían hacer una mamografía de seguimiento, posiblemente debido a que el resultado inicial no era del todo claro”.
“Cuando llegué a la cita, me dijeron que era la IA la que había detectado algo”.
“Me hicieron una tomografía y el médico especialista confirmó que el diagnóstico de la IA era correcto: había un pequeño tumor de grado 2, demasiado pequeño para ser detectado a simple vista”.
“El cáncer podría haberse extendido”
Añadió: “Me sentí increíblemente afortunada de formar parte del programa de investigación y de que se hubiera detectado en esta fase tan temprana”.
A Yvonne le recetaron inmediatamente medicamentos para inhibir el crecimiento del tumor, seguidos de una cirugía.
“Si la IA no hubiera detectado el pequeño tumor en ese momento, quizás lo habrían descubierto en mi siguiente mamografía rutinaria tres años después, o yo lo hubiera detectado cuando ya era lo suficientemente grande como para poder palparlo», explicó.
“De haber sido así, probablemente la cirugía habría sido más invasiva”.
“El cáncer podría haberse extendido, podría haber requerido quimioterapia y una recuperación mucho más larga, con un mayor impacto en mi vida”.
El profesor Gerald Lip, director clínico del programa de detección precoz de cáncer de mama en el noreste de Escocia, afirmó que los resultados demuestran que la IA podría “apoyar eficazmente” los servicios al aumentar la detección del cáncer y reducir la carga de trabajo.
“En definitiva, sin la IA, los médicos no habrían detectado estos cánceres tan pronto”, declaró.
“La integración de la IA en la práctica clínica es uno de los retos operativos de la próxima década”.
“Nuestros hallazgos contribuirán al debate sobre el uso de la IA en la atención sanitaria”.
Haz clic aquí para leer más historias de BBC News Mundo.
Suscríbete aquí a nuestro nuevo newsletter para recibir cada viernes una selección de nuestro mejor contenido de la semana.
Familiares de víctimas junto a la abogada de la parte demandante, Laura Marquez-Garrett (centro), al enterarse del histórico veredicto.
Un jurado en Los Ángeles emitió un veredicto condenatorio para dos de las plataformas digitales más populares del mundo, Instagram y YouTube.
La justicia dictaminó que dichas aplicaciones son adictivas, que fueron diseñadas deliberadamente de ese modo y que sus propietarios han sido negligentes en la protección de los niños que las han utilizado.
Es un momento sombrío para Silicon Valley y las implicaciones son globales.
Los gigantes tecnológicos Meta y Google deben pagar US$6 millones en daños y perjuicios a una joven conocida como Kaley, la víctima en el centro del caso, que asegura que las plataformas la dejaron con dismorfia corporal, depresión y pensamientos suicidas.
Ambas empresas tienen la intención de apelar. Meta afirma que una sola aplicación no puede ser la única responsable de una crisis de salud mental adolescente. Google, por su parte, dice que YouTube no es una red social.
Por ahora, el fallo implica que “la era de la impunidad ha terminado”, según Mary Franks, profesora de derecho de la Universidad George Washington.
Resulta difícil exagerar hasta qué punto este veredicto judicial supone un punto de inflexión para las redes sociales.
Pase lo que pase después –y sin duda habrá apelaciones y más procesos legales–, esto va a redefinir el panorama.
Incluso podría ser el principio del fin de la era de las redes sociales tal y como las conocemos.
¿Momento “tabaco”?
Puede que los doomscrollers del mundo –como se les llama en inglés a los usuarios de plataformas que navegan incansablemente el contenido en las redes– no se hayan sorprendido por el veredicto, pero las empresas tecnológicas posiblemente sí.
Meta y Google pagaron unos honorarios legales exorbitantes para defenderse en este asunto. Este caso y otros similares son de una enorme importancia para ellos.
Las otras dos empresas involucradas en el juicio, TikTok y Snap (propietaria de Snapchat), llegaron a un acuerdo antes de que el caso pasara a los tribunales. En el ámbito tecnológico se rumoreaba que no podían hacer frente a la batalla legal.
Como editora de tecnología fui invitada a presentaciones impecables sobre todas las herramientas que las redes sociales ofrecen principalmente a los padres para proteger a los niños.
Pero el tribunal dictaminó que sus medidas no eran suficientes.
Según Arturo Bejar, un exempleado de Instagram, hace varios años él le advirtió al CEO de Meta, Mark Zuckerberg, de los peligros que la plataforma representaba para los niños.
“Pasó de ser un producto que usabas a un producto que te usa a ti”, dijo este jueves en el programa Today de BBC Radio 4. Meta niega sus afirmaciones.
Algunos expertos han descrito el veredicto como el “momento tabaco” de las grandes tecnológicas. Y ya sabemos el enorme impacto que tuvieron las sentencias por adicción y daños a la salud en la industria de los cigarrillos, aunque no hayan generado que la gente dejara de fumar por completo.
¿Podría empezar a haber advertencias de salud en las pantallas? ¿Se restringirán los espacios de publicidad y patrocinio?
Efectos sobre las aplicaciones
En la actualidad, las empresas tecnológicas están amparadas legalmente en Estados Unidos por una cláusula conocida como Sección 230, que las protege de la responsabilidad por el contenido que se publica en ellas.
Otros tipos de empresas de medios de comunicación no tienen este beneficio. A menudo se dice que la industria tecnológica no podría sobrevivir sin ella.
No obstante, el escepticismo en torno a este escudo podría estar aumentando, dado que el Comité de Comercio del Senado realizó una audiencia el miércoles para debatir el asunto.
Los líderes tecnológicos disfrutan de una relación en general buena con el presidente de Estados Unidos, Donald Trump, quien ha defendido el sector. Trump todavía no ha saltado a su defensa.
Otra opción es que las empresas se vean obligadas a eliminar todas las funcionalidades diseñadas para mantener a la gente en sus plataformas.
Pero la interacción es el elemento vital de las grandes tecnológicas.
La interacción es el elemento vital para las aplicaciones.
Elimine todas las técnicas –el scrolling infinito, las recomendaciones algorítmicas, la reproducción automática– y se encontrará con una experiencia en redes sociales muy diferente y, cabe decir, limitada.
El éxito de las grandes plataformas reside en su afluencia: mantener a un gran número de personas conectadas el mayor tiempo posible y haciendo que regresen con la mayor frecuencia posible con el fin de poder bombardearlas con la mayor cantidad de anuncios posible.
Así es como estas empresas generan ingresos.
En varios territorios, incluido Reino Unido, los niños están por fuera de esta maquinaria publicitaria, aunque esto solo ha sido así desde que intervinieron los organismos reguladores.
Sin embargo, los niños de hoy son los adultos del mañana y el escenario ideal para las empresas tecnológicas es que cumplan los 18 años siendo ya usuarios consolidados.
A menudo se hace referencia a Facebook, la red social original de Meta, en tono de broma, como la “plataforma de los boomers“. Pero las cifras de 2025 sugieren que casi la mitad de sus usuarios a nivel mundial tienen entre 18 y 35 años.
Próximos pasos
La victoria judicial de Kaley constituye la segunda derrota de las grandes tecnológicas en una serie de casos similares en Estados Unidos que tendrán su veredicto este año. Y vendrán más.
“Este veredicto histórico, junto con muchas otras demandas similares contra empresas de redes sociales, marcan un cambio en la forma en que los tribunales ven el diseño de las plataformas como un conjunto de opciones que pueden tener consecuencias legales y sociales reales”, dice el abogado de la Universidad de Sydney, Rob Nicholls.
“Abre la puerta a desafíos más amplios contra las redes sociales y otros sistemas tecnológicos diseñados para maximizar el compromiso a expensas del bienestar del usuario”, agrega.
Australia, donde vive Nicholls, ha hecho eso. En diciembre bloqueó a los menores de 16 años de las plataformas sociales más grandes. Reino Unido y otros países están considerando lo mismo. Por eso, este veredicto añade peso a los argumentos a favor.
Para algunos padres que ya han tenido problemas con ello, prohibir las plataformas a los niños es una obviedad. “Solo hazlo ahora”, dijo afligida la madre británica Ellen Roome.
Roome ha estado haciendo campaña por cambios en las redes sociales después de la muerte de su hijo de 14 años, Jools Sweeney, que cree que fue causada por un desafío onlineque salió mal en 2022.
Sin embargo, el Parlamento británico sigue dividido sobre qué medidas tomar.
¿Llegaremos algún día a mirar atrás este período de la historia y preguntarnos por qué demonios dejamos que los niños circularan libremente en las redes sociales?
Con información adicional de Katy Bailes.
Haz clic aquí para leer más historias de BBC News Mundo.
Suscríbete aquí a nuestro nuevo newsletter para recibir cada viernes una selección de nuestro mejor contenido de la semana.
Un jurado de Los Ángeles ha otorgado una victoria sin precedentes a una joven que demandó a Meta y Google por su adicción a las redes sociales durante la infancia.
Un panel de jurados determinó que Meta y Google construyeron intencionalmente plataformas de redes sociales adictivas que perjudicaron la salud mental de una mujer de 20 años, conocida como Kaley.
Por ello, resolvieron que mujer deberá recibir US$6 millones en total -US$3 millones como compensación y otro tanto en concepto de daños punitivos-, al concluir que Meta y Google “actuaron con malicia, opresión o fraude” en la en la fforma de operar sus plataformas.
El fallo probablemente tendrá implicaciones para cientos de casos similares que actualmente están siguiendo su curso en distintos tribunales de Estados Unidos.
Se espera que Meta asuma el 70% del total de los daños otorgados a Kaley, y Google el 30% restante.
Los abogados de Meta argumentaron que, aunque Kaley había sufrido en su vida, su uso de Instagram, propiedad de Meta, no causó ni contribuyó de manera significativa a esas dificultades.
Tras un juicio que duró unas cinco semanas, el jurado determinó que Meta es responsable del 70% del daño sufrido por la demandante, mientras que YouTube tiene el 30% de la culpa, lo que significa que Meta pagará la mayor parte de la indemnización otorgada a Kaley.
Otro tipo de daños —los daños punitivos— aún está pendiente de ser determinado por el tribunal. Según la ley estatal, esta suma podría alcanzar los US$30 millones.
Meta y Google dijeron por separado que no estaban de acuerdo con el veredicto y que ambos apelarían.
“La salud mental de los adolescentes es profundamente compleja y no puede vincularse a una sola aplicación”, expresó Meta.
“Continuaremos defendiéndonos con vigor, ya que cada caso es diferente, y seguimos confiados en nuestro historial de protección de adolescentes en línea”.
Por su parte, portavoz de Google reaccionó diciendo: “Este caso no entiende YouTube, que es una plataforma de streaming construida de manera responsable, no una red social”.
Los padres y familiares de víctimas estuvieron en el tribunal de Los Ángeles para escuchar el veredicto.
Durante la que fue su primera comparecencia ante un jurado, el presidente y director ejecutivo de Meta, Mark Zuckerberg, se apoyó en la política histórica de la empresa de no permitir usuarios menores de 13 años en ninguna de sus plataformas.
Cuando se le presentaron investigaciones internas y documentos que mostraban que Meta sabía que niños pequeños usaban de hecho sus plataformas, Zuckerberg dijo que “siempre deseó” avanzar más rápido en la identificación de usuarios menores de 13 años.
Insistió en que, con el tiempo, la empresa llegó al “lugar correcto”.
Aunque Google, como propietaria de YouTube, también era demandada en el caso, la mayor parte del juicio se centró en Instagram y Meta.
Snap y TikTok también fueron inicialmente demandadas, pero ambas compañías alcanzaron acuerdos confidenciales con Kaley antes del juicio.
“Máquinas de adicción”
Los abogados de Kaley argumentaron que Meta y YouTube habían construido “máquinas de adicción” y que no cumplieron con su responsabilidad de impedir que los niños accedieran a sus plataformas.
Kaley dijo que empezó a usar YouTube a los 6 años e Instagram a los 9, y que nunca encontró intentos de bloquear su acceso por su edad.
“Dejé de relacionarme con mi familia porque pasaba todo mi tiempo en las redes sociales”, declaró Kaley durante su testimonio.
Kaley contó que tenía 10 años cuando empezó a sentir ansiedad y depresión, trastornos de los que sería diagnosticada años más tarde por una terapeuta.
También comenzó a obsesionarse con su apariencia física casi desde el momento en que empezó a usar la plataforma de niña y empezó a usar filtros de Instagram que cambiaban su aspecto, haciéndole la nariz más pequeña y los ojos más grandes.
Desde entonces, a Kaley le han diagnosticado dismorfia corporal, una condición que hace que las personas se preocupen de manera excesiva por su apariencia física y no se vean a sí mismas como las ven los demás.
Sus abogados argumentaron que funciones de Instagram como el desplazamiento infinito de videos estaban diseñadas para ser adictivas.
Los objetivos de crecimiento de Meta estaban orientados a lograr que los jóvenes usaran sus plataformas, dijeron los abogados de Kaley.
Basándose en el testimonio de expertos y de antiguos ejecutivos de Meta, sostuvieron que la empresa quería atraer usuarios jóvenes porque era más probable que permanecieran en sus plataformas durante períodos más largos.
Cuando los abogados de Kaley le dijeron a Adam Mosseri, jefe de Instagram, que su día de uso más largo de la plataforma había llegado a 16 horas, él negó que eso fuera evidencia de una adicción.
En cambio, calificó como “problemático” que un adolescente pasara la mayor parte del día en Instagram.
Los abogados de Kaley dijeron el miércoles que el veredicto del jurado “envía un mensaje inequívoco de que ninguna empresa está por encima de la responsabilidad cuando se trata de nuestros hijos”.
Los padres de otros niños, que no forman parte de la demanda de Kaley pero afirman que también fueron perjudicados por las redes sociales, estaban fuera del tribunal el miércoles, como lo habían estado muchos días a lo largo del juicio de cinco semanas.
Cuando se dio el veredicto, se vio a padres como Amy Neville celebrando y abrazando a otros padres y simpatizantes que habían estado esperando una decisión.
“Punto de inflexión”
El veredicto de Los Ángeles llega un día después de que un jurado en Nuevo México encontrara a Meta responsable por la manera en que sus plataformas ponían en peligro a los niños y los expusieron a material sexualmente explícito y al contacto con depredadores sexuales.
Mike Proulx, director de investigación de Forrester, dijo que los dos fallos consecutivos marcan un “punto de inflexión” entre las empresas de redes sociales y el público.
En los últimos meses, países como Australia han impuesto restricciones para que los niños dejen de usar o limiten el uso de las redes sociales.
Reino Unido está llevando a cabo actualmente un programa piloto para ver cómo podría funcionar una prohibición de redes sociales para personas menores de 16 años.
Otro caso contra Meta y otras plataformas de redes sociales está listo para comenzar en junio en un tribunal federal de California.
“Durante años se ha ido acumulando un sentir negativo hacia las redes sociales y ahora finalmente ha estallado”, subrayó Proulx.
Haz clic aquí para leer más historias de BBC News Mundo.
Suscríbete aquí a nuestro nuevo newsletter para recibir cada viernes una selección de nuestro mejor contenido de la semana.
Matt Brittin, quien fuera ejecutivo de Google, ha sido confirmado como el nuevo director general de la BBC.
El expresidente de las operaciones de Google en Europa, Medio Oriente y África sustituirá a Tim Davie, quien anunció su dimisión en noviembre tras la polémica por la forma en que el programa Panorama de la BBC editó un discurso del presidente de Estados Unidos, Donald Trump.
El presidente del Consejo de la BBC, Samir Shah, dijo que Brittin, quien dejó Google en 2025 después de 18 años, “aporta a la BBC una profunda experiencia de liderazgo de una organización de alto perfil y muy compleja a través de un proceso de transformación”.
“No puedo esperar empezar este trabajo”, manifestó por su parte Brittin, de 57 años, describiendo el nombramiento como “un momento de verdadero riesgo, pero también de gran oportunidad”.
También afirmó que Reino Unido necesita “una BBC próspera que funcione para todos en un mundo complejo, incierto y en constante cambio”.
Al plantear la que será su agenda, añadió: “La BBC necesita el ritmo y la energía necesarios para estar donde están las historias y donde está la audiencia, para consolidar su alcance, la confianza que genera y su capacidad creativa actual, afrontar los retos con valentía y prosperar como un servicio público apto para el futuro”.
“Reforma radical”
Shah calificó a Brittin como “un líder excepcional” con “las habilidades necesarias para guiar a la organización a través de los múltiples cambios que se están produciendo en el mercado de los medios de comunicación y en el comportamiento de la audiencia”.
El presidente del Consejo también elogió la “pasión de Brittin por la BBC, su comprensión de los desafíos que enfrenta la organización, su compromiso con la independencia y su determinación de mantener la posición de la BBC como uno de los mayores activos nacionales del país”.
El nuevo director general se incorpora en un “momento crítico”, cuando el gobierno está revisando el estatuto real de la BBC bajo el cual opera y recibe financiación, continuó Shah.
“Está claro que se necesita una reforma radical de la BBC, de su modelo de financiación y del marco en el que opera. Lo que está en juego para la BBC y el futuro de la difusión pública nunca ha sido tan importante como ahora”.
Brittin remplazará al director general saliente de la BBC, Tim Davie.
El cargo más alto de la BBC es considerado como uno de los más exigentes de los medios de comunicación británicos.
Durante su mandato como decimoséptimo director general de la BBC, Davie fue responsable de lidiar con una serie de escándalos y crisis en la corporación.
Entre las prioridades de Brittin estará el manejo de una demanda por difamación multimillonaria presentada por el presidente de EE.UU. contra la BBC.
Trump se queja por la forma en que el programa Panorama editó dos secciones de un discurso que pronunció el 6 de enero de 2021, por lo cual la BBC se ha disculpado.
La semana pasada, la corporación instó a un tribunal a desestimar la demanda, alegando que el episodio de Panorama nunca se transmitió en Estados Unidos.
La BBC en una encrucijada
El nuevo director general también llega en un momento crucial para la BBC en otros aspectos.
Continuarán las negociaciones con el gobierno sobre el estatuto de la corporación y el futuro de la licencia que se cobra a los usuarios en Reino Unido y la financiación de la BBC.
El estatuto actual, que establece los términos y propósitos de la existencia de la BBC, se vence en 2027.
El nombramiento de Brittin se produce además en un momento en que la BBC compite con gigantes tecnológicos en el mercado de los medios digitales.
La empresa matriz de Google es propietaria de YouTube, con la que la BBC anunció recientemente un acuerdo histórico para crear contenido a la medida.
Antecedentes tecnológicos: ¿una ventaja?
La editora de medios de la BBC, Katie Razzall, escribió recientemente que la gente dentro de Google “solo tiene cosas buenas que decir sobre Brittin, como un líder inspirador y un gran compañero de equipo”.
Algunos han cuestionado el nombramiento por parte de la BBC de alguien con antecedentes en tecnología en lugar de en el servicio público o en asuntos editoriales tradicionales.
No obstante, Razzall escribió: “Ha sido elegido por la junta directiva de la BBC por su conocimiento íntimo del sector tecnológico. Se espera que impulse la transición digital, por ejemplo, en las noticias. Probablemente también se centrará en transformar e innovar (la herramienta de reproducción audiovisual) BBC iPlayer”.
Peter Barron, exeditor de BBC Newsnight -programa de análisis insigne de la BBC- que trabajó con Brittin en Google, dijo que está “muy motivado por un sentido de servicio público”.
“Le encanta la BBC por la fiabilidad de sus noticias y su creatividad, pero también es muy consciente de su historia como pionera tecnológica”.
“Él quiere que la BBC prospere en un mundo donde muchos de sus principales desafíos están vinculados a la tecnología, ya sea el poder de las plataformas de streaming, la desinformación digital o simplemente la forma en que la gente quiere consumir contenido”.
“Dada su experiencia y sus contactos en el sector tecnológico, así como las relaciones que ha forjado con emisores, la industria periodística, los organismos reguladores y los gobiernos, creo que está muy bien posicionado para afrontar los retos”.
¿Quién es Matt Brittin?
Brittin (segundo a la izq.) formó parte del equipo que ganó una medalla de bronce en el Campeonato Mundial de Remo de 1989.
Nacido en Walton-on-Thames, Surrey, Brittin se graduó de la Universidad de Cambridge, donde también compitió como remero en la tradicional regata entre rivales universitarios de Oxford y Cambridge en tres ocasiones.
También remó en representación de Gran Bretaña y ganó una medalla de bronce en el Campeonato Mundial de Remo de 1989.
Tras abandonar Cambridge, Brittin hizo una maestría en la London Business School y posteriormente se convirtió en director comercial y director de estrategia y digital del diario Trinity Mirror.
Se incorporó a Google en 2007, convirtiéndose en director de operaciones en Reino Unido dos años después, y luego ascendiendo a vicepresidente para el norte y centro de Europa en 2011.
En 2014, se convirtió en presidente de Google en Europa, Medio Oriente y África.
Brittin se reunió con el príncipe William en 2017, cuando el heredero al trono birtánico lanzó un plan de acción para combatir el acoso cibernético.
Tras dejar Google el año pasado, se tomó lo que él mismo describió como “un breve año sabático”.
Hablando sobre cómo ha estado pasando su tiempo libre, escribió en LinkedIn: “Ya me he dejado crecer la barba, me he comprado una barca de remo individual y planeo aprender a bucear de mi hijo cuando se certifique como instructor”.
El año pasado también se convirtió en director no ejecutivo de Guardian Media Group, aunque ahora renunció al cargo.
En enero de 2026 recibió el título honorífico Comendador de la Orden del Imperio Británico (CBE) que otorgó el rey Carlos en el Año Nuevo por sus servicios a la tecnología y las habilidades digitales.
Sobre su relación con la televisión, declaró a la Real Sociedad de Televisión el año pasado: “Mi experiencia viendo la televisión y aprendiendo de ella y de sus valores me ha moldeado más que muchas otras cosas en mi vida”.
“Morecambe y Wise (un veterano dúo cómico) para mí, y en particular (el noticiero) Nine O’Clock News, (el programa satírico) Not The Nine O’Clock News, Thunderbirds, Captain Scarlet y Doctor Who”.
“Muchas personas que trabajan en el sector tecnológico fueron influenciadas por la representación de la ciencia y la tecnología en ese tipo de programas”, agregó.
Interrogado sobre los impuestos de Google
Como parte de su trabajo anterior, Brittin tuvo que comparecer ante comités parlamentarios, tuvo que responder a un duro interrogatorio sobre el pago de impuestos de Google en el Reino Unido.
En 2012 y 2013, defendió a la empresa en acalorados debates con los parlamentarios sobre si pagaba suficientes impuestos.
La disputa dio lugar a la introducción del llamado Impuesto Google, y en 2016 la empresa acordó pagar el equivalente a unos US$174 millones en impuestos atrasados en un acuerdo que fue aclamado como una “victoria” por el gobierno, pero que fue ridiculizado por los críticos.
En otra comparecencia ante los parlamentarios ese mismo año, Brittin fue recibido con incredulidad cuando les dijo que no sabía cuánto le pagaban.
En su nuevo cargo en la BBC, tendrá que someterse a más interrogatorios por parte de las comisiones parlamentarias, algo que Davie ya ha hecho en numerosas ocasiones durante su mandato.
Ahora le quedan dos meses de su año sabático y comenzará su nuevo trabajo el 18 de mayo.
Su salario será de US$755.000 anuales, lo mismo que se le pagaba a su predecesor, y una de sus primeras tareas consistirá en nombrar a un subdirector.
Haz clic aquí para leer más historias de BBC News Mundo.
Suscríbete aquí a nuestro nuevo newsletter para recibir cada viernes una selección de nuestro mejor contenido de la semana.
Se suponía que los audífonos con cable iban a desaparecer. Sin embargo, a medida que las personas buscan una mejor calidad de sonido y una tecnología más sencilla, están experimentando un resurgimiento.
Cuando Apple eliminó las tomas de auriculares de los iPhone en 2016, me cambié de bando. No estaba dispuesto a permitir que una compañía gigante dictara mis hábitos de escucha, así que compré un teléfono Android y me aferré a mis audífonos con cable como si me fuera la vida en ello.
Pero, con el tiempo, mi teléfono exhaló su último suspiro exactamente el mismo mes en el que Google, uno de los últimos bastiones, anunció que también eliminaría el conector para auriculares de sus teléfonos.
Lo sentí como una señal de derrota que me enviaba el universo. Así que regresé al iPhone, arrojé mis auriculares con cable a un cajón y me uní a las hordas del Bluetooth.
Quizás me rendí con demasiada facilidad porque en el último tiempo ha surgido en las sombras un movimiento discreto basado en una verdad controvertida: los auriculares con cable son mejores que los de Bluetooth.
Los auriculares con cable están de vuelta.
Ventas disparadas
Las ventas se han disparado en los últimos meses. A menudo se puede obtener una mejor calidad de sonido por el mismo precio con un par de auriculares con cable, pero tampoco se trata solo de los esnobs del audio.
Los audífonos con cable se han convertido en una auténtica tendencia cultural; un resurgimiento que algunos vinculan con una reacción más amplia en contra de la tecnología.
Ya sea por motivos prácticos, políticos o estéticos, una cosa está clara: los auriculares con cable han vuelto.
“Me he convencido”, dice Aryn Grusin, una trabajadora social de Portland, Oregón, en Estados Unidos, aficionada a los auriculares con cable. Hace unos meses, le pidió prestados a su prometido unos audífonos intrauriculares con cable de los de toda la vida y ya no hubo vuelta atrás.
Los auriculares de cabe suelen ser más sencillos de usar y traer menos problemas.
“Simplemente me resulta reconfortante. Me gusta que le muestre al mundo que estoy escuchando algo”, agrega.
Grusin no está solo. Después de cinco años consecutivos de disminución en las ventas, las compras de auriculares con cable se dispararon en la segunda mitad de 2025, según la firma de análisis Circana, y los ingresos por los auriculares con cable aumentaron un 20% en las primeras seis semanas de 2026.
“Parece que mucha gente se está volviendo casi en contra de la tecnología, debido a lo avanzada que se está volviendo”, dice Grusin. “Creo que hay una mentalidad general de que no nos gusta cómo se siente esto y de que queremos volver al último lugar en el que nos sentimos cómodos”.
Calidad, estilo y simpleza
La calidad del sonido puede ser una gran ventaja en la vida con cables, dice Chris Thomas, editor general del sitio web de reseñas de auriculares SoundGuys.
“Este es el tema que vengo repitiendo desde hace muchos años”, afirma.
Los auriculares inalámbricos han mejorado drásticamente, según Thomas, pero los mejores a menudo provienen de marcas nicho dirigidas a amantes del sonido.
En lo que respecta a los productos convencionales que se encuentran en una tienda de electrónica, asegura que aun así obtendrá una mejor calidad de sonido por su dinero si opta por la mejor opción con cable.
Además, incluso los auriculares de conexión Bluetooth de la más alta gama podrían no ofrecer su máximo rendimiento de audio debido a malas conexiones o problemas de compatibilidad con su dispositivo.
“Con un cable, simplemente lo conectas y funciona”, dice.
Pero la calidad del sonido no es suficiente para explicar la tendencia. De alguna manera, parece que Bluetooth se ha vuelto profundamente poco sexy. Si no me crees a mí, pregúntale a la actriz Zoë Kravitz.
También se han convertido en un accesorio de moda.
“Bluetooth no funciona”, dijo Kravitz en una entrevista reciente, y no son solo auriculares, sino conexiones Bluetooth en general.
De hecho, los auriculares con cable son ahora un accesorio de moda imprescindible en algunos círculos.
Hay una popular cuenta de Instagram sobre el tema llamada Wired It Girls, dedicada a mujeres que se ven elegantes y se las ve cómodas con cables colgando de sus orejas, desde gente común hasta celebridades como Ariana Grande y Charli XCX.
Los auriculares con cable se han vuelto tan omnipresentes entre los ricos y famosos que algunos ven estos enredos de plástico y alambre como un símbolo cultural. Un usuario de redes sociales publicó un tuit viral con fotos de los actores Robert Pattinson y Lily-Rose Depp luciendo auriculares con cable.
“Se está convirtiendo en una cosa de clase”, dijeron. “Usar inalámbrico las 24 horas del día, los 7 días de la semana, me dice que no eres dueño de ninguna tierra”.
Por supuesto, hay algo liberador en la escucha inalámbrica y sin ataduras. Pero las baterías se agotan en el momento más inoportuno. Los pequeños auriculares se pierden. Los dispositivos no se emparejan.
El cable no tiene el problema de las baterías que se consumen.
“La gente dice que es más fácil, pero nunca me parece más fácil”, dice Ailene Doloboff, editora en la industria del cine de Los Ángeles. “Con Bluetooth siempre es un paso más”.
Los auriculares con cable se unen a una lista de tecnologías aparentemente obsoletas que han vuelto a rugir en los últimos años, justo cuando caemos en la próxima era digital.
La gente joven y mayor está adoptando productos retro como DVD, casetes, televisores de tubo antiguos e incluso máquinas de escribir.
En un concierto reciente, vi a un tipo en el público grabando el espectáculo no con un teléfono, sino con una cámara de película de 16mm de la década de 1970.
“No sé por qué, pero todos de manera colectiva pasamos por este cambio. Creo que la presencia de la IA está haciendo que la gente se ponga nerviosa”, dice Grusin.
“Lo cual es irónico, en cierto modo. Me siento incómodo con la tecnología, así que quiero usar una pieza diferente de tecnología. Pero tal vez los auriculares que se enchufan se sientan lo más parecidos a los analógicos que podamos conseguir”.
Cómo conectarlos
¿Pero cómo conectarlos? Ahora puedes comprar auriculares con cable con una conexión USB o Lightning incorporada.
O puedes usar auriculares con el conector tradicional de 3,5 mm a través de un adaptador para el puerto de carga, a menudo llamado “dongle”, una palabra tan indigna que pasé años negándome a probar uno.
Apple eliminó el conector para auriculares de sus teléfonos en 2016 con el lanzamiento del iPhone7, que muchos vieron como el final de la escucha por cable. Pero incluso Apple todavía no ha renunciado a los auriculares con cable.
“Oh, todavía los vendemos”, dijo el director ejecutivo de la compañía, Tim Cook, el hombre que mató la toma de auriculares en los teléfonos, a mi colega de la BBC Zoe Kleinman hace unos años. “La gente todavía los compra”.
Muchos celulares ya no tienen la ficha de entrada al cable, lo que representa un problema para los amantes de los cables.
Pasé por una tienda de Apple de camino a casa desde la oficina para coger un par barato con una conexión USB para mí. Un empleado me dijo que ha estado vendiendo más auriculares con cable que nunca.
Pasé unos días con los cables. Me gustó la sensación. Estar atado a mi dispositivo me hizo sentir un poco más presente con mi escucha, y también caía mejor en mis oídos que los pesados auriculares de Bluetooth.
Pero nuestra relación fue corta. Nunca he perdido un par de auriculares Bluetooth. La funda de mis AirPods es lo suficientemente voluminosa como para que me dé cuenta si no los tengo conmigo.
No es así para los ligeros auriculares con cable. Se me escaparon del bolsillo en algún lugar de las calles de mi barrio. Espero que hayan encontrado un hogar más amoroso.
La comodidad del Bluetooth
Decidido, pensé cambiar a algo mejor me haría ser más cuidadoso. Así que visité una tienda especializada en auriculares en Nueva York llamada Audio 46, escondido tras un escaparate estrecho.
Delaney Czernikowski, que revisa los auriculares para el sitio web de la compañía, me recibió en el mostrador. “Muchas personas están sumándose a la tendencia. Creen que el cable es mejor y quieren probarlo”, dice.
“Pero a veces les preocupa perder la comodidad del Bluetooth. Les digo que el Bluetooth puede ser muy bueno, no tienes por qué perder”.
Czernikowski me dejó probar algunos de los auriculares Bluetooth más elegantes de la tienda, con una calidad de sonido increíble y precios similares. Eran suficientes para hacer babear incluso a los amantes del sonido más religiosos.
Los auriculares inalámbricos pueden resultar más prácticos.
“Pero para ser justos, muchos de los auriculares con cable son mejores y hay mucho más para elegir. Y tienen mejores cualidades que no se ven condicionadas por la necesidad tecnológica del Bluetooth”, dice.
Planeé comprar algo barato. En aproximadamente un minuto, Czernikowski me convenció de probarme un par de auriculares de US$130 de una marca china especializada con un cable grueso, precioso y trenzado.
“No cedas”, dice. Suenan excelente para su precio, pero la BBC no recomienda productos como parte de su compromiso con la imparcialidad. Así que tendrás que hacer tu propia investigación.
Entregué mi tarjeta de crédito, compré un dongle USB para ir con los auriculares y salí a enchufarlos.
Haz clic aquí para leer más historias de BBC News Mundo.
Suscríbete aquí a nuestro nuevo newsletter para recibir cada viernes una selección de nuestro mejor contenido de la semana.
Cuentas falsas que se hacían pasar por Sasha-Jay consiguieron 81.000 seguidores en TikTok y 22.000 en Instagram.
Cada vez que alguien mira fijamente a Sasha-Jay Davies en un supermercado, ella entra en pánico, piensa que la reconocen y que están a punto de confrontarla.
Durante casi cuatro años, la han acusado de ilusionar a hombres, de acordar una cita con ellos y no presentarse, y ha sido acosada por completos desconocidos.
Esto se debe a que robaron fotos de sus redes sociales y alguien las usó para entablar relaciones con hombres y amistades con otras mujeres.
El abogado Yair Cohen, especializado en seguridad en internet, afirmó que quienes se hacen pasar por otros online lo hacen con frecuencia motivados por una baja autoestima y disfrutan del poder que esto les otorga.
“He tenido chicos que se me han acercado en persona, acosándome y acusándome de enviarles mensajes, de ilusionarlos o de quedar con ellos, además de tener conversaciones que nunca tuve”, declaró la británica Sasha-Jay, de 19 años.
“Antes salía mucho, pero ahora casi nunca salgo porque me da miedo qué hombre se me acercará después. Es muy difícil y no se lo desearía ni a mi peor enemigo”.
Hasta ahora, los hombres que se le han acercado han sido amables una vez que les ha explicado la situación, pero le preocupa lo que pueda pasar: “Es aterrador que te confronten por algo que no hiciste y darte cuenta de que alguien está usando tu rostro para manipular a otros”.
Sasha-Jay afirmó que unos 20 hombres y varias mujeres la han contactado en redes sociales, creyendo que la conocen.
Lo más escalofriante es que el ladrón de identidad no solo ha robado sus fotos.
Ha habido publicaciones crueles relacionadas con su difunto padre, incluyendo un certificado falso de cáncer de páncreas, y también han compartido insultos racistas que han afectado su “carácter y reputación”.
También han publicado fotos de cuerpos de otras mujeres con una complexión similar a la de Sasha-Jay.
La publicación generó comentarios de hombres que la hicieron sentir “realmente incómoda” y “violada”.
“Me cuesta entender el nivel de premeditación y malicia que hay detrás de esto”, dijo.
“Lo saben absolutamente todo sobre mí”.
¿Qué es el catfishing?
El catfishing consiste en que alguien crea una identidad falsa en internet con la intención de engañar a otros.
Esto puede deberse a diversos motivos, como extorsionar por dinero, iniciar una relación amorosa o simplemente para su propia satisfacción.
Los catfishers suelen usar fotos robadas, mienten sobre sus vidas y evitan situaciones como las videollamadas, donde podrían ser descubiertos.
La primera vez que Sasha-Jay se enteró de una cuenta falsa fue en 2022, cuando tenía 16 años y acababa de empezar la universidad tras terminar la secundaria.
Cuenta que descubrió que alguien estaba usando sus fotos en TikTok.
Como el perfil era público y se publicaba contenido a diario, rápidamente ganó seguidores.
Sasha-Jay lo denunció ante la policía, pero le dijeron que poco se podía hacer.
“Pensé: ‘Bueno, ojalá se aburran y se lo hagan a otra persona’”, recordó.
Pronto, sin embargo, las fotos comenzaron a aparecer en aplicaciones de citas e Instagram, e incluso se crearon cuentas falsas utilizando imágenes robadas de sus amigos para “hacer que todo pareciera más creíble”.
A pesar de haber configurado sus propias cuentas como privadas hace 18 meses, Sasha-Jay afirmó que el ladrón de identidad continuó usando fotos antiguas e imágenes editadas con inteligencia artificial.
Mark charló con Sophie Kadare sobre sus músicos favoritos y se sorprendió al descubrir que era un perfil falso.
Las fotos se usaron en cuentas con el nombre de Sophie Kadare, y una de las personas engañadas fue Mark (nombre ficticio), de 22 años, en Inglaterra.
En diciembre, empezó a enviarle mensajes a “Sophie” en Instagram tras ver sus vídeos en TikTok.
“Dijo que era fan del Liverpool, así que pensé en seguirla”, contó Mark.
Durante aproximadamente un mes, intercambiaron mensajes y charlaron sobre temas como fútbol, su día a día y viajes.
Entonces, mientras miraba videos en TikTok, Mark se topó con uno en la cuenta real de Sasha-Jay sobre su novio.
“Al principio me quedé un poco impactado”, relató.
“Nunca me había pasado algo así”.
Mark avisó a Sasha-Jay, pero cuando confrontó a “Sophie”, ella lo bloqueó.
“Creo que me escribía para llamar la atención”, aseguró.
Debido a la falta de acción por parte de las plataformas de redes sociales y la policía, Sasha-Jay dice que ha tenido que hacer su propia investigación.
“Se ha apoderado de toda mi vida”
Sasha-Jay se pregunta si alguien que conoce está detrás de todo esto.
Ha denunciado repetidamente las cuentas en redes sociales, pero dice que la persona que se hace pasar por ella bloquea a sus amigos y familiares para impedir que hagan lo mismo.
El hecho de que las cuentas falsas hayan conseguido 81.000 seguidores en TikTok y 22.000 en Instagram también ha complicado la situación aún más.
“Como tienen más seguidores que yo, parecen la persona real”, explicó.
La policía inicialmente le dijo que no se podía hacer nada, pero después de que Sasha-Jay publicara recientemente sobre su experiencia en Facebook, comenzaron a investigar.
Sasha-Jay describió sentirse asustada, ansiosa y avergonzada.
“Supongo que al principio no me molestó mucho, pero no era tan grave como ahora; esta cuenta literalmente se ha apoderado de toda mi vida”, añadió.
“Es como si todo el mundo pensara que soy Sophie; no puedo ser yo misma”.
“Ver cómo alguien se apropia de mi identidad y de mi imagen me ha afectado emocionalmente muchísimo”, aseguró.
A Hen Howard le robaron “muchas” fotos de sus cuentas en redes sociales, lo que la hizo sentir “violada”.
Yair Cohen, uno de los primeros abogados especializados en derecho digital de Reino Unido, representó a Kirat Assi en su histórica demanda civil de 2020 contra la persona que le suplantó la identidad, caso que posteriormente apareció en el documental de Netflix “Sweet Bobby: La pesadilla de una identidad falsa”.
Cohen afirmó que quienes suplantan identidades a menudo conocen a sus víctimas y muchos disfrutan de la confianza que se deposita en ellos gracias a la identidad falsa.
“Suelen disfrutar del poder que ejercen sobre las víctimas, en ambos casos: la persona cuyas fotografías roban y las personas a las que engañan con la identidad falsa”, explicó.
“No tienen que enfrentarse a nada, no tienen que ser ellos mismos. Literalmente, se apropian de la identidad de otra persona y la utilizan para realzar su propia imagen y, a veces, la imagen que proyectan los demás”.
Una vez que comienza el engaño, añadió Cohen, a los perpetradores les resulta muy difícil detenerse.
“Tienen que seguir con el juego hasta el final, por eso casi siempre podemos identificarlos, y porque seguirán cometiendo el delito una y otra vez hasta que los atrapen”, expuso. “No tienen escapatoria”.
Kirat Assi fue víctima de un engaño durante casi nueve años por parte de alguien que se hacía pasar por Bobby, un apuesto cardiólogo; ella relató sus experiencias en un documental de Netflix.
Sobre la experiencia de Sasha-Jay, Cohen comentó que debería haber “muy pocas dificultades para que se considere un delito, al menos de acoso”, señalando que la conducta “claramente tiene la intención de causarle alarma y angustia”.
La policía local declaró que está “investigando un caso de robo de identidad” respecto a Sasha-Jay y que “la víctima está siendo informada durante la investigación”.
Instagram anunció que había eliminado la cuenta falsa de su plataforma.
TikTok confirmó que la cuenta fue eliminada por infringir sus normas comunitarias, que prohíben la suplantación de identidad y el spam, así como el contenido que “viola los derechos de propiedad intelectual de terceros”.
“Destruir reputaciones, relaciones y la salud mental”
Sasha-Jay dijo que compartía su historia con la esperanza de obtener respuestas y también para que la gente sea extremadamente cautelosa en internet.
“Siempre pensé: ‘Oh, esto nunca me pasará a mí’, y ahora me ha pasado”, relató.
“Las redes sociales son poderosas, pero aún no existen suficientes medidas de seguridad para proteger a las personas de la suplantación de identidad a largo plazo y de ataques dirigidos como este”, sostuvo la víctima.
Sasha-Jay comparte su historia con la esperanza de obtener respuestas y para advertir a la gente sobre los peligros de las redes sociales.
Ella quiere que las plataformas de redes sociales implementen la verificación de identidad para las cuentas, y agregó: “Un perfil falso puede parecer inofensivo para algunos, pero puede destruir reputaciones, relaciones y la salud mental”.
Sasha-Jay insta a la gente a “tener cuidado con quién interactúan en internet” y pide a los usuarios que mantengan sus perfiles privados, revisen sus cuentas, denuncien los perfiles falsos de inmediato y protejan su información personal.
“Y lo más importante, entiendan que lo que sucede en internet no se queda en internet, sino que se extiende a la vida real de maneras que pueden ser profundamente dañinas”, afirmó.
“Nadie debería tener que luchar para recuperar su propia identidad ni sentirse inseguro porque alguien más se esconde detrás de una pantalla”, expresó.
Haz clic aquí para leer más historias de BBC News Mundo.
Suscríbete aquí a nuestro nuevo newsletter para recibir cada viernes una selección de nuestro mejor contenido de la semana.
El dueño de OnlyFans —un sitio reconocido por su contenido para adultos, al que se le atribuye haber revolucionado la industria de la pornografía en línea— ha fallecido a los 43 años de edad.
Leonid Radvinsky nació en Ucrania y creció en Chicago (EE.UU.), y en 2018 le compró la compañía a sus dos fundadores, radicados en Reino Unido, según información de OnlyFans.
La popularidad del sitio se disparó durante la pandemia de covid-19, lo que le permitió figurar en la lista anual de multimillonarios de Forbes apenas tres años después de la compra.
Murió “de manera tranquila, después de una larga batalla contra el cáncer”, confirmó OnlyFans en un comunicado en el que pedía privacidad para la familia.
Fuera de vista
Raadvinsky fue un personaje notoriamente alejado de las cámaras y las entrevistas.
La poca información que se tiene de él, se ha recopilado de su sitio web personal, y de su perfil en la red social LinkedIn.
Ahí se definía como un inversionista de capital de riesgo, filántropo y empresario tecnológico con “un interés especial en las plataformas de redes sociales emergentes”.
En su sitio web, se dice que Radvinsky pasó las últimas dos décadas “creando empresas de software y contribuyendo al movimiento de código abierto”.
Nacido en la ciudad portuaria ucraniana de Odesa, la empresa de Radvinsky donó a las iniciativas de ayuda en Ucrania usando criptomonedas, y el valor en términos reales de la donación en 2022 -el último año del que se tiene coinocimiento- ascendió a más de US$1,3 millones, según CoinDesk.
En su sitio, Radvinsky dijo que había donado “una enorme cantidad de tiempo, esfuerzo y dinero a causas sin fines de lucro”, como organizaciones benéficas y proyectos tecnológicos.
Fuera de la programación y la filantropía, su sitio lo describió como “un ávido lector siempre listo para una partida de ajedrez y aspirante a piloto de helicóptero”.
Radvinsky se graduó en Economía en la Universidad Northwestern y, más recientemente, residía en Florida, según su sitio web. Forbes estimó su patrimonio neto en US $4.700 millones.
El año pasado, había estado explorando la posibilidad de vender OnlyFans.
Además de OnlyFans, invirtió en empresas tecnológicas a través de una firma de capital de riesgo con sede en Florida, Leo.com.
Su labor filantrópica incluyó donaciones al Memorial Sloan Kettering Cancer Center, según su sitio web.
OnlyFans
OnlyFans nació como una plataforma en la que las personas podían apoyar directamente a los creadores de contenido.
Fundada en 2016, OnlyFans es una plataforma de redes sociales donde los creadores pueden publicar videos y fotos, y cobrar a sus suscriptores en forma de propinas o mediante una cuota mensual.
Los creadores comparten una amplia variedad de contenidos, que van desde videos de cocina hasta de fitness; sin embargo, la plataforma es más conocida por la pornografía y por la forma en que fomenta la conexión entre creadores y seguidores a través de transmisiones en vivo, mensajes personalizados y solicitudes directas de fotos y videos hechos a medida.
A cambio de alojar dicho material, OnlyFans se queda con una comisión del 20% de todos los pagos realizados.
Según su presentación más reciente ante el registro mercantil de Companies House, en 2024 la empresa generó unos ingresos de US $1.400 millones provenientes de transacciones por un valor superior a los US $9.100 millones y contaba con más de 377 millones de suscriptores.
Asimismo, la compañía informó que, durante ese año, cerca de 4,6 millones de creadores publicaban contenido en el sitio.
Polémicas
El auge en tamaño y popularidad bajo la propiedad de Radvinsky también atrajo el escrutinio de legisladores y reguladores debido a su contenido para adultos.
En 2024, los reguladores británicos iniciaron una investigación para determinar si los menores estaban accediendo a pornografía, una cuestión que la empresa atribuyó, en aquel momento, a un fallo técnico.
Finalmente, la reguladora Ofcom desestimó la investigación, pero le impuso a la firma una multa de aproximadamente US$1,4 millones por no haber respondido con exactitud a sus solicitudes de información sobre las medidas implementadas para verificar la edad de sus usuarios, quienes, en teoría, deben tener 18 años o más.
Varios años antes, la plataforma había sido acusada de no tomar medidas contra el contenido ilegal, incluido el material de abuso sexual infantil.
En medio de una creciente presión y escrutinio respecto a su contenido, OnlyFans anunció en agosto de 2021 sus planes de dejar de permitir material de carácter sexual en la plataforma.
Sin embargo, pocos días después dio un giro radical a dicha propuesta, tras enfrentarse a una intensa reacción adversa por parte de los usuarios y de los artistas de contenido para adultos.
Además, OnlyFans patrocina todo tipo de lanzamientos: desde videojuegos hasta moda.
La empresa también se ha visto envuelta en disputas legales con usuarios; entre ellos algunos que se sintieron estafados al descubrir que las conversaciones que creían mantener con creadores de OnlyFans eran, en realidad, gestionadas por terceros con una remuneración ínfima.
Hasta la fecha, ninguna de esas demandas ha prosperado.
Con reportería adicional de Liv McMahon y Malu Cursino
Haz clic aquí para leer más historias de BBC News Mundo.
Suscríbete aquí a nuestro nuevo newsletter para recibir cada viernes una selección de nuestro mejor contenido de la semana.
Durante siglos, los seres humanos han intentado comprender de dónde vienen los sueños y qué propósito cumplen. Ahora, algunos investigadores del sueño creen que pronto podríamos ser capaces no solo de interpretalos, sino también de moldearlos a voluntad.
Científicos que trabajan en el emergente campo de la “ingeniería de sueños” afirman que, al plantar ideas en la mente mientras nos quedamos dormidos, podría ser posible guiar lo que experimentamos mientras dormimos.
Investigaciones iniciales indican que esta práctica podría ayudar a mejorar el aprendizaje, estimular la creatividad e incluso aliviar traumas.
El escritor y artista Will Dowd, de Braintree, Massachusetts, en Estados Unidos, señala que siente que se ha convertido en un “soñador cuasi profesional”.
Incapaz de leer debido a una enfermedad degenerativa que ha afectado su vista y su movilidad, comenzó a experimentar con una técnica conocida como incubación de sueños.
Consiste en alimentar su mente con breves estímulos de audio mientras se duerme.
“Me preguntaba si podía programar mis sueños con literatura”, dice.
Usando grabaciones de poemas reproducidas mientras se dormía, Dowd descubrió que sus noches se llenaban de imágenes vívidas: se veía atravesando una ciudad misteriosa devastada por una inundación gigante, o corriendo con zorros sobre olas iluminadas por la Luna.
“Casi lo compararía con soñar con combustible de avión”, comenta.
Los sueños se convirtieron en la base para un próximo libro y, quizá más importante para él, le ofrecieron un escape.
“Sentía que había salido a un mundo y luego regresado”.
La ciencia
La incubación de sueños no es algo nuevo.
Las culturas de la antigua Grecia y Tailandia utilizaban templos para buscar orientación a través de los sueños.
Pero el interés moderno por influir en el contenido de los sueños se popularizó a principios de la década de 2000, cuando el profesor Robert Stickgold, de la Universidad de Harvard en Estados Unidos, descubrió que las personas que habían estado jugando al videojuego Tetris a menudo veían formas cayendo mientras se quedaban dormidas; un fenómeno que pasó a conocerse como el efecto Tetris.
“Estábamos eufóricos. Por primera vez habíamos demostrado que es posible influir en el contenido de los sueños”, afirma Stickgold.
Hoy en día, investigadores como el doctor Adam Haar Horowitz -científico cognitivo que trabaja con la Universidad de Harvard y el Instituto Tecnológico de Massachusetts (MIT) en Estados Unidos- están desarrollando tecnologías capaces de guiar los sueños de manera más deliberada.
Según los expertos, la investigación sobre los sueños es un campo que está ganando popularidad.
Un dispositivo que él ayudó a crear, el Dormio, monitorea señales fisiológicas mientras alguien se queda dormido y emite un estímulo verbal -por ejemplo, “recuerda soñar con agua”- justo en el momento en que la persona entra en un estado conocido como hipnagógico.
Es el punto en el que experimentamos flujos de imágenes visuales vívidas mientras nos quedamos dormidos.
Un estudio encontró que más del 70 % de los participantes reportaron haber soñado con un tema específico después de recibir un estímulo para soñar sobre él usando el Dormio.
El interés de Haar Horowitz tiene un origen personal: tras un trauma infantil, su madre le susurraba mensajes tranquilizadores mientras dormía, lo que cambió las pesadillas recurrentes que tenía.
“Empezó a cambiar mis sueños, y superé esas pesadillas sin tener tanto miedo”, cuenta.
Él cree que la ingeniería de sueños abre una nueva frontera científica, y afirma que una vez que se pueda guiar con éxito un sueño, será posible crear grupos de estudio que se puedan monitorizar y comparar de manera científica.
Sanando traumas
Quizás se pueda inmiscuirse en los sueños… pero ¿se debe?
Para algunas personas, los sueños han desempeñado un papel inesperado en el procesamiento del duelo.
Mare Lucas, de California, sufrió años de pesadillas tras la muerte de su hijo adolescente, Zane. Pero después de someterse a una cirugía por cáncer de mama, despertó de la anestesia con una secuencia de sueños vívidos, amorosos y reconfortantes sobre Zane, que parecieron poner fin a las pesadillas que había estado experimentando.
“No he tenido ni una sola pesadilla en dos años y medio”, dice. “Me cambió la vida”.
Su experiencia refleja un área de investigación que actualmente está siendo estudiada por un equipo de la Universidad de Stanford.
La doctora Pilleriin Sikka explica que, aunque la anestesia no es lo mismo que el sueño “normal”, muchos pacientes reportan sueños inusualmente positivos bajo anestesia, los cuales parecen tener fuertes efectos terapéuticos si se logra traer al paciente a un estado de vigilia más lentamente de lo que se hace habitualmente después de la cirugía.
Se espera que esto algún día pueda usarse para ayudar a las personas a manejar condiciones como trastorno de estrés postraumático (TEPT), ansiedad generalizada y depresión.
“Eso podría convertirse en una terapia independiente para individuos fuera del contexto quirúrgico; quizá algún día existan clínicas de sueños disponibles”, conjetura.
La ética
A medida que va aumentando el interés científico en la ingeniería de sueños, también crece el debate sobre su uso ético.
En 2021, la marca estadounidense de cerveza Coors produjo un anuncio publicitario de incubación de sueños que alentaba a las personas a dormirse después de ver imágenes surrealistas de valles montañosos, cascadas y un pez parlante con sombrero de copa sosteniendo una lata de cerveza.
Esencialmente, la marca animaba a la gente a ver el video antes de dormir, lo que, según ellos, estimularía sueños relacionados con el producto.
La campaña generó una reacción negativa de algunos científicos del campo, incluyendo a Stickgold y Haar Horowitz, quienes escribieron una carta abierta criticando el uso de esta técnica para publicidad.
“La industria publicitaria debería dejar nuestro sueño en paz”, afirma Stickgold. “Es nuestra última bastión de privacidad”.
Otros expertos, como la investigadora de sueños Deirdre Barrett, de la Universidad de Harvard, consideran que estos temores son exagerados y que la influencia sobre los sueños sigue siendo sutil en comparación con la publicidad ordinaria.
Para Barrett, quien fue consultada por Coors durante la concepción del anuncio, el proyecto fue una oportunidad para presentar la idea de la incubación de sueños a un público nuevo.
La BBC planteó las críticas de la campaña de Coors a la empresa matriz, Molson Coors, pero la compañía no respondió.
Algunos científicos sostienen que hacer que los pacientes tarden más en salir de la anestesia podría generar beneficios mentales.
Para Haar Horowitz, la ingeniería de sueños no se trata solo de ciencia o tecnología, sino de recuperar una parte significativa de nuestras vidas.
“Un tercio de cada día equivale a un tercio de un año, que equivale a un tercio de una vida”, resalta.
“Los sueños son un espacio donde puedes hacer más, pensar más, crear más. Así que pienso en esto como una forma de decir: ‘Ya no voy a perder un tercio de mi experiencia psicológica’”.
A medida que los investigadores avanzan, el mundo de los sueños ya no es solo una frontera pasiva de la mente.
Se ha convertido en un campo de disputa entre quienes lo ven como un lugar que se puede explorar activamente y utilizar para fortalecer nuestra salud mental, y quienes lo ven como otra plataforma para vendernos más cosas.
* Basado en un episodio de The Documentary de BBC World Service.
Haz clic aquí para leer más historias de BBC News Mundo.
Suscríbete aquí a nuestro nuevo newsletter para recibir cada viernes una selección de nuestro mejor contenido de la semana.
También puedes seguirnos en YouTube, Instagram, TikTok, X, Facebook y en nuestro nuevo canal de WhatsApp, donde encontrarás noticias de última hora y nuestro mejor contenido.
Y recuerda que puedes recibir notificaciones en nuestra app. Descarga la última versión y actívalas.
La disputa entre Anthropic y el Pentágono giró en torno al acceso ético a la IA de punta.
Mientras el mundo observaba la operación estadounidense en Venezuela y cómo la guerra con Irán se hacía inevitable, en Washington se iba fraguando una batalla que advertía que el futuro profetizado durante siglos ya es presente.
Una empresa de Inteligencia Artificial (IA) de Silicon Valley le dijo no al Pentágono y este la trató como si fuera enemiga del Estado. No obstante, su tecnología de IA seguía siendo usada, porque el ejército de EE.UU. no podía darse el lujo de prescindir de ella.
Eso es lo que pasó entre Anthropic y el Departamento de Defensa en las últimas semanas. Y aunque suena a disputa corporativa, es mucho más que eso.
Es la primera vez que una empresa de IA enfrenta a un aparato militar, negándose a eliminar los límites éticos de su tecnología.
El enfrentamiento dejó preguntas en el aire que nos atañen a todos: ¿Hasta dónde ya estamos delegando decisiones irreversibles y letales en las máquinas? ¿Quién decide cómo se usa la IA?
No son preguntas retóricas. Expertos de de la Universidad de Oxford advierten que este episodio “revela brechas de gobernanza de larga data en la integración de la IA en operaciones militares, brechas que preceden a esta administración y sobrevivirán a la controversia actual”.
¿Por qué, si la humanidad lleva tanto tiempo temiendo llegar a este punto, aún hay tal vacío en la gobernanza de la IA?
Se trata de un vacío que Logan Graham, líder del equipo rojo de Anthropic, el cual analiza los peores escenarios de la tecnología, desde ciberataques hasta amenazas de bioseguridad, conoce de cerca.
“La intuición de alguna gente, por haber crecido en un mundo pacífico, es que en algún lugar hay una sala llena de adultos que saben cómo arreglar todo”, le dijo a la revista Time.
“No existen esos grupos de adultos. Ni siquiera existe la sala. Tú eres responsable”.
Retomemos lo que ocurrió.
Una llamada incómoda
En algún momento de la operación que culminó el pasado 3 de enero con la captura del entonces presidente de Venezuela, Nicolás Maduro, una herramienta de IA llamada Claude estuvo presente, procesando datos y ayudando a tomar decisiones.
Así lo reportaron de manera independiente el diario Wall Street Journal y el sitio web Axios, citando fuentes con conocimiento directo de los hechos, y lo reafirmó posteriormente la revista Time, que publicó un extenso perfil de Anthropic, la empresa de San Francisco que creó Claude.
Ni el Departamento de Defensa ni Anthropic lo confirmaron oficialmente. Pero lo que sucedió después está documentado, y dice más que el hecho mismo.
El operativo para capturar a Nicolás Maduro fue un detonante.
Tras la captura de Maduro, un ejecutivo de Anthropic contactó a Palantir -la empresa de análisis de datos que actúa como intermediaria tecnológica entre Silicon Valley y el gobierno estadounidense- y preguntó: ¿fue usado nuestro software en esa operación?
La pregunta encendió alarmas en Washington.
Emil Michael, el subsecretario de Defensa y jefe de tecnología del Pentágono, explicó que les generó una preocupación profunda: ¿podría Anthropic, en un conflicto futuro, “apagar su modelo en medio de una operación” -activar algún mecanismo de rechazo- “y poner vidas en riesgo”?
Anthropic disputa esa lectura: la empresa dice que jamás intentó limitar el uso del Pentágono en un caso concreto y que la pregunta fue rutinaria.
Lo que siguió fue una escalada a cámara rápida.
El Pentágono exigió que Anthropic entregara acceso irrestricto a su tecnología para “todos los usos legales”. Anthropic se negó.
Pete Hegseth, el secretario de Defensa de Trump, designó a Anthropic como un “riesgo en la cadena de suministro”, una etiqueta que históricamente se reserva para empresas vinculadas a adversarios extranjeros como Huawei o Kaspersky, no para compañías estadounidenses que simplemente discrepan con el gobierno.
Anthropic demandó al Pentágono por exceder su autoridad y sus salvaguardas éticas, violando derechos básicos. Varios expertos legales consideran que la empresa tiene opciones sólidas de ganar en los tribunales.
El presidente Donald Trump, por su lado, ordenó a todas las agencias federales que dejen de usar la tecnología de Anthropic.
Y remató la polémica con un mensaje en la plataforma Truth Social, escrito todo en mayúsculas: “Estados Unidos nunca permitirá que una empresa de izquierda radical y woke dicte cómo combate y gana guerras nuestro gran ejército”.
En su vocabulario y el de sus seguidores, ‘woke‘ es el insulto máximo, una etiqueta despectiva para describir ideas o políticas progresistas sobre identidad, desigualdad o justicia social.
Quizás el calificativo es adecuado: Anthropic, efectivamente, se empeña en ser una empresa ‘virtuosa’.
Líneas rojas
Anthropic tiene una historia sui géneris.
Fue fundada en 2021 por exinvestigadores de OpenAI con la premisa explícita de que la inteligencia artificial representa uno de los mayores riesgos existenciales para la humanidad y que, precisamente por eso, es mejor que quienes la desarrollen sean personas comprometidas con hacerlo de manera segura.
Dario Amodei, el cofundador y director ejecutivo de Anthropic, fue vicepresidente de investigación en OpenAI.
En julio de 2025, firmó un contrato de US$200 millones con el Departamento de Defensa, el primero de su clase: un laboratorio de IA que integra sus modelos en flujos de trabajo de misiones en redes clasificadas.
El CEO de Anthropic, Dario Amodei, lo justificó en un ensayo publicado en enero de este año.
Anthropic, escribió, apoyaba a las fuerzas militares y de inteligencia estadounidenses porque “la única manera de responder a las amenazas autocráticas es igualarlas y superarlas militarmente”.
Y añadió: “La formulación a la que he llegado es que debemos usar la IA para la defensa nacional en todas las formas, excepto en aquellas que nos harían más parecidos a nuestros adversarios autocráticos”.
En concordancia, el contrato con el Pentágono trazaba dos “líneas rojas”: Claude no podría usarse para vigilancia masiva doméstica ni para armas completamente autónomas.
Esos límites infranqueables no son arbitrarios; se sustentan en un documento de la empresa que funciona como su “alma”.
Su objetivo declarado es “evitar catástrofes a gran escala”, incluyendo la posibilidad de que la IA sea usada por un grupo humano para “tomar el poder de manera ilegítima y no colaborativa”.
Amodei también argumentó ante el Pentágono que “los sistemas de IA de vanguardia simplemente no son lo suficientemente confiables como para impulsar armas totalmente autónomas”.
En sentido estricto, no hablamos de armas que decidan por sí solas a quién matar; en este contexto, “autonomía” significa que un sistema pueda cumplir ciertos objetivos por su cuenta -o con mínima supervisión humana- en entornos complejos.
Pero sí existen sistemas automatizados que ayudan a tomar decisiones sobre ataques. Y los expertos en inteligencia artificial advierten de un problema conocido como “sesgo de automatización”: cuando las reglas de uso son vagas, los humanos tendemos a confiar en las recomendaciones de la máquina más de lo que deberíamos.
La IA no reemplaza el juicio humano de golpe: lo va erosionando poco a poco, hasta que el operador deja de cuestionarla.
En una situación tensa, si el sistema -que sabes que analizó una cantidad inmensa de información- señala en la pantalla unos pocos píxeles como un objetivo urgente, es fácil aceptar su recomendación sin dudar lo suficiente.
O si un sistema de reconocimiento facial señala a alguien en medio de la multitud, es probable que un agente de seguridad confíe en el resultado y proceda al arresto.
Hay precedentes concretos: en múltiples ocasiones documentadas, varios departamentos de policía en EE.UU. terminaron arrestando personas equivocadas.
Eso resuena con la otra línea roja que enfureció al gobierno de Trump, la de la vigilancia masiva, que toca la vida cotidiana de personas que no están en ninguna zona de guerra.
Cabe anotar que Anthropic se opuso específicamente a la vigilancia masiva de ciudadanos estadounidenses. Su postura no es universalista. Pero el principio que la sustenta sí tiene un alcance más amplio.
Y cobra urgencia porque, en paralelo a este conflicto, el gobierno estadounidense anunció planes de usar IA a través de Palantir para apoyar las operaciones de ICE -la agencia de inmigración- rastreando ubicaciones en tiempo real e historial financiero de personas indocumentadas.
La vigilancia masiva, en distintos grados y sobre distintas poblaciones, ya existe. La pregunta ya no es si ocurre, sino cuántos controles quedan sobre cómo se usa.
En ese contexto, las “líneas rojas” de Anthropic no son solo filosofía corporativa: son, por ahora, uno de los pocos frenos concretos que existen.
El problema es que las restricciones son tan sólidas como el mecanismo que las hace cumplir.
Y cuando el Pentágono rechazó esos límites y exigió acceso irrestricto, Anthropic se encontró sola sosteniendo su postura, sin un marco legal que la respaldara, sin regulación internacional que la protegiera, con solo sus cláusulas contractuales como escudo.
¿Qué es “legal”?
La reticencia del Departamento de Defensa a que una empresa privada le imponga límites es, para muchos, justificada.
Aunque las operaciones militares recientes en ciudades estadounidenses, Venezuela e Irán se llevaron a cabo con una mínima consulta al Congreso, el uso de la IA es tan crítico que debe estar regulado por leyes aprobadas por representantes elegidos democráticamente, opinan algunos.
Desafortunadamente, el poder legislativo no ha legislado al respecto.
Así, el hecho de que el Pentágono exija la libertad de usar a Claude para “todos los usos legales” suena razonable hasta que se pregunta qué es, exactamente, legal en este ámbito.
No existe una definición consensuada en el derecho internacional sobre qué constituye un arma letal autónoma.
El derecho internacional humanitario -las reglas que rigen los conflictos armados desde los Convenios de Ginebra- fue construido en torno a decisiones humanas: un soldado que aprieta un gatillo, un comandante que da una orden.
Esos marcos no contemplan sistemas que detectan, seleccionan y eliminan objetivos con mínima intervención humana directa o sin ella.
Es lo que los expertos llaman “vacío de responsabilidad”: una deficiencia crítica en la que los marcos legales existentes no logran determinar quién responde cuando un sistema autónomo comete una infracción.
Si un dron con IA mata a civiles, ¿quién responde? ¿El programador? ¿El comandante? ¿La empresa que fabricó el sistema?
El derecho internacional no tiene una respuesta clara. Y en ausencia de esa respuesta, “uso legal” significa, en la práctica, lo que cada Estado decida que significa.
Peter Hegseth, el secretario de Guerra de EE.UU. (oficialmente el secretario de Defensa) es un presentador de televisión, escritor y oficial de la Guardia Nacional del Ejército estadounidense.
En este contexto, surge una pregunta delicada: ¿llega esta discusión a tiempo? La respuesta quizás es: a tiempo para ser preventiva, no; a tiempo para ser útil, todavía sí.
El debate formal sobre las armas autónomas comenzó en 2013. Once años después, el resultado son guías voluntarias.
En 2024, durante una conferencia internacional en Viena, el ministro de Exteriores de Austria urgió a avanzar con una frase inquietante: “Este es el momento Oppenheimer de nuestra generación”.
Aludía al momento en el que la humanidad tomó conciencia del poder destructivo de la bomba atómica: como entonces, la tecnología ya existe y ahora toca decidir cómo controlarla.
Solo que, a diferencia de las armas nucleares -caras, escasas y con una firma inequívoca- los sistemas autónomos son baratos, masificables y difíciles de atribuir. Por lo tanto, son estructuralmente más difíciles de controlar mediante tratados.
Ese mismo año, la Asamblea General de la ONU aprobó una resolución sobre armas autónomas con 166 votos a favor. Solo tres países votaron en contra: Rusia, Corea del Norte y Bielorrusia.
Hay un consenso moral casi universal. Lo que no hay es un tratado vinculante ni mecanismos de cumplimiento, algo que el Secretario General de la ONU pidió para 2026.
Algunos expertos, sin embargo, temen que, como con otras armas, ese tratado solo llegue después de una catástrofe.
La lógica de la velocidad
Mientras los abogados y los diplomáticos debaten, los ingenieros construyen. Y lo que construyen ya está siendo usado.
El general estadounidense Stanley McChrystal, excomandante de las fuerzas de EE.UU. y la OTAN en Afganistán, lo resumió una vez con crudeza: nunca antes en la historia alguien había podido ver, decidir y matar a una persona al otro lado del mundo en cuestión de minutos.
Esa frase ya requiere actualización.
La cuestión ya no es solo ver, decidir y matar, sino cuánto de esa decisión estamos dispuestos a delegarle a una máquina.
Esa transición ya se está probando en el campo de batalla. En Ucrania, en diciembre de 2024, las fuerzas del país llevaron a cabo la primera operación completamente no tripulada cerca de Járkiv: decenas de vehículos terrestres autónomos y drones atacaron posiciones rusas sin soldados en el terreno.
La lógica táctica es iluminadora. Los operadores lanzan los drones y vehículos autónomos sabiendo que la comunicación con ellos será bloqueada en minutos. El éxito depende de cuán bien estén programados para actuar solos cuando eso ocurra.
Navegan de forma autónoma, evaden interferencias electrónicas y continúan la misión incluso sin supervisión humana.
No es un detalle menor: en ese frente, los drones ya provocan entre el 70% y el 80 % de las bajas, según estimaciones de inteligencia europeas.
Apenas Anthopic perdió el contrato, su rival Open AI lo tomó… y no era la única esperando entre bambalinas.
En la región del Golfo la tendencia apunta en la misma dirección.
El almirante estadounidense Brad Cooper, jefe del Comando Central de EE.UU., reconoció que la inteligencia artificial es una herramienta clave para identificar objetivos, al permitir “tamizar vastas cantidades de datos en segundos para que nuestros líderes puedan tomar decisiones más inteligentes más rápido que el enemigo”.
Más rápido que el enemigo. Esa frase contiene toda la lógica que hace tan difícil frenar este proceso. En un contexto competitivo, quien se detiene a revisar pierde. La presión estructural empuja siempre hacia menos supervisión humana, no hacia más.
Tecnología divina
La historia tiene un desenlace paradójico. Dario Amodei declaró, refiriéndose a las exigencias del Pentágono: “No podemos, en conciencia, acceder a su solicitud”. Anthropic perdió el contrato.
Horas después del anuncio, OpenAI llegó un acuerdo con el Departamento de Defensa.
Y entonces ocurrió algo inesperado.
El día después de que el Pentágono anunciara el nuevo acuerdo, la aplicación de Claude superó a ChatGPT de OpenAI en el App Store de Apple por primera vez en su historia.
Esa semana, más de un millón de personas se registraron cada día en Claude, llevándola al primer puesto en más de 20 países. Las ventas de la empresa se dispararon entre el público general.
Hay más. Dos coaliciones de trabajadores de Amazon, Google, Microsoft y OpenAI les pidieron públicamente a sus empresas que siguieran el ejemplo de Anthropic.
Decenas de científicos e investigadores de compañías rivales firmaron un amicus brief en apoyo a Anthropic.
Un general retirado de la Fuerza Aérea, que estuvo al frente del Proyecto Maven -el polémico programa de IA para drones que en 2018 provocó protestas masivas de empleados de Google hasta que la empresa abandonó el contrato- escribió en redes sociales que, aunque se esperaría que apoyara al Pentágono, simpatizaba más con la postura de Anthropic.
Y quizás igual de importante: Anthropic consolidó el apoyo de sus propios ingenieros, algunos de los profesionales más cotizados de Silicon Valley, en uno de los mercados de talento más competitivos del planeta, donde los contratos para atraer o retener a estas personas pueden valer decenas de millones de dólares.
No todos en ese mundo se sienten cómodos construyendo tecnología para matar. Anthropic, al trazar sus líneas, les dijo que trabajar allí no requería ignorar esa incomodidad.
En un mundo en el que la IA puede facilitar la captura de alguien al otro lado del mundo y nadie tiene claro cómo juzgar esas acciones, una empresa privada en San Francisco se convirtió en uno de los pocos actores dispuestos a poner límites.
Aun así, no podemos depender de los escrúpulos de una firma de Silicon Valley.
Seguimos lidiando con lo que el biólogo Edward O. Wilson definió como “el verdadero problema de la humanidad”.
“Tenemos emociones paleolíticas, instituciones medievales y tecnología casi divina”.
Haz clic aquí para leer más historias de BBC News Mundo.
Suscríbete aquí a nuestro nuevo newsletter para recibir cada viernes una selección de nuestro mejor contenido de la semana.
También puedes seguirnos en YouTube, Instagram, TikTok, X, Facebook y en nuestro nuevo canal de WhatsApp, donde encontrarás noticias de última hora y nuestro mejor contenido.
Y recuerda que puedes recibir notificaciones en nuestra app. Descarga la última versión y actívalas.
Cada cosa que dices, desde la elección de palabras hasta una coma de más, afectará la respuesta de la IA
Cuando un grupo de investigadores decidió comprobar si el “pensamiento positivo” aumentaba la precisión de los chatbots de inteligencia artificial (IA), obtuvieron resultados sorprendentes.
Al formular preguntas a varios chatbots, intentaron llamarlos “inteligentes”, los animaron a pensar con cuidado e incluso terminaron sus preguntas con comentarios como: “¡Esto será divertido!”.
Nada de esto tuvo un impacto significativo, pero hubo una técnica que se destacó. Cuando hicieron que una IA fingiera estar en la saga Star Trek, mejoró en matemáticas básicas.
La gente tiene todo tipo de estrategias extrañas para obtener mejores respuestas de los grandes modelos de lenguaje (LLM), la tecnología de IA que sustenta herramientas como ChatGPT.
Algunos juran que la IA funciona mejor si se la amenaza, otros creen que los chatbots son más cooperativos si se es educado y hay quienes piden a los robots que se hagan pasar por expertos en el tema que estén abordando.
La lista continúa. Forma parte de la mitología en torno a la “ingeniería de indicaciones” o la “ingeniería de contexto”, diferentes formas de construir instrucciones para que la IA ofrezca mejores resultados.
La cuestión es la siguiente: los expertos me dicen que muchos de los conocimientos generalizados al respecto simplemente no funcionan. En algunos casos, incluso podrían ser peligrosos. Pero la forma en que se le habla a una IA sí importa y algunas técnicas realmente marcan la diferencia.
“Mucha gente cree que existe un conjunto mágico de palabras que permiten a los LLM resolver un problema”, afirma Jules White, profesor de informática que estudia IA generativa en la Universidad de Vanderbilt (EE.UU.). “Pero no se trata de la elección de palabras, sino de cómo se expresa fundamentalmente lo que se intenta hacer”.
¿Cuidar los modales?
El año pasado un usuario de la red social X publicó un tuit que decía: “Me pregunto cuánto dinero ha perdido OpenAI en electricidad por los mensajes de ‘por favor’ y ‘gracias’ de los usuarios”.
Sam Altman, director ejecutivo de OpenAI, empresa creadora de ChatGPT, respondió: “Decenas de millones de dólares bien gastados”, dijo. “Nunca se sabe”.
La mayoría de la gente interpreta la última línea como una referencia descarada a la idea de un posible apocalipsis de la IA, aunque es difícil saber con qué seriedad tomar esa cifra de “decenas de millones de dólares”. Pero la cortesía también es una cuestión práctica.
Los chatbots LLM funcionan dividiendo tus palabras en pequeños fragmentos llamados “tokens”, antes de analizarlos mediante estadísticas para generar una respuesta adecuada.
Esto significa que cada cosa que dices, desde la elección de palabras hasta una coma de más, afectará la respuesta de la IA. El problema es que es extremadamente difícil de predecir.
Se han realizado numerosas investigaciones buscando patrones en pequeños cambios en las indicaciones de la IA, pero gran parte de la evidencia es contradictoria y no concluyente.
Por ejemplo, un estudio de 2024 descubrió que los chatbots LLM daban respuestas mejores y más precisas cuando se preguntaba con cortesía en lugar de simplemente dar órdenes.
Aún más extraño, existían diferencias culturales. En comparación con el chino y el inglés, los chatbots que hablaban japonés obtuvieron un rendimiento ligeramente inferior al excederse en la cortesía.
Pero, en general, no se ha investigado lo suficiente sobre este tema para llegar a conclusiones sólidas. Además, las empresas de IA actualizan constantemente sus chatbots, lo que significa que las investigaciones pueden quedar obsoletas.
Los expertos afirman que los modelos de IA han mejorado drásticamente en tan solo unos años, lo que ha convertido técnicas como la adulación, la cortesía, los insultos o las amenazas en una pérdida de tiempo si el objetivo es que la IA sea más precisa.
Según expertos, los modelos de IA más recientes que se encuentran en cualquier producto convencional, como ChatGPT, Gemini o Claude, son mejores a la hora de captar las partes más importantes de la instrucción.
Probablemente no se dejarán influir por estos pequeños cambios en el lenguaje, al menos no de una forma consistente que se pueda aprovechar.
Esto es inquietante a su manera. Las empresas suelen diseñar IA para que se comporten como personas, por lo que es lógico que a veces parezcan tener estados de ánimo o personalidades que se pueden controlar.
Pero no te dejes engañar. Las herramientas de IA son imitadores, no seres vivos. Simplemente simulan el comportamiento humano.
Si quieres mejores respuestas, deja de tratar a la IA como a una persona y empieza a tratarla como una herramienta.
Cómo hablar con tu chatbot
La IA presenta problemas muy reales, desde cuestiones éticas hasta su impacto ambiental. Algunas personas se niegan a interactuar con ella por completo.
Pero si vas a usar un LLM, aprender a obtener lo que quieres de forma más rápida y eficiente será mejor para ti y, probablemente, para la energía que consumes en el proceso.
Estos seis consejos te ayudarán a empezar.
Si quieres mejores respuestas, deja de tratar a la IA como a una persona y empieza a tratarla como una herramienta.
1. Solicita múltiples opciones
“Lo primero que les digo a las personas es que no pidan una sola respuesta, sino tres o cinco”, dice White.
Si necesitas ayuda con un texto, por ejemplo, dile a la IA que te dé múltiples opciones que varíen de forma significativa. “Esto obliga al ser humano a reflexionar y a pensar en lo que le gusta y por qué”, explica.
2. Da ejemplos
Proporciona a la IA una muestra siempre que sea posible. “Por ejemplo, veo gente que le pide a un LLM que escriba un correo electrónico y luego se frustra porque piensa: ‘Eso no me suena para nada’”, dice White.
El impulso natural es responder con una lista de instrucciones, como “haz esto” y “no hagas aquello”. White afirma que es mucho más efectivo decir: “Aquí tienes 10 correos electrónicos que he enviado antes. Usa mi estilo de escritura”.
3. Solicita una entrevista
“Supongamos que quieres generar una descripción de puesto. Dile a la IA: ‘Quiero que me hagas preguntas, una a una, hasta que hayas recopilado suficiente información para escribir una oferta de trabajo convincente’”, explica White.
“Al hacerlo pregunta por pregunta, puede adaptarse a tus respuestas”.
El impulso natural es dar a la IA una lista de instrucciones (“haz esto” y “no hagas aquello”), pero es mejor dar ejemplos.
4. Cuidado con los juegos de rol
“Se solía pensar que si le decías a la IA que era profesor de matemáticas, por ejemplo, tendría mayor precisión al responder preguntas de matemáticas”, afirma Sander Schulhoff, emprendedor e investigador que ayudó a popularizar la idea de la ingeniería rápida.
Sin embargo, cuando se busca información o se hacen preguntas con una sola respuesta correcta, Schulhoff y otros afirman que los juegos de rol pueden reducir la precisión de los modelos de IA.
“Eso realmente puede ser peligroso”, dice Rick Battle, ingeniero de aprendizaje automático aplicado en Broadcom y coautor del estudio de “Viaje a las estrellas”.
“En realidad, estás fomentando la alucinación porque le estás diciendo que es un experto y que debería confiar en su conocimiento paramétrico interno”.
En esencia, esto puede hacer que la IA actúe con demasiada confianza.
Pero para tareas muy abiertas sin una respuesta única, el juego de roles es efectivo. Piensa en consejos, lluvia de ideas y resolución creativa o exploratoria de problemas.
O si te ponen nervioso las entrevistas de trabajo, pedirle a un chatbot que imite a un gerente de contratación podría ser una buena práctica.
Si estás nervioso por una entrevistas de trabajo, pedirle a un chatbot que imite a un gerente de contratación podría ser una buena práctica.
5. Mantente neutral
“No guíes al testigo”, dice Battle. Si intentas decidir entre dos autos, no digas que te inclinas por el Toyota. “De lo contrario, esa es la respuesta que probablemente obtendrás”.
6. Por favor y gracias
Según una encuesta del Pew Research Center de 2019, más de la mitad de los estadounidenses dicen “por favor” cuando hablan con sus asistentes inteligentes.
Parece que esta tendencia continúa. Una encuesta realizada en 2025 por la editorial Future reveló que el 70% de las personas son educadas con la IA cuando la usan. La mayoría afirmó hacerlo porque es lo correcto, aunque el 12% sostuvo que era para protegerse en caso de rebeliones de robots.
La cortesía puede no protegerte de robots enfadados ni hacer que los LLM sean más precisos, pero hay otras razones para seguir haciéndolo.
“Para mí, lo más importante es que decir ‘por favor’ y ‘gracias’ puede hacerte sentir más cómodo interactuando con la IA”, afirma Schulhoff. “No mejora el rendimiento del modelo, pero si te ayuda a usarlo más porque te sientes más cómodo, entonces es útil”.
También hay que considerar la sensibilidad de tu propia naturaleza humana. El filósofo Immanuel Kant argumentó que una razón por la que no se debe ser cruel con los animales es que también es perjudicial para uno mismo.
En esencia, ser hostil con cualquier cosa te convierte en una persona más cruel. No puedes herir los sentimientos de una IA porque no los tiene, pero quizá deberías ser amable de todos modos. Es un hábito que podría beneficiar otros aspectos de tu vida.
*Puedes leer la versión original en inglés de este artículo de BBC Future aquí.
Haz clic aquí para leer más historias de BBC News Mundo.
Suscríbete aquí a nuestro nuevo newsletter para recibir cada viernes una selección de nuestro mejor contenido de la semana.