nota de prueba v4
Blog
-

Anthropic, la empresa de IA que se enfrentó al Pentágono en EE.UU. y por qué esto nos concierne a todos
This post was originally published on this site.
La disputa entre Anthropic y el Pentágono giró en torno al acceso ético a la IA de punta. Mientras el mundo observaba la operación estadounidense en Venezuela y cómo la guerra con Irán se hacía inevitable, en Washington se iba fraguando una batalla que advertía que el futuro profetizado durante siglos ya es presente.
Una empresa de Inteligencia Artificial (IA) de Silicon Valley le dijo no al Pentágono y este la trató como si fuera enemiga del Estado. No obstante, su tecnología de IA seguía siendo usada, porque el ejército de EE.UU. no podía darse el lujo de prescindir de ella.
Eso es lo que pasó entre Anthropic y el Departamento de Defensa en las últimas semanas. Y aunque suena a disputa corporativa, es mucho más que eso.
Es la primera vez que una empresa de IA enfrenta a un aparato militar, negándose a eliminar los límites éticos de su tecnología.
El enfrentamiento dejó preguntas en el aire que nos atañen a todos: ¿Hasta dónde ya estamos delegando decisiones irreversibles y letales en las máquinas? ¿Quién decide cómo se usa la IA?
No son preguntas retóricas. Expertos de de la Universidad de Oxford advierten que este episodio “revela brechas de gobernanza de larga data en la integración de la IA en operaciones militares, brechas que preceden a esta administración y sobrevivirán a la controversia actual”.
¿Por qué, si la humanidad lleva tanto tiempo temiendo llegar a este punto, aún hay tal vacío en la gobernanza de la IA?
Se trata de un vacío que Logan Graham, líder del equipo rojo de Anthropic, el cual analiza los peores escenarios de la tecnología, desde ciberataques hasta amenazas de bioseguridad, conoce de cerca.
“La intuición de alguna gente, por haber crecido en un mundo pacífico, es que en algún lugar hay una sala llena de adultos que saben cómo arreglar todo”, le dijo a la revista Time.
“No existen esos grupos de adultos. Ni siquiera existe la sala. Tú eres responsable”.
Retomemos lo que ocurrió.
Una llamada incómoda
En algún momento de la operación que culminó el pasado 3 de enero con la captura del entonces presidente de Venezuela, Nicolás Maduro, una herramienta de IA llamada Claude estuvo presente, procesando datos y ayudando a tomar decisiones.
Así lo reportaron de manera independiente el diario Wall Street Journal y el sitio web Axios, citando fuentes con conocimiento directo de los hechos, y lo reafirmó posteriormente la revista Time, que publicó un extenso perfil de Anthropic, la empresa de San Francisco que creó Claude.
Ni el Departamento de Defensa ni Anthropic lo confirmaron oficialmente. Pero lo que sucedió después está documentado, y dice más que el hecho mismo.
El operativo para capturar a Nicolás Maduro fue un detonante. Tras la captura de Maduro, un ejecutivo de Anthropic contactó a Palantir -la empresa de análisis de datos que actúa como intermediaria tecnológica entre Silicon Valley y el gobierno estadounidense- y preguntó: ¿fue usado nuestro software en esa operación?
La pregunta encendió alarmas en Washington.
Emil Michael, el subsecretario de Defensa y jefe de tecnología del Pentágono, explicó que les generó una preocupación profunda: ¿podría Anthropic, en un conflicto futuro, “apagar su modelo en medio de una operación” -activar algún mecanismo de rechazo- “y poner vidas en riesgo”?
Anthropic disputa esa lectura: la empresa dice que jamás intentó limitar el uso del Pentágono en un caso concreto y que la pregunta fue rutinaria.
Lo que siguió fue una escalada a cámara rápida.
El Pentágono exigió que Anthropic entregara acceso irrestricto a su tecnología para “todos los usos legales”. Anthropic se negó.
Pete Hegseth, el secretario de Defensa de Trump, designó a Anthropic como un “riesgo en la cadena de suministro”, una etiqueta que históricamente se reserva para empresas vinculadas a adversarios extranjeros como Huawei o Kaspersky, no para compañías estadounidenses que simplemente discrepan con el gobierno.
Anthropic demandó al Pentágono por exceder su autoridad y sus salvaguardas éticas, violando derechos básicos. Varios expertos legales consideran que la empresa tiene opciones sólidas de ganar en los tribunales.
El presidente Donald Trump, por su lado, ordenó a todas las agencias federales que dejen de usar la tecnología de Anthropic.
Y remató la polémica con un mensaje en la plataforma Truth Social, escrito todo en mayúsculas: “Estados Unidos nunca permitirá que una empresa de izquierda radical y woke dicte cómo combate y gana guerras nuestro gran ejército”.
En su vocabulario y el de sus seguidores, ‘woke‘ es el insulto máximo, una etiqueta despectiva para describir ideas o políticas progresistas sobre identidad, desigualdad o justicia social.
Quizás el calificativo es adecuado: Anthropic, efectivamente, se empeña en ser una empresa ‘virtuosa’.
Líneas rojas
Anthropic tiene una historia sui géneris.
Fue fundada en 2021 por exinvestigadores de OpenAI con la premisa explícita de que la inteligencia artificial representa uno de los mayores riesgos existenciales para la humanidad y que, precisamente por eso, es mejor que quienes la desarrollen sean personas comprometidas con hacerlo de manera segura.
Dario Amodei, el cofundador y director ejecutivo de Anthropic, fue vicepresidente de investigación en OpenAI. En julio de 2025, firmó un contrato de US$200 millones con el Departamento de Defensa, el primero de su clase: un laboratorio de IA que integra sus modelos en flujos de trabajo de misiones en redes clasificadas.
El CEO de Anthropic, Dario Amodei, lo justificó en un ensayo publicado en enero de este año.
Anthropic, escribió, apoyaba a las fuerzas militares y de inteligencia estadounidenses porque “la única manera de responder a las amenazas autocráticas es igualarlas y superarlas militarmente”.
Y añadió: “La formulación a la que he llegado es que debemos usar la IA para la defensa nacional en todas las formas, excepto en aquellas que nos harían más parecidos a nuestros adversarios autocráticos”.
En concordancia, el contrato con el Pentágono trazaba dos “líneas rojas”: Claude no podría usarse para vigilancia masiva doméstica ni para armas completamente autónomas.
Esos límites infranqueables no son arbitrarios; se sustentan en un documento de la empresa que funciona como su “alma”.
Su objetivo declarado es “evitar catástrofes a gran escala”, incluyendo la posibilidad de que la IA sea usada por un grupo humano para “tomar el poder de manera ilegítima y no colaborativa”.
Amodei también argumentó ante el Pentágono que “los sistemas de IA de vanguardia simplemente no son lo suficientemente confiables como para impulsar armas totalmente autónomas”.
En sentido estricto, no hablamos de armas que decidan por sí solas a quién matar; en este contexto, “autonomía” significa que un sistema pueda cumplir ciertos objetivos por su cuenta -o con mínima supervisión humana- en entornos complejos.
Pero sí existen sistemas automatizados que ayudan a tomar decisiones sobre ataques. Y los expertos en inteligencia artificial advierten de un problema conocido como “sesgo de automatización”: cuando las reglas de uso son vagas, los humanos tendemos a confiar en las recomendaciones de la máquina más de lo que deberíamos.
La IA no reemplaza el juicio humano de golpe: lo va erosionando poco a poco, hasta que el operador deja de cuestionarla.
En una situación tensa, si el sistema -que sabes que analizó una cantidad inmensa de información- señala en la pantalla unos pocos píxeles como un objetivo urgente, es fácil aceptar su recomendación sin dudar lo suficiente.
O si un sistema de reconocimiento facial señala a alguien en medio de la multitud, es probable que un agente de seguridad confíe en el resultado y proceda al arresto.
Hay precedentes concretos: en múltiples ocasiones documentadas, varios departamentos de policía en EE.UU. terminaron arrestando personas equivocadas.
Eso resuena con la otra línea roja que enfureció al gobierno de Trump, la de la vigilancia masiva, que toca la vida cotidiana de personas que no están en ninguna zona de guerra.
Cabe anotar que Anthropic se opuso específicamente a la vigilancia masiva de ciudadanos estadounidenses. Su postura no es universalista. Pero el principio que la sustenta sí tiene un alcance más amplio.
Y cobra urgencia porque, en paralelo a este conflicto, el gobierno estadounidense anunció planes de usar IA a través de Palantir para apoyar las operaciones de ICE -la agencia de inmigración- rastreando ubicaciones en tiempo real e historial financiero de personas indocumentadas.
La vigilancia masiva, en distintos grados y sobre distintas poblaciones, ya existe. La pregunta ya no es si ocurre, sino cuántos controles quedan sobre cómo se usa.
En ese contexto, las “líneas rojas” de Anthropic no son solo filosofía corporativa: son, por ahora, uno de los pocos frenos concretos que existen.
El problema es que las restricciones son tan sólidas como el mecanismo que las hace cumplir.
Y cuando el Pentágono rechazó esos límites y exigió acceso irrestricto, Anthropic se encontró sola sosteniendo su postura, sin un marco legal que la respaldara, sin regulación internacional que la protegiera, con solo sus cláusulas contractuales como escudo.
¿Qué es “legal”?
La reticencia del Departamento de Defensa a que una empresa privada le imponga límites es, para muchos, justificada.
Aunque las operaciones militares recientes en ciudades estadounidenses, Venezuela e Irán se llevaron a cabo con una mínima consulta al Congreso, el uso de la IA es tan crítico que debe estar regulado por leyes aprobadas por representantes elegidos democráticamente, opinan algunos.
Desafortunadamente, el poder legislativo no ha legislado al respecto.
Así, el hecho de que el Pentágono exija la libertad de usar a Claude para “todos los usos legales” suena razonable hasta que se pregunta qué es, exactamente, legal en este ámbito.
No existe una definición consensuada en el derecho internacional sobre qué constituye un arma letal autónoma.
El derecho internacional humanitario -las reglas que rigen los conflictos armados desde los Convenios de Ginebra- fue construido en torno a decisiones humanas: un soldado que aprieta un gatillo, un comandante que da una orden.
Esos marcos no contemplan sistemas que detectan, seleccionan y eliminan objetivos con mínima intervención humana directa o sin ella.
Es lo que los expertos llaman “vacío de responsabilidad”: una deficiencia crítica en la que los marcos legales existentes no logran determinar quién responde cuando un sistema autónomo comete una infracción.
Si un dron con IA mata a civiles, ¿quién responde? ¿El programador? ¿El comandante? ¿La empresa que fabricó el sistema?
El derecho internacional no tiene una respuesta clara. Y en ausencia de esa respuesta, “uso legal” significa, en la práctica, lo que cada Estado decida que significa.
Peter Hegseth, el secretario de Guerra de EE.UU. (oficialmente el secretario de Defensa) es un presentador de televisión, escritor y oficial de la Guardia Nacional del Ejército estadounidense. En este contexto, surge una pregunta delicada: ¿llega esta discusión a tiempo? La respuesta quizás es: a tiempo para ser preventiva, no; a tiempo para ser útil, todavía sí.
El debate formal sobre las armas autónomas comenzó en 2013. Once años después, el resultado son guías voluntarias.
En 2024, durante una conferencia internacional en Viena, el ministro de Exteriores de Austria urgió a avanzar con una frase inquietante: “Este es el momento Oppenheimer de nuestra generación”.
Aludía al momento en el que la humanidad tomó conciencia del poder destructivo de la bomba atómica: como entonces, la tecnología ya existe y ahora toca decidir cómo controlarla.
Solo que, a diferencia de las armas nucleares -caras, escasas y con una firma inequívoca- los sistemas autónomos son baratos, masificables y difíciles de atribuir. Por lo tanto, son estructuralmente más difíciles de controlar mediante tratados.
Ese mismo año, la Asamblea General de la ONU aprobó una resolución sobre armas autónomas con 166 votos a favor. Solo tres países votaron en contra: Rusia, Corea del Norte y Bielorrusia.
Hay un consenso moral casi universal. Lo que no hay es un tratado vinculante ni mecanismos de cumplimiento, algo que el Secretario General de la ONU pidió para 2026.
Algunos expertos, sin embargo, temen que, como con otras armas, ese tratado solo llegue después de una catástrofe.
La lógica de la velocidad
Mientras los abogados y los diplomáticos debaten, los ingenieros construyen. Y lo que construyen ya está siendo usado.
El general estadounidense Stanley McChrystal, excomandante de las fuerzas de EE.UU. y la OTAN en Afganistán, lo resumió una vez con crudeza: nunca antes en la historia alguien había podido ver, decidir y matar a una persona al otro lado del mundo en cuestión de minutos.
Esa frase ya requiere actualización.
La cuestión ya no es solo ver, decidir y matar, sino cuánto de esa decisión estamos dispuestos a delegarle a una máquina.
Esa transición ya se está probando en el campo de batalla. En Ucrania, en diciembre de 2024, las fuerzas del país llevaron a cabo la primera operación completamente no tripulada cerca de Járkiv: decenas de vehículos terrestres autónomos y drones atacaron posiciones rusas sin soldados en el terreno.
La lógica táctica es iluminadora. Los operadores lanzan los drones y vehículos autónomos sabiendo que la comunicación con ellos será bloqueada en minutos. El éxito depende de cuán bien estén programados para actuar solos cuando eso ocurra.
Navegan de forma autónoma, evaden interferencias electrónicas y continúan la misión incluso sin supervisión humana.
No es un detalle menor: en ese frente, los drones ya provocan entre el 70% y el 80 % de las bajas, según estimaciones de inteligencia europeas.
Apenas Anthopic perdió el contrato, su rival Open AI lo tomó… y no era la única esperando entre bambalinas. En la región del Golfo la tendencia apunta en la misma dirección.
El almirante estadounidense Brad Cooper, jefe del Comando Central de EE.UU., reconoció que la inteligencia artificial es una herramienta clave para identificar objetivos, al permitir “tamizar vastas cantidades de datos en segundos para que nuestros líderes puedan tomar decisiones más inteligentes más rápido que el enemigo”.
Más rápido que el enemigo. Esa frase contiene toda la lógica que hace tan difícil frenar este proceso. En un contexto competitivo, quien se detiene a revisar pierde. La presión estructural empuja siempre hacia menos supervisión humana, no hacia más.
Tecnología divina
La historia tiene un desenlace paradójico. Dario Amodei declaró, refiriéndose a las exigencias del Pentágono: “No podemos, en conciencia, acceder a su solicitud”. Anthropic perdió el contrato.
Horas después del anuncio, OpenAI llegó un acuerdo con el Departamento de Defensa.
Y entonces ocurrió algo inesperado.
El día después de que el Pentágono anunciara el nuevo acuerdo, la aplicación de Claude superó a ChatGPT de OpenAI en el App Store de Apple por primera vez en su historia.
Esa semana, más de un millón de personas se registraron cada día en Claude, llevándola al primer puesto en más de 20 países. Las ventas de la empresa se dispararon entre el público general.
Hay más. Dos coaliciones de trabajadores de Amazon, Google, Microsoft y OpenAI les pidieron públicamente a sus empresas que siguieran el ejemplo de Anthropic.
Decenas de científicos e investigadores de compañías rivales firmaron un amicus brief en apoyo a Anthropic.
Un general retirado de la Fuerza Aérea, que estuvo al frente del Proyecto Maven -el polémico programa de IA para drones que en 2018 provocó protestas masivas de empleados de Google hasta que la empresa abandonó el contrato- escribió en redes sociales que, aunque se esperaría que apoyara al Pentágono, simpatizaba más con la postura de Anthropic.
Y quizás igual de importante: Anthropic consolidó el apoyo de sus propios ingenieros, algunos de los profesionales más cotizados de Silicon Valley, en uno de los mercados de talento más competitivos del planeta, donde los contratos para atraer o retener a estas personas pueden valer decenas de millones de dólares.
No todos en ese mundo se sienten cómodos construyendo tecnología para matar. Anthropic, al trazar sus líneas, les dijo que trabajar allí no requería ignorar esa incomodidad.
En un mundo en el que la IA puede facilitar la captura de alguien al otro lado del mundo y nadie tiene claro cómo juzgar esas acciones, una empresa privada en San Francisco se convirtió en uno de los pocos actores dispuestos a poner límites.
Aun así, no podemos depender de los escrúpulos de una firma de Silicon Valley.
Seguimos lidiando con lo que el biólogo Edward O. Wilson definió como “el verdadero problema de la humanidad”.
“Tenemos emociones paleolíticas, instituciones medievales y tecnología casi divina”.
Haz clic aquí para leer más historias de BBC News Mundo.
Suscríbete aquí a nuestro nuevo newsletter para recibir cada viernes una selección de nuestro mejor contenido de la semana.
También puedes seguirnos en YouTube, Instagram, TikTok, X, Facebook y en nuestro nuevo canal de WhatsApp, donde encontrarás noticias de última hora y nuestro mejor contenido.
Y recuerda que puedes recibir notificaciones en nuestra app. Descarga la última versión y actívalas.
-

6 consejos de expertos sobre cómo hablarle a la IA para obtener mejores respuestas
This post was originally published on this site.
Cada cosa que dices, desde la elección de palabras hasta una coma de más, afectará la respuesta de la IA Cuando un grupo de investigadores decidió comprobar si el “pensamiento positivo” aumentaba la precisión de los chatbots de inteligencia artificial (IA), obtuvieron resultados sorprendentes.
Al formular preguntas a varios chatbots, intentaron llamarlos “inteligentes”, los animaron a pensar con cuidado e incluso terminaron sus preguntas con comentarios como: “¡Esto será divertido!”.
Nada de esto tuvo un impacto significativo, pero hubo una técnica que se destacó. Cuando hicieron que una IA fingiera estar en la saga Star Trek, mejoró en matemáticas básicas.
La gente tiene todo tipo de estrategias extrañas para obtener mejores respuestas de los grandes modelos de lenguaje (LLM), la tecnología de IA que sustenta herramientas como ChatGPT.
Algunos juran que la IA funciona mejor si se la amenaza, otros creen que los chatbots son más cooperativos si se es educado y hay quienes piden a los robots que se hagan pasar por expertos en el tema que estén abordando.
La lista continúa. Forma parte de la mitología en torno a la “ingeniería de indicaciones” o la “ingeniería de contexto”, diferentes formas de construir instrucciones para que la IA ofrezca mejores resultados.
La cuestión es la siguiente: los expertos me dicen que muchos de los conocimientos generalizados al respecto simplemente no funcionan. En algunos casos, incluso podrían ser peligrosos. Pero la forma en que se le habla a una IA sí importa y algunas técnicas realmente marcan la diferencia.
“Mucha gente cree que existe un conjunto mágico de palabras que permiten a los LLM resolver un problema”, afirma Jules White, profesor de informática que estudia IA generativa en la Universidad de Vanderbilt (EE.UU.). “Pero no se trata de la elección de palabras, sino de cómo se expresa fundamentalmente lo que se intenta hacer”.
¿Cuidar los modales?
El año pasado un usuario de la red social X publicó un tuit que decía: “Me pregunto cuánto dinero ha perdido OpenAI en electricidad por los mensajes de ‘por favor’ y ‘gracias’ de los usuarios”.
Sam Altman, director ejecutivo de OpenAI, empresa creadora de ChatGPT, respondió: “Decenas de millones de dólares bien gastados”, dijo. “Nunca se sabe”.
La mayoría de la gente interpreta la última línea como una referencia descarada a la idea de un posible apocalipsis de la IA, aunque es difícil saber con qué seriedad tomar esa cifra de “decenas de millones de dólares”. Pero la cortesía también es una cuestión práctica.
Los chatbots LLM funcionan dividiendo tus palabras en pequeños fragmentos llamados “tokens”, antes de analizarlos mediante estadísticas para generar una respuesta adecuada.
Esto significa que cada cosa que dices, desde la elección de palabras hasta una coma de más, afectará la respuesta de la IA. El problema es que es extremadamente difícil de predecir.
Se han realizado numerosas investigaciones buscando patrones en pequeños cambios en las indicaciones de la IA, pero gran parte de la evidencia es contradictoria y no concluyente.
Por ejemplo, un estudio de 2024 descubrió que los chatbots LLM daban respuestas mejores y más precisas cuando se preguntaba con cortesía en lugar de simplemente dar órdenes.
Aún más extraño, existían diferencias culturales. En comparación con el chino y el inglés, los chatbots que hablaban japonés obtuvieron un rendimiento ligeramente inferior al excederse en la cortesía.
Pero, en general, no se ha investigado lo suficiente sobre este tema para llegar a conclusiones sólidas. Además, las empresas de IA actualizan constantemente sus chatbots, lo que significa que las investigaciones pueden quedar obsoletas.
Los expertos afirman que los modelos de IA han mejorado drásticamente en tan solo unos años, lo que ha convertido técnicas como la adulación, la cortesía, los insultos o las amenazas en una pérdida de tiempo si el objetivo es que la IA sea más precisa.
Según expertos, los modelos de IA más recientes que se encuentran en cualquier producto convencional, como ChatGPT, Gemini o Claude, son mejores a la hora de captar las partes más importantes de la instrucción.
Probablemente no se dejarán influir por estos pequeños cambios en el lenguaje, al menos no de una forma consistente que se pueda aprovechar.
Esto es inquietante a su manera. Las empresas suelen diseñar IA para que se comporten como personas, por lo que es lógico que a veces parezcan tener estados de ánimo o personalidades que se pueden controlar.
Pero no te dejes engañar. Las herramientas de IA son imitadores, no seres vivos. Simplemente simulan el comportamiento humano.
Si quieres mejores respuestas, deja de tratar a la IA como a una persona y empieza a tratarla como una herramienta.
Cómo hablar con tu chatbot
La IA presenta problemas muy reales, desde cuestiones éticas hasta su impacto ambiental. Algunas personas se niegan a interactuar con ella por completo.
Pero si vas a usar un LLM, aprender a obtener lo que quieres de forma más rápida y eficiente será mejor para ti y, probablemente, para la energía que consumes en el proceso.
Estos seis consejos te ayudarán a empezar.
Si quieres mejores respuestas, deja de tratar a la IA como a una persona y empieza a tratarla como una herramienta. 1. Solicita múltiples opciones
“Lo primero que les digo a las personas es que no pidan una sola respuesta, sino tres o cinco”, dice White.
Si necesitas ayuda con un texto, por ejemplo, dile a la IA que te dé múltiples opciones que varíen de forma significativa. “Esto obliga al ser humano a reflexionar y a pensar en lo que le gusta y por qué”, explica.
2. Da ejemplos
Proporciona a la IA una muestra siempre que sea posible. “Por ejemplo, veo gente que le pide a un LLM que escriba un correo electrónico y luego se frustra porque piensa: ‘Eso no me suena para nada’”, dice White.
El impulso natural es responder con una lista de instrucciones, como “haz esto” y “no hagas aquello”. White afirma que es mucho más efectivo decir: “Aquí tienes 10 correos electrónicos que he enviado antes. Usa mi estilo de escritura”.
3. Solicita una entrevista
“Supongamos que quieres generar una descripción de puesto. Dile a la IA: ‘Quiero que me hagas preguntas, una a una, hasta que hayas recopilado suficiente información para escribir una oferta de trabajo convincente’”, explica White.
“Al hacerlo pregunta por pregunta, puede adaptarse a tus respuestas”.
El impulso natural es dar a la IA una lista de instrucciones (“haz esto” y “no hagas aquello”), pero es mejor dar ejemplos. 4. Cuidado con los juegos de rol
“Se solía pensar que si le decías a la IA que era profesor de matemáticas, por ejemplo, tendría mayor precisión al responder preguntas de matemáticas”, afirma Sander Schulhoff, emprendedor e investigador que ayudó a popularizar la idea de la ingeniería rápida.
Sin embargo, cuando se busca información o se hacen preguntas con una sola respuesta correcta, Schulhoff y otros afirman que los juegos de rol pueden reducir la precisión de los modelos de IA.
“Eso realmente puede ser peligroso”, dice Rick Battle, ingeniero de aprendizaje automático aplicado en Broadcom y coautor del estudio de “Viaje a las estrellas”.
“En realidad, estás fomentando la alucinación porque le estás diciendo que es un experto y que debería confiar en su conocimiento paramétrico interno”.
En esencia, esto puede hacer que la IA actúe con demasiada confianza.
Pero para tareas muy abiertas sin una respuesta única, el juego de roles es efectivo. Piensa en consejos, lluvia de ideas y resolución creativa o exploratoria de problemas.
O si te ponen nervioso las entrevistas de trabajo, pedirle a un chatbot que imite a un gerente de contratación podría ser una buena práctica.
Si estás nervioso por una entrevistas de trabajo, pedirle a un chatbot que imite a un gerente de contratación podría ser una buena práctica. 5. Mantente neutral
“No guíes al testigo”, dice Battle. Si intentas decidir entre dos autos, no digas que te inclinas por el Toyota. “De lo contrario, esa es la respuesta que probablemente obtendrás”.
6. Por favor y gracias
Según una encuesta del Pew Research Center de 2019, más de la mitad de los estadounidenses dicen “por favor” cuando hablan con sus asistentes inteligentes.
Parece que esta tendencia continúa. Una encuesta realizada en 2025 por la editorial Future reveló que el 70% de las personas son educadas con la IA cuando la usan. La mayoría afirmó hacerlo porque es lo correcto, aunque el 12% sostuvo que era para protegerse en caso de rebeliones de robots.
La cortesía puede no protegerte de robots enfadados ni hacer que los LLM sean más precisos, pero hay otras razones para seguir haciéndolo.
“Para mí, lo más importante es que decir ‘por favor’ y ‘gracias’ puede hacerte sentir más cómodo interactuando con la IA”, afirma Schulhoff. “No mejora el rendimiento del modelo, pero si te ayuda a usarlo más porque te sientes más cómodo, entonces es útil”.
También hay que considerar la sensibilidad de tu propia naturaleza humana. El filósofo Immanuel Kant argumentó que una razón por la que no se debe ser cruel con los animales es que también es perjudicial para uno mismo.
En esencia, ser hostil con cualquier cosa te convierte en una persona más cruel. No puedes herir los sentimientos de una IA porque no los tiene, pero quizá deberías ser amable de todos modos. Es un hábito que podría beneficiar otros aspectos de tu vida.
*Puedes leer la versión original en inglés de este artículo de BBC Future aquí.
Haz clic aquí para leer más historias de BBC News Mundo.
Suscríbete aquí a nuestro nuevo newsletter para recibir cada viernes una selección de nuestro mejor contenido de la semana.
También puedes seguirnos en YouTube, Instagram, TikTok, X, Facebook y en nuestro canal de WhatsApp.
Y recuerda que puedes recibir notificaciones en nuestra app. Descarga la última versión y actívalas.
-

Qué son los “cristales de memoria” que desafían las leyes de la física y prometen solucionar el problema del almacenamiento masivo de datos
This post was originally published on this site.
Durante una visita a Japón en 1999, el investigador Peter Kazansky se encontró con un misterioso fenómeno físico que ahora cree que contiene la clave para el futuro del almacenamiento de datos.
En el laboratorio de optoelectrónica de la Universidad de Kioto, los científicos experimentaban con escribir sobre vidrio utilizando láseres ultrarrápidos de femtosegundos, que emiten un pulso de luz cada cuatrillonésima de segundo.
Pero notaron algo inusual en cómo la luz viajaba a través del vidrio tratado con láser. La dispersión de Rayleigh es un efecto bien establecido que describe cómo la luz blanca rebota en partículas pequeñas en todas direcciones (lo que explica, entre otras cosas, por qué el cielo se ve azul). Pero en este caso, la luz no rebotaba como se esperaba.
“Fue difícil de explicar”, afirma Kazansky, profesor de optoelectrónica en la Universidad de Southampton (Reino Unido), quien colaboraba con los investigadores de la Universidad de Kioto. “Vimos cómo la luz se dispersaba de una manera que parecía desafiar las leyes de la física”.
La observación desconcertante acabó provocando “un auténtico momento eureka”, dice Kazansky. Los investigadores descubrieron nanostructuras ocultas dentro del vidrio de sílice, creadas por “microexplosiones” generadas por los láseres de femtosegundos.
Imagina sostener un grueso trozo de cristal a contraluz y ver cómo la luz rebota en muchas direcciones distintas. Con la técnica del láser, los investigadores de Kioto habían creado accidentalmente pequeños orificios con esa misma propiedad.
Unas mil veces más pequeños que el grosor de un cabello humano, estos “remolinos” de luz son tan diminutos que resultan imperceptibles para el ojo humano. Pero pronto quedó claro para los científicos que tenían un potencial transformador. “Esta fue la primera prueba de que podíamos usar la luz para imprimir patrones complejos dentro de materiales transparentes a una escala menor que la longitud de onda de la luz”, afirma Kazansky.
Ahora, 27 años después, espera que aquel descubrimiento pueda ayudar a resolver uno de los problemas más difíciles de nuestra era de la información: el almacenamiento masivo de datos.
Nuestro problema con los datos
La Agencia Internacional de Energía proyecta que el consumo eléctrico de los centros de datos se duplicará para 2030. En la era de Internet, la inteligencia artificial, los hogares inteligentes y el capitalismo de vigilancia, hay algo que simplemente no dejamos de producir: datos.
Según la empresa de análisis IDC, para 2028 generaremos colectivamente 394 billones de zettabytes de información cada año (un zettabyte equivale a un billón de gigabytes). Cada vez que hacemos cualquier cosa en Internet -ver un video en YouTube, enviar un correo electrónico, hacerle una pregunta a un chatbot de IA- cadenas de puntos de datos salen disparadas hacia el ciberespacio.
La idea de que los datos “pesan poco” es engañosa: aunque imaginemos la información viajando de forma etérea por cables submarinos o flotando suavemente en “la nube”, en realidad requiere recursos físicos enormes, cuya demanda ya resulta insaciable.
Los centros de datos consumen cantidades masivas de electricidad, agua y materiales, y su crecimiento exponencial está obligando a buscar alternativas radicales.
Este dilema está impulsando soluciones novedosas, como la propuesta de Kazansky de grabar datos en vidrio mediante láseres. Otras opciones, como almacenar información en ADN, también están siendo exploradas por científicos y empresas como Microsoft.
Los datos se procesan y se alojan en centros de datos: estructuras gigantescas, casi alienígenas, repletas de filas de servidores de más de dos metros de altura, parpadeando sin descanso.
Estas cajas zumbantes de hardware y cables devoran energía, necesaria tanto para su capacidad de cómputo como para los enormes sistemas de refrigeración que evitan que se incendien. (Un centro de datos no es un lugar agradable para trabajar: caliente y ensordecedor, es adecuado solo para quienes pueden “soportar mucho dolor”, según una investigación de The New Yorker de 2025).
A escala global, los centros de datos representan alrededor del 1,5% de la demanda eléctrica mundial, pero se proyecta que su consumo se duplicará para 2030, momento en el que también podrían generar 2.500 millones de toneladas de emisiones de CO₂ equivalente, aproximadamente el 40% de todas las emisiones anuales de Estados Unidos.
El reciente auge de la IA generativa ha empeorado la situación, aumentando drásticamente la demanda de sistemas de computación de alto rendimiento que consumen cantidades colosales de energía y expulsan nubes intensas de calor.
La mayor parte de la energía que utilizan los centros de datos se gasta en los “datos calientes”: información que debe estar disponible al instante para un acceso rápido y actualizaciones frecuentes. Piensa en transferir dinero desde tu cuenta bancaria o en los documentos en línea que editas con regularidad.
Pero la mayoría de los datos del mundo no son de este tipo; hasta un 80% son en realidad “datos fríos”: información que nadie necesita de inmediato y que, cuando se requiere, las personas están dispuestas a esperar minutos o incluso días para obtenerla.
Esto incluye datos de cumplimiento, como registros financieros o rastros de auditoría que los bancos y otras corporaciones deben conservar indefinidamente. También entran en esta categoría las copias de seguridad de tus correos electrónicos o fotos antiguas, así como los datos archivados.
Almacenar estos datos plantea problemas. La mayor parte se guarda actualmente en discos duros dentro de centros de datos. Estos deben permanecer encendidos para que la información sea recuperable, lo que exige energía y sistemas de refrigeración.
Otra solución cada vez más popular es la cinta magnética, que se almacena en las propias instalaciones del centro de datos o en bibliotecas de cintas especializadas. Debe mantenerse a temperaturas de 16‑25 °C (61‑77 °F), lo que implica también un consumo energético para conservar sus condiciones ideales.
Además, necesita reemplazarse cada 10‑20 años debido a su degradación, momento en el cual la cinta antigua se desecha como residuo. El enorme aumento en la producción de datos ha impulsado una fuerte demanda de cinta magnética en los últimos años.
“Cristales de memoria”
Un cristal de vidrio de SPhotonix que muestra imágenes digitales de una pintura de la Cueva Chauvet y una imagen generada por IA del alunizaje fue lanzado a la órbita en junio de 2025. Todo esto hace que la búsqueda de soluciones alternativas sea cada vez más urgente. Kazansky está adoptando un enfoque novedoso al problema. En los años posteriores a aquella primera revelación en la Universidad de Kioto, descubrió que los remolinos de diminutas perforaciones grabadas en el vidrio podían leerse de forma muy similar a los datos en las fibras ópticas.
Explica que este método codifica datos en cinco dimensiones utilizando la diferencia en la orientación y la intensidad de la luz combinadas con la ubicación de distintos “vóxeles” (es decir, píxeles tridimensionales individuales con coordenadas x, y, z).
“Al aprovechar estas propiedades de la luz, podemos almacenar datos en cinco dimensiones en lugar de las tres habituales, lo cual es la clave para lograr la alta densidad necesaria para un almacenamiento ‘eterno’”, afirma Kazansky.
La información se lee mediante un microscopio óptico especializado equipado con una cámara capaz de detectar tanto la intensidad como la polarización de la luz. “Como las nanoestructuras modifican la forma en que la luz viaja a través de ellas, usamos ópticas especiales para ‘ver’ esos cambios de polarización, que luego se decodifican nuevamente en datos digitales”, explica Kazansky.
En los “cristales de memoria” de Kazansky, se necesita energía únicamente para el proceso de escritura de datos, pero no se requiere energía adicional para mantenerlos, y el proceso de lectura tampoco es intensivo en consumo.
Pueden contener una cantidad vertiginosa de información en un área muy pequeña: teóricamente, hasta 360 terabytes (TB) -cada uno equivalente a 1.000 GB- en un disco de vidrio de 5 pulgadas (12,7 cm).
Y, según afirma, pueden durar esencialmente para siempre. Están hechos de vidrio de sílice fundido, conocido por su durabilidad y estabilidad térmica. La única precaución especial es mantenerlos dentro de un contenedor resistente, ya que, al estar hechos de vidrio, siguen siendo vulnerables a romperse de la manera tradicional.
Kazansky, junto con su hijo, fundó una empresa en 2024 para comercializar su idea y recientemente completó una ronda de financiación de US$4,5 millones. Afirma que SPhotonix ya está en conversaciones con empresas tecnológicas para estrenar algunos de sus prototipos en centros de datos durante los próximos años. Por ahora, sin embargo, señala que el objetivo sigue siendo “perfeccionar la tecnología para garantizar que sea lo suficientemente robusta” para estos usos.
Actualmente, la empresa puede alcanzar una velocidad de lectura de unos 30 MB por segundo, pero espera aumentar las velocidades de lectura y escritura hasta 500 MB por segundo en los próximos tres a cinco años, según Kazansky. (En comparación, las soluciones más recientes de almacenamiento en cinta magnética ofrecen hasta 400 MB por segundo).
“Nuestra meta es que recuperar datos… sea tan fluido como usar un disco duro moderno”, afirma.
Pero no todos creen que los cristales de memoria representen el futuro inmediato del almacenamiento de datos. Según Srinivasan Keshav, profesor de informática en la Universidad de Cambridge (Reino Unido), uno de los problemas es que la tecnología no es “compatible con la infraestructura existente”, lo que crea “enormes barreras de adopción”.
Kazansky no es el único que piensa en cómo afrontar la enorme acumulación de datos del siglo XXI. Mientras él ha encontrado respuestas en granos de arena, otros han recurrido al sustrato granular de toda la vida orgánica.
Datos en ADN
El ADN puede almacenar una enorme cantidad de datos y sus requisitos de conservación no consumen mucha energía, lo que lleva a algunos a considerarlo el medio de almacenamiento perfecto. La idea de usar ADN como medio de almacenamiento fue propuesta por primera vez en 1964 por el físico soviético Mikhail Samoilovich Neiman, y las demostraciones realizadas desde la década de 1980 han confirmado su viabilidad.
Sus defensores afirman que ofrece una solución extraordinariamente eficiente y duradera. Un solo gramo de ADN podría almacenar teóricamente hasta 215 petabytes (PB) -cada uno equivalente a un millón de GB- de datos durante miles de años.
Transformar bytes en bases nucleotídicas resulta sorprendentemente sencillo. “Tomas tus datos digitales y los asignas a los componentes básicos del ADN”, explica Thomas Heinis, profesor de gestión de datos en el Imperial College London.
Las cuatro letras de las bases del ADN —A, T, C y G— se convierten en 01, 00, 11 y 10. “Luego sintetizas una molécula -la representación física real de esos datos- y la almacenas durante el tiempo que quieras”.
La frase favorita entre los investigadores del almacenamiento de datos en ADN es que “podrías guardar todos los datos del mundo en una cucharadita”, comenta Heinis. En la práctica, sin embargo, sería muy difícil localizar la información que buscas dentro de esa masa indiferenciada, señala.
Lo fundamental es que los requisitos de almacenamiento no son intensivos en energía. “Es eficiente desde el punto de vista energético, porque si lo guardas en un lugar adecuado, no necesitas refrigerarlo en absoluto”, explica Heinis.
Eestán empezando a surgir startups en el ámbito del almacenamiento en ADN y en los últimos años se ha avanzado en reducir el coste de “leer” ADN, señala Heinis. Pero el coste total es un obstáculo.
“Sigue siendo demasiado caro”, afirma, especialmente en lo que respecta a la síntesis del ADN. “En la parte de ‘escritura’ aún no hemos visto un gran avance, así que eso es lo que realmente tiene que ocurrir”, dice Heinis. “Una vez que sea lo suficientemente barato, todo lo demás encajará”.
Aunque Heinis describe los cristales de memoria de Kazansky como un “competidor directo del almacenamiento en ADN”, donde el ADN podría tener ventaja es en que “siempre podremos leer ADN”, debido a sus amplias aplicaciones médicas.
“Con otras tecnologías, la pregunta es cuánto tiempo existirá el dispositivo de lectura”, afirma.
Heinis señala que hoy es cada vez más difícil leer soportes como los disquetes, que aparecieron en los años 70 pero quedaron prácticamente obsoletos a comienzos de los 2000. “Hay empresas que ofrecen almacenamiento de datos por más de 100 años. Pero ¿cuáles de esas empresas seguirán existiendo dentro de 100 años?”, pregunta.
Entre los gigantes tecnológicos, Microsoft es quien ha mostrado mayor interés en experimentar con nuevos tipos de almacenamiento. En 2016, la compañía anunció que había almacenado 200 MB de datos en ADN, incluyendo una base de datos de semillas del Svalbard Global Seed Vault y la Declaración Universal de los Derechos Humanos en más de 100 idiomas.
En 2020, Microsoft y otras empresas fundaron la DNA Data Storage Alliance (Alianza de Almacenamiento de Datos en ADN).
“La demanda de almacenamiento de datos a largo plazo en la nube está alcanzando niveles sin precedentes, y estamos llegando al límite de lo posible con las tecnologías actuales”, dijo un portavoz de Microsoft a la BBC.
Microsoft también patrocinó al grupo de investigación de Kazansky en la Universidad de Southampton como parte de Project Silica entre 2017 y 2019. “Demostramos juntos el principio fundamental; después de eso, ellos continuaron desarrollando la tecnología de manera independiente”, afirma Kazansky.
En febrero de 2026, Microsoft publicó un artículo en Nature detallando un nuevo avance en este campo. La empresa logró almacenar datos en vidrio de borosilicato, el mismo que se utiliza en utensilios de cocina y puertas de hornos, además del vidrio estándar de sílice fundida.
El vidrio de borosilicato es mucho más barato -lo que hace que la idea sea más viable económicamente- y también muy duradero. La compañía afirma que estos datos podrían almacenarse hasta 10.000 años.
Microsoft indicó a la BBC que, aunque sus pruebas de concepto han mostrado resultados prometedores, por ahora no está comercializando esta línea de investigación.
Equipos de investigación para la creación de cristales de vidrio desarrollados por Microsoft. Repensar la computación
Resolver el problema del almacenamiento de datos a largo plazo es solo una parte del desafío que representan los centros de datos, grandes consumidores de energía.
La sílice y el ADN son “muy atractivos desde una perspectiva de sostenibilidad”, reconoce Tania Malik, profesora adjunta en la Escuela de Computación y Ciberseguridad de la Universidad Tecnológica de Dublín (Irlanda).
“Sin embargo, es poco probable que estas tecnologías sustituyan al almacenamiento convencional para la informática cotidiana o las cargas de trabajo de IA en un futuro cercano”, advierte.
Malik señala que existen formas más prácticas de abordar, en el corto plazo, el problema del consumo energético asociado a los “datos calientes”.
“Un área importante es mejorar la eficiencia de la infraestructura, por ejemplo mediante procesadores más eficientes energéticamente y técnicas avanzadas de refrigeración, como la refrigeración líquida o la refrigeración por aire exterior”, afirma.
Al mismo tiempo, añade que hay un “reconocimiento creciente de que la eficiencia también debe abordarse a nivel del software y de las cargas de trabajo, no solo a nivel de la infraestructura”.
Malik afirma que en la informática de alto rendimiento y en la computación en la nube, el rendimiento ha sido tradicionalmente la métrica dominante, pero la eficiencia energética debe considerarse igual de importante. “Esto implica diseñar algoritmos y aplicaciones que sean conscientes del consumo de energía”.
Añade que esto también implica usar la cantidad adecuada de potencia de cómputo para cada tarea. “No todas las tareas necesitan el modelo de IA más grande posible ni el tiempo de ejecución más rápido”, apunta.
Pero, frente a la acumulación exponencial de datos, puede que también se requiera un replanteamiento más radical, señala Malik. ¿Realmente necesitamos todos los datos que producimos? Cada vez más, parte de la solución, dice, consiste en “ser más intencionales con lo que elegimos conservar”.
Haz clic aquí para leer más historias de BBC News Mundo.
Suscríbete aquí a nuestro nuevo newsletter para recibir cada viernes una selección de nuestro mejor contenido de la semana.
También puedes seguirnos en YouTube, Instagram, TikTok, X, Facebook y en nuestro nuevo canal de WhatsApp.
Y recuerda que puedes recibir notificaciones en nuestra app. Descarga la última versión y actívalas.
-

El polémico legado para los sordos de Alexander Graham Bell, quien inventó el teléfono hace 150 años
This post was originally published on this site.
Bell nació en Escocia en 1847, emigró a EE.UU. 24 años después y, antes de cumplir los 30 años de edad, ya había creado el teléfono que le haría famoso. El científico británico-estadounidense Alexander Graham Bell es ampliamente conocido como el inventor del teléfono… aunque no haya sido el único. Sin embargo, para buena parte de la comunidad sorda del mundo, su nombre despierta un sentimiento muy distinto a la admiración.
Una de las cosas fascinantes sobre la historia de los inventos es cuántas veces dos o más personas han trabajando exactamente con el mismo objetivo al mismo tiempo.
Este es uno de esos casos, sólo que, curiosamente, el objetivo no era precisamente el teléfono.
Alrededor de la década de 1870, la telegrafía eléctrica ya había hecho posible que las personas se comunicaran globalmente a la velocidad de la luz; aunque fue un gran avance, tenía algunas desventajas fundamentales: era costoso y solo podías enviar un mensaje a la vez.
El desafío era entonces encontrar la manera de enviar múltiples mensajes simultáneamente, y la recompensa prometía ser grande.
Bell había llegado a Estados Unidos en 1871, y ya lo habían cautivado el telégrafo y el reto.
Más que eso, se había enamorado de una chica, cuyo padre ofreció patrocinar su investigación en telegrafía múltiple, pues si la hacía posible podría beneficiarse económicamente, y así mantener a su hija cómodamente.
Aunque Bell no era ni ingeniero ni inventor, y sabía poco de electricidad, contaba con otros conocimientos y las ganas de encontrar respuestas.
Pero había otras personas intentando lograr lo mismo, algunas mucho mejor calificadas para la tarea.
Su rival más destacado era un inventor profesional llamado Elisha Gray que contaba con el respeto en ese medio, pues en dos ocasiones había ideado mejoras para el telégrafo.
Ambos estaban al tanto no sólo de los avances de cada uno, sino de los logros de otros, incluido el de Antonio Meucci, un inmigrante italiano que en 2002 sería reconocido por el Congreso de EE.UU. como el verdadero inventor del teléfono, pues consideraron que su “teletrófono”, demostrado en Nueva York en 1860, lo hacía merecedor del disputado título.
Pero en ese momento del siglo XIX, no fue Meucci quien estuvo en el centro de la disputa.
Paralelamente, mientras estaban en pos de la telegrafía múltiple, Bell y Gray fueron descubriendo la posibilidad de transmitir mensajes a viva voz.
A pesar de que a ambos los sedujo, Gray decidió concentrarse más en el telégrafo que en el teléfono, convencido de que así haría su fortuna.
Por la misma razón, el futuro suegro de Bell lo presionó para que hiciera lo mismo, pero él no resistió la tentación y el Día de San Valentín, 14 de febrero de 1876, presentó su solicitud para patentar el teléfono.
Dibujo de patente de telegrafía de Alexander Graham Bell, 7 de marzo de 1876. Sin saberlo, dos horas después, Gray presentó ante la Oficina de Patentes su propia idea.
Pero ya era tarde.
El 7 de marzo de 1876, Alexander Graham Bell obtuvo la patente del teléfono y se aseguró los derechos del descubrimiento.
Su verdadera misión
Aunque el título de inventor del teléfono sigue siendo disputado, Bell no sólo creó uno, sino que vio su potencial y se dedicó a demostrarlo, cuando la mayoría consideraba ese tipo de artilugios como “una curiosidad científica” sin “aplicación práctica directa” (The Telegrapher, 1869).
Aquella rudimentaria invención de Bell no tardaría en desarrollarse y multiplicarse por todo el planeta.
Hoy existen casi 9.000 millones de teléfonos móviles, aparatos que -aunque irreconocibles frente al original- siguen basándose en el mismo principio.
Su nombre quedó marcado en la historia.
A pesar de ese invento -y otros que haría después, en campos tan variados como la aviación, la navegación y la comunicación por luz-, esa no era su verdadera vocación.
Durante toda su vida, Bell insistió en que su verdadera misión no era inventar máquinas, como le escribió a esa chica de la que se había enamorado, Mabel Hubbard, en 1875, cuando aún estaba trabajando en los experimentos que llevarían al teléfono.
“De una cosa estoy cada día más seguro: mi interés por los sordos me acompañará toda la vida… Nunca abandonaré este trabajo (de profesor) y debes aceptar la idea de que, cualesquiera que sean los éxitos que pueda tener en la vida, tu esposo siempre será conocido como un maestro de sordomudos”.
Más tarde, lamentando tener que atender actos relacionados con el teléfono, le escribiría:
“Sería mucho más feliz y me sentiría más honrado si lograra formar un grupo de buenos maestros para educar a los sordos… que si recibiera todos los honores que el telégrafo pueda ofrecer”.
Su vocación era de cierta forma heredada.
Aunque en algún momento su familia vislumbraba para él un futuro distinto, desde su más temprana infancia todo lo que le rodeaba lo impulsó a dedicarse a ayudar a las personas a comunicarse entre sí.
Su abuelo y su padre eran renombrados expertos en elocución, y a través de su madre desarrolló una pasión por la música: aunque ella era prácticamente sorda, podía escucharlo tocar el piano con suficiente claridad al presionar la boquilla de su tubo acústico contra el instrumento.
Sin saberlo, estaba absorbiendo los primeros principios de la amplificación.
Así se fue forjando su objetivo en la vida: ayudar a las personas, como su madre, a hablar.
A los 16 años, ya investigaba la mecánica del habla. A los 18, comenzó a enseñar y profundizar en técnicas de elocución. Pero tras la muerte de sus dos hermanos, sus padres decidieron emigrar de Escocia a Canadá para asegurarle un mejor futuro al único hijo que les quedaba.
Llegaron en 1870, y al año siguiente Bell se trasladó a Boston, EE.UU., donde comenzó a trabajar en la Boston School for the Deaf (escuela para sordos de Boston).
Fue allí donde conoció a esa mujer que lo cautivó, la inteligente y vivaz Mabel, quien había perdido la audición a los 5 años, y quien, en 1877, se convertiría en su esposa.
Y fue en EE.UU. donde su vocación se transformó en un legado duradero para la comunidad sorda.
Hablar sin oír
Con el éxito del teléfono, la reputación y la fama de Bell lo convirtieron en una figura muy respetada.
Invirtió sus ganancias en su verdadera pasión: la educación de los sordos. Pero había una particularidad decisiva.
Desde su punto de vista, la única manera de garantizar que se integraran social y profesionalmente era a través del habla.
La idea no surgía de la nada.
Bell creció en un entorno profundamente marcado por el estudio de la voz y el habla, y también por la experiencia de la sordera en su propia familia.
Su madre había perdido la audición con los años, pero conservaba la capacidad de hablar.
Para Bell, aquello parecía demostrar que el lenguaje oral podía preservar cierta autonomía y poder personal.
Bell creía sinceramente que estaba ayudando, según la periodista e investigadora Katie Booth, autora de The Invention of Miracles: Language, Power, and Alexander Graham Bell’s Quest to End Deafness (“La invención de los milagros: lenguaje, poder y la cruzada de Alexander Graham Bell contra la sordera”).
“Pensaba que el habla podía empoderar a las personas sordas”, le explicó a BBC Mundo.
Bell enseñándole a una niña sorda a hablar. En 1872 abrió en Boston una escuela de fisiología vocal y mecánica del habla para enseñar métodos de articulación, especialmente a estudiantes sordos. Su propuesta educativa se conocería como oralismo: enseñar a los niños sordos a hablar y leer los labios, minimizando o eliminando el uso del lenguaje de señas (o signos).
El problema era que el método tenía enormes limitaciones.
Bell mismo, señala Booth, parecía ser excepcionalmente talentoso para enseñar a hablar a algunas personas sordas, pero casi nadie lograba replicar sus resultados.
“Era un profesor muy dotado”, dice la autora. “Pero su método era extremadamente difícil de reproducir. Hasta sus maestros tenían problemas para aprenderlo”.
Y, sobre todo, aprender a hablar sin haber oído nunca sonidos es extraordinariamente difícil.
“Si el sonido nunca ha formado parte de tu mundo, aprender a producirlo puede ser casi imposible”, explica.
Aun así, el enorme prestigio público de Bell impulsó el oralismo, una corriente que ya circulaba en el mundo educativo global y que terminaría dominando la enseñanza de los sordos durante décadas.
Influyó que sus ideas resonaran con tendencias más amplias de su tiempo.
A finales de ese siglo XIX, Estados Unidos vivía una intensa transformación social.
Mientras llegaban oleadas de inmigrantes y los territorios recién incorporados integraban poblaciones ya establecidas -como nativos, mexicanos y otras comunidades-, se cuestionaba constantemente qué significaba “ser estadounidense”.
La respuesta dominante tendía hacia la uniformidad. Se promovía la idea de que todos debían adaptarse a un mismo modelo cultural y lingüístico, con el inglés como lengua común; en ese clima, el lenguaje de señas solía verse como una diferencia que debía corregirse.
Al mismo tiempo, corrientes como la eugenesia influían en el pensamiento social y alimentaban la creencia de que la educación y el control del cuerpo y la mente podían “mejorar” a ciertos grupos, incluidos los sordos.
“La sociedad estadounidense ya tenía un enorme miedo a la diferencia”, apunta Booth. “Era una época obsesionada con la idea de normalidad”.
De hecho, señala, fue precisamente en ese periodo cuando la palabra ‘normal’ dejó de ser un término matemático para empezar a aplicarse a las personas.
El oralismo encajaba perfectamente en ese clima cultural: aspiraba a que las personas sordas se acercaran lo más posible al modelo de comunicación de la mayoría oyente.
Pero la historia nunca fue tan simple.
“Nada lo excusa”
Ya en la época de Bell había voces que se oponían a su visión. Educadores y líderes sordos defendían la lengua de señas y advertían que eliminarla estaba causando un daño profundo.
“Es cierto que Bell era un hombre de su tiempo”, resalta Booth. “Pero también es cierto que en su tiempo había personas sordas diciéndole claramente que lo que proponía no funcionaba y estaba perjudicando a la gente”.
En 1869, por ejemplo, el director de la American School for the Deaf en Hartford escribía: “Dios ha provisto un lenguaje dirigido al ojo. Para el sordomudo, esa es su lengua natural, y la única natural”.
Ilustración del Colegio Nacional de Sordomudos de Estados Unidos de un alfabeto de señas en esta gran tarjeta litográfica emitida en Washington, DC, alrededor de 1875. El conflicto era profundo.
Para los partidarios del manualismo, la lengua de señas no era una herramienta inferior, sino un idioma completo. Para los defensores del oralismo, el habla representaba la forma “normal” o “universal” de comunicación humana.
Con el tiempo, el oralismo terminó imponiéndose en gran parte del mundo occidental, especialmente después del Congreso de Milán de 1880, donde educadores oyentes declararon oficialmente que la enseñanza debía basarse en el lenguaje oral.
Las consecuencias serían profundas y duraderas, y Booth las vio reflejadas en la vida de sus seres queridos.
Su abuelo nació sordo en una familia oyente que no conocía la lengua de señas. Creció sin un idioma que le permitiera entender o ser entendido.
Su infancia transcurrió en silencio, sin la llave más básica para relacionarse con el mundo que lo rodeaba, relata la autora.
Cuando finalmente fue enviado a la escuela, tampoco se la entregaron. En lugar de aprender lengua de señas, fue obligado a intentar hablar.
“No tenía nada sobre lo que construir”, explica Booth. “Y terminó la escuela sin un lenguaje con el que comunicarse”.
Ese fenómeno tiene un nombre: privación lingüística. Cuando un niño crece sin acceso temprano a ningún idioma, ciertas capacidades cognitivas pueden quedar permanentemente afectadas.
“En el mundo oyente es extremadamente raro”, dice Booth. “Pero en el mundo sordo fue muy común durante décadas”.
La historia de su abuela fue distinta, pero no necesariamente mejor.
Ella creció en una familia sorda y aprendió lengua de señas desde pequeña. Sin embargo, al llegar a la escuela era castigada cada vez que la usaba.
“No solo se les negaba el acceso al lenguaje”, expone Booth. “También se les enseñaba que su forma natural de comunicarse era vergonzosa o inferior”.
Durante generaciones, muchos estudiantes sordos vivieron una u otra de esas experiencias.
Portada de Picture Post, 3 de abril de 1948. Ilustraba un reportaje fotográfico que presentaba el aprendizaje del habla por parte de un niño sordo como una historia de superación, acorde con el énfasis oralista de la época. Bell, señala Booth, tenía matices en su pensamiento y al principio mostraba cierta flexibilidad. Pero con el tiempo se fue distanciando cada vez más de la comunidad sorda y de sus críticas.
“Había personas sordas intentando convencerlo de que cambiara de opinión”, cuenta. “Tenía evidencia delante de él, incluso en su propia escuela, de que el sistema no estaba funcionando. Y aun así siguió adelante”.
Y añade: “Tenemos que reconocer que ignoró deliberadamente el conocimiento de la cultura sorda y ayudó a impulsar un movimiento que terminaría aplastándola”.
La visión dominante de la sordera tardaría casi un siglo en cambiar.
Durante mucho tiempo se consideró una deficiencia médica que debía corregirse.
Pero en la década de 1960, el lingüista William Stokoe demostró lo que tantos se habían negado a reconocer: la lengua de señas tenía una estructura gramatical compleja y completa. Era, en todos los sentidos, un idioma.
Al establecerlo con evidencia científica, su trabajo empezó a transformar el campo de estudio de la sordera y contribuyó a un cambio profundo de perspectiva.
Las personas sordas comenzaron a ser reconocidas y a reconocerse no como pacientes que necesitaban rehabilitación, sino como miembros de una minoría lingüística y cultural, con una lengua propia y una identidad colectiva.
Hoy, la llamada cultura sorda se entiende como una comunidad con tradiciones, valores y formas de comunicación propias.
Y ese cambio también ha obligado a revisar el legado de Bell.
Su trabajo científico y tecnológico sigue siendo admirable. Pero para muchos, las consecuencias de sus ideas educativas dejaron una huella demasiado profunda para ignorarla.
Como dice Booth: comprender el contexto histórico es necesario, pero no basta para absolverlo.
“Nada lo excusa”.
Haz clic aquí para leer más historias de BBC News Mundo.
Suscríbete aquí a nuestro nuevo newsletter para recibir cada viernes una selección de nuestro mejor contenido de la semana.
También puedes seguirnos en YouTube, Instagram, TikTok, X, Facebook y en nuestro nuevo canal de WhatsApp, donde encontrarás noticias de última hora y nuestro mejor contenido.
Y recuerda que puedes recibir notificaciones en nuestra app. Descarga la última versión y actívalas.
-
prueba desde sitio B
test
-
otra prueba
test test