This post was originally published on this site.
Di lo que quieras sobre si la inteligencia artificial será algún día tan inteligente como un humano. Ya se ha convertido en una estrella de las matemáticas. El verano pasado, la IA creada por Google y OpenAI respondió correctamente a cinco de seis preguntas complejas en la Olimpiada Internacional de Matemáticas, un concurso anual para los mejores estudiantes de preparatoria del mundo.
Sin embargo, puede que el sentido común de la IA siga siendo un poco deficiente. Unos meses más tarde, Anuradha Weeraman, ingeniero de software de Sri Lanka, observó que los principales sistemas de IA tenían dificultades para responder a lo que básicamente era una pregunta capciosa que la mayoría de la gente consideraría ridículamente sencilla. Cuando dijo a varios chatbots que necesitaba llevar su auto a un taller de reparaciones que estaba a solo 50 metros y preguntó si debía ir andando o en coche, los bots le dijeron que fuera a pie.
La extraña forma en que la IA parece un genio en un momento y torpe en otro es lo que los investigadores, ingenieros y economistas llaman “inteligencia irregular”. Utilizan este término para explicar por qué la IA avanza a toda velocidad en algunas áreas –como las matemáticas y la programación informática–, mientras que aún le cuesta avanzar en otras.
El término, muy utilizado por las personas que construyen la IA y analizan sus efectos, podría ayudar a replantear el debate sobre si estos sistemas se están volviendo tan inteligentes como los humanos, o incluso más. Por el contrario, los investigadores sostienen que la IA es algo completamente distinto: mucho mejor que los humanos en algunas tareas y mucho peor en otras.
Comprender esos puntos fuertes y débiles también puede ayudar a los economistas a entender mejor lo que la IA significa para el futuro del empleo. Mientras que los programadores principiantes tienen motivos para preocuparse por sus puestos de trabajo, por ejemplo, no está tan claro –al menos ahora mismo– cómo afectará la IA a otros trabajos. Sin embargo, observar dónde empieza a mejorar con rapidez la IA podría ayudar a predecir qué tipos de trabajos se verán afectados por la tecnología.
“El rendimiento de estos sistemas varía, y no es fácil saber cuándo dejarán de hacer cosas que puede hacer un humano”, comentó Weeraman.
El término “inteligencia irregular” fue acuñado por Andrej Karpathy, uno de los investigadores fundadores de OpenAI, antiguo jefe de tecnología de autoconducción de Tesla; en las redes sociales, es uno de los comentaristas más seguidos sobre el auge de la IA.
“Algunas cosas funcionan extremadamente bien (para los estándares humanos), mientras que otras fallan de manera catastrófica (también para los estándares humanos)”, escribió en las redes sociales en 2024, “y no siempre es obvio cuál es cuál”.
Esto, escribió, es diferente del cerebro humano, “donde muchos conocimientos y capacidades de resolución de problemas están altamente correlacionados y mejoran linealmente todos juntos, desde el nacimiento hasta la edad adulta”.
Desde que OpenAI inició el auge de la IA en 2022, los ejecutivos tecnológicos han oscilado entre advertir que sus nuevas creaciones podrían tener un efecto devastador en los empleos de cuello blanco y restar importancia al impacto a largo plazo en el empleo.
Hasta ahora, fuera de la industria tecnológica, solo hay pruebas anecdóticas de que la IA se ha convertido en una asesina de empleos. No obstante, dada la rapidez con que está mejorando la tecnología, muchos expertos en tecnología sostienen que el hecho de que la IA sustituya a otros tipos de trabajadores de cuello blanco no es una cuestión de saber si lo hará, sino cuándo. Hace solo unos años, estos sistemas apenas empezaban a mostrar las habilidades de programación más rudimentarias.
“Estos sistemas han venido mostrando mejoras increíbles”, afirma Alex Imas, economista de la Escuela de Negocios Booth de la Universidad de Chicago. “Cada vez que hay una nueva versión importante, la gente se sorprende de lo mucho que puede hacer”.
Sin embargo, la tecnología que aumenta lo que pueden hacer los trabajadores sin sustituirlos tiene muchos precedentes, y eso es lo que algunos investigadores y economistas de la IA sostienen que ocurrirá. Ya en la década de 1960, una calculadora de bolsillo podía sumar, restar y multiplicar mucho más rápido que una persona. Eso no significaba que una calculadora pudiera sustituir a un contador.
Ahora, sistemas como Claude de Anthropic y Codex de OpenAI también pueden escribir código informático mucho más rápido. Pero no son tan buenos a la hora de comprender cómo encaja cada fragmento de código en una aplicación de software más amplia. Para eso necesitan ayuda humana.
“Si un trabajo implica un montón de tareas diferentes –y la mayoría de los trabajos lo hacen–, algunas tareas se automatizarán y otras no”, explicó Imas. “Y si ese es el caso, el trabajador puede tener más tiempo para hacer cosas más grandes”.
El mes pasado, François Chollet, un destacado investigador de IA, publicó una nueva prueba de referencia digital llamada ARC-AGI 3. En ella se piden soluciones a cientos de rompecabezas parecidos a los de un juego, sin proporcionar ni una sola instrucción sobre cómo resolverlos. Todos los rompecabezas pueden ser resueltos por una persona normal, no entrenada, pero los principales sistemas de IA no consiguen dominar ninguno de ellos, según las pruebas realizadas por Chollet y el Premio ARC, el laboratorio de investigación sin ánimo de lucro que supervisa la prueba.
Una vez que la gente se da cuenta de que la IA es una inteligencia irregular, dicen los expertos como Chollet, comprende mejor cómo es probable que evolucione la IA en los próximos años, y qué efecto podría tener en el mercado laboral.
“Esto dependerá de qué tareas automatice, cómo y cuándo”, afirmó Imas.
Los sistemas de IA como Claude y ChatGPT de OpenAI aprenden sus habilidades identificando patrones en datos digitales, como artículos de Wikipedia, noticias, programas informáticos y otros textos extraídos de internet. Sin embargo, eso solo los lleva hasta cierto punto.
El internet solo contiene una pequeña parte del conocimiento humano. Registra lo que la gente hace en el mundo digital, pero contiene comparativamente poca información sobre lo que ocurre en el mundo físico.
Eso significa que estos sistemas pueden escribir correos electrónicos, responder preguntas, divagar sobre casi cualquier tema y generar código informático. Pero como los sistemas de IA reproducen los patrones que encuentran en los datos digitales, no son buenos planificando con antelación, generando nuevas ideas o abordando tareas que no han visto antes.
“La IA no tiene inteligencia general”, dijo Chollet. “Lo que tiene es un montón de habilidades diferentes”.
Ahora, empresas como Anthropic y OpenAI están enseñando a estos sistemas habilidades adicionales mediante una técnica llamada aprendizaje por refuerzo. Trabajando con miles de problemas matemáticos, por ejemplo, pueden aprender qué métodos conducen a la respuesta correcta y cuáles no.
Esto funciona bien en áreas como las matemáticas y la programación informática, donde las empresas de IA pueden definir con claridad el comportamiento bueno y el malo. La respuesta a un problema matemático es correcta o incorrecta. El código informático pasa una prueba de rendimiento o falla.
Sin embargo, el aprendizaje por refuerzo no funciona tan bien en áreas como la escritura creativa, la filosofía o incluso algunas ciencias, donde la distinción entre lo bueno y lo malo es más difícil de precisar.
“La codificación –que entusiasma a todo el mundo en este momento– no es representativa de todo lo que hace la IA”, afirmó Joshua Gans, economista de la Escuela de Administración Rotman de la Universidad de Toronto. “Con la codificación, es mucho más fácil utilizar un bucle de retroalimentación para averiguar qué funciona y qué no”.
(El New York Times demandó a OpenAI y Microsoft en 2023 por infracción de los derechos de autor del contenido de noticias relacionadas con los sistemas de IA. Las dos empresas han negado esas acusaciones).
Para los usuarios, a menudo es difícil saber qué hace bien la IA y qué no. Y cuando la gente por fin consigue dominar los puntos fuertes y débiles de los sistemas, la tecnología cambia.
“Lo irregular de la IA significa que los problemas pueden venir de cualquier parte”, afirma Gans. “Hay lagunas, y no siempre sabemos dónde están las lagunas”.
El comodín es que la IA está mejorando rápidamente. Muchos de los puntos débiles que Karpathy y otros señalaron en 2024 y principios de 2025 ya no existen. Las empresas encontrarán otras deficiencias y también las corregirán.
“Las brechas de la tecnología se están cerrando”, dijo Imas.
La IA siempre se ha comparado con la inteligencia humana, pero puede que no sea la forma correcta de pensar en ella. Saber lo que hace bien podría ayudar a predecir qué trabajos puede sustituir. (Pingnan Lu/The New York Times)

Leave a Reply