En la última década, el éxito de la inteligencia artificial ha generado un entusiasmo desenfrenado y afirmaciones audaces, aunque los usuarios a menudo experimentan los errores que comete la IA. Un asistente digital de IA podría malinterpretar el discurso de alguien de manera incómoda, un chatbot podría alucinar hechos o, como experimenté, una herramienta de navegación basada en IA podría incluso guiar a los conductores a través de un campo de maíz, todo sin registrar errores.
La gente tolera estos errores porque la tecnología hace que ciertas tareas sean más eficientes. Sin embargo, los defensores defienden cada vez más el uso de la inteligencia artificial (a veces con supervisión humana limitada) en áreas donde los errores tienen un alto costo, como la atención médica. Por ejemplo, la legislación introducida en la Cámara de Representantes de Estados Unidos a principios de 2025 permitiría a los sistemas de inteligencia artificial prescribir medicamentos de forma autónoma. Desde entonces, los investigadores de la salud y los legisladores han debatido si dicha prescripción sería factible o aconsejable.
Queda por ver cómo funcionaría exactamente una regulación de este tipo si se promulgara esta o una ley similar. Pero aumenta lo que está en juego en cuanto a cuántos errores los desarrolladores de IA pueden permitir que cometan sus herramientas, y cuáles serían las consecuencias si esas herramientas condujeran a resultados negativos, incluso la muerte de pacientes.
Como investigador que estudia sistemas complejos, investigo cómo interactúan los diferentes componentes de un sistema para producir resultados impredecibles. Parte de mi trabajo se centra en explorar las fronteras de la ciencia y, más específicamente, de la inteligencia artificial.
Durante los últimos 25 años he trabajado en proyectos que incluyen coordinación de semáforos, mejora de la burocracia y detección de evasión fiscal. Incluso cuando estos sistemas pueden ser muy eficaces, nunca son perfectos.
Para la inteligencia artificial, los errores pueden ser una consecuencia inevitable del funcionamiento de los sistemas. La investigación de mi laboratorio sugiere que ciertas propiedades de los datos utilizados para entrenar modelos de IA desempeñan un papel. Es poco probable que esto cambie, independientemente de cuánto tiempo, esfuerzo y recursos dediquen los investigadores a mejorar los modelos de IA.
Nadie (y nada, ni siquiera la IA) es perfecto
Como dijo una vez Alan Turing, considerado el padre de la informática: “Si se espera que una máquina sea infalible, no puede ser inteligente. Eso se debe a que el aprendizaje es una parte esencial de la inteligencia, y los humanos tienden a aprender de los errores. Veo esta tensión entre inteligencia e infalibilidad en juego en mi investigación”.
En un estudio publicado en julio de 2025, mis colegas y yo demostramos que organizar perfectamente ciertos conjuntos de datos en categorías claras puede resultar imposible. En otras palabras, puede haber una cantidad mínima de error producida por un conjunto de datos determinado, simplemente debido al hecho de que elementos de muchas categorías se superponen. Para algunos conjuntos de datos (la base básica de muchos sistemas de IA), la IA no funcionará mejor que el azar.
Las características de diferentes razas de perros pueden superponerse, lo que dificulta que algunos modelos de IA puedan distinguirlas. MirasWonderland/iStock vía Getty Images Plus
Por ejemplo, es probable que un modelo entrenado con un conjunto de datos de millones de perros que registre solo su edad, peso y altura distinga un chihuahua de un gran danés con perfecta precisión. Pero se pueden cometer errores al distinguir entre un Alaskan Malamute y un Doberman Pinscher, porque diferentes individuos de diferentes especies pueden estar en el mismo rango de edad, peso y altura.
Esta categorización se llama clasificabilidad y mis alumnos y yo comenzamos a estudiarla en 2021. Utilizando datos de más de medio millón de estudiantes que asistieron a la Universidad Nacional Autónoma de México entre 2008 y 2020, queríamos resolver un problema aparentemente simple. ¿Podemos utilizar un algoritmo de IA para predecir qué estudiantes completarán sus títulos universitarios a tiempo, es decir, dentro de tres, cuatro o cinco años después de comenzar sus estudios, según la especialidad?
Probamos varios algoritmos populares utilizados para la clasificación en inteligencia artificial y también desarrollamos el nuestro. Ningún algoritmo era perfecto; los mejores, incluso el que desarrollamos específicamente para esta tarea, lograron una tasa de precisión de alrededor del 80 %, lo que significa que al menos 1 de cada 5 estudiantes fue clasificado erróneamente. Nos dimos cuenta de que muchos estudiantes eran idénticos en grados, edad, género, nivel socioeconómico y otras características; sin embargo, algunos terminarían a tiempo y otros no. En estas circunstancias, ningún algoritmo podría hacer predicciones perfectas.
Se podría pensar que más datos mejorarían la previsibilidad, pero eso normalmente conlleva rendimientos decrecientes. Esto significa que, por ejemplo, por cada aumento del 1% en la precisión, es posible que necesite 100 veces más datos. Por lo tanto, nunca tendríamos suficientes estudiantes para mejorar significativamente el rendimiento de nuestro modelo.
Además, muchos trastornos impredecibles en las vidas de los estudiantes y sus familias (desempleo, muerte, embarazo) pueden ocurrir después del primer año de universidad, lo que posiblemente afecte su finalización a tiempo. Entonces, incluso con un número infinito de estudiantes, nuestras predicciones seguirían produciendo errores.
Límites de predicción
En términos más generales, lo que limita la predicción es la complejidad. La palabra complejidad proviene del latín plexus, que significa entrelazado. Los componentes que componen un sistema complejo están entrelazados y las interacciones entre ellos determinan qué les sucede y cómo se comportan.
Por lo tanto, estudiar los elementos de un sistema de forma aislada probablemente arrojaría ideas engañosas sobre ellos, así como sobre el sistema en su conjunto.
Tomemos, por ejemplo, un coche que circula por la ciudad. Conociendo la velocidad a la que conduce, es teóricamente posible predecir dónde acabará en un momento determinado. Pero en el tráfico real, su velocidad dependerá de la interacción con otros vehículos en la vía. Debido a que los detalles de estas interacciones ocurren instantáneamente y no pueden conocerse de antemano, predecir con precisión lo que sucederá con el automóvil sólo es posible en unos minutos en el futuro.
La IA ya está desempeñando un papel muy importante en la atención sanitaria. No con mi salud
Los mismos principios se aplican a la prescripción de medicamentos. Diferentes afecciones y enfermedades pueden tener los mismos síntomas y personas con la misma afección o enfermedad pueden tener síntomas diferentes. Por ejemplo, la fiebre puede ser causada por una enfermedad respiratoria o digestiva. Y un resfriado puede provocar tos, pero no siempre.
Esto significa que los conjuntos de datos de salud tienen importantes superposiciones que impedirían que la IA esté libre de errores.
Por supuesto, la gente también comete errores. Pero cuando la IA diagnostica erróneamente a un paciente, como seguramente hará, la situación cae en un limbo legal. No está claro quién o qué sería responsable si un paciente resulta herido. ¿Compañías farmacéuticas? ¿Desarrolladores de software? ¿Agencias de seguros? ¿Farmacias?
En muchos contextos, ni los humanos ni las máquinas son la mejor opción para una tarea determinada. Los “centauros” o “inteligencias híbridas”, es decir, una combinación de humanos y máquinas, tienden a ser mejores que cada uno de ellos individualmente. Sin duda, un médico podría utilizar la inteligencia artificial para decidir qué fármacos potenciales utilizar en diferentes pacientes, en función de su historial médico, detalles fisiológicos y composición genética. Los investigadores ya están explorando este enfoque en la medicina de precisión.
Pero el sentido común y el principio de precaución sugieren que es demasiado pronto para que la IA prescriba medicamentos sin supervisión humana. Y el hecho de que la tecnología pueda incorporar errores puede significar que cuando la salud humana está en juego, la supervisión humana siempre será necesaria.
Descubre más desde USA Today
Suscríbete y recibe las últimas entradas en tu correo electrónico.

