La IA puede diseñar y ejecutar miles de experimentos de laboratorio sin manos humanas. La humanidad no está preparada para los nuevos riesgos que esto trae a la biología

REDACCION USA TODAY ESPAÑOL
12 Lectura mínima

La inteligencia artificial está aprendiendo rápidamente a diseñar y ejecutar experimentos biológicos por sí sola, pero los sistemas diseñados para gestionar esas capacidades tienen dificultades para mantenerse al día.

La empresa de inteligencia artificial OpenAI y la empresa de biotecnología Ginkgo Bioworks anunciaron en febrero de 2026 que el buque insignia de OpenAI, GPT-5, ha diseñado y realizado de forma autónoma 36.000 experimentos biológicos. Lo hizo a través de un laboratorio de robótica en la nube, una instalación donde equipos automatizados controlados remotamente por computadoras realizan experimentos. El modelo de IA sugirió diseños de estudio, y los robots los ejecutaron y enviaron los datos al modelo para la siguiente ronda. Los humanos establecieron el objetivo y las máquinas hicieron gran parte del trabajo en el laboratorio, reduciendo el costo de producir la proteína deseada en un 40%.

Esto es biología programable: diseñar componentes biológicos en una computadora y construirlos en el mundo físico, con la IA cerrando el círculo.

Durante décadas, la biología ha pasado principalmente de la observación a la comprensión. Los científicos han secuenciado los genomas de organismos para catalogar todo su ADN y aprender cómo los genes codifican proteínas que realizan las funciones de la vida. La invención de herramientas como CRISPR permitió a los científicos editar ese ADN para fines específicos, como desactivar un gen asociado con una enfermedad. La IA está ahora acelerando la tercera fase, en la que las computadoras pueden diseñar sistemas biológicos y probarlos rápidamente.

El proceso se parece menos al trabajo de laboratorio tradicional y más a la ingeniería: diseñar, construir, probar, aprender y repetir. Mientras que un experimento tradicional podría probar una única hipótesis, la biología programable impulsada por inteligencia artificial explora miles de variaciones de diseño en paralelo, replicando la forma en que un ingeniero refina un prototipo.

Como científico de datos que estudia genómica y bioseguridad, exploro cómo la IA está remodelando la investigación biológica y qué salvaguardas requiere. Las medidas y regulaciones de seguridad actuales no van a la par de estas capacidades, y la brecha entre lo que la inteligencia artificial puede hacer en biología y lo que los sistemas de gestión están preparados para manejar se está ampliando.

Lo que permite la IA

El ejemplo más claro de cómo los investigadores están utilizando la IA para automatizar la investigación es el diseño de proteínas acelerado por IA.

Las proteínas son máquinas moleculares que realizan la mayoría de las funciones en las células vivas. Diseñar proteínas nuevas tradicionalmente ha requerido años de prueba y error porque incluso pequeños cambios en la secuencia de una proteína pueden alterar su forma y función de manera impredecible.

Los modelos de lenguaje de proteínas, que son sistemas de inteligencia artificial entrenados en millones de secuencias de proteínas naturales, pueden predecir rápidamente cómo las mutaciones cambiarán el comportamiento de las proteínas o diseñarán nuevas proteínas. Estos modelos de IA diseñan posibles nuevos fármacos y aceleran el desarrollo de vacunas.

Junto con laboratorios automatizados, estos modelos crean circuitos cerrados de experimentación y revisión, probando miles de variaciones en días en lugar de los meses o años que le tomaría a un equipo humano.

Una ingeniería de proteínas más rápida podría significar respuestas más rápidas a infecciones emergentes y medicamentos más baratos.

El problema del doble uso

Los investigadores han expresado su preocupación de que estas mismas herramientas de IA puedan usarse indebidamente, un desafío conocido como el problema del doble uso: las tecnologías desarrolladas con fines útiles también pueden reutilizarse para causar daño.

Por ejemplo, los investigadores han descubierto que los modelos de IA integrados con laboratorios automatizados pueden optimizar la propagación de un virus, incluso sin formación especializada. Los científicos han desarrollado una herramienta de evaluación de riesgos para evaluar cómo la inteligencia artificial puede modificar las capacidades del virus, como cambiar el tipo que infecta o ayudarlo a evadir el sistema inmunológico.

Los modelos de IA actuales pueden guiar a los usuarios a través de los pasos técnicos para recuperar virus vivos a partir de ADN sintético. Los investigadores determinaron que la inteligencia artificial podría reducir las barreras en múltiples etapas del proceso de desarrollo de armas biológicas, y que la supervisión actual no aborda adecuadamente este riesgo.

Los robots pueden realizar estudios diseñados por humanos o inteligencia artificial en el laboratorio. Du Yu/Xinhua vía Getty Images Riesgo por bio AI

Científicos experimentados ya están utilizando la inteligencia artificial para planificar y diseñar experimentos biológicos. La cuestión de si la inteligencia artificial puede ayudar a personas con una formación biológica limitada a realizar trabajos de laboratorio peligrosos es un tema de investigación activa.

Dos estudios recientes han llegado a conclusiones diferentes.

Un estudio realizado por la empresa de inteligencia artificial Scale AI y la organización sin fines de lucro de bioseguridad SecureBio encontró que cuando las personas con experiencia limitada en biología tenían acceso a grandes modelos de lenguaje, el tipo de inteligencia artificial detrás de herramientas como ChatGPT, podían completar tareas de bioseguridad, como la resolución de problemas de protocolos complejos de laboratorio de virología, con una precisión cuatro veces mayor. En algunas áreas, estos novatos superaron a los expertos capacitados. Alrededor del 90% de estos novatos informaron pocas dificultades para lograr que los modelos proporcionaran información biológica riesgosa, como instrucciones detalladas sobre el manejo de patógenos peligrosos, a pesar de los filtros de seguridad incorporados que bloquearían dichos resultados.

Por el contrario, un estudio dirigido por Active Site, una organización de investigación sin fines de lucro que estudia el uso de la IA en biología sintética, encontró que la asistencia de la IA no hizo una diferencia significativa en la capacidad de los principiantes para completar el complejo flujo de trabajo de producir virus en un laboratorio de bioseguridad. Sin embargo, el grupo, con la ayuda de la inteligencia artificial, tuvo más éxito en la mayoría de las tareas y completó algunos pasos más rápido, especialmente en el cultivo de células en el laboratorio.

El trabajo práctico en el laboratorio ha sido tradicionalmente un obstáculo para traducir los diseños en resultados. Incluso un brillante plan de aprendizaje depende todavía de manos humanas cualificadas. Es posible que eso no dure mucho, a medida que los laboratorios en la nube y la automatización robótica se vuelven más baratos y accesibles, lo que permite a los investigadores enviar diseños experimentales generados por IA a instalaciones remotas para su ejecución.

Respondiendo a los riesgos biológicos impulsados ​​por la inteligencia artificial

Los sistemas de inteligencia artificial ahora pueden realizar experimentos de forma independiente y a escala, pero las regulaciones existentes no están diseñadas para esto. Las normas que rigen la investigación biológica no consideran la automatización impulsada por la IA, y las normas que rigen la IA no abordan específicamente su uso en biología.

En Estados Unidos, la administración Biden emitió una orden ejecutiva sobre seguridad de la inteligencia artificial en 2023 que incluía disposiciones de bioseguridad, pero la administración Trump la revocó. El análisis del ADN sintético elaborado por proveedores comerciales para garantizar que no se pueda utilizar indebidamente para crear patógenos o toxinas sigue siendo en gran medida voluntario. La legislación bipartidista introducida en 2026 para exigir el análisis de ADN aún no aborda las secuencias diseñadas por IA que evaden los métodos de detección actuales.

La Convención sobre Armas Biológicas de 1975, un tratado internacional que prohíbe la producción y el uso de armas biológicas, no contiene disposiciones sobre la IA. El Instituto de Seguridad de Inteligencia Artificial de Gran Bretaña y la Comisión de Seguridad Nacional de Biotecnología Emergente de Estados Unidos han pedido una acción gubernamental coordinada.

Las evaluaciones de seguridad que realizan los laboratorios de IA antes de lanzar nuevos modelos suelen ser opacas e inadecuadas para capturar los riesgos del mundo real. Los investigadores estimaron que incluso mejoras modestas en la capacidad de los modelos de IA para ayudar a planificar experimentos relacionados con patógenos podrían provocar miles de muertes adicionales por bioterrorismo cada año. Los plazos para cuando estas capacidades crucen umbrales críticos aún no están claros.

La Nuclear Threat Initiative propuso un marco para el acceso gestionado a las herramientas de IA biológica, haciendo coincidir quién puede usar una herramienta determinada con el nivel de riesgo del modelo en lugar de restricciones generales. El Centro RAND de Inteligencia, Seguridad y Tecnología Artificial describió un conjunto de acciones que los investigadores podrían tomar para mejorar la bioseguridad, incluida una mejor detección de síntesis de ADN y evaluaciones de modelos previas a la liberación. Los investigadores también argumentaron que los datos biológicos en sí necesitan gestión, especialmente los datos genómicos que podrían entrenar modelos con capacidades peligrosas.

Algunas empresas de IA han comenzado a imponer voluntariamente sus propias medidas de seguridad. Anthropic activó su máximo nivel de seguridad cuando lanzó su modelo más avanzado a mediados de 2025. Al mismo tiempo, OpenAI actualizó su marco de preparación, revisando los umbrales de cuánto riesgo biológico puede plantear un modelo antes de que se necesiten salvaguardas adicionales. Pero estos son pasos voluntarios específicos de la empresa. El director ejecutivo de Anthropic, Dario Amodei, escribió que el ritmo del desarrollo de la IA pronto podría superar la capacidad de cualquier empresa para evaluar el riesgo de un modelo determinado.

Cuando se utiliza en un entorno bien controlado, la IA puede ayudar a los científicos a alcanzar rápidamente sus objetivos de investigación. Lo que sucede cuando las mismas capacidades operan fuera de esos controles es una pregunta que la política aún no ha respondido. Si se reacciona de forma exagerada, el talento y la inversión pueden trasladarse a otra parte mientras la tecnología sigue avanzando de todos modos. Si no se reacciona lo suficiente, los riesgos de esa tecnología podrían explotarse para causar un daño real.


Descubre más desde USA Today

Suscríbete y recibe las últimas entradas en tu correo electrónico.

Comparte este artículo
Deja un comentario

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

es_ESSpanish

Descubre más desde USA Today

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo