Un estudio reciente revela que los patógenos diseñados por inteligencia artificial (IA) presentan amenazas de nivel pandémico al evadir las herramientas actuales de detección de ADN. Investigadores de Harvard y MIT han demostrado que estos genomas virales, optimizados para la infectividad y la evasión inmunológica, no son detectados por los sistemas de filtrado convencionales, lo que pone en riesgo la bioseguridad global. Los expertos advierten sobre la necesidad urgente de implementar sistemas de contrarresto basados en IA, monitoreo en tiempo real y una coordinación internacional más estricta para enfrentar estas nuevas amenazas biológicas. La investigación destaca la vulnerabilidad de los protocolos existentes y el potencial peligro que representan estos avances tecnológicos en manos equivocadas.
Un reciente estudio ha puesto de manifiesto una alarmante amenaza en el ámbito de la bioseguridad: la inteligencia artificial (IA) es capaz de diseñar patógenos altamente infecciosos que logran evadir los sistemas actuales de detección de ADN. Esta investigación, llevada a cabo por equipos de Harvard, MIT y diversas empresas especializadas en bioseguridad, revela que los genomas virales generados por IA, diseñados para infectar células humanas eficazmente, no son detectados por los sistemas comerciales de "alerta roja" genética, lo que genera preocupaciones sobre la obsolescencia de los protocolos actuales de bioseguridad.
En experimentos publicados en Nature Biotechnology, los investigadores desafiaron modelos de IA a optimizar secuencias genómicas virales con características como la infectividad y la evasión del sistema inmunológico. Al someter estas secuencias a los procesos estándar de detección utilizados por proveedores de ADN sintético, se constató que ninguna de las secuencias generadas por IA —algunas basadas en construcciones similares a las del virus de la influenza o coronavirus— activó los filtros comerciales. La IA había aprendido a disfrazar funcionalidades peligrosas mediante la reorganización de codones o la colocación novedosa de motivos, permitiendo que las secuencias parecieran inocuas para el software de detección mientras mantenían su potencial patogénico.
La bioseguridad tradicional se basa en gran medida en el análisis comparativo de secuencias, donde un fragmento de ADN ordenado se compara con bases de datos que contienen genes o patógenos conocidos. Si se encuentra una coincidencia o casi coincidencia, el pedido es marcado o rechazado. Sin embargo, el estudio revela una falla crítica en este enfoque: la IA ahora puede generar secuencias funcionales novedosas que evaden completamente la detección basada en similitudes. Como señala Kevin Esvelt, investigador en bioseguridad del MIT: "Hemos construido una Línea Maginot de defensa y la IA simplemente ha caminado alrededor".
Las implicaciones prácticas son preocupantes. Los fabricantes de ADN sintético como Twist Bioscience o GenScript suelen seguir pautas voluntarias de detección, utilizando bases de datos reguladas para filtrar solicitudes sospechosas. Sin embargo, las cepas diseñadas por IA en este estudio resultaron invisibles para esos filtros. Protocolos más avanzados utilizados por organizaciones como iGEM tampoco lograron identificar las amenazas. Un exfuncionario del DARPA especializado en biodefensa advirtió: "Este no es un riesgo futuro; es uno actual. Cualquier laboratorio con herramientas básicas de IA podría replicar esto mañana".
Ante esta brecha, científicos y responsables políticos están trabajando rápidamente para proponer nuevas defensas. Los autores del estudio abogan por una nueva generación de sistemas de contrarresto basados en IA capaces de detectar patógenos "sigilosos", en lugar de depender únicamente de firmas conocidas. También sugieren implementar monitoreo en tiempo real sobre los pedidos de síntesis de ADN, reforzar mandatos más estrictos sobre reportes y fortalecer la coordinación global sobre estándares biosanitarios. Sin embargo, hacer cumplir tales marcos requeriría niveles de cooperación internacional raramente vistos en el ámbito de la biodefensa.
A pesar del alarmismo presente, algunos expertos advierten que las secuencias diseñadas por IA aún deben superar obstáculos significativos relacionados con la validación en laboratorio húmedo, replicación y entrega antes de convertirse en verdaderas amenazas. La reciente evaluación realizada por las Academias Nacionales indica que los datos existentes sobre secuencias virales pueden limitar aún más el desarrollo completo de virus auto-replicantes novedosos.
Este descubrimiento surge en un contexto donde los sistemas sanitarios globales todavía se recuperan del impacto del coronavirus (COVID-19), mientras que los gobiernos permanecen centrados principalmente en amenazas biológicas convencionales como accidentes laboratoriales o contagios zoonóticos. Sin embargo, el nuevo peligro podría residir precisamente en aquello que no se puede ver: patógenos creados no por la naturaleza sino por algoritmos, pasando desapercibidos a través de un sistema roto.
A medida que gobiernos, empresas biotecnológicas e instituciones investigativas consideran las implicaciones, un mensaje resuena con claridad: la era de las armas biológicas diseñadas por IA ya no es ciencia ficción. El momento para una reforma robusta y coordinada a nivel global es ahora.