Nei laboratori della Stanford University, un’AI addestrata su milioni di genomi ha creato dei batteriofagi, virus specializzati che distruggono i batteri, offrendo nuove prospettive contro l’antibiotico-resistenza ma sollevando anche importanti dilemmi etici.

[In pillole] La sintesi per chi va di fretta:
Alla Stanford University, l'intelligenza artificiale ha progettato i primi virus sintetici, capaci di replicarsi e distruggere batteri, inclusi ceppi resistenti agli antibiotici. Questa scoperta segna un'innovazione nella biologia sintetica, offrendo nuove speranze contro l'antibiotico-resistenza. Tuttavia, la tecnologia solleva importanti dilemmi etici e di sicurezza, dati i rischi legati alla creazione di forme di vita artificiali e al potenziale uso improprio.
Un modello di intelligenza artificiale che scrive genomi
Il cuore del progetto è un modello di intelligenza artificiale chiamato “Evo”, sviluppato specificamente per questo compito. A differenza dei modelli più noti come GPT-4, addestrati su enormi quantità di testi e immagini provenienti da internet, Evo è stato istruito su un archivio biologico: oltre due milioni di genomi di batteriofagi.
In questo modo, il sistema ha imparato le “regole grammaticali” del DNA virale, comprendendo quali sequenze di geni sono necessarie per creare un virus funzionante, quali proteine servono per assemblare il suo involucro (il capside) e quali sono indispensabili per replicarsi all’interno di una cellula batterica.
In sostanza, l’IA ha imparato a “parlare” il linguaggio dei virus.
Questa capacità di “imparare un linguaggio” da un archivio di dati specifici è l’essenza stessa del machine learning, un processo di addestramento che permette al sistema di scoprire le regole nascoste in dati complessi, proprio come un linguista decifra una grammatica sconosciuta.
Una volta completato l’addestramento, i ricercatori hanno chiesto a Evo di generare genomi completamente nuovi, progettati per essere attivi contro ceppi specifici del batterio Escherichia coli. L’intelligenza artificiale ha prodotto 302 proposte di genomi virali. A questo punto, la ricerca si è spostata dal computer al laboratorio: gli scienziati hanno sintetizzato fisicamente il DNA di questi virus artificiali e lo hanno inserito in batteri per vedere se si sarebbero attivati.
Di questi, sedici si sono dimostrati funzionanti, ovvero in grado di assemblarsi, replicarsi e infettare con successo le cellule batteriche.
Un tasso di successo che potrebbe sembrare basso, ma che nel campo della biologia sintetica è considerato notevole, data la complessità di creare da zero un sistema biologico funzionante.
“Questa è la prima volta che sistemi di intelligenza artificiale sono in grado di scrivere sequenze coerenti su scala genomica”, ha spiegato lo stesso Hie alla rivista Nature, sottolineando come il passo successivo potrebbe essere la “vita generata dall’IA”.
Alcuni dei genomi creati erano così originali e diversi da qualsiasi fago conosciuto in natura che, secondo le classificazioni biologiche tradizionali, potrebbero essere considerati specie a sé stanti.
Questi nuovi virus non sono solo una prodezza tecnica: hanno dimostrato di poter svolgere un compito ben preciso.
La promessa contro i batteri resistenti
Uno dei problemi sanitari più pressanti del nostro tempo è l’antibiotico-resistenza: un numero crescente di infezioni batteriche non risponde più ai farmaci tradizionali, con conseguenze potenzialmente drammatiche.
La ricerca di alternative è quindi una priorità globale, e la “terapia fagica” – l’uso di virus per combattere i batteri – è una delle strade più promettenti. Il lavoro del team di Stanford si inserisce perfettamente in questo contesto, mostrando un potenziale che va oltre la semplice dimostrazione di fattibilità.
I virus progettati da Evo non si sono limitati a funzionare.
In molti casi si sono rivelati più efficaci delle loro controparti naturali.
– Leggi anche: YouTube lancia il suo DJ con intelligenza artificiale
I test hanno dimostrato che i fagi artificiali erano in grado di infettare e distruggere tre diversi ceppi di E. coli che erano invece resistenti al virus naturale da cui il modello IA aveva preso ispirazione. I ricercatori hanno osservato che i virus sintetici “in molti casi erano più infettivi” e presentavano “importanti alterazioni del genoma che un essere umano difficilmente avrebbe potuto progettare razionalmente”.
Questo suggerisce che l’intelligenza artificiale non sta solo imitando la natura, ma la sta potenzialmente ottimizzando, trovando soluzioni genetiche nuove ed efficienti che l’evoluzione non ha ancora esplorato o che un progettista umano non avrebbe concepito.
L’idea è quella di poter un giorno utilizzare questi sistemi per progettare rapidamente fagi “su misura” per colpire un batterio specifico che sta causando un’infezione difficile da trattare. Invece di cercare in natura un fago adatto, un processo che può richiedere mesi, si potrebbe sequenziare il genoma del batterio patogeno, darlo in pasto a un’IA e ottenere in breve tempo il progetto di un virus in grado di neutralizzarlo.
Sebbene Samuel King, coautore dello studio, abbia precisato che “sono necessari molti progressi sperimentali per poter progettare un intero organismo vivente”, la strada sembra ormai tracciata. Eppure, proprio la potenza e l’autonomia di questo approccio hanno fatto suonare più di un campanello d’allarme nella comunità scientifica.
I rischi di una tecnologia a doppio taglio
La capacità di creare nuovi virus funzionanti, per quanto mirati a batteri innocui in laboratorio, solleva inevitabilmente questioni di sicurezza.
Se un’intelligenza artificiale può essere addestrata per creare virus che uccidono l’E. coli, cosa le impedirebbe di essere usata per progettare agenti patogeni molto più pericolosi?
La reazione di una parte del mondo scientifico è stata di aperta preoccupazione. Craig Venter, un pioniere della biologia sintetica noto per aver sequenziato il primo genoma umano, ha espresso forti riserve, avvertendo che “un’area in cui esorto a un’estrema cautela è qualsiasi ricerca sul potenziamento virale, specialmente quando è casuale e non sai cosa stai ottenendo”.
Ha poi aggiunto un esempio esplicito: “Se qualcuno lo facesse con il vaiolo o l’antrace, avrei serie preoccupazioni”.
Il team di Stanford ha dichiarato di aver preso precauzioni, assicurandosi che il modello Evo non fosse addestrato su dati provenienti da virus patogeni per l’uomo. Tuttavia, il punto sollevato dai critici non riguarda questo specifico esperimento, ma la tecnologia in sé.
Il metodo è ora pubblico e potrebbe, in teoria, essere replicato e adattato per altri scopi.
L’organizzazione di sorveglianza biotecnologica Testbiotech ha chiesto iniziative legali immediate per contenere i rischi, avvertendo che “l’approccio potrebbe essere applicato anche a virus che diffondono malattie pericolose”. In una nota pubblicata sul proprio sito, l’organizzazione ha sottolineato un altro aspetto inquietante: i fagi, una volta creati e rilasciati, possono continuare a evolvere, acquisire nuove proprietà e interagire con l’ambiente in modi imprevedibili.
Ci troviamo di fronte a un dilemma classico delle tecnologie potenti: il confine tra un’applicazione benefica e una potenzialmente dannosa è estremamente sottile.
La ricerca sui batteriofagi promette di salvare vite, ma la stessa conoscenza potrebbe essere usata per creare armi biologiche di nuova generazione.
La discussione non riguarda più solo la fattibilità tecnica, ma la responsabilità etica e la necessità di una regolamentazione internazionale che possa governare una tecnologia in grado di scrivere, e potenzialmente riscrivere, il codice della vita. La scoperta di Stanford, quindi, non è solo una notizia scientifica, ma l’inizio di un dibattito complesso e necessario sul futuro della biologia e sul ruolo che lo sviluppo dell’intelligenza artificiale avrà nel plasmarlo.
 
         
         
         
        


