Quando l’AI diventa una minaccia biologica
Immagina una vulnerabilità mai vista prima — non nei tuoi software, ma nel mondo vivente.
Nel linguaggio informatico, una zero‑day (giorno zero) è una falla sconosciuta che può essere sfruttata prima che venga corretta.
Oggi, però, Microsoft avverte che l’intelligenza artificiale potrebbe generare qualcosa di analogo in biologia: nuove proteine o sequenze genetiche potenzialmente pericolose, capaci di eludere ogni sistema di controllo.
Una prospettiva che solleva interrogativi profondi: cosa significa – dal punto di vista tecnologico, etico e giuridico – trovarsi di fronte a zero‑day biologiche?
E fino a che punto la sicurezza dell’essere umano è ormai intrecciata con la sorveglianza sui codici della vita stessa?
Il report Microsoft: l’esperimento, la scoperta, la patch
Nel blog ufficiale Microsoft viene spiegato che un team di ricerca ha condotto un test controllato (red‑teaming, simulazione di attacco etico) per verificare se modelli di intelligenza artificiale potessero generare varianti di sequenze proteiche tossiche in grado di eludere i controlli di sicurezza del DNA sintetico (Microsoft Signal, 2 ottobre 2025).
I modelli generativi utilizzati dai ricercatori sono riusciti a “parafrasare” sequenze proteiche tossiche, mantenendone la funzione dannosa ma rendendole irriconoscibili ai sistemi di controllo automatico.
Il risultato è stato così sorprendente da essere descritto in un paper pubblicato su Science, frutto della collaborazione tra enti pubblici e privati del settore biotech.
In seguito, Microsoft ha coordinato un aggiornamento dei protocolli di screening, diffondendo una sorta di patch biologica (biological patch), ossia un aggiornamento dei protocolli di analisi e confronto delle sequenze, destinato alle aziende di sintesi genetica per rafforzarne le difese e impedire che sequenze potenzialmente pericolose vengano prodotte o ordinate senza verifica.
Tuttavia, gli stessi autori del report avvertono che la minaccia rimane: le capacità creative dei modelli di IA potrebbero continuare a generare varianti impreviste, in grado di superare anche i sistemi di filtro più avanzati.

Il problema etico e giuridico: chi è responsabile?
La questione centrale è di natura etico‑giuridica: se un sistema d’IA genera qualcosa di pericoloso, chi ne risponde?
- Responsabilità del fornitore del sistema d’IA
Il nuovo Regolamento europeo sull’Intelligenza Artificiale (AI Act) impone ai fornitori di sistemi ad alto rischio (come quelli di biodesign) obblighi di sicurezza, tracciabilità e valutazione d’impatto. In caso di uso improprio prevedibile, l’azienda potrebbe essere ritenuta responsabile per mancata diligenza (artt. 9 e 17 del Reg. UE 2024/1689). - Responsabilità dell’utilizzatore
Chi impiega un modello generativo per scopi illeciti o pericolosi può incorrere in responsabilità penale ai sensi degli articoli 434 e 438 del Codice penale italiano, relativi al disastro innominato e alla diffusione di germi patogeni. La novità è che l’azione potrebbe non essere fisica, ma puramente digitale, attraverso la generazione di sequenze genetiche sintetiche. - Laboratori e intermediari
Le aziende che sintetizzano DNA sono obbligate ad adottare procedure di sicurezza conformi agli standard dell’Organizzazione Mondiale della Sanità (OMS) e al Protocollo di Cartagena sulla biosicurezza (ratificato dall’UE con la Decisione 2002/628/CE). La negligenza nell’aggiornare i propri sistemi di screening può comportare responsabilità civile e amministrativa. - Lacune normative
L’attuale quadro normativo non contempla espressamente le minacce bio‑AI (bio‑AI threats), ovvero minacce biologiche generate da intelligenza artificiale. Il Regolamento (UE) 2021/821 sul controllo delle esportazioni di tecnologie a duplice uso menziona i rischi biologici, ma non l’uso di IA generative nel design molecolare. Ciò richiede un aggiornamento normativo, simile a quanto previsto dal Cyber Resilience Act per la sicurezza informatica.
In sintesi, si delinea una nuova frontiera della responsabilità tecnologica: non solo informatica, ma biologica.
Il rischio sistemico: laboratori, biohacker, criminalità
L’esperimento Microsoft mette in luce la fragilità di un intero ecosistema.
Gli strumenti di progettazione genetica basati su intelligenza artificiale stanno diventando sempre più diffusi, anche in versioni open source (codice aperto), riducendo drasticamente la soglia di accesso a tecnologie un tempo riservate a centri di ricerca altamente specializzati.

Le università e le startup biotecnologiche, spesso sospinte dalla corsa all’innovazione, utilizzano questi sistemi per progettare nuove molecole o proteine, ma non sempre ne valutano a fondo le implicazioni etiche e di sicurezza.
Parallelamente, si è affermata una crescente comunità di biohacker – (do‑it‑yourself biology – biologia fai‑da‑te) – che opera al di fuori dei canali istituzionali, spesso priva di supervisione o regole condivise.
L’ONU, nel Biological Weapons Convention Review (2024), ha già definito questa zona grigia come una delle più difficili da monitorare e controllare.
A un livello più elevato, anche la criminalità organizzata e alcuni attori statali intravedono nel cosiddetto bioengineering basato su IA una nuova frontiera strategica.
La possibilità di creare novel pathogens (agenti patogeni inediti) o sostanze chimiche su misura è ormai concreta.
Europol e Interpol hanno incluso tali rischi tra le minacce emergenti per la sicurezza globale nel loro report 2025, richiamando l’attenzione sulla necessità di standard internazionali comuni.
In assenza di regole uniformi, il mondo rischia di avviarsi verso una nuova corsa agli armamenti biologici, invisibile e silenziosa, alimentata da codice sorgente e modelli linguistici, dove la frontiera tra ricerca e pericolo diventa sempre più sottile.
L’IA ci obbliga a ridefinire il concetto stesso di sicurezza: non più confinata ai dati o alle reti, ma estesa al DNA e alla vita biologica.
Il progresso tecnologico, se non accompagnato da un quadro giuridico ed etico solido, rischia di trasformarsi in un laboratorio incontrollato.Proteggere la vita significa oggi anche regolare il codice, cioè stabilire regole condivise per l’uso responsabile dell’intelligenza artificiale nelle scienze biologiche.
La sfida non è fermare l’innovazione, ma renderla consapevole.
Solo un dialogo costante tra scienza, diritto e coscienza potrà evitare che il linguaggio della vita diventi una nuova arma.
FAQ – Domande frequenti
Che cosa significa “zero‑day biologica (biological zero‑day)”?
È un termine mutuato dall’informatica: indica una vulnerabilità sconosciuta che può essere sfruttata prima che venga identificata o corretta. In ambito biologico, si riferisce a nuove sequenze genetiche o proteiche potenzialmente dannose, create o modificate da un sistema d’intelligenza artificiale e non ancora riconosciute dai sistemi di controllo.
L’AI Act copre anche le applicazioni biotecnologiche?
Sì, indirettamente. Il Regolamento UE 2024/1689 definisce i sistemi di IA “ad alto rischio” includendo anche quelli che operano in ambiti scientifici o sanitari. Tuttavia, non esiste ancora una sezione dedicata alla bioingegneria. La Commissione europea ha annunciato linee guida integrative per il 2026.
Chi controlla le aziende che sintetizzano DNA?
Le imprese europee devono rispettare le direttive sulla biosicurezza (Decisione 2002/628/CE) e sottoporsi a controlli nazionali periodici. In Italia, la competenza è condivisa tra il Ministero della Salute, l’Istituto Superiore di Sanità e i centri di biosicurezza regionali.
È possibile prevedere una regolazione penale per le “armi biologiche digitali (digital biological weapons)”?
La materia rientra nel campo del diritto penale internazionale. La Corte penale internazionale vieta l’uso di armi biologiche, ma resta da chiarire se una sequenza generata digitalmente possa rientrare in tale definizione.
Come può l’Europa prevenire questi rischi?
L’integrazione tra l’AI Act, il Regolamento 2021/821 e la Convenzione ONU sulle armi biologiche potrebbe costituire la base per una “Biosecurity Governance europea (governance della biosicurezza europea)”.
È auspicabile la creazione di un’autorità centrale di sorveglianza sull’uso dell’IA nel campo biotecnologico.
Fonti e riferimenti
- Microsoft Signal – “Researchers find and help fix a hidden biosecurity threat”, 2 ottobre 2025
- Science – “Synthetic DNA and AI biosecurity” (ottobre 2025)
- Regolamento (UE) 2024/1689 – AI Act (EUR-Lex)
- Intelligenza artificiale e responsabilità
- Regolamento (UE) 2021/821 – Controllo delle esportazioni di tecnologie a duplice uso (EUR-Lex)
- Cyber Resilience Act – Proposta di regolamento UE (EUR-Lex)
- Decisione 2002/628/CE – Ratifica Protocollo di Cartagena sulla biosicurezza (EUR-Lex)
- ONU – Biological Weapons Convention Review (2024)
- Europol – EU SOCTA 2025 (report) | PDF • INTERPOL – Africa Cyberthreat Assessment 2025 (report)
🔔 Vuoi restare aggiornato ogni settimana su contenuti legali, attualità e consigli pratici?
Iscriviti gratuitamente a uno dei miei canali:
– 🟢 WhatsApp → https://avvocatonardini.it/whatsapp
– 🔵 Telegram → https://t.me/stefano_nardini
– 🔴 YouTube → https://www.youtube.com/@StefanoNardiniStudio

Autore: Avv. Stefano Nardini
Avvocato, esperto in diritto delle nuove tecnologie, privacy e sicurezza informatica. Opera da oltre 20 anni nella consulenza per imprese, professionisti ed enti pubblici su GDPR, compliance e innovazione digitale. Data Protection Officer e Privacy Officer certificato.
Si occupa inoltre di diritto civile e penale, con esperienza in contenzioso, contrattualistica, responsabilità civile, reati connessi all’ambito digitale (cybercrime, trattamento illecito dei dati) e difesa penale tradizionale.
Lavora sul fronte della prevenzione e della gestione pratica dei rischi, unendo competenza tecnica e attenzione ai principi di giustizia ed etica.
🔗 Scopri di più sull’autore
L’autore ha impiegato strumenti di intelligenza artificiale come supporto redazionale, curando personalmente la selezione, l’organizzazione e la verifica rigorosa dei contenuti.
Condividi, scegli il tuo social network!
NEWSLETTER
Ti è piaciuto questo articolo? Ricevi via email i nuovi contenuti su privacy, tecnologia e diritto digitale.
Niente spam, solo contenuti di valore.
Cancellazione immediata quando vuoi.
