Il data poisoning rappresenta una minaccia significativa per la sicurezza dei sistemi di Intelligenza Artificiale (IA), in particolare per le componenti di Machine Learning (ML). Consiste nella manipolazione malevola dei dati di addestramento, che può distorcere i risultati prodotti dal sistema, favorendo gli obiettivi dell'attaccante. La complessità dei sistemi di IA amplia la loro "superficie d'attacco", esponendoli a varie tipologie di minacce. Sebbene molte di queste minacce siano simili a quelle dei sistemi ICT, altre hanno caratteristiche specifiche che richiedono conoscenze e gestione adeguata.
Il data poisoning è una delle minacce più concrete per i sistemi di Machine Learning, compromettendone le funzionalità. È cruciale gestire queste minacce in modo efficace, soprattutto quando si richiede un elevato livello di affidabilità, come nel caso di applicazioni critiche per infrastrutture, sistemi a guida autonoma o il settore sanitario.
Per contrastare il data poisoning, è essenziale includere le applicazioni di ML e i dataset utilizzati per l'addestramento nei processi di sicurezza dell'organizzazione. Questo implica proteggere tali sistemi da intrusioni non autorizzate e da codice malevolo. È anche raccomandabile adottare approcci specifici per garantire la qualità dei dati, con particolare attenzione all'accuratezza e completezza. È necessario monitorare le catene di fornitura dei dati e controllare i dati in ingresso da terze parti, effettuando la "sanificazione" dei dati per identificare ed escludere eventuali dati corrotti dai dataset di addestramento. La complessità e l'evoluzione rapida della questione richiedono un approccio collaborativo.
Il contributo del settore della ricerca è fondamentale per la sicurezza dei sistemi di Machine Learning, con lo sviluppo e la diffusione delle conoscenze sulle minacce emergenti e le vulnerabilità dei sistemi di IA. Anche gli organismi di standardizzazione giocano un ruolo prezioso, identificando pratiche di riferimento e framework specifici per la sicurezza dell'IA.
È inoltre necessario che progettisti e sviluppatori di IA adottino un robusto approccio alla sicurezza "by design" e che le organizzazioni utilizzatrici, in particolare quelle che implementano applicazioni di IA critiche per le persone e la comunità, integrino le minacce specifiche dei sistemi di IA nei loro processi di gestione della sicurezza. È fondamentale comprendere le minacce e le vulnerabilità dei sistemi adottati, calcolando i rischi non solo per l'operatività dell'organizzazione, ma anche per le persone e la comunità che potrebbero essere coinvolte in caso di utilizzi impropri o comportamenti inadeguati di tali sistemi.
Infine, il GDPR (Regolamento UE 2016/679) stabilisce, oltre alla precisione e alla necessità dei dati, che la sicurezza è un principio fondamentale per il corretto trattamento dei dati personali. Pertanto, l'attenzione ai processi di qualità dei dati e di sicurezza è essenziale.
Fonte: Luigi Carrozzi - Funzionario dell'Autorità del Garante per la protezione dei dati personali.