I dati del futuro, sintetici e a prova di avvelenamento

Ottenere dati sintetici e a prova di avvelenamento: sono due dei grandi obiettivi della cybersicurezza del futuro. Il mondo digitale è un vorace divoratore di dati ma in tanti i casi i dati non sono sufficienti ad addestrare le Intelligenze Artificiali, nasce così l’esigenza di creare dati ex novo, prodotti da altre IA sulla base dei dati reali disponibili. Ma uno dei pericoli, ha spiegato Aldo Sebastiani, responsabile del Centro di Eccellenza per la Cyber Security di Leonardo, in occasione di Cybertech Rome, è evitare che vengano avvelenati.

“La prossima sfida della cybersicurezza è quella di essere proattivi ossia avere la capacità di predire gli attacchi nel senso di saper anticipare le azioni degli attaccanti e automatizzare le risposte” ha detto Sebastiani. Una sfida ambiziosa che per tradursi in realtà ha necessità di una risorsa per molti aspetti rara: dati utili, senza pregiudizi e di buona qualità. Nonostante si dica spesso che il nostro mondo digitale produca in ogni momento enormi moli di dati, c’è grande scarsità di dati in alcuni settori, ad esempio nella sanità a causa di limitazioni dovute alla tutela della privacy o alla carenza di tecnologie. “Per questo si lavora oggi ai cosiddetti dati sintetici, ossia dati prodotti da Intelligenze artificiali sulla base di dati reali”, ha detto Sebastiani. “Può sembrare paradossale – ha aggiunto – ma i dati sintetici possono essere meno affetti da bias, pregiudizi dovuti magari a un qualche disturbo esterno intervenuto nel momento di presa dati”.

Ma essendo i dati la base che alimenta le elaborazioni dei computer, dalla progettazione di un motore innovativo ad una simulazione per questioni strategiche della difesa, uno dei rischi che sta emergendo in questi ultimi anni è il pericolo di ‘avvelenamento’ dei dati, il data poisoning. “E’ una nuova tipologia di attacchi che permette di creare un bias e quindi alterare i risultati del mio algoritmo”, ha aggiunto Sebastiani. Proprio per difendersi da questi attacchi è nato il ‘confidential computing’, ossia un nuovo protocollo che permette di mantenere i dati sempre protetti anche durante la loro elaborazione, il momento i cui risultano ‘nudi’ senza protezione e il momento in cui possono più facilmente essere in qualche modo rubati oppure alterati contaminando il risultato finale.

© RIPRODUZIONE RISERVATA