Un software mette alla prova l'AI per scoprire quante cose sa

Gli esami non finiscono mai, anche per l'intelligenza artificiale: è stato infatti sviluppato un software capace di verificare la quantità di informazioni raccolte da un sistema di AI dalla banca dati di un'organizzazione, in modo da capire se ha imparato abbastanza per collaborare o se ha attinto troppo mettendo a rischio dati sensibili. Il sistema è stato presentato dai ricercatori dell'Università del Surrey in Gran Bretagna in occasione dell'International Symposium on Formal Methods che si è svolto in Germania, a Lubecca.

Secondo gli sviluppatori, il software potrebbe essere usato nell'ambito del protocollo di sicurezza online delle aziende che impiegano l'AI, per garantirne un uso sicuro e affidabile. Il software è anche in grado di scoprire se l'AI ha individuato delle falle nei codici informatici e se ha la capacità di sfruttarli: nell'ambito del gioco online, per esempio, potrebbe svelare se l'AI ha imparato a vincere sempre approfittando di una falla nel codice.

"Negli ultimi mesi c'è stato un interesse crescente da parte del pubblico e dell'industria nei confronti dei modelli di intelligenza artificiale generativa alimentati dai progressi dei grandi modelli di linguaggio come ChatGPT", afferma Adrian Hilton, che all'Università del Surrey dirige l'Istituto per l'AI centrata sulle persone. "La creazione di strumenti in grado di verificare le prestazioni dell'AI generativa è essenziale per sostenere la loro implementazione sicura e responsabile. Questa ricerca è un passo importante verso il mantenimento della privacy e dell'integrità dei dati utilizzati nell'addestramento".

© RIPRODUZIONE RISERVATA