IA, la scienza mette alla prova ChatGPT. Servono regole

Sta imparando a poco a poco e, crescendo, potrebbe essere in grado di progettare esperimenti, analizzare dati e decidere se un articolo scientifico può essere pubblicato o meno: ChatGPT, l’applicazione dell’Intelligenza artificiale (IA) capace di conversare con gli esseri umani, sta imparando molto anche dagli scienziati, ma sbaglia facilmente. Lo indica l'analisi condotta dalla rivista Nature e pubblicata sul suo sito, dalla quale emerge inoltre che è proprio questo il momento giusto per trovare le regole per utilizzarne al meglio le potenzialità, evitando che gli errori possano scardinare i principi che da sempre guidano la ricerca scientifica.

Rilasciato alla fine del 2022 dall’azienda californiana OpenAI e liberamente accessibile, ChatGPT è diventato rapidamente popolare anche fra i ricercatori e il suo sviluppo, scrive Nature, è già chiaramente inarrestabile. “Pensiamo che l’uso di questa tecnologia sia inevitabile e che vietarla non servirebbe. Perciò è imperativo che la comunità scientifica avvi un dibattito sulle implicazioni".

Alcuni scienziati stanno utilizzando ChatGPT per scrivere saggi e discorsi, nel sintetizzare gli articoli che leggono, prendere appunti sui loro esperimenti o per scrivere programmi informatici. Questo significa che programmi come questi, chiamati chatbot, ogni giorno vengono alimentati con dati e informazioni che permettono loro di imparare e di evolversi. Vale a dire, rileva Nature, che “presto questa tecnologia si evolverà al punto da poter progettare esperimenti, scrivere e completare manoscritti, condurre peer review e supportare decisioni editoriali per accettare o rifiutare manoscritti”. Dietro l’angolo potrebbero esserci una vera rivoluzione per la ricerca eun'accelerazione dell’innovazione, ma anche errori che potrebbero "degradare la qualità e la trasparenza della ricerca e alterare radicalmente la nostra autonomia come ricercatori umani”. Potrebbero, per esmepio, generare testi apparentemente convincenti ma sbagliati nei contenuti, fino a distorcere fatti scientifici e a diffondere disinformazione.

Per questo motivo è meglio intervenire subito stabilendo delle regole, e sono almeno cinque quelle da cui, secondo la rivista, bisogna cominciare.

La prima prevede che qualsiasi risultato prodotto da una chatbot sia sottoposto a una verifica umana, soprattutto alla luce del grande sviluppo che questi programmi potranno avere a mano a mano che si evolveranno, fino a produrre una nuova generazione di motori di ricerca capaci di dare risposte sempre più dettagliate, ma non per questo valide. La seconda regola prevede che questi programmi siano utilizzati in modo responsabile e trasparente, per esempio indicando ogni volta quale chatbot sia stata utilizzata per produrre un risultato, un documento o un’invenzione degna di brevetto. In terzo luogo, la trasparenza è d’obbligo anche nella proprietà delle chatbot e, secondo Nature, si dovrebbero intensificare gli sforzi perché siano per la maggioranza liberamente accessibili.  La quarta regole prevede che si utilizzino al meglio tutti i vantaggi che l’IA potrà offrire e, infine, bisognerà estendere il più possibile il dibattito su questo tema perché aumenti la consapevolezza nella società.

© RIPRODUZIONE RISERVATA