L'effetto IA, aumenta la distanza psicologica dalla guerra
Il campo di battaglia percepito sempre più distante , dominato da algoritmi e droni più che da esseri umani, tecnologie militari controllate dall'intelligenza artificiale capaci di accelerare i tempi di un attacco e la prospettiva, ancora controversa, che le armi autonome in realtà siano tali solo in pochissimi casi : è così che l'IA sta trasformando la guerra , sollevando domande e soprattutto spingendo a chiedere regole.
"Il rapido sviluppo tecnologico sta superando la lentezza delle discussioni internazionali ", afferma sul sito della rivista Nature il politologo Michael Horowitz dell'Università della Pennsylvania a Philadelphia. Sempre su Nature l'esperto di tecnologie militari Craig Jones, dell'Università britannica di Newcastle, rileva che "l' attuale incapacità di regolamentare la guerra basata sull'intelligenza artificiale , o di sospenderne l'uso fino a quando non si raggiunga un accordo su un utilizzo legittimo, sembra suggerire che la potenziale proliferazione della guerra basata sull'intelligenza artificiale sia imminente ". Il Pentagono, per esempio, stima che entro il 2035 circa il 70% della forza aerea statunitense potrebbe essere costituito da sistemi senza pilota , osserva il matematico Alfio Quarteroni, accademico dei Lincei.
Che siano i pochi droni già capaci di individuare in modo autonomo un bersaglio , o quelli più tradizionali che hanno comunque bisogno di una guida, o ancora gli sciami di droni potenzialmente capaci di riconoscimento facciale , una delle novità portate dall'IA nella guerra è che queste " contribuiscono anche ad aumentare la distanza psicologica dal campo di battaglia ", dice Quarteroni.
"L' uso crescente di droni e sistemi d'arma automatizzati riduce il contatto diretto con la violenza , attenuando l'impatto sensoriale e morale dell' uso della forza letale . Storicamente - prosegue - i soldati hanno sempre dovuto superare una naturale avversione all'uccisione", ma "le nuove tecnologie rischiano di rendere questo passaggio sempre meno evidente. Il fenomeno è stato definito ' scarico cognitivo '". Vale a dire che lo sforzo di analisi viene delegato ai sistemi automatici , mentre gli esseri umani rischiano di sentirsi più distaccati dalle conseguenze delle decisioni prese. Algoritmi e dati diventano i protagonisti sul campo di battaglia, dal quale gli esseri umani che controllano le armi sono lontani anche emotivamente , e si comincia a temere il rischio di una delega di responsabilità dagli esseri umani alle macchine , considerate a torto infallibili.
"Secondo alcune ricostruzioni - dice ancora il matematico - un altro rischio è che si accorci la cosiddetta kill chain , cioè la sequenza di passaggi che va dall'identificazione di un obiettivo fino all'autorizzazione e all'esecuzione dell'attacco " Si parla di ' compressione decisionale ': "operazioni militari che in passato richiedevano giorni o settimane di pianificazione, oggi possono essere preparate in minuti o persino in secondi" e si comincia a temere che "i decisori umani possano finire per limitarsi a ratificare automaticamente raccomandazioni generate dalle macchine ".
© RIPRODUZIONE RISERVATA