Il Segretario dell’Aeronautica Militare degli Stati Uniti, Frank Kendall, ha pilotato un aereo da caccia sperimentale F-16 alimentato da intelligenza artificiale (AI) in un volo di prova presso la Base Aeronautica di Edwards, in California.
L’F-16 controllato dall’IA, lo X-62A VISTA (Variable In-flight Simulator Test Aircraft), si è confrontato in un combattimento aereo con un F-16 pilotato da un umano.
I due jet sono volati a distanze inferiori ai 1.000 piedi l’uno dall’altro a velocità superiori a 550 miglia orarie, eseguendo manovre complesse ad alta velocità e cercando di costringere l’avversario in posizioni vulnerabili.
Il Segretario Kendall, che ha provato in prima persona il jet pilotato dall’IA durante il volo di un’ora, ha espresso l’inevitabilità dell’armamento IA: “È un rischio per la sicurezza non avere l’IA. A questo punto, dobbiamo averla.”.
Alla fine del volo, il Segretario Kendall ha dichiarato di aver visto abbastanza da fidarsi dell’IA sul campo di battaglia.
Questo segue un test recente del medesimo aereo in una situazione di combattimento aereo reale.
Sale la preoccupazione per le armi IA
Come prevedibile, la prospettiva di armi IA che lanciano autonomamente senza intervento umano è assai controversa.
In una recente conferenza internazionale intitolata “Umanità al bivio: I sistemi di armi autonomi e la sfida della regulazione”, tenutasi a Vienna, partecipanti da 143 paesi hanno dibattuto sulla necessità urgente di regolamentare l’uso dell’IA nei sistemi di armi autonomi (AWS).
Il Ministro degli Esteri austriaco, Alexander Schallenberg, ha avvertito che il mondo sta affrontando un “Momento Oppenheimer”, riferendosi allo sviluppo della prima bomba atomica.
Ha sottolineato, “almeno facciamo in modo che la decisione più profonda e di vasta portata – chi vive e chi muore – rimanga nelle mani degli umani e non delle macchine.”.
Altri si sono chiesti chi sarebbe responsabile se le armi IA dovessero fallire. Il produttore? Colui che comanda l’operazione? O qualcuno più in basso nei ranghi che preme pulsanti e monitora le attrezzature?
L’IA non viene solo impiantata nelle armi – viene anche utilizzata per sviluppare strategie di campo. Tuttavia, uno studio recente ha riscontrato che i modelli di lingua possono spingere i giochi di guerra verso una guerra nucleare.
I droni autonomi sono già dispiegati da entrambe le parti nella guerra in Ucraina, mentre le forze israeliane stanno presumibilmente utilizzando l’IA per identificare obiettivi umani nella guerra a Gaza.
Nonostante queste preoccupazioni, l’Aeronautica Militare USA ha progetti ambiziosi per una flotta abilitata dall’IA, costituita da oltre 1.000 aerei da guerra senza pilota operativi entro il 2028.
Vista sostiene che nessun altro paese ha un jet IA del genere, riferendosi principalmente all’assenza di tali armi in Cina, per quanto ne sanno le fonti occidentali.
Sebbene la Cina abbia una tecnologia IA largamente alla pari con gli Stati Uniti, non ci sono indicazioni che venga eseguito un test sul campo simile.
Mentre l’Aeronautica Militare USA continua a spingere i confini dell’aviazione alimentata dall’IA, la comunità internazionale si confronta su cosa questo possa significare per la guerra moderna.
Questo è un terreno precario che è stato calpestato solo dalle trame della fantascienza, la maggior parte delle quali non finisce bene per nessuno.



