Salta al contenuto
Patrignani: «Perché vanno fermati i robot killer»
L'Adige

«Il rischio più grosso è quello di perdere il controllo. Di avere in giro per il pianeta automi in grado di muoversi e sparare autonomamente, senza più essere comandati dalla mano dell’uomo». Sembra uno scenario fantascientifico, alla Blade Runner o da serie tipo Star Trek, ma quella descritta da Norberto Patrignani , docente di Computer Ethics al Politecnico di Torino, potrebbe sfociare nella realtà. Sabato pomeriggio, alle 15, nell’Aula Magna del Palazzo dell’Istruzione, Patrignani sarà uno dei relatori dell’incontro, nell’ambito del festival di «Informatici Senza Frontiere», dal titolo «Stop Robot Killer», dove per Robot Killer s’intendono gli androidi militari in grado di sostituirsi ai soldati sul campo di battaglia. Al suo fianco ci saranno Diego Latella , ricercatore al Cnr-Isti (Istituto di scienze e tecnologie dell’informazione) di Pisa nonché segretario nazionale dell’Unione degli scienziati per Il disarmo e il collega Guglielmo Tamburrini , docente di Filosofia della scienza e della tecnologia all’Università Federico II di Napoli.

Professor Patrignani, di cosa stiamo parlando? «I killer robot sono armi letali autonome capaci di muoversi, riconoscere l’obiettivo e colpirlo mortalmente, senza che l’uomo le telecomandi più. Dotati di intelligenza artificiale e con capacità decisionali autonome, promettono – o minacciano – di rivoluzionare il modo di fare la guerra. Stiamo attraversando una soglia molto pericolosa, che potrebbe portare a una nuova e ancora più terribile corsa agli armamenti».

I robot-soldato sono già stati introdotti in battaglia da alcuni Paesi? «Ufficialmente no. Ma ci sono Paesi come Stati Uniti, Israele, Cina, Russia, Francia e Regno Unito che stanno portando avanti ricerche ed investimenti militari in questa direzione. Ad oggi questi robot sono ancora in fase di sviluppo, ma il passo è breve. I sospetti, tuttavia, non mancano. Si dice che queste sperimentazioni siano già state testate in alcuni campi di battaglia, tra cui l’Iraq».

Il mondo scientifico come si sta opponendo a queste tecnologie? «All’indomani del lancio della prima bomba atomica su Hiroshima, il fisico statunitense Oppenheimer scrisse: “I fisici oggi hanno conosciuto il peccato”. Da allora la comunità scientifica internazionale emanò diversi trattati di non proliferazione di armi nucleari e chimiche-batteriologiche. Lo stesso rischio lo stanno però correndo gli informatici. Lo sviluppo di robot autonomi, dotati di armi letali, rischia di scatenare una nuova corsa agli armamenti in versione ciberwar, spingendo gli scienziati dei computer e l’umanità intera verso una soglia che forse non dovremmo attraversare. La campagna internazionale stopkillerrobots.org, lanciata nel 2012, punta a bandire le nuove armi letali autonome prima che sia troppo tardi. Dal primo incontro a Ginevra nel 2016 organizzato dalle Nazioni Unite, molte nazioni hanno aderito alla messa al bando di tali sistemi d’arma con la speranza di arrivare ad un trattato internazionale entro il 2019. Solo cinque Stati si sono esplicitamente opposti al bando: Francia, Israele, Russia, Regno Unito e Stati Uniti. L’Italia ancora non si è espressa. Ma a fine anno, sempre a Ginevra, ci sarà un importante incontro aperto anche ad organizzazioni non governative ed associazioni civili».

Chi altro si è espresso contro? «Il Vaticano con Papa Francesco. Ma anche l’associazione “Informatici Senza Frontiere” si è recentemente espressa con un no deciso all’utilizzo di robot e intelligenza artificiale a fini militari, un drammatico segnale dell’urgenza di un’etica per i professionisti dell’informatica. Ecco perché ci rivolgiamo principalmente a loro, ai tecnologici di ogni parte del mondo, ai progettisti informatici ed agli ingegneri del domani, affinché siano loro stessi, dall’interno, a fermare la progettazione di questi robot-guerrieri.

Cosa si rischia escludendo il controllo umano nei contesti di guerra? «Il volto della guerra cambierebbe ancora in peggio. Per quanto già discutibile dal punto di vista morale-umano, non si tratterebbe più del drone o del missile comandato a distanza da un joystick da una persona vera, ma di vere e proprie intelligenze artificiali con licenza, ma senza coscienza, di uccidere essere umani. Una scelta, soprattutto di questo tipo, non può essere ricondotta ad un’attività computazionale. Eliminando la componente umana si corre un rischio troppo grande, quello di perdere il controllo di queste macchine soldato. Come progettisti conosciamo i limiti della tecnologia informatica. E possiamo dire che tecnicamente è impossibile testarli in modo esaustivo».