Salta al contenuto
AI, che c'è da attendersi dall'High-Level Expert Group della Commissione europea
Agendadigitale.eu

La discussione sugli aspetti etici dell'Intelligenza Artificiale emerge finalmente a livello europeo. Questa estate la Eu Commission ha designato un gruppo di esperti di alto livello per supportare l'implementazione delle strategie sull'Intelligenza Artificiale (IA). Vediamo perché e che possiamo attenderci.  L'High-Level Expert Group on Artificial Intelligence Perché si parla di etica e Intelligenza artificiale Scelta, calcolo e giudizio L'High-Level Expert Group on Artificial Intelligence L'High-Level Expert Group on Artificial Intelligence (AI HLEG), che comprende ben cinquantadue esperti dal mondo delle imprese, della ricerca, dell'università e della pubblica amministrazione, aiuterà nell'apertura di un dialogo con tutti gli stakeholder e proporrà analisi e indicazioni per le future politiche europee sull'IA. In particolare dovrà elaborare le linee guida sugli aspetti etici, sociali e legali relativi alla IA. Le questioni aperte sono molte: il futuro del lavoro, l'equità, la trasparenza, la responsabilità delle azioni, la democrazia, la protezione dei dati personali, la dignità, la non-discriminazione e la protezione dei consumatori (EC, 2018). Altri segnali in questo senso erano già emersi. Dal 2013 la Commissione europea include in tutti i programmi di ricerca europei i principi della Ricerca e Innovazione Responsabile: "... per meglio allineare i risultati dell'innovazione con i valori, i bisogni e le aspettative della società" (EC, 2013). Dal 2014 l'associazione che raccoglie i responsabili della ricerca delle imprese europee (European Industrial Research Management Association, EIRMA) ha costituito una responsible innovation task force (EIRMA, 2018). A Marzo 2018, Tim O'Really - uno dei più innovativi imprenditori del mondo digitale, fondatore e CEO di O'Really Media - nel suo intervento alla conferenza annuale pungola la platea: "... nel 2018 crediamo ancora che sia accettabile per le imprese di massimizzare i loro profitti a prescindere dalle conseguenze sociali, ambientali e umane" (O'Really, 2018). A Maggio 2018 Forbes scrive: "... we need chief ethics officers more than ever" proprio per aiutare ad affrontare i dilemmi etici dell'IA (Pontefract, 2018). Fino ad arrivare a Agosto 2018, quando Science annuncia la definizione dei principi etici di una "good AI society" per sviluppare le potenzialità dell'IA mantenendo il controllo agli umani (Taddeo e Floridi, 2018).

Perché si parla di etica e Intelligenza artificiale

Perché una tecnologia come l'IA richiede tutto questo sforzo etico? Il primo punto da cui partire è che nessuna tecnologia è neutra. In particolare per i computer Deborah Johnson, la fondatrice della computer ethics, parla di socio-technical systems e ci insegna che informatica e società si plasmano a vicenda (co-shaping). Questo apre due grandi opportunità: da una parte permette di superare il "pensiero unico" che vede ogni sviluppo tecnologico come ineluttabile, dall'altra mette al centro le scelte dei progettisti informatici e la loro responsabilità professionale (Johnson, 1985; Gotterbarn e al., 1997). Dobbiamo imparare dunque a mettere in discussione la tecnologia ("question technology" come recitava una T-shirt degli anni '80 della Computer Professionalds for Social Responsibility) e chiederci sempre: ma questa innovazione, pur essendo tecnicamente possibile, è socialmente desiderabile, eticamente accettabile e ambientalmente sostenibile? L'IA ha passato molte stagioni da quando Alan Turing nel 1950 descrive la prima idea di macchina con qualche forma di intellligenza con il suo imitation game: "una macchina in grado di 'pensare', concatenare idee e esprimerle" (Turing, 1950). Ormai non si parla più di IA generica ma di applicazioni specifiche: problem solving, collaborazione con i robot (cobot), visione artificiale, elaborazione del linguaggio naturale. Tutti sviluppi basati su una delle aree più dinamiche dell'IA: il cosiddetto machine learning (l'algoritmo non è più statico ma dinamico e i sistemi si calibrano continuamente, modificando i pesi delle reti neurali). Questa calibrazione richiede quantità di dati immense (Exabyte). E chi ha oggi questa quantità di dati? I titani del Web. Imprese che - grazie a un modello di business basato su servizi gratuiti a fronte di vendita di spazi pubblicitari, un'architettura informatica centralizzata come il cloud computing, algoritmi di AI sempre più sofisticati in grado di creare dipendenza - riescono a raccogliere uno tsunami di bit da miliardi di utenti permanentemente connessi. Più una persona usa un social network, più dati verranno raccolti, più la piattaforma calibrerà i suoi algoritmi personalizzando sempre di più le visualizzazioni: la rete diventa una somma di solitudini. I titani del Web sono ormai diventate le più grandi imprese del pianeta (Forbes, 2018).

Scelta, calcolo e giudizio

Quando si tratta di elaborare big data le macchine riescono a fornire prestazioni impressionanti battendo gli umani a Scacchi, a Go, a fornire previsioni sempre più precise. Ma chi si assume la responsabilità in caso di scelte? Come si può garantire l'equità e la trasparenza dell'IA? Non tutte le scelte infatti sono automatizzabili, programmabili e affrontabili con il solo pensiero computazionale. Un conto è battere l'umano a scacchi, altra cosa è guidare un'auto e trovarsi di fronte ad una scelta life critical. Sono sempre gli umani a doversi assumere la responsabilità delle scelte soprattutto quelle che richiedono equilibrio, prudenza, saggezza. Come diceva Weizenbaum, uno dei padri dell'intelligenza artificiale, vi sono scelte che gli umani non dovrebbero delegare ai computer: "choosing ... is the product of judgment, not calculation" (Weizenbaum, 1976). Per tutto questo l'IA ha bisogno dell'etica.