Salta al contenuto
I limiti etici di un'innovazione senza freni
Harvard Business Review Italia
Nell'ottobre 1861 viene realizzata negli USA la prima connessione telegrafica coast-to-coast. Pochi giorni dopo la Wells Fargo & C. annuncia la chiusura del servizio di comunicazione basato sui pony express (PEM. 2018). Da un giorno all'altro, uno dei lavori più avventurosi dell'800 non esisteva più. Forse il primo esempio di innovazione che, nella storia delle tecnologie dell'informazione e della comunicazione (ICT), ha indotto un cambiamento sociale. Oggi l'evoluzione delle cosiddette Intelligenze Artificiali (IA) prospetta impatti ancora più significativi sulle imprese, sul lavoro e sulla società in generale: è sempre lo stesso fenomeno con qualche aggiornamento? Quali sono le implicazioni per le imprese più innovative che vogliono sviluppare una Ricerca e Innovazione Responsabile? Quali sono gli aspetti etici più profondi di questa svolta tecnologica delle IA e come si può applicare un approccio " Ethics by Design"? LE STAGIONI DELLE IA Da sempre l'umanità ha progettato macchine per svolgere compiti gravosi, ma nel caso delle IA qual'è la fatica che gli umani vogliono risparmiarsi? La fatica di ragionare. Il sogno di realizzare la macchina che ragiona inizia dal Medioevo: l'Ars Magna di Raimundo Lulio del 1274 promette di dimostrare la verità di una proposizione (Gardner, 1968); la Macchina di Leibniz del 1671 di risolvere le dispute tramite il calcolo (Wiener, 1951); con la Macchina di Babbage del 1834. in grado di eseguire un vero e proprio programma con ingranaggi meccanici, inizia l'era del "computer" (dal latino cum+putare, insieme+valutare). Un secolo dopo è il grande matematico Alan Turing, con la sua Macchina di Turing del 1937 - una macchina in grado di leggere e scrivere simboli su una memoria in base ad un programma anch'esso espresso in simboli - che introduce il concetto di macchina universale (Turing, 1937), una macchina che cambia comportamento a seconda del programma in memoria: il computer. Con la sua definizione di algoritmo - un procedimento esplicito descrivibile con un numero finito di regole che conduce al risultato dopo un numero finito di passi - Turing (insieme a Kurt Godei e Alonso Church) pone le basi teoriche della rivoluzione digitale: un computer è una macchina per eseguire algoritmi. La prima idea di IA viene proprio da Turing, nel 1950, con il suo imitation game : una macchina in grado di "pensare", concatenare idee ed esprimerle (Turing, 1950). Il termine "intelligenza artificiale" viene invece introdotto nel 1956, al convegno Summer Research Project on Artificial Intelligence al Dartmouth College nel New Hampshire. Partecipano i fondatori di questa nuova disciplina: Alien Newell, Herbert Simon, John McCarthy, Marvin Minsky, Arthur Samuel. Sono anni di grande entusiasmo: secondo Simon «le macchine saranno capaci, entro 20 anni, di svolgere qualsiasi lavoro umano»; per Minsky, «entro una generazione il problema di creare una 'intelligenza artificiale' sarà sostanzialmente risolto» (McCarthy e al., 1955). Da allora l'I A ha vissuto molte stagioni, fino ad arrivare al 2018 dove, grazie alla potenza di elaborazione dei computer (dell'ordine delle 1018 operazioni al secondo, ExaFlops), alle immense capacità di memoria (misurata in Exabyte, 1018 bytes), ma soprattutto grazie all'architettura centralizzata del cloud computing, i titani del Web riescono a raccogliere quantità di dati in crescita continua forniti da miliardi di utenti permanentemente connessi: Alibaba, Amazon, Apple, Facebook, Google, Microsoft, Tencent sono diventate le più grandi imprese del pianeta (Forbes, 2018). Questi punti di accumulazione di dati creano un vantaggio competitivo formidabile, permettendo di "calibrare" al meglio gli algoritmi e le reti neurali del cosiddetto machine learning, fondamentali per la visione artificiale e l'elaborazione del linguaggio naturale. Dal 1996, quando la macchina DeepBlue di IBM (in grado di valutare oltre 300 milioni di posizioni al secondo) batte il campione del mondo di scacchi Kasparov (Krauthammer, 1997), gli umani vengono battuti in sfide sempre più complesse: nel 2011 il sistema Watson di IBM, una macchina in grado di rispondere a domande poste in linguaggio naturale, batte i campioni Rutter e Jennings al gioco Jeopardy, un quiz televisivo di cultura generale. Nel 2016 il sistema AlphaGo di Google batte il campione internazionale Lee Sedol all'antico gioco del Go (Lawler, 2016), nel 2017 il sistema Libratus della Carnegie Mellon University batte quattro umani al gioco del Poker, mentre il sistema Heliograph scrive articoli sportivi per il Washington Post fin dalle Olimpiadi di Rio 2016 (Underwood, 2018). Molti chatbot e assistenti vocali (Google Assistant, Apple Siri, Microsoft Cortana, Amazon Alexa, Samsung Bixby) sono in grado di intrattenere una conversazione con un umano (Shridhar, 2017), proprio la sfida dell 'imitation game proposta da Turing nel 1950! Negli ultimi anni FLA generica ha lasciato il passo a direzioni di sviluppo specifiche: dal problem solving alla rappresentazione della conoscenza (ontologie), dalla pianificazione al machine learning (sistemi in grado di calibrarsi continuamente se alimentati da grandi quantità di dati, una delle aree più dinamiche delle IA), dall'elaborazione del linguaggio naturale al riconoscimento della voce (del viso, di oggetti), dal movimento autonomo alla manipolazione di oggetti sconosciuti, dalla interazione alla collaborazione con i robot (cobot). La definizione di IA diventa sfumata: «La ricerca sulle IA ha l'obiettivo di rendere le macchine intelligenti, e intelligenza è quella qualità che permette ad una entità di funzionare in modo appropriato e con capacità di previsione nel suo ambiente» (Nilsson, 2010). L'attenzione si è ormai spostata dalla teoria alle applicazioni: dai trasporti (guida autonoma per grandi autotreni e automobili) ai robot di servizio nelle abitazioni (pulizie e assistenza), dalla sanità (monitoraggio condizioni fisiche, gestione dati sanitari, robot di supporto a chirurghi e pazienti, medicina personalizzata) all'educazione (percorsi di apprendimento personalizzati, integrazione con didattica tradizionale), dai servizi sociali (ausilio alle agenzie governative, prevenzione dei rischi) alla sicurezza, dal lavoro (automazione e gestione della conoscenza) all'intrattenimento ( companion robot, piattaforme interattive) (Stanford, 2016). Entro il 2030 le IA avranno trovato applicazioni in molti di questi campi: i titani del Web saranno le uniche organizzazioni in grado di memorizzare ed elaborare i big data? Quali saranno le implicazioni per le imprese che vogliono avere un approccio di Ricerca e Innovazione Responsabile? IMPLICAZIONI PER LE IMPRESE Tutte le imprese accumulano quantità crescenti di dati nelle fasi di engagement, gestione delle transazioni, consegna di prodotti e supporto alla clientela. Dati generati dai clienti stessi nella fruizione dei loro prodotti e servizi, oppure dai sensori delle macchine stesse per abilitare la manutenzione predittiva. Se gestito opportunamente, questo tsunami di bit offre grandi opportunità di innovazione: estraendo dai dati informazioni utili per il supporto alle decisioni le IA diventano prediction machine. Emerge un nuovo megatrend: le cosiddette IA abilitano una delega alla tecnologia non più limitata a operazioni meccaniche (robotica avanzata), ma estesa anche a operazioni "mentali" e le riflessioni sull'occupazione si allargano dai lavori manuali ai lavori "intellettuali". Ad esempio, oltre il 50% del tempo dei manager viene dedicato ad attività amministrative di coordinamento e controllo: è molto probabile che entro il 2030 questi task saranno svolti dalle IA, liberando risorse preziose per attività strategiche come risoluzione dei problemi, collaborazione, relazioni con gli stakeholder (Kolbjornsrud e al, 2016). Le IA inducono le imprese innovative a definire una strategia cognitiva. Accanto a queste sostituzioni parziali di alcuni task, molti lavori rischiano di scomparire totalmente (addetti preparazione cibi, trasportatori, magazzinieri, cassieri, agenti immobiliari) mentre alcuni lavori non possono essere facilmente automatizzabili (progettisti di robot, programmatori software e "allenatori" di reti neurali, progettisti e collaudatori di sistemi complessi, autisti di mezzi di soccorso, negoziatori, musicisti, ballerini, artigiani. artisti, ostetriche e ginecologhe, potatori di alberi, filosofi) (Long e al, 2017). Come i pony express del 1861 soppiantati dal telegrafo, anche molti lavori manuali e intellettuali verranno direttamente svolti, in parte o completamente, da "macchine per eseguire algoritmi". Eppure, tutte le riflessioni sulla perdita di posti di lavoro legati alle IA sembrano fermarsi a un livello superficiale. Le risposte a questo enorme problema sociale sono spesso ovvie e ripetono ricette del passato: gli aumenti di produttività creeranno altri posti di lavoro, i lavoratori devono prepararsi ad apprendere tutta la vita, oppure misure di welfare sociale copriranno le emergenze (Frey e Osborne, 2013: Brynjolfsson e McAfee, 2014; Ford, 2015). Stiamo davvero assistendo a uno dei tanti cicli dell'innovazione oppure questa volta esistono dei limiti, ambientali e sociali, a questo tipo di sviluppo? In questo caso tutte le analisi sulle storiche contraddizioni capitale-lavoro rischiano di essere obsolete: il capitale si trasforma direttamente in lavoro, in creazione del valore, non ha più bisogno dell'intermediario umano. La domanda diventa più profonda e arriva a interrogare tutta la società sui fini dell'impresa stessa. Come diceva Adriano Olivetti molti anni fa: «Può l'industria darsi dei fini? Si trovano questi semplicemente nell'indice dei profitti?» (Olivetti, 1955). Molte sono state le risposte positive a questa domanda: dall'antico concetto di "economia civile" di Antonio Genovesi (1713-1769), dove le imprese perseguono il "bene comune" (Genovesi, 1765), alla teoria degli stakeholder di Freeman, dove il fine dell'impresa è quello di servire gli interessi di tutti gli stakeholder, non solo quello degli shareholder (Freeman, 1984); dalle più prestigiose business school del mondo che suggeriscono di superare la visione tradizionale dell'economia come un meccanismo "freddo" e fuori dal controllo degli umani (Nelson, 2006), alla Harvard Business Review che nel 2011 introduce il concetto di "creazione del valore condiviso", dove le imprese connettono le loro strategie di business con la loro responsabilità sociale (Porter e Kramer, 2011). Nel marzo 2018, Tim O'Really - uno dei più famosi e innovativi imprenditori dell'lCT, fondatore e CEO di O'Really Media - nel suo intervento alla conferenza annuale pungola la platea: «(...) Nel 2018 crediamo ancora che sia accettabile per le imprese di massimizzare i loro profitti a prescindere dalle conseguenze sociali, ambientali e umane» (O'Really, 2018). ASPETTI ETICI Per capire meglio questi cambiamenti continui è necessario assumere un punto di vista sistemico: non basta focalizzarsi sull'impatto della tecnologia ma indagare quale relazione esiste tra tecnologia e società. Una delle domande più difficili, soprattutto quando applicata alle ICT. Come sostiene uno dei più importanti studiosi di storia della tecnologia, Melvin Kranzberg (1917-1995): «Technology is neither good nor bad; nor is it neutral». La tecnologia non è neutra e ha una relazione molto più complessa con la società e con le attività umane (Kranzberg, 1986). Uno dei contributi più rilevanti viene dalla fondatrice della disciplina computer ethics, Deborah Johnson: «(...) La tecnologia non è soltanto artefatti, ma artefatti incorporati in pratiche sociali e infusi con significati sociali». La sua definizione di computer systems come socio-technical systems rappresenta uno dei punti di svolta nella storia della disciplina Science, Technology and Society. L'ICT e la società si plasmano a vicenda (coshaping) ed emerge così il ruolo fondamentale dell'etica nella progettazione dei sistemi complessi e nella formazione dei computer professional, le scelte degli ingegneri nella progettazione dei sistemi non sono neutrali, sono guidate da valori (Johnson, 1985; Gotterbarn e al., 1997). Diventa allora possibile anticipare i problemi legati ai computer, adottando una proactive computer ethics, mettendo in discussione l'evoluzione dell'ICT in certe direzioni, senza accettarle come inevitabili. Se le macchine, elaborando i big data, riescono a estrarre informazioni utili, a fornire previsioni sempre più accurate, sono sempre gli umani a doversi assumere la responsabilità delle scelte. Usando giudizio, buon senso, equilibrio, prudenza, saggezza ed evitando i rischi legati all' automazione delle scelte (soprattutto quelle life criticai), alla privacy, ai bias contenuti nei dati. Non tutte le scelte possono esser ricondotte a decisioni algoritmiche, ad attività computazionali e quindi programmabili. Molte situazioni richiedono agli umani una profonda riflessione prima di fare una scelta (che evidentemente non è mai neutra) mettendo in gioco storie, educazione, sistemi di valori: «Choosing (...) is the product of judgment, not calculation» (Weizenbaum, 1976). Trovare la mossa migliore per battere un umano a scacchi è un problema algoritmico, scegliere se investirlo o meno (come nel caso delle autonomous car) non lo sarà mai. Nel caso delle auto a guida autonoma le imprese iniziano ad essere molto caute nell'introdurre questa innovazione dando molta importanza alla massima trasparenza, proprio per capire se e a quali condizioni potrà eventualmente essere accettata dalla società (Wiggers, 2018). Il gigante delle vendite online Amazon - grazie a sofisticati algoritmi di AI - prevede con altissima precisione i gusti dei consumatori. Usate all'estremo queste previsioni potrebbero abilitare il passaggio dal tradizionale shopping-then-shipping , (ossia prima si acquista e poi si richiede la spedizione) a un nuovo shipping-then-shopping, vale a dire prima si riceve la merce - che non era stata acquistata ma che, con altissima probabilità, era nelle aspettative del consumatore - e poi si paga, stimando come trascurabile il rischio che il consumatore rimandi indietro la merce non desiderata. In sostanza, "ti arriva a casa la spesa che non hai ancora nemmeno pensato!" (Agrawal e al., 2018). Ma questa innovazione, pur essendo tecnicamente possibile, è socialmente desiderabile, eticamente accettabile e ambientalmente sostenibile? Pensiamo agli incrementi esponenziali dei consumi e dei relativi trasporti di merci, in un pianeta che deve affrontare urgentemente i rischi del cambiamento climatico. Dal 2013 in tutti i programmi di ricerca europei vengono inclusi i principi della Ricerca e Innovazione Responsabile: «Un approccio che anticipa e valuta le potenziali implicazioni e aspettative sociali della ricerca e innovazione, con l'obiettivo di progettare un futuro inclusivo e sostenibile (...) gli attori sociali (imprese, ricercatori, cittadini, policy makers, etc.) lavorano insieme (...) per meglio allineare i risultati dell'innovazione con i valori, i bisogni e le aspettative della società» (EC, 2013). Nel mondo delle imprese europee gli aspetti etici dell'innovazione hanno ricevuto crescente attenzione e nel 2014 la European Industriai Research Management Association ha costituito una responsible innovation task force (EIRMA, 2018). Emergono iniziative come l'HighLevel Expert Group on Artificial Intelligence della EU Commission costituito nel Giugno 2018 (EC, 2018) o il global forum per definire i principi di una "good AI society" (Taddeo e Floridi, 2018). Negli USA molte imprese stanno introducendo una nuova figura, il Chief Ethical Officer: «(...) We need chief ethics officers more than ever», scrive Forbes il 16 maggio 2018 parlando degli ultimi sviluppi delle IA e dei relativi dilemmi etici (Pontefract, 2018). CONCLUSIONI Entro il 2030 le imprese innovative che raccolgono grandi quantità di dati useranno le Al come prediction machines per fornire informazioni utili a chi ha responsabilità di scelte strategiche. Le macchine faranno quello che gli umani non riescono a fare (elaborare Exabyte di dati) e si affiancheranno come nuovi colleghi di lavoro (cobot). Le tecnologie e la società si sono da sempre plasmate a vicenda ( co-shaping ) ma la velocità della diffusione delle AI fa emergere sfide sociali ed etiche molto complesse. Emerge con urgenza la necessità di percorsi di formazione per le future generazioni che prevedano una digitai literacy coniugata a una digitai wisdom, per preparare persone esperte che siano anche consapevoli dello spaventoso impatto sociale delle IA. Negli USA nei percorsi universitari di Computer Science è stata introdotta la Computer Ethics (Singer, 2018). In Italia - al Politecnico di Torino dal 2008, al Politecnico di Milano dal 2016 vengono proposti corsi di Computer Ethics nelle scuole di ingegneria e forse è arrivato il tempo per i computer professional di definire autonomamente una propria deontologia professionale. Le imprese, per evitare il rischio di un rigetto da parte della società, con immensi danni economici e di immagine, introdurranno lungo tutta la filiera dell'innovazione - dalle fasi creative, agli studi di fattibilità, ai prototipi, fino all'ingegnerizzazione preliminare alla diffusione delle IA nella società - una riflessione etica ed una valutazione di impatto sociale e ambientale, un dialogo con tutti gli stakeholder per informare sui benefici e sui rischi legati alle AI in modo da sviluppare una Ricerca e Innovazione Responsabile, una Ethics by Design.