Salta al contenuto
Floridi: «Big Tech, le gravi conseguenze della mancata autoregolamentazione»
Corriere Innovazione

di Luciano Floridi

Con la commercializzazione del Web, il fallimento del tentativo di autoregolamentarsi ha avuto costi gravosi sociali ed economici, come la disinformazione online. Se dovessi scegliere un anno per segnare l'inizio del Web commerciale, suggerirei il 2004, quando fu lanciato Facebook, e Google tenne la sua IPO ("initial public offering", offerta pubblica iniziale per quotare un'azienda sul mercato). Prima di allora, il dibattito sui problemi etici - dalla privacy al bias, dalla moderazione dei contenuti illegali o non etici alle notizie false e alla disinformazione - era stato principalmente accademico. Erano problemi prevedibili e, già dalla fine degli anni Ottanta, ai convegni, sulle riviste specializzate, o in seminari universitari, li discutevamo come fondamentali e pressanti, eticamente e socialmente. Alla prima conferenza dell'International Association for Computing and Philosophy (di cui sono stato presidente), nel 1986, tra i temi in programma c'erano: la didattica online; come insegnare logica matematica con software che girava su DOS (il Disk Operating System introdotto da IBM nel 1981, da qualche parte in soffitta ho ancora i dischetti); e una cosa che allora si chiamava "computer ethics", che diventerà "information ethics", e che oggi si chiama "digital ethics". Ma era troppo presto. La prevenzione non si applica, si rimpiange durante la cura. Più o meno dopo il 2004, le preoccupazioni iniziarono a diffondersi anche nell'opinione pubblica. La commercializzazione del Web portò nella vita di tutti i giorni problemi etici già presenti in contesti specialistici, come lo spyware, il software che raccoglie dati senza il consenso dell'utente (il termine nasce nel 1995). Presto iniziò a montare la pressione per migliorare le strategie e le politiche aziendali, e adeguare il quadro normativo. È in quel periodo che l'autoregolamentazione inizia ad apparire come una strategia utile per far fronte alla crisi etica. Mi ricordo incontri a Bruxelles in cui molti sostenevano il valore dell'autoregolamentazione, in contesti come la libertà di parola online. Già in quegli anni Facebook insisteva sull'opportunità di non legiferare ma operare in modo "soft" (si usa l'espressione "soft law" anche in italiano per riferirsi a norme prive di efficacia vincolante diretta), attraverso codici di condotta che, ad esempio, avrebbero garantito la presenza sulla piattaforma solo di persone con età superiore ai 13 anni. Circolava l'idea che l'industria digitale potesse formulare i propri codici e standard etici, e richiedere La proprietà intellettuale è riconducibile alla fonte specificata in testa alla pagina. Il ritaglio stampa è da intendersi per uso privato 05/11/2021 11:33 Sito Web e monitorare l'adesione ad essi, senza bisogno di controlli o imposizioni esterne. Non era una cattiva idea. Io stesso l'ho sostenuta spesso. Molti rapporti internazionali si basano sulla soft law. Per esempio, il Consiglio d'Europa promuove il rispetto dei diritti umani, della democrazia e dello stato di diritto attraverso raccomandazioni che indicano i comportamenti e i risultati desiderabili, ma senza sanzioni in caso d'inosservanza. Recentemente, ho introdotto e difeso la necessità di un'etica soft (non soltanto quella hard, o dura, che impariamo nella vita, e che studiamo nei classici), che rispetti ma vada oltre la mera adeguatezza (compliance) alla legge in vigore. Per esempio, pagare i propri dipendenti più di quanto sia richiesto dalla normativa è anche una questione di etica soft. In teoria, attraverso l'autoregolamentazione, l'etica soft, e la soft law, le aziende potrebbero adottare modelli di comportamento migliori, più adeguati eticamente alle esigenze commerciali, sociali e ambientali, in modo più rapido, agile ed efficiente - fattori fondamentali in un settore che evolve così rapidamente come quello digitale - senza dover aspettare una nuova legislazione o accordi internazionali. Se sviluppata e applicata correttamente, l'autoregolamentazione può prevenire disastri, cogliere più opportunità, e preparare l'industria a adeguarsi a futuri quadri giuridici. Può anche contribuire alla stessa legislazione, anticipando e sperimentando soluzioni più facilmente aggiornabili e migliorabili. Resto convinto che, in quegli anni, fosse realistico e ragionevole credere che l'autoregolamentazione potesse favorire un dialogo eticamente costruttivo e fruttuoso tra industria digitale e società. Come ho argomentato spesso, valeva la pena tentare la strada dell'autoregolamentazione, almeno in un senso complementare rispetto alla legislazione in evoluzione. Purtroppo, non è andata così. Se dovessi scegliere un altro anno, questa volta per indicare il raggiungimento della maggiore età dell'era dell'autoregolamentazione, suggerirei il 2014, quando Google istituì l'Advisory Council (di cui sono stato membro) per affrontare le conseguenze della sentenza sul "diritto all'oblio" della Corte di Giustizia dell'Unione Europea. Fu la prima di molte altre simili iniziative. Quel progetto ebbe molta visibilità e un successo moderato ma, nel complesso, l'era dell'autoregolamentazione fu poi deludente. In anni successivi, lo scandalo Facebook-Cambridge Analytica nel 2018 - prevedibile e prevenibile - e l'Advanced Technology External Advisory Council, palesemente mal concepito e di brevissima durata, istituito da Google sull'etica dell'AI nel 2019 (di cui sono stato membro), mostrarono quanto fosse difficile e in definitiva fallimentare l'autoregolamentazione. Alla fine, le aziende sono risultate riluttanti o incapaci a risolvere i loro problemi etici, non necessariamente in termini di risorse, lobbying e pubbliche relazioni, ma in termini di strategia apicale, a livello di C-suite, per migliorare mentalità e comportamenti sbagliati ma troppo radicati. Quando recentemente l'industria ha reagito alle sfide etiche poste dall'AI creando centinaia di codici, linee guida, manifesti e dichiarazioni, la vacuità dell'autoregolamentazione è apparsa imbarazzante. Oggi, l'Oversight Board di Facebook, istituito nel 2020, è un anacronismo, una reazione tardiva alla fine di un'era in cui l'autoregolamentazione non è riuscita a fare la differenza. È troppo tardi, anche perché la legislazione La proprietà intellettuale è riconducibile alla fonte specificata in testa alla pagina. Il ritaglio stampa è da intendersi per uso privato 05/11/2021 11:33 Sito Web ha ormai raggiunto l'industria digitale. In particolare, nell'UE, il GDPR (in vigore dal 2016) è stato seguito da iniziative legislative come il Digital Markets Act, il Digital Services Act, e l'AI Act, per citare le più significative. È un movimento normativo che probabilmente genererà un vasto effetto Bruxelles, rimpiazzando un impegno etico, che non è mai veramente decollato, con la conformità legale (compliance). Le aziende hanno un ruolo cruciale da svolgere al di là dei requisiti legali. L'etica soft resta un elemento essenziale di accelerazione competitiva e di "buona cittadinanza". Ma l'era dell'autoregolamentazione, come strategia principale per risolvere i problemi etici posti dal digitale, si è conclusa. Lascia come eredità un buon lavoro di dissodamento, in termini di analisi dei problemi e delle loro soluzioni, di consapevolezza culturale e sociale, di sensibilità etica, e anche di alcuni contributi positivi alla legislazione. Ad esempio, l'High-Level Expert Group on Artificial Intelligence (di cui sono stato membro) istituito dalla Commissione europea, ha visto la partecipazione di partner industriali e ha fornito il quadro etico per l'AI Act. Tuttavia, l'invito ad autoregolamentarsi, rivolto dalla società all'industria digitale, è stato ampiamente ignorato. È stata un'opportunità storica enorme ma mancata, molto costosa socialmente ed economicamente, basti pensare alle conseguenze della disinformazione online. È venuto il momento di riconoscere che non ha funzionato e, per usare le parole del Vangelo, "costringerle [le aziende] a entrare" (Luca 14,23). *Filosofo e professore di Etica dell'informazione Università di Oxford 5 novembre 2021