di Alessandra Luna Navarro

Secondo Sundar Puchai, CEO di Google, l’Intelligenza Artificiale trasformerà la nostra società in maniera più profonda di quanto avvenuto con la scoperta del fuoco e dell’energia elettrica. Lo scorso 30 Novembre, DeepMind, una startup da poco acquisita da Google, è riuscita a sviluppare un metodo veloce per prevedere il ripiegamento proteico (cosiddetto protein folding) e accelerare così la ricerca medico-biologica. Ma l’intelligenza artificiale, grazie alla sua capacità “sovrumana” di individuare pattern, non sta contribuendo positivamente solo in questo campo. I tecno-ottimisti, per esempio, credono che un futuro utopico, dove l’intelligenza artificiale risolverà tutti i nostri problemi, sia sempre più vicino.

Però, ci sono stati anche alcuni casi di usi impropri nei quali il rispetto della dignità, del valore e della libertà della persona è venuto a mancare. Da un internet nato per abbattere le barriere dell’informazione si può generare infatti disinformazione, fake news, e da social media nati per connetterci, si crea divisione. Lo dimostra anche l’uso dell’intelligenza artificiale nella sorveglianza di minoranze etniche (e non solo) in Cina. Molti tecno-scettici temono un futuro distopico, generato da un uso improprio dell’intelligenza artificiale che, invece di aiutare, manipola. Non a caso, sono già emerse numerose problematiche legislative ma soprattutto etiche. L’urgenza di una risposta europea è stata già ribadita da questa testata.

Nei prossimi mesi la trasformazione digitale aiuterà il Paese a costruire un’ecologia integrale. Il rischio di una trasformazione digitale divisiva, che frammenti e leda alla persona, è però presente. Per questo è necessario discernere tra una trasformazione digitale distopica e una che sia capace di essere come lievito, che ci possa aiutare a camminare come comunità verso un futuro sostenibile, vincendo insieme le sfide del post-pandemia. La possibilità di successo dell’intelligenza artificiale si gioca nella sua capacità di comprendere e salvaguardare la dimensione umana nella sua molteplicità e unicità. Queste due dimensioni, infatti, permetterebbero all’IA di superare la attuali barriere tecnologiche ed è proprio a partire da queste che a noi spetta il compito di comprendere il campo etico della sua azione.

In generale, l’intelligenza artificiale si basa su tre principi: conoscere (la fase di raccolta dati), imparare (l’analisi dei dati), e compiere decisioni automatiche o, addirittura, autonome. Alla base c’è un sistema che raccoglie data, ad esempio il numero di likes in un social media, insieme a un algoritmo che li analizza e pondera la probabilità che un evento possa succedere o che un certo pattern si verifichi. A volte attraverso questi strumenti si rivelano correlazioni nascoste all’occhio umano, altre volte si velocizza un processo altrimenti dispendioso. Eppure, dentro l’intelligenza artificiale l’agente umano non scompare: c’è sempre una certa progettualità “umana”. Se è vero che l’esito e il risultato non sono deterministici ma probabilistici (ovvero è la probabilità di un evento a decidere dove la scelta cadrà), rimaniamo comunque sempre noi gli artefici di questi sistemi. I dati possono avere pregiudizi sistemici e quindi sarà nostro compito analizzarli e preparali. Anche se i dati variano continuamente ed è difficile indicare a priori quale sarà la scelta dell’algoritmo, siamo noi a decidere quali scelte sono possibili e per quale fine, cosa salvaguardare o massimizzare.

Lo sviluppo dell’intelligenza artificiale non ha seguito un processo lineare. Dalla sua nascita nel 1948 con Alan Turing, ci sono stati molti i momenti di grande ottimismo e progresso, che si sono alternati ai cosiddetti “inverni”, dove il progresso si è congelato per difficoltà tecniche o scarsità di fondi. Dal 2010 è iniziata una nuova primavera nell’intelligenza artificiale grazie a tre fattori: l’avvento dei computer potenti a basso costo, la grande quantità di dati resa disponibile da internet in tempo reale, nuovi algoritmi più efficaci. Eppure, l’intelligenza artificiale è ancora lontana dal raggiungere gli scenari sperati dai tecno-ottimisti. Se non un inverno, un autunno potrebbe arrivare presto. Ad esempio, il linguaggio naturale o natural language processing non raggiunge ancora le nostre capacità di linguaggio ed occorrono computer più potenti o supercomputers per decifrare i problemi più complessi.

Per superare le barriere tecnologiche e raggiungere una vera efficienza occorre una tecnologia più umana. Lo dimostrano, ad esempio, quegli edifici energeticamente efficienti che però non considerano le interazioni e le necessità di chi li abita. Queste costruzioni hanno alte prestazioni sulla carta, ma non nella realtà. Solo l’edilizia, che unisce l’efficienza alla dimensione umana, raggiunge gli standard più elevati. Lo dimostrano anche gli algoritmi che cercano di imitare il nostro modo di pensare, come gli artificial neural networks, riuscendo così ad essere più veloci ed efficienti. La partita è però ancora aperta sia su come funzioni la nostra mente, che sulla scelta di cosa custodire. La sfida più grande è arrivare ad un’intelligenza artificiale che riesca a comprenderci, ad interagire con noi, ma soprattutto a salvaguardarciLa persona, non come un modello semplificato o mono-disciplinare ma nella sua complessità multidimensionale, con i suoi limiti e le sue fragilità, è quindi il fine ma anche il mezzo in cui si gioca il futuro dell’intelligenza artificiale.

L’intelligenza artificiale può essere una tecnologia vincente, che ha come scopo il prendersi cura di tutta la comunità, dell’ambiente e degli equilibri del pianeta in una visione integrale. Le soluzioni tecnologiche, che ormai ci circondano, richiedono però con urgenza uno sforzo democratico e partecipativo, dove tutta la comunità, da chi informa a chi insegna, da chi fa ricerca a chi usa la tecnologia, abbia un ruolo chiave nel partecipare al dibattito per non perdere di vista la dimensione umana. Il discernimento di come usare uno strumento e dei rischi che esso comporta tocca, a livelli diversi, ognuno di noi: dal genitore verso i figli, dal legislatore verso il cittadino, dal produttore verso il consumatore. É un dovere per la Scienza informare, far capire a tutti, con parole semplici ma non banali, cosa sia l’intelligenza artificiale per evitare narrative divisive. É un diritto fondamentale sapere cosa c’è dietro un algoritmo, quali dati vengono registrati, come vengono protetti e chi ha accesso, ma soprattutto è un dovere decidere insieme quale sia il fine dell’algoritmo. Solo ragionando come comunità possiamo capirne gli effetti e definirne la governance. Occorre quindi partecipare ed instaurare un dibattito tra i cittadini su quale sia l’orizzonte dello sviluppo tecnologico. In questo processo servirà però ricordarsi che si cammina insieme, senza lasciare indietro nessuno e salvaguardando la finitudine che definisce e disegna il contorno della nostra radice antropologica.