Grazie agli autori, l’amico Stefano Storti e Vittorio Di Tomaso, per avermi dato l’opportunità di pubblicare questo articolo che, pur non parlando nè di calcio nè di sport, tratta un tema che sta avendo e avrà enormi influenze anche nelle strategie, nelle tecnologie e nelle metodologie del mondo dello sport e del calcio, in particolare.
Filippo Galli
TRA OGGETTO E SOGGETTO: L’AI che tipo di umano troverà sulla terra?
Al cospetto dei cambiamenti spesso inesorabili che ci raggiungono nella quotidianità, crediamo che vi sia la necessità di affrontare la sfida, sempre la stessa: preservare il “nuovo” dalla superficialità. I cambiamenti tecnologici hanno profondamente influito nelle nostre vite, non sono mai “neutrali”, generano un impatto e con questo inevitabili dilemmi e crisi. Come sottolineava Marshall McLuhan, “Innumerevoli confusioni e un senso di disperazione emergono invariabilmente nei periodi di grande transizione tecnologica e culturale”.
L’innovazione non può prescindere dal contesto di applicazione, ogni brandello di realtà ha una sua fisionomia, occorre guardare alla tecnologia come un’arma per affrontare la realtà, non per eluderla. La prima fisionomia della realtà ci indica che è abitata da umani, la dimensione tecnologica deve quindi “servire” la vita degli umani. In tale contesto non è superfluo fissare un criterio, AI è un “oggetto” e non un “soggetto”.
Se c’è una realtà irriducibile ad una “misura” è esattamente la persona. È per questa ragione che prima di affrontare un approfondimento verticale verso l’AI, è opportuno fare i conti con ciò che già oggi, più o meno consapevolmente, fa compagnia alle nostre giornate. L’informatizzazione ha raggiunto piuttosto presto le nostre vite: la nostra generazione conserva la memoria di com’era il mondo prima di internet, i nativi digitali non hanno creato il mondo digitale, non hanno “scelto” il mondo tecnologico in cui sono nati. Lo avevamo preparato noi, come ogni generazione, più o meno consapevolmente, sceglie un pezzo di futuro per quella successiva.
Le tecnologie nascono generalmente da un desiderio positivo: rendere meno faticoso il lavoro, produrre di più con meno risorse, accelerare e velocizzare processi laboriosi e ripetitivi. Da questi tentativi sono nate soluzioni geniali e utili. Il problema non è l’invenzione, o la scoperta in sé: è piuttosto l’utilizzo che decidiamo di farne, e questo è vero più o meno dalla scoperta del fuoco in poi. È l’antico dilemma proposto dalla mitologia greca, l’audacia di Prometeo porta il potere del fuoco tra gli uomini e allora questi si ergono al livello degli dèi, è un rischio o una tentazione per la scienza moderna a tutti i livelli. Scrive T.S. Eliot nei Cori della Rocca: “Essi cercano sempre di evadere / dal buio esteriore e interiore sognando sistemi talmente perfetti che più nessuno avrebbe bisogno d’esser buono”.
Dal rifiuto del progresso a prescindere e più spesso, al contrario, dalla sua cieca esaltazione, nascono inevitabilmente conseguenze anche disastrose. Dove vogliamo arrivare? Vogliamo ripartire dall’inizio, dal titolo di questa riflessione: l’AI, che tipo di umano troverà sulla terra? Vogliamo quindi parlare della libertà, di quella capacità ultima e insostituibile della persona di essere il punto in cui si decide che presente e che futuro vivere, in una lotta costante e drammatica tra ciò di cui disponiamo e l’utilizzo che vogliamo farne. Qualche esempio tratto dalla nostra vita personale e dalle nostre relazioni quotidiane, da cui nascono delle domande su cui interrogarci: abbiamo “delegato”, e in quale misura, un pezzo della nostra identità ai profili social, o sottratto del tempo “dal vivo” alle nostre relazioni più care, per più comode interazioni “da remoto”? E, in caso affermativo, quale eventuale vantaggio ne abbiamo ottenuto? Quanto abbiamo delegato a Linkedin il compito di “farci un’idea” su una persona (e qual è il limite tra farsi un’idea e un pregiudizio)? Quale consapevolezza abbiamo che con i social possiamo ridurci al livello di un prodotto in vetrina a cui si dà un prezzo – e quindi un valore – per un like in più o in meno?
Abbiamo sotto i nostri occhi l’impatto di alienazione che la reazione al COVID ha comportato a qualsiasi livello, la scorciatoia di una vita “a distanza” ci ha elegantemente persuaso che l’incontro con l’altro fosse qualcosa simile ad un fastidio. Pochi esempi che ci mettono di fronte alla questione fondamentale, per riporla adeguatamente e senza fronzoli rileggiamo alcuni passaggi di T.S. Eliot nella sua celebre opera del 1934 I Cori della Rocca: “Dove è la vita che abbiamo perduto vivendo?” e quasi profeticamente proseguiva “dov’è la saggezza che abbiamo perduto sapendo? Dov’è la sapienza che abbiamo perduto nell’informazione?”. E ancora: “Il deserto non è così remoto nel tropico australe, il deserto è pressato nel treno della metropolitana presso di voi, il deserto è nel cuore di vostro fratello”.
Quale umano incontrerà l’AI? Se ci troverà distratti, l’esito sarà qualcosa di già sperimentato, gareggeremo con la tecnologia fino a diventarne uno strumento, ridotti da soggetti a oggetti. L’alternativa più affascinante è quella immaginata dall’indimenticabile capolavoro cinematografico del 1982, ET l’extraterrestre. Gertie (impersonata da Drew Barrymore, bambina prodigio e poi attrice di successo dalla vita non poco travagliata) è la sorella minore del protagonista Elliot e del fratello maggiore Michael. Elliot rimane stupito del fatto che ET lo abbia chiamato per nome, e a quel punto Gertie con fare soddisfatto esclama: “Gli ho insegnato io a parlare, sa parlare adesso”.
Questo è un punto di svolta: stiamo insegnando a parlare alle macchine. Dopo settanta anni di tentativi, fallimentari anche negli esempi di più grande successo, come Siri o Alexa, all’improvviso sono apparse le macchine che parlano come noi (o quasi come noi, ma comunque abbastanza bene da sostenere una conversazione anche su temi complessi). Sono macchine, non sono alieni con gli occhi grandi come ET, e questa è una grande differenza. Perché ET è chiaramente un essere senziente, e Gertie non gli insegna davvero a parlare, gli insegna a parlare come lei e con lei. Allo stesso modo sono evidentemente senzienti gli alieni cattivi di Indipendence Day (che non hanno alcuna voglia di conversare) o gli alieni curiosi di Arrival. Al contrario, queste nuove macchine che parlano, arrivate sul pianeta Terra dodici mesi fa, non sono senzienti. Sono modelli matematici di una lingua (di tutte le lingue in realtà), rappresentati da reti neurali molto grandi e complesse. Il loro utilizzo competente della lingua non dipende da altro che da una capacità di prevedere che cosa devono dire. Nella complessità della rete neurale si è codificata una conoscenza della lingua (un modello), ma non una comprensione: le reti non comprendono quello che dicono, lo dicono e basta. Eppure, producono senso, la conversazione con ChatGPT in qualche modo funziona, la riconosciamo come un dialogo e non pensiamo, mentre chattiamo, che stiamo interagendo con un uso molto intelligente dell’algebra lineare.
Tutto questo ha i caratteri della novità. Quando vediamo un aereo volare, sappiamo che il modo in cui vola è diverso dal modo in cui vola un uccello, non abbiamo dubbi che sia una macchina che sfrutta in maniera intelligente i principi della fisica. Quando leggiamo un testo creato da ChatGPT, questa intuizione è meno ovvia: le parole sono parole, le frasi sono frasi, che le abbia create una macchina o un poeta (possono essere più o meno belle, ma questa è questione di gusti). Partendo da questa novità, possiamo porci la seconda domanda fondamentale, non soltanto “che umano incontrerà l’AI”, ma anche “che AI incontrerà l’umano?”. L’AI che gli umani incontreranno domani, sarà profondamente influenzata dalle decisioni prese oggi: le scelte etiche, le finalità e gli scopi per cui viene sviluppata. I modelli neurali attuali rappresentano un incredibile passo avanti verso la simulazione di conversazioni umane, ma restano privi di coscienza e intenti propri, ed è probabile che lo resteranno per sempre. Per questo motivo, il senso lo dobbiamo portare noi, dobbiamo scegliere noi che AI saranno.
Non possiamo sottrarci a questa responsabilità, qualunque sia il nostro ruolo nella società, sia se siamo creatori di AI, se siamo decisori responsabili della sua adozione nei processi di business o semplici utilizzatori. Non possiamo sottrarci perché siamo cittadini che vivono in una società complessa e dipendente dalla trasformazione tecnologica. Di questa società complessa il linguaggio è il sistema operativo, lo strumento con cui, per seguire Yuval Harari, diamo forma e sostanza alle finzioni che reggono la civiltà (le istituzioni politiche ed economiche, ma anche la famiglia e le più intense relazioni tra persone). Stiamo insegnando alle macchine a usare il nostro sistema operativo, e questa è una responsabilità veramente molto seria. Per questo, senza paura, insegniamo all’AI -che non è ET- qualcosa di buono, che ci possa veramente servire, perché indietro non si torna, queste macchine sono qui per restare.
Stefano Storti e Vittorio di Tomaso
BIO Stefano Storti: Manager e imprenditore, shareholders di imprese innovative, successivamente partner di società di consulenza multinazionali, oggi Senior Partner di JAKALA S.p.A.
BIO Vittorio Di Tomaso: Senior Partner di Maize Srl (parte di JAKALA S.p.A.), imprenditore, si occupa di Intelligenza Artificiale dalla fine degli anni Novanta. Ha insegnato in diverse università italiane. È presidente del gruppo ICT (Information Communication Technology) dell’Unione Industriale di Torino.