Intelligenze Artificiali

“Ok Google, metti della musica Jazz”.

Mensa Italia
8 min readFeb 5, 2020

“Ok Google, metti della musica Jazz”, chiediamo a Google Home. Con un blip ci conferma la comprensione e una voce risponde “Ok, metto dei brani dalla tua collezione su Play Musica”. Operazione apparentemente banale, ma per nulla ovvia. Trasformazione di linguaggio in testo, comprensione del testo, contestualizzazione del testo compreso, preparazione di una risposta, creazione di una testo corretto da leggere, trasformazione del testo in audio, riproduzione del testo e preparazione della playlist. Tutto questo con elementi non banali di contorno, una stanza rumorosa, una collezione di brani che non sono jazz, parole leggermente biascicate causa alcoolici. Eppure, come Alfred per Batman, Google Home comprende ed agisce. Solo che dietro non c’è Alfred ma c’è una serie di più o meno complessi algoritmi di Intelligenza Artificiale che in autonomia agiscono su dati e su informazioni nel cloud.

Il cinema sin dagli anni ’20 con Metropolis ci propone la macchina e il robot come protagonisti di un futuro più o meno remoto, ponendoci quasi sempre la domanda di fondo insita nella creazione di un “altro” essere vivente: come distinguere il reale dall’artificiale? In realtà questa domanda va ben oltre gli anni ’20 e i primi robot, a suo tempo chiamati automaton da Erone d’Alessandria, apparivano già come marchingegni miracolosi che risolvevano problemi complessi in apparente autonomia, con solo forza meccanica data da vapore o cavalli. Così anche gli automi di Da Vinci nel ‘400. L’innovazione degli anni ’20 deriva, nel film di Fritz Lang, dall’idea di poter trasferire attraverso processi elettromeccanici, l’anima da Maria ad un robot che la rappresenta. Il processo elettronico è paragonabile ad un processo alchemico moderno, alla stregua del processo che utilizza il professor Frankenstein per dare vita al corpo inerte. Da quel momento in poi l’immagine del robot autonomo, o dell’Androide, diventa sempre più importante e comune, fino al bellissimo Westworld, del ’73 (film da cui prende origine la recentissima serie di successo), e negli anni ’80 Wargames e la prima domanda strutturata sulla differenza fra umano e artificiale, nel film Blade Runner. La tecnologia rampante e sempre più presente ci porta poi ad interpretazioni sempre più moderne di AI, in film come Matrix, Ghost in the Shell (l’originale di animazione, non quello con Scarlett Johansson) e l’ancora più recente Ultron della saga della Marvel, che si pone nella metafora di Pinocchio (Il tema di presentazione di Ultron e le prime battute del personaggio rispecchiano esattamente il classico Disney).

Oggi l’intelligenza artificiale è un’esperienza pervasiva, con una quantità di strumenti e di elementi associati che un tempo erano inimmaginabili. La potenza di calcolo degli smartphone ci dà la possibilità di portare agenti intelligenti nelle nostre tasche, facendoli interagire con il nostro contesto ed aiutandoci a prendere decisioni.

Ma al di là degli aspetti narrativi e tecnici, cosa descrive l’intelligenza artificiale? Filosofi dal 1600 in poi si sono posti il problema, di fatto da quando l’uomo si è iniziato a porre domande sulla struttura del pensiero e sulla sua riproducibilità.

La prima delle teorie della mente è stata la teoria computazionale, introdotta da Hobbes, nel 1655, nel De Corpore, nel quale il filosofo inglese spiega che “attraverso il ragionamento comprendo la computazione. E computare è la collezione della somma di molti fattori allo stesso tempo, o la conoscenza del rimanente se una parte è stata tolta da qualcosa che conosciamo, ed è equivalente a sottrarre e sommare”. La definizione è molto naif (la “pascalina”, il primo calcolatore meccanico, era stato inventato 13 anni prima, non siamo esattamente in piena rivoluzione hi-tech) e “invertita”, ma l’approccio è già coerente con una visione funzionalista successiva.

Dopo queste prime analisi del pensiero umano, il lavoro sull’intelligenza si silenzia quasi per più di due secoli, fino a quando fra la fine del XIX e gli inizi del XX secolo la mente umana torna argomento di analisi e approfondimento sotto tutti i punti di vista, dall’arte alla nascente psicoanalisi alla filosofia. Nascono infatti gli strumenti di base di quella che oggi chiamiamo informatica (logica formale, semantica, logica booleana). Le due guerre non aiutano di certo il pensiero, ma l’industria bellica fa nascere Eniac e Colossus, rispettivamente negli Stati Uniti e in Inghilterra. E con loro inizia il lavoro sul calcolatore elettronico, nello specifico sul processore. I lavori del ‘48-’50 di Von Neumann, Turing e Church sono la base per il mondo dell’AI moderna.

Nel 1950 proprio Alan Turing propone un test per valutare e misurare l’intelligenza di una macchina. Questo test si basa su una conversazione, se durante un dialogo un utente non sa riconoscere se l’interlocutore è una macchina o un essere umano, la macchina può essere considerata intelligente.

Ovviamente questo approccio è sensato, ma, nuovamente, si tratta di un primo test. Uno dei principali oppositori a questo test, (ma l’opposizione avverrà 30 anni dopo), è uno dei grandi pensatori moderni dell’AI, John Searle, che propone come strumento per “rompere” il test di Turing l’esperimento mentale della Stanza Cinese. Nella “stanza cinese” possiamo mettere un archivio con tutte le possibili domande e risposte come dizionario di simboli, e una persona che velocemente riesca a ritrovare gli elementi per riconoscere i simboli in ingresso e dare dei simboli in uscita. Se questo dizionario fosse sufficientemente ricco, sarebbe possibile spacciare il sistema “stanza cinese” come un meccanismo che comprenda realmente la lingua cinese e possa dare risposte sensate. Evidentemente l’unica entità che comprende la lingua è chi va a definire il gigantesco dizionario, e la cosa alza dei dubbi non banali, che vedremo in seguito.

Dopo il test di Turing, comunque, il lavoro sugli approcci all’AI è continuato creando due grandi correnti di pensiero. La prima riprende la visione di Hobbes come punto di partenza, nel 1967 con Putnam. La base moderna del funzionalismo ha come cardine la concezione che la mente sia un sistema computazionale che si realizza nell’attività neurale del cervello. La definizione di “computazione”, in questo caso, è quella moderna di elaborazione di simboli in base ad un set di regole, ovvero la macchina di Turing.

La seconda corrente, alternativa al modello funzionalista, è il modello connessionista. In questo caso il riferimento principale è quello biologico, strutturale, fisiologico dei neuroni connessi fra loro attraverso sinapsi per costruire percorsi logici. Questo approccio trova la sua massima espressione nella teoria dei Percettroni, del 1969, testo fondante la teoria delle reti neurali moderna. Mentre le due anime (e l’approccio pragmatico di Searle) sembrano rappresentare appieno il mondo della filosofia della mente, un altro dibattito affronta il problema in modo ortogonale. Con la giustificazione “logica” del teorema dell’incompletezza di Godel, il mondo nascente dell’informatica e quello vivo e rampante della filosofia, dividono ulteriormente il campo di gioco in due parti: Intelligenza artificiale “forte” e intelligenza artificiale “debole”. La prima ha come obiettivo la creazione di una macchina intelligente nel senso più ampio, ovvero un automa che possa, come l’uomo Bicentenario di Asimov, aspirare a mescolarsi con gli umani. La seconda, al contrario, ha come obiettivo l’ottimizzazione di compiti molto specifici. La letteratura inizia, ad un certo punto, a chiamare quest’ultima “sistema esperto”.

I primi classici sistemi esperti furono quelli di gioco degli scacchi, di simulazione in ambienti controllati.

I tre approcci rimangono poi solidi e interconnessi fino agli anni ’90, quando la cibernetica e la teoria dei controlli automatici riportano in auge l’aspetto fisico dell’AI, con la necessità di un corpo. La critica classica al mondo della filosofia della mente si rappresenta nel 1990 con l’articolo dal titolo caustico “Gli elefanti non giocano a scacchi”, dove la critica viene portata attraverso il paradosso di avere macchine che vincono a scacchi contro un umano ma non sanno fare semplici operazioni nel mondo reale.

Con l’informatica di ampio consumo e la spettacolarizzazione del mondo IT legato alle varie bolle speculative degli anni ’90 e ’00 i motori di ricerca sono diventati sempre più pervasivi e hanno iniziato ad utilizzare in modo massiccio algoritmi basati su AI nascondendoli in strumenti di uso comune, dal riconoscimento di parole chiave in frasi a riconoscimento audio a analisi di testi complessi.

Le parole “Intelligenza” e “Artificiale”, oggi, sono sulla bocca di tutti i manager nelle loro varie forme — “machine learning”, “deep learning”, “big data” — ma rappresentano nei fatti i tre punti di vista dei tre approcci classici.

Sebbene paiano lontani e fumosi, quello funzionale di Putnam, quello connessionista di Minsky e quello “di ricerca” di Searle sono ben radicati in ogni strumento attorno a noi, vivi e presenti nella vita di tutti i giorni. Ma soprattutto, nonostante le lotte nella comunità scientifica a suo tempo, la modernità riesce a sfruttare il meglio di tutti, anche grazie alla potenza computazionale dei dispositivi, la possibilità di leggere contesti attraverso i sensori che abbiamo negli smartphone e in casa e le connessioni ad alta velocità che ci seguono ovunque. E la stessa trasformazione che semplifica l’accesso ad intelligenze artificiali, fa sì che i motori stessi diventino strumenti comuni, con la creazione di librerie ad uso libero da parte dei principali attori (Google con Tensorflow, Facebook con PyTorch) che consentono a chiunque di sviluppare propri strumenti avanzati di AI andando anche a riutilizzare dei bacini di conoscenze già rifinite e integrabili in altre applicazioni.

Così, evidentemente, il nostro smartphone diventa un percettrone (connessionista) che non dovrà necessariamente vivere di soli input da connessioni ad altri dispositivi ma potrà basarsi sul fatto che dalla rete può attingere a tutta una serie di contenuti (big data) sui quali basarsi per fornire agli utenti scelte sempre più vicine all’ottimo, sfruttando quindi la ricerca in uno spazio di stati possibili (ricerca), per simulare intelligenza e andando a mostrare funzioni intelligenti (funzionalista) solo quando strettamente serva. E l’algoritmo con cui viene deciso come cercare può essere a sua volta un algoritmo puramente statistico o basato su reti neurali (connessionista).

La prossima volta che diciamo “Ehi Alexa” o “Ok, Google” o parliamo con Siri e Cortana, pensiamo ai filosofi della mente, che ci guardano come Obi Wan Kenobi e Yoda guardano Luke Skywalker sulla luna di Endor.

Di Marco Montanari
Foto: Aimso, Franck V.

QUID è la nuova rivista digitale del Mensa Italia, l’associazione ad alto Q.I., che raccoglie le competenze e le prospettive personali dei Soci, organizzandole in volumi monografici.

Scaricabile gratuitamente da http://bit.ly/MensaQUID_01

QUID nasce con l’ambizione di confrontarsi senza voler ricomporre a tutti i costi un pensiero rappresentativo e prevalente, per proporre una lettura sempre aperta dei temi che stanno a cuore ai Soci del Mensa Italia.

--

--

Mensa Italia

Il Mensa è un’associazione internazionale senza scopo di lucro di cui possono essere soci coloro che hanno raggiunto o superato il 98º percentile del Q.I.