fbpx

Young

Premi PLAY per ascoltare

Traccia corrente

Titolo

Artista


La consapevolezza necessita della parte fisica?

Scritto da il 23 Aprile 2018

Proprio come il software di un computer può funzionare con un diverso hardware, così può essere possibile che il software della mente possa anch’esso funzionare su altre piattaforme. Consideriamo tale possibilità: quali sarebbero le implicazioni se non ci fosse niente di speciale a livello biologico nei neuroni ma fosse il modo in cui essi comunicano a fare di una persona quello che è? Questa ipotesi è nota come Teoria Computazionale della Mente e si basa sull’idea che i neuroni, le sinapsi e altri materiali biologici non siano gli elementi fondamentali, è che lo siano invece i calcoli che essi seguono. Ossia non importa la parte fisica del cervello, importa quello che esso fa.
Se ciò dovesse risultare vero, vorrebbe dire che in teoria si potrebbe far funzionare il cervello su una qualsiasi struttura di supporto. Finché i calcoli seguono il loro percorso nel modo giusto, allora tutti i vostri pensieri, le emozioni e complessità insorgerebbero come un prodotto delle complicate comunicazioni all’interno del nuovo materiale. Sempre in teoria, potreste scambiare le cellule con i circuiti, oppure l’ossigeno con l’elettricità: non importa quale sia il mezzo di comunicazione, purché tutti i pezzi e le parti siano connessi e stiano interagendo nel modo giusto. Così potremmo “avviare” una simulazione di noi stessi, perfettamente funzionante, senza la presenza di un cervello biologico. Secondo la teoria computazionale, quella simulazione saremmo esattamente noi stessi.
La teoria computazionale sul cervello è appunto solo un’ipotesi, non sappiamo se corrisponda al vero. Dopotutto, potrebbe esserci qualcosa di speciale e non ancora scoperto sul “wetware” biologico, e in quel caso dovremmo accontentarci della biologia che abbiamo fin dalla nascita. Se invece la teoria computazionale fosse corretta, allora la nostra mente potrebbe vivere dentro un computer.
Se diventasse possibile simulare la mente, dovremmo allora porci una domanda diversa: saremo obbligati a copiarla percorrendo la tradizionale via biologica? Oppure sarà possibile creare un diverso genere di intelligenza, di nostra invenzione e partendo da zero?
Già da tempo l’uomo cerca di creare delle macchine che pensano. Questo filone di ricerca, l’intelligenza artificiale, risale addirittura agli anni intorno al 1950. I primi pionieri erano pieni di ottimismo, ma ben presto il problema si è rivelato estremamente difficile. Anche se a breve avremo delle auto che si guidano da sole e sono già passati due decenni da quando un computer ha battuto per la prima volta un grande maestro del gioco degli scacchi, il traguardo della costruzione di una macchina davvero pensante deve ancora essere raggiunto. Da bambino mi aspettavo che avremmo presto avuto dei robot con cui interagire, che si sarebbero presi cura di noi e con i quali avremmo avuto conversazioni intelligenti. Il fatto che tutto ciò non sia ancora avvenuto la dice l’unga sull’enigma del funzionamento del cervello, e su quanto gli uomini siano ancora lontani dal decifrare i segreti di Madre Natura.
Uno dei più recenti tentativi di creazione di un’intelligenza artificiale è dovuto all’Università di Plymounth, in Gran Bretagna. È chiamato iCub: si tratta di un robot d’aspetto umanoide progettato e costruito per imparare come se fosse un cucciolo d’uomo. Di solito i robot sono preprogrammati con le informazioni che serviranno loro per espletare i compiti assegnati. E se fosse possibile per un robot svilupparsi come fa un neonato umano, interagendo con il mondo, imitando e imparando mano a mano attraverso l’esempio? Dopotutto, i bambini non nascono sapendo già parlare e camminare, ma possiedono la curiosità, prestano attenzione e imitano. I bambini, fin dalla nascita, usano il mondo che li circonda come un libro di testo e imparano grazie agli esempi. Potrebbe un robot fare la stessa cosa?
iCub ha la taglia di un bambino di due anni. Ha dei sensori per gli occhi, le orecchie e il tatto, che gli permettono di interagire e imparare dal mondo che gli sta intorno. 
Se si presenta a iCub un nuovo oggetto e gli si dice il nome (“questa è una palla rossa”), il programma del computer associa l’immagine visiva dell’oggetto all”etichetta verbale. Così quando, la volta successiva, gli verrà ripresentata la palla rossa e gli si chiederà: «che cos’è questa?», esso risponderà: «questa è una palla rossa». Lo scopo e far sì che a ogni interazione, il robot aggiunga continuamente i dati alle sue nozioni basilari. Apportando di continuò cambi e connessioni al suo codice interno, esso espande il suo repertorio di risposte appropriate.
Spesso si sbaglia: se gli presentate vari oggetti e date loro un nome, poi spingete iCub a nominarli tutti, otterrete molti errori e molti «non so» come risposta. Fa parte del processo e rivela quanto sia difficile costruire l’intelligenza.
Passando un bel po’ di tempo con iCub si può constatare quanto sia interessante come progetto. Ma più a lungo ci si intrattiene con esso, più diventa evidente che dietro il programma non c’è nessuna mente. Nonostante i grandi occhi, la voce amichevole e i movimenti infantili, risulta chiaro che iCub non è senziente: è regolato da linee di codice, non da ragionamenti. Anche siamo agli inizi delle ricerche sull’intelligenza artificiale, non possiamo fare a meno di meditare su un vecchio è fondamentale interrogativo filosofico: potranno mai delle linee di codice informatico arrivare a pensare? È vero che iCub può dire «palla rossa», ma è in grado di sperimentare il rosso come colore e il concetto di sfericità della palla? I computer si limiteranno a fare solo quello per cui sono stati programmati, o potranno anche avere un’esperienza interiore?
Il problema che sta alla base di queste domande è un concetto che realisticamente parlando difficilmente un robot potrà arrivarci: per poter avere un’esperienza interiore bisogna avere consapevolezza. Anche se riuscissimo a sviluppare dei computer che imitino l’intelligenza umana, essi tuttavia non sarebbero in grado di capire cosa stanno dicendo; non ci sarebbe alcun significato in tutto quello che farebbero. I cervelli umani sono qualcosa che non può essere spiegato se li si paragona semplicemente ai computer digitali. C’è un abisso tra i simboli che non hanno un significato e la nostra esperienza consapevole.

Di Andrea Valitutti


Opinione dei lettori

Commenta

La tua email non sarà pubblica. I campi richiesti sono contrassegnati con *


Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.