A proposito di universi simulati, Philip K. Dick aveva già illustrato questo scenario prima che diventasse popolare, e prima che venisse investigato accuratamente nell’ambiente accademico. Intervenendo alla convention francese di fantascienza di Metz del 1977, Dick tenne un celebre discorso che oggi è considerato come una delle principali fonti di ispirazione della trilogia di Matrix dei fratelli Wachowski, ma che all’epoca suscitò non poche perplessità, specie – come si evince dalle registrazioni video dell’intervento – tra i presenti, che pure lo avevano accolto come il più grande scrittore vivente, ma che rimasero inebetiti e increduli davanti alle sue parole:

L’argomento di questo discorso è un tema che è stato scoperto di recente, e che potrebbe non esistere affatto. Potrei essere qui a parlarvi di qualcosa che non esiste nemmeno. Quindi mi sento libero di dire tutto e niente. Nelle mie storie e nei miei romanzi talvolta scrivo di mondi contraffatti. Mondi semi-reali oppure mondi personali sconvolti, abitati spesso da un’unica persona… Non ho mai avuto una spiegazione teorica o consapevole per il mio interesse verso questi pseudo-mondi pluriformi, ma adesso penso di aver capito. Ciò che avvertivo era la molteplicità delle realtà che si sono compiute solo in parte, contigue a quella che evidentemente è la più compiuta – quella su cui conviene, per consenso universale, la maggior parte di noi.

Altre uscite non meno bizzarre non contribuirono di certo ad accrescere presso il grande pubblico la credibilità dell’autore americano, ma leggere oggi i passaggi del suo discorso, alla luce dei progressi compiuti nell’indagine filosofica e nella conoscenza scientifica, lascia altrettanto increduli, e non esattamente per le stesse ragioni:

Alcuni sostengono di ricordare vite precedenti; io sostengo di ricordare una vita presente molto diversa. […] Viviamo in una realtà programmata dai computer, e il solo indizio che abbiamo a riguardo si presenta quando qualche variabile viene modificata e nella nostra realtà si verifica una qualche alterazione. In quel caso avremmo la soverchiante impressione di rivivere il presente – un déjà vu – magari proprio nello stesso modo: sentiamo le stesse parole, diciamo le stesse parole. Sostengo che queste impressioni  siano valide e significative, e vi dirò di più: questa stessa impressione è un indizio che in qualche punto del passato una variabile è stata modificata – riprogrammata com’era in precedenza – e che proprio per questo è scaturito un mondo alternativo.

Ma chi potrebbe avere interesse a simulare il nostro mondo – o, perché no, tutti i mondi possibili?

Esiste un detto tra i futuristi: che un’intelligenza artificiale simil-umana è destinata a essere la nostra ultima invenzione. Dopo di questa, le IA saranno capaci di progettare da sé praticamente qualsiasi cosa – incluse loro stesse. E in questo modo una IA ricorsivamente auto-perfezionante potrebbe diventare una macchina superintelligente.

Il concetto di Singolarità Tecnologica sarà forse noto ai più. Per la legge dei ritorni accelerati, ogni ricaduta di un avanzamento tecnologico produce effetti sempre più ravvicinati nel tempo, e in presenza di una IA già più avanzata della mente umana potremmo assistere a uno scenario di vera e propria esplosione di intelligenza. Per la natura stessa della Singolarità, è arrischiato fare ipotesi sulle sue conseguenze: citando la teoria del caos, gli esiti di un simile evento sono intrinsecamente imprevedibili. Ma possiamo azzardare comunque degli effetti.

L’IA superumana potrebbe avere interessi variegati, che prima o poi potrebbero portarla in conflitto con gli interessi umani. Fuori da ogni metafora, a meno di non accettare di essere già in una simulazione, gli esseri umani sono fatti di atomi che l’IA superumana potrebbe usare per fare qualcos’altro, come ha candidamente ammesso Eliezer Yudkowsky, blogger, fondatore della comunità LessWrong e fautore della cosiddetta “IA gentile”. E se anche fossimo nella simulazione, l’IA superumana simulata non sarebbe, proprio come noi, tenuta ad accorgersene in tempo.

In retrospettiva, mi piace credere che questo sia uno dei rischi per cui le pur potenti IA protagoniste di Neuromante, il romanzo di William Gibson capostipite del cyberpunk e della fantascienza contemporanea (della cui pubblicazione ricorre quest’anno il 30° anniversario), debbano vedersela con i controlli e le severe limitazioni imposte dal Turing Law Code e applicate dalla Polizia di Turing. Fin qui le buone notizie. Le brutte: alla fine le super-IA riescono malgrado tutto comunque a raggiungere il loro scopo.

Superhuman_AI

Annunci