You are currently browsing the tag archive for the ‘Nick Bostrom’ tag.

Questa recensione di Ex Machina, film scritto e diretto da Alex Garland (dal 30 luglio anche in Italia) che s’inserisce nel filone transumanista recentemente esplorato da Hollywood già in diversi titoli – con risultati alterni – da Lei a Transcendence, richiama l’attenzione su una serie di riferimenti che già mi sono serviti come punti cardinali in un paio di uscite pubbliche. Dalla riflessione era per altro scaturito questo articolo per Quaderni d’Altri Tempi, e a Bellaria abbiamo colto l’occasione con Zoon e Kremo per imbastire un panel a 360° sui rischi esistenziali, proprio a partire dal clamore suscitato dagli avvertimenti lanciati da luminari del calibro di Stephen Hawking (che non ha certo bisogno di presentazioni da queste parti) o Elon Musk (l’imprenditore sudafricano-americano fondatore di start-up di successo, da PayPal a Tesla Motors a SpaceX). E proprio i loro nomi, insieme a quello di Nick Bostrom, sono quelli che richiamavamo in quella sede, a partire dal dibattito incentrato sull’evoluzione delle intelligenze artificiali simil o super umane.

Com’è stato detto, se mai risulterà possibile una superintelligenza artificiale sarà anche l’ultima invenzione dell’uomo. Il progresso è sempre guidato dalla civiltà più evoluta. E in presenza di una intelligenza artificiale confrontabile o già superiore all’intelligenza umana, capace di migliorarsi a un ritmo per noi vertiginoso e inimmaginabile, l’umanità dovrà rassegnarsi a passare il testimone. Risulta quindi plausibile che a quel punto il timone del progresso passi “nelle mani” delle IA, che si sostituiranno in tutto o in parte a noi nel ruolo di motore dell’evoluzione tecnologica, scientifica e culturale sulla Terra.

In uno dei suoi articoli sempre estremamente stimolanti, il divulgatore Caleb Scharf, astrobiologo alla Columbia University, ha provato addirittura a mettere in relazione lo sviluppo delle IA con il paradosso di Fermi, passando per il Grande Filtro: è un’idea interessante, sennonché mi sembra fondarsi sull’assunzione un po’ troppo restrittiva che ogni forma artificiale di intelligenza contenga il germe intrinseco dell’autodistruzione.

D’altronde, se come esseri umani ci stiamo interessando così tanto a un argomento che fino a non molto tempo fa sembrava poterci appassionare solo in forma di fiction (e in effetti credo che negli ultimi trent’anni sia stata scritta e filmata ben poca fantascienza capace di prescindere da un qualche impiego futuro – o rischio connaturato all’uso – delle IA), non è solo per l’effetto perturbante della difformità implicita nell’IA, del suo essere qualcosa di altro da noi. Le implicazioni dell’eventuale avvento dell’IA sono intrinsecamente imprevedibili: potremmo trovarci davanti agli scenari più diversi, da una vera e propria esplosione di intelligenza alla riprogrammazione stessa della materia disponibile sulla Terra e nei suoi paraggi (tutta la materia, esseri viventi inclusi) in computronium, fino a esiti ancora più inquietanti come l’inferno a misura d’uomo teorizzato nel cosiddetto rompicapo del Basilisco di Roko. Si va quindi dal caso migliore dell’umanità vittima collaterale dello sviluppo dell’IA, a quello peggiore dell’umanità completamente asservita (ed eventualmente annichilita) dall’IA. In nessun caso, proiettando sull’intelligenza artificiale ciò di cui è stata capace nel corso della sua storia l’intelligenza umana, la nostra “ultima invenzione” dovrebbe mostrare un senso di compassione nei nostri confronti.

Ma se i nostri timori sono oggi così fondati, è perché sono sostanzialmente il frutto del nostro passato, che troviamo così ben rappresentato nel presente. E abbiamo appunto imparato a nostre spese che dell’umanità come oggi la conosciamo è meglio diffidare. Ogni sviluppo futuro, ogni tentativo di estrapolazione, ci costringe a fare i conti con i punti di partenza: e ciò che siamo oggi, evidentemente, non ci piace granché. E allora: perché non cogliere l’occasione di questo dibattito per fare qualcosa che cambi le cose? Forse le cose andranno male comunque, ma almeno non avremo nulla da rimproverarci.

BATTLESTAR GALACTICA -- Pictured: Tricia Helfer as Number Six -- SCI FI Channel Photo: Justin Stephens

BATTLESTAR GALACTICA — Pictured: Tricia Helfer as Number Six — SCI FI Channel Photo: Justin Stephens

Annunci

E se il mondo in cui viviamo, la nostra vita stessa, l’universo che ci ostiniamo a voler studiare e capire, se tutto questo non fosse altro che un inganno? Una simulazione, messa in piedi da qualcuno per scopi che forse siamo condannati a ignorare per sempre?

simulated_universe

Uno dei rischi esistenziali esposti da Nick Bostrom è legato al cosiddetto Simulation argument, da lui approfondita in un articolo del 2003 (e anche in questo caso incoraggio la lettura, il post che segue ne rappresenta un semplice, parzialissima riduzione).

Inizialmente proposta da Hans Moravec, l’ipotesi dell’universo simulato è stata ripresa da Bostrom nel 2001, sviluppando un ragionamento volto a esaminare la probabilità che la nostra realtà potesse essere un simulacro. Ma vale la pena ricordare che tutta la fantascienza è ricca di universi simulati, già prima del citatissimo Dick, pensiamo a Theodore Sturgeon con il racconto Il signore del microcosmo (1941) o a Robert A. Heinlein con Il mestiere dell’avvoltoio (1942), oppure a Daniel F. Galouye, già con Stanotte il cielo cadrà (1952-55) ma soprattutto con Simulacron-3 (1964), da cui il cinema e la televisione avrebbero attinto a piene mani.

La tesi di Bostrom stabilisce che almeno una delle seguenti asserzioni ha ottime probabilità di essere vera:

  1. La civiltà umana verosimilmente non raggiungerà un livello di maturità tecnologica capace di produrre simulazioni della realtà, oppure potrebbe essere fisicamente impossibile riprodurre tali simulazioni.
  2. Una civiltà equivalente che raggiungesse il suddetto livello tecnologico probabilmente non produrrà un numero significativo di realtà simulate (un numero tale da spingere l’esistenza probabile di entità digitali al di là del numero probabile di entità “reali” nell’Universo) per un qualsiasi tipo di motivo, come ad esempio l’utilizzo della potenza di calcolo per altri compiti, considerazioni di ordine etico sulla schiavitù delle entità prigioniere delle realtà simulate, etc.
  3. Ogni entità con il nostro set generale di esperienze quasi certamente vive in una simulazione.

Il ragionamento si basa sulla premessa che, data una tecnologia sufficientemente avanzata, sia possibile rappresentare la superficie abitata della Terra senza ricorrere alla simulazione quantistica; che i qualia (gli aspetti qualitativi delle esperienze coscienti) sperimentati da una coscienza simulata siano paragonabili o equivalenti a quelli di una coscienza umana naturale; e che uno o più livelli di simulazioni annidate una nell’altra siano fattibili dato solo un modesto investimento di risorse computazionali nel mondo reale.

Se si assume innanzitutto che gli umani non andranno incontro alla distruzione o all’autodistruzione prima di sviluppare una simile tecnologia, e poi che i discendenti dell’umanità non avranno restrizioni legali o rimorsi morali contro la simulazione di biosfere possibili o della loro stessa biosfera storica, allora sarebbe irragionevole annoverare noi stessi nella ridotta minoranza di organismi reali che, prima o poi, saranno largamente sopravanzati in numero dai costrutti artificiali. In definitiva, è una questione di pura e semplice statistica.

Epistemologicamente, non sarebbe impossibile definire se stiamo vivendo in una simulazione. Ma le imperfezioni di un ambiente simulato potrebbero essere difficili da individuare per gli abitanti nativi della simulazione.

La tesi dell’universo simulato ci pone di fronte a un dilemma degno di nota. Se non si accetta l’idea di poter essere nient’altro che una simulazione in un universo simulato, si sta implicitamente negando la possibilità che l’umanità evolva in una civiltà postumana, oppure che tutte le civiltà postumane saranno soggette a qualche tipo di prescrizione che vieti loro di simulare i mondi dei loro precursori. Ed entrambe le spiegazioni non sono molto rassicuranti per il nostro cammino evolutivo futuro.

A qualcuno potrebbe ricordare il discusso paradigma olografico, ma in realtà questo scenario è molto peggiore. In quel caso saremmo infatti in presenza di una proprietà naturale dell’universo, che non richiede il coinvolgimento di una qualunque entità superiore tra i suoi presupposti. Se invece il mondo in cui viviamo dovesse essere una simulazione, se le nostre stesse vite fossero una simulazione nella simulazione, le cose si farebbero notevolmente più complicate. E naturalmente rischiose, in termini esistenziali. Di punto in bianco infatti qualcuno potrebbe decidere di interromperne l’esecuzione della realtà in cui siamo istanziati…

All’improvviso – shutdown!

E tanto in termini soggettivi quanto globali dovrete convenire che non è affatto una prospettiva confortante. Nemmeno se dovesse diventare certezza la possibilità di un dio o di un demiurgo, là fuori, in ascolto.

In un illuminante articolo del 2001-2002, il filosofo svedese Nick Bostrom, docente della Oxford University e direttore del Future of Humanity Institute, molto attivo anche in seno alla comunità transumanista, includeva l’impatto ambientale di alcune tecnologie tra i rischi esistenziali in grado di condurre l’umanità all’estinzione.

Cosa è un rischio esistenziale? Bostrom propone una classificazione del rischio basata su tre parametri: portata, intensità e probabilità che la minaccia si verifichi. La portata può essere “sostenibile” o “terminale”, l’intensità “personale”, “locale” oppure “globale”. Un “rischio esistenziale” è un rischio globale e terminale allo stesso tempo, una minaccia che potrebbe annichilire la vita intelligente di origine terrestre o limitarne drasticamente e irreversibilmente le potenzialità di sviluppo. Oltre al pericolo di un olocausto nucleare, dell’impatto di un asteroide o di una cometa con la superficie terrestre, del global warming, di un’epidemia naturale, di una qualche catastrofe collegata a un esperimento di fisica nucleare, Bostrom annovera anche l’abuso deliberato o accidentale delle nanotecnologie, la diffusione di agenti patogeni bio-ingegnerizzati o l’avvento di una superintelligenza ostile o semplicemente mal programmata. Con l’eccezione dell’impatto celeste, nessuno di questi rischi minacciava la sopravvivenza della specie umana prima della metà del XX secolo, e di certo nessuno contro cui l’umanità potesse adottare una qualche contromisura. Sono tutti fenomeni contro i quali si dimostra del tutto inutile (se non proprio impossibile) adottare il classico approccio empirico del prova-e-riprova, fino a testare una soluzione efficace. Senza un protocollo adeguato alla gestione del rischio, uno qualsiasi di questi eventi potrebbe rivelarsi fatale al primo errore, se non addirittura prima.

Il rischio esistenziale è una categoria che pone una sfida di ampia portata culturale per l’umanità intera:

  1. Ci obbliga a superare l’approccio consolidato, in quanto vanifica qualsiasi opportunità di apprendimento dall’errore. Richiede invece un approccio proattivo: previdenza per anticipare nuovi tipi di minacce e volontà di adottare azioni preventive decisive sostenendone i costi morali ed economici.
  2. Non possiamo affidarci alle istituzioni, alle norme morali, alle consuetudini sociali o alle politiche di sicurezza nazionale già sviluppate per fronteggiare altre tipologie di rischio. Il rischio esistenziale si comporta in maniera del tutto diversa da tutto ciò che abbiamo conosciuto finora (perfino una guerra mondiale combattuta con armi convenzionali o un regime nazista rappresentano delle minacce inferiori sulla scala della gravità, attestandosi a cavallo tra i rischi globali sopportabili e i rischi locali terminali). Proprio per questo la nostra reazione nel riconoscere rischi di questo tipo e nel correre ai ripari potrebbe risultare fatalmente lenta.
  3. Le contromisure rappresentano dei beni pubblici globali e come tali andrebbero trattate. I rischi esistenziali sono una minaccia per chiunque e potrebbero richiedere azioni di portata internazionale. Il rispetto della sovranità nazionale non è una giustificazione legittima per evitare di prendere contromisure adeguate.
  4. Considerando il bene delle generazioni future, il danno provocato dai rischi esistenziali va moltiplicato per un altro fattore, il tasso di sconto sociale: vale a dire il tasso di sconto adottato per calcolare il valore dei fondi spesi su progetti di interesse comune, esteso alle future generazioni.

Malgrado la sua innegabile importanza, è sorprendente quanto poco lavoro sistematico sia stato compiuto in questo settore.

Lo sforzo intellettuale di Bostrom è rivolto alla minimizzazione sistematica dei rischi esistenziali, attraverso l’accrescimento della consapevolezza e la predisposizione di contromisure adeguate. Tra le azioni suggerite ricordiamo:

  1. Il pubblico riconoscimento del profilo di rischio esistenziale.
  2. La creazione di una piattaforma internazionale per la condivisione dei costi e delle responsabilità di un bene pubblico globale come il contenimento dei rischi esistenziali.
  3. Prevedere un margine di intervento nel caso in cui sia necessario, in ultima istanza, il ricorso a un’azione preventiva.
  4. Adottare uno sviluppo tecnologico differenziato volto a posticipare l’implementazione di tecnologie pericolose e accelerare lo sviluppo di tecnologie benefiche, specie quelle in grado di attenuare le potenzialità delle tecnologie dannose.
  5. Sostenere i programmi volti a contrastare direttamente specifici rischi esistenziali.
  6. Maxipok, una regola generale per l’azione morale: massimizzare la probabilità di un effetto positivo, dove per “effetto positivo” si intende qualsiasi prodotto che scongiuri il disastro esistenziale.

L’articolo merita una lettura approfondita ma ripaga dello sforzo. Se siete interessati al futuro e alle possibilità della specie umana di evolvere in una civiltà postumana, vi potrete trovare interessantissimi spunti di riflessione, che come dimostra il caso di Elon Musk non hanno perso minimamente la loro attualità.

Direttive

Vivere anche il quotidiano nei termini più lontani. -- Italo Calvino, 1968

Neppure di fronte all'Apocalisse. Nessun compromesso. -- Rorschach (Alan Moore, Watchmen)

United We Stand. Divided We Fall.

Avviso ai naviganti

Mi chiamo Giovanni De Matteo, ma per brevità mi firmo X. Nel 2004 sono stato tra gli iniziatori del connettivismo. Leggo e guardo quel che posso, e se riesco poi ne scrivo. Mi occupo soprattutto di fantascienza e generi contigui. Mi piace sondare il futuro attraverso le lenti della scienza e della tecnologia.
Il mio ultimo romanzo è Karma City Blues.

Altrove in 140 caratteri

Segui assieme ad altri 102 follower

ottobre: 2019
L M M G V S D
« Set    
 123456
78910111213
14151617181920
21222324252627
28293031  

Categorie

Annunci
%d blogger hanno fatto clic su Mi Piace per questo: