You are currently browsing the tag archive for the ‘rischi esistenziali’ tag.

Arte e intelligenza artificiale rappresentano un connubio affascinante al quale io stesso non ho saputo resistere, mettendolo al centro di uno dei miei ultimi racconti. In Maja, che potete leggere su Propulsioni d’improbabilità (curato da Giorgio Majer Gatti per Zona 42), l’attenzione si focalizza sulla musica e sull’ipotesi che il talento innato e le basi della creatività possano rappresentare un fertile terreno d’incontro e di dialogo tra intelligenze «naturali» e artificiali, sviluppando esiti che al momento possiamo solo vagamente immaginare.

Dopotutto, è da alcuni anni che il celebre test di Turing, da sempre portato a esempio pratico come campo di prova per valutare un costrutto (aspirante o presunto) candidato a essere riconosciuto come IA, raccoglie un numero crescente di critiche sulla sua effettiva validità pratica, tra le altre cose anche per il suo ispirarsi all’altrettanto famoso imitation game (da cui anche il titolo dell’interessante biopic di Morten Tyldum, tratto dalla biografia di Andrew Hodges, in cui il Benedict Cumberbatch intrepreta il ruolo del grande matematico e criptoanalista britannico). Il punto non è tanto una sottigliezza, perché di fronte agli adeguamenti normativi richiesti dall’introduzione di sistemi automatici in grado di prendere scelte con conseguenze reali e quindi non prive d’impatto per l’ecosistema «umano» in cui agiscono (come potrebbero essere i veicoli a guida autonoma, ma anche IA preposte al controllo del traffico aereo, per non parlare delle eventuali applicazioni militari) le questioni etiche assumono una rilevanza centrale, e quindi non il discrimine per l’attribuzione di una responsabilità non può basarsi sulla pur sofisticata capacità di “ingannare” un interlocutore umano.

Già nel 2008 alcuni esperimenti condotti da Kevin Warwick all’Università di Reading (UK) avevano destato scalpore, se non altro per alcuni esiti quanto meno inquietanti (Think deeply about mysterious dubjects) delle conversazioni con le candidate IA.

Negli ultimi tempi, si sono invece intensificate le notizie sul ruolo possibile delle IA nella costruzione di artefatti video, che spaziano dall’esperimento cinematografico con il corto Sunspiring pensato e scritto da Benjamin, una rete neurale ricorsiva addestrata con una collezione di film di fantascienza, alle frontiere della post-verità con le aberranti prospettive della tecnologia deepfake. Evoluzioni che rendono ancora più concreta e urgente la necessità di pensare a un superamento del test di Turing, magari evolvendolo in una direzione analoga a quella che non facevo altro che estrapolare in Maja pensando a un ipotetico test di Lovelace (ovviamente da Ada, figlia di Lord Byron e prima programmatrice informatica della storia, convinta sostenitrice dell’incapacità delle macchine di sviluppare uno spirito creativo – o banalmente anche solo sorprendere i loro programmatori).

Immagine di Luca Zamoc (fonte: Il Trascabile).

È notizia di questi giorni che i ricercatori di OpenAI, l’organizzazione non profit fondata a San Francisco nel 2015 da Sam Altman e Elon Musk, e finanziata tra gli altri da Amazon e dall’indiana Infosys (un colosso della consulenza IT con oltre 113.000 dipendenti, uffici in 22 paesi, centri di ricerca sparsi su quattro continenti e proprietaria nel campus di Mysore della più grande università d’impresa al mondo), con lo scopo di gestire i rischi esistenziali connessi alla ricerca nel campo dell’intelligenza artificiale e promuovere lo sviluppo di una Friendly AI (una IA benevola), hanno messo a punto un’intelligenza artificiale tanto avanzata da non poter essere rilasciata pubblicamente. Il modello denominato GPT2 risulterebbe infatti talmente efficace nell’ambito per cui è stato sviluppato, ovvero la scrittura di testi deepfake in grado di ingannare un lettore umano, da rappresentare un rischio concreto.

Tra le possibili applicazioni distorte del loro costrutto, i creatori hanno da subito annoverato la generazione di recensioni fake per orientare il gusto dei consumatori e la diffusione di notizie false, la generazione di spam e di fishing. IA come GPT2 potrebbero persino comportarsi come un utente reale, oppure sostituirsi a profili hackerati impersonando versioni alterate ad hoc dell’utente originale, per i motivi più disparati: trarre in inganno altri utenti, per esempio; oppure screditare gli utenti originali, diffondere false informazioni, etc. Inoltre almeno un caso recente ha sicuramente fatto accendere un ulteriore campanello d’allarme nei laboratori di OpenAI: la possibile influenza di un bias ultraconservatore, bigotto e reazionario nelle risposte di GPT2 in caso di addestramento con testi ricavati dalla rete (sorte già toccata al chatbot di Microsoft addestrato per interagire su Twitter).

Questa volta, insomma, ci è andata bene. Ma se la tecnologia ha ormai raggiunto questo livello, non possiamo escludere che altrove qualcuno con meno scrupoli possa a breve mettere (o aver già messo) a punto sistemi altrettanto validi, adottandoli per le applicazioni più subdole. Per quello che ne sapete, non potrebbe questo stesso blog essere mandato avanti da una IA dagli scopi ancora imperscrutabili? Pensate a certe pagine e profili attivi sui social network, a certe piattaforme politiche, a certe dinamiche in atto nei motori di ricerca e nella promozione di beni e prodotti. Il futuro potrebbe essere già davanti ai nostri occhi, e sfuggirci solo perché non abbiamo ancora metabolizzato le categorie giuste per riconoscerlo.

Annunci

Questa recensione di Ex Machina, film scritto e diretto da Alex Garland (dal 30 luglio anche in Italia) che s’inserisce nel filone transumanista recentemente esplorato da Hollywood già in diversi titoli – con risultati alterni – da Lei a Transcendence, richiama l’attenzione su una serie di riferimenti che già mi sono serviti come punti cardinali in un paio di uscite pubbliche. Dalla riflessione era per altro scaturito questo articolo per Quaderni d’Altri Tempi, e a Bellaria abbiamo colto l’occasione con Zoon e Kremo per imbastire un panel a 360° sui rischi esistenziali, proprio a partire dal clamore suscitato dagli avvertimenti lanciati da luminari del calibro di Stephen Hawking (che non ha certo bisogno di presentazioni da queste parti) o Elon Musk (l’imprenditore sudafricano-americano fondatore di start-up di successo, da PayPal a Tesla Motors a SpaceX). E proprio i loro nomi, insieme a quello di Nick Bostrom, sono quelli che richiamavamo in quella sede, a partire dal dibattito incentrato sull’evoluzione delle intelligenze artificiali simil o super umane.

Com’è stato detto, se mai risulterà possibile una superintelligenza artificiale sarà anche l’ultima invenzione dell’uomo. Il progresso è sempre guidato dalla civiltà più evoluta. E in presenza di una intelligenza artificiale confrontabile o già superiore all’intelligenza umana, capace di migliorarsi a un ritmo per noi vertiginoso e inimmaginabile, l’umanità dovrà rassegnarsi a passare il testimone. Risulta quindi plausibile che a quel punto il timone del progresso passi “nelle mani” delle IA, che si sostituiranno in tutto o in parte a noi nel ruolo di motore dell’evoluzione tecnologica, scientifica e culturale sulla Terra.

In uno dei suoi articoli sempre estremamente stimolanti, il divulgatore Caleb Scharf, astrobiologo alla Columbia University, ha provato addirittura a mettere in relazione lo sviluppo delle IA con il paradosso di Fermi, passando per il Grande Filtro: è un’idea interessante, sennonché mi sembra fondarsi sull’assunzione un po’ troppo restrittiva che ogni forma artificiale di intelligenza contenga il germe intrinseco dell’autodistruzione.

D’altronde, se come esseri umani ci stiamo interessando così tanto a un argomento che fino a non molto tempo fa sembrava poterci appassionare solo in forma di fiction (e in effetti credo che negli ultimi trent’anni sia stata scritta e filmata ben poca fantascienza capace di prescindere da un qualche impiego futuro – o rischio connaturato all’uso – delle IA), non è solo per l’effetto perturbante della difformità implicita nell’IA, del suo essere qualcosa di altro da noi. Le implicazioni dell’eventuale avvento dell’IA sono intrinsecamente imprevedibili: potremmo trovarci davanti agli scenari più diversi, da una vera e propria esplosione di intelligenza alla riprogrammazione stessa della materia disponibile sulla Terra e nei suoi paraggi (tutta la materia, esseri viventi inclusi) in computronium, fino a esiti ancora più inquietanti come l’inferno a misura d’uomo teorizzato nel cosiddetto rompicapo del Basilisco di Roko. Si va quindi dal caso migliore dell’umanità vittima collaterale dello sviluppo dell’IA, a quello peggiore dell’umanità completamente asservita (ed eventualmente annichilita) dall’IA. In nessun caso, proiettando sull’intelligenza artificiale ciò di cui è stata capace nel corso della sua storia l’intelligenza umana, la nostra “ultima invenzione” dovrebbe mostrare un senso di compassione nei nostri confronti.

Ma se i nostri timori sono oggi così fondati, è perché sono sostanzialmente il frutto del nostro passato, che troviamo così ben rappresentato nel presente. E abbiamo appunto imparato a nostre spese che dell’umanità come oggi la conosciamo è meglio diffidare. Ogni sviluppo futuro, ogni tentativo di estrapolazione, ci costringe a fare i conti con i punti di partenza: e ciò che siamo oggi, evidentemente, non ci piace granché. E allora: perché non cogliere l’occasione di questo dibattito per fare qualcosa che cambi le cose? Forse le cose andranno male comunque, ma almeno non avremo nulla da rimproverarci.

BATTLESTAR GALACTICA -- Pictured: Tricia Helfer as Number Six -- SCI FI Channel Photo: Justin Stephens

BATTLESTAR GALACTICA — Pictured: Tricia Helfer as Number Six — SCI FI Channel Photo: Justin Stephens

… che poi sarebbero le domande fondamentali del nostro tempo – e, forse, di tutti i tempi. Sono lo spunto tematico della sezione monografica del nuovo numero di Quaderni d’Altri Tempi, bimestrale a cura di Gennaro Fucile. Roberto Paura ha voluto coinvolgermi nella titanica impresa di fornire una panoramica su alcuni temi di particolare rilevanza per gli sviluppi della scienza, e ovviamente l’occasione è diventata il pretesto per tracciare una mappa – parziale, incompleta, iniziale – delle relazioni tra avanzamento scientifico e immaginario di fantascienza. Ne è venuto fuori un lavoro per me particolarmente stimolante, in cui ho ripreso spunti e riflessioni già accennati su queste pagine nei mesi scorsi. Documentatissimi e ricchi di spunti di approfondimento sono i due articoli di Roberto, e tutto il numero si presenta, come di consueto, da leggere e assaporare. Vi rimando quindi al sommario del numero 53 di Quaderni d’Altri Tempi. Buona lettura!

QuadernidAltriTempi_53

Rilancio (via IIF) questa istruttiva infografica sui rischi esistenziali disseminati lungo il cammino verso il domani. Occhi aperti!

apocalypse-when_54b559ec6bd41_w450

Una delle critiche che più di frequente viene mossa all’agenda transumanista è la sua negazione delle radici umaniste della nostra società. Se da un lato il malinteso tende ad essere alimentato dalle posizioni delle frange superomiste dei vari network locali afferenti alla World Transhumanist Association – Humanity+, dall’altro è incontestabile che il transumanesimo, inteso come filosofia, attitudine e sensibilità, attinga invece a piene mani al complesso di valori e caratteristiche proprie dell’umanesimo. Senza farla troppo lunga e assumendomi il rischio della semplificazione, il principio stesso alla base dell’umanesimo rinascimentale, ovvero la valorizzazione della dignità umana attraverso la conoscenza, il sapere e gli strumenti della tecnica, si riversa nel transumanesimo attraverso i capitoli-chiave dell’Illuminismo e del Positivismo.

L’idea del transumanesimo che personalmente sposo è quella di riportare l’umanità al centro dell’universo, proprio come ai tempi del Rinascimento, ma nella consapevolezza morale che l’umanità non è un’idea scolpita nella pietra, ma un sistema dinamico di valori, in corso di cambiamento continuo. L’uomo di domani non sarà come l’uomo di ieri, che non è come l’uomo di oggi. E, scusate se mi ripeto, sono convinto che dovremmo fin da subito prendere a considerare in termini più ampi e inclusivi concetti come l’identità, la coscienza e, in ultima istanza, l’umanità. Se e quando riusciremo a sviluppare costrutti artificiali di intelligenza, esseri biologicamente modificati, impianti neurali capaci di accrescere le nostre facoltà cognitive, la necessità di modificare il perimetro delle convinzioni attuali, derivate da una stratificazione millenaria di accettazione pseudo-dogmatica, diventerà improcrastinabile. Per indole preferisco gestire il rischio per tempo, piuttosto che doverne affrontare le conseguenze rinunciando a una preparazione adeguata -tanto più quando, come in questo caso, quello che potremmo definire come rischio esistenziale resta circoscritto al campo di una sottoipotesi di una ipotesi.

Il postumanesimo non è nient’altro che l’aspirazione di determinare consapevolmente il proprio futuro, come individui e come specie, usando gli strumenti che ci sono dati, che sono quelli della scienza e della tecnologia, e riconoscendo l’estensione dei diritti validi per l’uomo ad ogni entità senziente.

True_Detective_24

Fin dalla primissima visione ho provato un’affinità istintiva con le tematiche e i personaggi di True Detective (la celebratissima serie di Nic Pizzolatto prodotta dalla HBO, di cui è in preparazione proprio in questi mesi la seconda stagione). Questa riflessione del sociologo Adolfo Fattori, apparsa sull’ultimo numero di Quaderni d’Altri Tempi, mi ha spinto ad approfondire le ragioni e i motivi di questa fascinazione. Che in realtà potrebbe avere radici più razionali di quanto finora sono stato disposto a considerare, solo ben nascoste dalle spire dell’irrazionale che avvolgono tutta l’opera. A proposito di Rustin “Rust” Cohle, il detective disincantato e nichilista ispirato alla visione del mondo di Thomas Ligotti e interpretato da Matthew McConaughey, Fattori scrive:

Nichilismo puro. Forse uno dei primi esempi di eroe del postumanesimo – prima dei replicanti, degli androidi, dei cloni, cui a volte pensiamo quando usiamo il termine “postumano”, alla ricerca di oggetti che lo riempiano, senza fermarci ad una progressione quantitativa (protesi e mutazioni che aumentano le capacità umane), ma pensando ad uno strappo qualitativo: qualcosa che cambia in noi, umani fatti di sangue, carne, emozioni, affetti.

Potremmo quindi interpretare il personaggio di Rust, scomodo, inquietante, estraneo – addirittura alieno – al consesso umano, non come il classico antieroe a cui tanta letteratura e tanto cinema ci hanno abituati, ma come il prototipo di una nuova classe di eroi, adatto a una sensibilità postumanista. E in effetti, a ben guardare, di inizi a favore di questa ipotesi ne possiamo raccogliere un certo numero.

Rust è un nichilista, anzi come si definisce lui stesso un “pessimista cosmico”, che non riconosce nessuna autorità al di fuori del concetto ideale di giustizia. Porta con sé il dolore della perdita prematura di una figlia che ha mandato in frantumi la sua vita privata. Ha subito delle lesioni permanenti nel corso di un precedente incarico da infiltrato in un clan di motociclisti narcotrafficanti, che lo ha reso schiavo delle anfetamine. «Io non dormo. Sogno e basta» confida a Marty Hart / Woody Harrelson. E le sue parole fanno il paio con queste altre che scambia con Marty in un altro dialogo così efficace e denso, assolutamente improponibile in un confronto televisivo (eppure…):

Rust Cohle: «Sono dell’idea che la coscienza umana sia stato un tragico passo falso nell’evoluzione. Siamo diventati troppo consapevoli di noi stessi. La natura ha creato un aspetto della natura separato da se stessa. Noi siamo creature che non dovrebbero esistere, secondo le leggi della natura. Siamo solo delle cose che si sforzano sotto l’illusione di avere una coscienza, questo incremento delle esperienze sensoriali e della nostra sensibilità, programmata con la completa assicurazione che ognuno di noi è una persona a se’ stante quando, in realtà, ognuno di noi è nessuno. Penso che l’unica cosa onorevole da fare per le specie come la nostra sia rifiutare come siamo fatti. E smettere di riprodurci, procedendo tutti insieme verso l’estinzione. Un’ultima notte nella quale fratelli e sorelle si liberano da un trattamento iniquo».
Marty Hart: «Ma allora… che senso ha alzarsi dal letto, di mattina?».
Rust Cohle: «Mi convinco di essere un testimone, ma la vera risposta è che sono fatto così. Inoltre, non ho la tempra necessaria per suicidarmi».

Rust si vede dunque come un testimone, eppure lui è uno che non dorme. Che sogna e basta, al punto che le visioni oniriche si sovrappongono ai fatti, si mescolano alla realtà, e diventano un tutt’uno, come nella sigla d’apertura scandita dalle note di Far From Any Road del gruppo country alternativo The Handsome Family. Il suo è un vagabondare nelle Terre del Sogno che altri esseri umani scambiano per realtà. Vi ricorda qualcosa?

Rust Cohle: «Nell’eternità, priva di tempo, nulla può crescere. Nulla può divenire. Nulla cambia. Perciò la Morte ha creato il Tempo affinchè facesse crescere tutto ciò che poi lei avrebbe ucciso. Ed ecco che tutte le creature rinascono. Ma solo per rivivere la stessa vita che si è vissuta in precedenza. Pensateci un po’, detective. Quante volte abbiamo già avuto questa conversazione? Chi può dirlo? Se nessuno può ricordare le proprie vite precedenti nessuno può cambiare la propria vita. Ed è questo il terribile ed oscuro segreto della vita stessa. Siamo in trappola. Confinati in quell’incubo nel quale continuiamo a destarci».

O ancora:

Rust Cohle: «Questo è quello di cui parlo quando parlo di tempo e morte e futilità. Ci sono idee più ampie al lavoro soprattutto quello che ci spetta in quanto società per le nostre reciproche illusioni. Quattordici ore di fila a guardare foto di cadaveri queste sono le cose a cui pensi. L’avete mai fatto? Guardi nei loro occhi anche in una foto. Non importa se sono morte o vive. Puoi comunque leggerli e sai cosa vedi? Loro l’hanno accolto. Non subito ma… proprio li’, nell’ultimo istante. E’ un sollievo inconfondibile. Vedete, perchè erano spaventate e ora vedono per la prima volta quanto era facile semplicemente lasciarsi andare ed hanno visto, in quell’ultimo nanosecondo, hanno visto cosa erano state, che tu, proprio tu, tutto questo grande dramma non è mai stato altro che un coacervo raffazzonato di presunzione e stupida volontà e puoi semplicemente lasciarti andare, finalmente, adesso che non devi più aggrapparti così forte… per renderti conto che…tutta la tua vita, sai, tutto il tuo amore, il tuo odio, i tuoi ricordi, il tuo…dolore… era tutto la stessa cosa. Era tutto lo stesso sogno, un sogno che hai avuto dentro una stanza chiusa. Un sogno sull’essere una persona. E come in tanti sogni, c’è un mostro, alla fine».

Rust è refrattario all’irrazionale, alla fede, alla superstizione e all’oscurantismo che dilagano nel Bayou ( «E questa qui sarebbe vita? Persone che si radunano e si raccontano panzane che sono in aperto contrasto con tutte le leggi dell’universo solo per finire una cazzo di giornata in santa pace? No. Sarebbe questa la realtà in cui vivete voi, Marty?»). Compatisce gli altri uomini che non hanno la forza per resistere ai soprusi dell’autorità, alla violenza o anche solo al retaggio delle convenzioni imposte dalla società. Un personaggio contro, in tutto e per tutto. Ma alla fine, messo di fronte alla prova di un nuovo dolore, sopravvissuto alla morte confida a Marty: «A un certo punto quando ero immerso nell’oscurità, so che qualcosa… Qualunque cosa fossi diventato…Non era neanche coscienza, più una indistinta consapevolezza, nell’oscurità. E potevo, potevo sentire i miei contorni… sbiadire. Al di sotto di quella oscurità ce n’era un’altra di tipo diverso, era più profonda. Calda come fattasi sostanza, capisci? Riuscivo a sentire… E sapevo, sapevo per certo che mia figlia mi stava aspettando laggiù».

Non esattamente una redenzione, però Rust, dopo aver trascorso 17 anni ad affrontare la realtà a muso duro, sfidando tutti e resistendo a qualsiasi potere attrattivo da parte degli altri, nei minuti finali della serie torna. Con qualcosa da raccontare. Non lo fa controvoglia, come ha sempre fatto con le sue esternazioni nel corso delle indagini. Lo fa di sua iniziativa:

Rust Cohle: «Una volta non c’era che oscurità. Per come la vedo io, è la luce che sta vincendo».

Qualcuno potrebbe volerci leggere una chiave religiosa. Per me non è così. Credo invece che Rusty da testimone si sia infine convinto a diventare attore, abbracciando la sfida all’irrazionalità del mondo. Non si fa più carico di un dolore e di un pessimismo senza argini, ma piuttosto di un messaggio. E questo messaggio dalle parole si trasferisce nelle azioni, e per tramite loro si cala nel mondo. C’è qualcosa da fare, finalmente, non solo da criticare. Questa è la mia interpretazione.

Forse le parole finali di Cohle non sono abbastanza da arrivare a una pronuncia definitiva. Ma per me risultano più che sufficienti a indirizzare un sospetto.

True_Detective_03

E se il mondo in cui viviamo, la nostra vita stessa, l’universo che ci ostiniamo a voler studiare e capire, se tutto questo non fosse altro che un inganno? Una simulazione, messa in piedi da qualcuno per scopi che forse siamo condannati a ignorare per sempre?

simulated_universe

Uno dei rischi esistenziali esposti da Nick Bostrom è legato al cosiddetto Simulation argument, da lui approfondita in un articolo del 2003 (e anche in questo caso incoraggio la lettura, il post che segue ne rappresenta un semplice, parzialissima riduzione).

Inizialmente proposta da Hans Moravec, l’ipotesi dell’universo simulato è stata ripresa da Bostrom nel 2001, sviluppando un ragionamento volto a esaminare la probabilità che la nostra realtà potesse essere un simulacro. Ma vale la pena ricordare che tutta la fantascienza è ricca di universi simulati, già prima del citatissimo Dick, pensiamo a Theodore Sturgeon con il racconto Il signore del microcosmo (1941) o a Robert A. Heinlein con Il mestiere dell’avvoltoio (1942), oppure a Daniel F. Galouye, già con Stanotte il cielo cadrà (1952-55) ma soprattutto con Simulacron-3 (1964), da cui il cinema e la televisione avrebbero attinto a piene mani.

La tesi di Bostrom stabilisce che almeno una delle seguenti asserzioni ha ottime probabilità di essere vera:

  1. La civiltà umana verosimilmente non raggiungerà un livello di maturità tecnologica capace di produrre simulazioni della realtà, oppure potrebbe essere fisicamente impossibile riprodurre tali simulazioni.
  2. Una civiltà equivalente che raggiungesse il suddetto livello tecnologico probabilmente non produrrà un numero significativo di realtà simulate (un numero tale da spingere l’esistenza probabile di entità digitali al di là del numero probabile di entità “reali” nell’Universo) per un qualsiasi tipo di motivo, come ad esempio l’utilizzo della potenza di calcolo per altri compiti, considerazioni di ordine etico sulla schiavitù delle entità prigioniere delle realtà simulate, etc.
  3. Ogni entità con il nostro set generale di esperienze quasi certamente vive in una simulazione.

Il ragionamento si basa sulla premessa che, data una tecnologia sufficientemente avanzata, sia possibile rappresentare la superficie abitata della Terra senza ricorrere alla simulazione quantistica; che i qualia (gli aspetti qualitativi delle esperienze coscienti) sperimentati da una coscienza simulata siano paragonabili o equivalenti a quelli di una coscienza umana naturale; e che uno o più livelli di simulazioni annidate una nell’altra siano fattibili dato solo un modesto investimento di risorse computazionali nel mondo reale.

Se si assume innanzitutto che gli umani non andranno incontro alla distruzione o all’autodistruzione prima di sviluppare una simile tecnologia, e poi che i discendenti dell’umanità non avranno restrizioni legali o rimorsi morali contro la simulazione di biosfere possibili o della loro stessa biosfera storica, allora sarebbe irragionevole annoverare noi stessi nella ridotta minoranza di organismi reali che, prima o poi, saranno largamente sopravanzati in numero dai costrutti artificiali. In definitiva, è una questione di pura e semplice statistica.

Epistemologicamente, non sarebbe impossibile definire se stiamo vivendo in una simulazione. Ma le imperfezioni di un ambiente simulato potrebbero essere difficili da individuare per gli abitanti nativi della simulazione.

La tesi dell’universo simulato ci pone di fronte a un dilemma degno di nota. Se non si accetta l’idea di poter essere nient’altro che una simulazione in un universo simulato, si sta implicitamente negando la possibilità che l’umanità evolva in una civiltà postumana, oppure che tutte le civiltà postumane saranno soggette a qualche tipo di prescrizione che vieti loro di simulare i mondi dei loro precursori. Ed entrambe le spiegazioni non sono molto rassicuranti per il nostro cammino evolutivo futuro.

A qualcuno potrebbe ricordare il discusso paradigma olografico, ma in realtà questo scenario è molto peggiore. In quel caso saremmo infatti in presenza di una proprietà naturale dell’universo, che non richiede il coinvolgimento di una qualunque entità superiore tra i suoi presupposti. Se invece il mondo in cui viviamo dovesse essere una simulazione, se le nostre stesse vite fossero una simulazione nella simulazione, le cose si farebbero notevolmente più complicate. E naturalmente rischiose, in termini esistenziali. Di punto in bianco infatti qualcuno potrebbe decidere di interromperne l’esecuzione della realtà in cui siamo istanziati…

All’improvviso – shutdown!

E tanto in termini soggettivi quanto globali dovrete convenire che non è affatto una prospettiva confortante. Nemmeno se dovesse diventare certezza la possibilità di un dio o di un demiurgo, là fuori, in ascolto.

In un illuminante articolo del 2001-2002, il filosofo svedese Nick Bostrom, docente della Oxford University e direttore del Future of Humanity Institute, molto attivo anche in seno alla comunità transumanista, includeva l’impatto ambientale di alcune tecnologie tra i rischi esistenziali in grado di condurre l’umanità all’estinzione.

Cosa è un rischio esistenziale? Bostrom propone una classificazione del rischio basata su tre parametri: portata, intensità e probabilità che la minaccia si verifichi. La portata può essere “sostenibile” o “terminale”, l’intensità “personale”, “locale” oppure “globale”. Un “rischio esistenziale” è un rischio globale e terminale allo stesso tempo, una minaccia che potrebbe annichilire la vita intelligente di origine terrestre o limitarne drasticamente e irreversibilmente le potenzialità di sviluppo. Oltre al pericolo di un olocausto nucleare, dell’impatto di un asteroide o di una cometa con la superficie terrestre, del global warming, di un’epidemia naturale, di una qualche catastrofe collegata a un esperimento di fisica nucleare, Bostrom annovera anche l’abuso deliberato o accidentale delle nanotecnologie, la diffusione di agenti patogeni bio-ingegnerizzati o l’avvento di una superintelligenza ostile o semplicemente mal programmata. Con l’eccezione dell’impatto celeste, nessuno di questi rischi minacciava la sopravvivenza della specie umana prima della metà del XX secolo, e di certo nessuno contro cui l’umanità potesse adottare una qualche contromisura. Sono tutti fenomeni contro i quali si dimostra del tutto inutile (se non proprio impossibile) adottare il classico approccio empirico del prova-e-riprova, fino a testare una soluzione efficace. Senza un protocollo adeguato alla gestione del rischio, uno qualsiasi di questi eventi potrebbe rivelarsi fatale al primo errore, se non addirittura prima.

Il rischio esistenziale è una categoria che pone una sfida di ampia portata culturale per l’umanità intera:

  1. Ci obbliga a superare l’approccio consolidato, in quanto vanifica qualsiasi opportunità di apprendimento dall’errore. Richiede invece un approccio proattivo: previdenza per anticipare nuovi tipi di minacce e volontà di adottare azioni preventive decisive sostenendone i costi morali ed economici.
  2. Non possiamo affidarci alle istituzioni, alle norme morali, alle consuetudini sociali o alle politiche di sicurezza nazionale già sviluppate per fronteggiare altre tipologie di rischio. Il rischio esistenziale si comporta in maniera del tutto diversa da tutto ciò che abbiamo conosciuto finora (perfino una guerra mondiale combattuta con armi convenzionali o un regime nazista rappresentano delle minacce inferiori sulla scala della gravità, attestandosi a cavallo tra i rischi globali sopportabili e i rischi locali terminali). Proprio per questo la nostra reazione nel riconoscere rischi di questo tipo e nel correre ai ripari potrebbe risultare fatalmente lenta.
  3. Le contromisure rappresentano dei beni pubblici globali e come tali andrebbero trattate. I rischi esistenziali sono una minaccia per chiunque e potrebbero richiedere azioni di portata internazionale. Il rispetto della sovranità nazionale non è una giustificazione legittima per evitare di prendere contromisure adeguate.
  4. Considerando il bene delle generazioni future, il danno provocato dai rischi esistenziali va moltiplicato per un altro fattore, il tasso di sconto sociale: vale a dire il tasso di sconto adottato per calcolare il valore dei fondi spesi su progetti di interesse comune, esteso alle future generazioni.

Malgrado la sua innegabile importanza, è sorprendente quanto poco lavoro sistematico sia stato compiuto in questo settore.

Lo sforzo intellettuale di Bostrom è rivolto alla minimizzazione sistematica dei rischi esistenziali, attraverso l’accrescimento della consapevolezza e la predisposizione di contromisure adeguate. Tra le azioni suggerite ricordiamo:

  1. Il pubblico riconoscimento del profilo di rischio esistenziale.
  2. La creazione di una piattaforma internazionale per la condivisione dei costi e delle responsabilità di un bene pubblico globale come il contenimento dei rischi esistenziali.
  3. Prevedere un margine di intervento nel caso in cui sia necessario, in ultima istanza, il ricorso a un’azione preventiva.
  4. Adottare uno sviluppo tecnologico differenziato volto a posticipare l’implementazione di tecnologie pericolose e accelerare lo sviluppo di tecnologie benefiche, specie quelle in grado di attenuare le potenzialità delle tecnologie dannose.
  5. Sostenere i programmi volti a contrastare direttamente specifici rischi esistenziali.
  6. Maxipok, una regola generale per l’azione morale: massimizzare la probabilità di un effetto positivo, dove per “effetto positivo” si intende qualsiasi prodotto che scongiuri il disastro esistenziale.

L’articolo merita una lettura approfondita ma ripaga dello sforzo. Se siete interessati al futuro e alle possibilità della specie umana di evolvere in una civiltà postumana, vi potrete trovare interessantissimi spunti di riflessione, che come dimostra il caso di Elon Musk non hanno perso minimamente la loro attualità.

Direttive

Vivere anche il quotidiano nei termini più lontani. -- Italo Calvino, 1968

Neppure di fronte all'Apocalisse. Nessun compromesso. -- Rorschach (Alan Moore, Watchmen)

United We Stand. Divided We Fall.

Avviso ai naviganti

Mi chiamo Giovanni De Matteo, ma per brevità mi firmo X. Nel 2004 sono stato tra gli iniziatori del connettivismo. Leggo e guardo quel che posso, e se riesco poi ne scrivo. Mi occupo soprattutto di fantascienza e generi contigui. Mi piace sondare il futuro attraverso le lenti della scienza e della tecnologia.
Il mio ultimo romanzo è Karma City Blues.

Altrove in 140 caratteri

Segui assieme ad altri 101 follower

ottobre: 2019
L M M G V S D
« Set    
 123456
78910111213
14151617181920
21222324252627
28293031  

Categorie

Annunci
%d blogger hanno fatto clic su Mi Piace per questo: