You are currently browsing the category archive for the ‘Transizioni’ category.

La Biblioteca del Futuro (Future Library, in norvegese Framtidsbiblioteket) nasce a Oslo da un progetto dell’artista scozzese Katie Paterson nel 2014. Da allora raccoglie ogni anno il manoscritto inedito di un autore o un’autrice internazionali destinato a essere custodito nella cosiddetta Silent Room per essere pubblicato solo nel 2114. In questi anni hanno preso parte all’iniziativa autori di prima grandezza come Margaret Atwood (Il racconto dell’ancella), Han Kang (Atti umani) e David Mitchell (Cloud Atlas), che all’inizio per la verità era scettico sulla valenza dell’operazione, ma poi ha dovuto ricredersi.

Il progetto si prefigge infatti di mettere in condizione gli autori di misurarsi con il pensiero a lungo termine, qualcosa che trascende le loro vite, e quelle dei lettori che avranno la possibilità di misurarsi con le loro opere: tutti gli autori che prenderanno parte alla Biblioteca prima della metà di questo secolo (e plausibilmente molti tra quelli che verranno anche dopo) scriveranno infatti lavori destinati a essere letti da generazioni nemmeno ancora nate al momento della stesura. Inoltre, i contributi che si aggiungeranno alla Biblioteca nel corso del tempo risentiranno inevitabilmente del mutare delle condizioni (politiche, sociali, economiche, culturali) in cui saranno scritti, attraversando un secolo intero di vita sulla Terra, e di sicuro il secolo più ricco di eventi, sconvolgimenti e ricadute tecnologiche tra tutti quelli trascorsi dalla comparsa di quel fenomeno che va sotto il nome di civiltà.

La Biblioteca del Futuro richiama un po’ anche l’intento della Long Now Foundation, che lavora su una scala temporale persino più ampia (10000 anni). L’idea, come scrive BBC Future, è ispirare le persone a superare le distrazioni momentanee e riflettere sulle responsabilità nei confronti delle generazioni che abiteranno il pianeta dopo di noi, promuovendo una prospettiva lungimirante sul futuro. Questo è il sito ufficiale della Future Library.

Trovo che, in un’epoca come la nostra, iniziative come queste dovrebbero fiorire un po’ dappertutto, finché non si sarà raggiunta una consapevolezza tale da poter dare per scontato che le nostre scelte nel presente possono avere una ricaduta a lungo termine, anche oltre l’orizzonte della nostra permanenza sulla Terra.

Di cosa parliamo quando parliamo di cyberpunk? La risposta è molto meno scontata di quanto potrebbe sembrare a un approccio superficiale. Il cyberpunk letterario è stato spesso accusato di scarsa originalità, monotonia di fondo e, col tempo, conformismo a tutta una serie di elementi divenuti un po’ dei cliché: il mondo distopico dominato dalle multinazionali, gli hacker solitari in lotta contro il sistema, la vita di strada nei bassifondi delle megalopoli… e potremmo continuare. Ma se prendiamo in considerazione i due titoli che hanno contribuito maggiormente a plasmare la nuova sensibilità della fantascienza dagli anni ’80 in avanti, ci accorgiamo di tutta una serie di differenze anche abissali legate non a elementi di contorno, che tutto sommato sono anche abbastanza sovrapponibili (*) – come dimostrano anche le dichiarazioni di William Gibson sulla sua esperienza come spettatore in sala all’uscita di Blade Runner – ma su un elemento che per il cyberpunk è tutto fuorché accessorio: la tecnologia.

(*) E che così di contorno, come vedremo tra poco, comunque non sono.

La tecnologia in Neuromante

Partiamo da Neuromante, il manifesto letterario del cyberpunk. Uscito nel 1984, è ambientato secondo le stime di Gibson intorno al 2035 (sebbene l’arco della trilogia copra 16 anni e quindi questa datazione vada presa molto con le molle, potendo oscillare, diciamo, tra il 2025 e il 2040… ma tutto sommato ancora dietro l’angolo, a differenza di quanto dedotto invece da un lettore su Vice basandosi su altri elementi interni ai romanzi ma probabilmente più dovuti a sviste dell’autore che non riconducibili alle sue reali intenzioni) e dipinge una tecnologia ormai smaterializzata, micro- e nanometrica, pervasiva.

Nel mondo di Case e Molly, la tecnologia si è ormai integrata in maniera indistricabile con i corpi e la psiche degli utenti: il cyberspazio è un piano dell’esistenza complementare alla realtà fisica, con cui si compenetra in declinazioni che assumono di volta in volta le forme di un’internet ante litteram, della realtà virtuale o di una realtà aumentata, e che assolve al ruolo di vero e proprio ecosistema, con le sue nicchie e i suoi agenti (virus informatici, ICE, costrutti di personalità riconducibili al mind uploading, intelligenze artificiali…).

Case, Molly e gli altri abitanti del futuro come loro non esitano a modificare i propri corpi attraverso impianti prostetici che ne aumentano le facoltà e attivano un feedback con il cyberspazio: non sono più solo agenti, ma la loro psiche e il loro organismo diventa un target su cui la rete e altri agenti possono produrre effetti tangibili. La strada ha trovato il suo uso per la tecnologia uscita dai laboratori, per dirla con Gibson. Anzi, ha trovato mille modi per utilizzarla e piegarla alle necessità dei singoli operatori, attraverso tutto un mercato nero di tecnologie trafugate dai centri di ricerca delle multinazionali o dell’esercito e messe in circolazione da una rete di contrabbandieri, corrieri, rigattieri…

La tecnologia in Blade Runner

La visione della Trilogia dello Sprawl prende forma tra la fine degli anni ’70 e i primissimi ’80, e nel 1982 arriva nelle sale Blade Runner. Un film che si inserisce nel solco di quella visione cupa e pessimistica del futuro che negli stesi anni si andava definendo grazie a pellicole epocali come Mad Max di George Miller (1979) e 1997: Fuga da New York di John Carpenter (1981), o Alien dello stesso Ridley Scott (1979). Ma, con la notevole eccezione di quest’ultimo, i film che stavano ridefinendo l’immaginario del futuro erano prevalentemente accomunati da un basso tasso tecnologico: la tecnologia era o ridotta al puro elemento meccanico (le automobili di Mad Max con cui vivono in simbiosi i sopravvissuti dell’outback australiano) o a strumento di controllo (le bombe miniaturizzate iniettate a Plissken per convincerlo a esfiltrare il presidente dal carcere di massima sicurezza di Manhattan).

Lo stesso Alien non è che brilli sotto il profilo dell’estrapolazione tecnologica, ma se non altro, sullo sfondo di una civiltà che è stata comunque in grado di mettere in campo lo sforzo necessario a esplorare rotte spaziali al di fuori del sistema solare, presenta personaggi che sono androidi meccanici indistinguibili dagli esseri umani e computer che rasentano, per autorità anche se non proprio per flessibilità (e qui torniamo alle forme di controllo già citate sopra a proposito di 1997: Fuga da New York), lo status delle IA. Elementi che, con le dovute variazioni, caratterizzano anche Blade Runner, dove ritroviamo appunto una tecnologia pesante: gli avanzamenti nella biotecnologia hanno permesso lo sviluppo di replicanti, androidi biologici indistinguibili dagli esseri umani (anzi, più umani dell’umano), destinati all’impiego in teatri di guerra extra-mondo e a farsi carico di mansioni che richiedono forza e resistenza fisica. L’uso più soft contemplato per i Nexus-6, i replicanti di ultima generazione, è per i modelli femminili, adibiti alla prostituzione nei bordelli delle colonie, non proprio un esempio di visione futuristica sull’impiego del più sofisticato prodotto della tecnologia umana.

In Blade Runner, la tecnologia è sempre separata dai corpi e dalle menti dei suoi utilizzatori umani: l’intermediazione tecnologica nelle relazioni umane è ridotta al minimo, i telefoni sono ancora in cabine pubbliche, i computer quasi nemmeno si vedono e – tralasciando volutamente, per il momento, qualsiasi grande o piccola retcon operata da Blade Runner 2049 – la rete nemmeno esiste. La tecnologia non è bassa, ma è sostanzialmente hard e ha a che fare con la programmazione/manipolazione biologica dei corpi, confinata all’interno di questi (alcune decine o centinaia di migliaia di replicanti sparsi sulle colonie extra-mondo, e pochissimi fuggitivi clandestini sulla Terra), mentre il mondo di fuori è sostanzialmente la fucina di catastrofi ambientali in cui ci troviamo a vivere oggi, con un downgrade della tecnologia attuale a quella degli anni ’80.

Blade Runner & Neuromancer: convergenze non accidentali

Per inciso, ricollegandoci a quanto dicevamo in apertura sulla sovrapponibilità degli elementi d’ambiente e le atmosfere, è interessante anche notare come Gibson e Scott condividessero una visione sostanzialmente comune su quella che l’autore di Neuromante definisce “la più caratteristica delle nostre tecnologie“: la città. Entrambi, Gibson sulla pagina scritta e Scott nei set di Blade Runner, compiono un’operazione che potrebbe apparire scontata (soprattutto a un europeo, sostiene Gibson): sovrapporre elementi del passato, del presente e del futuro nella rappresentazione delle città. In pratica: dare evidenza della stratificazione delle epoche attraverso il mélange architettonico che plasma l’estetica della città.

Ciò che Ridley Scott fa con Blade Runner, lo si ritrova nella stessa misura sia in Neuromante che nei precedenti racconti di Gibson: le strade delle loro città sono concentrati di archeologia urbana e per questo danno una misura incontestabile del tempo che è corso su quelle superfici e di ciò che è costato.

Blade Runner vs Neuromancer: dove saltano gli schemi

Tutto semplice, quindi? Forse no, perché il doppio finale di Blade Runner, con il problema della duplice interpretazione della natura di Deckard, complica significativamente lo schema fin qui delineato. A seconda delle letture che si vogliono dare al personaggio, il cacciatore di replicanti può essere un umano (chiave interpretativa prediletta dall’interprete del ruolo Harrison Ford) o un replicante lui stesso (lettura sostenuta a più riprese da Ridley Scott, almeno fino all’uscita nelle sale del sequel di Denis Villeneuve che invece opta per la versione di Ford).

Se Deckard è un umano, la sua fuga finale con Rachael assume le valenze metaforiche di un matrimonio tra la sfera umana e quella artificiale, una sorta di romantica conciliazione tra la natura e la tecnologia. Poco plausibile forse, sicuramente suggestiva, estrinsecata in particolare nella sequenza dell’auto che attraversa i boschi a nord di Los Angeles sulle note incalzanti della leggendaria colonna sonora di Vangelis. Si tratta del finale voluto dallo sceneggiatore Hampton Fancher e realizzato da Scott su input della produzione “riciclando” le sequenze girate per Shining scartate da Stanley Kubrick.

Se Deckard al contrario è un replicante, la sua scoperta finale (molto in linea con la sensibilità di Philip K. Dick benché non fedele alla lettera al romanzo), suggellata dalla chiusura delle porte dell’ascensore scelta come final cut dal regista, diventa l’agnizione lacerante dell’incompatibilità della propria esistenza con la natura, l’anamnesi sul proprio essere – esattamente come i replicanti a cui il cacciatore ha finora dato la caccia – una contraddizione in atto, la prova «vivente» che la realtà ha ormai raggiunto un livello di falsificazione da cui è impossibile tornare indietro: non sono solo i ricordi a essere contraffatti, ma l’effetto si estende inevitabilmente alla percezione stessa della realtà. La natura è destinata a scomparire, sostituita da repliche che si credono originali e reali. Le superiori capacità mimetiche dei simulacri renderanno infine vano qualsiasi tentativo di resistenza.

La versione di Ford (e di Fancher) chiude in qualche modo un cortocircuito con la visione tecnologica di Neuromante, dove la sintesi tra organico e sintetico viene subita ma a cui non ci si sforza di resistere, cercando piuttosto di piegarla alle esigenze dei protagonisti: sotto questa luce, Blade Runner prospetta un’accettazione perfino ottimistica di questa sintesi, facendo quindi un ulteriore passo avanti.

La versione di Scott (e di Dick), invece, stabilisce che non c’è ragione di sposare ciò che è fuori con ciò che è dentro, l’organico e l’inorganico. Semplicemente, l’inorganico, l’artificiale, il sintetico, il simulacro, ormai più umano dell’umano, è destinato a soppiantare l’organico, il naturale, l’originale. Non c’è scampo, non esiste via di fuga, la partita è segnata.

Siamo sotto scacco, a una mossa di distanza dallo scacco matto. Solo che non ce ne siamo ancora resi conto.

Cose belle scovate in giro. In queste infografiche elaborate per The Pudding, Matt Daniels prova a farci percepire il mondo da un’angolazione diversa, che entra in risonanza con certe visioni fantascientifiche, anche molto cupe, che evocano alla memoria La terra dell’eterna notte di William Hope Hodgson o L’ultimo castello di Jack Vance, ma anche film come Land of the Dead di George Romero.

Appare chiaro, guardando queste rappresentazioni, come il mondo risulti sempre più spaccato a metà, diviso tra città sempre più grandi e popolose, in grado per loro natura di attirare investimenti su servizi e infrastrutture, e campagne sempre più povere e spopolate. Il declino degli stati-nazione si accompagna a una nuova fioritura delle città-stato.

Altrettanto interessante, ma questa è una riflessione del tutto personale, lo sviluppo, nei paesi più minacciati dal cambiamento climatico per via della loro distribuzione demografica, come Cina e Indonesia, di grandi città nell’interno, in posizioni all’apparenza poco strategiche in un’economia dominata dal commercio marittimo, come se Chongqing e Bandung stessero crescendo in previsione di assimilare anche la popolazione che a un certo punto dovesse essere smobilitata dal Pearl River Delta o da Jakarta in conseguenza delle crisi climatiche già in corso.

Per una di quelle strane combinazioni di eventi che classifichiamo come coincidenze, mi sono ritrovato per le mani il libro di Gabriele Lolli dedicato ai Teoremi di incompletezza di Kurt Gödel proprio mentre completavo la lettura estiva di Anathem. Il monumentale romanzo di Neal Stephenson è a mio giudizio uno dei vertici della fantascienza del nuovo secolo e meriterà presto un approfondimento dedicato. La sua impostazione fortemente neoplatonica richiama, anche nel parallelo dei personaggi con figure storiche oltre che nelle situazioni e gli eventi citati con fatti realmente accaduti (qui trovate un’utilissima guida per riconoscere le molteplici linee di intersezione tra la storia della Terra e quella di Arbre), il ruolo centrale di Gödel nel definire le condizioni sotto le quali è possibile attingere a qualche forma di verità e quindi di conoscenza. È lo stesso Stephenson a sottolinearlo in una ricchissima pagina di approfondimenti dedicata al romanzo sul suo sito web.

Le due letture si sono completate illuminandosi a vicenda, ma se è stata necessaria anche qualche rilettura del bel libricino di Lolli, integrata da materiale disponibile on-line (ai teoremi il matematico Maurizio Codogno ha dedicato due interessantissimi, e piuttosto facili da seguire, articoli sul Post, per l’esattezza qui e qui), l’argomento è così ricco di risvolti e meandri da approfondire che non ho saputo fare a meno di fiondarmi pure su un altro testo che preservi la magia dei risultati concettuali raggiunti dal matematico austriaco-americano, ovvero Logica da zero a Gödel di Francesco Berto. D’altro canto è lo stesso libro di Lolli a suggerire e chiamare percorsi di lettura che sono in qualche modo già segnati nella mia libreria, e che fanno tappa in corrispondenza delle mensole che ospitano Gödel, Escher, Bach: un’Eterna Ghirlanda Brillante di Douglas R. Hofstadter e La Mente nuova dell’imperatore di Roger Penrose.

Per farla breve e correre il rischio di banalizzare e sminuirne la portata, i teoremi di Gödel sanciscono l’esistenza, all’interno di ogni teoria (o linguaggio o sistema formale) sufficientemente potente da contenere l’insieme dei numeri naturali, di espressioni vere ma non decidibili, e la necessità di ricorrere a metateorie (o metalinguaggi o sistemi formali più potenti) per dimostrare la coerenza di quella teoria. Da qui è scaturita tutta una serie di generalizzazioni, fraintendimenti ed equivoci che, se da un lato hanno “inquinato” il lavoro teorico di Gödel, dall’altro hanno indiscutibilmente anche contribuito più o meno direttamente al suo successo “popolare”. E nel suo libro Lolli passa in rassegna una ricca galleria di reazioni suscitate dai teoremi di incompletezza.

Se vi va di approfondire, ne ho parlato la scorsa settimana su Quaderni d’Altri Tempi. E ovviamente, se volete sviscerare l’argomento, il mio consiglio è di procurarvi I teoremi di incompletezza e usarlo come un manualetto per esplorare nuovi percorsi di lettura.

 

Sul nuovo numero di Delos Science Fiction, fresca vincitrice del Premio Italia per la migliore rivista fantastica, Carmine Treanni mi ha coinvolto in un’intervista incentrata su uno dei temi di maggiore attualità di questi anni, tra immaginario di genere e tentativi fallaci di estrapolazione, cercando di fornire anche uno spaccato degli esiti più rappresentativi prodotti in seno alla letteratura di fantascienza.

Per introdurre il tema fantascienza e intelligenza artificiale, vorrei che mi indicassi tre rappresentazioni di IA nella science fiction, rispettivamente nella letteratura, nel cinema e nelle serie TV. Quelle che a te sembrano le più interessanti e mi motivassi la scelta.

a scelta letteraria è dettata da ragioni affettive, ma credo che sia anche piuttosto obbligata: Invernomuto, l’IA manipolatrice dagli obiettivi imperscrutabili che recluta Case nel romanzo che fa da spartiacque nella storia della fantascienza. È da qui che buona parte della SF scritta dopo il 1984 scaturisce: sto parlando ovviamente di Neuromante di William Gibson. In ambito cinematografico c’è l’imbarazzo della scelta: da HAL 9000 a Skynet, fino ovviamente a Matrix, A. I. – Intelligenza Artificiale e Interstellar, pensando solo ai titoli più riusciti, ma forse il regista per cui l’IA ha finito per rappresentare una vera e propria ossessione è Ridley Scott, che dal 1979 con MOTHER e Ash (le due IA imbarcate sulla Nostromo di Alien) fino al 2017 con David 8 e Walter (le IA gemelle della Weyland Corporation in Alien: Covenant) ha di fatto scoccato una freccia che attraversa tutta la storia della fantascienza recente. Per questo la mia scelta è un po’ borderline, sicuramente meno canonica e scontata che per le IA letterarie: penso ai replicanti di Blade Runner, non solo superiori agli umani per facoltà intellettive, ma addirittura in grado di sviluppare comportamenti non previsti nella loro programmazione biologica e cognitiva. Infine, tra le serie TV, non posso fare a meno di pensare ai cylon di Battlestar Galactica, non la serie originale di Glen A. Larson, ma la nuova serie di Sci Fi Channel prodotta da Ronald D. Moore, che carica il conflitto tra umani e macchine di significati metaforici, sfumature psicologiche e in definitiva complessità, del tutto assenti nella serie degli anni ’70. Personalmente, credo che l’influenza di BSG sul modo in cui oggi pensiamo alle IA sia stato almeno all’altezza di tutti i migliori predecessori, da 2001: Odissea nello Spazio in poi, e non è male per una serie nata come un prodotto di nicchia.

[continua a leggere]

Al culmine di uno sforzo internazionale che ha impegnato scienziati da quaranta paesi, il consorzio internazionale EHT (Event Horizon Telescope) ha diffuso ieri la prima immagine di un buco nero. La foto del buco nero supermassiccio che si trova al cuore della galassia M87, distante 53 milioni di anni luce da noi, è il risultato di due anni di elaborazioni dei dati raccolti da una rete di otto radiotelescopi: 5 Petabyte che per poter essere processati da un algoritmo elaborato dalla dottoranda del MIT Katherine Bouman hanno dovuto essere spediti per aereo. L’immagine che ci ha restituito il programma EHT è quella di un mostro della massa di 6,5 miliardi di soli, circondato da un disco di accrescimento di gas ionizzati incandescenti del diametro di 0,39 anni luce, che orbitano intorno al buco nero alla velocità di 1.000 km/s.

Per celebrare questa impresa, che già in molti salutano come la foto del secolo, destinata ad aprire una nuova era nella storia dell’astrofisica, ho pensato di proporre ai lettori del blog un racconto che risale al 2005, originariamente apparso sulle pagine di Continuum (ma non più disponibile on-line) e in seguito ristampato in una versione leggermente rimaneggiata nell’antologia Frammenti di una rosa quantica (2008). Ed è in questa versione che ho pensato di proporvelo, in sette post a partire da oggi, uno per ogni capitolo del racconto.

Enjoy!

  1. Vai profondo, Jerry Lone!
  2. L’incognita Y
  3. Una storia dal Gorgo
  4. Economia del recupero
  5. Frammenti di una rosa olografica
  6. Resurgam
  7. Ergosfera per principianti

 

Arte e intelligenza artificiale rappresentano un connubio affascinante al quale io stesso non ho saputo resistere, mettendolo al centro di uno dei miei ultimi racconti. In Maja, che potete leggere su Propulsioni d’improbabilità (curato da Giorgio Majer Gatti per Zona 42), l’attenzione si focalizza sulla musica e sull’ipotesi che il talento innato e le basi della creatività possano rappresentare un fertile terreno d’incontro e di dialogo tra intelligenze «naturali» e artificiali, sviluppando esiti che al momento possiamo solo vagamente immaginare.

Dopotutto, è da alcuni anni che il celebre test di Turing, da sempre portato a esempio pratico come campo di prova per valutare un costrutto (aspirante o presunto) candidato a essere riconosciuto come IA, raccoglie un numero crescente di critiche sulla sua effettiva validità pratica, tra le altre cose anche per il suo ispirarsi all’altrettanto famoso imitation game (da cui anche il titolo dell’interessante biopic di Morten Tyldum, tratto dalla biografia di Andrew Hodges, in cui il Benedict Cumberbatch intrepreta il ruolo del grande matematico e criptoanalista britannico). Il punto non è tanto una sottigliezza, perché di fronte agli adeguamenti normativi richiesti dall’introduzione di sistemi automatici in grado di prendere scelte con conseguenze reali e quindi non prive d’impatto per l’ecosistema «umano» in cui agiscono (come potrebbero essere i veicoli a guida autonoma, ma anche IA preposte al controllo del traffico aereo, per non parlare delle eventuali applicazioni militari) le questioni etiche assumono una rilevanza centrale, e quindi non il discrimine per l’attribuzione di una responsabilità non può basarsi sulla pur sofisticata capacità di “ingannare” un interlocutore umano.

Già nel 2008 alcuni esperimenti condotti da Kevin Warwick all’Università di Reading (UK) avevano destato scalpore, se non altro per alcuni esiti quanto meno inquietanti (Think deeply about mysterious dubjects) delle conversazioni con le candidate IA.

Negli ultimi tempi, si sono invece intensificate le notizie sul ruolo possibile delle IA nella costruzione di artefatti video, che spaziano dall’esperimento cinematografico con il corto Sunspiring pensato e scritto da Benjamin, una rete neurale ricorsiva addestrata con una collezione di film di fantascienza, alle frontiere della post-verità con le aberranti prospettive della tecnologia deepfake. Evoluzioni che rendono ancora più concreta e urgente la necessità di pensare a un superamento del test di Turing, magari evolvendolo in una direzione analoga a quella che non facevo altro che estrapolare in Maja pensando a un ipotetico test di Lovelace (ovviamente da Ada, figlia di Lord Byron e prima programmatrice informatica della storia, convinta sostenitrice dell’incapacità delle macchine di sviluppare uno spirito creativo – o banalmente anche solo sorprendere i loro programmatori).

Immagine di Luca Zamoc (fonte: Il Trascabile).

È notizia di questi giorni che i ricercatori di OpenAI, l’organizzazione non profit fondata a San Francisco nel 2015 da Sam Altman e Elon Musk, e finanziata tra gli altri da Amazon e dall’indiana Infosys (un colosso della consulenza IT con oltre 113.000 dipendenti, uffici in 22 paesi, centri di ricerca sparsi su quattro continenti e proprietaria nel campus di Mysore della più grande università d’impresa al mondo), con lo scopo di gestire i rischi esistenziali connessi alla ricerca nel campo dell’intelligenza artificiale e promuovere lo sviluppo di una Friendly AI (una IA benevola), hanno messo a punto un’intelligenza artificiale tanto avanzata da non poter essere rilasciata pubblicamente. Il modello denominato GPT2 risulterebbe infatti talmente efficace nell’ambito per cui è stato sviluppato, ovvero la scrittura di testi deepfake in grado di ingannare un lettore umano, da rappresentare un rischio concreto.

Tra le possibili applicazioni distorte del loro costrutto, i creatori hanno da subito annoverato la generazione di recensioni fake per orientare il gusto dei consumatori e la diffusione di notizie false, la generazione di spam e di fishing. IA come GPT2 potrebbero persino comportarsi come un utente reale, oppure sostituirsi a profili hackerati impersonando versioni alterate ad hoc dell’utente originale, per i motivi più disparati: trarre in inganno altri utenti, per esempio; oppure screditare gli utenti originali, diffondere false informazioni, etc. Inoltre almeno un caso recente ha sicuramente fatto accendere un ulteriore campanello d’allarme nei laboratori di OpenAI: la possibile influenza di un bias ultraconservatore, bigotto e reazionario nelle risposte di GPT2 in caso di addestramento con testi ricavati dalla rete (sorte già toccata al chatbot di Microsoft addestrato per interagire su Twitter).

Questa volta, insomma, ci è andata bene. Ma se la tecnologia ha ormai raggiunto questo livello, non possiamo escludere che altrove qualcuno con meno scrupoli possa a breve mettere (o aver già messo) a punto sistemi altrettanto validi, adottandoli per le applicazioni più subdole. Per quello che ne sapete, non potrebbe questo stesso blog essere mandato avanti da una IA dagli scopi ancora imperscrutabili? Pensate a certe pagine e profili attivi sui social network, a certe piattaforme politiche, a certe dinamiche in atto nei motori di ricerca e nella promozione di beni e prodotti. Il futuro potrebbe essere già davanti ai nostri occhi, e sfuggirci solo perché non abbiamo ancora metabolizzato le categorie giuste per riconoscerlo.

Milan M. Cirkovic è un ricercatore serbo dell’Osservatorio Astronomico di Belgrado che da tempo si occupa di astrobiologia e SETI. In un famoso articolo del 2008, pubblicato sul Journal of the British Interplanetary Society, si sofferma sulle possibili evoluzioni delle società post-biologiche, sia postumane che extraterrestri. L’articolo può essere consultato su Arxiv.org e si intitola, in maniera molto evocativa per chi ha confidenza con un certo immaginario fantascientifico, Against the Empire.

In quello studio Cirkovic considerava due possibili modelli di società post-biologiche, applicabili a società sia postumane che extraterrestri: l’impero e la città-stato. Il primo si basa sulla spinta all’espansione e alla colonizzazione, il secondo sul contenimento delle dimensioni mirato all’ottimizzazione delle risorse. L’autore pone l’accento sul fatto che quasi sempre si analizzano i possibili comportamenti delle società post-biologiche senza tener conto del fatto che in tali società gli imperativi derivanti dalla biologia perderanno la loro importanza. Muovendo da questa considerazione arriva alla conclusione che il modello della città-stato ha ottime probabilità di successo in una società post-biologica, mentre il modello dell’impero non sarebbe così diffuso come siamo spinti a credere per effetto dei bias alimentati dalle nostre letture e visioni fantascientifiche, specialmente quelle più popolari, divenute quasi mainstream (pensiamo a Star Trek o Star Wars, che malgrado la varietà di specie portate in scena rappresentano modelli piuttosto omogenei).

Da tempo sono spinto dalle mie letture e scritture a riflettere sulle possibili caratteristiche delle società postumane. E ormai da diversi anni la fantascienza va elaborando scenari sempre più contaminati, eterogenei, meticci. Tanto che, sicuramente condizionato da queste rappresentazioni (penso a Kim Stanley Robinson, ad Alastair Reynolds, a M. John Harrison, ad Aliette de Bodard), ormai faccio fatica a concepire una società dalla costituzione monolitica e omogenea e anzi, devo ammettere, gran parte del piacere del world-building nasce dalla complessità degli scenari che si vanno elaborando.

posthuman1

Proviamo a vedere da quali considerazioni scaturiscono queste ipotesi?

1. Diversificazione e postumanesimo. In prima battuta dovrebbe risultare sempre meno plausibile, o quanto meno “bizzarro”, che nel vasto ventaglio delle soluzioni possibili possa prevalere un’unica tecnologia postumanizzante, a meno che questa tecnologia non sia un particolare tipo di intelligenza artificiale, nel qual caso ricadremmo nella fattispecie di problemi che abbiamo già esaminato un po’ di tempo fa e che smorzerebbe sul nascere ogni ulteriore discussione sul merito della faccenda. Quindi ipotizziamo che l’intelligenza artificiale si sviluppi in parallelo con altre tecnologie emergenti (nano- e bio-, genetica, cognitive augmentation, etc.) portando a un’esplosione di intelligenza, spingendo la curva del progresso oltre l’orizzonte percepibile della Singolarità Tecnologica, e innescando tutta quella catena di eventi che su periodi sempre più brevi renderanno sempre più complessa la società in cui viviamo, innescando il meccanismo a orologeria delle contraddizioni irrisolte che si annidano in essa, e rendendo ogni possibile scelta una questione di sopravvivenza. La diversificazione sarebbe funzionale alla resilienza (concetto ultimamente abusato e sempre più diffuso a sproposito), ma non trascuriamo neanche – per dirla con Nassim Nicholas Taleb – i vantaggi dell’antifragilità in contesti dalla spiccata incertezza.

Potrebbe infatti anche essere semplicemente una questione di filosofia: in altre parole, l’umanità potrebbe non essere così compatta da mettere a punto un piano di soluzioni condivise per affrontare i rischi esistenziali che si porranno. Eventi più o meno catastrofici potrebbero mettere l’umanità davanti a bivi più o meno drammatici, fungendo anche da banco di prova per le soluzioni escogitate. E una strategia quanto più diversificata potrebbe essere una risposta possibile (oltre che alquanto probabile) da parte del genere umano in una situazione di forte pericolo. E siccome non è detto che ogni problema abbia un’unica soluzione, eccoci mentre ci addentriamo nel giardino dei sentieri che si biforcano. Un luogo molto particolare, nel quale ad ogni passo corrispondono ore del tempo a cui siamo abituati. E poi giorni. E poi anni…

artistic-human-1024x640

2. Diaspora e disgregazione. In seconda battuta, su un periodo sufficientemente lungo (diciamo una prospettiva di qualche decennio, ma volendo stiamo pure larghi e diamoci l’orizzonte temporale del secolo in corso), non riesco a disaccoppiare l’evoluzione postumana dalla colonizzazione spaziale. I due concetti mi sembrano diventare sempre più inestricabilmente correlati man mano che ci addentriamo nell’uno o nell’altro. La Nuova Frontiera Spaziale potrebbe rappresentare quel punto di svolta capace di promuovere la diffusione di numerose tecnologie emergenti. Ho studiato anch’io Kim Stanley Robinson, negli ultimi anni me ne sono occupato diffusamente e ovviamente ho bene in mente questo suo articolo fondamentale, tuttavia non riesco a non pensare a un futuro a medio-lungo termine in cui l’umanità resta confinata sulla Terra.

Non prevedo lo sviluppo di una civiltà interstellare, ma trovo istintivamente poco credibile uno scenario in cui da qui alla fine del XXI secolo non ci siano delle colonie umane nello spazio: habitat artificiali nella cintura asteroidale, o sulla Luna e su Marte, magari anche solo come forma di presidio scientifico se non proprio di sfruttamento minerario, renderanno la frontiera spaziale un po’ quello che nel XX secolo è stato l’Antartide. Sicuramente poco per parlare di una vera e propria civiltà interplanetaria, ma a mio parere un’esperienza fondamentale per dotarsi di quelle conoscenze necessarie a elaborare sistemi di supporto vitale in grado di assicurare agli habitat artificiali un’autonomia dal pianeta madre. Qui mi rendo conto di calpestare un terreno piuttosto scivoloso, però nel 1919 conoscevamo già tutto quello che nella seconda metà del secolo scorso avrebbe reso possibile lo sviluppo di internet, dai laboratori della DARPA alle nostre case (e ancora una manciata di anni dopo alle nostre tasche): il limite era di natura tecnica, non scientifica. Quindi non trovo così astruso pensare a ecosistemi chiusi sempre più efficienti per sostenere piccole comunità di coloni spaziali.

Volendo spingerci più avanti di qualche secolo, senza timore di sconfinare nel dominio delle fantasticherie, la diaspora umana su altri pianeti esterni al sistema solare non farebbe altro che indebolire i reciproci legami e influssi tra le varie comunità. Le distanze in gioco sarebbero tali da comportare una drastica riduzione della banda di comunicazione e un lag culturale di una certa rilevanza. Anche limitandoci a considerare solo i sistemi stellari più vicini (una cinquantina nel raggio di 5 parsec, ovvero 16 anni-luce), senza un qualche tipo di collegamento più veloce della luce (FTL) ci troveremmo di fronte a separazioni dell’ordine di decine di anni di attraversamento (ricordate Interstellar? Allo stato attuale: “La stella più vicina è lontana migliaia di anni…“). La Nuova Frontiera risulterebbe così estremamente incentivante sul fronte della “postumanizzazione” come anche della disgregazione della matrice dell’umanità. A questo proposito sono esemplari i lavori di Samuel R. Delany (che in Babel 17 mette in scena una frammentazione di tipo linguistico e culturale), di Bruce Sterling (che nel sontuoso universo della Matrice Spezzata parte dalla frattura dell’umanità in Mechanist e Shaper per progredire nella disintegrazione tra cladi e fazioni fino a livelli parossistici) e di Alastair Reynolds (che allestisce uno scenario intrigante e piuttosto problematico, con numerose fazioni politiche a contendersi lo scacchiere interstellare del Revelation Space).

nearby_stars_14ly_radius

A meno di qualche scoperta o invenzione che ci permetta di infrangere la barriera della luce e contrarre così le distanze tra i diversi avamposti della postumanità, la colonizzazione interstellare condurrà a una crescente frammentazione che potrebbe semplicemente rappresentare la naturale evoluzione della situazione già disgregata di partenza, in uno scenario che richiama l’organizzazione in città-stato a cui si riferisce Cirkovic. In una sorta di gioco frattale di autosomiglianza di scala, le differenze potrebbero ripetersi a livello planetario, stellare e interstellare.

Segnali dal futuro è la nuova pubblicazione dell’Italian Institute for the Future, associazione fondata aIIF_Segnali_dal_Futuro Napoli e attiva nel campo dei future studies: un’antologia di racconti di anticipazione selezionati da Roberto Paura e Francesco Verso, che delineano possibili scenari futuri spaziando “dall’intelligenza artificiale all’espansione umana nello Spazio, dalla disoccupazione tecnologica alla vita all’interno di mondi virtuali fino al sogno di replicare la coscienza umana”, introdotti da altrettanti saggi di esperti del settore (Massimo M. Auciello e Rino Russo, Riccardo Campa, Roberto Paura, Valerio Pellegrini, Emmanuele J. Pilia).

L’iniziativa, che non ha precedenti in Italia, si ispira a progetti analoghi che da sempre vengono sviluppati altrove. Un esempio storico è rappresentato dall’Institute for the Future di Palo Alto, tra le cui pubblicazioni recenti si segnala una raccolta di questo tipo intesa a “rendere tangibile il futuro”, con contributi di sei firme di spicco del panorama SF globale (tra gli altri Bruce Sterling e Cory Doctorow) sul tema della Internet of Things: An Aura of Familiarity. Altri esempi altrettanto rappresentativi sono il Project Hieroglyph curato da Neal Stephenson (di cui abbiamo parlato), l’antologia celebrativa dei cinquant’anni di Spectrum, Coming Soon Enough (con Greg Egan e Nancy Kress), oppure la serie Twelve Tomorrows pubblicata con cadenza annuale dall’MIT.

Segnali dal futuro prende le mosse dalla sessione introduttiva del Congresso Nazionale di Futurologia 2014 e si propone di offrire cinque assaggi possibili del mondo in cui domani potremmo svegliarci. Perché, come abbiamo imparato, il modo migliore per prevedere il futuro è inventarlo. Nell’antologia troverete anche un mio racconto ispirato al tema del mind uploading, ma che si trova a sfiorare anche altri campi a cui sono particolarmente interessato: l’intelligenza artificiale, la sostenibilità ecologica, la transizione verso un modello di società post-capitalista, l’ubiquitous computing, il turismo virtuale, le città iperconnesse (come Dubai o la megalopoli del Delta del Fiume delle Perle) la riproducibilità della memoria, gli spazi simulati e i diritti degli esseri artificiali. Con una spruzzata della poetica visionaria di William S. Burroughs e di Makoto Shinkai. Il tutto dal punto di vista di un… no, stavolta niente detective, solo un ingegnere elettronico.

Delta_City

Il racconto s’intitola La vita nel tempo delle ombre, è introdotto da un saggio di Emmanuele J. Pilia (esperto di transarchitettura, ma non solo) e si accompagna ad altri quattro racconti firmati da totem come Ken Liu o Francesco Grasso e autorevoli esponenti dell’ultima ondata di fantascienza italiana come Clelia Farris e Francesco Verso.

Il libro è in vendita a 9,90 euro sul sito dell’IIF.

Parlando di intelligenza artificiale spesso si prendono in considerazione le conseguenze che la sua introduzione/applicazione comporterebbe per il progresso tecnologico e, in una spirale analoga agli effetti descritti nella legge dei ritorni accelerati, il ragionamento finisce per avvitarsi su se stesso: sarebbero così vaste e profonde, dopotutto, le conseguenze del cambiamento, che tutto lo spazio a disposizione del dibattito o del singolo commento finisce per essere assorbito dall’effetto delle IA sulla scienza e sulla tecnologia. Al più, come dicevamo proprio nei giorni scorsi, la preoccupazione può essere catalizzata, in base ai timori e agli interessi dei soggetti chiamati a esprimersi sul tema, dall’impatto sul nostro stile di vita, con particolare attenzione per le cosiddette ricadute occupazionali di un’ipotetica Singolarità Tecnologica.

Ma in realtà, come anche ci è capitato di sostenere in più di un’occasione, non ci sarebbe probabilmente un solo campo umano d’azione o di studio immune agli effetti della transizione. E in virtù della loro estensione, impatti significativi si avrebbero quindi anche sulle cosiddette soft science: studi sociali, psicologia, storia, diritto.

Proprio sull’influenza che avrebbe l’adozione dell’intelligenza artificiale per gli studi legali si concentra questo illuminante articolo di Aviva Rutkin per New Scientist, uno dei pezzi più interessanti in cui mi sia capitato di imbattermi nell’ultima settimana. Le risorse di una IA potrebbero comportare indiscutibili benefici nell’esecuzione di compiti particolarmente adatti all’automatizzazione, come la ricerca di riferimenti, il reperimento di documentazione, o la stesura e verifica di contratti standardizzati, producendo come risultato una maggiore efficienza. Certo, resterebbero aree più difficili da “infiltrare”, e la negoziazione sarebbe tra queste. Ma ci sarebbero anche nuovi dilemmi con cui fare i conti: per esempio, elaborando enormi quantità di dati una IA potrebbe individuare tendenze e precedenti, pronosticando l’esito di un giudizio in base alle performance trascorse di avvocati e giudici coinvolti. E questo potrebbe rallentare l’evoluzione del diritto, dal momento che gli studi legali potrebbero essere scoraggiati dal farsi carico di cause potenzialmente in grado di fare giurisprudenza, ma proprio per questo maggiormente esposte al rischio dell’insuccesso.

Ma le IA legali avrebbero anche altre applicazioni: uno per tutti, potrebbero fornire consulenze legali a chi non può permettersi l’assistenza di un avvocato. Oppure, software meno “coscienziosi” ma altrettanto leciti potrebbero aiutare gli interessati a trovare più o meno facili scappatoie, sfruttando le maglie larghe della legislazione per aggirare la giustizia.

L’articolo è un concentrato di scenari futuribili come raramente capita di trovare. E la sua densità di concetto si presta a stimolare efficacemente le menti più immaginifiche, così non posso che consigliarne la lettura a tutti i colleghi che fossero alla ricerca di spunti per le loro storie fantascientifiche.

Questa recensione di Ex Machina, film scritto e diretto da Alex Garland (dal 30 luglio anche in Italia) che s’inserisce nel filone transumanista recentemente esplorato da Hollywood già in diversi titoli – con risultati alterni – da Lei a Transcendence, richiama l’attenzione su una serie di riferimenti che già mi sono serviti come punti cardinali in un paio di uscite pubbliche. Dalla riflessione era per altro scaturito questo articolo per Quaderni d’Altri Tempi, e a Bellaria abbiamo colto l’occasione con Zoon e Kremo per imbastire un panel a 360° sui rischi esistenziali, proprio a partire dal clamore suscitato dagli avvertimenti lanciati da luminari del calibro di Stephen Hawking (che non ha certo bisogno di presentazioni da queste parti) o Elon Musk (l’imprenditore sudafricano-americano fondatore di start-up di successo, da PayPal a Tesla Motors a SpaceX). E proprio i loro nomi, insieme a quello di Nick Bostrom, sono quelli che richiamavamo in quella sede, a partire dal dibattito incentrato sull’evoluzione delle intelligenze artificiali simil o super umane.

Com’è stato detto, se mai risulterà possibile una superintelligenza artificiale sarà anche l’ultima invenzione dell’uomo. Il progresso è sempre guidato dalla civiltà più evoluta. E in presenza di una intelligenza artificiale confrontabile o già superiore all’intelligenza umana, capace di migliorarsi a un ritmo per noi vertiginoso e inimmaginabile, l’umanità dovrà rassegnarsi a passare il testimone. Risulta quindi plausibile che a quel punto il timone del progresso passi “nelle mani” delle IA, che si sostituiranno in tutto o in parte a noi nel ruolo di motore dell’evoluzione tecnologica, scientifica e culturale sulla Terra.

In uno dei suoi articoli sempre estremamente stimolanti, il divulgatore Caleb Scharf, astrobiologo alla Columbia University, ha provato addirittura a mettere in relazione lo sviluppo delle IA con il paradosso di Fermi, passando per il Grande Filtro: è un’idea interessante, sennonché mi sembra fondarsi sull’assunzione un po’ troppo restrittiva che ogni forma artificiale di intelligenza contenga il germe intrinseco dell’autodistruzione.

D’altronde, se come esseri umani ci stiamo interessando così tanto a un argomento che fino a non molto tempo fa sembrava poterci appassionare solo in forma di fiction (e in effetti credo che negli ultimi trent’anni sia stata scritta e filmata ben poca fantascienza capace di prescindere da un qualche impiego futuro – o rischio connaturato all’uso – delle IA), non è solo per l’effetto perturbante della difformità implicita nell’IA, del suo essere qualcosa di altro da noi. Le implicazioni dell’eventuale avvento dell’IA sono intrinsecamente imprevedibili: potremmo trovarci davanti agli scenari più diversi, da una vera e propria esplosione di intelligenza alla riprogrammazione stessa della materia disponibile sulla Terra e nei suoi paraggi (tutta la materia, esseri viventi inclusi) in computronium, fino a esiti ancora più inquietanti come l’inferno a misura d’uomo teorizzato nel cosiddetto rompicapo del Basilisco di Roko. Si va quindi dal caso migliore dell’umanità vittima collaterale dello sviluppo dell’IA, a quello peggiore dell’umanità completamente asservita (ed eventualmente annichilita) dall’IA. In nessun caso, proiettando sull’intelligenza artificiale ciò di cui è stata capace nel corso della sua storia l’intelligenza umana, la nostra “ultima invenzione” dovrebbe mostrare un senso di compassione nei nostri confronti.

Ma se i nostri timori sono oggi così fondati, è perché sono sostanzialmente il frutto del nostro passato, che troviamo così ben rappresentato nel presente. E abbiamo appunto imparato a nostre spese che dell’umanità come oggi la conosciamo è meglio diffidare. Ogni sviluppo futuro, ogni tentativo di estrapolazione, ci costringe a fare i conti con i punti di partenza: e ciò che siamo oggi, evidentemente, non ci piace granché. E allora: perché non cogliere l’occasione di questo dibattito per fare qualcosa che cambi le cose? Forse le cose andranno male comunque, ma almeno non avremo nulla da rimproverarci.

BATTLESTAR GALACTICA -- Pictured: Tricia Helfer as Number Six -- SCI FI Channel Photo: Justin Stephens

BATTLESTAR GALACTICA — Pictured: Tricia Helfer as Number Six — SCI FI Channel Photo: Justin Stephens

Due notizie a breve distanza l’una dall’altra sono venute fuori negli ultimi giorni. La prima in ordine temporale riguarda l’annuncio di uno studio francese di aver creato dei falsi ricordi tramite stimolazione transcranica su delle cavie di laboratorio addormentate: al risveglio, i roditori sottoposti al trattamento mostravano di “ricordare” posti in cui non erano mai stati prima. La stimolazione è stata attuata durante una particolare fase di attività dell’ippocampo, “la regione cerebrale che funge da substrato neuronale alle mappe mentali che consentono di muoversi in un certo ambiente”. Durante il sonno nei mammiferi avverrebbe infatti un processo interpretato come il consolidamento degli input spaziali, testimoniato da uno specifico schema di onde cerebrali denominate SPW-R (sharp wave ripples). La scoperta delle cosiddette cellule di posizione era stata premiata nel 2014 con il Nobel per la medicina.

topo-ricerca-675

Il secondo risultato è stato divulgato da uno studio del Cold Spring Harbor Laboratory (New York) pubblicato da Nature: oggetto dell’articolo è la possibilità di risalire dall’analisi dei tessuti neurali di una cavia morta alle abilità ed esperienze che il soggetto aveva acquisito da vivo. Semplificando, una lettura post-mortem della mente. Anthony Zador, a capo del team di ricerca, ha dichiarato: “[…] è come se avessimo decifrato un pezzettino del codice neurale col quale l’animale archiviava queste memorie. In sostanza, riuscivamo a leggere la mente di questi ratti”. La stessa tecnica potrebbe essere applicata ad altre regioni del cervello, per decifrare altri sensi. “Non vediamo l’ora di applicare questo metodo a forme più complesse di apprendimento e ad altri sistemi sensoriali, come quello alla base della vista”.

Già qualche anno fa due team americani avevano effettuato importanti annunci sulla decodifica di schemi di attivazione neurale legati alla vista e alla parola. Non ci sarebbe da stupirsi dunque se da qualche parte nel mondo, magari in un cupo e freddo seminterrato di qualche prestigiosa università, un dottor Elliott Grosvenor fosse al lavoro con il suo assistente Rundolph Carter, procedendo per tentativi ad apprendere i rudimenti della psicografia.

L’universo è una macchina stupefacente che non cessa di produrre meraviglia. Giunti al livello di indagine cosmologica di questi ultimi anni, potremmo pensare di aver scoperto tutto quello che c’era da sapere, ma ci sono alcune verità, già acquisite dalla scienza, che potrebbero essere sfuggite alla nostra attenzione. Per esempio, che l’universo è più vasto di quanto potremmo normalmente aspettarci da quel che sappiamo della sua età. Se immaginiamo il Big Bang come un’esplosione in grado, 13,798 ± 0,037 miliardi di anni fa, di dispiegare lo spazio e il tempo a partire dalla singolarità primordiale, un punto di densità e temperatura tendenti all’infinito che concentrava tutta la materia e l’energia oggi presenti nell’universo, allora viene naturale immaginare che le dimensioni del cosmo, da un capo all’altro, avranno un limite superiore coincidente con il doppio della sua durata. Questa assunzione trascura invece un risultato importante, che ricaviamo dallo studio di quella che è nota come radiazione cosmica di fondo a microonde (CMB radiation) e dall’osservazione dell’omogeneità manifestata dall’universo su ampia scala e della sua curvatura pressoché nulla, e che ci fa ritenere, salvo alcuni illustri pareri contrari come quello di Roger Penrose (tra i primi sostenitori dell’ipotesi del Big Bang), che l’universo abbia attraversato un periodo iniziale di espansione inflazionaria.

Lambda-Cold_Dark_Matter,_Accelerated_Expansion_of_the_Universe,_Big_Bang-Inflation

L’effetto di questa fase inflazionaria durata una frazione di secondo (meno di 10-32 secondi, secondo i modelli), durante la quale l’impasto di energia e materia che formava l’universo si sarebbe espanso a velocità maggiori della velocità della luce, è che dalla Terra risulta osservabile una regione sferica con un raggio di circa 46 miliardi di anni-luce, più del triplo quindi della distanza che ci separa dal Big Bang. Ma se ci hanno insegnato che la velocità della luce è una costante fondamentale e una soglia invalicabile, come possiamo vedere qualcosa che, viaggiando alla velocità della luce, dovrebbe essersi verificato 32 miliardi di anni prima del Big Bang?

La risposta scaturisce dalla relatività generale e non comporta alcuna violazione dei vincoli fisici a noi noti. In particolare, i fotoni non stanno viaggiando a velocità maggiori di c, è invece lo spazio in cui si muovono che ha subito uno stiramento, portandolo così a espandersi oltre i confini che avremmo potuto aspettarci. E non è tutto.

Edge_of_the_Observable_Universe

Se l’universo è in espansione, ciò che riusciamo a vedere oggi, come si è capito, non è quello che potevamo vedere ieri e non è quello che potremo vedere domani. Il risultato è l’effetto combinato di due fattori: la costante di Hubble e la velocità di espansione dell’universo. La costante di Hubble misura il redshift cosmologico, ovvero la velocità con cui si allontanano da noi le galassie più distanti, e delimita un volume che cresce col tempo, ma ad una velocità decrescente (la costante di Hubble è infatti una costante in termini spaziali, nel senso che ovunque la si misuri in un un dato istante fornirà sempre lo stesso risultato, ma non in termini temporali, e gli scienziati ritengono che il suo valore stia diminuendo nel tempo). L’universo, al contrario, si starebbe espandendo a una velocità crescente, per effetto della cosiddetta energia oscura.

CMB_Timeline300_no_WMAP

Non abbiamo dati molto precisi a riguardo, ma finché la costante di Hubble si ridurrà a una velocità inferiore rispetto al tasso di crescita della velocità di espansione dell’universo, l’orizzonte dell’universo osservabile diventerà sempre più ampio. Uno dei motivi per cui è così importante capire come funzioni l’energia oscura è proprio questo: da essa dipende anche la nostra comprensione di come evolverà l’universo in futuro, insieme a ciò che di nuovo ci sarà consentito di scoprire o verificare sperimentalmente, e questo avrà inevitabilmente delle ripercussioni sulla nostra comprensione della realtà. Il tutto è spiegato in maniera estremamente chiara e dettagliata dall’astrofisica Vanessa Janek, in un articolo divulgativo apparso su Universe Today e ripreso da io9.

Kepler-186f_small

I tempi sono maturi per entrare nella fase attiva del SETI? Se lo sono chiesti gli scienziati intervenuti dal 12 al 16 febbraio scorso al meeting annuale dell’AAAS, la American Association for the Advancement of Science. Come riferisce Marco Passarello il dibattito è stato polarizzato tra le posizioni di Douglas A. Vakoch, psicologo e direttore dell’unità del SETI Institute dedicata alla Composizione di Messaggi Interstellari e non a caso sostenitore del METI, ovvero Messaging to Extra-Terrestrial Intelligence, come viene talvolta definito il SETI Attivo; e, sul fronte opposto, la prudenza dello scrittore di fantascienza David Brin, che ha scoraggiato dal proseguire su questa strada.

In effetti, sono già stati inviati una decina di tipi diversi di messaggi verso poco meno di 30 sistemi stellari, distribuiti in un raggio di 17-69 anni luce dalla Terra (con l’unica eccezione dell’Ammasso Globulare M13, nella costellazione di Ercole, distante circa 24.000 anni luce, che tuttavia non riceverà mai il messaggio visto che per quell’epoca si sarà spostato nello spazio dalla posizione che attualmente occupa). Senza contare le trasmissioni radiotelevisive in corso ininterrottamente dal secolo scorso, che pur risultando di difficile separazione dal rumore di fondo sulle distanze astronomiche potrebbero comunque rivelare la nostra presenza a ipotetici osservatori extraterrestri. Si tratta in definitiva di comunicazioni destinate a restare confinate in un volume (in base ai miei calcoli) di più di sei ordini di grandezza più piccolo del volume complessivo della Via Lattea. In questo volume dovrebbero esserci circa 15.000 stelle, quindi per ogni stella raggiunta da un segnale terrestre ce ne sarebbero 20 milioni nell’intera galassia ancora ignare della nostra presenza.

Ammesso e non concesso che nessuna civiltà extraterrestre abbia ancora rilevato l’esistenza della Terra, non è troppo tardi per fermarsi e riflettere meglio sulle possibili conseguenze. Alessandro Vietti, con cui altre volte mi sono trovato d’accordo, classifica dieci diversi tipi di conseguenze di un ipotetico contatto alieno e ne individua due come potenzialmente letali per la sopravvivenza della civiltà umana. Al suo ragionamento posso contrapporre due argomenti, uno debole e l’altro forte.

  • Argomento debole: le 10 tipologie elencate non esauriscono tutte le possibilità. Potrebbero esserci letteralmente centinaia, migliaia di modi diversi in cui potrebbe svolgersi il contatto, e ognuno di essi potrebbe innescare centinaia, migliaia di esiti diversi. I numeri, così come accade per l’equazione di Drake, non ci vengono in soccorso. Anzi, rappresentano un argomento fallace che può essere arbitrariamente piegato alle intenzioni dialettiche di chi decide di servirsene.
  • Argomento forte: astraendo dai numeri in gioco, è sufficiente che ci sia un solo predatore in attesa là fuori per avere un buon motivo per restare nascosti. In questo caso, possiamo guardare alla vecchia legge della giungla: le probabilità di non venire cacciati sono proporzionali alla segretezza del nascondiglio e/o all’efficacia delle tecniche di mimetizzazione adottate.

Ovviamente non sappiamo se c’è un predatore in azione là fuori. Ma da quello che possiamo valutare dopo mezzo secolo di SETI e di tentativi di scrutare nella notte, se qualche civiltà si è sviluppata nei paraggi fino a uno stadio tecnologicamente avanzato (ATC), almeno confrontabile con il nostro, probabilmente non sta facendo molto per rendersi riconoscibile. Per dirlo con le parole di Paul Davies, lo strano silenzio che ci circonda non dovrebbe certo incoraggiarci a uscire allo scoperto.

Lo scrittore cinese Liu Cixin parla a questo proposito di “foresta buia”. A quello che potremmo definire Dark Forest theorem ha dedicato il secondo romanzo della sua trilogia dei Tre Corpi, in corso di traduzione negli USA. Riprendo da una discussione sviluppatasi sul forum di SFF World: “L’universo è una foresta buia, ogni civiltà è come un cacciatore armato, che si muove di soppiatto come uno spettro. Bisogna fare molta attenzione e restare in silenzio, perché là fuori ci sono innumerevoli altri cacciatori. Se un cacciatore ne scopre un altro, non importa se questo sia un angelo o un demonio, un vecchio o un bambino in fasce, una dea bellissima o un santo illuminato, l’unica cosa che può fare è farlo fuori. In questa foresta, gli altri sono l’inferno, gli altri rappresentano una minaccia eterna. Chiunque riveli la propria posizione sarà prima o poi spazzato via dall’universo“.

Ci sono valide ragioni, insomma, per includere il contatto con una ATC extraterrestre nel novero dei rischi esistenziali. E qui mi limito a considerare la minaccia che può derivare attivamente da una civiltà aliena, considerata come da Liu Cixin alla stregua di uno spettro armato in agguato nella foresta della notte. Ma si potrebbe altrettanto ragionevolmente supporre che l’umanità saprebbe benissimo farsi del male da sola, di fronte a un evento epocale di questo tipo, a meno che prima non maturi un’autentica consapevolezza cosmica.

Lo stesso Stephen Hawking ha ammonito che la storia umana è ricca di esempi di cosa potrebbe andare storto nell’incontro con una civiltà più evoluta. Ed è una posizione a cui il mio punto di vista si è progressivamente avvicinato. Siamo di fronte a un dilemma di cui è impossibile valutare vantaggi e rischi. Quindi è irragionevole avere paura, ma d’altra parte è saggio mostrare consapevolezza dei rischi. Tanto più in casi di questa portata, in cui il primo passo falso potrebbe essere anche l’ultimo. In assenza di elementi precisi da valutare, forse l’unica strada percorribile è fare proprio un principio di precauzione.

Rilancio (via IIF) questa istruttiva infografica sui rischi esistenziali disseminati lungo il cammino verso il domani. Occhi aperti!

apocalypse-when_54b559ec6bd41_w450

Direttive

Vivere anche il quotidiano nei termini più lontani. -- Italo Calvino, 1968

Neppure di fronte all'Apocalisse. Nessun compromesso. -- Rorschach (Alan Moore, Watchmen)

United We Stand. Divided We Fall.

Avviso ai naviganti

Mi chiamo Giovanni De Matteo, per gli amici X. Nel 2004 sono stato tra gli iniziatori del connettivismo. Leggo e guardo quel che posso, e se riesco poi ne scrivo. Mi occupo soprattutto di fantascienza e generi contigui. Mi piace sondare il futuro attraverso le lenti della scienza e della tecnologia.
Il mio ultimo romanzo è Karma City Blues.

Altrove in 140 caratteri

Unisciti a 118 altri iscritti
giugno: 2023
L M M G V S D
 1234
567891011
12131415161718
19202122232425
2627282930  

Categorie

%d blogger hanno fatto clic su Mi Piace per questo: