You are currently browsing the tag archive for the ‘Stephen Hawking’ tag.

Questa recensione di Ex Machina, film scritto e diretto da Alex Garland (dal 30 luglio anche in Italia) che s’inserisce nel filone transumanista recentemente esplorato da Hollywood già in diversi titoli – con risultati alterni – da Lei a Transcendence, richiama l’attenzione su una serie di riferimenti che già mi sono serviti come punti cardinali in un paio di uscite pubbliche. Dalla riflessione era per altro scaturito questo articolo per Quaderni d’Altri Tempi, e a Bellaria abbiamo colto l’occasione con Zoon e Kremo per imbastire un panel a 360° sui rischi esistenziali, proprio a partire dal clamore suscitato dagli avvertimenti lanciati da luminari del calibro di Stephen Hawking (che non ha certo bisogno di presentazioni da queste parti) o Elon Musk (l’imprenditore sudafricano-americano fondatore di start-up di successo, da PayPal a Tesla Motors a SpaceX). E proprio i loro nomi, insieme a quello di Nick Bostrom, sono quelli che richiamavamo in quella sede, a partire dal dibattito incentrato sull’evoluzione delle intelligenze artificiali simil o super umane.

Com’è stato detto, se mai risulterà possibile una superintelligenza artificiale sarà anche l’ultima invenzione dell’uomo. Il progresso è sempre guidato dalla civiltà più evoluta. E in presenza di una intelligenza artificiale confrontabile o già superiore all’intelligenza umana, capace di migliorarsi a un ritmo per noi vertiginoso e inimmaginabile, l’umanità dovrà rassegnarsi a passare il testimone. Risulta quindi plausibile che a quel punto il timone del progresso passi “nelle mani” delle IA, che si sostituiranno in tutto o in parte a noi nel ruolo di motore dell’evoluzione tecnologica, scientifica e culturale sulla Terra.

In uno dei suoi articoli sempre estremamente stimolanti, il divulgatore Caleb Scharf, astrobiologo alla Columbia University, ha provato addirittura a mettere in relazione lo sviluppo delle IA con il paradosso di Fermi, passando per il Grande Filtro: è un’idea interessante, sennonché mi sembra fondarsi sull’assunzione un po’ troppo restrittiva che ogni forma artificiale di intelligenza contenga il germe intrinseco dell’autodistruzione.

D’altronde, se come esseri umani ci stiamo interessando così tanto a un argomento che fino a non molto tempo fa sembrava poterci appassionare solo in forma di fiction (e in effetti credo che negli ultimi trent’anni sia stata scritta e filmata ben poca fantascienza capace di prescindere da un qualche impiego futuro – o rischio connaturato all’uso – delle IA), non è solo per l’effetto perturbante della difformità implicita nell’IA, del suo essere qualcosa di altro da noi. Le implicazioni dell’eventuale avvento dell’IA sono intrinsecamente imprevedibili: potremmo trovarci davanti agli scenari più diversi, da una vera e propria esplosione di intelligenza alla riprogrammazione stessa della materia disponibile sulla Terra e nei suoi paraggi (tutta la materia, esseri viventi inclusi) in computronium, fino a esiti ancora più inquietanti come l’inferno a misura d’uomo teorizzato nel cosiddetto rompicapo del Basilisco di Roko. Si va quindi dal caso migliore dell’umanità vittima collaterale dello sviluppo dell’IA, a quello peggiore dell’umanità completamente asservita (ed eventualmente annichilita) dall’IA. In nessun caso, proiettando sull’intelligenza artificiale ciò di cui è stata capace nel corso della sua storia l’intelligenza umana, la nostra “ultima invenzione” dovrebbe mostrare un senso di compassione nei nostri confronti.

Ma se i nostri timori sono oggi così fondati, è perché sono sostanzialmente il frutto del nostro passato, che troviamo così ben rappresentato nel presente. E abbiamo appunto imparato a nostre spese che dell’umanità come oggi la conosciamo è meglio diffidare. Ogni sviluppo futuro, ogni tentativo di estrapolazione, ci costringe a fare i conti con i punti di partenza: e ciò che siamo oggi, evidentemente, non ci piace granché. E allora: perché non cogliere l’occasione di questo dibattito per fare qualcosa che cambi le cose? Forse le cose andranno male comunque, ma almeno non avremo nulla da rimproverarci.

BATTLESTAR GALACTICA -- Pictured: Tricia Helfer as Number Six -- SCI FI Channel Photo: Justin Stephens

BATTLESTAR GALACTICA — Pictured: Tricia Helfer as Number Six — SCI FI Channel Photo: Justin Stephens

Kepler-186f_small

I tempi sono maturi per entrare nella fase attiva del SETI? Se lo sono chiesti gli scienziati intervenuti dal 12 al 16 febbraio scorso al meeting annuale dell’AAAS, la American Association for the Advancement of Science. Come riferisce Marco Passarello il dibattito è stato polarizzato tra le posizioni di Douglas A. Vakoch, psicologo e direttore dell’unità del SETI Institute dedicata alla Composizione di Messaggi Interstellari e non a caso sostenitore del METI, ovvero Messaging to Extra-Terrestrial Intelligence, come viene talvolta definito il SETI Attivo; e, sul fronte opposto, la prudenza dello scrittore di fantascienza David Brin, che ha scoraggiato dal proseguire su questa strada.

In effetti, sono già stati inviati una decina di tipi diversi di messaggi verso poco meno di 30 sistemi stellari, distribuiti in un raggio di 17-69 anni luce dalla Terra (con l’unica eccezione dell’Ammasso Globulare M13, nella costellazione di Ercole, distante circa 24.000 anni luce, che tuttavia non riceverà mai il messaggio visto che per quell’epoca si sarà spostato nello spazio dalla posizione che attualmente occupa). Senza contare le trasmissioni radiotelevisive in corso ininterrottamente dal secolo scorso, che pur risultando di difficile separazione dal rumore di fondo sulle distanze astronomiche potrebbero comunque rivelare la nostra presenza a ipotetici osservatori extraterrestri. Si tratta in definitiva di comunicazioni destinate a restare confinate in un volume (in base ai miei calcoli) di più di sei ordini di grandezza più piccolo del volume complessivo della Via Lattea. In questo volume dovrebbero esserci circa 15.000 stelle, quindi per ogni stella raggiunta da un segnale terrestre ce ne sarebbero 20 milioni nell’intera galassia ancora ignare della nostra presenza.

Ammesso e non concesso che nessuna civiltà extraterrestre abbia ancora rilevato l’esistenza della Terra, non è troppo tardi per fermarsi e riflettere meglio sulle possibili conseguenze. Alessandro Vietti, con cui altre volte mi sono trovato d’accordo, classifica dieci diversi tipi di conseguenze di un ipotetico contatto alieno e ne individua due come potenzialmente letali per la sopravvivenza della civiltà umana. Al suo ragionamento posso contrapporre due argomenti, uno debole e l’altro forte.

  • Argomento debole: le 10 tipologie elencate non esauriscono tutte le possibilità. Potrebbero esserci letteralmente centinaia, migliaia di modi diversi in cui potrebbe svolgersi il contatto, e ognuno di essi potrebbe innescare centinaia, migliaia di esiti diversi. I numeri, così come accade per l’equazione di Drake, non ci vengono in soccorso. Anzi, rappresentano un argomento fallace che può essere arbitrariamente piegato alle intenzioni dialettiche di chi decide di servirsene.
  • Argomento forte: astraendo dai numeri in gioco, è sufficiente che ci sia un solo predatore in attesa là fuori per avere un buon motivo per restare nascosti. In questo caso, possiamo guardare alla vecchia legge della giungla: le probabilità di non venire cacciati sono proporzionali alla segretezza del nascondiglio e/o all’efficacia delle tecniche di mimetizzazione adottate.

Ovviamente non sappiamo se c’è un predatore in azione là fuori. Ma da quello che possiamo valutare dopo mezzo secolo di SETI e di tentativi di scrutare nella notte, se qualche civiltà si è sviluppata nei paraggi fino a uno stadio tecnologicamente avanzato (ATC), almeno confrontabile con il nostro, probabilmente non sta facendo molto per rendersi riconoscibile. Per dirlo con le parole di Paul Davies, lo strano silenzio che ci circonda non dovrebbe certo incoraggiarci a uscire allo scoperto.

Lo scrittore cinese Liu Cixin parla a questo proposito di “foresta buia”. A quello che potremmo definire Dark Forest theorem ha dedicato il secondo romanzo della sua trilogia dei Tre Corpi, in corso di traduzione negli USA. Riprendo da una discussione sviluppatasi sul forum di SFF World: “L’universo è una foresta buia, ogni civiltà è come un cacciatore armato, che si muove di soppiatto come uno spettro. Bisogna fare molta attenzione e restare in silenzio, perché là fuori ci sono innumerevoli altri cacciatori. Se un cacciatore ne scopre un altro, non importa se questo sia un angelo o un demonio, un vecchio o un bambino in fasce, una dea bellissima o un santo illuminato, l’unica cosa che può fare è farlo fuori. In questa foresta, gli altri sono l’inferno, gli altri rappresentano una minaccia eterna. Chiunque riveli la propria posizione sarà prima o poi spazzato via dall’universo“.

Ci sono valide ragioni, insomma, per includere il contatto con una ATC extraterrestre nel novero dei rischi esistenziali. E qui mi limito a considerare la minaccia che può derivare attivamente da una civiltà aliena, considerata come da Liu Cixin alla stregua di uno spettro armato in agguato nella foresta della notte. Ma si potrebbe altrettanto ragionevolmente supporre che l’umanità saprebbe benissimo farsi del male da sola, di fronte a un evento epocale di questo tipo, a meno che prima non maturi un’autentica consapevolezza cosmica.

Lo stesso Stephen Hawking ha ammonito che la storia umana è ricca di esempi di cosa potrebbe andare storto nell’incontro con una civiltà più evoluta. Ed è una posizione a cui il mio punto di vista si è progressivamente avvicinato. Siamo di fronte a un dilemma di cui è impossibile valutare vantaggi e rischi. Quindi è irragionevole avere paura, ma d’altra parte è saggio mostrare consapevolezza dei rischi. Tanto più in casi di questa portata, in cui il primo passo falso potrebbe essere anche l’ultimo. In assenza di elementi precisi da valutare, forse l’unica strada percorribile è fare proprio un principio di precauzione.

Direttive

Vivere anche il quotidiano nei termini più lontani. -- Italo Calvino, 1968

Neppure di fronte all'Apocalisse. Nessun compromesso. -- Rorschach (Alan Moore, Watchmen)

United We Stand. Divided We Fall.

Avviso ai naviganti

Mi chiamo Giovanni De Matteo, ma per brevità mi firmo X. Nel 2004 sono stato tra gli iniziatori del connettivismo. Leggo e guardo quel che posso, e se riesco poi ne scrivo. Mi occupo soprattutto di fantascienza e generi contigui. Mi piace sondare il futuro attraverso le lenti della scienza e della tecnologia.
Il mio ultimo romanzo è Karma City Blues.

Altrove in 140 caratteri

Segui assieme ad altri 102 follower

novembre: 2019
L M M G V S D
« Ott    
 123
45678910
11121314151617
18192021222324
252627282930  

Categorie

%d blogger hanno fatto clic su Mi Piace per questo: