You are currently browsing the tag archive for the ‘Elon Musk’ tag.

Questo è il momento in cui Bruce Sterling, nel bel mezzo della sua conferenza all’ultima edizione del SXSW (South by Southwest Festival), l’annuale ciclo di conferenze, mostre e concerti che ha avuto luogo ad Austin (Texas) dall’8 al 17 marzo, in una parabola celeste che da Villa Abegg si spinge fino a Elon Musk alla ricerca delle attitudini più cyberpunk in circolazione, si sofferma sulla fantascienza italiana e su questo movimento che ha cercato di raccogliere l’eredità del suo manifesto della fantascienza degli anni ’80, continuando a dar voce, anche grazie al suo contributo, a una sensibilità che è tutt’altro che morta: una corrente di autori che si fanno chiamare connettivisti. Ed è anche il momento in cui il nostro ego rischia di esplodere.

Grazie a Bruce per le sue parole e a Sandro Battisti per la segnalazione.

Annunci

Arte e intelligenza artificiale rappresentano un connubio affascinante al quale io stesso non ho saputo resistere, mettendolo al centro di uno dei miei ultimi racconti. In Maja, che potete leggere su Propulsioni d’improbabilità (curato da Giorgio Majer Gatti per Zona 42), l’attenzione si focalizza sulla musica e sull’ipotesi che il talento innato e le basi della creatività possano rappresentare un fertile terreno d’incontro e di dialogo tra intelligenze «naturali» e artificiali, sviluppando esiti che al momento possiamo solo vagamente immaginare.

Dopotutto, è da alcuni anni che il celebre test di Turing, da sempre portato a esempio pratico come campo di prova per valutare un costrutto (aspirante o presunto) candidato a essere riconosciuto come IA, raccoglie un numero crescente di critiche sulla sua effettiva validità pratica, tra le altre cose anche per il suo ispirarsi all’altrettanto famoso imitation game (da cui anche il titolo dell’interessante biopic di Morten Tyldum, tratto dalla biografia di Andrew Hodges, in cui il Benedict Cumberbatch intrepreta il ruolo del grande matematico e criptoanalista britannico). Il punto non è tanto una sottigliezza, perché di fronte agli adeguamenti normativi richiesti dall’introduzione di sistemi automatici in grado di prendere scelte con conseguenze reali e quindi non prive d’impatto per l’ecosistema «umano» in cui agiscono (come potrebbero essere i veicoli a guida autonoma, ma anche IA preposte al controllo del traffico aereo, per non parlare delle eventuali applicazioni militari) le questioni etiche assumono una rilevanza centrale, e quindi non il discrimine per l’attribuzione di una responsabilità non può basarsi sulla pur sofisticata capacità di “ingannare” un interlocutore umano.

Già nel 2008 alcuni esperimenti condotti da Kevin Warwick all’Università di Reading (UK) avevano destato scalpore, se non altro per alcuni esiti quanto meno inquietanti (Think deeply about mysterious dubjects) delle conversazioni con le candidate IA.

Negli ultimi tempi, si sono invece intensificate le notizie sul ruolo possibile delle IA nella costruzione di artefatti video, che spaziano dall’esperimento cinematografico con il corto Sunspiring pensato e scritto da Benjamin, una rete neurale ricorsiva addestrata con una collezione di film di fantascienza, alle frontiere della post-verità con le aberranti prospettive della tecnologia deepfake. Evoluzioni che rendono ancora più concreta e urgente la necessità di pensare a un superamento del test di Turing, magari evolvendolo in una direzione analoga a quella che non facevo altro che estrapolare in Maja pensando a un ipotetico test di Lovelace (ovviamente da Ada, figlia di Lord Byron e prima programmatrice informatica della storia, convinta sostenitrice dell’incapacità delle macchine di sviluppare uno spirito creativo – o banalmente anche solo sorprendere i loro programmatori).

Immagine di Luca Zamoc (fonte: Il Trascabile).

È notizia di questi giorni che i ricercatori di OpenAI, l’organizzazione non profit fondata a San Francisco nel 2015 da Sam Altman e Elon Musk, e finanziata tra gli altri da Amazon e dall’indiana Infosys (un colosso della consulenza IT con oltre 113.000 dipendenti, uffici in 22 paesi, centri di ricerca sparsi su quattro continenti e proprietaria nel campus di Mysore della più grande università d’impresa al mondo), con lo scopo di gestire i rischi esistenziali connessi alla ricerca nel campo dell’intelligenza artificiale e promuovere lo sviluppo di una Friendly AI (una IA benevola), hanno messo a punto un’intelligenza artificiale tanto avanzata da non poter essere rilasciata pubblicamente. Il modello denominato GPT2 risulterebbe infatti talmente efficace nell’ambito per cui è stato sviluppato, ovvero la scrittura di testi deepfake in grado di ingannare un lettore umano, da rappresentare un rischio concreto.

Tra le possibili applicazioni distorte del loro costrutto, i creatori hanno da subito annoverato la generazione di recensioni fake per orientare il gusto dei consumatori e la diffusione di notizie false, la generazione di spam e di fishing. IA come GPT2 potrebbero persino comportarsi come un utente reale, oppure sostituirsi a profili hackerati impersonando versioni alterate ad hoc dell’utente originale, per i motivi più disparati: trarre in inganno altri utenti, per esempio; oppure screditare gli utenti originali, diffondere false informazioni, etc. Inoltre almeno un caso recente ha sicuramente fatto accendere un ulteriore campanello d’allarme nei laboratori di OpenAI: la possibile influenza di un bias ultraconservatore, bigotto e reazionario nelle risposte di GPT2 in caso di addestramento con testi ricavati dalla rete (sorte già toccata al chatbot di Microsoft addestrato per interagire su Twitter).

Questa volta, insomma, ci è andata bene. Ma se la tecnologia ha ormai raggiunto questo livello, non possiamo escludere che altrove qualcuno con meno scrupoli possa a breve mettere (o aver già messo) a punto sistemi altrettanto validi, adottandoli per le applicazioni più subdole. Per quello che ne sapete, non potrebbe questo stesso blog essere mandato avanti da una IA dagli scopi ancora imperscrutabili? Pensate a certe pagine e profili attivi sui social network, a certe piattaforme politiche, a certe dinamiche in atto nei motori di ricerca e nella promozione di beni e prodotti. Il futuro potrebbe essere già davanti ai nostri occhi, e sfuggirci solo perché non abbiamo ancora metabolizzato le categorie giuste per riconoscerlo.

Questa recensione di Ex Machina, film scritto e diretto da Alex Garland (dal 30 luglio anche in Italia) che s’inserisce nel filone transumanista recentemente esplorato da Hollywood già in diversi titoli – con risultati alterni – da Lei a Transcendence, richiama l’attenzione su una serie di riferimenti che già mi sono serviti come punti cardinali in un paio di uscite pubbliche. Dalla riflessione era per altro scaturito questo articolo per Quaderni d’Altri Tempi, e a Bellaria abbiamo colto l’occasione con Zoon e Kremo per imbastire un panel a 360° sui rischi esistenziali, proprio a partire dal clamore suscitato dagli avvertimenti lanciati da luminari del calibro di Stephen Hawking (che non ha certo bisogno di presentazioni da queste parti) o Elon Musk (l’imprenditore sudafricano-americano fondatore di start-up di successo, da PayPal a Tesla Motors a SpaceX). E proprio i loro nomi, insieme a quello di Nick Bostrom, sono quelli che richiamavamo in quella sede, a partire dal dibattito incentrato sull’evoluzione delle intelligenze artificiali simil o super umane.

Com’è stato detto, se mai risulterà possibile una superintelligenza artificiale sarà anche l’ultima invenzione dell’uomo. Il progresso è sempre guidato dalla civiltà più evoluta. E in presenza di una intelligenza artificiale confrontabile o già superiore all’intelligenza umana, capace di migliorarsi a un ritmo per noi vertiginoso e inimmaginabile, l’umanità dovrà rassegnarsi a passare il testimone. Risulta quindi plausibile che a quel punto il timone del progresso passi “nelle mani” delle IA, che si sostituiranno in tutto o in parte a noi nel ruolo di motore dell’evoluzione tecnologica, scientifica e culturale sulla Terra.

In uno dei suoi articoli sempre estremamente stimolanti, il divulgatore Caleb Scharf, astrobiologo alla Columbia University, ha provato addirittura a mettere in relazione lo sviluppo delle IA con il paradosso di Fermi, passando per il Grande Filtro: è un’idea interessante, sennonché mi sembra fondarsi sull’assunzione un po’ troppo restrittiva che ogni forma artificiale di intelligenza contenga il germe intrinseco dell’autodistruzione.

D’altronde, se come esseri umani ci stiamo interessando così tanto a un argomento che fino a non molto tempo fa sembrava poterci appassionare solo in forma di fiction (e in effetti credo che negli ultimi trent’anni sia stata scritta e filmata ben poca fantascienza capace di prescindere da un qualche impiego futuro – o rischio connaturato all’uso – delle IA), non è solo per l’effetto perturbante della difformità implicita nell’IA, del suo essere qualcosa di altro da noi. Le implicazioni dell’eventuale avvento dell’IA sono intrinsecamente imprevedibili: potremmo trovarci davanti agli scenari più diversi, da una vera e propria esplosione di intelligenza alla riprogrammazione stessa della materia disponibile sulla Terra e nei suoi paraggi (tutta la materia, esseri viventi inclusi) in computronium, fino a esiti ancora più inquietanti come l’inferno a misura d’uomo teorizzato nel cosiddetto rompicapo del Basilisco di Roko. Si va quindi dal caso migliore dell’umanità vittima collaterale dello sviluppo dell’IA, a quello peggiore dell’umanità completamente asservita (ed eventualmente annichilita) dall’IA. In nessun caso, proiettando sull’intelligenza artificiale ciò di cui è stata capace nel corso della sua storia l’intelligenza umana, la nostra “ultima invenzione” dovrebbe mostrare un senso di compassione nei nostri confronti.

Ma se i nostri timori sono oggi così fondati, è perché sono sostanzialmente il frutto del nostro passato, che troviamo così ben rappresentato nel presente. E abbiamo appunto imparato a nostre spese che dell’umanità come oggi la conosciamo è meglio diffidare. Ogni sviluppo futuro, ogni tentativo di estrapolazione, ci costringe a fare i conti con i punti di partenza: e ciò che siamo oggi, evidentemente, non ci piace granché. E allora: perché non cogliere l’occasione di questo dibattito per fare qualcosa che cambi le cose? Forse le cose andranno male comunque, ma almeno non avremo nulla da rimproverarci.

BATTLESTAR GALACTICA -- Pictured: Tricia Helfer as Number Six -- SCI FI Channel Photo: Justin Stephens

BATTLESTAR GALACTICA — Pictured: Tricia Helfer as Number Six — SCI FI Channel Photo: Justin Stephens

Direttive

Vivere anche il quotidiano nei termini più lontani. -- Italo Calvino, 1968

Neppure di fronte all'Apocalisse. Nessun compromesso. -- Rorschach (Alan Moore, Watchmen)

United We Stand. Divided We Fall.

Avviso ai naviganti

Mi chiamo Giovanni De Matteo, ma per brevità mi firmo X. Nel 2004 sono stato tra gli iniziatori del connettivismo. Leggo e guardo quel che posso, e se riesco poi ne scrivo. Mi occupo soprattutto di fantascienza e generi contigui. Mi piace sondare il futuro attraverso le lenti della scienza e della tecnologia.
Il mio ultimo romanzo è Karma City Blues.

Altrove in 140 caratteri

Segui assieme ad altri 102 follower

ottobre: 2019
L M M G V S D
« Set    
 123456
78910111213
14151617181920
21222324252627
28293031  

Categorie

Annunci
%d blogger hanno fatto clic su Mi Piace per questo: