You are currently browsing the tag archive for the ‘roboetica’ tag.

Arte e intelligenza artificiale rappresentano un connubio affascinante al quale io stesso non ho saputo resistere, mettendolo al centro di uno dei miei ultimi racconti. In Maja, che potete leggere su Propulsioni d’improbabilità (curato da Giorgio Majer Gatti per Zona 42), l’attenzione si focalizza sulla musica e sull’ipotesi che il talento innato e le basi della creatività possano rappresentare un fertile terreno d’incontro e di dialogo tra intelligenze «naturali» e artificiali, sviluppando esiti che al momento possiamo solo vagamente immaginare.

Dopotutto, è da alcuni anni che il celebre test di Turing, da sempre portato a esempio pratico come campo di prova per valutare un costrutto (aspirante o presunto) candidato a essere riconosciuto come IA, raccoglie un numero crescente di critiche sulla sua effettiva validità pratica, tra le altre cose anche per il suo ispirarsi all’altrettanto famoso imitation game (da cui anche il titolo dell’interessante biopic di Morten Tyldum, tratto dalla biografia di Andrew Hodges, in cui il Benedict Cumberbatch intrepreta il ruolo del grande matematico e criptoanalista britannico). Il punto non è tanto una sottigliezza, perché di fronte agli adeguamenti normativi richiesti dall’introduzione di sistemi automatici in grado di prendere scelte con conseguenze reali e quindi non prive d’impatto per l’ecosistema «umano» in cui agiscono (come potrebbero essere i veicoli a guida autonoma, ma anche IA preposte al controllo del traffico aereo, per non parlare delle eventuali applicazioni militari) le questioni etiche assumono una rilevanza centrale, e quindi non il discrimine per l’attribuzione di una responsabilità non può basarsi sulla pur sofisticata capacità di “ingannare” un interlocutore umano.

Già nel 2008 alcuni esperimenti condotti da Kevin Warwick all’Università di Reading (UK) avevano destato scalpore, se non altro per alcuni esiti quanto meno inquietanti (Think deeply about mysterious dubjects) delle conversazioni con le candidate IA.

Negli ultimi tempi, si sono invece intensificate le notizie sul ruolo possibile delle IA nella costruzione di artefatti video, che spaziano dall’esperimento cinematografico con il corto Sunspiring pensato e scritto da Benjamin, una rete neurale ricorsiva addestrata con una collezione di film di fantascienza, alle frontiere della post-verità con le aberranti prospettive della tecnologia deepfake. Evoluzioni che rendono ancora più concreta e urgente la necessità di pensare a un superamento del test di Turing, magari evolvendolo in una direzione analoga a quella che non facevo altro che estrapolare in Maja pensando a un ipotetico test di Lovelace (ovviamente da Ada, figlia di Lord Byron e prima programmatrice informatica della storia, convinta sostenitrice dell’incapacità delle macchine di sviluppare uno spirito creativo – o banalmente anche solo sorprendere i loro programmatori).

Immagine di Luca Zamoc (fonte: Il Trascabile).

È notizia di questi giorni che i ricercatori di OpenAI, l’organizzazione non profit fondata a San Francisco nel 2015 da Sam Altman e Elon Musk, e finanziata tra gli altri da Amazon e dall’indiana Infosys (un colosso della consulenza IT con oltre 113.000 dipendenti, uffici in 22 paesi, centri di ricerca sparsi su quattro continenti e proprietaria nel campus di Mysore della più grande università d’impresa al mondo), con lo scopo di gestire i rischi esistenziali connessi alla ricerca nel campo dell’intelligenza artificiale e promuovere lo sviluppo di una Friendly AI (una IA benevola), hanno messo a punto un’intelligenza artificiale tanto avanzata da non poter essere rilasciata pubblicamente. Il modello denominato GPT2 risulterebbe infatti talmente efficace nell’ambito per cui è stato sviluppato, ovvero la scrittura di testi deepfake in grado di ingannare un lettore umano, da rappresentare un rischio concreto.

Tra le possibili applicazioni distorte del loro costrutto, i creatori hanno da subito annoverato la generazione di recensioni fake per orientare il gusto dei consumatori e la diffusione di notizie false, la generazione di spam e di fishing. IA come GPT2 potrebbero persino comportarsi come un utente reale, oppure sostituirsi a profili hackerati impersonando versioni alterate ad hoc dell’utente originale, per i motivi più disparati: trarre in inganno altri utenti, per esempio; oppure screditare gli utenti originali, diffondere false informazioni, etc. Inoltre almeno un caso recente ha sicuramente fatto accendere un ulteriore campanello d’allarme nei laboratori di OpenAI: la possibile influenza di un bias ultraconservatore, bigotto e reazionario nelle risposte di GPT2 in caso di addestramento con testi ricavati dalla rete (sorte già toccata al chatbot di Microsoft addestrato per interagire su Twitter).

Questa volta, insomma, ci è andata bene. Ma se la tecnologia ha ormai raggiunto questo livello, non possiamo escludere che altrove qualcuno con meno scrupoli possa a breve mettere (o aver già messo) a punto sistemi altrettanto validi, adottandoli per le applicazioni più subdole. Per quello che ne sapete, non potrebbe questo stesso blog essere mandato avanti da una IA dagli scopi ancora imperscrutabili? Pensate a certe pagine e profili attivi sui social network, a certe piattaforme politiche, a certe dinamiche in atto nei motori di ricerca e nella promozione di beni e prodotti. Il futuro potrebbe essere già davanti ai nostri occhi, e sfuggirci solo perché non abbiamo ancora metabolizzato le categorie giuste per riconoscerlo.

Annunci

Stamattina, andando in ufficio, ascoltavo un dibattito in radio sull’impatto che l’automazione avrà nei prossimi anni sul mondo del lavoro. Un po’ tutti abbiamo sentito o letto gli annunci apocalittici che nei giorni scorsi sono circolati sulla stampa: i titoli più sobri parlavano del furto del lavoro ai danni degli umani perpetrato dalle nuove generazioni di robot, e scaricavano implicitamente sulla tecnologia le responsabilità occupazionali delle politiche inadeguate o fallimentare che da anni vengono perseguite un po’ in ogni parte del mondo.

Il prossimo passo, che vedo già in atto, consisterà probabilmente nell’associare la figura del robot a quella dell’immigrato che s’introduce nel nostro sistema per recare danni più o meno profondi e inguaribili al nostro stile di vita consolidato (si fa per dire). Ho provato un senso di disorientamento, ascoltando il botta e risposta tra la giornalista e l’intervistato, un esperto di nuove tecnologie membro di un’associazione di cui purtroppo non ricordo al momento il nome. Non per i contenuti, ma per la realizzazione che solo qualche anno fa, diciamo quando ho visto per la prima volta Blade Runner a metà anni novanta, o quando ho iniziato a cimentarmi a mia volta con la scrittura del futuro a metà anni zero, un dibattito radiofonico del genere, proiettato nel 2016, mi sarebbe sembrato più che logico, perfino naturale.

Il mio disagio attuale, che ho comunque fatto presto a scacciare, nasce – mi rendo conto – dall’assuefazione all’altra realtà, quella contigua all’immaginario in cui siamo cresciuti, ovvero la realtà fattuale o presunta tale costruita dall’interazione degli abitanti e dei sistemi informazionali del pianeta Terra, gli inforgs di cui parla Luciano Floridi. Quella realtà raccontata che, malgrado tutto, negli ultimi anni sta facendo di tutto, attraverso le sorgenti di condizionamento che “ispirano” e “orientano” l’opinione pubblica (governi, organizzazioni economiche, istituzioni religiose, editori), per provare a convincerci di vivere in Anni Oscuri, in un nuovo medioevo, imponendoci il diritto di non avere diritti come una nuova frontiera della libertà, riscrivendo il mondo perché possiamo godercelo così com’è, anzi accettando e plaudendo alle mille forme di erosione che quotidianamente agiscono sul blocco sempre più friabile dei diritti acquisiti.

E invece, ci accorgiamo adesso, il mondo reale è andato avanti. Non è più quello degli anni ’90, è un mondo in cui è davvero naturale, a pensarci bene, imbattersi per radio, andando al lavoro, in un dibattito sulle conseguenze e le implicazioni dell’impiego dei robot. È questo il mondo in cui viviamo, con buona pace per i reazionari e gli oscurantisti di ogni categoria, inclusi quelli che proprio in questi giorni si stanno sforzando per dimostrare al mondo, se mai ve ne fosse ancora bisogno, quanto arretrata e inadeguata sia la nostra classe politica quando si tratta di scegliere tra l’estensione dei diritti e l’esclusione dagli stessi.

Il luddismo di ritorno che sembra di intravedere tra le righe dei commenti di questi giorni non sorprende affatto, date le premesse. A conti fatti, a chi gioverebbe un’analisi precisa degli effettivi costi e benefici dell’impiego di sistemi artificiali in sostituzione della manodopera umana in contesti rischiosi o magari in mansioni ripetitive, a bassissimo contenuto qualitativo o intellettuale? Molto meglio che un uomo svolga un lavoro meccanico: è stato fatto tanto per insegnargli a non lamentarsi, a occupare le proprie giornate in catena di montaggio, a rispettare la gerarchia e le consegne, non vorremo rinunciare proprio adesso ai magnifici risultati raggiunti nel campo del condizionamento umano? E proprio adesso che stiamo risolvendo gli ultimi problemi ereditati dal Novecento, perché dovremmo accollarci la fatica di pensare a soluzioni nuove, adatte ai tempi che corrono, capaci di garantire maggiori opportunità a sempre più gente, di spalancare gli orizzonti di nuove possibilità a masse che sono state addomesticate a credere che la più grande conquista dell’umanità siano state una casa ipotecata, un lavoro sottopagato, lo smartphone alla moda e una piattaforma televisiva da 500 canali?

Per fortuna il mondo va avanti. E sarà difficile spiegare a un’intelligenza artificiale quale sia il valore aggiunto di una massa lobotomizzata, asservita al volere di pochi, grassi padroni. Insieme ai lavori di più bassa manodopera, magari delegheremo ai robot anche l’onere delle rivendicazioni di quei diritti di cui non abbiamo voluto farci carico.

robot_army

Questa recensione di Ex Machina, film scritto e diretto da Alex Garland (dal 30 luglio anche in Italia) che s’inserisce nel filone transumanista recentemente esplorato da Hollywood già in diversi titoli – con risultati alterni – da Lei a Transcendence, richiama l’attenzione su una serie di riferimenti che già mi sono serviti come punti cardinali in un paio di uscite pubbliche. Dalla riflessione era per altro scaturito questo articolo per Quaderni d’Altri Tempi, e a Bellaria abbiamo colto l’occasione con Zoon e Kremo per imbastire un panel a 360° sui rischi esistenziali, proprio a partire dal clamore suscitato dagli avvertimenti lanciati da luminari del calibro di Stephen Hawking (che non ha certo bisogno di presentazioni da queste parti) o Elon Musk (l’imprenditore sudafricano-americano fondatore di start-up di successo, da PayPal a Tesla Motors a SpaceX). E proprio i loro nomi, insieme a quello di Nick Bostrom, sono quelli che richiamavamo in quella sede, a partire dal dibattito incentrato sull’evoluzione delle intelligenze artificiali simil o super umane.

Com’è stato detto, se mai risulterà possibile una superintelligenza artificiale sarà anche l’ultima invenzione dell’uomo. Il progresso è sempre guidato dalla civiltà più evoluta. E in presenza di una intelligenza artificiale confrontabile o già superiore all’intelligenza umana, capace di migliorarsi a un ritmo per noi vertiginoso e inimmaginabile, l’umanità dovrà rassegnarsi a passare il testimone. Risulta quindi plausibile che a quel punto il timone del progresso passi “nelle mani” delle IA, che si sostituiranno in tutto o in parte a noi nel ruolo di motore dell’evoluzione tecnologica, scientifica e culturale sulla Terra.

In uno dei suoi articoli sempre estremamente stimolanti, il divulgatore Caleb Scharf, astrobiologo alla Columbia University, ha provato addirittura a mettere in relazione lo sviluppo delle IA con il paradosso di Fermi, passando per il Grande Filtro: è un’idea interessante, sennonché mi sembra fondarsi sull’assunzione un po’ troppo restrittiva che ogni forma artificiale di intelligenza contenga il germe intrinseco dell’autodistruzione.

D’altronde, se come esseri umani ci stiamo interessando così tanto a un argomento che fino a non molto tempo fa sembrava poterci appassionare solo in forma di fiction (e in effetti credo che negli ultimi trent’anni sia stata scritta e filmata ben poca fantascienza capace di prescindere da un qualche impiego futuro – o rischio connaturato all’uso – delle IA), non è solo per l’effetto perturbante della difformità implicita nell’IA, del suo essere qualcosa di altro da noi. Le implicazioni dell’eventuale avvento dell’IA sono intrinsecamente imprevedibili: potremmo trovarci davanti agli scenari più diversi, da una vera e propria esplosione di intelligenza alla riprogrammazione stessa della materia disponibile sulla Terra e nei suoi paraggi (tutta la materia, esseri viventi inclusi) in computronium, fino a esiti ancora più inquietanti come l’inferno a misura d’uomo teorizzato nel cosiddetto rompicapo del Basilisco di Roko. Si va quindi dal caso migliore dell’umanità vittima collaterale dello sviluppo dell’IA, a quello peggiore dell’umanità completamente asservita (ed eventualmente annichilita) dall’IA. In nessun caso, proiettando sull’intelligenza artificiale ciò di cui è stata capace nel corso della sua storia l’intelligenza umana, la nostra “ultima invenzione” dovrebbe mostrare un senso di compassione nei nostri confronti.

Ma se i nostri timori sono oggi così fondati, è perché sono sostanzialmente il frutto del nostro passato, che troviamo così ben rappresentato nel presente. E abbiamo appunto imparato a nostre spese che dell’umanità come oggi la conosciamo è meglio diffidare. Ogni sviluppo futuro, ogni tentativo di estrapolazione, ci costringe a fare i conti con i punti di partenza: e ciò che siamo oggi, evidentemente, non ci piace granché. E allora: perché non cogliere l’occasione di questo dibattito per fare qualcosa che cambi le cose? Forse le cose andranno male comunque, ma almeno non avremo nulla da rimproverarci.

BATTLESTAR GALACTICA -- Pictured: Tricia Helfer as Number Six -- SCI FI Channel Photo: Justin Stephens

BATTLESTAR GALACTICA — Pictured: Tricia Helfer as Number Six — SCI FI Channel Photo: Justin Stephens

Nell’articolo scritto a 4 mani con il critico, traduttore e studioso di letteratura americana Salvatore Proietti, docente all’Università della Calabria, pubblicato sul numero 72 di Robot, ci siamo dilungati su un tema che attraversa, in maniera più o meno evidente, un numero crescente di opere prodotte negli ultimi anni in seno alla fantascienza: i diritti delle creature artificiali.

L’evoluzione tecnologica ha comportato effetti che non possono più essere ignorati: uno su tutti, la smaterializzazione dello spazio delle relazioni umane, con il web che è ormai diventato, come lo definisce il giurista Stefano Rodotà (al lavoro proprio su una Carta dei diritti di Internet con la commissione che presiede, costituita dalla Presidenza della Camera), il “più grande spazio pubblico che l’umanità abbia conosciuto”, e che anche per questo necessita di una regolamentazione riconosciuta a livello transnazionale. Si tratta dello spazio in cui si svolge ormai gran parte delle nostre esistenze, quello che il filosofo Luciano Floridi chiama Infosfera e che ci rende tutti inforgs, organismi informazionali, soggetti ibridi.

MetalMadeFlesh

L’identità personale si fa distribuita e si moltiplica. Il nostro ecosistema si è già modificato perdendo le originali presunte connotazioni di purezza naturale, e le prime applicazioni di augmented reality rendono ineludibile questa verità. Le tecnologie emergenti, sempre più spesso raccolte sotto la sigla NBIC (che raggruppa nanotecnologia, biotecnologie, information technology e cognitive science), adottato anche dalla National Science Foundation americana, producono effetti che diventeranno sempre più profondi e irreversibili man mano che si realizzano forme di convergenza tra i diversi settori della ricerca. Quanto dovremo ancora aspettare prima che soggetti che non condividono la nostra stessa natura biologica comincino a rivendicare i loro diritti? Robot, androidi, cyborg, intelligenze artificiali, cloni, simbionti, creature ibride, dalla duplice natura, prefigurano la nuova realtà di un mondo che non può più trincerarsi dietro l’esclusività dei benefici e dei diritti della contemporaneità, ma che anzi deve lavorare su una logica inclusiva per estenderli a tutti.

In un celebre passo della Dichiarazione di Indipendenza, ratificata nel 1776 a Philadelphia dai cittadini delle tredici colonie che si erano sollevate contro la madrepatria, leggiamo:

Sono istituiti tra gli uomini governi, i cui legittimi poteri derivano dal consenso dei governati; di modo che, ogniqualvolta una forma di governo tenda a negare tali fini, il popolo ha il diritto di mutarla o abolirla, e di istituire un nuovo governo, fondato su quei principi e organizzato in quella forma che a esso appaia meglio atta a garantire la sua sicurezza e la sua felicità.

Parole scritte da uomini, per esprimere la loro idea su quali condizioni debba rispettare un governo di altri uomini per essere da loro accettato. Qualcuno ha idea del perché un’intelligenza artificiale dovrebbe accontentarsi di qualcosa di meno di quanto richiesto dagli uomini?

Da questa consapevolezza nasce un approccio etico, come quello proposto nel 2006 da Gianmarco Veruggio, direttore della Scuola di Robotica di Genova e promotore della cosiddetta roboetica, l’etica applicata alla progettazione e allo sviluppo nei campi della robotica e dell’automazione. All’aumentare dei benefici potenziali, nella robotica come in qualsiasi altro settore della ricerca aumentano anche i rischi. Per questo la presenza massiccia di creature artificiali nel futuro verso cui ci stiamo muovendo pone l’opportunità e anzi il bisogno di una riflessione sulle regole che dovranno gestire il rapporto tra umani e macchine.

Prima che la realtà ci presenti un conto da pagare – come insegna la storia – comprensivo di interessi.

Direttive

Vivere anche il quotidiano nei termini più lontani. -- Italo Calvino, 1968

Neppure di fronte all'Apocalisse. Nessun compromesso. -- Rorschach (Alan Moore, Watchmen)

United We Stand. Divided We Fall.

Avviso ai naviganti

Nel rispetto del provvedimento emanato, in data 8 maggio 2014, dal garante per la protezione dei dati personali, si avvisano i lettori che questo sito si serve dei cookie per fornire servizi e per effettuare analisi statistiche completamente anonime. Pertanto proseguendo con la navigazione si presta il consenso all’uso dei cookie. A questo link potete trovare la gestione della privacy e dei cookie da parte di Automattic (la società che gestisce la piattaforma WordPress.com): Privacy Policy.
Se non ne avete ancora abbastanza, non perdetevi la pagina con l'Informativa Estesa.

Altrove in 140 caratteri

Segui assieme ad altri 98 follower

maggio: 2019
L M M G V S D
« Apr    
 12345
6789101112
13141516171819
20212223242526
2728293031  

Categorie

Annunci
%d blogger hanno fatto clic su Mi Piace per questo: