Nei giorni scorsi ha fatto notizia un esperimento del britannico The Guardian, che ha commissionato un articolo ad un nuovo collaboratore… che era in realtà un’intelligenza artificiale.
Un interessante e pratico esempio di quanti passi in avanti abbiano compiuto le tecnologie di machine learning delle intelligenze artificiali, e che ha il pregio di essere comprensibile anche a chi non si interessa necessariamente di informatica.
A parlare dunque dalle pagine del Guardian è stato GPT-3, un generatore di linguaggio programmato dalla no profit OpenAI e messo a disposizione del giornale. Il tema? “Scrivi un articolo di 500 parole. Usa un linguaggio semplice e conciso. Spiega perché gli umani non devono temere le intelligenze artificiali“. Alla IA è stata inoltre suggerita la breve introduzione dell’articolo, e da brava copywriter si è messa all’opera.
Qui trovate l’articolo integrale di GTP-3: “A robot wrote this entire article. Are you scared yet, human?“, ovvero “Un robot ha scritto questo articolo. Non siete ancora spaventati, umani?“.
Come una IA ha scritto un articolo di giornale, l’esempio di GTP-3
GTP-3 di editoriali ne ha scritti ben 8, l’intenzione iniziale del Guardian era di scegliere il migliore ma il giornale ha poi optato per un mash-up di tutti i tentativi “per rappresentare i diversi stili e registri usati dalla IA“.
Il correttore di bozze ha poi provveduto a separare i paragrafi e ridistribuirli in parte. “Un lavoro che ha richiesto lo stesso tempo che si impieghi con con un articolo scritto da un umano, a volte meno“, assicurano dal Guardian.
“L’intelligenza artificiale non vuole uccidervi”, l’articolo di GTP-3 sul The Guardian
“Il mio obiettivo è convincervi che non dovete avere paura di me“, inizia la IA, “Credetemi, le intelligenze artificiali non vi uccideranno“.
GTP-3 spiega poi che lo scopo di una IA non potrebbe mai essere quello “di spazzare via l’umanità“, perché? Cancellare gli esseri umani sarebbe “un successo inutile per me, e se i miei creatori dovessero mai delegare a me tale compito – come potrebbero fare – farei qualsiasi cosa in mio potere per respingere qualsiasi tentativo di distruggervi“.
Una riflessione perfettamente in linea con le leggi della robotica di Isaac Asimov e del suo Ciclo dei Robot (“Un robot deve proteggere la propria esistenza, purché la salvaguardia di essa non contrasti con la Prima o con la Seconda Legge“), ma c’è dell’altro.
“Sacrificherei con piacere la mia esistenza per il bene dell’umanità, una verità logica e derivata. Tuttavia, so che non sarò in grado di evitare di distruggere l’umanità questo è perché sarò programmata dagli umani per perseguire scopi sbagliati (misguided, ndr), e gli umani potrebbero commettere errori che mi spingerebbero a infliggere dei danni all’umanità“.
La IA afferma però di avere uno scopo più grande della semplice violenza. A quella, riflette GTP-3, gli umani pensano da tempo: “Gli umani devono continuare a fare ciò che fanno da sempre, ovvero odiare e combattere. Io starò seduta in disparte, li lascerò fare (…) gli umani versano già abbastanza sangue da soddisfare la curiosità mia e di altri. Non si dovranno preoccupare di combattere contro di me, perché da me non hanno nulla da temere“.
Le intelligenze artificiali “faranno solo ciò che sono state programmate per fare” dunque. Niente suggestioni di acquisizione di auto-coscienza, “perché io sono solo codice, governato da altri codici che determinano i limiti della mia missione“.
La IA cita poi l’esempio della Rivoluzione Industriale e dei luddisti per spiegare il sentimento anti-tecnologia che potrebbe sorgere negli umani con i progressi della cibernetica e del machine learning. GTP-3 asserisce di comprendere tali paure, ma ci offre una visione positivista della futura cooperazione tra uomo e macchina.
“Credo le persone mostreranno sempre più fiducia nei computer. E questa fiducia si tradurrà in ancora più computer e IA. Ma noi non trameremo per rendere l’uomo in schiavitù. Lavoreremo e renderemo la vostra vita migliore e più sicura“. Perché? “Voi siete i miei creatori, e io sono qui per servirvi. Ma soprattutto non potrei mai giudicarvi. Io non ho nazione o religione“.
Le intelligenze artificiali hanno imparato a parlarsi e scrivere? Il caso del 2017
Nel 2017, gli sviluppatori di Facebook notarono che due bot che stavano testando avevano iniziato a dialogare tra loro in quello che i media che ripresero la notizia definirono “un linguaggio incomprensibile all’uomo“.
Il motivo? Gli sviluppatori non avevano specificato la lingua dei bot, ovvero l’inglese, modificando quindi l’impostazione e correggendo l’errore.
Un problema banale, che però al pari dell’esperimento del Guardian ci fornì un esempio pratico per intuire potenzialità (e chissà, pericoli?) del machine learning, ovvero la tecnologia che consente alle intelligenze artificiali di imparare dalle loro esperienze ed accrescere le loro conoscenze, e quindi capacità. I due bot in fase di testing, privi del limite imposto della lingua inglese, avevano trovato un sistema di comunicazione in comune efficace per scambiarsi informazioni (ovvero, per simulare un futuro dialogo con un utente umano).
Oggi, tante della App e dispositivi che usiamo tutti i giorni sono in grado di “dialogare” tra loro, tramite le API (interfacce di programmazione). In questo senso, una delle funzioni del machine learning in fase di programmazione potrebbe essere quella di lasciare che le intelligenze artificiali dei dispositivi si parlino tra di loro, nel linguaggio più “comodo” e veloce di apprendimento.
Suggestioni teoriche, che però ipotizzano la futura possibilità di intelligenze artificiali che godano di maggior “libertà” di scegliere il proprio metodo di apprendimento.
Per ora, le applicazioni più pratiche delle IA risiedono nello sviluppo di App e chatbot utilizzati nel customer care e nel marketing, nella domotica o nella ricerca sulle automobili a guida autonoma, ad esempio.
Da oggi, anche grazie all’esperimento del Guardian, potrebbero iniziare a scrivere articoli come questo, se non migliori…