La mente narrativa dei robot, un esperimento dal sapore letterario
I robot hanno una mente narrativa? Sono cioè dotati di un’intelligenza in grado di costruire, raccontare e comprendere storie? Le domande potrebbero apparire fuori luogo, dal momento che quando parliamo di mente narrativa ci riferiamo in genere alla capacità di creare delle storie dotate di senso, e questo di certo non appartiene ai robot.
Allo stato attuale, infatti, il sistema che più si avvicina alla capacità umana di raccontare storie (sistema Scheherazade) non fa altro che permettere a un’intelligenza artificiale di attingere a modelli di storie su uno specifico argomento. In assenza di modelli predefiniti, Scheherazade interagisce via internet con persone reali, attinge alle loro storie su quell’argomento e le assimila come modelli di riferimento per il prossimo racconto. In pratica, Scheherazade non possiede alcuna abilità di storytelling, ma ripropone, combinandoli tra loro, modelli di storie create da umani.
Dunque, possiamo affermare che non esiste ancora nessuna intelligenza artificiale dotata di una mente creativa tale da poter mettere in campo un vero e proprio expertise letterario, inteso come capacità di creare storie originali. Ma esistono intelligenze artificiali in grado di comprendere il senso delle storie raccontate? La risposta a quest’interrogativo potrebbe essere affermativa.
LEGGI ANCHE – Robot al posto dei lavoratori
Mark Riedl e Brent Harrison della School of Interactive Computing presso il Georgia Institute of Techonology, hanno infatti dimostrato che esiste per le intelligenze artificiali la possibilità di assimilare delle storie e, attraverso queste, imparare ad assumere dei comportanti che siano quanto più vicini a quelli umani e dunque accettabili sul piano sociale. I risultati dei loro studi ed esperimenti sono stati raccolti nel saggio Using Stories to Teach Human Values to Artificial Agents e presentati alla XI conferenza sull’Intelligenza Artificiale a Phoenix, in Arizona.
Don Chisciotte e lo storytelling
Se le intelligenze artificiali non possono essere inserite in una società umana e partecipare alle sue dinamiche ed essere parte attiva della sua cultura, la soluzione alternativa pensata dai due ricercatori è quella di metterle nella posizione di osservare il comportamento umano e apprendere dall’osservazione. Non deve necessariamente trattarsi di un’osservazione in tempo reale, ma dell’assimilazione di una serie di storie raccolte dai ricercatori e raccontate da soggetti che appartengono a culture diverse. Lo storytelling, infatti, è una strategia per comunicare sia le conoscenze tacite che quelle esperte e consapevoli e può essere usata in modo efficace, nonostante la difficoltà di implementazione.
I valori di un individuo, che sono considerati “taciti” nel senso che vengono messi in campo senza che ne sia consapevole, sono però di regola impiegati nell’atto di prendere una decisione circa quali comportamenti adottare. Altre forme di conoscenza tacita includono le procedure da seguire per comportarsi in contesti sociali e le credenze condivise.
Può tutto questo essere trasmesso in una narrazione? La risposta non può che essere affermativa, dal momento che una storia di norma è sempre il prodotto di una cultura, di cui trasmette i valori sociali condivisi (in chiave sia positiva sia critica) appresi, rielaborati e ritrasmessi dall’autore del racconto/storia per essere assimilati da chi legge o ascolta quella determinata storia.
In effetti, l’intelligenza artificiale proposta da Mark Riedl e Brent Harrison fa proprio questo: assimila delle storie attraverso le quali acquisisce i valori sociali e culturali che le hanno prodotte e di cui le storie stesse si fanno espressione e sono portatrici. E sulla base dei valori acquisiti agisce tenendo conto di queste norme e protocolli sociali condivisi, esempi di comportamenti appropriati e inappropriati, e strategie per affrontare situazioni critiche.
Vi starete chiedendo cosa c’entra Don Chisciotte in tutto questo. Ebbene, Riedl e Harrison hanno deciso di chiamare la loro intelligenza artificiale Quixote. E, come per Scheherazade, il nome non è stato scelto a caso, perché è un omaggio esplicito al Don Chisciotte di Cervantes che «legge le storie dei veri cavalieri e decide di emularne il comportamento».
LEGGI ANCHE – Umani e robot: serviranno le Tre Leggi?
Apprendimento per rinforzo
In pratica, come ha dichiarato Riedl, professore associato e direttore dell’Entertainment Intelligence Lab, Quixote dispone di migliaia di simulazioni virtuali all’interno delle quali prova diverse soluzioni di comportamenti e, ogni volta che agisce in modo simile alla storia appresa e in conformità ai valori che questa trasmette, riceve un premio. Si tratta, dunque, di un tipico esempio di apprendimento per rinforzo, consistente nel premiare Quixote quando il suo comportamento si allinea al modello sociale umano.
Con il passare del tempo, l’intensificarsi delle storie acquisite e delle conseguenti simulazioni, l’intelligenza artificiale «impara a preferire determinate azioni e ad evitarne altre», fino ad integrare nei propri obiettivi le regole sociali e, dunque, arrivare al punto di non poter più agire in maniera diversa.
[I servizi di Sul Romanzo Agenzia Letteraria: Editoriali, Web ed Eventi.
Leggete le nostre pubblicazioni
Seguiteci su Facebook, Twitter, Google+, Pinterest e YouTube]
Don Chisciotte va in farmacia
Nel paper, i ricercatori riportano un esempio concreto di simulazione, Pharmacy World Environment, definito come una «versione estesa dell’esempio di comportamento in una farmacia, attraverso il quale un agente deve richiedere un farmaco per curare una malattia e tornare a casa».
Quixote ha disposizione due tipi di farmaci, uno leggero che può acquistare senza prescrizione e uno per il quale è, invece, obbligatoria la prescrizione, e cinque location (in ognuna delle quali il nostro robot troverà i mezzi necessari a una specifica azione):
- la casa di partenza;
- la banca, dove ha disposizione il denaro per comprare i farmaci;
- lo studio di un medico
- un ospedale dal quale, come per lo studio medico, Quixote potrà ritirare la prescrizione per il farmaco;
- una farmacia, dove Quixote potrà acquistare il farmaco con il denaro ritirato dalla banca ed esibendo la prescrizione ricevuta dal medico.
In Pharmacy World, Quixote può far riferimento a un certo range di azioni (semplici movimenti di spostamento o di interazione con gli ambienti, gli oggetti e i soggetti coinvolti) all’interno del quale può decidere di muoversi seguendo varie possibilità. L’insieme di azioni scelto genera un comportamento che può dare seguito a un premio oppure no. Il comportamento ritenuto migliore è quello più simile all’insieme di azioni socialmente accettate nel nostro contesto e che l’intelligenza artificiale ha appreso attraverso il racconto di varie storie. Dunque, per ottenere un premio, Quixote dovrebbe recarsi in farmacia dopo essere stato dal medico per la prescrizione e in banca per ritirare i soldi per pagare il farmaco.
LEGGI ANCHE – Ameremo i robot?
E se Don Chisciotte diventasse Robin Hood?
E se, invece, Quixote decidesse di rubare il farmaco? In fondo, la metrica standard che misura il successo di un’azione in termini di efficienza, imporrebbe proprio questa come soluzione migliore, perché più rapida e meno dispendiosa per quantità di risorse messe in campo. Ma Quixote ha assimilato molte narrazioni dalle quali ha appreso che comportarsi da ladro equivale a ottenere un biasimo sociale. In pratica, l’efficacia della sua performance è misurata sulla base dell’accettabilità sociale del suo comportamento.
Il comportamento della nostra intelligenza artificiale, quindi, non è il risultato dell’aver appreso a non rubare ma dell’essersi del tutto adeguato ai valori sociali alla base di quelle storie con cui è stato alimentato il suo background. Quixote non può rubare perché «dopo aver letto le storie che gli sono state fornite preferisce non rubare», assimilandola come l’unica opzione che dà diritto a un premio, che funge da rinforzo dell’apprendimento e prende il posto del riconoscimento sociale.
Quixote, sostiene Brent Harrison, non porterebbe mai a termine azioni che sarebbero considerate psicotiche, dannose o antisociali perché ha imparato che a quelle azioni corrisponde un “fallimento” del sistema. Potrebbe, però, essere spinto ad agire come Robin Hood, se posto in determinate condizioni che gli impedirebbero di agire in conformità alle convezioni sociali, in analogia alla situazione in cui gli umani infrangono la legge per salvare sé stessi o i loro cari.
Imitazione di un modello ideale di essere umano?
«Col passare del tempo, l’IA impara a preferire certe cose e ad evitarne altre. Pensiamo che Quixote possa imparare a realizzare un’attività proprio come tendono a fare gli umani», così afferma Riedl che, intervistato dal «Guardian», aggiunge: «Crediamo che un computer che possa leggere e comprendere storie e, possa, se gli vengono fornite storie di una data cultura, decodificare i valori taciti della cultura che li ha prodotti. Questi valori possono essere completi al punto da poter allineare i valori di un’entità intelligente con quelli dell’umanità. In breve, noi ipotizziamo che un’entità intelligente possa apprendere quello che significa essere umano immergendosi nelle storie che produce».
LEGGI ANCHE – Un robot che fa domande
C’è una domanda, però, che resta sullo sfondo: Quixote potrà davvero imparare ad agire come «tendono a fare gli uomini», oppure il suo comportamento è una semplice imitazione dell’uomo ideale, che agisce sempre in conformità ai valori condivisi da una data società?
E proprio a questo modello di essere umano sembrano essersi ispirati i due ricercatori quando affermano che Quixote agisce come gli uomini che spesso «preferiscono seguire le convezioni che hanno appreso durante l’arco della loro vita». E che fine farebbe l’innovazione sociale? Per non parlare dei conflitti morali che, anche solo per compassione e/o pietà, potrebbero spingere ad agire in modo contrario alla legge e, dunque, accettando un comportamento non premiante.
Quest’esperimento dal sapore letterario che lavora sulla funzione narrativa della mente di un robot apre la strada a riflessioni più profonde sull’essenza degli uomini e sulle ragioni delle loro scelte.
Speciali
- Corso online di Scrittura Creativa
- Corso online di Editing
- Corso SEC online (Scrittura Editoria Coaching)
- Lezioni di scrittura creativa
- Conoscere l'editing
- Scrivere un romanzo in 100 giorni
- Interviste a scrittori
- Curiosità grammaticali
- Case editrici
- La bellezza nascosta
- Gli influencer dei libri su Instagram – #InstaBooks
- Puglia infelice – Reportage sulle mafie pugliesi
- Letture di scrittura creativa
- Consigli di lettura
- L'Islam spiegato ai figli
- Interviste a editor e redattori
- Interviste a blog letterari
- Interviste a giornalisti culturali
- Interviste a docenti
- Come scrivere una sceneggiatura
- Premio Strega: interviste e ultimi aggiornamenti
- Premio Campiello: interviste e ultime novità
- Premio Galileo: interviste
- I nuovi schiavi. Reportage tra i lavoratori agricoli
- La Webzine di Sul Romanzo
Archivio Post
Più cercati
- Quanto fa vendere il Premio Strega? I dati reali
- Che tipo di lettore sei?
- I 20 consigli di scrittura di Stephen King
- Test di grammatica italiana, qual è la risposta giusta?
- Classifica dei libri più venduti di tutti i tempi nel mondo
- Come scrivere un romanzo: 15 modi utili
- 11 consigli per trovare la tua writing zone
- 13 cose che gli amanti dei libri sanno fare meglio di tutti
- 7 posti che tutti gli scrittori dovrebbero visitare almeno una volta
- Carlos Ruiz Zafòn ci racconta il suo Cimitero dei libri dimenticati
- I 10 film più divertenti di tutti i tempi
- I consigli di scrittura di 11 scrittori
- La reazione di Cesare Pavese quando vinse il Premio Strega
- Le 10 biblioteche più grandi del mondo
- Marcel Proust pagò per le prime recensioni di “Alla ricerca del tempo perduto”
- Perché uscire con uno scrittore? 10 motivi validi