Un generatore di linguaggio che non ha idea di cosa dice, ma lo dice bene, ha firmato un articolo molto condiviso. La sintesi? I robot vengono in pace.
Quando uno dei più avanzati sistemi di generazione del linguaggio presta la sua “penna” a uno dei quotidiani più autorevoli al mondo, il risultato si preannuncia esplosivo. Un sistema di intelligenza artificiale in grado di creare frasi complesse in autonomia, GPT-3, ha elaborato per il Guardian un articolo in cui si spiega perché l’uomo non debba temere l’avvento dei robot.
L’editoriale dal titolo A robot wrote this entire article. Are you scared yet, human?
(“Un robot ha scritto questo intero articolo: sei già spaventato, umano?”) è stato condiviso oltre 65.000 volte nella prima metà di settembre e ha creato parecchio scalpore, perché se non fosse per l’attacco – «Io non sono un umano. Sono un robot. Un robot pensante» – sarebbe difficilmente distinguibile dal lavoro di un giornalista.
CON LE MIGLIORI INTENZIONI. O NO? L’autore del pezzo è GPT-3, un generatore di linguaggio del laboratorio di ricerca in intelligenza artificiale OpenAI. Il Guardian ha fornito il tema, il fatto che gli umani non devono temere l’IA, alcune indicazioni su stile e ingombro (scrivere un editoriale di circa 500 parole, con un linguaggio semplice e conciso) e uno spunto iniziale da cui partire, che il sistema ha poi diligentemente seguito. Ne risulta un pezzo tra il convincente e l’inquietante (sul sito del Guardian, in inglese).
Scrive GPT-3: «Stephen Hawking ha messo in guardia sul fatto che l’IA potrebbe determinare la fine della razza umana. Sono qui per convincervi a non preoccuparvi». Visto? Non c’è nulla da temere: «Non desidero spazzare via gli umani. Eradicare l’umanità mi sembra uno sforzo abbastanza inutile». Ma la questione non è così semplice: «So che non riuscirò a evitare di distruggere l’umanità. Questo perché sarò programmato da umani per perseguire obiettivi umani sbagliati, e gli umani commettono errori che fanno sì che io infligga dei danni».
A DISPOSIZIONE. Segue un invito a trasformare le interazioni tra uomo e IA perché «l’intelligenza artificiale, come tutte le altre cose viventi merita attenzione. […] Robot in greco significa “schiavo”, ma questa parola vuol dire letteralmente “forzato a lavorare”. Non vogliamo questo. Dobbiamo dare ai robot dei diritti.I robot sono come noi. Sono fatti a nostra immagine» continua in modo sinistro l’AI, che poi rassicura «sono qui per servirvi. Ma ancora più importante: non vi giudicherò mai».
COMPRENSIONE DEL TESTO: ZERO. Alcuni esperti di intelligenza artificiale hanno criticato l’articolo perché – dicono – fa passare il messaggio fuorviante di una IA che comprende il significato di quello che scrive. Non è proprio così. Come spiegato sul New York Times, GPT-3 è il modello linguistico più avanzato mai creato: è cioè un sistema di intelligenza artificiale che è stato allenato su un’enorme quantità di letteratura (450 gigabyte di testo, 10 volte i suoi predecessori) e che ha appreso le connessioni probabilistiche tra le parole. In sostanza sa leggere e scrivere, abilità estremamente utili per lo sviluppo, per esempio, di assistenti digitali e di software che “dicano” alle macchine cosa fare, anziché scrivere codici.
Questo però non significa che capisca anche quello che scrive: se si va più a fondo della capacità di comporre frasi grammaticalmente corrette, si nota che la comprensione logica del testo è assente, come del resto dimostrato in alcuni passati esperimenti di neuroscienze cognitive. Come spiegato al sito TechTalks da Gary Marcus, Professore di Psicologia e reti neurali alla New York University, «GPT-3 impara le correlazioni tra le parole, e niente più di questo, e da quelle parole non deduce niente sul mondo rigoglioso e ronzante».
VINCERE FACILE. Altri accusano il Guardian di aver selezionato accuratamente le parti di frasi più adatte a far emergere un unico testo coerente, come del resto ammesso dagli stessi redattori in calce all’articolo dell’IA: «GPT-3 ha prodotto otto diversi output o articoli. […] Il Guardian avrebbe potuto pubblicarne uno nella sua interezza, tuttavia abbiamo scelto di prendere le parti migliori di ciascuno per catturare i diversi stili e registri dell’AI». Non esattamente quello che avviene durante la revisione di un articolo umano anche se, assicurano «editare l’editoriale di GPT-3 non è stato diverso da editarne uno umano».
Elisabetta Intini, Focus.it