L’intelligenza artificiale e la trappola dei bias cognitivi

intelligenza artificiale
La rete impatta sull’imprinting di GPT-3, un nuovo modello di linguaggio di AI, che apprende dalla rete, riflettendo distorsioni e opportunità della stessa

Occorre porre grande attenzione a quanto la tecnologia sta realizzando nel campo dell’intelligenza artificiale e del machine learning. Non solo perché l’evoluzione tecnologica è il main trend dello sviluppo, ma anche perché un ambito su cui l’AI insiste particolarmente è la relazione e comunicazione automatica auto apprendente. E le applicazioni di relazione hanno uno spazio di crescita sconfinato in molteplici campi economici soprattutto nei servizi.

In questo breve articolo, per una volta non affrontiamo applicazioni correlate al retail ma un outlook su quanto la tecnologia sta sperimentando. GPT-3 è un’abbreviazione che sta per Generative Pre-trained Transformer 3 ed è un modello linguistico di intelligenza artificiale, ideato da OpenAI, un laboratorio di ricerca sull’AI attivo dal 2015 in California, che vede tra i nomi dei suoi fondatori anche quello di Elon Musk.

GPT- 3, come indica il numero di serie, si presenta – nel panorama dell’AI - come la terza release di un “linguaggio” che, attingendo al modello di “datacrazia” tipico della società attuale e al deep learning, l’ha portato ad essere il re delle grandi reti neurali, facendo propri 175 miliardi di dati.

Di fatti, GPT-3 è parte di un gruppo di modelli di linguaggio noti come “transformer“, che per primi si sono diffusi con il linguaggio BERT di Google (Bidirectional Encoder Representations from Transformers). Andando a ritroso rispetto a BERT, i modelli linguistici precedenti erano piuttosto scadenti, riuscendo al massimo in task di autocompletamento, ma inadeguati nel generare frasi lunghe o più complesse che rispettassero regole grammaticali e fossero dotate di senso logico. Con ulteriori studi e aggiustamenti, BERT ha rappresentato un’innovazione che ha portato poi, con step intermedi, a GPT-3, fondamentalmente grazie all’introduzione di una nuova tecnica chiamata “mascheramento”. Quest’ultimo consiste nel nascondere parole diverse in una frase e chiedere al modello di riempire il vuoto, con prove ed esercizi ad hoc, tentando e ripetendo – spesso per milioni di volte – tali passaggi al fine di assemblare frasi e paragrafi di senso compiuto. Attraverso queste milioni di ripetizioni, inoltre, si sono riusciti a riproporre non solo i pattern di senso logico tra le parole, ma anche le relazioni tra le parole e gli elementi di ogni immagine, ampliando la sperimentazione al linguaggio visivo, abilitando così ulteriormente la capacità di apprendimento automatico – il già citato deep learning – ad una mole di big data enorme.

Al di là del funzionamento stesso di questo linguaggio, per cui non si vuole entrare nel merito di tecnicismi e peccare di superficialità e non accurata semplificazione, occorre invece, essenziale porsi – fin dal principio – una serie di interrogativi etici, a cominciare da quelli che è la fonte di apprendimento di un modello di linguaggio come GPT-3, vale a dire il world wide web. Concentrandosi su questo punto, bisogna osservare la questione dell’apprendimento in rete di questa tecnologia sotto un duplice aspetto. Infatti, è indubbio che un meccanismo di apprendimento automatizzato apra ad opportunità di grande impatto: GPT-3, ad esempio, è balzato agli onori delle cronache al di fuori della stretta cerchia degli addetti ai lavori, dopo che, nel settembre 2020, la testata The Guardian ha pubblicato un intero articolo (“A robot wrote this entire article. Are you scared yet, human?”) usando appunto GPT-3, e di fatto producendo degli output  tranquillamente attribuibili ad umani per eloquenza e accuratezza. L’uso della rete come “libro di testo” per GPT-3 è molto positivo in termini di quantità di dati presenti da apprendere e la stessa disponibilità di questi dati, che agevolano l’apprendimento anche in termini di velocità di reperimento degli stessi.

Quanto ad aspetti più critici da tenere a mente, oltre al non trascurabile fatto che GPT-3 non è, al momento, qualcosa di gratuito ed accessibile a tutti, ma è in licenza esclusiva Microsoft che è il suo principale finanziatore, è che GPT-3 sarà, nel bene e nel male, figlio di una rete che, in questo frangente storico, è tutt’altro che priva di distorsioni. Lo stesso linguaggio, infatti, può ricevere un imprinting fallato dai più classici bias di questa epoca, che così agevolmente circolano online, facendo sì che pregiudizi di ogni sorta, se non vere e proprie fake-news condizionino la costruzione di qualunque pensiero.

Del resto, sono stati delegati agli strumenti virtuali poteri considerevoli che, in alcuni casi, gli stessi individui stanno iniziando a perdere: ad esempio, tra i principali, memoria, giudizio, immaginazione e privacy. In questo senso, la rete, ha assunto un ruolo di cui forse ancora non si è concretamente metabolizzata la portata, essendo il più grande spazio di confronto e di deposito di informazioni mai esistito. Fenomeni che si consumano in rete come echo-chamber, shit storm, flame, ban e chi ne ha più ne metta, vanno ad impattare, allora, su un’intelligenza artificiale, che diventa lo specchio di uno spazio virtuale spesso malato, che non è immune a discriminazioni e conclusioni errate. Sul tema vi sono alcuni esempi sconcertanti come riportato da un paper dedicato al tema redatto da Indigo.ai, piattaforma di Conversational AI attiva nella progettazione di assistenti virtuali, tecnologie di linguaggio ed esperienze conversazionali, per capire quali siano rischi più comuni associati a questo tipo di apprendimento. In sostanza, l’intelligenza artificiale non ha fatto altro che ripetere spesso luoghi comuni probabilmente perché in rete si trovano informazioni sul tema piuttosto sbilanciate. Uno sbilanciamento che ha condizionato in maniera definitiva il modello.

Cosa si può, quindi, fare perché i modelli conversazionali artificiali siano meno discriminatori, o per lo meno più “politically correct” e basati sui fatti e non sugli umori della rete o su fake-news e propaganda di sorta. La risposta a tale domanda è complessa. La stessa OpenAi sta sperimentando una sorta di addestramento di secondo livello che permetta di correggere i bias di Gpt-3 con l’utilizzo di 80 frasi studiate ad hoc per creare concetti il più neutrali possibili e politicamente corretti. Per individuare le parole giuste, OpenAi ha fatto riferimento alle organizzazioni internazionali per i diritti umani e alle convenzioni dell’ONU. I primi risultati sembrano buoni perché l’algoritmo impara a riconoscere il percorso più neutro da seguire nella costruzione delle frasi, replicandolo.

È chiaro, tuttavia, che il problema dei bias è in primis sociale, e poi dell’AI, e andrebbe risolto alla radice. Educazione e formazione sono le armi più potenti in tal senso, ma con tempi prolungati d’applicazione. Un ulteriore tentativo plausibile (da non intendere come palliativo) sarebbe forse l’istituzione di un’autorità internazionale, super-partes e quanto più indipendente possibile, formata in modo equilibrato da rappresentanti delle singole nazioni e delle aziende internazionali che si occupano di AI. Nel medio termine, l’intervento di governi pronti ad investire nella costruzione di norme sociali e politiche pubbliche che aiutino nella creazione di una rete meno condizionata dai pregiudizi sarebbe utile. Per quel che riguarda l’Unione europea, il servizio di monitoraggio della Commissione sullo sviluppo, l'adozione e l'impatto dell'intelligenza artificiale in Europa ha pubblicato il report annuale sugli investimenti in Intelligenza Artificiale nell'UE, “AI Watch: 2020 EU AI investments”, lo scorso 6 ottobre 2021. Il documento, che mira a fornire un’esaustiva stima economica di tutti gli investimenti in Intelligenza Artificiale (IA) e monitorarli nel tempo, illustra l’implementazione del Piano Coordinato sull’Intelligenza Artificiale, che ha l’obiettivo di raggiungere 20 miliardi di euro di investimenti annuali entro il 2030. In questa sede si potrebbe trovare lo spazio di manovra, almeno a livello europeo, per un lavoro più profondo sulle dinamiche tra rete e intelligenza artificiale.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome