Intelligenza artificiale ‘glass box’: processi decisionali sostenibili in ambito sanitario

Verso sistemi di IA più affidabili e utilizzabili, consentendo agli utenti di comprendere come funzionano gli algoritmi e perché prendono certe decisioni

Come è noto, il management sostenibile (Ms) prende in prestito i concetti della sostenibilità e li fonde con quelli del management. Dalla sostenibilità, per esempio, il Ms mutua i tre pilastri: economico, sociale e ambientale. In particolare, per quanto riguarda il social pillar, esso, talvolta, viene letto nel contesto generazionale, vale a dire: rispettare i bisogni delle generazioni presenti e future.
A partire dalla concettualizzazione di Ms appena menzionata, emerge anche uno degli scopi della disciplina, ovvero elaborare l'applicazione di pratiche sostenibili, in diversi campi dell'agire umano, come le imprese, l'agricoltura, l'ambiente e, in generale, la vita personale, cercando di gestire tali ambiti in modo che sia le generazioni attuali sia quelle future possano trarne beneficio.

Il supporto dell’IA al management
L’intelligenza artificiale (AI) è impiegata in modo sempre più diffuso per assistere i processi decisionali, per esempio, attraverso l’induzione, o apprendimento, di pratiche che possano soddisfare i pillar della sostenibilità, sotto forma di semplici 'regole', del tipo se-allora, o euristiche, facilmente utilizzabili anche dai non addetti ai lavori dell’IA.
Di seguito è riportato un esempio di regole generate da un decision tree, un algoritmo di IA ben noto e robusto. Esse sono impiegate in ambito sanitario, per supportare gli odontoiatri nelle proprie decisioni. In genere, per prendere decisioni, come la disposizione di apparecchi ortodontici o per l’estrazione di un dente, gli odontoiatri potrebbero ricorrere a decine di variabili. Nell’esempio riportato sono considerati 38 fattori, che non sempre risultano tutti utili.
La metodologia impiegata è in grado di ridurre il numero dei fattori considerati nella decisione medica da 38 a massimo 4 fattori, come si può vedere dalle regole generate.
La regola 1 della tabella, per esempio, del tipo se….allora, suggerisce che

Se goGnLi è maggiore di 104 & snpg è maggiore di 75 & intercanine è minore o uguale a 5,2 allora va presa la decisione 1 (colonna class)

I tre fattori presi in considerazione dall’algoritmo sono goGnLi, snpg e intercanine diameter. Se questi tre fattori soddisfano i valori, come riportati, allora viene suggerita la decisione corrispondente alla etichetta class, che nell’esempio odontoiatrico può riferirsi se estrarre o meno un dente, oppure se usare un certo apparecchio ortodontico o un altro.


Rule

n.

goGnLi

snpg

goGnLi

intercanine diameter difference

apgB1

Ans-Pns^Go-Gn

dentobasal Discrepancy

Class

% of waste reduction (cost/waste)

1

>104,2

>75

>104,9

<=5,28

1

-30/-65

2

<=104,2

>5.3

<=28,8

<=5,5

1

-30/-65

3

<=104,2

>3,61

>5.3

>28,8

1

-30/-65

4

>104,2

<=75

1

-50/75


La sperimentazione eseguita in ambito clinico mostra che, oltre ad essere efficienti in termini di prestazioni mediche, esibendo una elevata accuratezza, le regole generate da decision tree permettono di ridurre i costi della prestazione e i rifiuti che un impiego di fattori diagnostici più ampio richiederebbe. L’ultima colonna della tabella mostra in termini percentuali la riduzione del costo (-30%) di prestazione e la riduzione della quantità di rifiuto (-65%). In altri termini l’algoritmo identifica regole sostenibili, in termini di costi, soddisfazione del paziente e impatto ambientale. Le regole sono utili anche per studiosi e professionisti, perché possono essere utilizzate per corsi di aggiornamento e formazione per le scuole di odontoiatria, stabilendo così una collaborazione tra ortodontisti e generando valore in termini di apprendimento.

Un approccio a ‘scatola di vetro’ per supportare processi decisionali sostenibili
L’approccio proposto fornisce un insieme di regole, o best practice, interpretabili dagli esseri umani, superando l’opacità e l’incertezza delle tipiche strategie a scatola nera offerte da alcune soluzioni di AI, come per esempio quelle basate su deep learning. In altre parole, l’IA discussa consente di vedere il processo decisionale interno attraverso una ‘glass box’, tanto da poter essere definita a pieno titolo una ‘IA explainable’ (XAI).
Quello della XAI è un campo emergente dell'IA che si concentra sullo sviluppo di algoritmi e modelli trasparenti e comprensibili agli esseri umani, come nel caso sanitario. L'obiettivo della XAI è rendere i sistemi di IA più affidabili, responsabili e utilizzabili, consentendo agli utenti di comprendere come funzionano gli algoritmi e perché essi prendono determinate decisioni.

XAI e etica per le scienze manageriali
La XAI, come accennato in precedenza, può essere applicata in vari modi per supportare le scienze manageriali, ma è anche utile per affrontare questioni che sorgono in ambito etico quando si applica l’IA. Ad esempio, la XAI può essere utilizzata per promuovere un «processo decisionale etico», garantendo che l’IA impiegata sia trasparente e responsabile. XAI sembra utile anche per sviluppare modelli che identifichino potenziali pregiudizi o discriminazioni nelle decisioni di reclutamento o di prestito. In questi casi le parti interessate possono capire come l’IA di supporto sta prendendo le sue decisioni e identificare potenziali fonti di pregiudizi o discriminazioni.

* Professore, dipartimento di economia e management, Università di Trento

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome