Quali sono i fattori contestuali?

A colpo d’occhio

Cinque fattori contestuali hanno un effetto sullo scopo per il quale un individuo desidera usare una spiegazione, e su come dovreste fornire la vostra spiegazione:

  • settore in cui lavorate;
  • impatto sull’individuo;
  • dati usati;
  • urgenza della decisione; e
  • pubblico al quale viene presentata.

Più in dettaglio

  • Introduzione ai fattori contestuali
  • Fattore dominio
  • Fattore impatto
  • Fattore dati
  • Fattore urgenza
  • Fattore pubblico

Introduzione

Quando si costruisce una spiegazione per un individuo, ci sono diversi fattori che riguardano il contesto in cui viene presa una decisione assistita dall’IA. Questi hanno un effetto sul tipo di spiegazione che le persone troveranno utile e gli scopi per cui desiderano usarla.

Dalla ricerca primaria che abbiamo condotto, in particolare con i membri del pubblico, abbiamo identificato cinque fattori contestuali chiave che influenzano il motivo per cui le persone vogliono spiegazioni delle decisioni assistite dall’IA. Questi fattori contestuali sono esposti di seguito, insieme a suggerimenti su quali spiegazioni dare la priorità nel fornire una spiegazione di una AI-assistita. Dovreste considerare questi fattori in tutte le fasi del processo delineato nella Parte 2 di questa guida.

Quando considerate questi fattori contestuali, tenete presente che fornire spiegazioni ai destinatari della decisione li educherà anche sui sistemi di IA. Può quindi valere la pena di pensare alle informazioni che potete fornire prima dell’elaborazione per aiutare a sviluppare la conoscenza e la comprensione dell’uso dell’IA tra il pubblico in generale.

Fattore di dominio

Cos’è questo fattore?

Con “dominio”, intendiamo l’ambiente o il settore in cui impiegate il vostro modello di IA per aiutarvi a prendere decisioni sulle persone. Questo può influenzare le spiegazioni che la gente vuole. Per esempio, ciò che le persone vogliono sapere sulle decisioni assistite dall’IA prese nell’ambito della giustizia penale può differire significativamente da altri domini come l’assistenza sanitaria.

Parimenti, gli standard di spiegazione specifici del dominio o del settore possono influenzare ciò che le persone si aspettano da una spiegazione. Per esempio, una persona che riceve una decisione di mutuo assistita dall’IA si aspetterà di conoscere il ragionamento dietro la decisione in un modo che corrisponda agli standard e alle pratiche di prestito stabilite.

A quali spiegazioni dovremmo dare la priorità?

Considerare il fattore dominio è forse il fattore più cruciale che determina quali spiegazioni si dovrebbero includere e dare la priorità quando si comunica con le persone interessate. Se il vostro sistema di intelligenza artificiale sta operando in un ambiente critico per la sicurezza, i destinatari della decisione vorranno ovviamente spiegazioni appropriate sulla sicurezza e sulle prestazioni. Tuttavia, se il vostro sistema sta operando in un dominio dove le preoccupazioni di bias e discriminazione sono prevalenti, è probabile che vogliano che forniate una spiegazione di equità.

In domini a basso impatto come l’e-commerce, è improbabile che le persone vogliano o si aspettino spiegazioni estese sulla sicurezza e le prestazioni dei risultati dei sistemi di raccomandazione. Anche così, in questi domini a basso impatto, dovreste spiegare la logica di base e le componenti di responsabilità (così come tutti gli altri tipi di spiegazioni pertinenti) di qualsiasi sistema decisionale che influenzi le persone.

Per esempio, applicazioni a “basso” impatto come le raccomandazioni di prodotti e la personalizzazione (per esempio della pubblicità o dei contenuti), possono dare origine a sensibilità circa il rivolgersi a particolari gruppi demografici, o ignorarne altri (per esempio pubblicizzare ruoli di leadership rivolti agli uomini). Questi sollevano ovvie questioni di equità e di impatto sulla società, aumentando l’importanza delle spiegazioni che affrontano questi problemi.

Fattore di impatto

Cos’è questo fattore?

Il fattore ‘impatto’ riguarda l’effetto che una decisione assistita dall’IA può avere su un individuo e sulla società in generale. Diversi livelli di gravità e diversi tipi di impatto possono cambiare quali spiegazioni le persone troveranno utili, e lo scopo della spiegazione.

Le decisioni sono critiche per la sicurezza, relative a situazioni di vita o di morte (più spesso in ambito sanitario)? Le decisioni influenzano la libertà o lo stato giuridico di qualcuno? L’impatto della decisione è meno grave ma comunque significativo (ad esempio la negazione di un’utilità o l’indirizzamento di un messaggio politico)? O l’impatto è più banale (ad esempio, essere indirizzati a uno specifico sportello di biglietti da un sistema di IA che ordina le code in un aeroporto)?

A quali spiegazioni dovremmo dare la priorità?

In generale, quando una decisione assistita dall’IA ha un alto impatto su un individuo, spiegazioni come l’equità, la sicurezza e la performance, e l’impatto sono spesso importanti, perché gli individui vogliono essere rassicurati sulla sicurezza della decisione, avere fiducia di essere trattati equamente, e capire le conseguenze.

Tuttavia, le spiegazioni di logica e responsabilità possono essere altrettanto importanti a seconda degli altri fattori contestuali. Per esempio, se le caratteristiche dei dati usati dal modello di IA sono mutevoli, o le inferenze tratte sono aperte all’interpretazione e possono essere contestate.

Considerare l’impatto come un fattore contestuale non è semplice. Non c’è una regola fissa. Dovreste farlo caso per caso, e considerarlo in combinazione con tutti gli altri fattori contestuali. Dovrebbe anche coinvolgere un dialogo inclusivo attraverso i campi di competenza che sono coinvolti nella progettazione, nello sviluppo e nell’implementazione del sistema di IA. Riunire diversi membri del team, che hanno competenze tecniche, politiche, di conformità e di dominio può fornire una visione più informata del fattore di impatto di un modello di IA.

Fattore dati

Cos’è questo fattore?

I “Dati” come fattore contestuale si riferiscono sia ai dati usati per addestrare e testare il vostro modello di IA, sia ai dati di input nel punto della decisione. Il tipo di dati utilizzati dal vostro modello di IA può influenzare la volontà di un individuo di accettare o contestare una decisione assistita dall’IA, e le azioni che intraprendono come risultato.

Questo fattore suggerisce che dovreste pensare alla natura dei dati su cui il vostro modello è addestrato e che utilizza come input per i suoi output quando viene distribuito. Dovreste considerare se i dati sono biologici o fisici (per esempio i dati biomedici usati per la ricerca e la diagnostica), o se sono dati sociali sulle caratteristiche demografiche o sulle misurazioni del comportamento umano.

Dovreste anche considerare se un individuo può cambiare il risultato di una decisione. Se i fattori che entrano nella vostra decisione sono quelli che possono essere influenzati da cambiamenti nel comportamento o nello stile di vita di qualcuno, è più probabile che gli individui possano voler fare questi cambiamenti se non sono d’accordo con il risultato.

Per esempio, se la decisione di un prestito bancario è stata presa in base all’attività finanziaria di un cliente, il cliente potrebbe voler modificare il suo comportamento di spesa per cambiare quella decisione in futuro. Questo influenzerà il tipo di spiegazione che un individuo vuole. Tuttavia, se i dati sono meno flessibili, come i dati biofisici, sarà meno probabile che un individuo non sia d’accordo con l’output del sistema AI. Per esempio nell’assistenza sanitaria, un output prodotto da un sistema di IA su una diagnosi suggerita basata sui dati genetici di un paziente è più “fisso” – questo non è qualcosa che il paziente può facilmente cambiare.

Quali spiegazioni dovremmo dare priorità?

Sarà spesso utile dare priorità alla spiegazione razionale, sia per i dati sociali che per i dati biofisici. Quando si usano i dati sociali, gli individui che ricevono una decisione sfavorevole possono capire il ragionamento e imparare da questo per adattare adeguatamente il loro comportamento per le decisioni future. Per i dati biofisici, questo può aiutare le persone a capire perché una decisione è stata presa su di loro.

Tuttavia, dove vengono usati i dati biofisici, come nelle diagnosi mediche, gli individui possono preferire semplicemente sapere cosa significa il risultato della decisione per loro, ed essere rassicurati sulla sicurezza e affidabilità della decisione. In questi casi ha senso dare priorità all’impatto e alle spiegazioni sulla sicurezza e le prestazioni per soddisfare queste esigenze.

D’altra parte, quando la natura dei dati è sociale o soggettiva, è più probabile che gli individui abbiano preoccupazioni su quali dati sono stati presi in considerazione per la decisione, e sull’adeguatezza o l’equità di questi nell’influenzare una decisione assistita dall’IA su di loro. In queste circostanze, le spiegazioni sui dati e sull’equità aiuteranno ad affrontare queste preoccupazioni dicendo alle persone quali erano i dati di input, da dove provenivano e quali misure avete messo in atto per garantire che l’uso di questi dati per prendere decisioni assistite dall’IA non risulti in pregiudizi o discriminazione.

Fattore di urgenza

Cos’è questo fattore?

Il fattore “urgenza” riguarda l’importanza di ricevere, o agire sul risultato di una decisione assistita dall’IA entro un breve periodo di tempo. Quello che le persone vogliono sapere su una decisione può cambiare a seconda di quanto poco o tanto tempo hanno a disposizione per rifletterci.

Il fattore urgenza consiglia di riflettere su quanto sia urgente la decisione assistita dall’IA. Pensate se una particolare linea d’azione è spesso necessaria dopo il tipo di decisioni che prendete, e quanto velocemente avete bisogno di prendere quell’azione.

A quali spiegazioni dovremmo dare la priorità?

Dove l’urgenza è un fattore chiave, è più probabile che gli individui vogliano sapere quali sono le conseguenze per loro, ed essere rassicurati che il modello AI che aiuta a prendere la decisione è sicuro e affidabile. Pertanto, le spiegazioni relative all’impatto e alla sicurezza e alle prestazioni sono adatte in questi casi. Questo perché queste spiegazioni aiuteranno gli individui a capire come la decisione li riguarda, cosa succede dopo, e quali misure e test sono stati implementati per massimizzare e monitorare la sicurezza e le prestazioni del modello di IA.

Fattore pubblico

Cos’è questo fattore?

Il ‘pubblico’ come fattore contestuale riguarda gli individui a cui stai spiegando una decisione assistita da IA. I gruppi di persone su cui prendete le decisioni e gli individui all’interno di questi gruppi hanno un effetto su quale tipo di spiegazioni sono significative o utili per loro.

Quale livello di competenza (per esempio sull’IA) hanno su ciò che riguarda la decisione? Sono un’ampia gamma di persone soggette alle decisioni che prendete (per esempio il pubblico inglese), il che indica che potrebbe esserci anche un’ampia gamma di conoscenze o competenze? Oppure le persone su cui prendete le decisioni sono limitate a un sottoinsieme più piccolo (per esempio i vostri dipendenti), il che suggerisce che potrebbero essere più informati sulle cose su cui state prendendo le decisioni? Considerate anche se i destinatari della decisione hanno bisogno di aggiustamenti ragionevoli nel modo in cui ricevono la spiegazione (Equality Act 2010).

Come regola generale, è una buona idea soddisfare i bisogni di spiegazione degli individui più vulnerabili. Dovreste assicurarvi che questi destinatari della decisione siano in grado di capire chiaramente le informazioni che state dando loro. L’uso di un linguaggio semplice e non tecnico e di strumenti di visualizzazione, dove possibile, può spesso aiutare.

Nota anche che, mentre ci stiamo concentrando sul destinatario della decisione, è probabile che dovrai anche mettere in atto una significativa premeditazione su come fornirai ad altri destinatari informazioni appropriate sui risultati del tuo modello di IA. Per esempio, nei casi in cui i modelli stanno supportando il processo decisionale, dovrete fornire agli utenti finali o agli implementatori di questi modelli una profondità e un livello di spiegazione che sia appropriato per aiutarli a svolgere un ragionamento basato sull’evidenza in modo che sia sensibile al contesto e consapevole dei limiti del modello. Allo stesso modo, nei casi in cui i modelli e i loro risultati vengono esaminati dai revisori, dovrete fornire informazioni su questi sistemi a un livello e una profondità che siano adatti allo scopo della relativa revisione.

A quali spiegazioni dovremmo dare la priorità?

Se le persone su cui state prendendo decisioni assistite dall’IA hanno probabilmente una certa esperienza di dominio, potreste considerare di usare la spiegazione razionale. Questo perché si può essere più sicuri che essi possano capire il ragionamento e la logica di un modello di IA, o una particolare decisione, in quanto hanno più familiarità con l’argomento delle decisioni. Inoltre, se le persone soggette alle vostre decisioni assistite dall’IA hanno qualche competenza tecnica, o sono probabilmente interessate ai dettagli tecnici alla base della decisione, la spiegazione della sicurezza e delle prestazioni sarà d’aiuto.

In alternativa, quando pensate che sia probabile che le persone non abbiano alcuna competenza o conoscenza specifica sull’argomento della decisione o sui suoi aspetti tecnici, altri tipi di spiegazione come la responsabilità, o particolari aspetti della spiegazione della sicurezza e delle prestazioni possono essere più utili. Questo in modo che le persone possano essere rassicurate sulla sicurezza del sistema, e sappiano chi contattare per chiedere informazioni su una decisione AI.

Ovviamente, anche per coloro che hanno poca conoscenza di un’area, la spiegazione razionale può ancora essere utile per spiegare le ragioni per cui è stata presa una decisione in termini chiari e semplici. Ma ci possono anche essere occasioni in cui i dati usati e le inferenze tratte da un modello di IA sono particolarmente complessi (vedi il fattore ‘dati’ sopra), e gli individui preferirebbero delegare la spiegazione razionale a un esperto del settore. L’esperto può quindi rivedere e giungere alle proprie conclusioni informate sulla validità o idoneità delle ragioni della decisione (ad esempio un medico in un ambiente sanitario).

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.