Dintr-o privire
Cinci factori contextuali au un efect asupra scopului în care o persoană dorește să folosească o explicație și asupra modului în care ar trebui să oferiți explicația:
- domeniul în care lucrați;
- impactul asupra persoanei;
- datele utilizate;
- urgența deciziei; și
- publicul căruia îi este prezentată.
Mai detaliat
- Introducere în factorii contextuali
- Factorul domeniu
- Factorul impact
- Factorul date
- Factorul urgență
- Factorul audiență
Introducere
Când se construiește o explicație pentru un individ, există mai mulți factori cu privire la contextul în care este luată o decizie asistată de IA. Aceștia au un efect asupra tipului de explicație pe care oamenii o vor considera utilă și asupra scopurilor în care doresc să o folosească.
Din cercetarea primară pe care am efectuat-o, în special cu membri ai publicului, am identificat cinci factori contextuali cheie care afectează motivul pentru care oamenii doresc explicații ale deciziilor asistate de IA. Acești factori contextuali sunt prezentați mai jos, împreună cu sugestii privind explicațiile pe care trebuie să le prioritizăm în furnizarea unei explicații a unei decizii asistate de IA. Ar trebui să luați în considerare acești factori în toate etapele procesului descris în partea 2 a acestui ghid.
Când luați în considerare acești factori contextuali, țineți cont de faptul că furnizarea de explicații destinatarilor deciziilor îi va educa, de asemenea, cu privire la sistemele de IA. Prin urmare, ar putea merita să vă gândiți la informațiile pe care le puteți furniza înainte de procesare pentru a contribui la dezvoltarea cunoștințelor și a înțelegerii utilizării IA în rândul publicului larg.
Factorul de domeniu
Ce este acest factor?
Prin „domeniu”, ne referim la mediul sau sectorul în care desfășurați modelul dvs. de IA pentru a vă ajuta să luați decizii cu privire la oameni. Acest lucru poate afecta explicațiile pe care le doresc oamenii. De exemplu, ceea ce oamenii doresc să știe despre deciziile asistate de IA luate în domeniul justiției penale poate fi semnificativ diferit de alte domenii, cum ar fi asistența medicală.
La fel, standardele de explicație specifice domeniului sau sectorului pot afecta ceea ce așteaptă oamenii de la o explicație. De exemplu, o persoană care primește o decizie ipotecară asistată de AI se va aștepta să afle despre raționamentul care stă la baza determinării într-un mod care să corespundă standardelor și practicilor de creditare stabilite.
Ce explicații ar trebui să prioritizăm?
Considerarea factorului de domeniu este poate cel mai crucial factor care determină ce explicații ar trebui să includeți și să prioritizați atunci când comunicați cu persoanele afectate. Dacă sistemul dvs. de inteligență artificială funcționează într-un cadru critic pentru siguranță, destinatarii deciziilor vor dori, în mod evident, explicații adecvate privind siguranța și performanța. Cu toate acestea, dacă sistemul dvs. funcționează într-un domeniu în care preocupările legate de prejudecăți și discriminare sunt predominante, este probabil ca aceștia să dorească să le oferiți o explicație privind echitatea.
În domenii cu mize mai mici, cum ar fi comerțul electronic, este puțin probabil ca oamenii să dorească sau să se aștepte la explicații extinse privind siguranța și performanța rezultatelor sistemelor de recomandare. Chiar și așa, în aceste domenii cu impact mai redus, ar trebui să explicați raționamentul de bază și componentele de responsabilitate (precum și toate celelalte tipuri de explicații relevante) ale oricărui sistem decizional care afectează oamenii.
De exemplu, aplicațiile cu impact „redus”, cum ar fi recomandările de produse și personalizarea (de exemplu, a publicității sau a conținutului), pot da naștere la sensibilități în ceea ce privește direcționarea către anumite categorii demografice sau ignorarea altora (de exemplu, publicitatea pentru roluri de conducere orientată către bărbați). Acestea ridică probleme evidente de corectitudine și de impact asupra societății, sporind importanța explicațiilor care abordează aceste aspecte.
Factorul de impact
Ce este acest factor?
Factorul de „impact” se referă la efectul pe care o decizie asistată de IA îl poate avea asupra unui individ și a societății în general. Nivelurile diferite de gravitate și diferitele tipuri de impact pot schimba explicațiile pe care oamenii le vor considera utile, precum și scopul pe care explicația îl servește.
Sunt deciziile critice din punct de vedere al siguranței, referitoare la situații de viață sau de moarte (cel mai adesea în domeniul sănătății)? Deciziile afectează libertatea sau statutul juridic al cuiva? Impactul deciziei este mai puțin grav, dar totuși semnificativ (de exemplu, refuzul unei utilități sau direcționarea unui mesaj politic)? Sau impactul este mai banal (de exemplu, a fi direcționat către un anumit ghișeu de bilete de către un sistem de inteligență artificială care sortează cozile într-un aeroport)?
Ce explicații ar trebui să prioritizăm?
În general, în cazul în care o decizie asistată de IA are un impact ridicat asupra unui individ, explicațiile precum corectitudinea, siguranța și performanța și impactul sunt adesea importante, deoarece indivizii doresc să fie liniștiți cu privire la siguranța deciziei, să aibă încredere că sunt tratați în mod corect și să înțeleagă consecințele.
Cu toate acestea, explicațiile privind rațiunea și responsabilitatea pot fi la fel de importante în funcție de ceilalți factori contextuali. De exemplu, dacă caracteristicile datelor utilizate de modelul IA sunt schimbătoare sau dacă inferențele trase sunt deschise la interpretare și pot fi contestate.
Considerarea impactului ca factor contextual nu este simplă. Nu există o regulă strictă și rapidă. Ar trebui să o faceți de la caz la caz și să o luați în considerare în combinație cu toți ceilalți factori contextuali. De asemenea, ar trebui să implice un dialog incluziv în toate domeniile de expertiză care sunt implicate în proiectarea, dezvoltarea și implementarea sistemului de inteligență artificială. Reunirea diferiților membri ai echipei, care au expertiză tehnică, de politică, de conformitate și de domeniu, poate oferi o viziune mai bine informată asupra factorului de impact al unui model de IA.
Factorul date
Ce este acest factor?
„Datele” ca factor contextual se referă atât la datele utilizate pentru a antrena și testa modelul dvs. de IA, cât și la datele de intrare în momentul deciziei. Tipul de date utilizate de modelul dvs. de AI poate influența dorința unei persoane de a accepta sau de a contesta o decizie asistată de AI, precum și acțiunile pe care le întreprinde în consecință.
Acest factor sugerează că ar trebui să vă gândiți la natura datelor pe care modelul dvs. este antrenat și pe care le utilizează ca intrări pentru ieșirile sale atunci când este implementat. Ar trebui să vă gândiți dacă datele sunt biologice sau fizice (de exemplu, date biomedicale utilizate pentru cercetare și diagnosticare), sau dacă sunt date sociale despre caracteristicile demografice sau măsurători ale comportamentului uman.
De asemenea, ar trebui să vă gândiți dacă un individ poate schimba rezultatul unei decizii. Dacă factorii care intră în decizia dvs. sunt factori care pot fi influențați de modificări ale comportamentului sau ale stilului de viață al unei persoane, este mai probabil ca indivizii să dorească să facă aceste modificări dacă nu sunt de acord cu rezultatul.
De exemplu, dacă o decizie privind un împrumut bancar a fost luată pe baza activității financiare a unui client, clientul ar putea dori să își modifice comportamentul de cheltuieli pentru a schimba această decizie în viitor. Acest lucru va afecta tipul de explicație pe care o dorește o persoană. Cu toate acestea, în cazul în care datele sunt mai puțin flexibile, cum ar fi datele biofizice, va fi mai puțin probabil ca o persoană să nu fie de acord cu rezultatul sistemului de IA. De exemplu, în domeniul sănătății, un rezultat produs de un sistem de inteligență artificială privind un diagnostic sugerat pe baza datelor genetice despre un pacient este mai „fix” – acesta nu este un lucru pe care pacientul îl poate schimba cu ușurință.
Ce explicații ar trebui să prioritizăm?
De multe ori va fi util să prioritizăm explicația rațională, atât pentru datele sociale, cât și pentru datele biofizice. În cazul în care se utilizează date sociale, persoanele care primesc o decizie nefavorabilă pot înțelege raționamentul și pot învăța din aceasta pentru a-și adapta în mod corespunzător comportamentul pentru deciziile viitoare. În cazul datelor biofizice, acest lucru poate ajuta persoanele să înțeleagă de ce s-a luat o decizie în ceea ce le privește.
Cu toate acestea, în cazul în care se utilizează date biofizice, cum ar fi în cazul diagnosticelor medicale, persoanele pot prefera să știe pur și simplu ce înseamnă rezultatul deciziei pentru ele și să fie reasigurate cu privire la siguranța și fiabilitatea deciziei. În aceste cazuri, este logic să se acorde prioritate explicațiilor privind impactul și siguranța și performanța pentru a satisface aceste nevoi.
Pe de altă parte, în cazul în care natura datelor este socială sau subiectivă, este mai probabil ca indivizii să aibă preocupări cu privire la ce date au fost luate în considerare pentru luarea deciziei și la caracterul adecvat sau echitabil al acestora în influențarea unei decizii asistate de IA cu privire la ei. În aceste circumstanțe, explicațiile privind datele și corectitudinea vor contribui la soluționarea acestor preocupări, spunând persoanelor care au fost datele de intrare, de unde provin și ce măsuri ați pus în aplicare pentru a vă asigura că utilizarea acestor date pentru a lua decizii asistate de IA nu duce la prejudecăți sau discriminare.
Factorul „urgență”
Ce este acest factor?
Factorul „urgență” se referă la importanța de a primi sau de a acționa în urma rezultatului unei decizii asistate de IA într-un interval de timp scurt. Ceea ce oamenii doresc să știe despre o decizie se poate schimba în funcție de cât de puțin sau de mult timp au la dispoziție pentru a reflecta asupra acesteia.
Factorul „urgență” vă recomandă să vă gândiți la cât de urgentă este decizia asistată de IA. Gândiți-vă dacă un anumit curs de acțiune este sau nu este adesea necesar după tipul de decizii pe care le luați și cât de repede trebuie să întreprindeți acea acțiune.
Ce explicații ar trebui să prioritizăm?
Dacă urgența este un factor cheie, este mai probabil ca indivizii să dorească să știe care sunt consecințele pentru ei și să fie reasigurați că modelul de IA care ajută la luarea deciziei este sigur și fiabil. Prin urmare, explicațiile privind impactul și siguranța și performanța sunt adecvate în aceste cazuri. Acest lucru se datorează faptului că aceste explicații îi vor ajuta pe indivizi să înțeleagă modul în care decizia îi afectează, ce se întâmplă în continuare și ce măsuri și teste au fost implementate pentru a maximiza și monitoriza siguranța și performanța modelului IA.
Factorul audiență
Ce este acest factor?
„Audiența”, ca factor contextual, se referă la indivizii cărora le explicați o decizie asistată de IA. Grupurile de persoane cu privire la care luați decizii și indivizii din cadrul acestor grupuri au un efect asupra tipului de explicații care sunt semnificative sau utile pentru ei.
Ce nivel de expertiză (de exemplu, despre IA) au aceștia cu privire la ceea ce reprezintă decizia? Există o gamă largă de persoane care fac obiectul deciziilor pe care le luați (de exemplu, publicul larg din Regatul Unit), ceea ce indică faptul că ar putea exista, de asemenea, o gamă largă de cunoștințe sau expertiză? Sau persoanele cu privire la care luați decizii sunt limitate la un subset mai mic (de exemplu, angajații dumneavoastră), ceea ce sugerează că acestea ar putea fi mai bine informate cu privire la aspectele asupra cărora luați decizii? Luați în considerare, de asemenea, dacă destinatarii deciziilor au nevoie de ajustări rezonabile în ceea ce privește modul în care primesc explicația (Legea privind egalitatea din 2010).
Ca regulă generală, este o idee bună să se țină seama de nevoile de explicații ale persoanelor cele mai vulnerabile. Ar trebui să vă asigurați că acești destinatari ai deciziei sunt capabili să înțeleagă clar informațiile pe care le oferiți. Utilizarea unui limbaj simplu, non-tehnic și a unor instrumente de vizualizare, acolo unde este posibil, poate fi adesea de ajutor.
Rețineți, de asemenea, că, deși ne concentrăm asupra destinatarului deciziei, este posibil să trebuiască să vă gândiți în mod semnificativ și la modul în care veți furniza altor categorii de public informații adecvate despre rezultatele modelului dvs. de inteligență artificială. De exemplu, în cazurile în care modelele sprijină procesul de luare a deciziilor, va trebui să le oferiți utilizatorilor finali sau celor care implementează aceste modele o profunzime și un nivel de explicații adecvate pentru a-i ajuta să efectueze un raționament bazat pe dovezi într-un mod care să țină cont de context și să fie conștienți de limitările modelului. De asemenea, în cazurile în care modelele și rezultatele acestora sunt revizuite de auditori, va trebui să furnizați informații despre aceste sisteme la un nivel și o profunzime adecvate scopului revizuirii relevante.
Ce explicații ar trebui să prioritizăm?
Dacă persoanele cu privire la care luați decizii asistate de inteligență artificială sunt susceptibile de a avea o anumită expertiză în domeniu, ați putea lua în considerare utilizarea explicației raționale. Acest lucru se datorează faptului că puteți fi mai încrezător că aceștia pot înțelege raționamentul și logica unui model de IA sau a unei anumite decizii, deoarece sunt mai familiarizați cu subiectul deciziilor. În plus, în cazul în care persoanele care fac obiectul deciziilor dumneavoastră asistate de IA au o anumită expertiză tehnică sau este probabil să fie interesate de detaliile tehnice care stau la baza deciziei, explicația privind siguranța și performanța va fi de ajutor.
În mod alternativ, în cazul în care credeți că este probabil ca persoanele să nu aibă o expertiză sau cunoștințe specifice nici cu privire la subiectul deciziei, nici cu privire la aspectele tehnice ale acesteia, alte tipuri de explicații, cum ar fi responsabilitatea sau anumite aspecte ale explicației privind siguranța și performanța pot fi mai utile. Aceasta pentru ca oamenii să poată fi liniștiți cu privire la siguranța sistemului și să știe pe cine să contacteze pentru a întreba despre o decizie privind IA.
Desigur, chiar și pentru cei care au puține cunoștințe într-un domeniu, explicația rațională poate fi în continuare utilă pentru a explica motivele pentru care a fost luată o decizie în termeni simpli și clari. Dar pot exista, de asemenea, ocazii în care datele utilizate și inferențele trase de un model de IA sunt deosebit de complexe (a se vedea factorul „date” de mai sus), iar persoanele ar prefera să delege explicația rațională unui expert în domeniu relevant. Expertul poate apoi să analizeze și să ajungă la propriile concluzii în cunoștință de cauză cu privire la validitatea sau caracterul adecvat al motivelor care stau la baza deciziei (de exemplu, un medic într-un cadru medical).