Op et øjeblik
Fem kontekstuelle faktorer har indflydelse på det formål, som en person ønsker at bruge en forklaring til, og på, hvordan du skal levere din forklaring:
- Det område, du arbejder inden for;
- påvirkning af personen;
- de anvendte data;
- beslutningens hastende karakter;
- og
- den målgruppe, som den bliver præsenteret for.
Nærmere
- Introduktion til de kontekstuelle faktorer
- Domænefaktor
- Indflydelsesfaktor
- Datafaktor
- Urgency-faktor
- Publikumsfaktor
Introduktion
Når man konstruerer en forklaring for et individ, er der flere faktorer om den kontekst, en AI-assisteret beslutning er truffet i. Disse har en indvirkning på den type forklaring, som folk vil finde nyttig, og de formål, som de ønsker at bruge den til.
Fra den primære forskning, vi gennemførte, især med medlemmer af offentligheden, identificerede vi fem centrale kontekstuelle faktorer, der påvirker, hvorfor folk ønsker forklaringer på AI-assisterede beslutninger. Disse kontekstuelle faktorer er anført nedenfor sammen med forslag til, hvilke forklaringer der skal prioriteres ved levering af en forklaring på en AI-assisteret beslutning. Du bør overveje disse faktorer i alle faser af den proces, der er skitseret i del 2 af denne vejledning.
Når du overvejer disse kontekstuelle faktorer, skal du huske på, at når du giver forklaringer til beslutningsmodtagerne, vil du også uddanne dem om AI-systemer. Det kan derfor være værd at overveje, hvilke oplysninger du kan give forud for behandlingen for at bidrage til at udvikle viden om og forståelse af AI-anvendelse blandt den brede offentlighed.
Domænefaktor
Hvad er denne faktor?
Med “domæne” mener vi den indstilling eller den sektor, som du anvender din AI-model i for at hjælpe dig med at træffe beslutninger om mennesker. Dette kan påvirke de forklaringer, som folk ønsker. For eksempel kan det, som folk ønsker at vide om AI-assisterede beslutninger, der træffes inden for det strafferetlige område, være meget forskelligt fra andre områder som f.eks. sundhedsvæsenet.
Sådan kan domæne- eller sektorspecifikke forklaringsstandarder ligeledes påvirke, hvad folk forventer af en forklaring. F.eks. vil en person, der modtager en AI-assisteret afgørelse om et realkreditlån, forvente at få kendskab til begrundelsen bag afgørelsen på en måde, der svarer til etablerede udlånsstandarder og -praksis.
Hvilke forklaringer skal vi prioritere?
Det er måske mest afgørende for, hvilke forklaringer du bør medtage og prioritere, når du kommunikerer med berørte personer, at du tager hensyn til domænefaktoren. Hvis dit AI-system fungerer i et sikkerhedskritisk miljø, vil beslutningsmodtagerne naturligvis ønske passende forklaringer om sikkerhed og ydeevne. Hvis dit system imidlertid fungerer inden for et område, hvor der er udbredt bekymring for fordomme og diskrimination, vil de sandsynligvis ønske, at du giver en retfærdighedsforklaring.
I områder med lavere indsatsområder som f.eks. e-handel er det usandsynligt, at folk vil ønske eller forvente omfattende forklaringer om sikkerhed og ydeevne i forbindelse med anbefalingssystemers output. Alligevel bør du i disse områder med lavere konsekvenser forklare det grundlæggende rationale og ansvarskomponenterne (samt alle andre relevante forklaringstyper) i ethvert beslutningssystem, der påvirker mennesker.
For eksempel kan applikationer med “lav” indvirkning, såsom produktanbefalinger og personalisering (f.eks. af reklamer eller indhold), give anledning til følsomheder omkring målretning af bestemte demografiske grupper eller ignorering af andre (f.eks. reklame for lederroller, der er rettet mod mænd). Dette rejser indlysende spørgsmål om retfærdighed og indvirkning på samfundet, hvilket øger betydningen af forklaringer, der behandler disse spørgsmål.
Virkningsfaktor
Hvad er denne faktor?
“Virkningsfaktoren” handler om den effekt, som en AI-assisteret beslutning kan have på den enkelte og samfundet som helhed. Forskellige grader af alvorlighed og forskellige typer af indvirkning kan ændre, hvilke forklaringer folk vil finde nyttige, og hvilket formål forklaringen tjener.
Er beslutningerne sikkerhedskritiske og vedrører situationer med liv eller død (oftest inden for sundhedsvæsenet)? Påvirker beslutningerne en persons frihed eller juridiske status? Er konsekvenserne af beslutningen mindre alvorlige, men stadig væsentlige (f.eks. nægtelse af en nytteværdi eller målretning af et politisk budskab)? Eller er virkningen mere triviel (f.eks. at blive henvist til en bestemt billetskranke af et AI-system, der sorterer køer i en lufthavn)?
Hvilke forklaringer skal vi prioritere?
Generelt er forklaringer som f.eks. retfærdighed, sikkerhed og præstation og virkning ofte vigtige, når en AI-assisteret beslutning har stor betydning for den enkelte, fordi den enkelte ønsker at blive beroliget med hensyn til beslutningens sikkerhed, at have tillid til, at han/hun bliver behandlet retfærdigt, og at forstå konsekvenserne.
Forklaringer om rationale og ansvar kan imidlertid være lige så vigtige afhængigt af de andre kontekstuelle faktorer. For eksempel hvis egenskaberne ved de data, der anvendes af AI-modellen, er foranderlige, eller hvis de konklusioner, der drages, er åbne for fortolkning og kan anfægtes.
Det er ikke ligetil at betragte påvirkning som en kontekstuel faktor. Der findes ingen faste regler. Man bør gøre det fra sag til sag og overveje det i kombination med alle de andre kontekstuelle faktorer. Det bør også omfatte en omfattende dialog på tværs af de ekspertiseområder, der er involveret i design, udvikling og implementering af AI-systemet. Ved at samle forskellige teammedlemmer, der har teknisk, politisk, compliance- og domæneekspertise, kan man få et mere informeret syn på konsekvensfaktoren for en AI-model.
Datafaktor
Hvad er denne faktor?
“Data” som en kontekstuel faktor vedrører både de data, der bruges til at træne og teste din AI-model, og de inputdata, der anvendes på det tidspunkt, hvor beslutningen træffes. Den type data, som din AI-model anvender, kan påvirke en persons vilje til at acceptere eller anfægte en AI-assisteret beslutning og de handlinger, de foretager som følge heraf.
Denne faktor antyder, at du bør tænke over arten af de data, som din model trænes på og anvender som input til dens output, når den implementeres. Du bør overveje, om dataene er biologiske eller fysiske (f.eks. biomedicinske data, der anvendes til forskning og diagnostik), eller om det er sociale data om demografiske karakteristika eller målinger af menneskelig adfærd.
Du bør også overveje, om en person kan ændre resultatet af en beslutning. Hvis de faktorer, der indgår i din beslutning, er faktorer, der kan påvirkes af ændringer i en persons adfærd eller livsstil, er det mere sandsynligt, at enkeltpersoner ønsker at foretage disse ændringer, hvis de ikke er enige i resultatet.
Hvis en beslutning om et banklån f.eks. blev truffet på baggrund af en kundes finansielle aktivitet, kan kunden måske ønske at ændre sin forbrugsadfærd for at ændre denne beslutning i fremtiden. Dette vil påvirke den type forklaring, som en person ønsker. Hvis dataene imidlertid er mindre fleksible, f.eks. biofysiske data, vil det være mindre sandsynligt, at en person vil være uenig med AI-systemets output. For eksempel inden for sundhedssektoren er et output, der produceres af et AI-system om en foreslået diagnose baseret på genetiske data om en patient, mere “fastlåst” – det er ikke noget, som patienten let kan ændre.
Hvilke forklaringer skal vi prioritere?
Det vil ofte være nyttigt at prioritere den rationelle forklaring, både for sociale data og biofysiske data. Når der anvendes sociale data, kan personer, der modtager en ugunstig afgørelse, forstå begrundelsen og lære af denne for at tilpasse deres adfærd på passende vis i forbindelse med fremtidige afgørelser. For biofysiske data kan dette hjælpe folk til at forstå, hvorfor der er truffet en beslutning om dem.
Hvor biofysiske data anvendes, f.eks. i forbindelse med medicinske diagnoser, kan enkeltpersoner imidlertid foretrække blot at vide, hvad beslutningsresultatet betyder for dem, og at blive beroliget med hensyn til beslutningens sikkerhed og pålidelighed. I disse tilfælde giver det mening at prioritere konsekvens-, sikkerheds- og præstationsforklaringer for at opfylde disse behov.
På den anden side, hvor dataenes art er af social eller subjektiv karakter, er det mere sandsynligt, at enkeltpersoner vil være bekymrede over, hvilke data der blev taget i betragtning ved afgørelsen, og om det er hensigtsmæssigt eller retfærdigt, at dette har indflydelse på en AI-assisteret afgørelse om dem. Under disse omstændigheder vil forklaringerne om data og retfærdighed bidrage til at imødegå disse bekymringer ved at fortælle folk, hvilke inputdata der blev anvendt, hvor de kom fra, og hvilke foranstaltninger I har truffet for at sikre, at brugen af disse data til at træffe AI-assisterede beslutninger ikke resulterer i fordomme eller forskelsbehandling.
Hastefaktor
Hvad er denne faktor?
Den “hastefaktor” vedrører vigtigheden af at modtage eller handle på resultatet af en AI-assisteret beslutning inden for en kort tidsramme. Hvad folk ønsker at vide om en beslutning kan ændre sig afhængigt af, hvor lidt eller meget tid de har til at reflektere over den.
Den hastende faktor anbefaler, at man tænker over, hvor presserende den AI-assisterede beslutning er. Tænk over, om en bestemt handling ofte er nødvendig efter den type beslutninger, du træffer, og hvor hurtigt du har brug for at træffe den pågældende handling.
Hvilke forklaringer skal vi prioritere?
Hvor det haster, er det mere sandsynligt, at enkeltpersoner ønsker at vide, hvad konsekvenserne er for dem, og at blive beroliget med, at den AI-model, der hjælper med at træffe beslutningen, er sikker og pålidelig. Derfor er forklaringerne om konsekvenser og sikkerhed og ydeevne egnede i disse tilfælde. Det skyldes, at disse forklaringer vil hjælpe enkeltpersoner med at forstå, hvordan beslutningen påvirker dem, hvad der sker derefter, og hvilke foranstaltninger og test, der blev gennemført for at maksimere og overvåge AI-modellens sikkerhed og ydeevne.
Publikumsfaktor
Hvad er denne faktor?
“Publikum” som en kontekstuel faktor handler om de personer, som du forklarer en AI-assisteret beslutning til. De grupper af mennesker, du træffer beslutninger om, og individerne inden for disse grupper har en effekt på, hvilken type forklaringer der er meningsfulde eller nyttige for dem.
Hvilket niveau af ekspertise (f.eks. om AI) har de om, hvad beslutningen handler om? Er en bred vifte af mennesker underlagt de beslutninger, du træffer (f.eks. den britiske offentlighed), hvilket tyder på, at der også kan være en bred vifte af viden eller ekspertise? Eller er de personer, som du træffer beslutninger om, begrænset til en mindre delmængde (f.eks. dine ansatte), hvilket tyder på, at de måske er bedre informeret om de ting, som du træffer beslutninger om? Overvej også, om beslutningsmodtagerne har brug for rimelige tilpasninger i forhold til, hvordan de modtager forklaringen (Equality Act 2010).
Som en generel regel er det en god idé at imødekomme de mest sårbare personers behov for forklaringer. Du bør sikre, at disse beslutningsmodtagere er i stand til klart at forstå de oplysninger, som du giver dem. Det kan ofte være en hjælp at bruge et klart, ikke-teknisk sprog og visualiseringsværktøjer, hvor det er muligt.
Bemærk også, at selv om vi fokuserer på beslutningsmodtageren, skal du sandsynligvis også gøre dig store overvejelser om, hvordan du vil give andre målgrupper passende oplysninger om resultaterne af din AI-model. I tilfælde, hvor modellerne støtter beslutningstagningen, skal du f.eks. give slutbrugerne eller dem, der implementerer disse modeller, en dybde og et niveau af forklaringer, der er passende for at hjælpe dem med at gennemføre evidensbaserede ræsonnementer på en måde, der er kontekstafhængig og opmærksom på modellens begrænsninger. På samme måde skal du i tilfælde, hvor modeller og deres resultater gennemgås af revisorer, give oplysninger om disse systemer på et niveau og en dybde, der er egnet til formålet med den relevante gennemgang.
Hvilke forklaringer skal vi prioritere?
Hvis de personer, som du træffer AI-assisterede beslutninger om, sandsynligvis har en vis domæneekspertise, kan du overveje at bruge den rationelle forklaring. Det skyldes, at du kan være mere sikker på, at de kan forstå ræsonnementet og logikken i en AI-model eller en bestemt beslutning, da de er mere fortrolige med emnet for beslutningerne. Hvis de personer, der er omfattet af dine AI-assisterede beslutninger, desuden har en vis teknisk ekspertise eller sandsynligvis vil være interesseret i de tekniske detaljer, der ligger til grund for beslutningen, vil forklaringen om sikkerhed og ydeevne være en hjælp.
Alternativt, hvor du mener, at det er sandsynligt, at personerne ikke vil have nogen specifik ekspertise eller viden om hverken beslutningens emne eller dens tekniske aspekter, kan andre forklaringstyper som f.eks. ansvar eller særlige aspekter af forklaringen om sikkerhed og ydeevne være mere nyttige. Dette er for at folk kan blive beroliget med hensyn til systemets sikkerhed og vide, hvem de skal kontakte for at spørge om en AI-beslutning.
Selvfølgelig kan begrundelsesforklaringen stadig være nyttig, selv for dem med ringe viden om et område, til at forklare årsagerne til, at en beslutning blev truffet i klare og enkle vendinger. Men der kan også være tilfælde, hvor de data, der anvendes, og de slutninger, der drages af en AI-model, er særligt komplekse (se faktoren “data” ovenfor), og hvor enkeltpersoner hellere vil uddelegere begrundelsesforklaringen til en relevant domæneekspert. Eksperten kan så gennemgå og drage sine egne informerede konklusioner om gyldigheden eller egnetheden af begrundelserne for beslutningen (f.eks. en læge i et sundhedsvæsen).