Melyek a kontextuális tényezők?

Egy pillantás

Öt kontextuális tényező van hatással arra, hogy az egyén milyen célra kívánja használni a magyarázatot, és arra, hogy hogyan kell a magyarázatot átadni:

  • terület, ahol dolgozik;
  • hatás az egyénre;
  • használt adatok;
  • a döntés sürgőssége; és
  • közönség, amelynek bemutatják.

Bővebben

  • Bevezetés a kontextuális tényezőkhöz
  • Domain factor
  • Impact factor
  • Data factor
  • Urgency factor
  • Audience factor

Introduction

When constructing an explanation for an individual, számos tényezőt kell figyelembe venni azzal kapcsolatban, hogy milyen kontextusban születik egy mesterséges intelligencia által támogatott döntés. Ezek hatással vannak arra, hogy az emberek milyen típusú magyarázatot találnak hasznosnak, és milyen célokra kívánják azt használni.

Az általunk végzett primer kutatásból, különösen a nyilvánosság tagjainak bevonásával, öt kulcsfontosságú kontextuális tényezőt azonosítottunk, amelyek befolyásolják, hogy az emberek miért kívánnak magyarázatot az AI-alapú döntésekhez. Ezeket a kontextuális tényezőket az alábbiakban ismertetjük, valamint javaslatokat teszünk arra vonatkozóan, hogy mely magyarázatokat kell előnyben részesíteni az AI-alapú döntések magyarázatának megadásakor. Ezeket a tényezőket az ezen útmutató 2. részében vázolt folyamat minden szakaszában figyelembe kell vennie.

Az említett kontextuális tényezők mérlegelésekor tartsa szem előtt, hogy a döntések címzettjeinek nyújtott magyarázatok az AI-rendszerekről is felvilágosítják őket. Ezért érdemes lehet elgondolkodni azon, hogy a feldolgozás előtt milyen tájékoztatást tud nyújtani annak érdekében, hogy elősegítse a nagyközönség körében az AI alkalmazásával kapcsolatos ismeretek és megértés kialakulását.

Tartományi tényező

Mi ez a tényező?

A “tartomány” alatt azt a környezetet vagy ágazatot értjük, amelyben az AI-modellt az emberekkel kapcsolatos döntések meghozatalának elősegítésére alkalmazza. Ez befolyásolhatja az emberek által kívánt magyarázatokat. Például az, hogy az emberek mit akarnak tudni a bűnügyi igazságszolgáltatás területén hozott, mesterséges intelligenciával támogatott döntésekről, jelentősen eltérhet más területektől, például az egészségügytől.

Azonképpen a terület- vagy ágazatspecifikus magyarázati szabványok is befolyásolhatják, hogy az emberek mit várnak el egy magyarázattól. Például az a személy, aki mesterséges intelligenciával támogatott jelzáloghitel-ügyben hozott döntést kap, elvárja, hogy a döntés indoklását a bevett hitelezési szabványoknak és gyakorlatnak megfelelő módon ismerje meg.

Mely magyarázatokat helyezzük előtérbe?

A területi tényező figyelembevétele talán a legfontosabb meghatározója annak, hogy az érintettekkel való kommunikáció során milyen magyarázatokat kell beépítenünk és előnyben részesítenünk. Ha az Ön mesterséges intelligencia rendszere biztonságkritikus környezetben működik, a döntések címzettjei nyilvánvalóan megfelelő biztonsági és teljesítménymagyarázatokat szeretnének. Ha azonban az Ön rendszere olyan területen működik, ahol az elfogultsággal és diszkriminációval kapcsolatos aggályok dominálnak, akkor valószínűleg méltányossági magyarázatot fognak kérni.

Az alacsonyabb tétű területeken, mint például az e-kereskedelem, nem valószínű, hogy az emberek átfogó magyarázatot akarnak vagy várnak az ajánlórendszerek kimeneteinek biztonságára és teljesítményére vonatkozóan. Mégis, ezeken a kisebb hatású területeken is el kell magyaráznia minden olyan döntési rendszer alapvető indoklását és felelősségi összetevőit (valamint minden más releváns magyarázattípust), amely hatással van az emberekre.

Például az olyan “kis” hatású alkalmazások, mint a termékajánlások és a személyre szabás (pl. reklám vagy tartalom), érzékeny kérdéseket vethetnek fel bizonyos demográfiai csoportok megcélzása vagy mások figyelmen kívül hagyása (pl. a férfiaknak szánt vezetői szerepek hirdetése) kapcsán. Ezek nyilvánvalóan felvetik a méltányosság és a társadalomra gyakorolt hatás kérdéseit, ami növeli az e kérdésekkel foglalkozó magyarázatok fontosságát.

Hatásfaktor

Mi ez a tényező?

A “hatásfaktor” arról szól, hogy egy AI által támogatott döntés milyen hatással lehet az egyénre és a szélesebb társadalomra. A különböző súlyossági szintek és a hatás különböző típusai megváltoztathatják, hogy az emberek milyen magyarázatokat tartanak hasznosnak, és milyen célt szolgál a magyarázat.

A döntések biztonságkritikusak, élet-halál helyzetekkel kapcsolatosak (leggyakrabban az egészségügy területén)? A döntések befolyásolják valakinek a szabadságát vagy jogi státuszát? A döntés hatása kevésbé súlyos, de még mindig jelentős (pl. egy hasznosság megtagadása vagy egy politikai üzenet célba juttatása)? Vagy a hatás triviálisabb (pl. a reptéri sorokat rendező mesterséges intelligenciarendszer egy adott jegypénztárhoz irányít)?

Mely magyarázatokat kell előnyben részesítenünk?

Ahol egy mesterséges intelligenciával támogatott döntésnek nagy hatása van az egyénre, ott gyakran fontosak az olyan magyarázatok, mint a méltányosság, a biztonság és a teljesítmény, valamint a hatás, mert az egyének szeretnének megnyugodni a döntés biztonságáról, bízni abban, hogy méltányosan bánnak velük, és megérteni a következményeket.

Az indoklás és a felelősség magyarázata azonban ugyanolyan fontos lehet a többi kontextuális tényezőtől függően. Például ha a mesterséges intelligencia modell által használt adatok jellemzői megváltoztathatók, vagy a levont következtetések értelmezhetők és megkérdőjelezhetők.

A hatás mint kontextuális tényező figyelembevétele nem egyszerű. Nincs kemény és gyors szabály. Ezt eseti alapon kell megtenni, és az összes többi kontextuális tényezővel együtt kell figyelembe venni. Ez magában foglalja a mesterséges intelligencia rendszer tervezésében, fejlesztésében és bevezetésében részt vevő szakterületek átfogó párbeszédét is. A csapat különböző, műszaki, szakpolitikai, megfelelési és területi szakértelemmel rendelkező tagjainak összehívása megalapozottabb képet adhat egy mesterséges intelligenciamodell hatásfaktoráról.

Adattényező

Mi ez a tényező?

Az “adat” mint kontextuális tényező mind a mesterséges intelligenciamodell képzéséhez és teszteléséhez használt adatokra, mind pedig a döntés időpontjában a bemeneti adatokra vonatkozik. Az Ön AI-modellje által használt adatok típusa befolyásolhatja az egyén hajlandóságát arra, hogy elfogadja vagy megtámadja az AI által támogatott döntést, és az ennek eredményeként végrehajtott cselekvéseket.

Ez a tényező azt sugallja, hogy át kell gondolnia, hogy milyen jellegű adatokon képzik ki a modelljét, és milyen adatokat használ bemenetként a kimeneteihez, amikor azt bevetik. Meg kell fontolnia, hogy az adatok biológiai vagy fizikai jellegűek-e (pl. a kutatáshoz és diagnosztikához használt orvosbiológiai adatok), vagy pedig demográfiai jellemzőkkel vagy az emberi viselkedés méréseivel kapcsolatos társadalmi adatok.

Azt is meg kell fontolnia, hogy az egyén megváltoztathatja-e a döntés eredményét. Ha a döntését befolyásoló tényezők olyanok, amelyek befolyásolhatók valaki viselkedésének vagy életmódjának megváltoztatásával, akkor valószínűbb, hogy az egyének ezeket a változtatásokat meg akarják tenni, ha nem értenek egyet az eredménnyel.

Ha például egy banki hitelről szóló döntés az ügyfél pénzügyi tevékenysége alapján született, az ügyfél megváltoztathatja költési magatartását, hogy a jövőben megváltoztassa a döntést. Ez befolyásolja, hogy az egyén milyen típusú magyarázatot szeretne. Ha azonban az adatok kevésbé rugalmasak, mint például a biofizikai adatok, akkor kevésbé valószínű, hogy az egyén nem ért egyet a mesterséges intelligencia rendszer kimenetével. Az egészségügyben például egy AI-rendszer által a páciens genetikai adatai alapján javasolt diagnózisról készített kimenet sokkal “fixebb” – ezt a páciens nem tudja könnyen megváltoztatni.

Mely magyarázatokat helyezzük előtérbe?

A szociális adatok és a biofizikai adatok esetében is gyakran hasznos lesz az ésszerű magyarázatot előtérbe helyezni. A szociális adatok használata esetén a kedvezőtlen döntést kapó egyének megérthetik az indoklást, és tanulhatnak belőle, hogy a jövőbeni döntéseikhez megfelelően igazítsák viselkedésüket. A biofizikai adatok esetében ez segíthet az embereknek megérteni, hogy miért hoztak róluk döntést.

Ahol azonban biofizikai adatokat használnak, például orvosi diagnózisok esetében, az egyének jobban szeretik, ha egyszerűen csak tudják, hogy a döntés eredménye mit jelent számukra, és megnyugtatást kapnak a döntés biztonságáról és megbízhatóságáról. Ezekben az esetekben célszerű a hatásra, valamint a biztonságra és a teljesítményre vonatkozó magyarázatokat előtérbe helyezni, hogy kielégítsék ezeket az igényeket.

Másrészt, ha az adatok jellege szociális vagy szubjektív, az egyéneknek nagyobb valószínűséggel vannak aggályaik azzal kapcsolatban, hogy milyen adatokat vettek figyelembe a döntés során, és hogy ez alkalmas vagy tisztességes-e arra, hogy befolyásolja a róluk szóló, mesterséges intelligenciával támogatott döntést. Ilyen körülmények között az adatokra és a méltányosságra vonatkozó magyarázatok segítenek eloszlatni ezeket az aggályokat azáltal, hogy elmondják az embereknek, hogy milyen adatokat használtak fel, honnan származnak, és milyen intézkedéseket hoztak annak biztosítására, hogy ezen adatok mesterséges intelligenciával támogatott döntések meghozatalához való felhasználása ne eredményezzen elfogultságot vagy megkülönböztetést.

Sürgősségi tényező

Mi ez a tényező?

A “sürgősségi” tényező arra vonatkozik, hogy fontos-e rövid időn belül megkapni egy mesterséges intelligenciával támogatott döntés eredményét, vagy annak alapján cselekedni. Az, hogy az emberek mit szeretnének tudni egy döntésről, változhat attól függően, hogy milyen kevés vagy sok idejük van a döntés átgondolására.

A sürgősségi tényező azt javasolja, hogy gondolja át, mennyire sürgős a mesterséges intelligenciával támogatott döntés. Gondolja végig, hogy az Ön által hozott típusú döntések után gyakran szükség van-e egy adott intézkedésre, és milyen gyorsan kell meghozni az adott intézkedést.

Mely magyarázatokat helyezzük előtérbe?

Ahol a sürgősség kulcsfontosságú tényező, ott az egyének valószínűleg inkább azt szeretnék tudni, hogy milyen következményekkel jár ez rájuk nézve, és hogy megnyugtatást kapjanak arról, hogy a döntés meghozatalában segítő AI-modell biztonságos és megbízható. Ezért ezekben az esetekben a hatás, valamint a biztonság és a teljesítmény magyarázata megfelelő. Ezek a magyarázatok ugyanis segítenek az egyéneknek megérteni, hogyan hat rájuk a döntés, mi történik ezután, és milyen intézkedéseket és teszteket hajtottak végre a mesterséges intelligencia modell biztonságának és teljesítményének maximalizálása és ellenőrzése érdekében.

A közönség tényező

Mi ez a tényező?

A “közönség” mint kontextuális tényező azokra az egyénekre vonatkozik, akiknek elmagyarázza a mesterséges intelligenciával támogatott döntést. Az embercsoportok, amelyekről döntést hozol, és az e csoportokon belüli egyének hatással vannak arra, hogy milyen típusú magyarázatok értelmesek vagy hasznosak számukra.

Milyen szintű szakértelemmel rendelkeznek (pl. az AI-ról) arról, hogy miről szól a döntés? Az emberek széles körét érintik az Ön által hozott döntések (pl. az Egyesült Királyság nagyközönsége), ami arra utal, hogy a tudás vagy a szakértelem is széles körű lehet? Vagy az emberek, akikről döntéseket hoz, egy szűkebb részhalmazra korlátozódnak (pl. az alkalmazottai), ami arra utal, hogy ők tájékozottabbak lehetnek azokról a dolgokról, amelyekről döntéseket hoz? Azt is mérlegelje, hogy a döntés címzettjeinek szükségük van-e ésszerű kiigazításokra abban, ahogyan a magyarázatot kapják (Egyenlőségi törvény 2010).

Általános szabályként érdemes figyelembe venni a legkiszolgáltatottabb személyek magyarázati igényeit. Biztosítania kell, hogy ezek a döntés címzettjei képesek legyenek egyértelműen megérteni az Ön által adott információkat. Az egyszerű, nem technikai nyelvezet és lehetőség szerint vizualizációs eszközök használata gyakran segíthet.

Megjegyezzük azt is, hogy bár a döntés címzettjére összpontosítunk, valószínűleg Önnek is jelentős előrelátást kell fordítania arra, hogy más célközönségeket hogyan fog megfelelően tájékoztatni az Ön mesterséges intelligenciamodelljének kimeneteiről. Például azokban az esetekben, amikor a modellek a döntéshozatalt támogatják, olyan mélységű és szintű magyarázattal kell ellátnia e modellek végfelhasználóit vagy alkalmazóit, amely megfelelő ahhoz, hogy segítse őket a bizonyítékokon alapuló érvelés elvégzésében, a kontextust figyelembe vevő módon és a modell korlátainak tudatában. Hasonlóképpen, azokban az esetekben, amikor a modelleket és eredményeiket könyvvizsgálók vizsgálják felül, olyan szintű és mélységű tájékoztatást kell nyújtania ezekről a rendszerekről, amely megfelel az adott felülvizsgálat céljának.

Mely magyarázatokat részesítsük előnyben?

Ha azok az emberek, akikről AI-alapú döntéseket hoz, valószínűleg rendelkeznek némi szakterületi szakértelemmel, megfontolandó az indoklással kapcsolatos magyarázat használata. Ennek oka, hogy biztosabb lehet abban, hogy megértik az AI-modell vagy egy adott döntés érvelését és logikáját, mivel jobban ismerik a döntések témáját. Továbbá, ha az Ön mesterséges intelligenciával támogatott döntéseinek alanyai rendelkeznek némi műszaki szakértelemmel, vagy valószínűleg érdeklődnek a döntés alapjául szolgáló műszaki részletek iránt, akkor a biztonság és teljesítmény magyarázata segíthet.

Ahol viszont Ön szerint valószínű, hogy az emberek nem rendelkeznek semmilyen különleges szakértelemmel vagy ismerettel sem a döntés témáját, sem annak műszaki aspektusait illetően, ott más típusú magyarázatok, például a felelősség, vagy a biztonság és teljesítmény magyarázatának egyes aspektusai hasznosabbak lehetnek. Ez azért van, hogy az emberek megnyugodhassanak a rendszer biztonságát illetően, és tudják, hogy kihez forduljanak, ha egy mesterséges intelligenciával kapcsolatos döntéssel kapcsolatban kérdezhetnek.

Természetesen még azok számára is hasznos lehet az indoklással kapcsolatos magyarázat, akik kevés ismerettel rendelkeznek egy adott területről, hogy egyszerű és világos megfogalmazásban elmagyarázzák, miért hoztak egy döntést. Előfordulhatnak azonban olyan esetek is, amikor a felhasznált adatok és a mesterséges intelligencia modell által levont következtetések különösen összetettek (lásd a fenti “adat” tényezőt), és az egyének az indoklás magyarázatát inkább egy megfelelő terület szakértőjére bíznák. A szakértő ezután felülvizsgálhatja a döntést, és saját megalapozott következtetéseket vonhat le a döntés indoklásának érvényességéről vagy alkalmasságáról (pl. egy orvos egy egészségügyi intézményben).

Vélemény, hozzászólás?

Az e-mail-címet nem tesszük közzé.