文脈的要因とは何か?

一目瞭然

5つの背景要因が、個人が説明を使用したい目的、および説明をどのように行うべきかに影響します:

  • 所属するドメイン、
  • 個人への影響、
  • 使用するデータ、
  • 決定の緊急性、
  • 説明を受ける人たちです。

In more detail

  • Introduction to the contextual factors
  • Domain factor
  • Impact factor
  • Data factor
  • Urgency factor
  • Audience factor

Introduction

When constructing a explanation for an individual.は、ある人物の説明を構築する際に、その人物に影響を与える要因について説明します。 AIが支援する意思決定が行われる背景には、いくつかの要因がある。 これらは、人々が有用と感じる説明の種類と、それを使用したい目的に影響を与える。

特に一般市民を対象に実施した一次調査から、人々がAIによる決定の説明を求める理由に影響を与える5つの主要な文脈的要因を特定した。 これらの背景的要因は、AI支援に関する説明を提供する際に優先すべき説明の提案とともに、以下に記載されています。 本ガイダンスのパート2に概説されているプロセスのすべての段階でこれらの要因を考慮する必要があります。

これらの文脈的要因を考慮する場合、決定を受ける人に説明を提供することは、AIシステムについての教育にもなることを念頭に置いてください。 したがって、一般市民の間でAI使用に関する知識と理解を深めるために、処理に先立って提供できる情報について考える価値があるかもしれません。

ドメイン要因

この要因は何ですか

「ドメイン」とは、人々に関する意思決定を支援するためにAIモデルを展開する設定または部門を意味しています。 これは、人々が求める説明に影響を与えることができます。 たとえば、刑事司法領域で行われる AI 支援の決定について人々が知りたいことは、ヘルスケアなどの他の領域と大きく異なる可能性があります。

同様に、領域または部門固有の説明基準は、人々が説明から何を期待するかに影響を与える可能性があります。 たとえば、AI による住宅ローンの決定を受けた人は、確立された融資基準や慣行に一致する方法で、決定の背後にある理由を知ることを期待します。

どの説明を優先すべきか?

領域要素を考慮することは、おそらく、影響を受ける個人とのコミュニケーションにおいてどの説明を含め、優先すべきかを決定する上で最も重要です。 AIシステムがセーフティクリティカルな環境で動作している場合、意思決定の受け手は明らかに適切な安全性とパフォーマンスの説明を望むでしょう。 しかし、システムが偏見や差別の懸念が蔓延している領域で動作している場合、彼らはあなたが公正な説明を提供することを望む可能性が高いです。

電子商取引などの利害関係の低い領域では、人々が推薦システムの出力の安全性と性能に関する広範な説明を求めたり期待することはまずないでしょう。

例えば、製品の推奨や(広告やコンテンツなどの)パーソナライズといった「低」インパクトのアプリケーションでは、特定の人口統計をターゲットにする、あるいは他を無視する(例えば、男性をターゲットにしたリーダーの役割を広告する)ことについて敏感さが生じる可能性があります。

インパクトファクター

このファクターは何ですか

「インパクト」ファクターとは、AIによる決定が個人およびより広い社会に与え得る影響についてのものです。 深刻さのレベルや影響の種類が異なると、人々がどのような説明を有用と感じるか、また説明が果たす目的も変わってきます。

決定は生死に関わる安全上重要なものですか (ヘルスケア領域で最もよく見られます)。 その決定は誰かの自由や法的地位に影響を与えるか。 決定の影響はそれほど深刻ではないが、それでも重大か(例:公共事業の拒否や政治的メッセージの標的化)。 それとも、より些細な影響か(例:空港の行列を整理するAIシステムによって特定のチケットカウンターに誘導される)

どの説明を優先すべきか?

一般に、AIによる決定が個人に高い影響を与える場合、公平性、安全性とパフォーマンス、影響などの説明が重要になることが多い。なぜなら、個人は決定の安全性について安心し、自分が公平に扱われていることを信頼し、結果を理解したいと思うからである

しかし、他のコンテキスト要因によっては、根拠と責任の説明も同様に重要である場合がある。 例えば、AIモデルで使用するデータの特徴が変更可能である場合や、導き出された推論が解釈の余地があり、異議を唱えられる可能性がある場合です。

文脈的要因として影響を考慮することは、簡単ではありません。 確固としたルールは存在しない。 ケースバイケースで行うべきであり、他のすべての文脈的要素との組み合わせで検討する必要がある。 また、AIシステムの設計、開発、導入に関わる専門分野を横断した包括的な対話が必要です。 技術、ポリシー、コンプライアンス、およびドメインの専門知識を持つ異なるチームメンバーを集めることで、AIモデルのインパクトファクターについて、より情報に基づいたビジョンを提供することができます」

Data factor

この要因は何ですか?

コンテキスト要因としての「データ」は、AIモデルの訓練とテストに使用するデータと、決定の時点での入力データの両方に関するものです。 AIモデルで使用されるデータの種類は、AIが支援する決定を受け入れるか異議を唱えるかの個人の意思、およびその結果取る行動に影響を与える可能性があります。

この要因は、モデルが訓練され、展開されるときにその出力の入力として使用するデータの性質について考えるべきことを示唆しています。 データが生物学的または物理的(例:研究および診断に使用される生物医学的データ)であるか、または人口統計学的特性または人間の行動の測定に関する社会的データであるかを検討する必要があります。

また、個人が決定の結果を変えることができるかどうかを検討する必要があります。 意思決定に入る要因が、誰かの行動やライフスタイルの変化によって影響され得るものである場合、結果に同意しない場合、個人がこれらの変更を望む可能性が高くなります。

例えば、銀行ローンの決定が顧客の財務活動に基づいて行われた場合、顧客は将来的にその決定を変更するために支出行動を変更したいと思うかもしれません。 これは、個人が望む説明の種類に影響します。 しかし、生物物理学的なデータなど、データの柔軟性が低い場合は、個人がAIシステムの出力に反対する可能性は低くなります。

どの説明を優先すべきか

社会的データと生物物理的データの両方で、根拠となる説明を優先することが有用な場合が多いでしょう。 社会的データが使用される場合、好ましくない決定を受けた個人はその理由を理解し、そこから学ぶことで将来の決定に対して適切に行動を適応させることができる。

しかし、医療診断のような生物物理学的データが用いられる場合、個人は単に決定結果が自分にとって何を意味するかを知り、決定の安全性と信頼性を再確認することを好むかもしれない。

一方、データの性質が社会的または主観的である場合、個人はどのデータが意思決定に考慮されたか、また自分に関するAI支援意思決定に影響を与える際の適切性または公平性について懸念を抱く可能性が高くなります。 このような状況では、データと公平性の説明により、入力データが何であるか、それがどこから来たか、また、AIによる決定にこのデータを使用しても偏見や差別につながらないことを保証するためにどのような手段を講じたかを伝えることで、これらの懸念に対処することが可能になります。 人々が決定について知りたいことは、それについて考える時間がどれだけ少ないか多いかによって変わる可能性があります。

緊急性の要因は、AIによる決定がどれだけ緊急かについて考えることを推奨しています。 3078>

どの説明を優先すべきか

緊急性が重要な要素である場合、個人が自分にとってどのような結果になるかを知りたいと思う可能性が高く、また意思決定に役立つAIモデルが安全で信頼できることを安心させたいと思う可能性が高くなります。 したがって、このような場合には、影響や安全性・性能に関する説明が適している。 なぜなら、これらの説明は、決定が彼らにどのように影響するか、次に何が起こるか、AIモデルの安全性と性能を最大化し監視するためにどのような対策とテストが実施されたかを個人が理解するのに役立つからです。

Audience factor

この要因とは?

文脈要因としての「オーディエンス」とは、AIによる決定を説明している個人を指します。 意思決定を行う人々のグループ、およびそのグループ内の個人は、彼らにとってどのような種類の説明が有意義または有用であるかに影響を与えます。

彼らは意思決定の内容について、(AI などの)専門知識のどのレベルを持っていますか。 広範な人々があなたの行う決定の対象になっており(例えば英国の一般市民)、それは広範な知識や専門知識がある可能性を示していますか? それとも、意思決定の対象となる人々は、より小さな部分集合(例えば従業員)に限定されていますか? また、意思決定の受け手が説明を受ける方法に合理的な調整を必要とするかどうかを検討してください(2010年平等法)

一般論として、最も弱い個人の説明ニーズに対応するのは良いアイデアです。 これらの意思決定の受け手が、あなたが与えている情報を明確に理解できるようにする必要があります。

意思決定の受け手に焦点を当てている間、AI モデルの出力に関する適切な情報を他のオーディエンスに提供する方法についても、かなりの熟考が必要である可能性があることにも留意してください。 例えば、モデルが意思決定を支援する場合、そのモデルのエンドユーザーや実施者に対して、文脈を考慮し、モデルの限界を認識した上で、根拠に基づく推論を行うことを支援するのに適した深さとレベルの説明を提供しなければならないでしょう。 同様に、モデルやその結果が監査人によってレビューされる場合、関連するレビューの目的に合ったレベルと深さで、これらのシステムに関する情報を提供しなければなりません。

どの説明を優先すべきですか?

AIによる決定を行う人々が何らかの領域の専門知識を持っていると考えられる場合、根拠の説明を使うことを検討してもよいでしょう。 これは、彼らが意思決定のトピックに精通しているため、AIモデル、または特定の意思決定の理由や論理を理解できると確信できるためです。 また、AI による決定の対象となる人々が何らかの技術的な専門知識を持っている場合、または決定を支える技術的な詳細に関心を持つ可能性がある場合、安全性と性能に関する説明が役立ちます。

あるいは、人々が決定のトピックまたはその技術面のいずれかについて特定の専門知識や技能を有していないと考えられる場合、責任などの他の説明タイプ、または安全性と性能に関する特定の側面がより役に立つ可能性があります。 これは、人々がシステムの安全性について安心し、AIの決定について誰に問い合わせればよいかを知るためです。

もちろん、ある分野の知識がほとんどない人にとっても、合理的な説明は、決定が行われた理由をわかりやすく簡単に説明するために有用です。 しかし、AIモデルが使用するデータや導き出す推論が特に複雑な場合(上記の「データ」の要素を参照)、個人はむしろ関連する領域の専門家に合理的な説明を委任することもあるかもしれません。 専門家は、意思決定の理由の妥当性や適切性について、十分な情報に基づいた結論を下すことができます(例:ヘルスケア環境における医師)。

コメントを残す

メールアドレスが公開されることはありません。