AI(人工知能)を活用したシステムは、私たちの生活や仕事の中で当たり前の存在になりつつあります。
しかし、AIが「なぜその判断をしたのか分からない」状態で使われることは、大きなリスクを伴います。
そこでISTQB AI Testerでは、
AIベースシステムに求められる品質特性として、次のテーマを重視しています。
-
透明性(Transparency)
-
解釈性(Interpretability)
-
説明可能性(Explainability)
-
安全性(Safety)
本記事では、これらの概念を初心者にも分かるように解説します。
AIに「透明性・解釈性・説明可能性」が求められる理由
AIベースシステムは、次のような分野で使われることが多くなっています。
-
医療(診断支援、治療方針の提案)
-
金融(与信判断、不正検知)
-
自動車(ADAS、自動運転)
-
音声アシスタント(Siri、Alexa、Google Assistant)
これらの分野では、
**「AIを信頼できるかどうか」**が極めて重要です。
その信頼を支えるのが、
透明性・解釈性・説明可能性という3つの考え方です。
ブラックボックス化するAIの問題点
多くのAIシステムは、ユーザーから見るとブラックボックスです。
例えば:
-
Siriがなぜその回答を出したのか分からない
-
レコメンド結果の根拠が示されない
-
開発者自身も内部挙動を完全に説明できない
このような状態では、
-
判断ミスが起きても原因が追えない
-
バイアス(偏り)が潜んでいても気づけない
-
規制当局や利用者が納得できない
といった問題が発生します。
Explainable AI(XAI:説明可能なAI)とは?
この課題を解決する考え方が、
**Explainable AI(XAI:説明可能なAI)**です。
XAIの目的は、
AIがどのように結論に至ったのかを
人間が理解できる形で説明できるようにすること
これにより、以下の効果が期待できます。
説明可能なAIが求められる主な理由(Royal Societyの整理)
説明可能なAIが重要とされる理由には、次のようなものがあります。
① ユーザーの信頼を高める
判断の根拠が分かれば、AIを安心して使えます。
② バイアス(偏り)の検出・防止
性別・人種・年齢などに対する不公平な判断を見つけやすくなります。
③ 規制・法令への対応
規制当局がシステムの妥当性を評価できるようになります。
④ システム設計の改善
内部挙動が分かれば、モデルやデータの改善が可能です。
⑤ リスク・脆弱性の評価
誤動作や想定外の挙動を事前に把握できます。
⑥ 社会的価値との整合
宗教・思想・倫理に配慮したAI設計が可能になります。
3つの重要概念の違い【試験対策として重要】
ISTQBでは、次の3つを明確に区別して理解する必要があります。
① 透明性(Transparency)
モデルやアルゴリズム、学習データがどのように使われているかが分かること
例:
-
どのデータで学習したのか
-
どんなアルゴリズムを使っているのか
② 解釈性(Interpretability)
AIの仕組みや振る舞いを、人が理解できること
例:
-
「この特徴量が判断に強く影響している」
-
「この条件ではこう振る舞う」
③ 説明可能性(Explainability)
AIが「なぜその結果を出したのか」を説明できること
例:
-
「年齢と過去の履歴が理由でこの判断になった」
-
「この要因が◯%影響した」
3つを一言でまとめると
|
観点 |
意味 |
|---|---|
|
透明性 |
何を使って作られているか分かる |
|
解釈性 |
仕組みを理解できる |
|
説明可能性 |
判断理由を説明できる |
AIと安全性(Safety and AI)
AIにおける「安全性」とは?
ISTQBでは、安全性を次のように捉えます。
AIベースシステムが
人・財産・環境に危害を与えないこと
安全性が特に重要なAI活用分野
-
医療(誤診は命に関わる)
-
製造業(ロボットアームの誤動作)
-
防衛・セキュリティ(自律的な判断)
-
交通(自動運転・運行制御)
AIが人の介入なしに判断・行動するほど、
安全性の重要度は高まります。
AIの安全性を難しくする特性
AIには、従来システムにはない特性があります。
安全性を確保しにくい理由
-
高い複雑性
-
非決定性(同じ入力でも結果が変わる)
-
確率的な振る舞い
-
自己学習による変化
-
透明性・解釈性・説明可能性の不足
-
ロバスト性(頑健性)の不足
これらが組み合わさることで、
**「想定外の危険な振る舞い」**が発生する可能性があります。
AIテストにおける重要な視点
AIベースシステムを安全に使うためには、
-
仕組みを理解できること
-
判断理由を説明できること
-
想定外の振る舞いを検出できること
が不可欠です。
ISTQB AI Testerでは、
これらの課題に対するテスト戦略が後続章で詳しく扱われます。
まとめ
-
AIには「正しさ」だけでなく「理解できること」が求められる
-
透明性・解釈性・説明可能性は信頼の基盤
-
安全性はAI活用の前提条件
-
AI Testerには技術+倫理+安全の視点が必要
ISTQB試験対策としても、
定義の違いと目的をセットで覚えることが重要です。

コメント