【ISTQB /JSTQB AI Tester 解説】ISTQB AI Tester|AIの標準と規制をわかりやすく解説

JSTQB AI Tester

― AIシステムはどんなルールに基づいて作られているのか?

ISTQB AI Tester認定では、「AI技術そのもの」だけでなく、

**AIを取り巻く標準(Standards)や規制(Regulations)**についての理解も重要な学習ポイントです。

AIは自由に作って使える技術ではなく、

国際標準・業界標準・法律・規制によって支えられ、管理されています。

この記事では、ISTQB AI Testerのシラバス Chapter 1.9 に基づき、

  • AIに関わる主な国際標準

  • EU(GDPR)などの法規制

  • 業界別(特に自動車分野)のAI関連規格

  • テスト観点で重要なポイント

を、具体例を交えながら解説します。


AIと「標準」「規制」が重要な理由

AIは以下のような特徴を持つため、

従来のソフトウェア以上にルールが必要です。

  • データに依存する

  • 結果が確率的(完全に同じ出力にならないことがある)

  • 差別・偏り・誤判断のリスクがある

  • 人の生命や権利に影響を与える場合がある

そのため、

「どう作るか」「どう評価するか」「どこまで許されるか」を定めた

標準と規制が不可欠になります。


国際的なAI標準を策定する組織:ISO / IEC JTC 1

AIに関する国際標準の中心となる組織が、

ISO / IEC JTC 1(Joint Technical Committee 1)

です。

  • ISO:国際標準化機構

  • IEC:国際電気標準会議

  • JTC 1:情報技術分野の合同技術委員会

このJTC 1が、AIを含むIT全般の国際標準を策定しています。


AI専門のサブコミッティ:SC 42

  • ISO/IEC JTC 1 SC 42(Artificial Intelligence)

  • 設立:2017年

  • AIに特化した国際標準を策定

例:

  • AI用語の定義

  • AIのライフサイクル

  • 信頼性・透明性・公平性

👉 AI Testerとして「どの標準がAIを扱っているか」を把握しておくことが重要


ソフトウェア・システム工学側の視点:SC 7

  • ISO/IEC JTC 1 SC 7

  • ソフトウェア工学・システム工学を担当

このSC 7からは、

**AIシステムのテストに関する技術報告書(Technical Report)**も公開されています。

👉

AIテストは「完全に新しいもの」ではなく、

既存のソフトウェアテスト標準を拡張して考えるという視点が重要です。


地域・国レベルのAI規制:EUのGDPR

AIに関する規制は、

国際標準だけでなく、地域・国単位でも定められています。

その代表例が、

GDPR(General Data Protection Regulation)

  • EU全域で適用

  • 2018年5月施行

  • 個人データの取り扱いを厳格に規定


GDPRとAIの関係(テスト観点で重要)

GDPRでは、AIに関連して特に以下が重要です。

① 個人データの正確性

  • 個人データ

  • 予測結果(Prediction)

👉 「十分に正確であること」が求められる

※ すべての予測が100%正確である必要はない

利用目的に対して妥当な精度が求められる


② 自動意思決定への配慮

  • 完全自動の判断を受けない権利

  • 説明を受ける権利

例:

  • ローン審査

  • 採用選考

  • 保険料算定

👉

AIテストでは「判断結果だけでなく、プロセスの妥当性」も意識する必要がある


③ 差別・偏り(バイアス)の軽減

  • 年齢

  • 性別

  • 人種

  • 国籍 など

👉

AIテスターは、

データの偏りが結果に影響していないかを確認する役割も持つ。


「AIは常に正確である必要があるのか?」

結論から言うと、

いいえ。AIは100%正確である必要はありません。

AIは以下の理由で、

一定の誤差や不確実性を許容します。

  • 学習データが不完全

  • 未知のケースが存在

  • 確率モデルで動作している

ただし重要なのは、

「そのAIが使われる目的に対して十分な精度かどうか」

例:

  • 映画のレコメンド → 少し外れても問題なし

  • 医療診断・自動運転 → 高い精度が必須

👉

テストでは「用途 × リスク」の視点が重要


ドイツの取り組み:AI品質メタモデル(DIN)

ドイツの国家標準機関 DIN では、

AI Quality Meta Model(AI品質メタモデル)

を開発しています。

目的:

  • AIの品質を体系的に評価

  • 技術面・倫理面・運用面を包括的に整理

👉

AIテスターにとって、

「AI品質とは何か?」を考えるための枠組みとして重要です。


業界団体によるAI標準:IEEE

IEEE(Institute of Electrical and Electronics Engineers)

IEEEは、AIに関する

  • 倫理

  • 社会的影響

  • 自律システム

を対象とした標準策定を進めています。

IEEE Global Initiative on Ethics of AI and Autonomous Systems

  • 倫理的AIのガイドライン

  • 多くは開発途中(シラバス作成時点)

👉

今後のAIテストでは、

「倫理的観点」も重要な評価軸になると考えられます。


安全性が重要な分野のAI規制(自動車分野)

AIが安全関連システムで使われる場合、

既存の安全規格が適用されます。

代表的な規格

■ ISO 26262

  • 自動車機能安全規格

  • 電子・電気システムの安全性を規定

■ ISO 21448(SOTIF)

  • Safety Of The Intended Functionality

  • 「意図した機能の安全性」

👉

AI特有の誤認識や限界を考慮した安全規格


規制と法律の関係

  • 規制に違反 → 販売不可・違法

  • 例:ISO 26262を満たさない車両は国によっては販売できない

👉

テスト不十分なAIは「製品として成立しない」


標準は義務?それとも任意?

原則

  • 標準自体は任意(Voluntary)

しかし…

  • 法律で義務化される

  • 契約条件に含まれる

  • 業界慣行として事実上必須

👉

多くの企業は、

  • 品質向上

  • 信頼性確保

  • 市場競争力維持

のために、

自主的に標準を採用しています。


まとめ|AIテスターが押さえるべきポイント

  • AIは標準と規制に強く依存する

  • ISO / IEC JTC 1(SC 42, SC 7)が国際標準の中心

  • GDPRはAIテストにも直接関係する

  • AIの精度は「用途に対して十分か」が重要

  • 自動車など安全分野では厳格な規制がある

  • 標準は品質と信頼性の「共通言語」

コメント

タイトルとURLをコピーしました