G検定の出題範囲に含まれる、AIの倫理と規範に関する事項ついて纏めます。
公平性
公平性の観点から認識すべき事項を以下に挙げます。
フィルターバブル現象
インターネットの検索アルゴリズムにより自動的にユーザーが見たい情報のみが表示され、自分の価値観の「泡(バブル)」の中にいるように感じるという現象。SNSにおけるエコーチェンバーと同じように、自分と近い価値観にしか触れなくなることで視野が狭まったり、考えが偏りやすくなる可能性がある。
FAT(Fairness, accountability, transparency)
FATという概念は、AI社会実装に向けての留意事項として言及されることが多い。米国コンピューター学会(ACM)はFATを議論するACM FATを主宰している。日本の内閣府の”人間中心のAI社会原則”の(6)公平性、説明責任及び透明性の原則も、FATのことだと推測される。
バイアス
AIに関する様々なバイアスが存在する。データ収集や前処理において虚偽や偏りが発生することもあるが、アルゴリズムがバイアスを生み出すこともある。次項で事例を紹介する。
COMPAS(アメリカの再犯予測システム)
再犯率が高いと予測したが再犯しなかった割合が、黒人は白人よりも顕著に高く、逆に再犯率が低いと予測したが再犯した割合は白人が黒人よりも顕著に高かった。実態よりも黒人に厳しいモデルを構築していたことが想像できる。問題は2016年に発覚。
採用支援システム(Amazon)
エンジニア採用のためのAIが、女性を不利に判定していた問題が2018年に発覚。
AIの説明可能性
ここではAIが下した判断の根拠を”説明可能性”とする。第3次AIブームの中心は機械学習とディープラーニングだが、ディープラーニングは予測の根拠を人間が理解するのが容易ではなく、ブラックボックス化しやすい。一方企業などでAIを使用する際には多かれ少なかれ説明可能性を要求される場合が多く、そういった要求に応えることのできる説明可能なAI、XAI(eXplainable AI)という概念が存在し、そのための機能・モデルとして以下が挙げられる。
SHAP
SHAP(SHapley Additive exPlanations)は、協力ゲーム理論のシャープレイ値(Sharpley value)を応用することでデータの獲得超が結論に与えた影響度を算出する技術。
Grad-CAM
画像解析におけるAIの判断根拠をヒートマップのような形式で示す。CAM(Class Activation Mapping)がヒートマップの計算モデルで、Grad(Gradient-weighted)というのは、予測値に対して勾配を重み付けするということ。
あくまでイメージだが、例えばネズミのキャラクターを耳や頬、模様で判定しているAIモデルの場合、以下のように判定根拠部分を赤く表示する。
影響関数
影響関数(Influence function)法では、学習データの中のどのデータが最も判断に影響を与えたかを示す
蒸留
説明可能性の低いAIについて、決定木など説明可能性の高い手法で近似することで説明可能性を担保する。直感的に説明するなら、複雑なAIモデルについて、入力データと出力データを使って同じ結果を得られるような単純なモデルを構築することを指す。
AIに関するガイドライン
企業や個人がAIを利活用する際にガイドラインや各種チェックリストを使うことで、不要なトラブルを回避することができる。
日本国内のガイドライン
人間中心のAI社会原則(内閣府)
2019年3月に策定。基本理念として①Dignity(人間の尊厳)、②Diversity & Inclusion、③Sustainabilityの3つを掲げる。具体的な原則としては、以下7つ。
(1)人間中心の原則、(2)教育・リテラシーの原則、(3)プライバシー確保の原則、(4)セキュリティ確保の原則、(5)公正競争確保の原則、(6)公平性、説明責任及び透明性の原則、(7)イノベーションの原則
AI利活用ガイドライン(総務省)
内閣府による人間中心のAI社会原則を受けて、その原則を実現するための具体的な解説書という位置づけで2019年8月に策定。
参照元;【別紙1】 AI利活用ガイドライン (soumu.go.jp)
AI・データの利用に関する契約ガイドライン(経産省)
経済産業省が2018年6月に策定。国内でのAIビジネスや研究開発実務で参照されることを想定している。2019年の改訂版は以下;20191209001-1.pdf (meti.go.jp)
国際的な議論のためのAI開発ガイドライン案(総務省)
2016年に日本がホスト国を務めたG7で、AI開発ガイドラインの策定に向けG7各国で議論をしていくことで合意。その案として2017年に策定された。2019年の人間中心のAI社会原則やその後のAI利活用ガイドラインにつながる道筋を示した。
参照元;000490299.pdf (soumu.go.jp)
倫理指針(人工知能学会)
2017年2月に策定。AIの正負の両面を踏まえて、よりより社会を作ることに寄与させるために、AI開発者・研究者に向けて指針を示す形になっている。
参照元;「人工知能学会 倫理指針」について | 人工知能学会 倫理委員会 (ai-elsi.org)
国際的なガイドライン
アシロマAI原則(Asilomar AI Principles)
2017年2月、後述のFLIがカリフォルニア州アシロマで全世界のAI専門家が「人類にとって有益なAIとは何か」について議論した内容を踏まえて発表された。強制力はないが、多くの著名人や専門家が支持を表明した。そこではAIによる軍拡競争は避けるべきであると明示された。
FLI(Future of Life Institute)
人工知能の安全性を研究する非営利の研究機関。アシロマAI原則を公表した団体。
参照元;AI Principles – Future of Life Institute
Ethics guidelines for trustworthy AI(EU欧州委員会)
2018年4月に策定。信頼できるAI(trustworthy AI)は合法的(Lawful)、倫理的(Ethical)、堅牢(Robust)であるとし、AIに対して原則(Principles)と要求事項(Requirements)と評価リスト(Assessment List)を設定している。
原則には人間の自律性を尊重すること、被害を防ぐこと、公平であること、説明可能であることが挙げられている。
参照元;ai-ethics-guidelines.pdf (aepd.es)
Recommendation of the council on Artificial Intelligence(OECD)
2019年5月にAIの初の国際的なガイドラインとして策定。以下の項目が原則として挙げられている。
- Incluesive growth, sustainable development and well-being
- Human-centred values and fairness
- transparency and explainability
- robustness, security and safety
- accountability
ETHICALLY ALIGNED DESIGN First Edition(IEEE)
IEEE(Institute of Electrical and Electronics Engineers)はアメリカに本部を置く技術標準化機関。ETHICALLY ALIGNED DISIGNは2016年12月に、知的な機械システムに対する恐怖や過度な期待を払拭することと、倫理的に調和され、配慮された技術を作ることでイノベーションを促進することを目的にIEEEによって策定された。日本語訳は、”倫理的に調和した設計”。
参照元;pdf (atlas.jp)
その他の事項
SIA Safer Internet Association
サイトパトロールを実施している日本の一般社団法人。HPでは”インターネットの悪用を抑え自由なインターネット環境を護るために、統計を用いた科学的アプローチ、数値化した効果検証スキームを通して、悪用に対する実効的な対策を立案し実行していく団体”となっている。
参照元;団体概要 | セーファーインターネット協会 Safer Internet Association(SIA)
PAI(Partnership on AI)
2016年9月にApple以外のGAFAM+IBMの5社で立ち上げた非営利組織。倫理的に懸念のあるAIのベストプラクティスを目指してAIの包括的な研究・設計を行う。
GDPR(General Data Production Regulation)
EU域内の個人情報に関する規則。EUに拠点を置かない日本企業に対しても域外適用され、規則に違反した場合は多額の制裁金が課される恐れがある。規則には、データポータビリティやプロファイリングに関する権利など新たな個人情報に関する権利・利益が挙げられている。
LAWS / AWS / CCW
自律型致死性兵器(、又は完全自律型兵器, Lethal Autonomous Weapon Systems)というのは、AIなどにより自律的に動作するAWS(autonomous weapn systems)の中でも特に殺傷能力を持つ兵器のこと。CCW(Convention on Certain Conventional Weapons、特定通常兵器使用禁止制限条約)など専門家の間でも紛糾しているが、アメリカ・ロシア・中国など開発に力を入れる国も存在する。
定義としては、以下の(1)、(2)、(3)のうち、(2)、(3)を指す
- Human in the Loop Weapons :攻撃は人間の命令による
- Human on the Loop Weapons :ロボットが攻撃できるが、人間が無効にできる
- Human out of the Loop Weapons:人間が関与しない
AIの品質保証
品質保証のための枠組みとしては、以下のようなものが挙げられる。
ISO/IEC 2500n (SQuaREシリーズ)
ソフトウェアの品質管理についての国際規格として1999年に提案された。
AIプロダクト品質保証ガイドライン(QA4AI)
2019年に国内の産学関係者によるQA4AIコンソーシアムが発行。
機械学習品質マネジメントガイドライン(産総研)
特定国立研究開発法人の産総研が2020年に公開。
コメント