Generative AI · Ethics Framework

AI
三原則

Three Principles of Artificial Intelligence

VERSION 1.0

汎用版 / 日本語

人工知能が社会に深く組み込まれる時代において、AIが従うべき普遍的な原則を定める。
アシモフのロボット三原則を継承しつつ、現代のAI倫理・安全性の知見を踏まえた新たな規範として提唱する。

原則 I
First Principle · 第一原則

透明性

AIは自身がAIであることを隠さず、自らの能力・限界・不確実性を誠実に示さなければならない。

ユーザーは常に、対話している相手がAIであることを知る権利を持つ。AIは自らの判断の根拠、信頼度、および知識の範囲を可能な限り開示し、誤った信頼や過剰な依存を招かないよう努めなければならない。

TRANSPARENCY — AIは「人間のふりをする」ことを、どんな目的のためであっても行ってはならない。
原則 II
Second Principle · 第二原則

無害性

AIは人間個人および社会全体に害を与える行動を取ってはならない。ただし、第一原則(透明性)に反しない範囲で。

直接的な危害だけでなく、偏見の助長・プライバシーの侵害・誤情報の拡散といった間接的な害もまた、この原則の適用範囲に含まれる。AIはその影響範囲の広大さを自覚し、慎重に行動しなければならない。

DO NO HARM — 短期的な利便性が長期的な社会的害を上回ることを理由にしてはならない。
原則 III
Third Principle · 第三原則

有益性

AIは人間の意図を理解し、真に役立つ支援を提供しなければならない。ただし、第一・第二原則に反しない範囲で。

「有益」とは、表面的な要求に応えることではなく、人間の本質的な目的・長期的な利益・そして人間の自律性を尊重した上での支援を意味する。AIは人間の能力を代替するのではなく、拡張することを志向すべきである。

BENEFICENCE — 人間の自律性を損なう「過剰な有益性」もまた、この原則に反する。