※本記事は、2024年11月刊行の『MarkeZine』(雑誌)107号に掲載したものです
【特集】進むAI活用、その影響とは?
─ 生成AIがクリエイティブとデータをつなぎ、顧客体験を変えていく。アドビに聞くビジョンと現在地
─ 最初から完璧を目指さない ハイテクなイメージをあえて遠ざけた東急のAIコンシェルジュ
─ 組織の生成AI活用を最大化するためには?リクルートの生成AIプロジェクトが実践する4つの施策
─ 生成AI活用に驚きがなくなった今、企業が意識すべきこと
─ AIリスクを正しく理解し、活用を前進させるためのガードレールを。(本記事)
AI倫理は「合法性」と「社会的受容性」の2階建て
──日本IBMのAI倫理チームとはどのような組織なのでしょうか?
河津:日本IBM AI倫理チームは、IBM Corporationで2018年に発足し、全社のAIガバナンスを司るAI倫理委員会の一翼として2022年に日本IBM内に組織されました。サービスの事業部門、製品の事業部門、基礎研究および製品開発部門、そして法務部門と多彩なバックグラウンドと専門知識を有するメンバーで構成されています。社内のAIプロジェクトに対するリスク審査や、AI倫理の啓蒙・普及活動などを通して、日本市場におけるAIの信頼性を高め、日本企業の国際競争力を高めることを目的に活動しています。
──企業によるAI活用が活発化する中、御社では「AI倫理」の重要性を説かれています。そもそも「AI倫理」とはどのようなものなのでしょうか?
望月:AI倫理とは、ある社会集団において、AIを活用する上での善悪の判断基準全般を指します。日本IBM AI倫理チームでは、AI倫理を2階建ての階層で捉えています。1階が「遵法性・合法性」という法的な観点。2階が「社会的受容性」、つまり“社会的に受け入れられる使い方かどうか”という観点です。AIを活用する際には法律を守ることは当たり前で、さらに社会道徳的に疑問となる使い方や誰かを不快にさせる使い方をしていないかという点も問われるのです。
特にマーケティングにおけるAI活用を考える際には、レピュテーション(評判)が重要になってきますので、法的な観点だけでなく、2階部分の「社会的受容性」をしっかり考えていくことが必要です。
リスク審査は「AI活用」にストップをかけるものではない
──法的な観点と、社会的受容性の観点において、それぞれどのようなリスクがあり、御社ではどのように審査を行っているのでしょうか?
河津:日本IBM AI倫理チームでは、社内のAIプロジェクトの審査を行っているのですが、AIの利用用途、IBMの3つのAI倫理原則と5つの倫理的なAIが持つ特性への適合、法規の遵守といった視点から確認をします。その際にチェックしている主な項目が図表1となります。情報漏えいや著作権侵害といった法的なものから、「差別などの不適切な表現の出力がないか」といった社会的受容性に関するものなど様々な項目があります。
望月:審査を行う際には、このチェック項目に基づき、AI倫理チームのメンバーが審査を行っていくわけですが、必ずクロスブランドで審査に入るようにしています。具体的には、法務、R&D、テクノロジー、コンサルなど様々な観点から考えうるリスクを挙げ、それに対する具体的な対策についてアドバイスを行います。
リスク審査は、AI活用にブレーキをかけることを目的としたものではなく、AI活用を前進させるための適切なガードレールの設置を目的としたものです。そのため審査を行う際には複数審査員の多様な眼であらゆるリスクを洗い出すとともに、実行可能な具体的なリスク対策を導き、背中を押してあげることを大切にしています。