SHOEISHA iD

※旧SEメンバーシップ会員の方は、同じ登録情報(メールアドレス&パスワード)でログインいただけます

MarkeZine Day(マーケジンデイ)は、マーケティング専門メディア「MarkeZine」が主催するイベントです。 「マーケティングの今を網羅する」をコンセプトに、拡張・複雑化している広告・マーケティング領域の最新情報を効率的にキャッチできる場所として企画・運営しています。

直近開催のイベントはこちら!

MarkeZine Day 2025 Retail

ためになるAIのお話。

今、ビジネスパーソンが向き合うべき「AI倫理」とは。(日本IBM AI倫理チーム×博報堂 藤平達之)


「合法」だけでは不十分、AI倫理には「法の眼」「社会の眼」の2つの視点が必要

藤平:この書籍では、法の眼(合法性)と社会の眼(社会的受容性)の2段階に分けて、AI倫理を説明されていますよね。「違法でない」ことは当然のこととして、僕がこの本を読んで感じたのは「社会的受容性をいかに見極めていくか?」。つまり、「AI活用において倫理的に判断すべきところの眼をどう養っていくか?」ということでした。

博報堂/SIX Strategic Creative Director 藤平達之氏
博報堂/SIX クリエイティブ・ディレクター/ 藤平達之氏

三保:社会的受容性が大切なことはわかったけれど、「じゃあ、どうする?」ということですね。

藤平:まさにそうです。

参考:AI倫理は「合法性」「社会的受容性」の2段階で考える

 企業に損害を与えるAIリスクは2階立て構造。1階部分が合法性のレベル。より厄介なのは2階部分にあたる社会的受容性のレベルである。明文化された法律やルールに違反しなくても、社会道徳に反すると個人や企業に不快感を与えてしまい、さらにはそのことがけん伝されれば莫大なレピュテーションリスクにもつながる

『AIリスク教本 攻めのディフェンスで危機回避&ビジネス加速』P37より引用

藤平:広告会社のクリエイティブワークの場合、社会的受容性を見誤ると、自社はもとより、直接的被害はクライアント(広告主)にいってしまいます。実務の中で進んでいるAIを用いた新事業や新サービスも同様で、社会的受容性におけるリスクをしっかり見極めて意思決定できなければ、クライアントに被害が及んでしまうことに、大きな恐怖を感じています。

三保:皆さんも普段ニュースで見聞きされていると思いますが、個人情報保護法を含め、現行の法律やガイドラインを違反しているわけではないけれど、社会に受け入れられず大きな問題となってしまった企業の技術(AI)活用プロジェクトは少なからずあります。こうした事態を避けるために不可欠なのは、やはり多様な視点からディスカッションすることです。

 実際、我々AI倫理チームは、法務的な知見を有する弁護士だけでなく、日本のビジネスの現場を知っているコンサルタントやエンジニア、営業担当、研究所のリーダーなど、多様なメンバーで構成されています。

山田:その議論の後、最後に意思決定をする時には、パーパスやバリューズの存在が大切になってきます。自分・自社を納得させる、あるいは社外に対する説明責任を果たすために、パーパスやバリューズをもって「どういう考えで判断したのか?」を示すことができれば、おおよそのリスクは回避できるような気がします。

藤平:多様な観点でリスクや可能性を洗い出す、ということは想像できていたのですが、技術活用における倫理観の拠り所に、パーパスやバリューズがなり得るというのは、少し意外な発見でした。それは「Purpose Driven Innovation/Technology」だと胸を張って言えるのか、という視点でのディレクションや意思決定は自分にもできる気がします。

経験とAIで自らの「倫理観」を高める

藤平:ちなみに、AI活用で社会的受容性が低い、つまり皆さんも慎重に議論をされるゾーンはどのあたりですか? 2024年時点の潮流を知りたいです。

山田:人の人生を決めるような局面でのAI活用は、世の中のアテンションが特に高いです。たとえば、入試や採用、昇進などですね。

三保:IBMにも「ハイリスク」とされているユースケースがあり、そのケースに当てはまる時はより慎重にリスクを審査します。人事や試験に関するケースはその一部で、他にも医療、選挙、法執行、軍事などはハイリスクの事案となります。これらに関しては、人々の思想や考え方を操作するような使い方になってしまう可能性もあるので、非常に危険です。また、残念ながら、どんな技術でも正当でない二次的な利用は必ず出てきてしまいます。AIもディープフェイク、軍事、ポルノ系などのゾーンで悪用されてしまっている状況です。

藤平:ここまでのお話を聞いていると、「受け手の倫理観」と「使い手の倫理観」という風に分解できるように感じました。使い手側としてはハイリスクなゾーンを多用な視点で十二分にケアしたとしても、受け手の数だけ使い方がある以上、どこかで「悪用」される可能性があるというのはAI、もっというと技術の難しい側面ですね。

山田:倫理観をもってAIを捉え利用する人もいれば、そうでない人もいますからね。日本は倫理観がかなり高いほうですよ。国をまたぐと、全然違うレベルでの二次的利用が多発しています。

三保:あとは……藤平さん自身が「倫理観を高めるためにAIを使う」ことも、ぜひおすすめしたいです。AIはものすごい量の学習をしていますから、多角的な視点を持つため、自分にない視点を補うために、ロール設定をしつつ色々聞いてみると、いろんな回答をしてくれると思いますよ。

藤平:「倫理的相棒」としてAIを使っていくわけですね、それはめちゃくちゃいいですね。たしかに、ロール設定を工夫すれば「リスクの専門家」「○○問題の観点に特化して」など、具体的なコメントを聞くことができそうです。そうすれば、無用な批判や炎上を避けることができそうですし、何よりコアアイデアがより強くなっていく可能性を感じます。

次のページ
クリエイターが持つべき「倫理観」と「目的設定力」

この記事は参考になりましたか?

  • Facebook
  • X
  • Pocket
  • note
関連リンク
ためになるAIのお話。連載記事一覧

もっと読む

この記事の著者

MarkeZine編集部(マーケジンヘンシュウブ)

デジタルを中心とした広告/マーケティングの最新動向を発信する専門メディアの編集部です。

※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です

この記事は参考になりましたか?

この記事をシェア

MarkeZine(マーケジン)
2024/07/12 09:08 https://markezine.jp/article/detail/45700

Special Contents

PR

Job Board

PR

おすすめ

イベント

新規会員登録無料のご案内

  • ・全ての過去記事が閲覧できます
  • ・会員限定メルマガを受信できます

メールバックナンバー

アクセスランキング

アクセスランキング