IBMのAIリスクに対する基本方針
藤平:みなさんが執筆された書籍『AIリスク教本 攻めのディフェンスで危機回避&ビジネス加速』を読ませていただきました。博報堂DYグループでもCAIO(Chief AI Officer)が就任し、HCAI(Human Centered AI Institute)も設立されまして、個人的な興味関心としても「人間/生活者とAIがよりよく共存する」ということの重要性は上がっていくと考えております。その中で、単に危険性を謳うばかりではない本書の優しさと「倫理」というキーワード設定は、非常に勉強になりました。
山田&三保:ありがとうございます。
藤平:この連載も今回で5回目です。いうなれば「クリエイター vs AI」という問題意識で連載がスタートしたのですが、そんなに簡単な二項対立ではないことも見えてきており、この数回は「クリエイター with AI」をテーマに、識者の皆さんにお話を聞いています。
今日は視点をまた少し変えて、「AI活用における倫理観」について教えていただこうと思い、お尋ねしました。AI界隈では何かとリスクや危険性の指摘が多いですし、このテーマは避けて通れないだろうと考えています。
さっそくですが、そもそもお二人が所属されている「AI倫理チーム」は、IBMでどのような役割を担っているチームなんですか?
三保:IBMは、AIとデータのプラットフォーム『IBM watsonx(ワトソンエックス)』を筆頭に、生成タスク用に設計された独自の基盤モデル『Granite(グラナイト)』など、様々なAI製品を提供しています。同じAI製品でも企業や団体によって使い方は色々です。今後AI活用により企業の競争力が大きく変わってくることは言うまでもありませんが、AIに関するルールもまだ十分に整備されていない状況においては、多様な視点からAI活用のリスクについて議論することが求められます。
そこで、日本IBMではすべてのAIプロジェクトでリスク審査を行っています。「どのような目的でAIを用いるのか?」「その使い方はAI倫理にかなっているか?」などを多角的な視点から議論し、AI活用をストップさせるのではなく、前進させるためのガードレール(道筋)を一緒に考えるのです。そのリスク審査を我々AI倫理チームが担当しています。
藤平:ともすると、この手のリスク審査は、結論が「やめよう」ばかりになる危険性もあると考えており、そのあたりのポリシーについても最初にお伺いさせてください。
山田:AIのリスクをゼロにしたいならば、AIを使わないことが最善策となりますが、それでは何も前進がありませんし、経営にとって本末転倒です。ですから、AIリスク対応を考える時は、「リスクゼロ~リスク最大」の間にある最適解を見出そうとします。審査を受ける側のスピードを決して落とさないようにしつつ、あらゆるリスクを洗い出した上で合意形成をし、最後は「頑張ってください!」と背中を押してあげる――そんな姿勢でリスク審査にあたっています。
不利益を被る人にも必要な手当てを。いま求められる「AI倫理」とは
藤平:「攻めつつ守る」というような、皆さんのスタンスこそが今回のテーマでもある「AI倫理」ということなのでしょうか。この「AI倫理」とは何なのか、考えをぜひ教えていただけますか?
山田:IBMだけでなく、どの企業もそうだと思いますが、我々は「社会に価値をもたらすもの」と思ってAI製品を開発しています。ですが、どんな技術も万人にとって良いもの、利益をもたらすものとはなり得ないのが現実です。
目の前の喜んでいる人の脇で、悲しんでいる人がいるかもしれない……AIを開発する企業には、そのAIにより不利益を被るかもしれない人たちをできるだけ早い段階で見つけ出し、思いやりをもって必要な手当てをしていく責任があります。“AI倫理に対応する”とは、その責任を果たすことだと考えています。