まずは「ガイドライン」を作成し、全社に周知するところから
──上述のリスクに対して、企業はどのように対処していけば良いのでしょうか?
望月:まずは自社のAI倫理原則を策定すること。様々な機関や団体がAI倫理原則を定め世の中に公開していますが、それをそのまま使うのではなく、会社の憲法のような存在になるものですので、自社の事情に合わせたものを作ることをお勧めしています。その次に、ガバナンス体制を整え、社内プロセスを構築することです。もし、AIを使うだけのためにガバナンス体制を整えることが難しいという場合は、AI利用のリスクと対策方針をまとめた「ガイドライン」を作ることをお勧めします。
これらが完成したら、次はそれを社内全体に周知させていく必要があります。せっかく自社の原則やガバナンス体制、プロセス、ガイドラインを作成しても、社員に行き渡らなければAIリスクが顕在化してしまうためです。
河津:当社の技術理事であり、AI倫理チームのリーダーでもある山田敦はよく「教育は終わりなき旅」と言っていますが、AIに関する法規が世界中で策定されている最中ということもあり、一度周知したら終わりではなく、世の中の動向を注視し最新情報を取り入れながら、何度も繰り返し伝えていくことが重要です。
また教育コンテンツは、AIプロジェクトに関わる方のみではなく、全社員向けの内容も作成し周知すべきです。というのも、生成AI登場以降、AIをお客様に提供する立場でなくても、自身の業務にAIを活用するようになったという人も多いと思います。そんな中で「利用しているAIを通して外部にお客様の情報を流してしまった」というような事故を起こさないためにも、リスクが存在する使い方があることをきちんと理解してもらうことが重要です。
また最後にお伝えしたいのは、AIは人間の置き換えになるようなものではなく、人間の知性を補強してくれるものだということです。業務を効率化するだけでなく、イノベーションを起こすためにも、ぜひリスクをきちんと理解した上で活用してみてください。

日本アイ・ビー・エム株式会社
シニアデータサイエンティスト
河津宏美(かわつ・ひろみ)氏
日本IBMに入社後、ハードウェア開発部門にて、ストレージのバックエンドサポートに従事。2014年にケニアの医療事情改善に向けたコンサルティング、データ分析のボランティアに参加。2015年にソフトウェアサービス部門に異動し、データサイエンスサービスのデリバリーに従事。特に運用まで考慮したAIモデルの開発・導入支援に注力。2023年にデータサイエンスサービス部門のマネージャーに着任。博士(工学)。

日本アイ・ビー・エム株式会社 ソフトウェア・エンジニア、
AI倫理プロジェクト・マネージャー
望月朝香(もちづき・ともか)氏
日本IBMに入社し、ソフトウェア開発研究所にてロータス製品の開発やサービス・デリバリーに従事。2016年よりグローバリゼーション技術にて、翻訳業務を支援・管理するシステムの開発・運用、グローバリゼーション情報を提供する社内ポータル・サイト作成・管理、教育コース企画・開発などに従事。2023年より現職。修士(情報科学)