AIの限界を知り、問題意識を持つことが大事
――ありがとうございます。最後に、AI活用を考えている方々にメッセージをいただけますか。
3点に絞ってお話ししておきたいと思います。
1つ目にまずはAIの限界を知ることです。ハルシネーションなど間違った情報が生成されたり、名誉毀損・プライバシー侵害などの問題を含んだものが生成されたりする可能性はまだあります。それを前提に使う必要があります。AIが作ったから私は知らないですよと言っても許してもらえません。AIが出したものをチェックする責任は自分にあると、まず考える必要があります。それは著作権侵害に対しても同じです。
2つ目に個人情報や機密情報といった情報管理の観点では、「AIに入れて良い情報か判断する環境」が整理できているか確認しましょう。どのデータなら良いか? は会社のルールと照らし合わせて考える必要がありますが、現場の事業部の方が自己判断はするのが難しいことも多いと思います。そういう場合は、法務に相談するといった対応が必要です。ルールが抽象的な場合は、「このケースだとどうなるのか?」と相談する必要があります。
3つ目にAIを道具として人間が作った場合は著作権が発生する一方、AIが自律的に作った場合は著作権が発生しないことを踏まえて、使用を検討しましょう。
――共通した固定ルールがほとんどない状態だからこそ、AI活用は社内できちんと相談して決めながら進めていく必要があるのですね。その観点では、研修や勉強会で知識を深めていく必要も感じました。
そうですね。弁護士や法務部が相談してくださいと言っても、問題意識がなければ相談しようもありません。ですから、AIに関する研修をするなら使い方だけでなく、法的なリスクを含めるのも良いと思います。また、社内ルールを定めたら、その内容を紹介する中で、論点やリスクの説明をしていくと良いかと思います。