※本記事は、2021年1月25日刊行の定期誌『MarkeZine』61号に掲載したものです。
AIバイアスとは何か
はじめに、「AIバイアス」の一つの例をあげましょう。主に白人の画像をつかって訓練された顔認識システムがあるとします。このシステムでは白人以外の異なる文化的、人種的グループの人々について正確な判断を下すことができません。このようにAIのバイアスとは、基本的にはAIやMLが特定の結果に対して一定のバイアスを持って意思決定を行っている、あるいは特定のサブセットに依存していることを意味します。
このような学習モデルは、データの中身を正確に反映していない特性に基づいて決定を下していることになります。つまり、訓練中には見たことのない、いくつかのタイプのデータを使うと正確に機能しないということです。
AIのバイアスの正体
AIやMLシステムは、様々なデータセットを使って訓練されます。これらのシステムを訓練するためのデータや機能は、結論を導き出すために使用され、この結論(アウトプット)は「ラベル」と呼ばれることもあります。機能の中には、特定の偏った結果を導き出すものもあり、システムは、訓練中に使っていないデータの種類によってはパフォーマンスが悪く、最適化されていない結果を出してしまうことがあります。
ここで気を付けなければいけないのは、MLモデル自体がバイアスの原因ではないということです。バイアスは訓練されたデータから発生します。場合によっては、システムが特定のタイプのデータでは非常に良いパフォーマンスを発揮しますが、別のタイプのデータでは悪いパフォーマンスを発揮します。
AIモデルのバイアスがどのような負の結果をもたらすのかという例として、米国の事例を紹介しましょう。米国では、逮捕された人物の再犯予測をAIで行い、その結果を基に刑期を決めるAIモデルが実際に使用されています。しかしこのモデルには、アフリカ系やヒスパニック系および少数民族系のアメリカ人が犯罪統計に過大に表れているという過去のデータで訓練されたモデルが使われていました。その結果、それらのマイノリティのメンバーに対してより厳しい刑罰を決定する判決にAIモデルが使用されていたのです。これは、データが特定の方法で歪曲されている場合、モデルはその歪んだデータに基づいて判断を下すという可能性を示唆しています。