人工知能が間違った判断を下す?AIの倫理

様々な製品に搭載され便利な一面を見せる人工知能、その人工知能が倫理的に誤った判断をするかもしれない、と聞くと皆さんはどう思うでしょうか。
現在製品に搭載されるAI技術の多くは「教師あり学習」という学習手法を用いたAIです。
大量の学習データを与え、それに対応した正解を導けるように訓練されます。

学習データが多ければ多いほど、様々なパターンに対応できるということになります。

しかし、学習データに何らかの偏りがあった場合はどうでしょう。学習データに則って判断を下すAIは、その偏りごとデータを学習してしまうのです。

2016年にはMicrosoftのAIチャットボットがインターネットユーザからの人種差別的な発言を浴びせられ、それを学習してしまった結果、当日のうちに停止することとなりました。

AI開発において学習データの収集は、その公平性にも細心の注意を払うことが肝要です。人間が気付かないような、隠れた関係性を見つけ出すのが上手いとされるディープラーニングなどとなれば、その偏りをデータの段階で見出すのは困難でしょう。

そういった危険性への配慮のためソニー株式会社はAIを使用した全ての製品で、倫理面での安全性を審査することを発表しました。日本国内では極めて先駆的な動きです。

今後もAIの発展とともに常に学習データの公平性、及びAIの判断の倫理観の問題は続くことでしょう。
子を見て「親の顔が見てみたい」というように、非倫理的なAIを見て私たちは「学習データを見てみたい」なんて言わなくてはならないのかもしれません。

ライター:H.I