AIの弱点

情報システム系

昨今はチャットGPTやGEMINIなどをはじめとするAIが普及し、誰もが扱い、人間のようだと神格化されるツールになっているだろう。ただ、SEの私からAIの弱点・欠点といった負の側面をつづりたい。

では、単刀直入に根本的なAIの弱点の根本的な原因を書こう。

根本的なシステム:AIは確立分布モデルでしかない

 これが根本的な原因である。AIの基本的な処理は、膨大なデータから学習したパターンに基づき、入力(プロンプト)に対して「次に来る可能性が最も高い言葉」を統計的に推測するモデルだ。 システム的には、多重の処理を繰り返しているのが特徴だ。

 AIはプロンプトを受け取ると、AIは内部で膨大な単語の「確率分布」を予測する。「今日は」という入力に対し、次に来る単語として「晴れ」の確率が高いと判断すればそれを選択し、さらにその次に続く単語を数珠的に予測する。この時、常に最大確率の単語だけを選ぶのではなく、適度なランダム性を加えることで、自然で多様な文章表現をしているのだ。

 つまり、プロンプトに詳細な条件を加えることは、AIが参照する確率の範囲を特定の文脈へ絞り込む作業なだけである。AIは「意味」を理解して思考しているわけではなく、文脈に最も相応しい単語を「統計的な関連度」に従って出力し続ける高度な予測ツールでしかない。 

 以後はこのシステムがもたらす欠点をつづっていく。

問題1:データの偏り(公平性)

  AIに「日本人」というプロンプトを入力した際、現代的な私服姿ではなく、着物を着た女性が頻繁に描かれる現象は、AIのデータバイアスである。これは、AIが現実世界の正確な人口統計を反映しているのではなく、学習元となるインターネット上のデータ分布をそのまま出力に反映してしまうために起こる。

 インターネット上には、観光情報の紹介や文化的なストックフォトなど、「日本人」というキーワードに紐付けられた視覚的に特徴の強い画像が大量に存在する。これらは「日本らしさ」を強調するために意図的に着物や伝統的な風景が選ばれていることが多い。AIは学習の過程で、これらの画像を「日本人」という概念の最もらしい大部分として認識する。その結果、日常的で無個性な私服姿のデータよりも、着物姿を優先的に生成してしまう。

 こうしたバイアスは、単に不自然な画像を生むだけでなく、特定の国や人種に対して固定観念を固定化させてしまう。

問題2:希少問題への柔軟性の欠如(正確性)

 AIが「カフェでくつろぐ女性と犬」を判別する場合、トイプードルやチワワといった人気の犬種であれば、学習データが豊富にあるため簡単に特定できる。これが統計上の大部分である。しかし、もしその女性が連れているのが、世界に数頭しかいない希少な混血種であったり、あるいは犬が珍しい形の介護用車椅子に乗っていたり、特定の光の反射が起こる特殊な素材の服を着ていたりする場合、AIの判断は途端に難しくなる。

 こうした滅多に起きないが、現実に起こりうる状況こそが「ロングテール」である。AIモデルは、データが大量にある典型的な事例には強いが、この尻尾の部分にある無数の特殊な事例に対しては、学習データ不足から誤認やエラーを起こしやすい。

問題3:意味の理解(社会性・倫理・直観)

 先述の通り、AIは確率分布でしかなく、AIは人間が長期期間で培う社会性と倫理観が欠如している。
 人間が「カフェに犬を連れた女性」という一文を耳にするとき、情景が思い浮かぶだろう。豆の香りはあるかな、散歩の帰りかな、人間の言葉とは、こうした五感や身体的な実体験と結びついたイメージだ。

 一方、AIが処理しているのは、こうした生きた実感ではない。AIは「カフェ」「犬」「連れた」といった記号を数値へと変換し、巨大なデータに照らして「次に来る確率が最も高い言葉」を弾き出す。その結果として「女性」という語が選ばれるが、そこには「散歩のついでだろうか」といった情緒は存在しない。

 この意味が露呈するのが、ハルシネーション(幻覚)と呼ばれる現象だ。例えば「カフェに象を連れた女性がいた」という奇妙な状況を与えてみる。人間なら「象が店に入れるはずがない」と即座に物理的な違和感を抱くが、AIは平然と「その象は鼻で器用にエスプレッソを飲んでいた」といったでたらめを、文体で生成してしまう。

 ハルシネーションは、AIが嘘をつこうとしているのではなく、「真実かどうか」よりも「文章として統計的に自然かどうか」を優先するために起こる。AIにとって「象がコーヒーを飲む」という描写は、計算上もっともらしい言葉の並びであれば、現実世界の不可能性など何ら障壁にならない。

私が考える大事なこと:「AIに自立させない」

 これらの課題に対する解決策は、AIを意思決定の主体として自立させるのではなく、あくまで人間の補助的な「ツール」として位置づけ続けることだ。

 AIは膨大な過去のデータからパターンを導き出すことには長けているが、その文脈や意味を理解しているわけではない。カフェに犬を連れてきた女性を描く際、たとえAIが進化しても、AIがバイアスによって不自然な描写を行ったり、ハルシネーションによって存在しない情報を捏造する可能性はある。ここで重要となるのが、人間の社会性と倫理観、そして長年培った直観である。

 人間は、目の前の事象が社会的に正しいか、現実と乖離していないかを、直感的に判断できる。この人間の価値観で最終確認をすべきだ。AIに自律的な判断を委ねず、人間が責任を持ってその出力を判断する。AIを擬人化せずに、人間の社会性と倫理、直観と迎合させることこそが、AIの欠陥を補い、最大限の力を享受できると私は考えている。 

あとがき

 このように、AIには問題がある(他にも問題はある)が、今の私には、世間が思うAIは神格化されすぎて、人間が過小評価されていると感じる。確かに、SEとしてAIで楽になる作業はあるのだが、正確性が欠けることがある。AIの強みと弱みをともに理解して業務に活用していきたいと思う。

ぜひ読者様にも、世間では認識されていない問題について考えていただけたら幸いだ。

コメント