AIも嘘をつく? 生成AIのハルシネーションとは
私たちの生活や仕事に浸透しつつある生成AI。
以前の記事では、この生成AIと上手につきあっていくための考え方についてお話ししました。

さっそくですが、ハルシネーションという言葉をご存知でしょうか。もしかすると、SNSなどで耳にしたことがあるという方も多いかもしれません。
近年、方々で注目を集める生成AI特有の現象「ハルシネーション(Hallucination)」には、「幻覚」という意味があります。実際には存在しないものが、あたかも目の前にあるかのように感じてしまうことを「幻覚をみる」のようにいいますが、生成AIにおける幻覚とは「事実と異なる情報を勝手に生みだしてしまう」現象のことをいいます。
人でいうところの「もっともらしい嘘」や「知ったかぶり」というニュアンスに近いでしょうか。
生成AIが「もっともらしい嘘」をつく理由
AIが利用者に間違った情報を伝えてくること、いわゆる嘘をついてしまうのには、さまざまな要因があります。たとえば、
- AIが学習したデータのなかに不正確な情報や古い情報、偏った内容(特定の意見やフィクションなど)が含まれている。
- AIに学習させたデータが不足していると、AIが文章としての自然な繋がりを優先し、推測で情報を補ってしまうことがある。
- 利用者からAIへの指示(プロンプト)が曖昧だと、AIが質問の意図を理解できず、利用者の期待と異なる回答を生成してしまう。
といったものが挙げられます。
生成AIは、簡単にいうと「ある単語の次に続く確率がもっとも高い単語」を予測して文章を生成する仕組みです。利用者の質問の意図を本当に理解しているわけではないため、指示が曖昧だったり、そもそも間違っていることを前提に質問したりすると、ハルシネーションが起こりやすくなります。
次の項目では、「じゃあ、AIのいうことをどこまで信頼していいの?」という不安を解消するためのポイントについてお伝えしていきます。
生成AIがつく嘘から身を守るためには
前回の記事で「AIにすべて丸投げするのではなく、自力で考えることが大切」というお話をしました。この自分で考える癖をつけるというのは、ハルシネーションから身を守ることにも役立ちます。
生成AIを利用する上で、一番に考えておきたいのは「AIからの回答を鵜呑みにせず、かならず情報源を検証する」ということ。とくに正確性が求められる専門性の高い情報や数値、固有名詞、ニュース、法律、引用文献などで、AIの回答による情報を利用する場合は、専門書や公式ウェブサイトなどをフル活用し、自分の目でも再確認するという意識をもつことが大切です。
また、AIへ指示するときのコツとして、指示の最後に「出典を明記してください」「わからない場合は正直にわからないと答えてください」といった言葉をつけ加えることも有効です。
ハルシネーションを完全に無くすとまではいえませんが、あらかじめAIに制約をつけて指示することで「AIがつく嘘」によるリスクを抑えることが期待できます。
まとめ
生成AIはとても便利なツールですが、その特性として「もっともらしい嘘」、すなわちハルシネーション(幻覚)を生むことがあります。この現象を知っているのと知らないのとでは、AIの利用に対する意識は大きく変わってきます。
人は自分がもっている仮説や先入観を肯定するため、もっともらしい文章や自分に都合のいい情報を集めやすい傾向があるといわれています。このため、AIが生成した一見すると完璧にも思える、もっともらしい文章を無意識のうちに鵜呑みにしてしまいがちです。
どんなに便利な道具にも、かならず取り扱い方や注意すべき点があるように、AIがどんなに優れた文章やアイデアを生みだしてくれたとしても、それを採用するかどうか、また最終的に採用した責任をもつのは私たち利用者自身です。
AIの特性を理解し、「この情報は本当に正しいのかな?」と一度立ち止まって確認する意識をもって、一人ひとりが責任ある利用を心がけたいですね。
