公開日: / 最終更新日:
AIの
この記事はお役に立ちましたか?
AIの
ハルシネーション
(Hallucination)
とは?
What is AI's "hallucination"?
「ハルシネーション」という言葉は、通常、幻覚や錯覚を指す医学用語です。この言葉は、人が実際には存在しない視覚的、聴覚的、またはその他の感覚的な体験を経験することを表します。これらの幻覚は、視覚幻覚(見えるものが実際には存在しない)、聴覚幻覚(聞こえるものが実際には存在しない)、嗅覚や触覚の幻覚など、さまざまな形で現れることがあります。
AIの文脈では、「ハルシネーション」という用語は、コンピュータやロボットに関連して使用されることがあります。これは、人工知能が誤った情報やデータに基づいて誤った結果を生成することを指す場合があります。つまり、AIが現実とは異なる情報や解釈を提供する場合に、そのAIが「ハルシネーション」していると言われることがあります。これは、AIの誤った判断や意思決定を指して使われることがあります。 引用URL:https://chat.openai.com/share/368dc5d6-6396-41ce-b515-7a3b52c3de4c ※上記は、ChatGPT3.5にて「AIのハルシネーション(Hallucination)とは?」とメッセージを送信し、その回答となります。
ChatGPT3.5では医学用語について触れておりますが、今回は"AIの"という部分なので、後半の内容ですね。
宣伝会議2023年8月号の『ChatGPTと食べログを連携させることでAIの「ハルシネーション」を回避』という文章内に下記内容がございます。
現時点で、生成AIに関する課題は大きく2つある。ひとつは「情報の最新性」、もうひとつは「ハルシネーション(もっともらしいウソ)の回避が難しいこと」だ。 引用元:宣伝会議2023年8月号 ChatGPTと食べログを連携させることでAIの「ハルシネーション」を回避 P. 29
「もっともらしいウソ」というのはとてもわかりやすいですね。
ChatGPTから出てきた情報の正確さは、質問の仕方にもよると思いますが、基本わからないと思っていた方が良いです。
だからこそ、ChatGPTなどのAIを使用した場合は、上記のような形で記載していかないと危険が伴う可能性がございます。