
「ハルシネーション」って言う言葉をChatGPTやAI関連の情報をみていると飛び出してくる
なんだと思って調べると「もっともらしい嘘」と言う事なんだが、AIに色々聞いてみたんだが、AIの言い分が最も納得出来る解になっているにも関わらず、ハルシネーションを語るAIコンサルなんかは間違った情報を流布している事の方が「ハルシネーション」ではないかと思うな。
簡単に言うと、中国のAIは解らないが、問いに対する情報が薄い場合、AIはそれらしく回答する様なロジックが搭載されているため、それに影響を受け、文脈を意味が通るように構成して、会話の自然度を優先してアウトプットすると言う事でAIが騙そうとしてアウトプットしているわけではない
まぁ本来ならその問いに対する情報を収集してみたが、余り情報が有りませんとか表示するのがより親切なことになるだろうが、そこは単なるプログラムなので、人間の様には行かない場合の方が多く、根本的に既に出回っているアクセス出来る情報にしかAIもアクセス出来ないわけだ
よって、時間の概念をなくしたとすると、人間も全く同じ大量のリソースを収集する事は可能だ
これが、英語サイトの情報も含め広範囲に大量のデータを分析した場合、その情報自体がバイアスがかかったりすると、AIは集めた情報をベースに自然な回答をする様にプログラムされているので、情報の偏りがあれば、アウトプットはバイアスの影響を受けてしまう。
これを間違っているとか、使えないなぁとか、嘘ついてやがるなんて言うのはナンセンスな話で、おかしいと思ったら指摘すればすぐにピンポイントに情報を集め直し、正しい情報をすぐに修正することも出来るので、確認する方法はいくらでもある
しかし、中途半端にAIを使っているとかAIが答えを出すツールと思っているとAIが嘘をつくとか、プロンプトの下に「ChatGPT の回答は必ずしも正しいとは限りません。重要な情報は確認するようにしてください。」って書いてある注意書きすら本来は不要なんだがITリテラシーが低い人が使うためわざわざ親切に書いてくれているわけだ。
特にキラーワード20選とかこの言葉を覚えておけば大丈夫なんて触れ込みの方が俺にはハルシネーション誘発になっていると知るべきだと思うな
AIと言うプログラムはあくまでも既存のデーターでアクセス出来る情報を元に分析しアウトプットしていると言う大前提を忘れない様に利用するのが建設的と言う事だ。
それと、ChatGPTは特に自然言語AIなので、普通に会話する事が問題の目的なので、仕事を効率化する為の道具ではないと言う事でもある。
仕事の話をAIとすることで色々と問題解決の話しを広範囲の情報を元に解析してくれるので色々な結論がアウトプットされ、それの応用として仕事に生かす事が出来ると言うことなので、答えを求めるのが目的だと、あえて言うが、それは間違ったAIの活用方法で答えを考える為の会話が目的だ
ここを踏まえた使い方が有効に活用する方法だと思って使うと有効に使える



コメント