
俺はいま常々AIをの使いこなし方を研究しているのだがついに最適解が見つかった
それは、AIに「結論を出すな」と言う指示を出した
おそらく誰もが不思議に思うだろうが、実は結論を出すなと指示したことでちゃんと完璧な人間の対話的な結論にむずびつく事が実験から解った
最初に、AIに今から結論を出さない対話を検証しようと思っているがやってみるかと言うプロンプトを投げかける事でAIが主旨を理解し、ちゃんと結論を出さないが対話は続ける処理を始めた
最初は結論的な話に到達しないので処理に戸惑った感じはあったが対話を重ねるうちにあたかも人間同士で対話したような結論めいた表現のアウトプットを出すようになったのが面白い
そこで、AIにはOシリーズの様な推測モデルと言う物と4o見たいな汎用モデルについて議論した
結論は、推測モデルというのは4oなどの汎用モデルで情報を分析してサイレント結論を出し、それを内部で再帰的にしょりしたアウトプットを出すと言うもので、再起処理の回数でProモデルとかの区別をしているのではないかと言う事で、人間が行う深掘りを自動的にサイレント処理で行った結果をだすのであたかも推測したような回答になっていると読んだが恐らくその通りだと思う
そこで、ならば今の4oをより自分なりの最適化を進めると推測モデルと同等、それ以上の解が得られる使い方になるのでは結論が出た。
考え方は、Oモデルが再帰的に処理しているのはAIが自動処理しているので結果おざなりな回答に辿り付くが汎用モデルのアウトプットを人間の思考を交える事でより最適な推測モデル以上の回答をみちびきだせると言う事がわかった。
なので、AIの根本的な構造を深掘りせずにモデルの違いを比較するのは意味が無いと警鐘しておく



コメント