>>156
聞き出す方が平均知能だとその辺をさらうだけだからだ
聞き出す方がこの辺やれと言えてないからだ
LLMが知りうる限りの情報を舐めるには
チャットでは時間レスポンスで制限がある
しかもなにもしなければ創造性パラメータtemperatureが大きい方で動く
これはどの辺探るかのベクター値を変化させる量のこと
創造力を期待するなら上げる
0.0が確実性
1.0が創造性
デフォルト0.7
変えたいならプロンプト頭で
temperature=x.x
入れてみよう

それでも最初に狙う「この辺り」を探るわけよ
全部じゃない
それはチャットだからだ
推論が時間かかるのはいろいろ探るからだ
他にAPI使ってさらに指示してみなよ
パラメータも他にもある