>>134
いやお前の日本語たどたどしいからw
一行目と二行目日本語だと意味逆なんだわ

LLMの仕組み上そうなってんのに、ソースとかAI使ったところで馬鹿隠せてねえじゃんwww
自分のAIに聞けよww教えてくれるだろ
そんな事もできねえのによく言えたもんだなwwww
人間が受ける試験は一定水準で合否を決めるが
AIが満点取れないってそれ自体が誤差で正解を出し続けられない証明なんだが

頭いかれてんねw