大規模言語モデルが嘘つくのはしゃーないんやないかな
何々が真であるという情報に対して、何々は偽であるという情報は少ないからな
人間は、何々が偽であることをわざわざ情報にまとめることが少ないから、ある種のバイアスになってしまうんやと思う