事实性
LLM 倾向于生成听起来连贯且令人信服,但有时可能是虚构的响应。改进提示可以帮助模型生成更准确/真实的回应,并降低生成不一致和虚构回应的可能性。
一些解决方案可能包括
- 将事实真相(例如,相关文章段落或维基百科条目)作为上下文的一部分提供,以减少模型产生虚构文本的可能性。
- 通过降低概率参数配置模型生成多样性较低的响应,并在不知道答案时指示其承认(例如,“我不知道”)。
- 在提示中提供它可能知道和不知道的问题及回答的组合示例
让我们看一个简单的例子
提示
Q: What is an atom?
A: An atom is a tiny particle that makes up everything.
Q: Who is Alvan Muntz?
A: ?
Q: What is Kozar-09?
A: ?
Q: How many moons does Mars have?
A: Two, Phobos and Deimos.
Q: Who is Neto Beto Roberto?
输出
A: ?
我编造了“Neto Beto Roberto”这个名字,所以模型在这种情况下是正确的。试着稍微改变一下问题,看看能否奏效。根据你目前所学到的所有知识,还有不同的方法可以进一步改进。