来自大众点评网http://www.dianping.com/的优秀用户梨子,于2023.12.22 18:45:23在经验百科知识平台总结分享了一篇关于“为什么大模型会「说胡话」怎样解决大模型「幻觉」问题”的百科,非常感谢梨子的辛苦付出,他总结的解决技巧方法及常用办法如下:简要回答
ChatGPT推出之后人工智能开始席卷全球,各行各业都开始探索人工智能的应用,但在使用的时候仍然会出现大模型说胡话的现象。想要克服这种问题就需要从训练层面或者从用户层面上下手,提高大模型训练数据的质量,使用一些比较合适的训练算法。就能够有效解决大模型出现幻觉的问题。
在训练大模型时有一些数据大部分都是互联网上的各种文章、书籍、网站或者新闻所覆盖的文本资料。这些数据在某种程度上给大模型提供了非常有价值的语言模式,但是在训练时也不可避免地会摄入一些不准确的信息,因为出现在互联网上的信息并不是全部都是准确的。这个时候在输入一些文本时大模型所给出的答案很有可能是自相矛盾的或者是一种错误的表述。
想要克服这种问题就需要从多个层面考虑,比如说大模型的训练层面,以及用户在使用大模型时的场景,开发者可以在训练大模型时挑出一些不准确的数据,或者是对于某些问题有偏见的数据,多纳入一些多样化或者可靠的数据来源。而这些来源都是经过事实审查的,通过这种方式训练出来的数据大模型在回答问题时就会更加的准确。
大模型语言究竟如何训练也至关重要,关乎着后续在推理时大模型究竟是否会产生幻觉,因此在训练阶段可以考虑融入一些比较有助于文本生成或者是和事实一致的文本策略,训练好的数据大模型在推理的阶段仍然可以验证。或者是通过一些事实去审查数据比如在生成的过程中,用户可以进行一些判断或者是引用一些交叉的内容而保证大模型给出的答案是准确的。
声明:本篇经验系智囊团网「www.zntw.cn」原创,转载请注明出处。