新华社北京6月25日电 人工智能(AI)中广泛使用的大语言模型不时出现的“一本正经地胡诌”是其难以克服的问题。近日,英国牛津大学研究团队开发出一种名为“语义熵”的新方法,有望大幅提升AI回答的可靠性。
大语言模型的“胡诌”在业界被称为“幻觉”,牛津大学计算机科学系的研究人员提出“语义熵”方法试图解决这一问题。在热力学中,熵描述的是系统的混乱或者说不稳定程度。这项研究中,熵衡量了大语言模型回答的不确定性,不确定性高意味着大语言模型的回答可能存在虚构。
该研究成果已发表在近期出版的英国《自然》杂志上。论文中说,如果AI对同一个问题,给出了许多语义相似的答案,那说明它对自己的回答比较有把握;反之,如果答案五花八门,那就意味着AI自己也“心里没底”,很可能是在“胡诌”。
研究人员利用“语义熵”方法,让大语言模型对同一问题生成多个答案,然后将语义相近的答案聚类,最后根据聚类结果计算熵值。熵值越高,表示大语言模型的回答越不确定。
值得注意的是,这一方法不仅考虑了大语言模型回答的字面差异,更关注语义层面的一致性。这使得“语义熵”能够更准确地识别AI的“胡诌”,而不会被表达方式的多样性所迷惑。
研究结果表明,“语义熵”方法在多个数据集和任务中都表现出色,能有效检测大语言模型的错误回答,并通过拒绝回答不确定的问题来提高整体准确率。更重要的是,这一方法无需修改AI模型本身,可以直接应用于现有的大语言模型。
研究人员说,“语义熵”技术有望在问答系统、文本生成、机器翻译等多个领域发挥重要作用,帮助AI生成更可靠、更有价值的内容。这不仅将提升AI在实际应用中的表现,也将增强用户对AI系统的信任。