昊梵体育网

英国伦敦大学学院电脑科学系荣誉教授本特利(Peter Bentley)指出,AI

英国伦敦大学学院电脑科学系荣誉教授本特利(Peter Bentley)指出,AI大语言模型的最大问题是,当面临信息缺失时,它们会“产生幻觉”,即凭空捏造不存在的结果。 本特利教授指出的AI“幻觉”问题,揭示了当前大语言模型在底层架构上的根本缺陷——它们本质上是“流畅的模仿者”而非“真实的理解者”。当信息缺失时,模型并非基于逻辑推理或事实核查进行回应,而是依靠概率分布“编造”出最符合语言习惯的答案,这种将“可信度”与“真实性”脱钩的机制,使AI生成的内容天然具有“以假乱真”的风险。更棘手的是,幻觉并非偶然出现的bug,而是现有技术路线的内生特性:只要大模型仍以预测下一个token为核心目标,而非以建立可靠的事实表征为基础,就永远无法从根本上消除这种“创造性失实”。当前业界试图通过检索增强生成、人类反馈强化学习等手段缓解问题,但这些“外部补丁”并未触及模型缺乏真实世界参照系这一本质缺陷。当AI被广泛应用于医疗咨询、法律建议、新闻报道等对事实准确性有刚性需求的领域时,幻觉问题便从技术瑕疵上升为安全陷阱——一次看似合理的错误回答,可能导致真实的决策偏差甚至生命代价。更令人担忧的是,随着模型参数规模膨胀,其生成内容的表面可信度呈指数级增长,而用户对AI的“权威幻觉”反过来又加剧了错误信息的社会放大效应。破解这一困局,需要学术界跳出“规模竞赛”的路径依赖,重新审视“可信AI”的技术哲学:或许我们不应追求让大模型无所不知,而是教会它们在不确定时坦承“我不知道”——这种谦逊,恰恰是迈向真正智能的关键一步。