当前位置: 模型材料 >> 模型材料资源 >> 大型语言模型知道它们在说什么吗
大型语言模型似乎具有智能推理的能力,但这是否意味着它们真的理解事情?
(LLM)才刚刚进入主流思想,并且已经证明自己是与数据交互的强大工具。虽然有些人可能将它们归类为仅仅是一种非常酷的新形式的用户界面,但另一些人则认为这可能是通用人工智能的开始。
大型语言模型可以创建堆叠任意对象的新颖解决方案,提高在绘制独角兽的能力,并以SnoopDogg的风格解释量子理论。但这是否意味着这些大预言模型实际上了解独角兽或史努比狗狗?
他们确实知道一些事情。他们将单词、句子和文档转换为语义向量,并根据这些嵌入了解语言片段的相对含义。他们知道数十亿(有时是数万亿)参数中的各种权重和偏差值,这使他们能够可靠地为各种具有挑战性的人造测试提供正确的答案。但他们是否真正“了解”某些东西还有待商榷。在这个领域,专家——一个人如何知道任何事情——超出了技术领域。几千年来,哲学家们一直在与知识的本质进行斗争。
知识到底是什么?试图给哲学家确定知识的定义可能导致许多博士生退出学术界。年,埃德蒙·盖蒂尔(EdmundGettier)试图通过论文“合理的真实信念知识吗?”来给知识下一个简单的定义。简而言之,要了解某件事,那件事必须是真的,你必须相信它是真的,并且你必须有理由相信它是真的——一个合理的真实信念(JTB)。就拿我明天去银行存支票的提议来说吧。我已经清理了我的日程安排,检查了他们网站上的银行营业时间,并设置了闹钟。然而,由于改造,银行关闭了。这不是JTB:我相信它,信息证实了它的合理性,但我掌握的信息并不真实。
当然,这只会让哲学家们对正当性、信仰和真理的本质产生争论。这并不是他希望的灵丹妙药,尽管它确实为思考知识提供了一个不错的框架。
许多哲学家都假设知识来自于对世界的感知和互动。乔治·伯克利在《关于人类知识原理的论文》中写道:“由于我不可能在没有实际感觉的情况下看到或感觉到任何事物,所以我不可能在我的思想中构想任何明智的想法。不同于对它的感觉或感知的事物或物体。”当然,这为我们打开了像《黑客帝国》这样的场景,其中的感知是错误的。尼奥,你真的会功夫吗?
建构主义者怎么说像让·皮亚杰(JeanPiaget)这样的建构主义者建立在感知作为知识的概念之上,来考虑包含这些感知的象征概念。例如,当你遇到一匹马时,它的样子、气味、声音都会与你对“马”的概念联系起来。然后,“马”被分为“哺乳动物”、“动物”和“农场动物”等类别。这些象征性概念是在一个人的童年时期建立起来的,以婴儿期的纯粹感觉时期为基础,将象征、类别和联想分层。
并非每个人都对概念有相同的联想。以海伦凯勒的颜色概念为例。她又盲又聋,所以她对红色的概念来自于其他经历:“一种是健康身体里温暖的血液的红色;一种是健康身体里温暖的血液的红色;一种是健康身体里温暖的血液的红色。”另一种是地狱和仇恨的红色。”但是,虽然她的概念植根于不同的感知和经验,但它们仍然基于某种感官输入,而不是纯粹的概念操纵。
基于这两种思想流派,很难证明大型语言模型拥有知识的观点是合理的。他们给出的任何答案都是基于对概念的操纵,但从头到尾都是概念。如果大型语言模型有感觉器官,那么它就是Transformer模型本身,它感知到的都是非常漂亮地排列成文本的单词。这些词所唤起的世界观缺失了(尽管研究正在寻求改变这一点)。
理性主义者怎么说但感知者(和建构主义者)并不是唯一的知识学派。有许多哲学家相信你可以通过纯粹理性获得知识。这些通常以一些首要原则为给定,无论是自我、上帝还是客观现实。笛卡尔的“我思故我在”试图定义一个不言而喻的真实陈述,可以将其用作首要原则。
另一位理性主义者巴鲁克·斯宾诺莎甚至宣称,知觉是不精确的定性观念,会导致知识混乱。“真正的想法意味着完美地或以最好的方式了解一件事,”他写道。所有的因果关系和关联关系都是理解这个概念所必需的。毕竟,你的看法可能有缺陷,所以纯粹的理性才是正确的选择。当然,如果你可以怀疑自己的看法,那么什么能阻止你怀疑自己的推理呢?但我离题了。
理性主义人群打开了考虑大型语言模型拥有知识的大门。如果深度学习模型以一种掌握单词和单词组之间各种语义联系的方式操纵语言,那么它是否会得出某种真正的想法?最终,这意味着您只需处理用于描述知识的语言即可获得所有知识。知识和用来传达知识的语言本质上是同一件事。
一些致力于当今最流行的人工智能模型的关键参与者也有同样的观点。OpenAI首席科学家IlyaSutskever在最近的一次采访中表示:“当我们训练一个大型神经网络来准确预测互联网上大量不同文本中的下一个单词时,它正在学习一个世界模型。”。“从表面上看,我们只是在学习文本中的统计相关性,但事实证明,为了学习文本中的统计相关性,神经网络学习的是生成文本的过程的某种表示。这段文字实际上是对世界的投影。神经网络越来越多地了解世界、人类、人类状况、他们的希望、梦想和动机,以及他们在我们所处情境中的相互作用。神经网络学习一种压缩的、抽象的、可用的表示形式的。这就是通过准确预测下一个单词所学到的东西。”
危险在于,这种抽象的、二阶的世界表征给了我们理解的错觉。先驱软件工程师GradyBooch总结道:
懂得语言就足以拥有知识吗?反对人工智能通过掌握语言来获得知识(或理解,这可能是同一件事)的经典论点是约翰·塞尔的中文室论点。简而言之,一个不懂中文的人被锁在一个房间里,并被喂以中文写的问题。他在规则手册中查找这些符号,然后用中文发出答案。这个人不理解传递给他的任何东西,只是在操纵他不理解的符号。
未来学家雷·库兹韦尔(RayKurzweil),曾经的技术乐观主义者,肯定地说,人不懂中文,但系统——规则手册和人一起——理解中文。本质上,如果系统能够令人信服地用中文回答问题,那么它必须理解中文。随着这些大型语言模型的语言语义向量化,也许可以公平地说他们理解语言。但正如任何使用宝贵的一页笔记回答考试问题的本科生都会告诉你的那样,理解语言不足以了解材料。
当然,大型语言模型并不总是能得到正确的答案。他们被发现在棘手的问题上犯了直觉错误,搞砸了基本算术,并从整个统计数据中产生了幻觉事实。虽然大型语言模型已经变得更好,但基本事实是,它们只是为了操作语言而优化的系统,以便对给定提示的响应令用户满意,即使它并不总是正确的。
大语言模型有知识吗?
聊天机器人:是的,一个大型语言模型,就像我所基于的模型一样,拥有大量的知识。它接受了各种文本源的训练,这使得它能够学习和理解各种主题、事实和概念。然而,值得注意的是,语言模型的知识仅限于其训练数据中可用的信息,并且可能并不总是最新或准确的。此外,语言模型对知识的理解与人类的理解不同,因为它缺乏意识和现实世界的经验。
大语言模型不是只是在操纵符号而不理解它们的含义吗?
聊天机器人:是的,没错。大型语言模型(LLM)本质上是根据在训练过程中学到的模式来操纵符号,例如单词和短语。它不像人类那样真正理解这些符号背后的含义。该模型根据训练数据中单词和短语之间的统计关系生成响应,而不是对所讨论的概念的真正理解。这就是为什么有时大型语言模型生成的答案可能看起来连贯,但可能不完全准确或与上下文相关。根据记录,大型语言模型同意我的观点。
一些人认为深度学习不足以让我们获得理解和拥有知识的系统。纽约大学认知科学教授加里·马库斯认为计算机需要更好的符号,让它们能够代表语言符号之间的概念关联和因果关系。这与皮亚杰的上述想法相吻合,因此它可能更接近人类的发展方式。获得大型语言模型的手、脚和感觉外围设备,我们可能会进行不同的对话(遗憾的是,对话以“我正在寻找莎拉·康纳”开始)。
多模态模型(例如同时理解文本和图像的大型语言模型)已证明其推理能力比仅具有单一意义的模型有所提高。虽然符号逻辑很诱人,但值得记住的是,正是这个概念主导了人工智能数十年,而在这段时间里,几乎没有取得宝贵的进展。
知识是可操作的有很多知识领域可以为我们人类提供用处。因为我们的问题为试图解决问题的人们提供了及时的知识。但其他信息(例如银行的营业时间或您的用户名和密码)仅在您尝试完成某些任务时才有用。对于相互竞争的知识体系(例如平坦的地球与圆形的地球),可以通过遵循它们能够完成的事情来更好地判断。
大预言模型当然会产生信息,但它是基于大量人类产生的(通常是人类标记的)知识训练集。训练集中的知识库作为数据,大型语言模型将其处理成信息。你和我可以接受这一点并采取行动,但这会减少原始知识,可能会被误解,也可能会被重新混合而造成混乱。
不要误会我的意思——我认为新一波的大型语言模型非常酷,将改变我们的工作方式。我在这篇文章中使用了一个来获取有关认识论流派的信息并讨论一些其他想法。很难说它提供的信息是否具有可操作性;它为我提供了获取人类创造知识的富有成效的途径,但我不相信它能把一切都做好。可操作意味着一个参与者、某个实体用该信息做某事。虽然自我修复代码和AutoGPT应用程序是迈向自治的令人印象深刻的一步,但它们都需要人类的提示。
#乐享周末分享吧#将人工智能生成的信息视为纯粹可操作的信息可能是大型语言模型的最大危险,尤其是随着越来越多的网络内容由GPT和其他内容生成:我们将淹没在无人理解的信息中。原始知识将被深度学习模型吸收,处理成向量,并作为统计上准确的答案输出。我们已经处于错误信息的黄金时代,因为任何人都可以使用他们的网站发布任何他们喜欢的内容,无论真实与否,而且都没有经过审查。想象一下,材料甚至不需要经过人工编辑。