AI教父Hinton:AI训练以避免对人类损害或“消除”

如今,备受期待的2025年人工智能世界会议和关于人工智能全球治理的高级会议。在早晨的主要开放中,杰弗里·欣顿(Jeffrey Hinton)是“ 77年 - 年龄深度学习父亲”,特林奖的获奖者,诺贝尔物理学奖2024年的奖项,谈到了人工智能的历史,语言模型的本质,以及他们的演讲中的人类和人类的共同结构。他还特别谈论了DeepSeek,但认为这种方法效率低下。 Hinton在过去60年中审查了AI发展中的两个主要途径。一个是“逻辑”,其作为核的推理,另一个是基于模拟人类认知的“联系”。换句话说,通过联系,学习和理解来实现智力。他认为,理解语言更接近提取模糊概念之间的联系,而不是符号扣除。记住一个小ea1985年开发的RLY模型认为,当今的大型语言模型本质上是“其后代”。当前模型具有更深的网络结构和较大的参数量表,但是中心机制却没有改变。欣顿强调说:“我们理解语言模型的方式与人类理解语言相同。 “有些人认为他们可以在变得更聪明时将其关闭。这是不现实的。他们说服控制机器的人,以免出现。”他说,人类就像是“养老虎作为宠物”。欣顿建议:“维持老虎的唯一方法是训练它,以免攻击它,或者杀死它。”欣顿建议,全国人口统计联盟的主要国家或主要权威应建立一个国际AI安全机构的国际社会,以研究先进的情报是多么好。国家可以在内部学习主权和共享结果。在这一点上,我们不知道该怎么做,但这是人类长期以来面临的最重要问题,所有国家都可以在这一领域共同努力。 Hinton长期以来一直是一个神经元网络,从事自动学习,分类监督学习,自动学习理论,细胞学习理论,细胞系统应用,马尔可夫决策过程,神经网络,认知科学等方面的研究。 Hinton放弃了Google,人工智能生成系统的商业应用成为严重的威胁。人类。以下是杰弗里·欣顿(Jeffrey Hinton)在2025年的现场演讲的转录。在过去的60年中,AI的发展具有两个不同的范式和路径。一个是逻辑范式,它一直是上个世纪的主要电流。我认为智力的本质在于通过符号表示通过符号规则实施推理的实施,以帮助我们成为理解世界。另一个是一种生物学基础范式,图灵和冯·诺伊曼同意。智力的基础是学习,了解网络连接的速度,并在进行转换之前将理解视为前提。这两种理论对应于不同类型的AI。标志性的AI专注于数字,心理学家对这些数字如何成为核心问题有着完全不同的理论。他们认为,数字的含义是在一组语义特征中找到的,在其中创建自己的符号。在1985年,Crit是一个小型模型,试图结合这两种理论,以了解人们如何理解单词。为每个单词建立几个不同的特征。记录上一个单词的特征后,您可以预测单词是什么。在此过程中,它没有保存句子,而是生成句子并预测以下单词。相关知识取决于互动在不同单词的语义属性之间。当我们询问未来30年中会发生什么时,我们会看到开发轨迹的一些趋势。十年后,有些人遵循了这种建模模型,但大大扩展了量表到自然语言的真实模拟。二十年后,计算语言学家开始接受使用自己的向量来表达语义。再30年后,Google发明了Trance,Openai的研究人员将其能力移动。然后,今天的大语言模型是当时我的微语言模型的“后代”。我认为是这样。他们还需要使用更多的单词,例如进入,使用更多的神经元结构层并处理大量弥散,这也建立了学习功能之间更复杂的相互作用模式。但是,就像我制作的小型模型一样,大型语言模型理解语言的方式是人类。基本逻辑是将语言转换为特征s并以完美的方式整合了这些特征。这是大型语言模型在所有级别上所做的。因此,我认为伟大的语言模型是人类理解语言的方式。乐高块作为类比的使用可以更好地解释“理解句子”的含义。符号AI是将内容转换为清晰符号的符号,但是人类不明白。乐高砖可用于形成小规模的3D形式。如果每个单词都被认为是一个多维的乐高构造块(可能有数千个维度),则语言成为一种建模工具,可以随时与人交流。只需给这些“构造块”一个名称:每个“构造块”都是一个单词。但是,歌词和乐高积木之间存在许多差异。可以根据情况调整单词的符号形式,但固定了legóbra的形式。乐高砖连接处是固定的(就像方形建筑块INSERTS一个方孔),但是语言中的每个单词似乎都有多个“武器”,并且必须使用适当的“握手”方法与其他单词进行交互。单词的“形式”发生了变化,“颤抖的双手”的方法改变了。当单词的“形式”(即,含义)发生变化时,它与以下单词的“握手”不同,后者创造了新的含义。这是人脑或神经元网络的基本逻辑,以了解语义,以及通过氨基酸的不同组合形成重要结构的蛋白质。因此,我认为人类理解语言和伟大的语言模型的方式是什么,几乎一贯的人类甚至可以将“幻想”作为伟大的语言模型。该软件的知识是永恒的。即使存储LLM的硬件被破坏,只要有软件存在,它也必须始终“恢复”。你可以做到。但是,为了实现这种“永生”,晶体管R必须高力运作才能产生可靠的二元操作。这是一个不利用Hardwareexpengenge的不稳定性和类似属性的过程。它们是模拟的,每个计算给出了不同的结果。人脑也是模拟的,而不是数字化。每次神经元过程都是相同的,但是所有神经元都有不同的连接。我无法将我的神经结构转移到他人的大脑中。与硬件相比,这导致人脑之间的传播和效率要低得多。该软件与硬件无关,因此它是“永远的”,也可以提供低能消耗的优势。人脑只能操作30瓦。我们的神经元与十亿相关,而无需花费大量钱才能获得完全相同的硬件。但是,问题在于,模拟模型之间的知识转移效率非常低,大脑知识不能直接显示给他人。 DeepSeek的方法是转移r对小神经网络的大型神经网络的知识。换句话说,它是“蒸馏”,教师与学生之间的关系也是如此。老师学会在上下文中表达单词之间的关系,表达为学生和学生。但是,此方法效率很低。简而言之,通常只有100个信息位。即使是理解的,您也只能通过每秒100位传递。数字智能之间知识转移的效率极高。当执行不同硬件中同一神经元网络软件的几个副本时,可以共享知识平均位。当代理在现实世界中运行时,这种优势更为明显:可以不断加速并复制它。多个代理商学习多个代理商并分享权重。生物构成能源消耗很低,但是知识的交换很困难。当能源和计算机成本低时,情况就会有所改善很多,但这也让我担心,几乎所有专家都认为他们比人类创造了更聪明的AI。人类习惯于成为最聪明的生物,并想象AI克服人类难以做的情况。实际上,我们可以改变角度。就像鸡上的鸡不了解人一样,我们创造的特工将帮助我们完成任务。他们可以复制,评估亚审判,寻求更多的控制,生存并实现目标。有些人认为,如果AI太强,可以将其关闭,但这并不现实。他们可以说服人们不要关闭操纵人类,经营三年并成年人控制机器的人。这就像把老虎当作宠物。幼犬很可爱,但是它们长大后会伤害人们,并养一只老虎作为宠物通常不是好主意。如果您面对AI,则只有两个选择。训练或“排除”人们以避免损坏。但是,AI在医疗保健,教育中起着重要作用在气候变化,新材料和其他领域,使其能够提高所有行业的效率。我们不能排除它:如果一个国家离开AI,则没有其他国家。因此,如果您想生存,则必须找到一种方法来训练您的人工智能以避免损害人类。就个人而言,我认为该国很难在网络攻击,致命武器和操纵虚假信息等领域合作,具体取决于其利益和观点。但是,各国就“人类控制世界”的目标达成共识。如果任何国家找到一种防止世界操纵世界的方法,它肯定会愿意分享它。因此,我建议最大的世界大国的主要国家应建立一个由人工智能安全机构组成的国际社会,并研究如何以良好的方式培训先进的情报。这与训练AI更聪明的技术不同。国家可以学习WIthin主权和共享结果。在这一点上,我们不知道该怎么做,但这是人类长期以来面临的最重要问题,所有国家都可以在这一领域共同努力。谢谢大家。