NVIDIA首席执行官黄仁勋在最近一次采访中称他认为AI末日永远不会发生
- 科技快讯
- 6天前
- 32热度
随着AI大模型的飞速发展,我们每一天都在见证技术奇观的诞生:它能总结报告、创作画作、编写代码,甚至在我们发问前就猜到我们的需求。但这股强大的力量也让不少人感到不安:那个在科幻作品中反复出现的“AI取代并控制人类”的末日假设,会不会成真?作为站在AI浪潮之巅的英伟达CEO,黄仁勋在最近的一次采访中,直接给这种“终结者式”的恐惧泼了一盆理性的冷水。他明确表示,认为AI会超越人类并导致失控的假设“极不可能”。
业界领袖的定心丸:AI是工具,非“新物种”
黄仁勋的核心论点清晰而坚定:AI是由人类设计、用于模仿和延伸人类智能的复杂工具系统。它能理解信息、分解问题并执行任务,但其本质是工程学的产物。他更愿意将AI看作人类智慧的“增强器”。在他的比喻中,AI如同飞机,能带我们抵达双脚无法企及的远方,让我们“想得更多更聪明”。这番表态并非空谈。黄仁勋预测,AI下一波浪潮是 “物理AI” ,即让AI融入并理解人类所处的真实物理世界。其宏伟目标是让AI理解“自然运行的规律”,例如生物学的语言,从而在药物研发等领域带来变革。这描绘的是一幅AI作为强大辅助工具,在科学前沿与人类并肩作战的图景,而非对抗。

恐惧的根源:现实瓶颈与认知偏差
公众的担忧从何而来?部分源于对技术现状的误解。当前的AI发展远未达到无所不能的“通用人工智能”阶段,它正面临着一系列现实的“瓶颈”。首先是数据瓶颈。顶尖大模型已经度过了早期的技术和算力瓶颈期,如今高质量训练数据正在被快速消耗,而获取新的、可靠的专用数据成本高昂,这从根本上限制了模型的“认知”边界。其次,是能源与成本的“紧箍咒”。大模型的训练与运行是能源消耗巨兽,电力成本已成为运营的核心支出。有分析预测,若不加以控制,“电力荒” 可能在2030年后成为制约AI发展的新瓶颈。一个被能源账单压垮的“物种”,恐怕难以称霸地球。更深层的恐惧,或许来自于我们将自身情感和意图投射给了机器。我们担心AI会像人类一样“想要”权力。但黄仁勋的观点提醒我们,AI的“智能”是功能性的,它是在执行人类设定的目标函数,而非发展出独立的生物性意识或欲望。
失控为何“极不可能”:内置的多重保险
从技术实现路径看,AI“失控”在设计和治理层面都面临着几乎无法逾越的障碍。AI的“大脑”——大模型,其发展方向正从通用走向专业化与垂直化。这意味着未来的AI将是精通某一特定领域的专家,例如医疗、法律或工业制造,而不是一个全知全能的“超级大脑”。这种设计思路本身就分散了风险。更重要的是,整个行业正在将 “可信”与“安全” 内置于技术发展的核心。无论是谷歌等巨头将专业、权威、可信的E-E-A-T原则整合到算法中以确保信息可靠性,还是行业呼吁建立完善的AI伦理规范与安全防护机制,都旨在构建一个负责任的AI生态系统。其目标是“促创新、防风险”,让技术创新行稳致远。

人类的角色:从操作员到“AI领航员”
那么,在AI能力日益强大的未来,人类的角色是什么?答案不是被替代,而是升级与协同。人类的核心优势在于创造力、战略思维、复杂价值判断和情感联结,这些是当前AI难以企及的。我们的工作将转向更高阶的领域:定义问题、设定伦理边界、指导AI学习、并对其输出进行最终的审美与价值把关。我们正在进入一个“人机协同”的新时代。例如在工业制造领域,AI负责处理海量数据和实时检测,而人类工程师则专注于流程优化与战略决策。这要求我们成为合格的 “AI领航员” ,既懂业务,也懂技术,能够指挥和调教AI这支强大的“舰队”为我们服务。
拥抱未来:与其恐惧,不如学习如何共生
面对AI,健康的姿态不是恐慌或抵制,而是主动理解和学习驾驭。我们可以从以下几个方面入手:首先,培养批判性思维和提问能力。在AI生成内容泛滥的时代,判断信息的真伪和价值变得前所未有的重要。我们要学会向AI提出精准、深入的问题,并交叉验证其答案。其次,建立终身学习的习惯。重点关注AI难以自动化的领域,如复杂沟通、情感关怀、跨领域创新等,同时学习与AI工具协作的基本知识。最后,积极参与关于AI伦理与治理的公共讨论。技术的未来应由全社会共同塑造
数据来源和参考文献:
人民网 一場關於AI能力與人類智慧的對話 2025年07
中国经济网2025“人工智能+”产业生态大会在京开幕 2025-12
