(由多段落组成):
2024年1月14日,全球投资界迎来一则重磅言论。刚刚卸任伯克希尔·哈撒韦公司CEO的“股神”沃伦·巴菲特,在接受CNBC晚间特别专访时,将当前迅猛发展的AI技术与核武器相提并论,引发广泛关注。这位长期以理性著称的投资大师表示,人工智能的发展速度令人震惊,但其潜在风险可能已经逼近人类历史上最严峻的安全挑战之一。
在长达两个小时的访谈中,巴菲特明确指出,尽管AI正以前所未有的势头重塑各行各业,但即便是行业内的顶尖专家,也无法准确预测这项技术的最终走向。他用哥伦布发现新大陆作比喻:当年的航海者即便误入未知领域,仍有机会返航;而如今的AI发展却已“无法回头”,一旦失控,后果或将难以挽回。
更值得警惕的是,巴菲特引用了爱因斯坦在二战期间关于原子弹研发的一句深刻警示:“科技进步改变了世界,却没有同步改变人类的思维方式。”他认为,这正是AI时代最大的隐患——技术跑得太快,而伦理、监管与全球共识远远滞后。正如核武器从单一国家掌握演变为多国共存的局面,AI也可能逐步落入更多不受控的实体手中,带来不可逆的社会冲击。
回顾自己的职业生涯,巴菲特坦言,即使在战争背景下,核武曾被视为“必要的威慑工具”,但他始终认为,任何可能毁灭人类文明的技术都应被尽全力遏制。这种思考也深深影响了他的慈善理念:如何用资源去预防那些“看不见但致命”的危机,是比财富积累更重要的命题。
值得注意的是,这并非巴菲特首次对AI表达担忧。早在2024年5月的伯克希尔股东大会上,他就曾公开强调,人工智能具备巨大的创新潜力,但同时也潜藏着与之对等的破坏性风险。此次发言进一步表明,他对AI的态度始终秉持审慎立场——既认可其推动生产力的能力,也坚决呼吁社会对其潜在威胁保持高度警觉。
随着生成式AI、大模型和自动化系统的快速普及,巴菲特的警示无疑为科技、金融与政策制定者敲响了警钟。未来,如何在鼓励技术创新的同时建立有效的风险防控机制,将成为全球共同面对的核心议题。
沃伦·巴菲特, 人工智能风险, AI伦理, 核武器类比, 科技失控
本文来源:
IT之家【阅读原文】

