新型AI芯片助力大语言模型实现能耗降低数据中心迈向可持续发展未来

整理后的

随着人工智能技术的快速发展,大语言模型(LLM)已成为科技领域的焦点。然而,这些模型的高能耗问题也日益凸显。近日,美国俄勒冈州立大学的研究团队成功开发出一款新型AI芯片,这一突破性成果有望为解决大语言模型的能源消耗问题提供新的解决方案。

该研究成果在波士顿举行的IEEE定制集成电路会议上正式发布,引起了广泛关注。这款新型芯片通过引入先进的AI技术,显著降低了数据传输过程中的能耗。研究团队表示,当前以谷歌“双子座”和OpenAI的GPT-4为代表的大语言模型,由于其庞大的参数规模,导致算力需求和能源消耗急剧上升。

问题的核心在于数据中心的传统铜基通信链路。这种链路在高速数据交换过程中不仅容易产生误差,还会造成大量的能源浪费。尽管传统均衡器可以纠正部分错误,但其自身却是一个高能耗组件。为了解决这一难题,研究团队设计了一种更高效的有线通信芯片。

新芯片的核心优势在于其内置的AI分类器。通过训练该分类器识别并纠正数据传输中的错误,芯片能够以更加智能和高效的方式恢复数据,从而大幅降低能耗。与现有技术相比,这款芯片可将大语言模型的能源消耗减少50%以上,堪称绿色节能的“钥匙”。

这项技术的出现不仅为半导体行业带来了革命性的变化,也为全球范围内的可持续发展提供了重要支持。未来,随着更多类似技术的应用,人工智能领域或将迎来更加环保和高效的计算时代。

本文来源: 界面新闻【阅读原文】
© 版权声明

相关文章

暂无评论

您必须登录才能参与评论!
立即登录
暂无评论...