LG AI推出韩国首款开源推理型AI模型EXAONE Deep,参数数量领先,人工智能模型数学性能超越Deepseek

随着科技的快速发展,人工智能领域不断涌现新的突破。近日,LG在韩国推出了首个推理型AI大模型——EXAONE Deep。这一模型具备逻辑性和阶段性思考能力,与传统从已有数据中寻找答案的模型有所不同。

近期,来自中国的Deepseek凭借低成本和高性能在全球范围内引起了轰动,甚至对“AI先锋”OpenAI构成了挑战。在此背景下,韩国也开发出了能够与这些国际巨头竞争的AI模型。虽然LG向公众公开了其AI模型,但并未像Deepseek或ChatGPT那样提供直接的用户服务,而是主要将其应用于公司内部的产品开发。

当天,LG人工智能研究院正式发布了其核心模型“EXAONE Deep-32B”。该模型拥有320亿个参数,参数数量越多,AI性能越强,但同时也需要更多的人工智能半导体支持。因此,当前行业内正在努力通过减少参数数量来提升性能。LG强调,尽管其“EXAONE Deep-32B”的参数数量仅为Deepseek-R1的5%,但性能却相当。

为了验证这一点,LG将“EXAONE Deep-32B”与其他知名AI模型进行了对比测试。结果显示,在数学领域,“EXAONE Deep-32B”表现尤为突出。例如,在2024年美国数学奥林匹克竞赛中,它获得了90分,超过了Deepseek的86.7分以及阿里巴巴QwQ-32B的86.7分。此外,在韩国2025年高考数学部分,该模型以94.5分的成绩领先于其他竞争对手。然而,在编码能力和语言理解方面,它略逊于Deepseek等模型。

除了主模型外,LG还推出了两款轻量级模型——EXAONE Deep-7.8B和可在设备上运行的EXAONE Deep-2.4B。据称,轻量级模型虽然只有32B模型大小的24%,但依然保持了95%的性能;而设备端模型规模仅为7.5%,但性能仍达到了86%。

值得注意的是,LG以开源的形式公开了模型的源代码,为其他开发者提供了便利。这种做法与Deepseek类似。不过,目前该AI模型仅限于企业内部使用,因为要实现像Deepseek或OpenAI那样的公众可用性,至少需要投入数百亿韩元的资金。未来,LG计划逐步通过B2B模式扩大服务范围。

本文来源: 站长之家【阅读原文】
© 版权声明

相关文章

暂无评论

您必须登录才能参与评论!
立即登录
暂无评论...