每日AI快讯

AMD:四季度推出MI325X AI芯片 比英伟达H200快30%

在近期的COMPUTEX台北国际电脑展上,AMD首席执行官苏姿丰宣布了一款创新的AI处理器——MI325X。这款新芯片延续了AMD MI300系列的成功轨迹,配备了革新性的HBM3E高带宽内存技术和CDNA3架构,以确保强大的性能输出。MI325X拥有288GB的HBM3E内存,带宽高达每秒6TB,远超竞争对手,例如在内存容量和带宽上领先英伟达H200约一倍,运算速度也快30%。此外,该芯片在性价比方面表现出色,预计将于今年第四季度上市。 AMD还透露了未来规划,计划在2025年推出采用3nm工艺的MI350系列芯片,基于新的架构设计,内存容量同样为288GB HBM3E...

科大讯飞618开门红销售额同比增长82% 智能硬件六大品类强势夺冠

今年的618购物狂欢节,科大讯飞展现出强劲的销售势头,实现了82%的同比增长。这家国产AI巨头在多个智能硬件领域取得显著成就,包括学习机、电纸书、翻译机、录音笔和会议耳机等,荣膺京东和天猫双平台销售额冠军。科大讯飞T20系列学习机在两大平台上力挫竞争对手,展现了其在教育领域的深厚底蕴和创新技术。电纸书产品线中,讯飞办公本X3系列和Air系列深受好评,而科大讯飞智能会议耳机Pro 2则在新品上市后不久即获得会议耳机类别的桂冠。 此外,科大讯飞的助听器产品在天猫平台连续夺冠,体现了公司在公益和无障碍技术方面...

清北爸爸李永乐都搞不定的事情,这个隐身的大模型在发起挑战

文章: 在当前的教育环境中,家长辅导孩子作业的压力日益增大,甚至出现了“清北精英也无法幸免”的热议话题。近期,一条新闻在社交媒体上引发了广泛关注,标题为“知名科普博主李永乐老师辅导孩子数学也感到困扰”。李永乐,这位北京大学本科、清华大学研究生的学霸,同时也是中国人民大学附属中学的物理教师,竟然在辅导自己孩子数学时遇到了挑战,让人不禁对普通家长的处境深感共鸣。家庭教育的日常仿佛一场情绪的过山车,不涉及作业时,家庭和谐如画,一旦开始学习,便可能瞬间变得混乱不堪。 然而,科技或许为这个困境带...

一上线就爆火出圈!中文语音AI天花板ChatTTS官网上线

ChatTTS,中文语音AI的杰出代表,近日推出官方网站,让用户可以直接在线体验其文本转语音的强大功能。这款备受瞩目的项目自上线以来,在GitHub上迅速积累了超过16.9K的Star,成为了替代GPT-4o的热门选择。ChatTTS不仅提供基础的文字转语音服务,还能实现实时语音对话,用户可以通过调整“Audio Seed”来定制音色,甚至通过特殊标记控制笑声和停顿。此外,它支持多种语言,包括流利的英文,并能出色地处理中英文混合语音。 ChatTTS的一大亮点是它的细粒度控制功能,允许用户精准调控语音中的细节,如笑声、停顿和语气,使得生...

中国发布《生成式AI安全基本要求》,涵盖训练数据、生成内容等

全国网络安全标准化技术委员会最近在其官方网站上发布了《网络安全技术 生成式人工智能服务安全基本要求》征求意见稿,旨在强化生成式人工智能开发和应用的安全性。该标准分为三个部分:标准文本、意见汇总处理表和编制说明。标准文本详细规定了训练数据安全、模型安全等方面的要求。公众可以在2024年7月22日前向国家网安标委秘书处提出反馈意见。 2023年7月,我国七部门发布了《生成式人工智能服务管理暂行办法》,为生成式AI的健康发展提供了法规支持。本次发布的标准进一步细化了《办法》中的安全规定,涵盖了网络安全、...

多模态大模型不够灵活,谷歌DeepMind创新架构Zipper:分开训练再「压缩」

在多模态生成领域,纯解码器模型通过预测下一个 token 来生成各种模态的新序列,如音频、图像或状态-动作序列。这些模型通常通过词汇扩展技术将多模态表征转化为离散 token,然后在预训练或微调阶段进行跨模态对齐。然而,这种方法存在局限性,如无法处理新模态的添加,且缺乏灵活性,因为添加新模态需要重新训练整个模型。为了解决这些问题,Google DeepMind 提出了一种名为“Zipper”的新型多塔解码器架构。Zipper 由多个独立预训练的单模态解码器组成,能在单一模态中预训练,然后通过交叉注意力机制将这些解码器“压缩”在一...

2024过半,AI卷到哪儿了?

在AI大模型领域,创业者和公司面临诸多挑战,如模型更新迅速、与业务结合困难、预算限制及行业内卷现象。大模型公司的价格战导致资源浪费,而真正有价值的产品和技术并未随之提升。行业内的浮躁氛围,如过度营销和排名竞争,掩盖了技术的实际进展。尽管一些大模型公司经历动荡,如清华系衔远科技的领导层变动,但算法和数据资源的重要性日益凸显。国内大模型数量过剩,缺乏实际应用,算法壁垒不高,且优质数据的获取成为关键。商业模式上,To C收费困难,To B市场则需看到实际效益。价格战虽激烈,但低价策略并不能保证商业...

科技早报|Siri大升级或推迟至2025年;英伟达推出AI模型推理微服务NVIDIA NIM

夏普与KDDI携手,计划将即将停产的日本堺工厂转变为AI数据中心,以实现业务转型。堺工厂作为夏普的全资子公司,原本生产大型液晶面板,但随着此次改造,将标志着日本国内电视机面板生产的终结。此举旨在推动夏普轻资产化,利用英伟达的Blackwell GPU提升数据中心能力。另一方面,京东图书针对近期与磨铁集团的争议做出回应,否认与出版行业对立,强调与出版社应为同一阵营,致力于为消费者提供优质的图书和价格。此外,苹果的Siri升级可能面临延期,预计要到2025年才能看到显著提升,包括更自然和智能的交互体验。英伟达则推...

LLM 的“母语”是什么?

在探索大语言模型(LLM)的内部运作机制时,EPFL的研究人员对Llama 2家族进行了深入研究,挑战了普遍认为英语是多语言LLM“母语”的观点。他们通过一系列实验,使用特定提示来揭示模型在处理多语言任务时的思考过程。研究发现,尽管Llama 2在最后的输出层倾向于使用中文,但在中间层的“思考”阶段,它似乎使用了一种偏向英语的“内部语言”,并非直接的英语单词,而是与抽象概念相关联的表示。 研究人员通过翻译任务、重复任务和完形填空任务,观察Llama 2的内部状态是否与特定自然语言对应。实验结果显示,模型在大部分前向传递...

效率2倍于Transformer!彩云科技推出全新模型架构,高分登机器学习顶会ICML

彩云科技近期发布了一项创新的AI通用模型结构——DCFormer,它通过改进注意力矩阵,使得在相同的训练数据和算力下,计算效率可提高至Transformer的两倍。DCFormer改变了Transformer中的向量矩阵推理路径,允许任意线性组合,提供了更多的组合可能性。据实验,一个69亿参数的DCFormer模型在某些情况下超越了120亿参数的模型。该模型的论文已在arXiv上发布,并将在ICML 2024大会上正式发表,其源代码、权重和训练数据集也已开源。 DCFormer与现有模型如Mamba、RetNet等不同,它可以叠加在Transformer基础上进行改进,无需从头训...