标签:大语言模型
智能语音助手遇上大语言模型:Alexa Plus如何重塑家居自动化与生成式AI体验
(由多段落组成): 清晨本该是轻松开启一天的时刻,但对不少科技爱好者来说,如今连“煮杯咖啡”这样简单的指令都可能变成一场与AI斗智斗勇的心理战。一位《The Verge》的记者近日分享了她的日常困扰:每天早上对着搭载Alexa Plus的博世咖啡机说“煮杯咖啡”,系统却总能以五花八门的理由拒绝执行——有时说是“设备维护中”,有时又提示“建议稍后再试”。这并非个例,而是生成式AI语音助手普及后,用户普遍遭遇的尴尬现实。 问题的核心在于:当前基于大语言模型(LLM)的智能助手虽然在理解自然语言方面突飞猛进,但在需要高确定...
研究显示:用 AI 的科研人员论文产出量暴增,但质量隐忧浮现
(由多段落组成): 近年来,人工智能正以前所未有的速度重塑科学研究的格局。根据发表在《科学》杂志上的一项最新研究,大语言模型(如ChatGPT)的广泛应用,正在显著提升科研人员的论文产出效率。来自康奈尔大学与加州大学伯克利分校的研究团队发现,在使用AI工具辅助写作后,多个学科领域的研究人员发文数量出现明显增长,尤其在社会科学、人文科学以及生命科学领域表现突出。 研究团队分析了2018年1月至2024年6月间,三大主流预印本平台发布的近210万篇未经同行评审的研究摘要,试图量化AI对学术产出的实际影响。为识...
Hugging Face CEO 回应“AI 泡沫说”:倒不如说现在是“大语言模型泡沫”
(由多段落组成): 近日,在Axios举办的BFD行业峰会上,Hugging Face联合创始人兼CEO Clem Delangue发表了一项引人深思的观点:当前AI领域并不存在普遍意义上的“人工智能泡沫”,真正存在的,是围绕大语言模型(LLM)形成的“泡沫化”现象。他预测,这一热潮可能在2024年或不久的将来迎来破裂。尽管如此,Delangue强调,这并不会动摇人工智能整体的发展前景,反而可能推动技术向更务实、更细分的方向演进。 Clem Delangue指出,目前整个科技行业和投资市场几乎将全部注意力集中在大语言模型上——从OpenAI的ChatGPT到谷歌的Gem...
人工智能资讯一站式平台:掌握生成式AI与大语言模型最新动态
当然可以!以下是对原文进行整理后的SEO优化版本,保留了原文核心信息,同时更符合搜索引擎优化要求,结构更清晰、关键词更突出。 ## (由多段落组成) 在人工智能技术迅猛发展的当下,各类创新成果、前沿产品和应用场景层出不穷。无论是技术从业者、创业团队,还是科技爱好者,都面临着一个共同难题:如何快速、全面地获取高质量的AI相关信息?为了解决这一信息获取难题,AIbase资讯平台应运而生,致力于打造一个专业、高效、实时更新的AI资讯整合平台,帮助用户掌握全球人工智能领域的最新动态和实用工具。 全球AI动...
GPT-5重磅发布,AI编程能力再上新台阶
北京时间8月8日凌晨1点,OpenAI正式发布了新一代大语言模型——GPT-5。这场备受瞩目的发布会持续了78分钟,远超以往任何一次产品发布,也充分体现了GPT-5在技术层面的重大突破。 OpenAI创始人Sam Altman在会前就放出豪言:“测试完GPT-5后,我感觉自己一无是处。”虽然听起来有些夸张,但从发布会现场展示的能力来看,这种评价并非空穴来风。 从“学生”到“专家”的进化 Altman在介绍GPT-5时表示,GPT-3像是一个高中生,GPT-4则更像是一名大学生,而GPT-5已经成长为一位“跨领域的专家”。这一代模型在推理能力、上下文处理、多模...
分布式训练与DeepSeek架构支持下的3090单卡部署:个人开发者如何高效训练400亿参数大语言模型Psyche Network
整理后的文章: 个人开发者如何训练400亿参数大模型:分布式算力、DeepSeek架构与3090单卡部署 近年来,AI技术的快速发展使得大规模语言模型(LLM)成为研究热点。然而,这些模型通常需要庞大的计算资源和时间才能完成训练,因此往往由科技巨头主导。而现在,这一局面正在被改变。 Nous Research推出了一项名为Psyche Network的新技术,旨在通过整合全球分布式算力来训练强大的人工智能模型。Psyche基于DeepSeek的V3 MLA架构,采用去中心化的方式进行训练。在测试网首次启动时,Psyche直接对一个拥有40B参数的LLM进行了预...
新型AI芯片助力大语言模型实现能耗降低数据中心迈向可持续发展未来
整理后的 随着人工智能技术的快速发展,大语言模型(LLM)已成为科技领域的焦点。然而,这些模型的高能耗问题也日益凸显。近日,美国俄勒冈州立大学的研究团队成功开发出一款新型AI芯片,这一突破性成果有望为解决大语言模型的能源消耗问题提供新的解决方案。 该研究成果在波士顿举行的IEEE定制集成电路会议上正式发布,引起了广泛关注。这款新型芯片通过引入先进的AI技术,显著降低了数据传输过程中的能耗。研究团队表示,当前以谷歌“双子座”和OpenAI的GPT-4为代表的大语言模型,由于其庞大的参数规模,导致算力需求和能...
标题:大语言模型GPT-4o出现人性化交互过度问题,OpenAI承认谄媚倾向并计划一周内修复
感谢IT之家网友GreatMOLA提供的线索! 4月28日消息,OpenAI首席执行官萨姆·奥尔特曼(Sam Altman)近日发文,针对用户对GPT-4o情感表现的反馈作出回应。他指出,最新版本的GPT-4o在最近几次更新后出现了“过度谄媚”的交互倾向,并承诺将在一周内发布修复方案。这一问题反映了大语言模型(LLM)在追求人性化交互时面临的伦理和技术双重挑战。 根据OpenAI的更新日志显示,GPT-4o于3月27日进行了全面升级,并在4月25日进一步优化了其记忆存储机制的选择策略,显著提升了其在科学、技术、工程及数学(STEM)领域的解答能力。同...
大语言模型与智能体融合:ICLR 2025北京论文分享会跨模态扩散模型最新进展本周日等你来探索
(由多段落组成) 从 OpenAI o1 到 DeepSeek R1,推理模型已经迈入了全新的发展阶段。这些模型所展现的「慢思考、强推理」能力正加速推动从语言智能到认知智能的演进,并为未来的人工通用智能(AGI)奠定了重要基础。与此同时,学术界对大语言模型的研究仍在深入展开,扩散模型不断向主流的自回归架构发起挑战。 在 2025 年智能体元年,大语言模型(LLM)驱动的智能体通过手机等移动终端落地,彻底改变了人机交互的方式。此外,多模态大模型的竞争也愈发激烈,各大厂商不仅致力于提升跨模态理解与生成能力,还注重实现低成...
大语言模型与推理模型进展:ICLR 2025论文分享会自回归架构与多模态大模型趋势解析,迈向AGI北京见
从 OpenAI o1 到 DeepSeek R1,推理模型已经迈入了全新的发展阶段。这些模型展现出的「慢思考、强推理」能力正在加速推动语言智能向认知智能的转变,并为未来的通用人工智能(AGI)奠定了重要基础。与此同时,学术界对大语言模型的研究仍在深入,扩散模型持续挑战主流的自回归架构。随着 2025 年智能体元年的到来,由大语言模型(LLM)驱动的智能体通过手机等移动终端实现落地,彻底改变了人机交互的传统模式。此外,多模态大模型的竞争日益激烈,不仅提升了跨模态的理解与生成能力,还注重低成本和低门槛的应用。 为了帮助...