AI新闻

已选标签:
AI训练
AI芯片
12月 5日
2 条新闻
08:39

瞄准SpaceX后花园:传OpenAI寻求控股火箭企业,太空或成AI算力新战场

OpenAI CEO 山姆·奥特曼正筹划收购或深度合作一家商业火箭公司,旨在通过太空数据中心解决AI算力需求激增问题。此举措受到包括贝索斯、皮查伊在内的多位科技领袖支持,谷歌已与Planet Labs合作,计划2027年发射搭载自研AI芯片的卫星。然而,面对市场竞争加剧及财务压力,OpenAI需平衡短期应对与长期战略布局。

来源:36氪

06:45

Micro1,作为Scale AI的竞争对手,宣称其年度经常性收入已突破1亿美元

Micro1,作为Scale AI的竞争对手,宣称其年度经常性收入已突破1亿美元

Micro1 作为一家快速成长的 AI 公司,专注于为AI实验室招募和管理用于训练数据的人类专家,其年度经常性收入已从年初的700万美元增长至超过1亿美元。该公司与微软等领先AI实验室合作,通过强化学习提升大语言模型性能。Micro1预计,随着非AI原生企业开始构建内部AI代理及机器人预训练需求的增长,人类数据市场将在两年内从当前的10-15亿美元扩大至近100亿美元。

来源:TechCrunch AI

12月 4日
1 条新闻
10:43

DeepSeek-V3.2被找出bug了:疯狂消耗token,答案还可能出错,研究人员:GRPO老问题没解决

DeepSeek-V3.2被找出bug了:疯狂消耗token,答案还可能出错,研究人员:GRPO老问题没解决

DeepSeek-V3.2在复杂任务中表现出色,但存在token浪费问题。研究指出其GRPO算法存在长度偏见和难度偏见,导致模型生成冗长且不准确的回答。尽管DeepSeek已修正了难度偏见,长度偏见仍待解决。考虑到成本效益,DeepSeek-V3.2的价格优势显著,但128K上下文限制影响了进一步优化。

来源:36氪

12月 3日
2 条新闻
10:52

云计算一哥10分钟发了25个新品!Kimi和MiniMax首次上桌

云计算一哥10分钟发了25个新品!Kimi和MiniMax首次上桌

亚马逊云科技在re:Invent 2025上发布了近40款新品,重点围绕AI Agent、算力及模型。自研芯片Trainium4性能大幅提升,推出AI Factories实现私有数据中心部署。Amazon Bedrock平台新增多款大模型,包括中国Kimi和MiniMax,同时发布自家Nova 2系列,涵盖多模态与定制化需求。针对开发者,推出了Kiro编程助手的自主Agent、安全Agent和运维Agent,全面提升开发效率与安全性。

来源:量子位

00:00

Simular的AI代理希望为您管理Mac和Windows电脑

Simular的AI代理希望为您管理Mac和Windows电脑

Simular,一家专注于为Mac OS和Windows构建AI代理的初创公司,已筹集2150万美元A轮融资。与控制浏览器不同,Simular直接控制PC,执行复杂任务如数据复制粘贴等。其技术结合了深度学习与神经符号计算,旨在解决LLM幻觉问题,通过用户修正锁定成功轨迹,使任务可重复且确定性高。创始人背景包括Google DeepMind,具备连续学习与强化学习专长。

来源:TechCrunch AI

12月 2日
3 条新闻
23:37

Mistral以新开放权重前沿和小型模型逼近大型AI竞争对手

Mistral以新开放权重前沿和小型模型逼近大型AI竞争对手

法国AI初创公司Mistral发布了其新系列的Mistral 3开放权重模型,包括一个具有多模态和多语言能力的大规模前沿模型及九个可离线运行、完全可定制的小型模型。这些模型旨在满足企业级应用需求,通过精细化调整实现更高效的任务处理。Mistral强调,在实际应用场景中,小型模型经过调优后可以匹敌甚至超越大型封闭源模型的表现,尤其在成本控制与性能优化方面展现出优势。

来源:TechCrunch AI

22:29

AI泡沫原罪:英伟达是AI戒不掉的“毒丸”?

AI泡沫原罪:英伟达是AI戒不掉的“毒丸”?

本文通过分析AI产业链核心公司的财务状况,揭示了AI投资热潮下的利润分配不均问题。在AI基建初期,云服务商面临高昂的前期投入与实际现金流紧张的矛盾;算力提供商如英伟达因垄断地位获利丰厚;而下游应用商如OpenAI则因收入增长速度不及成本增加速度而陷入亏损。文章指出,这种利润分配模式导致了整个AI产业生态链的不稳定,需要通过技术创新和商业模式优化来解决。

来源:36氪

18:22

数据中心,电力告急

数据中心,电力告急

随着AI算力需求激增,数据中心电力消耗问题日益突出。高盛报告指出,美国AI发展面临的主要障碍是电力供应。初创公司如PowerLattice和Empower正致力于研发高效电源管理芯片,旨在减少能耗并提升计算效率,预计未来几年内将实现千兆瓦级别的能源节省。同时,第三代半导体材料GaN与SiC的应用,以及800V高压直流架构的推广,将进一步推动AI基础设施向更高效、更环保的方向发展。

来源:36氪

11月 30日
1 条新闻
10:15

华尔街尬捧TPU学术界懵了:何恺明5年前就是TPU编程高手,多新鲜

华尔街尬捧TPU学术界懵了:何恺明5年前就是TPU编程高手,多新鲜

新闻指出,尽管市场对谷歌TPU的突然追捧导致英伟达股价下跌,但Meta、xAI等大公司及学术界早已广泛使用TPU进行AI模型训练。技术上,谷歌与英伟达均未形成绝对优势;成本方面,基于Llama 3.3的评测显示,H100相比TPU v6e在性价比上有显著优势。分析认为,谷歌通过TPU销售更多是为了保障产能而非直接竞争。

来源:量子位

11月 27日
5 条新闻
21:10

谷歌AI往事:隐秘的二十年,与狂奔的365天

谷歌凭借Gemini 3与Nano Banana Pro等模型,在AI生图精度和想象力上取得显著进展,月活跃用户大幅增长。其成功源于长期投资和技术积累,包括早期的‘猫论文’、大规模神经网络训练及DeepMind收购等关键节点。这些举措不仅推动了无监督学习、推荐系统等技术的发展,还促进了整个AI产业的繁荣。

来源:36氪

16:14

5亿热钱砸向清华AI Infra明星:最大化算力效能筑造智能体基建

5亿热钱砸向清华AI Infra明星:最大化算力效能筑造智能体基建

无问芯穹完成近5亿元A+轮融资,累计融资近15亿。公司凭借软硬协同、多元异构的技术优势,在AI基础设施领域实现差异化发展。资金将用于扩大技术领先优势、推动AI云与终端方案规模化拓展及加大智能体基础设施研发投入。其“智能体基础设施×(AI云+终端智能)”战略精准把握了智能体时代的核心需求,展示了在云端大算力、终端大模型推理等方面的体系化能力。

来源:量子位

16:07

月之暗面公开RL训练加速方法:训练速度暴涨97%,长尾延迟狂降93%

月之暗面公开RL训练加速方法:训练速度暴涨97%,长尾延迟狂降93%

月之暗面联合清华大学提出全新加速引擎Seer,显著提升LLM强化学习训练速度,在不改变核心算法前提下,实现Rollout效率提升74%~97%,长尾延迟减少75%~93%。Seer通过三大模块(推理引擎池、请求缓冲区、上下文管理器)和三项关键技术(分段生成、上下文感知调度、自适应分组推测解码),从内存、调度、推理三个维度优化rollout效率。实验验证表明,Seer在不同工作负载中均实现性能突破,吞吐量提升显著,且大幅降低长尾延迟。

来源:量子位

15:58

谷歌 Ironwood TPU 突袭,英伟达 GPU 迎来挑战者?

谷歌 Ironwood TPU 突袭,英伟达 GPU 迎来挑战者?

谷歌发布第七代TPU Ironwood,性能提升显著,与ARM架构AxionVM共同构建全方位AI基础设施体系,提供“AI超级计算机即服务”模式。此方案对大模型训练、推理及服务场景友好,大幅降低AI落地门槛和运维成本。英伟达强调其在通用性、兼容性和生态方面的优势,但市场格局正面临挑战。未来AI芯片市场将呈现多样化共存态势,投资逻辑转向全栈服务能力。

来源:36氪

11月 25日
5 条新闻
20:36

AI芯片开启第二战场

AI芯片开启第二战场

谷歌TPU芯片成为AI硬件焦点,与博通合作开发TPU v7p预计2026年推出。Meta计划租用并部署谷歌TPU,交易规模或达数十亿美元。谷歌TPU在大规模、低功耗推理上展现优势,支持Gemini 3等模型训练。市场对ASIC芯片兴趣重燃,预计2026-2027年各大CSP的ASIC数量将迎来爆发式增长。

来源:36氪

19:34

马斯克开始用Grok替代员工了,最惨部门裁员90%

马斯克开始用Grok替代员工了,最惨部门裁员90%

马斯克正在推动用AI替代人力的战略,通过Grok模型取代X公司中负责安全和内容管理的工程团队。他计划让X的算法完全AI化,并由Grok接管推荐系统及用户兴趣匹配。此外,他还启动了Macrohard项目,旨在利用AI自动化软件开发过程,涵盖代码编写、游戏设计等领域。然而,这种激进策略可能引发平台安全性和核心业务稳定性方面的风险。

来源:36氪

16:28

新加坡国家AI计划放弃Meta模型,转向阿里千问

新加坡国家人工智能计划(AISG)正在进行一次重大战略调整,在其最新的东南亚语言大模型项目中,放弃了Meta模型,转向阿里巴巴的通义千问Qwen开源架构,标志着中国开源AI模型在全球影响力版图中的一次关键扩张。据悉,AISG于11月25日宣布推出的“Qwen-SEA-LION-v4”模型,在一项衡量东南亚语言能力的开源榜单上迅速占据首位。这一转变旨在解决一个长期痛点:此前以Meta的Llama系列为代表的开源模型,在处理印尼语、泰语和马来语等区域性语言时表现不佳,严重制约了本地化AI应用的开发效率与性能。 (上证报)

来源:钛媒体

11月 24日
1 条新闻
17:44

美国AI算力新基建是“泡沫”吗?

美国AI算力新基建是“泡沫”吗?

美国正进行大规模算力投资,以支持通用人工智能的发展,预计吸引超2.5万亿美元投资。尽管存在泡沫风险,但大模型企业如OpenAI和Anthropic的高速增长收入及各行业对AI应用的需求,为这一投资提供了合理性。同时,AI技术推动了云计算行业的显著增长,增加了对芯片和数据中心的需求。然而,需关注潜在的技术迭代减缓、产业链循环投资等风险。

来源:36氪