AI新闻

已选标签:
AI训练
1月 15日
6 条新闻
15:54

RISC-V架构AI芯片公司进迭时空再获数亿元融资,新一代RISC-V AI芯片即将发布|硬氪首发

RISC-V芯片先锋「进迭时空」获数亿元B轮融资,以全栈自研技术加速AI算力普及。公司已成功量产高性能RISC-V CPU核与终端AI CPU芯片,瞄准万亿级市场。其核心优势在于自主掌控根技术,实现产品迭代与市场需求紧密绑定,推动AI应用大规模普及。未来将深耕“AI+”与“机器人”两大领域。

来源:36氪

11:47

XSKY发布AI数据方案AIMesh,大幅降低AI推理硬件投入成本

XSKY星辰天合发布全栈AI数据方案AIMesh,包含三个核心组件:训练数据网MeshFS、全局对象网MeshSpace、推理内存网MeshFusion,定位为面向“AI工厂”的数据与内存网。性能上,MeshFS在顺序读带宽上比行业通用方案提升30%,顺序写带宽超出50%,解决训练数据供给滞后问题;MeshSpace单个对象存储桶每秒支持高达一百万对象写入,大块写性能提升近50%,延迟降低30%;MeshFusion将服务器本地NVMeSSD转化为L3级外部内存,以1%的硬件成本实现近乎无限的上下文窗口,大幅降低AI推理的硬件投入成本。(广角观察)

来源:钛媒体

08:39

OpenAI将从Cerebras购买至多750兆瓦算力,交易价值据悉超100亿美元

OpenAI周三表示,该公司将在三年内从芯片制造商Cerebras购买至多750兆瓦的计算能力。据知情人士透露,该交易在合同期内的总价值超过100亿美元。这是OpenAI近期达成的一系列数十亿美元交易中的最新一笔。OpenAI在其网站上发布的一篇文章中表示:“将Cerebras集成到我们的计算解决方案组合中,旨在大幅提升人工智能的响应速度。”OpenAI还表示,这些算力将分批上线,直至2028年。

周三达成的这项合作将有助于Cerebras实现收入来源多元化,摆脱对总部位于阿联酋的科技公司G42的过度依赖。G42既是Cerebras的投资者,也是其最大的客户之一。(广角观察)

来源:钛媒体

08:33

DeepSeek与字节跳动踏进同一条河

DeepSeek发表核心论文,提出流形约束超连接(mHC)架构,直击大规模模型训练稳定性难题。这一创新不仅为硬件受限的中国AI企业提供了性能与效率兼顾的新路径,还通过数学约束与系统级优化解决了字节跳动超连接技术在规模化训练中的信号发散问题。mHC架构的成功,标志着AI竞赛不再仅依赖尖端算力芯片,硬件限制反而成为创新催化剂。

🔗 [核心技术战略白皮书]:https://arxiv.org/abs/2412.07856

来源:36氪

06:30

OpenAI签署价值100亿美元的协议,采购Cerebras计算资源

OpenAI签署价值100亿美元的协议,采购Cerebras计算资源

OpenAI与Cerebras达成超100亿美元计算力协议,确保至2028年享有750兆瓦算力。此合作旨在加速AI响应速度,提供更自然的交互体验,构建实时AI扩展基础。Cerebras声称其专为AI设计的芯片系统比GPU更快,这将彻底改变AI应用领域,如同宽带改变了互联网一样。对于追求效率和差异化竞争力的企业和个人来说,这无疑是一次技术飞跃的机会。

来源:TechCrunch AI

1月 11日
1 条新闻
05:59

据报道,OpenAI要求合同工上传过去工作中的实际作品

OpenAI与Handshake AI正要求第三方承包商上传过去和当前工作的实际内容,以生成高质量的训练数据,旨在提高模型在白领工作自动化方面的能力。此策略涉及上传如Word文档、PDF等真实工作文件,并使用ChatGPT提供的工具清理敏感信息。尽管如此,该方法仍面临知识产权风险,需高度信任承包商处理机密性问题。

来源:TechCrunch AI

1月 10日
1 条新闻
01:51

Meta与三家核能公司签署协议,购买超过6吉瓦的电力

Meta宣布与三家核能公司达成协议,为其数据中心提供稳定电力支持,以满足日益增长的AI计算需求。这包括与两家开发小型模块化反应堆(SMR)的初创公司Oklo和TerraPower的合作,以及从现有核电厂Vistra购买2.1吉瓦电力。此举旨在通过长期稳定的能源供应促进AI技术的发展,特别是对于需要大量算力的大规模模型训练和推理优化等应用场景。

来源:TechCrunch AI

1月 9日
2 条新闻
10:37

黑芝麻智能CMO杨宇欣:AI芯片公司正从”卖铲子”转型为”搭舞台”

美西时间1月6日-8日,钛媒体CES 2026「Talk to the World」系列论坛在拉斯维加斯举办。会上,黑芝麻智能CMO杨宇欣表示,传统芯片公司提供芯片和手册就够了,但AI芯片公司必须搭建完整的技术底座——包括芯片、基础软件、工具链和模型研究团队。AI原生硬件的核心是计算而非连接,必须能自己解决问题。未来每个电子设备都需要算力,出货量将呈金字塔分布:算力越小,出货量越大。(CES 2026)

来源:钛媒体

09:33

a16z 创始人:AI 价格打下来了,机会才刚开始

a16z 创始人 Marc Andreessen 强调,AI 技术变革的关键在于成本的急剧下降而非模型能力突破。智能正从奢侈品变为日用品,小模型和开源技术加速了这一进程。AI 的单位成本下降速度超过摩尔定律,硬件寿命延长进一步降低了单次调用成本。随着价格暴跌,AI 公司收入却快速增长,用户愿意为高效解决问题的服务支付更高费用。未来,AI 应用将更加注重场景化、价值定价,并且领先者与追赶者的差距正在缩小,持续竞争成为常态。

来源:36氪

12月 27日
1 条新闻
02:38

2026年股权市场预测:人工智能代理、重磅IPO及风险投资的未来

TechCrunch 的 Equity 节目回顾了 2025 年 AI 领域的重大发展,包括大规模融资和物理 AI 的崛起,并对 2026 年进行了预测。讨论涵盖AI代理的发展、好莱坞对AI生成内容的抵制及VC面临的流动性危机等话题。特别强调了世界模型作为AI新趋势及其与大语言模型的区别,以及AI初创企业融资模式的变化。

来源:TechCrunch AI

12月 15日
1 条新闻
12:24

60岁俄罗斯大叔靠给AI盖房赚翻了,斩获微软1400亿大单

60岁俄罗斯大叔靠给AI盖房赚翻了,斩获微软1400亿大单

荷兰AI基础设施公司Nebius凭借其强大的工程团队、与英伟达的紧密合作以及独特的资本运作策略,在短时间内赢得微软和Meta的大额算力订单,实现了业绩的飞速增长。Nebius不仅继承了Yandex的技术积累和人才资源,还具备自设计数据中心等关键设施的能力,使其在AI基建领域脱颖而出。通过实施覆盖硬件、IaaS及AI平台的全栈服务战略,Nebius正快速扩张其在全球范围内的算力建设规模,预计到2026年将建成总规模达2.5GW的算力集群。

来源:36氪

12月 14日
2 条新闻
14:27

OpenAI突然开源新模型!99.9%的权重是0,新稀疏性方法代替MoE

OpenAI突然开源新模型!99.9%的权重是0,新稀疏性方法代替MoE

OpenAI开源新模型,采用Circuit Sparsity技术实现99.9%权重为零的稀疏性,使模型计算过程可拆解、易理解,解决了传统稠密Transformer的黑箱问题。该模型通过严格约束减少无效连接,保留关键路径,从而提高决策透明度。相比MoE,Circuit Sparsity在特征流形和功能边界上更优,但当前面临高算力成本挑战。未来研究将致力于优化训练机制,提升效率与实用性。

来源:量子位

04:35

AI数据中心热潮可能对其他基础设施项目不利

AI数据中心热潮可能对其他基础设施项目不利

随着数据中心建设加速,尤其是AI相关的基础设施如大语言模型和多模态模型的部署需求激增,预计2025年将达到超过410亿美元的投资规模。这不仅与政府在交通建设上的支出相当,还导致了劳动力短缺问题加剧,影响其他基础设施项目的进度。此现象反映了AI技术快速发展对算力资源及物理空间的需求增加,同时也提出了成本控制和技术优化的新挑战。

来源:TechCrunch AI

12月 12日
1 条新闻
17:34

装机量超2000万、全球主流GPU与AI框架“开箱即用”,OpenCloudOS成AI时代优先选项

针对AI算力利用率低下及生态割裂问题,OpenCloudOS推出智能基座解决方案,通过统一操作系统底座实现异构硬件和多框架的高效兼容与调度。该方案涵盖镜像小型化、快速分发、自动化维护等关键技术升级,显著提升AI工作负载在云原生环境下的部署效率与资源利用率。此外,OpenCloudOS Infra智能基座还提供了一键安装驱动程序、标准化容器镜像等功能,极大简化了开发者的工作流程,加速AI应用的大规模落地。

来源:36氪

12月 11日
5 条新闻
20:57

时薪120美元,我把自己喂给了AI,顺便砸了自己的饭碗

时薪120美元,我把自己喂给了AI,顺便砸了自己的饭碗

新闻揭示了AI面试平台Mercor通过高薪吸引专家参与,实则以低成本‘收购’其专业知识用于训练模型的现象。该模式绕过传统机构直接从个体获取知识资本,将其转化为可交易的训练样本,展示了AI时代下的一种新型商业模式。尽管引发了对数据安全、隐私保护及伦理道德的担忧,但Mercor仍迅速成长为估值百亿美元的企业,反映了当前AI行业对于高质量训练数据的迫切需求及其背后潜在的技术挑战与产业发展趋势。

来源:36氪

19:55

昔日开源霸主承认蒸馏阿里千问,世界进入中国AI时间

昔日开源霸主承认蒸馏阿里千问,世界进入中国AI时间

阿里巴巴千问Qwen开源模型在性能和生态指标上全面超越Meta的Llama系列,成为全球最强开源AI模型。Qwen支持多模态处理及119种语言,广泛应用于硅谷核心领域及全球开发者社区,显示出中国开源技术在全球化市场中的认可度。阿里的全栈AI布局推动了其商业化成功,并引领全球AI开源生态的结构性重塑。

来源:36氪

19:55

Meta新AI大模型“牛油果”有望明年一季度发布,使用阿里Qwen模型蒸馏学习

Meta 正在开发代号为“牛油果”的新AI模型,采用阿里巴巴Qwen等第三方模型进行蒸馏优化,计划以闭源形式发布。该项目由新任首席AI官Alexandr Wang领导,旨在提升复杂推理和跨模态生成能力。面对高昂的研发成本及市场压力,扎克伯格正推动公司战略转向可变现的人工智能模型研发。

来源:36氪

19:55

2026年,AI服务器贵贵贵

2026年,AI服务器贵贵贵

2026年将成为AI服务器系统级升级的关键期,以GPU和ASIC驱动的设计革新将显著提升计算能力和机柜密度。英伟达与AMD的新平台预计带来更高的功耗需求,促使液冷散热、高效电源解决方案及高端PCB成为标配。随着AI服务器硬件迭代加速,产业链上下游面临全面升级挑战,包括算力效率、成本控制等。全球主要云服务提供商正积极扩大资本支出,为这一贵价升级提供坚实的需求支撑。

来源:36氪

18:50

甲骨文的AI豪赌,是陷阱还是机会?

甲骨文的AI豪赌,是陷阱还是机会?

甲骨文财报显示其AI布局加速,尽管面临现金流和利润率挑战,但云业务尤其是IaaS增速显著,GPU相关收入翻倍。公司通过升级数据库为AI向量数据库,并在多云环境中提供高效算力支持,展示了强大的技术实力与市场竞争力。未来,随着AI基建的持续投入,预计其收入和收益将加速增长。

来源:36氪