在AI泡沫论的声浪中,谷歌携Gemini 3.0强势回归,全面超越GPT-5.1等竞品,重新登顶AI大模型。从被群嘲掉队到逆风翻盘,谷歌通过全模态路线宣告:AI竞争已从参数竞赛转向生态落地。

长坡厚雪的AI赛道,正赛或许才刚刚开始,而获胜的关键似乎已被谷歌揭晓。DeepMind首席科学家Oriol Vinyals透露,谷歌逆袭的秘密在于“改进了预训练和后训练”。专家分析,Gemini 3.0的进步源于多维度创新,包括数据质量提升、架构微调、训练稳定性增强,以及Tree of Thoughts和Context Engineering等一系列前所未有的技术,让Gemini 3.0更懂用户需求。
大模型训练是复杂系统工程,每个环节的增益都能提升模型性能。过去,华人工程师因擅长优化但缺乏架构级创新而被称为“参数调优工”。然而,在Scaling Law瓶颈日益显现的当下,华人工程师的优势愈发明显。事实上,华人工程师的数量和质量已成为硅谷风投评估AI初创公司的关键指标之一。
黄仁勋反复强调中国有100万全职AI开发者,而硅谷最多只有2万人。尽管中国公司薪酬不及硅谷,但正如Sam Altman所说,“最后赢的会是‘传教士’,而不是‘雇佣兵’”。无论AI竞赛终点是AGI还是ASI,持续创新才能不被淘汰。谷歌证明了比赢更重要的是保持不下牌桌的能力。
经历Bard的失利后,谷歌合并Google Brain和DeepMind,集中资源All in Gemini,并要求所有产品线与Gemini整合。这既是为了打造最强模型,也是基于谷歌商业帝国生态优势的战略选择。凭借Gemini 3.0,谷歌打通了模型 生态的任督二脉。
Gemini 3.0的核心优势在于原生多模态能力。在ScreenSpot-Pro测试中,Gemini 3.0得分达到72.7%,远超GPT-5.1的3.6%。发布当天,Gemini 3.0即与谷歌全系产品深度整合,直接触达20亿搜索月活用户、6.5亿Gemini App用户和1300万开发者,构建了覆盖消费级应用、企业服务和开发者工具的全模态AI产品矩阵。
这种“生态预装”策略打破了AI模型与应用场景的割裂感,使技术升级第一时间转化为用户体验,也让谷歌旗下产品形成前所未有的协同效应。谷歌此次打法是对大力飞砖模式的纠偏,也是AI应用价值的回归。
中国一直坚持应用为王的发展模式,上海世界人工智能大会展示了AI应用的百花齐放。构建繁荣的应用生态需足够大的市场规模和开放的发展环境。中国拥有庞大的市场规模和坚定支持AI开源的政策,使AI应用迅速商业化、普惠化,成为经济社会发展的新引擎。
美国意识到AI算力投入与应用回报失衡问题,特朗普签署“创世纪计划”,旨在利用AI推动科研突破。在此之前,英伟达几乎垄断了AI算力市场,以80%毛利率坐收“GPU税”。但Gemini 3.0完全依托谷歌自研的第七代TPU训练,成本仅为英伟达路线的一半,标志着算力平权的转折。
Meta宣布采购谷歌TPU,表明天下苦英伟达久矣。Gemini 3.0证明了模型架构和定制化芯片的深度协同可以带来非线性的能力突破。市场逐渐接受共识:不用英伟达芯片也能训练顶级AI模型。中国公司因相对廉价的算力能更多投入AI应用研发,算力从“奢侈品”向“基础设施”回归,也是AI产业真正走向普惠的前提。
Gemini 3.0的卓越性能证明了Scaling Law依然有效,但研究者已将目光投向更远的地方。OpenAI创始人之一Ilya认为,预训练 Scaling路线已遇瓶颈,应重构研究范式。Yann LeCun也呼吁“LLM已死”。未来方向可能包括World Model和类脑研究。李飞飞提出,空间智能才是AI的下一个十年。Aizip联合创始人陈羽北认为,大模型未必大在数据,而是大在架构。类脑研究可能推动AI从低效范式转向高效计算的新架构。
对于依赖Scaling Law红利的OpenAI来说,这可能是挑战,但对谷歌这样的研究型公司则是机会。中国也早已启动AI的架构级创新计划,包括基础理论研究、高效训推、扩充模态和迭代提升。Gemini 3.0之后,谷歌把AI竞赛打成了明牌,但假以时日,中国AI的护城河可能更深更广。科技竞争,唯创新者胜。