1月22日,文心 Moment 大会 2026·上海站暨第二届文心大模型生态大会隆重召开。大会汇聚了来自国内外的 AI 技术领袖与产业先锋,围绕大模型技术创新、行业应用与生态建设,集中展示了最新进展与实践成果。
会上正式发布了首批文心大模型软硬一体共创产品。作为文心重要生态伙伴,富通科技与百度文心联合推出富通智核文心大模型一体机,入选首批共创产品序列,以“全栈一体、开箱即用”的产品形态,为医疗、汽车、政务、金融等行业提供安全可控、快速落地的大模型基础设施与应用能力。

富通智核文心大模型一体机入选首批文心大模型软硬一体共创产品
富通东方生态合作中心总经理马洋 (左起第五)在文心Moment大会领取证书软硬一体,推动大模型从“可用”走向“好用”
富通智核文心大模型一体机 面向企业级与行业级大模型落地场景设计,集算力、模型、平台与应用于一体, 支持从 0.3B 轻量部署到 424B 超大模型的全域覆盖,满足不同规模与阶段客户的差异化需求。
在模型层面,富通智核文心大模型一体机已完成对文心 ERNIE 系列模型的深度适配与推理优化,支持私有化部署与高性能推理,结合富通智核企业级智能体平台,企业可快速构建面向本地业务场景的行业智能体,实现“模型即服务、智能即应用”。
在平台与系统层面,富通智核文心大模型一体机内置零代码智能体构建能力、非结构化数据智能转化能力以及云边协同算力调度能力,一站式打通 AI 应用开发、数据治理与算力部署全链路,显著降低企业使用大模型的门槛与成本。
自主专利技术,让小模型释放大模型能力
依托富通科技自主知识产权的动态蒸馏知识库与智能调度体技术,富通智核文心大模型一体机在有限算力资源下实现了接近超大模型的应用效果。在典型业务场景测试显示,21B 规模模型可逼近 300B 大模型能力水平,千级并发下响应延迟 <200ms,与671B模型效果差异 <3%,综合成本仅为传统方案的约1/10,为行业客户提供了更具性价比的大模型落地路径。
在硬件与基础设施层面,富通科技提供覆盖高性能计算服务器、存储服务器、数据中心级网络设备及整机架集成的完整服务器供应方案,通过全栈优化释放 GPU 集群性能,保障大模型推理效率与系统稳定性。
同时,富通智核文心大模型一体机支持交钥匙式交付,从机房部署、环境适配到模型上线全流程覆盖,系统调优、安全策略与运维监控一体化完成,整体部署周期缩短约 60%。
持续适配文心模型体系,构建面向场景的AI产品体系
除大模型一体机外,富通智核 AI 产品体系已完成对文心模型体系的全面适配与集成,并随文心最新模型能力持续演进。在数据治理、智能体开发与行业应用等多个层面,与文心形成深度协同,为客户提供更高性能、更强安全性、更贴近业务场景的 AI 落地体验:
富通智数据工坊以“Data Ready for AI”为核心理念,打通从多源数据接入、智能治理、知识构建到模型训练与智能应用的全链路能力。平台支持私域数据5万条/小时、公域数据1万条/小时的高效处理,最快可实现 T+6 小时上线,通过高效的数据处理与知识构建,加速企业数据向智能生产力转化。
在行业应用层面,富通智核行业客户之声 VOC 平台聚焦汽车行业核心场景,覆盖销售、售后、质量与营销等关键环节,通过“听见—听清—听懂”的方法论,将海量客户声音转化为可执行的业务洞察,实现问题识别、智能派发、处理闭环与效果复盘,助力车企持续提升客户体验与运营效率。
面向更广泛的企业智能化需求,富通智核企业级智能体平台以“AI × 行业 × 场景”为核心,提供开放兼容的模型能力、灵活的多云与私有化部署方式以及即用即交付的产品能力,支持客户从单点应用走向可持续运营的 AI 服务体系建设。
此次联合发布,富通科技与文心在“模型—平台—硬件—场景”多个层面实现深度协同,共同探索 软硬一体、平台驱动、场景导向 的大模型落地路径。双方将持续携手,推动大模型技术在更多行业实现规模化应用,加速 AI 从技术能力向业务价值的转化,助力企业在智能化竞争中构建长期优势。