IBM发布 Granite4.0Nano系列:为边缘 AI量身打造的小型开源模型

IBM推出Granite4.0Nano系列小型AI模型,专为本地和边缘推理设计,含8个模型,分350M和1B两种规模。采用混合SSM 与变换器架构,支持基础和指令模式,基于Apache2.0开源许可,兼容vLLM等流行运行时,提升企业控制力。

新闻稿 · AI/边缘计算

IBM发布Granite 4.0 Nano系列小型AI模型:赋能本地与边缘智能

发布:2025-11-03
来源:IBM
Apache 2.0
vLLM 兼容

IBM 正式推出全新的 Granite 4.0 Nano 系列小型人工智能模型,面向本地与边缘推理场景,聚焦高效、低功耗与易部署。该系列共含 8 个模型,提供 350M1B 两种参量规模,兼顾轻量性能与推理精度。

亮点概览

  • 双规模覆盖:350M 与 1B,两种体量、八个变体,适配从微型设备到边缘服务器的多样场景。
  • 混合架构:融合 SSM 与 Transformer,兼具长序列效率与表达能力。
  • 模式灵活:支持 基础模式指令模式,满足通用生成与任务式交互。
  • 开源与兼容:基于 Apache 2.0 许可,兼容 vLLM 等主流推理运行时。
  • 企业可控:支持本地/边缘部署,强化数据主权与合规性。

技术与生态

Granite 4.0 Nano 采用 SSM + Transformer 的混合架构:SSM 在长序列与流式任务上具备更高的计算与内存效率,Transformer 则在语义建模与生成质量方面表现稳定。两者结合,使模型在语义理解、文本生成与实时响应之间取得平衡。

在生态上,系列模型以 Apache 2.0 开源许可发布,便于企业自定义与商用集成;并与 vLLM 等流行运行时兼容,可无缝融入现有推理基础设施,降低部署成本与迁移门槛。

规格一览

项目 Granite 4.0 Nano 350M Granite 4.0 Nano 1B
模型数量 共 8 个(覆盖基础/指令模式等变体)
核心架构 混合 SSM + Transformer
运行时兼容 vLLM 等主流推理运行时
许可协议 Apache 2.0
部署形态 本地/边缘优先,支持离线与内网环境
模式 基础模式 & 指令模式

对企业的意义

随着数据安全与合规要求提升,企业需要在本地与边缘侧运行智能模型。Granite 4.0 Nano 通过轻量化与高效推理,帮助组织在不牺牲隐私与控制力的前提下,获得可靠的生成式 AI 能力。

本文基于公开信息撰写,供媒体与技术团队引用与二次编辑使用。