全球首个万亿参数开源可商用大模型,Agentic Intelligence 先驱
Kimi K2 是月之暗面(Moonshot AI)于 2025 年 7 月 11 日开源的旗舰大模型。作为全球首个开源可商用的万亿参数规模大模型,Kimi K2 首次将 Agentic Intelligence(自主代理智能)与强大工具调用能力有机整合,在多项基准测试中与 DeepSeek V3 相当。
1 万亿总参数,384 个专家模型
Agentic Intelligence,强大工具调用
Apache 2.0 许可证,可商用
采用 MoE 稀疏架构,每次推理仅激活 32B 参数(384 个专家中动态选择 8 个 + 1 个共享专家),显著降低计算负载。
混合专家架构,动态路由,高效推理
Unsloth 量化版仅需 245GB,原版 1.1TB
支持 vLLM、llama.cpp、Docker 部署
| 模型 | 总参数 | 激活参数 | 上下文 | 开源 |
|---|---|---|---|---|
| Kimi K2 | 1万亿 | 32B | 128K | 是 |
| DeepSeek V3 | 6850亿 | 37B | 128K | 是 |
| Llama 4 Maverick | 4000亿 | 17B | 128K | 是 |
| Claude 3.5 Sonnet | 未公开 | 未公开 | 200K | 否 |
编程能力接近 Claude 3.7,支持多种语言
强大的 Function Calling 能力
出色的上下文理解和对话连贯性
复杂逻辑推理和数学问题求解
自主规划、决策和执行任务
原生中文支持,中文场景表现优异
# 在 Claude Code 中使用 Kimi K2 /model moonshotai/kimi-k2-instruct
pip install vllm from vllm import LLM, SamplingParams llm = LLM(model="moonshotai/Kimi-K2-Instruct") sampling_params = SamplingParams(temperature=0.7, max_tokens=1024) prompts = ["你好,请介绍一下你自己"] outputs = llm.generate(prompts, sampling_params) print(outputs[0].outputs[0].text)
# 下载 1.8-bit 量化版(245GB) # 原版 1.1TB,量化后减少 80% ./llama-cli -m kimi-k2-instruct-Q2_K.gguf \ -p "你是一个有帮助的AI助手" \ --n-predict 512
构建自主决策、工具调用的智能代理
替代 Claude Code 后端,降低成本
Apache 2.0 许可证,可商用部署
量化版支持消费级硬件运行