邀请奖励

限时活动:分享邀请链接,有效邀请 1 位好友完成注册和实名认证,邀请人可得 30元无门槛代金券,被邀请人可得 15元无门槛代金券 (仅限模型API服务)。仅限新用户注册。查看活动详情>

立即邀请

去实名认证
方式一:复制邀请链接
https://ppio.com/user/register?invited_by=******
方式二:复制邀请码
******
方式三:分享海报

邀请数据

奖励金额

此处为您通过邀请或被邀请获得的代金券累计金额,点击查看获得的代金券

邀请人数

您邀请的好友总数

0

热门模型查看更多

全新上线
D
Deepseek V3.1 Terminus
输入 4/ 百万 tokens | 输出 12/ 百万 tokensDeepSeek-V3.1-Terminus在保持deepseek v3.1 模型原有全部能力的同时,解决了用户反馈的关键问题,包括: - 语言一致性:显著减少中英文混合输出,消除异常字符出现 - 智能体性能:进一步优化代码智能体和搜索智能体的功能表现
全新上线
Q
Qwen3 Next 80B A3B Instruct
输入 1/ 百万 tokens | 输出 4/ 百万 tokensQwen3-Next采用高度稀疏的混合专家(MoE)架构设计:模型总参数量达800亿,但每次推理仅激活约30亿参数。实验数据显示,在全局负载均衡机制下,保持激活专家数量不变而持续增加总专家参数量,能有效降低训练损失。相比前代Qwen3的MoE架构(128个总专家,8个路由专家),Qwen3-Next将专家规模扩展至512个,创新采用"10个路由专家+1个共享专家"的组合方案,在最大化资源利用率的同时确保性能无损。 特别值得注意的是,Qwen3-Next-80B-A3B-Instruct版本在性能表现上已接近我们的旗舰模型Qwen3-235B-A22B-Instruct-2507,并在处理超长上下文(最高支持256K tokens)的任务中展现出显著优势。
全新上线
Q
Qwen3 Next 80B A3B Thinking
输入 1/ 百万 tokens | 输出 10/ 百万 tokens Qwen3-Next采用高度稀疏的混合专家(MoE)架构设计:总参数量达800亿,但每个推理步骤仅激活约30亿参数。实验表明,在全局负载均衡机制下,保持激活专家数量不变而增加总专家参数量,能够持续降低训练损失。相较于Qwen3的MoE结构(128个总专家,8个路由专家),Qwen3-Next将规模扩展至512个总专家,创新性地采用"10个路由专家+1个共享专家"的组合策略——在最大化资源利用率的同时确保模型性能不受影响。 其中,Qwen3-Next-80B-A3B-Thinking在复杂推理任务中表现卓越:其性能不仅超越更高成本的Qwen3-30B-A3B-Thinking-2507和Qwen3-32B-Thinking等模型,在多项基准测试中更胜过闭源的Gemini-2.5-Flash-Thinking,并逼近我们的旗舰模型Qwen3-235B-A22B-Thinking-2507的性能水平。

活动 FAQ

Q

deepseek-r1/community 和 deepseek-r1 的区别?

A

Community 版本供大家尝鲜,也是全参数满血版模型,稳定性和效果无差异,如需大量调用则须充值并切换到非 Community 版本。

Q

为什么没有输出思考内容?

A

配置 system prompt:开启深度思考。请用 <think> 和 </think> 包裹你的内部推理过程,最终回复要简洁自然。

Q

有 DeepSeek 模型使用教程吗?

A

PPIO DeepSeek 模型可以与三方工具集成使用。查看使用教程

Q

代金券如何使用?

A

调用 API 时优先扣除代金券额度,代金券不用于充值。

Q

活动代金券使用是否有 RPM(每分钟调用频率)限制?

A

是否使用代金券不影响用户的 RPM,但我们会根据用户的付费状态,设置不同的 RPM 上限。具体说明可参考调用频率控制

立即体验,开启 AI 应用构建之旅