前几天 DeepSeek 正式发布了 V4 预览版,这个版本着实引起了不少关注,传言从年前开始就没有停过,由于赶上我辞职,没有第一时间去试用,现在有了点时间,于是把它接入了 Opencode 和 Multica,写了这个博客来测试下。
API可用性
到目前为止,DeepSeek API 在任何时间段都是可以正常使用的,没有出现特定时间段高峰排队的问题。开启了史无前例的降价优惠计划(谁家降价直接一折…醉了),也说明这次的发布暂时没有出现之前那种前所未有的火爆,他们的算力应该并没有满载?
Agent 能力专项优化
这可能是 V4 最让我感兴趣的部分。DeepSeek 专门针对主流的 Agent 产品做了适配和优化,包括 Claude Code、OpenClaw、OpenCode、CodeBuddy 等。在代码任务、文档生成等方面不说效果有多大提升,至少稳定性有了很大的提升。
之前的 R1 虽然在评分和日常回答上比较出色,但是在工具调用方面,总是会出现一些莫名其妙的问题,因此不论是 Aider 还是 Opencode 中,我都是使用非思考的 V3 来保证工具调用正常,防止 Agent 无故卡死。
消耗量测试
之前使用 aider-chat + deepseek 的时候,我将博客项目下的几十篇文章都翻译了一次,用 bash 脚本进行任务控制,整个翻译大概花了1个多小时。这次deepseek更新,我使用 opencode + deepseek,直接靠 Agent 本身来进行任务控制,尝试了下效果如何,以及任务执行的时间。
实测下来,一句简单的提示(克隆 silen_blog,创建一个新的分支,在这个分支中,逐步审查 blog_cn 目录的 posts 文件夹下所有中文博客 md 文件,检查其中的中文表达是否合适以及是否有错别字,进行修正,完成修正后,修改推送回 GitHub)让 Agent 在 30 分钟内对我的文章进行了中文表达校对,产生的提交涉及 105 个文件,而我大概有 150+ 的 MD 博客文件。由于只是简单的测试,我并没有逐个博客验证是否都真的审查并修改了,但从 Diff 情况来看,确实找到了不少的错字。
价格方面,使用 Flash 的情况下,消耗了 1 块 5 毛人民币,毕竟这是Opencode,比之前Aider消耗的Token理论上是指数增长的,但是价格上甚至比之前全文翻译便宜了谢。
个人的期待
目前我有许多工作和想法的实现,都高度依赖AI,因此如果我想工作的时候,AI却因为排队无法使用,是非常难受的事情… 然而在国内的AI狂热下连 Minimax 这种参数少的 AI,下午三点都会出现稳定的请求堵塞… 希望在下半年,Deepseek不只是让API降价,也让个人以相对低的成本运行大致能工作的AI成为可能。