克雷西发自凹非寺
量子位 | 公众号 QbitAI
DeepSeek 也有自己专属的 Coding Agent 了。
名字简单粗暴,就叫 DeepSeek-TUI,作者自称是一名“鲸鱼兄弟”的 DeepSeek 爱好者。
刚刚,这个项目的星标数突然开始骤增,来到了 2.3k,还登上了 GitHub 热榜。

这是一个用 Rust 语言编写的 TUI 编程工具,像 Claude Code 一样在终端里运行,但专门针对 DeepSeek 做了优化适配。
为了向国内网友宣传自己的作品,作者 Hunter Bown 还特意用 DeepSeek 把宣传推文翻译成了中文。

当 DeepSeek-TUI 在 GitHub 上如他所愿爆火之后,Hunter 发图哦直言这是自己人生中最疯狂的两天,并用中文向“鲸鱼兄弟”们表示了感谢。

“DeepSeek 版 Claude Code”
DeepSeek-TUI 就是一个住在终端里的编程 Agent,再简单点理解,就是“DeepSeek 版 Claude Code”。
它在今年 1 月由美国独立开发者 Hunter Bown 发起,用 Rust 语言编写,MIT 协议开源,但一直不温不火,直到 DeepSeek-V4 的发布和 Hunter 的中文宣传,这个项目在这个五一假期开始爆火。

像读写文件、执行 Shell、搜网页、管 Git、调度子 Agent、接 MCP 服务器……这些 Claude Code 能干活的它基本都能干,也支持安装 Skills,只不过换成了 DeepSeek V4 在背后跑。

整个工具从设计逻辑到功能细节,都在围绕 DeepSeek 的特性转。
最直接的一个是思维链。
DeepSeek-TUI 把模型的推理过程直接流式输出到终端里——模型怎么分析问题、走了哪条路、中途改没改主意,全部实时可见。
然后是上下文。V4 支持 100 万 token 的上下文窗口,项目默认就把这个用满,跑复杂任务从头到尾不用担心记忆断档。
上下文快填满时,TUI 会自动对内容进行压缩,也可以手动/compact 触发。
压缩策略专门考虑了 DeepSeek 的前缀缓存机制——尽量保住前面稳定的部分,让缓存能继续命中。
这个 TUI 还有一个设计叫 RLM,思路“很 DeepSeek”——既然 DeepSeek 便宜到可以拿来堆数量,这个工具就把这个特性直接用进来了。
在 RLM 模式中,一个主模型指挥最多 16 个 V4 Flash 子任务同时跑,用来做批量分析或任务拆解。Flash 的输出价格大约是 Pro 的三分之一,把不需要强推理的子任务交给它,整体花费能砍不少。

模型切换也做了专门处理,除了 DeepSeek 官方 API,还支持 NVIDIA NIM、Fireworks、自托管的 SGLang 几条路径。
操作模式则一共有三档:
- Plan 是只读探索,先给你出个方案再说;
- Agent 是默认档,每步工具调用都要你点头;
- YOLO 顾名思义,全自动放行,不想被打断就开它。会话可以保存恢复,工作区有独立 Git 快照兜底,按轮次回滚不动原仓库,翻车了也不慌。

不过有一点需要注意的是,子 Agent 开多了,缓存命中率很难保证。
要知道,未命中的 token 价格是命中的 10 倍,项目界面上有逐轮费用显示,跑长会话建议留意一下,别跑完账单吓一跳。
安装上,Linux、macOS、Windows 都有预编译二进制,npm install -g deepseek-tui 一条命令搞定。
另外,作者还给国内用户准备了专门的中文版 README 文档和专门配置路径,支持 TUNA Cargo 镜像,release 包还可以托管到阿里云 OSS 或腾讯云 COS。
项目 1 月 19 日建仓,到现在不到 4 个月,已经迭代到 v0.8.8,发布了 37 个版本,节奏不慢。

从更新记录来看,大致分几个阶段。
早期版本主要在搭骨架——工具调用、session 管理、基础的 Git 快照,把 Agent 跑起来是第一优先级。
v0.7.x 阶段开始往细节上打磨,加了多语言界面支持(v0.7.6)、中文等语言的 TUI 提示、帮助文本、状态栏开始本地化,这也是为国内用户做适配的一步。
v0.8.x 是最近几个版本的主轴,重心在稳定性和体验打磨上。
- v0.8.2 专门修了长会话里文件句柄泄漏的问题;
- v0.8.6/v0.8.7 往上加了一批交互功能,包括限流或服务器报错时显示倒计时重试横幅、输入历史搜索、运行中消息队列可视化;
- v0.8.8 在这个基础上做了一轮收口,同时把 Linux ARM64 预编译二进制补上了。
整体节奏上看,这个迭代路径中功能更新密集,但每个版本基本都有明确的问题要解决。
“爱科学的音乐家”
实际上,Hunter 一直是一名 DeepSeek 狂热粉丝,自打 V4 出来之后,他就发过很多推文不断称赞。

同时他也爱好其他中国模型,参加过小米的百万亿 Token 创造者激励计划。

而 Hunter Bown 的起点,其实是音乐,他曾立志当一名乐队指挥。
他先是在北得克萨斯州大学修读音乐教育,毕业后继续深造,取得了南方卫理公会大学的音乐教育硕士。

硕士毕业后,Hunter 如愿当了 3 年的乐队指挥。

后来,他拿了得克萨斯大学达拉斯分校的 MBA,之后又回到了之前的母校 SMU,进入法学院专攻专利法。

至于码代码这件事,就更是“半路出家”的选择了。
但这个“半路”不是转行,更像是几条线最终汇到了一起。
他在学声乐科学时接触到一个概念叫“缺失基音”(missing fundamental)——人耳可以从泛音里重建出一个物理上并不存在的音高。
他后来发现这和信息论直接对应,你不需要把所有信息都显式给出,系统本身也会补全。
这个从音乐里来的直觉,成了他理解 AI 系统的一把钥匙。
去年,他给自己创立了一个工作室,名字叫 Shannon Labs,定位是“AGI 时代的下一个贝尔实验室”。
DeepSeek-TUI 在他这里只是众多研究项目之一,他的 GitHub 上有 65 个公开仓库,包括面向 NVIDIA Nemotron 的同款终端 Agent NeMoCode,以及 MLX kernel 工具包等等。

Shannon Labs 旗下的项目跨度更大。
- Hegelion 是一个辩证推理引擎,走的是"正题→反题→合题"的循环逻辑;
- Aleph 是一个 MCP 服务器,主打零 token 成本的大容量上下文;
- Heliosinger 则把太阳风数据实时转化成声音,从 AI 基础设施一路跨界到了到太空声学。

他还自己建了三套软件架构(SCU、Driftlock、Hegelion)和一个硬件方案(Driftlock Choir),在他看来,这些拼在一起,是在为 AGI 时代做基础设施。
能把这些方向拼在一起,也和他的家族故事颇具关联。
他的曾祖父 Ralph Bown Sr. 是贝尔实验室的研究副总裁、无线电先驱,业余时间喜欢自制蜡筒、跑去卡内基音乐厅录音。

Hunter 在专利法课堂上意识到,自己正在走一条和这位先祖交汇的路——
把音乐人的感知方式带进技术研究,去发现那些“因为没有这种背景的研究者而被忽视的想法”。
他在个人网站上将自己和曾祖父进行了对比,“他是科学家,爱音乐;我是音乐家,爱科学。”

One More Thing
在 DeepSeek-TUI 的贡献者列表当中,还能看到一些我们熟悉的影子。
其中包括了 Claude、Gemini、Qwen 等一系列 AI 模型和 Cursor、GitHub Copilot 等编程工具。

详细记录则表明,大部分的代码由 Hunter 直接提交,还有 150 多次 commit 是 Claude 做的,另外还有一些真人贡献者提交了少量的 commit。

半路出家的程序员,用 AI 辅助编程给 AI 写辅助编程框架,这工作流也是闭环了(手动狗头)。
GitHub 地址:
