zbo智博1919com

新闻中心 新闻中心

省token神器3天狂揽4.1k星!!19岁小哥开发,,信息无损最高省87%

信息无损Token最高节俭87%,,一

作者:程俊宪
颁布功夫:2026-05-14 01:59:22
阅读量:1

省token神器3天狂揽4.1k星!!19岁小哥开发,,信息无损最高省87%

信息无损Token最高节俭87%,,一款省Token神器正在GitHub蹿红。

短短3天,,纯靠口口相传,,GitHub总揽星4.1K,,增长曲线更是堪比“旱地拔葱”:

连开发这个项主张19岁外国小哥也懵了,,直呼属实没想到。

正本是自己顺手花10分钟写的一个“joke”,,了局却不测受到各人的追捧。

他之所以将其称为“joke”,,也切实是由于这个名为caveman(山顶洞人)的项目,,背后道理过于单一:啰嗦并不总是更好,,有时字数少=更正确。

没错,,这个给Claude Code/Codex用的插件,,主题指标就是让Agent“像山顶洞人一样措辞”(俗称言简意赅)。

好比明明给的解决规划一样,,通常Claude必要用一大段话来描述:

(翻译)你的React组件之所以会重新渲染,,很可能是由于你在每次渲染周期中都创建了一个新的对象引用。当你将一个内联对象作为prop传递时,,React的浅层比力会以为它每次都是一个分歧的对象,,从而触发重新渲染。我建议你使用 useMemo 来缓存该对象。

而caveman则相当简洁:

(翻译)每次渲染城市创建新的对象引用。内联对象作为prop传递=新的引用=触发重新渲染。用useMemo包裹起来即可。

初步测试显示,,它在维持齐全技术正确性的同时,,将输出Token削减约75%。

此外还有一个配套工具,,能够压缩用户的影象文件,,从而将每次会话的输入Token削减约45%。

目前这个插件在支持skills的环境中,,已经能够一行装置:

npx skills add JuliusBrussee/caveman

“有时少数Token就够了”

厚道说,,让Agent学会言简意赅从而节俭Token的设法,,也不是第一天出现了。

开发caveman的小哥就提到,,今年3月的一篇论文已经发现:

通过简洁性约束(强制简短回覆),,大模型的正确率提升了26个百分点,,并且在数学推理和科学知识基准上,,齐全逆转了机能层级(正本大模型不如小模型,,了局后来反超了)。

所以小哥就说了,,caveman的诞生就源于这样一小我所共知的观察——

“山顶洞人式表白”(caveman-speak)能大幅削减大说话模型的Token使用量,,同时不损失技术内容内容。

来看一组Before/After你就领略了:

表白同样一个修复工作,,正常Claude必要用到69个Tokens,,而caveman只必要19个。

Token一下子就节俭了约75%,,且不影响Agent理解工作需要以及给出解决规划。

据小哥介绍,,caveman会齐全保留以下内容:

代码块、、、行内代码、、、URL、、、文件蹊径、、、号令、、、标题、、、表格结构、、、日期、、、版本号等。任何技术性内容都维持原样通过,,只有天然说话文本会被压缩。

换言之,,只有一些不用要的废话会被丢掉。(p.s:之前Claude Code一句“你好”就干掉13%的额度)

当然,,你还能自己节制Agent的简洁水平,,从啰嗦到极简(Lite→Full→Ultra)任你选。

Lite:删掉客套话和废话,,保留根基语法结构;;Full:caveman尺度版,,会省略“一个”、、、“这个”之类的冠词,,句子只说关键词片段,,偶然会配上一些简短的语气词,,措辞风格有点像山顶洞人;;Ultra:极致压缩模式,,能省则省。

至于到底能节俭几多Token,,小哥也在真实的Claude API上测试了一下(可复现)——

10个工作,,最终节俭的Token领域为22%–87%,,均匀下来高达65%。

具体工作蕴含但不限于:诠释React重渲染bug、、、修复认证中央件Token过期问题、、、设置PostgreSQL衔接池、、、诠释git rebase与merge的区别、、、重构回调为async/await……

不外小哥也提醒,,caveman仅影响输出Token,,思虑/推理Token不受影响。

caveman不会让大脑变小,,会让嘴巴变小。最大的成功是可读性和速度,,成本节约是额外的益处。

具体装置方式如下:

若是你用的是Cursor/Copilot/Windsurf/Claude Code这类AI编程工具,,在支持skills的环境中,,能够一行装置:

npx skills add JuliusBrussee/caveman

若是你想明确装到某个Agent,,能够像这样:

npx skills add JuliusBrussee/caveman -a cursornpx skills add JuliusBrussee/caveman -a copilotnpx skills add JuliusBrussee/caveman -a clinenpx skills add JuliusBrussee/caveman -a windsurf

Claude Code用户还能这样装:

claude plugin marketplace add JuliusBrussee/cavemanclaude plugin install caveman@caveman

Codex相对麻烦一点,,必要先clone仓库,,在项目里打开Codex,,而后通过/plugins搜索Caveman并手动装置。

装完后,,选择caveman模式或直接说“像caveman那样措辞”“请罕用一些Token”,,就能呼唤山顶洞人。

终场的话,,也是切到正常模式或直接说“stop caveman”即可。

背后是一位年仅19岁的开发者

有意思的是,,caveman的作者也相昔时轻——

Julius Brussee,,目前19岁,,正在荷兰莱顿大学读大一,,专业为数据科学与人为智能。

固然刚上大学,,但他已经是个角逐和创业经验都很丰硕的“老手”了(bushi。

2025年1月,,他创办了Revu Labs,,重要开发Revu这款原生macOS学习利用。

单一来说,,Revu能自动把你上传的PDF造成学习资料,,而后用和多邻国差不多的智能算法铺排温习。它背后有多个Agent协同干活,,同时保障数据零败坏、、、全本地化。

而后他又参与了埃因霍芬理工大学的创新大赛,,角逐过程中构建了一个企业级知识治理平台Stacklink。

这一次更复杂,,Stacklink必要将公司分散在遍地的信息(如Google Docs、、、Slack、、、Notion)全数接进来,,而后统一建索引,,尤其是还要思考AI幻觉问题。

再到最近,,他又结合创办了Pitchr这家公司,,担任产品与技术掌管人。

一看Pitchr的产品,,估计各人城市会心一笑,,由于它是专门开发AI演讲辅助平台的(帮你更好展示PPT)。

以及经验中暂无,,但Julius自己补充的一点:

之前还创办了Locked In(集成NFC的iOS出产力利用,,首周留存率100%)和Neurabridge(曾获经济学人报道的AI征询公司)。

不外,,固然开发了这一连串项目,,但caveman的不测走红也让Julius无限感伤:

好好好,,顺手写的“joke”火了,,而我花了几个月功夫用心打磨的Revu、、、Stacklink……却没有这种待遇。

各人都很喜欢caveman这个职能。人们纷纷装置,,我笑得前仰后合。但这里有个没人讨论的事件——我花了几个月功夫当真做的项目,,在同周也获得了认可,,但关注水平却没那么高。我并非抱怨,,只是在观察。传布的关键在于共识,,那个梗打开了门。真正的工作在背后。

caveman争议也不少

当然了,,caveman的走红也不止是由于“让AI像原始人措辞”这个梗,,背后也不乏一些争议。

会商较多的有两点:

大部门节俭的都是输出Token,,而真正的成本是高低文输入Token。胁迫大模型更简洁是否会让它变笨。

对此,,作者也现身Hacker News评论区疯狂叠甲:

这项技术并不是为了削减暗藏的推理/思虑Token。Anthropic自己的文档建议更多的思虑预算能够提高机能,,所以我不会提出相反的概念。它所针对的是可见的实现:更少的开场白,,更少的填充内容,,更少的精彩但非必要的文本。因而,,由于实现后的输出被“原始化”了,,代码齐全没有受到这项技术的影响。平正的品评是,,我“~75%”的READM数据来自初步测试,,而非严格的基准测试。这应该更审慎地表述,,我此刻正在做一个正式的评估。

翻译过来就是,,降本只是附带的、、、削减的是不用要的Token所以通常不会变笨。

在作者看来,,caveman只是一个有趣的设法,,比一些人以为的使用领域要窄,,接下来还必要更精确的基准测试。

而这,,也和部门网友得出的结论差不多:

由于有趣和真正聪明地削减了输出Token而获得A+。但它不是降低总成本的灵丹妙药,,可能会让Claude的智商降落几个点。

所以,,有试过的伴侣分享下感触若何吗(张望.jpg)?

GitHub:https://github.com/JuliusBrussee/caveman

 

文章点评

未查问到任何数据!!

颁发评论

◎欢迎参加会商,,请在这里颁发您的见解、、、互换您的概念。

最新文章

热点文章

随机推荐

【网站地图】