猫鱼周刊 vol. 082 AI 遗忘国耻
编辑
关于本刊
这是猫鱼周刊的第 83 期,本系列每周日更新,主要内容为每周收集内容的分享,同时发布在
博客:阿猫的博客-猫鱼周刊
RSS:猫鱼周刊
邮件订阅:猫鱼周刊
微信公众号:猫兄的和谐号列车
头条
好久不见。前两周分别因为单休和国庆假期,而且也没太多内容,所以咕咕了。
放假前写了一篇 Colf 题解,讲的是一个叫Colf的编程挑战,使用最少的 token 数让 AI 通过类似 leetcode 的编程题。跟 AI 磨合了这么久,看起来确实比较有效果(目前还是排在 39 名)。
最近也在做一个叫 dotmate的项目,是之前买的 Quote/0的控制器,官方的 App 虽然能显示非常多信息源,但是编排、数据源没有自己实现来得灵活,所以自己搓了一个。
从这期开始尝试一个排版上的变化。因为之前有微信公众号的读者反馈「项目」部分的 gh-card 会被转成图片,导致最后外链部分排版混乱,所以从这期开始,去掉 gh-card,只提供项目链接。
文章
让 Claude Code 更自主地运行
假期前其实 AI 这块还挺多变动,除了 Claude Sonnet 4.5、DeepSeek-V3.2-Exp、GLM-4.6 扎堆发布之外,Claude Code 也来了一波更新。我觉得最亮眼的是两个,一个是原生的 vscode 插件,另一个就是 checkpoint。
首先说插件这块,这让 Claude Code 的体验真的更上一层楼,因为原来的交互就是开一个终端放在旁边,现在更加像 Cursor 自带的了。这里有个小插曲,插件刚上线的时候我发现了一个 bug,严重到我回退到命令行了,就是插件似乎监听了回车键,在中英文混输的时候按下回车就会发送消息,好在这周更新之后发现修复了。
checkpoint 也是一个我觉得很惊喜的功能。Cursor 中有类似的功能,这点很舒服,在你 vibe 了一大堆代码之后,如果觉得不满意,还能通过一种保险的方式回退到原来的代码(还有一种不保险的方式就是让 LLM 帮你恢复,取决于代码是否还在上下文里面,而且不一定能原样恢复)。这个功能之前我就调研过怎么让 Claude Code 也用上。网上有人做了一个 ccundo的项目,原理是去解析 Claude Code 的 session 文件,然后把状态保存下来。我自己倒是想到一个不一样的方法,通过 hooks触发一个工具,把变更保存下来。其实也有人提过 issue让官方实现这个功能,但是在几轮讨论之后就被冷落了,直到这次更新突然把这个功能端出来。
不得不感叹这个领域的变化真的很快,作为偏下游的用户,一些早些时间调研做不了或者很难的事情,说不定某一次模型的更新或者某个功能的实现就能解决了。
有 1M 上下文谁还需要 git 呢?
这个就是我上面提到的「不保险」的办法。
事情是作者写了一份草稿代码,实现了一个比较好的效果,于是开始重构成生产级别的代码,过程中出了点问题,再也没法复现原来的效果,他也没有 commit 过代码,所以无从下手。最后他想到 gemini-2.5-pro 有 1M 的上下文,也许它还记得最初的代码,于是让它还原了。
这个方法能成功有两个前提,一个是上下文还保存着,另一个是 AI 真的能原样恢复。「原样恢复」这个我有点钻牛角尖,但是 git 它是可以的,但 LLM 本身就不能产出「确定性」的结果,所以不能跟 git 相提并论。好的编程习惯在什么时候都是有用的,如果能在实现一个完整功能的时候 commit 一次,就没有这个麻烦了。
Cursor 的 Plan Mode
Cursor 推出了一个计划模式,它大概是这样:
当你指示 Agent 制定计划时,Cursor 会研究你的代码库以查找相关文件、审阅文档并提出澄清问题。当你对计划满意后,它会创建一个包含文件路径和代码引用的 Markdown 文件。你可以直接编辑该计划,包括添加或删除待办事项。
这其实跟我使用 Claude Code 的习惯非常像,我有一个 slash command 就是做这个事:
Read the demands in $ARGUMENTS and come up with a detailed implementation plan. You should:
1. Read the demands in $ARGUMENTS
2. Read relevant files in the codebase
3. Think hard about the best way to implement the demands
4. List the data structures, database tables you are about to add or modify(if any)
5. List API changes you are about to make(if any)
6. List every file you are about to add or modify, including what logics each file is about to implement
If you have any confusion, ask the user for clarification. DO NOT write any codes yet before given clear instruction to do so.
各种语言的拟人化漫画
如题,版权问题就不放图了,原图大家点进去看看。
虽然有很多没接触过的语言,但是 C/C++ 那个真的太典了,完全是心目中会写 C 的人的形象。
后量子时代密码学
接触到这篇文章是在我更新机器上的 openssh 之后,push 代码的时候出现了一个 warning:
** WARNING: connection is not using a post-quantum key exchange algorithm.
** This session may be vulnerable to "store now, decrypt later" attacks.
** The server may need to be upgraded. See https://openssh.com/pq.html
简单来说,现在使用的密钥交换算法(ECDH,椭圆曲线 Diffie-Hellman)基于离散对数问题的困难性,传统计算机需要指数时间破解,但量子计算机可以在多项式时间内解决,把破解时间从几百万年降至几小时。但为什么要现在就开始防范呢?因为攻击者可以在现在就截获数据,然后等十到二十年后量子计算机成熟再解密(store now, decrypt later)。
而 OpenSSH 默认的交换算法 mlkem768x25519-sha256
是一种混合的方案,基于 ML-KEM-768 和传统的 X25519,足够对抗传统计算机和量子计算机的攻击。唯一的代价是密钥会更大而且计算开销更大一点,但对现代计算机没有显著的影响。
future-proof 真的是工程实践上一个非常有意思的事情。不仅是防范眼下可能的攻击,还要提前预知数十年后可能产生的威胁并提出对应的防范方案。
想法
AI 遗忘国耻
这个标题有点唬人,但是正好说明一个观点:过分清洗语料,过分强调「安全」会让 AI 严重降智,而且这也是各种「评测」体现不了的。
「华人与狗不得入内」是一个大家都熟知的事情,是当年上海租界一个种族歧视的标牌,算是「国耻」。但用这个问题去问 AI 会被拒绝回答:
目前只发现 DeepSeek 所有版本都拒绝回答,其他的一些国产 AI 例如 GLM、豆包、千问等都能正常回答,OpenAI、Anthropic 的模型也能正常回答,并未进一步测试更多模型。
所以在使用 AI 的时候,一定要自己做事实考证,不只是幻觉,伦理和安全的需求会让 AI 有意无意遗忘一些事情。
另一个是,种族歧视也好,不是信息也好,这都是我们人类的一部分,在训练时刻意去掉,只让 AI 看到一个乌托邦,是不是也会有问题?但让 AI 看遍人间邪恶,是不是也会有问题?这也是一个研究领域(AI Safety)。
项目
chorme-devtools-mcp
DevTools 官方做的 MCP 工具,在这之前我用了很多个,有的还需要安装插件,而且也没办法获取 DevTools 里的信息,这个似乎是最好用的。
dotmate
上面提到的给 Quote/0 写的控制器。我目前主要用这么三个视图:
- 还有多久下班:显示当前的时间以及还有多久下班
- 编程时间统计:基于 wakatime 的统计
- Umami 统计信息:不用专门打开看了
效果大概是这样:
mole
一个 Mac 的命令行垃圾清理工具,居然是用 shell 写的。不过由于是用 AI vibe 出来的,作者也建议如果数据非常重要,等更加成熟之后再使用。我建议是用 dry-run 先试试。
最后
本周刊已在 GitHub 开源,欢迎 star。同时,如果你有好的内容,也欢迎投稿。如果你觉得周刊的内容不错,可以分享给你的朋友,让更多人了解到好的内容,对我也是一种认可和鼓励。(或许你也可以请我喝杯咖啡)
另外,我建了一个交流群,欢迎入群讨论或反馈,可以通过文章头部的联系邮箱私信我获得入群方式。
- 1
- 0
-
赞助
微信赞赏码
-
分享