一个没有常识、活在自己世界中的中二病人(话痨)的自留地。
该频道不专注于 Daily 或 News,而是一个记录我当前关注和思考内容的地方。
1. 随机事项:每月为自己安排一些有趣的活动。(大概率🐦🤣)
2. 同步内容:我会收集在其他平台上发布的内容。
3. 私人笔记:没经大脑的学习笔记以及一些个人随想。
4. ACG 内容:浓度高的部份还是挪到 另外一个频道 @tomoko_acg。
5. 内容转发:在这个频道上转发的内容并不必然代表我个人的立场。
该频道不专注于 Daily 或 News,而是一个记录我当前关注和思考内容的地方。
1. 随机事项:每月为自己安排一些有趣的活动。(大概率🐦🤣)
2. 同步内容:我会收集在其他平台上发布的内容。
3. 私人笔记:没经大脑的学习笔记以及一些个人随想。
4. ACG 内容:浓度高的部份还是挪到 另外一个频道 @tomoko_acg。
5. 内容转发:在这个频道上转发的内容并不必然代表我个人的立场。
🔖 Writing a good CLAUDE.md | HumanLayer Blog #pinboard #llm
Don't use /init or auto-generate your CLAUDE.md
https://www.humanlayer.dev/blog/writing-a-good-claude-md
Don't use /init or auto-generate your CLAUDE.md
https://www.humanlayer.dev/blog/writing-a-good-claude-md
🔖 AI 对这段代码的工作原理有深入的理解 | AI has a deep understanding of how this code works | Hacker News #pinboard #llm
关于「情绪超级稳定的社群 Reviewer 遇到热情的外行用户在 LLM 的协助下给你创建了一个 13K 行的 PR 」时产生出来的化学反应。真让人哭笑不得😂。
想想我 HA 插件的 4000 行代码,我给的预期是半年分 20 个 PR 来提交,真的是… (但凡有一行代码 Reviewer 有点疑惑都要解释半天什么的)
感觉是一个非常里程碑的事件,而且类似事情估计还会越来越多,甚至各种各样的场景下都会发生。LLM 不会带来平权是真的,能力不足的话,甚至没法意识到「这是一件很糟糕的事情」。
不过这句评论也是够灵魂拷问的:
https://news.ycombinator.com/item?id=46039274
关于「情绪超级稳定的社群 Reviewer 遇到热情的外行用户在 LLM 的协助下给你创建了一个 13K 行的 PR 」时产生出来的化学反应。真让人哭笑不得😂。
想想我 HA 插件的 4000 行代码,我给的预期是半年分 20 个 PR 来提交,真的是… (但凡有一行代码 Reviewer 有点疑惑都要解释半天什么的)
感觉是一个非常里程碑的事件,而且类似事情估计还会越来越多,甚至各种各样的场景下都会发生。LLM 不会带来平权是真的,能力不足的话,甚至没法意识到「这是一件很糟糕的事情」。
不过这句评论也是够灵魂拷问的:
If a manager says they provided oversight of their developer employees, and the code was not as good as the manager thought, would you say "the manager has had their brain broken by the existence of employees"?
如果一位经理声称他们监督了开发员工的工作,而代码质量并不像经理所想的那样好,你会说 "这位经理因为员工的存在而脑子坏了" 吗?
https://news.ycombinator.com/item?id=46039274
🔖 一个半月高强度 Claude Code 使用后感受 | OneV's Den #pinboard #llm #claude
一般不是非常确定的需求我也是更倾向于「小步迭代」的方案,不然「放飞自我」之后的代码要 review 到吐。
感觉可以作为简单的安利文,身边太多朋友都是那种「啊,这个要钱啊,那就不用了。等有需要再开」。What can I say ?
四舍五入,我去建一个 skill 仓库趴。
https://onevcat.com/2025/08/claude-code/
一般不是非常确定的需求我也是更倾向于「小步迭代」的方案,不然「放飞自我」之后的代码要 review 到吐。
我见过的使用方式大致分两派。一派是 “小步快跑”:每次只让 AI 完成一个小功能,验证没问题后再进行下一步。另一派是 “一步到位”:直接把整个需求扔给 AI,让它一次性生成所有代码。更极端的,还有人会开启 --dangerously-skip-permissions 模式(也就是所谓的 yolo 模式),让 AI 可以不经确认就执行任何操作。
感觉可以作为简单的安利文,身边太多朋友都是那种「啊,这个要钱啊,那就不用了。等有需要再开」。What can I say ?
四舍五入,我去建一个 skill 仓库趴。
https://onevcat.com/2025/08/claude-code/
🔖 借助 Skills 提升前端设计 | Claude | 宝玉的分享 #pinboard #llm
https://baoyu.io/translations/improving-frontend-design-through-skills
你可能注意到了,如果你让一个大语言模型 (LLM) 随便搭个网页(行话叫“落地页”),它十有八九会给你一套“标配”:Inter 字体、白底配紫色渐变,外加一点点可有可无的动画。
https://baoyu.io/translations/improving-frontend-design-through-skills
🔖 Andrej Karpathy — AGI is still a decade away #pinboard #llm
https://www.dwarkesh.com/p/andrej-karpathy
https://www.dwarkesh.com/p/andrej-karpathy
🔖 软件工程的“纯”与“不纯” | 宝玉的分享 #pinboard #llm
非常有趣的观点,借由提出 纯粹工程 (pure engineering) 与 不纯粹工程 (impure engineering) 两个概念来分析大模型是否能对工作有更多的帮助。
PS. 我做的应该就算是不纯粹工程了。
https://baoyu.io/translations/pure-and-impure-engineering
非常有趣的观点,借由提出 纯粹工程 (pure engineering) 与 不纯粹工程 (impure engineering) 两个概念来分析大模型是否能对工作有更多的帮助。
PS. 我做的应该就算是不纯粹工程了。
想一想纯粹工程是什么样的。你在处理一个你非常了解的问题(因为你已经研究它很久了),而这个问题在整个开发者社区中却并不为人所熟知(否则它就不值得你去研究了)。你总是在自己技术专长的极限边缘工作。而且,你有无限的时间来做出正确的决定。可以理解,大语言模型在这样的场景下帮不上什么忙。对于你做的每一个决定,你都比大语言模型聪明得多。
不纯粹的工程则不同。你通常在处理一个你只有粗浅理解的问题(因为公司需要它来交付某个项目)。这个问题通常并不新颖,只是对你来说是新的。你很少有机会能去处理一个你拥有透彻技术理解的问题,而且你通常都在紧迫的截止日期下工作。因此,对于你做的某些决定,大语言模型可能和你一样聪明,甚至比你更聪明,向它请教或让它审查代码会给你带来很大价值。
https://baoyu.io/translations/pure-and-impure-engineering
🔖 Vibe Coding Casino – blog/opinion/vibes_casino — evrim.zone #pinboard #llm
https://evrim.zone/blog/opinion/vibes_casino
https://evrim.zone/blog/opinion/vibes_casino
🔖 Claude Code Best Practices Anthropic #pinboard #llm
https://www.anthropic.com/engineering/claude-code-best-practices
https://www.anthropic.com/engineering/claude-code-best-practices
🔖 LLM Agents are simply Graph — Tutorial For Dummies #pinboard #llm #agent
一个简易的 Research Agent 的实现原理介绍。不过我觉得这类 agent 可以加一步「 Decide if it need to ask user more context」。
https://zacharyhuang.substack.com/p/llm-agent-internal-as-a-graph-tutorial?subscribe_prompt=free
一个简易的 Research Agent 的实现原理介绍。不过我觉得这类 agent 可以加一步「 Decide if it need to ask user more context」。
https://zacharyhuang.substack.com/p/llm-agent-internal-as-a-graph-tutorial?subscribe_prompt=free
🔖 科技爱好者周刊(第 332 期):西蒙·威利森的年终总结,梁文锋的访谈 - 阮一峰的网络日志 #pinboard #llm
一开始,我还以为 DeepSeek 是一家国内套壳代理接口的公司。后来,看到连 Hacker News 的评论区经常提到它,我一度以为它是美国公司。今天仔细了解后才发现,原来它通过技术手段大幅降低了成本,而且确实是一家国内公司,实在令人惊叹。
https://www.ruanyifeng.com/blog/2025/01/weekly-issue-332.html
一开始,我还以为 DeepSeek 是一家国内套壳代理接口的公司。后来,看到连 Hacker News 的评论区经常提到它,我一度以为它是美国公司。今天仔细了解后才发现,原来它通过技术手段大幅降低了成本,而且确实是一家国内公司,实在令人惊叹。
https://www.ruanyifeng.com/blog/2025/01/weekly-issue-332.html
🔖 AI 技术的停滞,是革命的开始 – 虹线 #pinboard #llm
https://1q43.blog/post/10727/
那些看起来笨重的老牌互联网企业,也就有更多的时间进行转型。他们有足够的时间等待 AI 更加稳定,无论是在输出的内容上、性能上、安全性上、价格上等等,而不是每月要发一个新版本来适应 AI 进步的速度。用一个最简单的道理来说明:
如果你是一个拥有自建 IDC 的传统互联网大厂,现在想引入一款开源模型来实现产品中的某个 AI 功能。现在开源模型的推理成本每个月季度降 30%,这看起来是一件好事,但这意味着你在服务同样用户量的情况下,第一个季度买的 1 万张显卡,第二个季度就只需要 7000 张显卡。那么,你第二个月闲下来的 3000 张显卡做什么?
明智的选择,当然是让用户忍一忍,或选个已经停滞的模型。因为你知道这种进化速度根本不可能持续,等它技术撞墙了你功能再上也不迟。
https://1q43.blog/post/10727/
🔖 Chunking Strategies for LLM Applications | Pinecone #pinboard #llm #rag
Learn about effective chunking strategies for improved memory retention.
https://www.pinecone.io/learn/chunking-strategies/
Learn about effective chunking strategies for improved memory retention.
https://www.pinecone.io/learn/chunking-strategies/