BadUncle
@BadUncleX
Followers
6K
Following
2K
Media
699
Statuses
4K
Vibe Math
ÜT: 39.914074,116.414311
Joined October 2007
作为开发者都有自己关注的语言和框架,要是你关注的内容没有最新的skills还要等别人? 有了cc和下面的两个command你就可以从此自给自足了 /create-llms-for-skills /create-skills-via-llms
1
1
5
老黄: 我希望我的工程师们别盯着编码了,你们应该想着解决新的问题 群友:我希望你们不要再发布骇人听闻的skills技巧了,弄点有用的
2
0
8
传统:用户 → AI 生成代码 → 直接渲染 ⚠️ json-render:用户 → AI 返回数据 → 你来渲染 ✅ 区别:AI 是程序员 vs AI 是配置员
0
0
1
JSON read这个思路值得学习下,先不取结果,只拿元数据,感觉把大模型直接当作传统api既视感
这个 JSON render 真的很棒啊,重大创新 https://t.co/OX0iKdmqQo 我能想到它的意义是安全可预测吧,让普通用户通过自然语言提示直接生成交互式 UI 而不会让 AI 输出失控带来安全风险。 核心创新就是:不是让 AI 生成代码,而是让 AI 只生成 JSON
0
0
2
obsidian内置的看板我喜欢一个项目做一个看板,然后看板让cc接管, 也就是cc在执行任务的时候维护这个看板,目的是人可以可视化的看到任务进展, 吃一顿饭回来还能记得任务在什么阶段和状态。 但是还是有一个需求, 就是在一个地方看所有的项目,
0
1
5
吭哧吭哧的让剪映剪视频,耗时间,效果也不好, 让cc直接调用ffmpeg,一个prompt就行了, 比如: 把停顿的地方剪掉,然后变化不大的地方适当加速。 效果比我的好很多哦, 还加了一个简单的封面。 关键是修改可以持续,而不是重来。
11
42
380
cc调用agent-browser还挺丝滑,用的保守方式: 系统chrome,延迟跳转, 抓x的数据目前还行。 https://t.co/f9s5XSEeEO
在这个分支维护的全部feature: 1. 默认使用channel方式,使用系统的chrome,代替默认testing模式(支持google友好登陆),并userdata状态保存 2. 用Patchright代替agent-browser的默认playwright 3. 对导航加了延迟,避免访问限制 https://t.co/GAAZKFvAYS 4. 现在默认使用headed模式,
1
3
28
在这个分支维护的全部feature: 1. 默认使用channel方式,使用系统的chrome,代替默认testing模式(支持google友好登陆),并userdata状态保存 2. 用Patchright代替agent-browser的默认playwright 3. 对导航加了延迟,避免访问限制 https://t.co/GAAZKFvAYS 4. 现在默认使用headed模式,
0
0
9
不错,又看到一个插件模式的,放一起参考,但是插件模式为什么能节省token没理解
如果要让 AI 控制浏览器完成一些行为,可以使用这个 Playwriter https://t.co/LBlAry1c5d 比传统的 Playwright 强。 它的一个小巧思就是作为 Chrome 扩展运行,不需要单独启动浏览器,省资源,不卡,不容易被当成机器人。传统的都要启动一个 headless 浏览器。 上下文窗口占用极低(官方称节省
0
0
1
既然patchright有对playwright增强的作用,索性也一起合并到agent-browser了,测试了几个都work 好在对agent-browser的调用都没有什么影响, 主要是之前的console功能屏蔽了。 https://t.co/GAAZKFvAYS
1
1
6
agent-browser这个新的读取html的爬虫方式还是耳目一新的,据说能节省token, 我下载了后它默认是无头模式的, 如果用headed打开的话,手工登陆google社交账号会受限, 我打了一个补丁: 1. 使用channel方式打开,确保使用的是系统的chrome,而不是testing版本 2.
[开源推荐] agent-browser: 为 LLM 和 Agent 设计的浏览器操作接口,作者 @ctatedev(来自 @vercel 团队) 先说核心亮点: 1. Rust CLI + Node.js Daemon 混合架构,速度与生态兼顾 2. 独特快照机制降低 93% Token 消耗 3. Agent 原生,更精准 一、项目核心定位:Agent 的“眼睛”和“手”
6
25
129
还记得去年6月份聊的大明湖畔的zen mcp吗? 现在已经改名为 pal-mcp-server。 根据最近反重力对限制,以及opus官方的双重打击,基本上第三方使用opus空间越来越小了。 很多小伙伴使用opencode 其实就是想用多个模型结合使用, 而目前的顶流三个cli (cc,gemini, codex) 单独使用非常打扰体验。
最强大脑组合方式已经诞生, Claude Code + zen mcp 如果你总是觉得claude code某些时候有不足的地方, 希望其他LLM, 比如gemini和o3来做增强, 那么你可以足不出户(不离开claude code界面)的情况下,请到这些外援团。 prompt: 请zen 专家对该文档做评审, claude code对评审结果做必要的记录,
1
0
1
2.1.1版本将bash操作过程隔离到subagent确实有用,比如日常参考文件,安装软件,甚至是git操作,都可以大大节省上下文 用法: Use the Bash subagent to run xx 也可以试试隐式: 多步命令链 / git 操作 / 要求只回总
Claude Code v2.1.1 introduces a new "Bash" subagent - a command execution specialist. Useful for avoiding context pollution in the main thread by moving multi-step operations to another context window.
0
0
1
反重力果然限制了, 429错误, 但是直接用官方app没问题; cc也限额了, 继续试一下ampcode,冲了5$, 来完成一个最简单的 todo mvc, 看看其表现。 正好和 opencode 对比一下 之所以想测试一下, 是因为ampcode也是经典的多模型组合, 号称不需要知道使用了什么模型, smart帮你代理一切。
0
0
1