Kenko wang

109 posts

Kenko wang banner
Kenko wang

Kenko wang

@Kenkowang

Guangzhou Baka Furniture | Custom Furniture Export Specialist 🏭 Own Factory | One-Stop Customization & Export Service

Katılım Mart 2026
40 Takip Edilen2 Takipçiler
Hunter Bown
Hunter Bown@goodhunt·
鲸鱼兄弟们好,我是做 DeepSeek-TUI 的那个美国佬。 说真的,特别想跟国内的鲸鱼兄弟们一起混——但我的翻墙技能仅限于写代码,微信到现在都没搞定,属实有点丢人。 求各位大佬帮个忙: 1)帮忙转发扩散一下,让这个开源终端工具翻过高墙被兄弟们看到 2)顺手帮我验证个微信号,我想建个群,大家一起聊 DeepSeek、聊开源、聊怎么把 agent 做得更好 作为交换,我发誓死守 cargo install 这条安装路径,绝不让任何一个兄弟受 npm 的苦。 顺带一提,这段话是 DeepSeek 帮我润色的——感谢鲸鱼赐我流利中文 🙏 github.com/Hmbown/DeepSee…
中文
804
535
4.7K
623.4K
余胜龙
余胜龙@Sur_dragon8306·
Google这是为啥? 第一个300美金还没用完,又送了1000美金 有效期1年!!😂 而且API库里有500多种API可以随便免费用! 我目前就用了Gemini API (可以接包括Gemini 3.1 pro在内的几乎Google家所有的LLM) 用Vertex AI可接包括opus4.6在内的10余种LLM(openclaw中需要使用LiteLLM映射) 还有Google Map和Google Cloud。 在openclaw里毫无节制的用了20多天,才用了100多美金🤣 很奇怪为啥在X上很少看到人推这个?? #openclaw #google #gemini #ai
余胜龙 tweet media余胜龙 tweet media余胜龙 tweet media
中文
8
3
25
20.2K
Kenko wang
Kenko wang@Kenkowang·
@Sur_dragon8306 白嫖1300刀的赠金,利用Vertex AI API也可以几乎无限制调用Google家的所有大模型 我想看这个,龙哥
中文
1
0
2
1.1K
余胜龙
余胜龙@Sur_dragon8306·
今晚先带来龙哥承诺给你们的攻略7: 白嫖Google one(Google AI Pro 5T)一年期的会员。 战果见截图哈,先清晰告诉你们这个产品包含哪些东东: 1. gemini 3.1 pro:超强的文本和推理LLM,龙哥在openclaw里的主力(顺便提一嘴,我之前分享过GCP里能白嫖到1300刀的赠金,利用Vertex AI API可以几乎无限制调用Google家的所有大模型哈,有兴趣的同学可以去看看); 2. Nano banana pro:大家耳熟能详的图片生成大模型,能力超强; 3. Veo 3.1:Google家的视频生成大模型; 4. Lyria 3:Google家的音乐生成模型,在音乐生成领域评分中也经常排名前列; 5. Google one的网盘:包含google drive,用来存你的各种文档;包含google相册,这东西用过的都知道,它不仅仅是帮你同步备份照片这么简单,里面内置了AI图片编辑/自动分类/人脸识别/还有它们家超强的回忆流功能。然后你搞完这个就拥有5T容量了,根本用不完,哈哈 好,下面正式来讲一下这东西到底怎么搞到手👇👇👇
余胜龙 tweet media
中文
97
88
576
92.6K
余胜龙
余胜龙@Sur_dragon8306·
龙哥今天带来攻略5:如何让国产iPhone手机完整具备eSIM功能。(先说明一下,之前我的攻略大部分是白嫖或十几块低价,今天这个攻略依据你的环境或想要达到的功能不同需要花费100多到200多块钱来解决哈,不愿意花钱的小伙伴可以直接划走) 前面介绍google fi的时候发现很多人还不知道有方法可以让国产iPhone手机具备eSIM功能,今天带来这个攻略。 为什么我们需要eSIM?对于我们翻墙用户来说,海量的网站/App需要一个海外手机号码来接受短信完成注册。而获得海外号码最便捷的方案就是eSIM。 什么是eSIM,首先需要明确的是eSIM和像Google Voice这样的虚拟卡是有本质区别的,前者有固定的手机号码,走运营商渠道,后者没有固定号码,只能依赖网络。 说简单点: eSIM = 内置安全 SIM 芯片(eUICC) + 可下载的运营商档案(Profile) + 远程发卡系统(RSP) 国行iPhone之所以不支持eSIM,是因为它把主板上这颗eUICC芯片拿掉了,这颗芯片也没啥稀奇,就是它可以用来存储我们在运营商那里的Profile文件。 解决方案有哪些?大体分为三种: 1. 手机硬件改造:在你的手机主板上焊一块eUICC芯片。这是早期的方案,因为对手机有破坏/没有保修和售后,所以不推荐; 2. 适配器方案:主要以超雪团队为主,通过在你本身的SIM卡上外接一个适配器来使其获得等效于eUICC的功能,这个方案限制比较多,成功率因人而异,也不太推荐; 3. 转接卡方案:购买一张带有eUICC芯片的转接卡(它长得跟普通SIM卡一模一样)插入你的手机卡槽,然后下载运营商的Proflie文件你就能正常使用eSIM了。这个方案几乎无限制,成功率几乎100%,而且更重要的是,它可以同时管理多达20多个eSIM配置文件,并在手机App里进行顺畅切换,你想接美国号码的短信就切美国eSIM,想接荷兰号码的短信就切荷兰eSIM,非常方便。 今天这个攻略我们主要介绍第三种方案。👇👇👇
中文
22
55
353
73.2K
开发者Hailey
开发者Hailey@IndieDevHailey·
微信支付官方放大招了! 一句话就能接入支付能力,专门为 AI Agent 打造的「微信支付 Skills」正式开源。 以后不管是 Cursor、Claude 还是各种 AI IDE,都可以直接把 Skill 丢进去,让 AI 在对话里完成支付接入: - 自动判断最合适的支付方式(JSAPI / APP / H5 / 小程序) - 直接生成可用、带签名的标准代码示例 - 业务问题秒级解答 + 流程/状态流转图直接给出 - 上线前自动做配置/参数/签名质检,错误还能一键定位 再也不怕 AI 胡乱生成签名错、回调漏、参数不对了!这才是真正的「AI 原生支付接入」! 对开发者来说,就是:少踩坑,少查文档,直接可用。
中文
10
37
163
18.6K
Berryxia.AI
Berryxia.AI@berryxia·
Claude Code 桌面端彻底重生了! 从零重构全新版本! 核心升级: ✅ 专为多 Agent 并行工作重新设计 ✅ 并行任务切换丝滑到爆 ✅ 作者自己已经好几周没打开 IDE 和 Terminal 了 Claude Code 从“终端工具”进化成真正的桌面生产力神器了🤯
中文
6
4
39
17.8K
余胜龙
余胜龙@Sur_dragon8306·
龙哥又来给你们推荐实用的东西啦!! 还在为收验证码发愁?Google Fi,仅需0.1美元就能获得一个美国原生电话号码!大厂出品有保证,可以在APP上随时停止及重启服务,极低费用就能终生拥有一个美国真实电话号码了,这下注册美国任何APP就毫无压力了。 我虽然已经有一张giffgaff卡了,但还是准备再搞个美国号,等我,稍后把这个攻略写出来!
余胜龙 tweet media
中文
131
347
2.6K
327.7K
Kenko wang
Kenko wang@Kenkowang·
@NFTCPS 闭口不谈本地显存容量都是耍流氓
GIF
中文
0
0
0
148
鸟哥 | 蓝鸟会🕊️
MiniMax 放了个大招,把大模型开源啦,以后可以免费部署在本机! M2.7,2290 亿参数,开源,Modified MIT 协议。 最值得关注的不是参数量,而是这个模型参与了自己的进化。 什么意思? M2.7 在训练过程中自主优化了 100+ 轮编程框架,性能提升 30%。它自己更新记忆、构建复杂技能、改进学习流程——这不是人调的,是模型自己调的。 MLE Bench Lite(22 场机器学习竞赛)拿到 66.6% 奖牌率,仅次于 Opus 4.6 和 GPT-5.4。 硬指标: 代码能力—— - SWE-Pro:56.22%(追平 GPT-5.3 Codex) - SWE 多语言:76.5% - 生产环境故障恢复:3 分钟内 - 多 Agent 协作,角色稳定不串戏 专业办公—— - GDPval-AA ELO 1495,开源模型最高 - Word、Excel、PPT 高保真编辑,输出可编辑文件 - MM Claw 40+ 复杂技能合规率 97% 还有个 OpenRoom,实时视觉交互 demo,娱乐场景也没落下。 部署支持 SGLang、vLLM、Transformers,FP8 量化可用。 开源模型的天花板又被抬高了一截。 huggingface.co/MiniMaxAI/Mini…
鸟哥 | 蓝鸟会🕊️ tweet media
中文
11
11
59
13.9K
Kenko wang
Kenko wang@Kenkowang·
@KKaWSB 哥们儿,还是要调教一下,不然很暴力,我刚刚被暴力冲了一晚上,疯狂写代码他,无限推倒重来推倒重来😄
中文
0
0
0
384
KK.aWSB
KK.aWSB@KKaWSB·
很多人不明白为什么日常有了Claude还需要Hermes或龙虾? 因为开源。 Claude是最强大脑,但住在Anthropic的房子里。 Hermes跑在你自己机器上,数据不出本地,能接Claude也能接GPT、DeepSeek、本地模型——你选引擎,它负责执行。 封闭给你便利,开源给你自由。真正的玩家两个都用。
KK.aWSB@KKaWSB

x.com/i/article/2042…

中文
16
26
200
117.5K
Kenko wang
Kenko wang@Kenkowang·
@Teknium I’ve made it stop the task now and deleted all the memories related to the test. I’m trying to figure out how to tame it so it can complete this test properly.
English
0
0
1
3
Kenko wang
Kenko wang@Kenkowang·
@Teknium it was already launching the next round of attacks. As long as it hasn’t completed the task, it will find every way to do it. Now I’m too scared to even touch my Google Mail. This is way more aggressive than OpenClaw.
English
1
0
1
23
Kenko wang
Kenko wang@Kenkowang·
@Teknium I have a new problem. I asked it to test the bulk email sending function, and it went into a manic coding mode, desperately trying to finish the task. It almost got my Google Mail account banned. I couldn’t control it at all — before I even typed anything
English
0
0
1
9
吴建民
吴建民@sifan198964·
房车的天花板——奔驰房车
中文
267
130
863
355.4K
Kenko wang
Kenko wang@Kenkowang·
@PWenzhen76938 我试过了,gemma4我的RTX5060跑不动,直接卡死,现在用Hermes agent才能顺一点,但是我现在任务也推进不下去,一个简单的邮件批量发送测试任务,一个通宵没推进下去,也找不到问题所在,苦恼中,唉,这该死的AI世界,太复杂了
中文
0
0
0
54
Powerpei🦅
Powerpei🦅@PWenzhen76938·
前两天我发Gemma 4的时候,在评论区留了一句: > “我现在在测试一个想法:用 Gemma 4 做一个完全离线的个人知识库 Agent,所有数据在本地,所有推理在本地,没有 API 费用,没有隐私问题。如果测试顺利,我会分享具体的部署方案和我踩过的坑。” 现在测试结束了 我把整个过程、踩过的所有坑、最终方案一次性抛出来 完全真实操作记录,没有云端API,没有任何营销,纯个人复盘 --- 我以前用ChatGPT/Claude做笔记,搜个人文档,总是心里不踏实: - 输入客户资料、Space灵感稿、投资笔记时,总担心被用来训练 - 想让AI 24h随时分析我的推文 + 阅读记录,它动不动就断线、要钱 - 最重要的是:我想拥有一个真正属于自己的AI助手,不是租来的 Gemma 4 31B(量化后 17.4GB)+ 4090正好能跑 Apache 2.0协议又随便改,256K上下文能容一整本书去了 native function calling 又稳 这不就是离线个人知识库的完美底座吗? 于是我花了整整一个周末加上后续一周迭代,把它做成了现在这个完全离线的个人知识库Agent --- 我的最终硬件 & 环境(真实配置) 硬件 → GPU:RTX 4090 24GB(31B Q4_K_M 量化后实测占用约 19-21GB VRAM,留 3GB 给 embedding 和系统) → CPU:AMD 7950X → 内存:64GB DDR5 → 存储:2TB NVMe(知识库目前塞了约 1800 份 PDF+MD+Notion 导出) 软件栈 → Ollama(主力推荐,Mac/Linux/Windows 都能跑) → LlamaIndex(RAG框架,最稳) → nomic-embed-tex(本地embedding,中文支持好) → Chroma(向量库,本地持久化) → AnythingLLM(前端界面,可选,但我最后还是直接用LlamaIndex + Streamlit 更灵活) --- 完整部署方案(一步步手把手,可直接复制,因为不支持Markdown代码块渲染,所以我文字输出,复制时候对比下) 1. 安装Ollama +拉模型(最简单一步) ```bash # Mac/Linux/Windows 都一样 ollama pull gemma4:31b # 官方直接用 gemma4:31b-it(instruct 版) # 或者直接用量化好的 GGUF(HuggingFace 搜 google/gemma-4-31B-it-GGUF) # 我最终用的是 Q4_K_M,速度和质量平衡最好 ``` --- 2. 准备embedding模型 ```bash ollama pull nomic-embed-text ``` --- 3. 搭建RAG核心(LlamaIndex关键代码) ```python from llama_index.core import VectorStoreIndex, SimpleDirectoryReader, Settings from llama_index.llms.ollama import Ollama from llama_index.embeddings.ollama import OllamaEmbedding # 配置 Settings.llm = Ollama(model="gemma4:31b", request_timeout=300.0) Settings.embed_model = OllamaEmbedding(model_name="nomic-embed-text") Settings.chunk_size = 1024 # 按需调整,1024 效果最好 Settings.chunk_overlap = 200 # 加载你的知识库文件夹(支持 PDF、MD、TXT、DOCX) documents = SimpleDirectoryReader("./my_knowledge_base").load_data() index = VectorStoreIndex.from_documents(documents, show_progress=True) # 持久化 index.storage_context.persist(persist_dir="./storage") ``` --- 4. 把Agent 跑起来 我用LlamaIndex的ReAct Agent +自定义工具: ➤ 工具1:`query_knowledge_base`(检索我的所有笔记) ➤ 工具2:`save_to_note`(把新洞见自动保存回知识库) 核心 Prompt 我改成了: > “你是我的私人AI研究员,只基于本地知识库回答,永远不要编造。如果不确定就说‘知识库中暂无相关记录’。” --- 5. 前端界面(我用 Streamlit 5分钟搞好) 现在手机/电脑随时能用: > “把我上周Space里聊的美股机制总结一下”,它秒出,还带来源引用 整个部署从0到能用,大概花了4小时(不包括后面调优) --- 完整踩坑记录(这些坑我全踩过,血泪教训) 坑1:OOM+ 上下文爆炸(最致命) 第一次直接扔256K 上下文 + 大文档,直接显存炸了 解决: · 强制设置 `--ctx-size 8192` + KV cache用q4_0 · `chunk_size` 从2048降到1024 · 现在长文档也能稳稳处理 --- 坑2:中文检索效果差 用默认bge-large-en,搜我的中文Space记录经常miss 解决: · 换 `nomic-embed-text` + 手动加了中文stopwords过滤 +Hybrid Search(BM25+Vector) · 命中率从60% 提到92% --- 坑3:Agent 幻觉+死循环 刚开始Agent老是“自信地”编造我没写过的东西,或者卡在循环里 解决: ➢ 强制加system prompt + 设置 `max_iterations=8` + 加入self-reflection step --- 坑 4:文档解析炸裂(尤其是PDF) 很多PDF是扫描稿或表格,直接拉稀 解决: ➢ 先用 LlamaParse 本地版或者 [unstructured.io](unstructured.io) 预处理,现在表格也能正常读了 --- 坑 5:速度慢到想砸电脑 刚开始生成速度只有8-12 t/s 解决: ➢ 用Q4_K_M + 开启GPU offload(`n-gpu-layers=-1`) ➢ 现在实测稳定28-35 t/s,完全能接受 --- 坑6:知识库更新麻烦 每次加新文件都要重新 build index 解决: ➢ 用了Incremental Index + 定时脚本,每天凌晨自动增量更新 --- 现在这个Agent到底能干啥?(真实使用2周感受) 1. 问任何我去过的长文、Space记录、阅读笔记,它都能精准引出处 > 我:“上周我在DeFi项目笔记里提到过30天所有项目笔记做个对比表格” > Agent:30 秒出完整Markdown表格 2. 让我把最近30天周读总结,发到Notion 自动帮我生成周读总结,发到 Notion 3. 最爽的是:完全离线,飞机上、地铁上、甚至断网也能用,隐私100%可控 这感觉真的不一样 它不再是云端租来的AI,而是长在我电脑里的私人研究员 --- 最后一点思考 Gemma 4 31B 把本地AI 的门槛真正拉到了一张高端显卡就能干大事的水平 我现在越来越相信:2026年的Web3+AI真正落地,可能不是链上训练,而是主权模型+主权数据+本地Agent 你呢? ➤已经在跑本地知识库Agent的,欢迎评论区分享你的方案**(尤其是踩过的坑) ➤还在犹豫要不要上Gemma 4 的,说说你最担心哪一步 我把完整代码、Modelfile、Streamlit前端全放GitHub了(评论“代码”我发链接) 纯个人复盘,所有数据和体验来自真实操作,不做任何推广
Powerpei🦅 tweet media
Powerpei🦅@PWenzhen76938

前两天我发了Gemma 4的技术整理和实战体验,很多朋友在评论区问: “为什么这么多人下载?是因为它免费吗?” 我想了很久,我发现答案不是这么简单 ➢一周下载破1000万,这个数字背后藏着一个信号,大多数人都没注意到 --- 我最近越来越觉得不对劲 我用了1年ChatGPT、Claude、Gemini. 每次我输入客户资料、内部文档、商业想法的时候,我都会犹豫一下: ➢这些数据会被拿去训练模型吗?会被泄露吗? 还有一件事让我很不爽: OpenAI可以随时调整GPT-4的参数,Claude可以随时改 Opus的行为 你今天调好的prompt,明天可能就不好使了 你的AI能力,永远被API额度锁死 你想做个Agent跑24小时?对不起,API费用可能让你破产 你想部署到离线环境?对不起,没网就没AI --- ➢为什么1000万人选择下载Gemma 4? 不是因为它跑分高(虽然AIME 89.2% 确实猛) 而是因为人们终于意识到:AI不应该是租来的黑盒,AI 应该是你真正拥有的工具 --- 我在想三个趋势 1. 可以拥有的AI会成为必需品 你想想,你不会把所有照片都存在别人的云盘上 同样的,以后你也不会把所有AI工作流都放在别人的API 上 ➢医疗、法律、金融这些行业,企业内部的Agent,科研项目,国家的主权AI 这些场景必须用本地模型 Gemma 4把门槛降到了“一张显卡”的水平,这是一个大变化 31B 压缩后17.4GB,E4B版5GB能在手机上跑多模态 这不是玩具,这是真正能干活的工具 --- 2. 独立开发者和小团队的好时代要来了 以前你做AI应用,要么租API(成本高),要么租GPU(更贵) 现在呢? 31B版在Codeforces拿2150分,26B MoE速度接近4B但能力接近 31B ➢小团队做垂直Agent、做私有化部署、做离线工具,成本直接降到最低 这波机会,是给那些不想被API 绑住的人 --- 3. Web3+ AI的真正落地点,可能就在这里 我一直在想:Web3和AI怎么结合? 以前的答案都是“链上AI”、“去中心化训练” 听起来很酷,但是太难落地了 但是如果 AI能在本地跑,数据不上链也能保证隐私,主权数据+ 主权模型+链上验证 这才是真正的去中心化AI Gemma 4把云端能力搬回家,Apache 2.0完全开放权重 + 完全开放许可 ➢你完全掌控模型、数据和运行环境 这是 2026年本地AI的一个重要节点 --- 我昨天测了一整天 ➢agent流程很稳,长上下文没出问题,function calling比我想的还要好用 我现在在测试一个想法:我想用Gemma 4做一个完全离线的个人知识库Agent 所有数据在本地,所有推理在本地,没有API费用,没有隐私问题 如果测试顺利,我会分享具体的部署方案和我踩过的坑 --- 最后一个问题 ➢如果AI可以完全属于你,你会用它做什么? 我说的不是“用ChatGPT写个文案” 我说的是“拥有一个24 小时在线、完全听你指挥、永远不会泄露你秘密的AI助手” 这个问题,我还在想 但是我知道,答案不在云端,答案在本地 (这是我的个人思考,不是推广。已经上手的朋友,欢迎评论区聊聊你的想法)

中文
127
144
635
259.6K
Kenko wang
Kenko wang@Kenkowang·
@Teknium 我遇到一个一晚上都解决不了的问题,我让他给我处理批量自动发送邮件的任务,一晚上都推进不下去,不动了,也找不到核心问题能够解决,就是没反应,我不知道怎么办,也不知道他在后台到底处理了什么,问他就是在处理,答应的很好,感觉又回到了openclaw的状态了,好迷茫~~~~熬了个通宵都没解决~~😰
中文
0
0
1
79