Jun Jiang

1.8K posts

Jun Jiang banner
Jun Jiang

Jun Jiang

@jasl9187

Protection Paladin, Rubyist, Ruby on Rails developer, Blockchain developer, Co-founder of Phala Network, and Creator of https://t.co/5cW1lAO55U

Beijing, China Katılım Ocak 2013
362 Takip Edilen1.3K Takipçiler
Jun Jiang
Jun Jiang@jasl9187·
@mystersu @aliez_ren 看机箱,华硕PA602机箱双卡满载一个85度一个80度,我还试过abee的机箱会过热掉卡,然后安装时候间隔两个slot
Jun Jiang tweet media
中文
1
0
0
77
mystersu
mystersu@mystersu·
@aliez_ren 考虑下涡轮版的。双卡Workstation版满载半个小时,右侧那张卡会过热掉线(对调也一样),室温10多度都扛不住。双风扇透吹,右边卡吸的是左边卡的热风,没办法。最后拿风扇对着吹才稳。
mystersu tweet media
中文
4
0
1
1.8K
Jun Jiang
Jun Jiang@jasl9187·
@XCaptaincc 现在能下十年签已经是奇迹了…现在只要读计算机相关专业签证必然走审查
中文
1
0
0
140
XCaptain
XCaptain@XCaptaincc·
。。。额,机票酒店都定好了,懂王没懂为啥取消了我的签证
XCaptain tweet mediaXCaptain tweet media
中文
5
0
2
1.5K
onevcat
onevcat@onevcat·
@kevinzhow 你们怎么都推荐…搞得我很心动啊…
中文
2
0
0
1.8K
onevcat
onevcat@onevcat·
迫切需要一个折叠屏手机来看代码diff…
中文
8
0
19
10.5K
Jun Jiang
Jun Jiang@jasl9187·
@aliez_ren Pro 6000最便宜的时候六万出头 😂 那时候已经埋伏完了,不过下代最快也要明年晚点了,这一代会非常保值
中文
0
0
1
103
Aliez Ren
Aliez Ren@aliez_ren·
@jasl9187 是不是应该提前布局一下 PRO 6000
中文
1
0
0
441
Aliez Ren
Aliez Ren@aliez_ren·
跑本地大模型真令人上瘾,从最开始的用 LM Studio,Ollama,改为使用 llama.cpp,使用 Unsloth 量化的 GGUF。再到 vLLM,SGLang,KTransformers 都摸索了一遍,然后发现目前的工具其实对于 RTX 5090 (sm120) 的 FP4 支持的都不太好,虽然能运行 4bit 量化模型省显存,但都还无法利用原生 FP4 硬件加速。虽然都是 Blackwell 架构,但服务器上的 B200 和家用的 RTX 5090 区别很大,最终走向了自己修改编译 SGLang 的道路。
Aliez Ren tweet media
中文
34
38
369
51.4K
Jun Jiang
Jun Jiang@jasl9187·
@xxm459259 任天堂找不到顶货是因为日本的汽车行业衰落,人家厨子的厂房可是在中国啊,垃圾站里到处是宝
中文
1
0
0
2.2K
Jun Jiang
Jun Jiang@jasl9187·
@xxm459259 To the moon,地球也配不上它们 🤓
中文
0
0
1
271
Micro 小熊猫
Micro 小熊猫@xxm459259·
想为了安魂曲的 PSSR 换 PS5Pro,但是我的古董款大法电视机又配不上它,如果把电视机也一口气换了,我又觉得这房子配不上了它们。卡表罪大恶极。
中文
5
0
29
7.9K
Micro 小熊猫
Micro 小熊猫@xxm459259·
坐自动扶梯的时候,没忍住捏了一下前面女生挂书包上的小玩偶,被站她旁边的闺蜜看到了,扭头对我说,你捏了这个就要当她男朋友。
中文
66
22
751
275.6K
Jun Jiang
Jun Jiang@jasl9187·
@xxm459259 实际上就是因为你一毛不拔才导致人家店黄的…
中文
1
0
17
3.8K
Micro 小熊猫
Micro 小熊猫@xxm459259·
刷到一个勇哥的连线切片,店主盘的铺子竟然就在我家楼下。不怪勇哥一顿劈头盖脸骂他完全不做调研,这里但凡有能活下来的刚需小餐馆,我都不会吃罗森……
中文
6
3
272
51.7K
Jun Jiang retweetledi
onevcat
onevcat@onevcat·
@soyis_ 的这个困惑我觉得蛮有代表性的,所以专门拿出来说一说我的看法吧。我其实之前在和《枫言枫语》一起做的一个 Podcast 里,也简单地说过一下我关于这个事情的观点,不过那时候没怎么展开。作为一名在一线摸爬滚打十多年的老家伙,说不上什么权威,而且看事情似乎也是错多对少,但还是斗胆在这里给入行不久、道行还可能比较浅的新朋友们说一说我的关于新人们在 AI 时代如何生存和成长的看法和建议吧。 这个时代,我觉得对新入行的软件工程师来说,既是利好,也是利空。 先说利空,那就是初级工程师的岗位会变得非常少,企业对他们“上手就能战”的要求也会变得非常高。以前企业可能会找不少初级工程师来做相应的编码工作,他们可能一开始并不需要理解整个代码库,也不需要理解架构选择或者更高层面(比如商业逻辑)的问题,只需要在规定的时间内把分配的任务做完就可以。而初级工程师也能够在这几年内慢慢积累经验和视野,将他们在大学里接受到的、可能相对滞后或者理论派一些的软件工程实践(如果大学里真有教有的话),追到业界水平,并真正理解软件开发这件事情到底是如何运作的,这可以提升他们对于开发的品味。所谓软件开发,其实和很多其他事情也差不多,就是一个一个的选择。这些选择通常都基于某种约束和权衡,比如说:时间和人员是否充分,结构和功能是否匹配,对细节的投入是否能换来合理的产出回报等等,并在开发时依照情况,进行技术选型/架构设计/实现路径/测试覆盖/问题修复/功能细节等等诸多选择。具有这些品位,或者是能够理解这些选择的工程师,则会一步步走向 senior 的行列,去承担更多的任务。 在这一波 Vibe Coding 的浪潮中,我观察到的更多的是,不管是企业开发还是个人开发,都是很多已经是 senior 的老家伙们在主导(虽然这也算是必然...):他们在摆脱了实际编码的体力和时间束缚后,肆意地运用已经有的“品味”,将上面那些工程上的选择迅猛地灌给 LLM。对于这一拨人来说,实际上是一个非常十足的生产力的解放:因为他们之前的任务就是时刻做这样的选择,现在只不过从以前要把这样的选择传达给初级工程师,让他们去实现,变成了现在有一个能够时刻共鸣的叫做 LLM 的 soulmate,同时还是无休止不疲劳地实现他们的愿望万能许愿机。于是你看到了各种 10x 工程师 100x 工程师的出现,留给初级开发者们的活儿也就被抢掉了。 但是事物并不是一面的。AI 的出现,如果对于 Senior 来说是一个能力的放大器的话,对于 Junior 来说,它就是一种学习的加速器。 在我自己学习成长的道路上,其实有非常多的问题困惑我,让我想了很久都不得其解。特别是刚刚入门的那几年:搞不懂堆和栈的区别,搞不懂引用语义和值语义,搞不懂多线程为什么要加锁,搞不懂原子状态和事务的必要性,搞不懂单向数据流,搞不懂着色器语法,搞不懂为什么要 VIPER,搞不懂测试覆盖到哪儿算是OK,也搞不懂各种时区转换和字符编码,甚至一个 OAuth 或者 APNG 都要啃上一整周。但是在 LLM 之后,这一切问题都灰飞烟灭了。你甚至都不需要知道名词是什么,只要说个大概,自然会有大模型把所有细节给你解释清楚。你不需要自己再去记这些东西,也不再需要自己实现,需要的时候,这些信息甚至代码都是信手拈来。 以前一个资深工程师可能十年才能完成的成长,现在新入行的同学们,可能一两年就能搞定。而且随着模型的继续成长,有一些知识可能根本就不再被关心和需要了。除此之外,老家伙们通过多年的积累得到的经验和选择的方式,在新的约束条件下,有些可能也不再适用(像是避免过早优化,确保测试的稳定性等等,我认为其实多少已经过时),他们也需要自身知识的更新,如果跟不上变化,就很容易面临更加 AI native 的工程师带来的革命和冲击。 说了这么多,其实最核心的就是我认为初级工程师在使用 AI 的时候,一定不能只把它当作一个工具来使用。相反,你要把它当作一个真正的、和你一起进行 Pair Coding 的人。去向它请教,去向它学习,给大模型一个 SOUL,让它来扮演你导师的角色而不是代码机器。在向它许愿完成任务的时候,也让它教你如何在各种可能的实践中做出选择,让它讲明白其中的利弊得失,将它的“加速器”的一面用到极致。于是,你就可以用比前辈们更快的方式达到和他们同样的高度,然后去享受能力“放大器”的一面所带来的红利。虽然我也不知道这样的红利会持续多久,以及最终到底会为整个业界带来怎样的结局,但是如果你热爱这份事业,也热爱创造这件事情,那么一直 on boat,就一定能到达你理想的终点。
onevcat tweet media
中文
9
41
252
56.8K
Jun Jiang
Jun Jiang@jasl9187·
@9hills 更新了下,把实验结论整理成表了 #eval-strategies-baseline-vs-production" target="_blank" rel="nofollow noopener">github.com/jasl/vibe_tave…
中文
0
0
2
172
Jun Jiang
Jun Jiang@jasl9187·
@9hills 我没特别试过国内服务商,不过刚好正在学习tool use和directives,使用OpenRouter来评测各种模型(包括闭源和开源),通过工程手段可以显著提升成功率,GPT 帮我整理的笔记github.com/jasl/vibe_tave… 测评和实现代码也都在这个仓库。
中文
2
1
20
4.6K
九原客
九原客@9hills·
最近测试了很多国内云服务商提供的开源模型(Kimi、Minimax、GLM、DeepSeek 等),大半在 tool calling上有问题,效果远差于各模型的官方API。 世界这么草台么?
中文
36
3
156
51.6K
Jun Jiang
Jun Jiang@jasl9187·
@9hills 我本身想尝试一个想法:使用LLM来控制程序的运行,所以就比较自然的想到了 tool use,并且我不希望绑定到具体模型,所以就做了这个研究,起初的成功率只有40%不到,而且国外顶级那四家的规则也略有不同,但是烘托了很长时间气氛后,目前简单调用做到了94%,极端也在70%。
中文
0
0
4
240
Jun Jiang
Jun Jiang@jasl9187·
@daimajia 我这里 opus 4.6 在代码量一万行左右的时候就已经失控了…充满幻觉。 GPT 5.2 xhigh 的表现在七万行左右规模依旧保持优秀。但后者问题是工具调用不稳定,非codex环境失败率较高,也因为这原因不适合GUI和前端开发。
中文
0
0
7
1K
代码家
代码家@daimajia·
用了一天 Claude Opus 4.6 thinking ,简直太强了。感觉比 Opus 4.5 智商又上了一个台阶。检验模型能力最好的指标在我看来就是写代码,写项目,越强的逻辑,越复杂的上下文,对大模型的考验越大。想想我们的大模型还在 ddos 奶茶店,请大家喝奶茶花的钱,买点卡,给工程师涨涨工资不好吗。🤷‍♂️🤷‍♂️🤷‍♂️
中文
15
4
61
19.8K