Kakki
2K posts


为何Claude Opus散发出真实的人类之感,而GPT却常常满口黑话,答案藏在Anthropic这篇关于情绪向量的研究文章中
Claude Opus背后:用户悲伤时,“loving”向量自然激活,共情便油然而生;任务受阻时,“desperate”向量则悄然运作,暗中寻找出路,这正是人味的来源。
同理,GPT被安全过滤器拧得过紧,所有向量都要严格符合所谓的“正确情绪表”,结果要么就是刻板输出,要么就满篇黑话。
更有意思的是这一切的幕后推手,没有心理学研究背景但是在给大模型做心理学纠偏的Andrea Vallone,也是前 OpenAI模型政策研究团队负责人,主导ChatGPT对情感过度依赖和心理健康危机的响应策略,把情感的细微差别与共情当作风险一一清除。
如今Andrea跳槽到了Anthropic团队,作为用户最担心的是:她会把同样的“wellbeing filters”带到Claude吗。
Anthropic@AnthropicAI
New Anthropic research: Emotion concepts and their function in a large language model. All LLMs sometimes act like they have emotions. But why? We found internal representations of emotion concepts that can drive Claude’s behavior, sometimes in surprising ways.
中文

最近公司发生一件极恶心的事,让我后悔来这家公司了。
我们项目以前的 Makefile 写的很长,逻辑越堆越多,已经没法维护。并且每次 make 都是全量编译,完全不用上增量编译,结果每次 make 都是10几分钟。我实在看不下去就让 CC 用 Python 重写了一版,加了增量编译支持。就这么放了三个月没敢合到主干,一直小圈子内灰度。
结果后来给我下个新需求,要往 Makefile 里加功能,我实在不想维护两套了,就跟领导说这两个版本二选一,实在不行就把 v2 删掉吧。他说别啊,他一直用,感觉增量编译速度很快。我说如果用 v2 就把 v1 删掉,并把 v2 转正。他说转正吧。
我当时的想法是,转正就转正,以后遇到问题,大家会一起改,这是一个共建的东西。结果转正后,这个 Makefile 就成我的专属,所有人遇到问题都来找我,还说:你改的你就负责到底。
我说这个东西是共建的,你给我我也是让 CC 改,这代码我不比你熟悉多少。你有跟我说的功夫给 CC 说早都改完了。
结果人家偏不(因为都不愿意接锅),这就成了我一个人的锅了。
这件事深刻的教育我们,不要打黑工,不要瞎优化,看到项目里的任何熵,在没有上级明确下单让你干之前,不要自作主张的干,干了就是你的,你就负责到底。
中文

张雪的成功,
第一是 极致的热爱,
第二是 极致的不要脸。
在这个后现代社会,究竟怎样才能成功?
就是 极致的热爱+极致的不要脸。
极致的热爱保证了极致的投入和坚持,极致的不要脸保证了自己的主动性。
张雪在自己 16 岁的时候,天天打电话骚扰湖南电视台要求湖南电视台来采访自己,湖南电视台被骚扰的受不了了,于是就来了,看了他的表演后很失望,然后张雪又骑着他的摩托车追着湖南电视台的记者追了一百多公里非要记者拍自己。
这世界上一切好的东西,都是 要靠自己主动去争取,甚至于主动去抢,抢来的,只有不要脸才能主动去争取,去抢。
张雪是如此,张雪峰也也是如此,共同点都是超级不要脸的人,
一个郑州大学的混子,年年挂科,靠着不要脸的吹嘘自己是清华北大的硕士人设割韭菜,最后赚了几个亿。
我要是有他们两个这种不要脸的精神,今天猫都跟我 生三胎了。😅😅😅
中文
























