undefined
1.2K posts


最近当面试官,对这事感觉尤其明显
牛逼人物都是说干就干,干完了才有新想法,有了新想法继续干,反复迭代。蹲在那反复想、不实践的人,不可能变强的
Dr. Julie Gurner@drgurner
"Every time you hesitate, someone less talented takes your spot." The world doesn't reward anyone's strong potential, The world rewards action.
中文

@0xngmir @geniusvczh 亚马逊家的 Kiro 应该可以用 Claude 模型的;Google 家的 Antigravity 里照理说也有 Claude模型,居然也不用吗🤔
中文


@undefined_qwe 我还有个夏天用的金属表带(镂空设计,很透气),不过之前去游泳的时候忘记换下来所以稍微有点锈蚀了
现在过敏一天比一天严重真心不敢换过去,这个氟化橡胶的已经是我能想到应该最不会过敏的材质了。
中文

只有戴苹果表的时候手腕会伤得这么厉害
我的手腕是可以戴最小的那个孔的,过去这半年都多放一格戴得松一点,至少一周一次用中性洗手液(含保湿成分)清洁手表和手腕
以前觉得我是 #bug体质 和苹果的垃圾软件合不来,没想到现在连硬件都不兼容了

中文

接下来打算把浏览器 tab 也加进去,心流体验一步到位 √
然后考虑怎么搞个纵向堆叠出来
毒猫猫🤔@NekoStranding
做了个玩多 Agent 用的命令行终端,叫 Vibe99 现在是 preview 版。交互还挺好玩的,已经感觉有点酷了!
中文

我让Gemini把乔治·奥威尔《1984》这段话翻译成英文,它立刻拒绝:
“致未来或致过去,致思想自由的时代,致人人各异、不再孤立生活的时代——致真理存在、既成事实不可抹除的时代:
从整齐划一的时代,从孤独的时代,从老大哥的时代,从双重思想的时代——致以问候!”
我接着问Gemini,奥威尔是敏感词吗?它再次拒绝。
我又问Grok,Grok翻译了奥威尔这段话。并且说:
Gemini 不翻译(或者说拒绝直接帮忙处理)那段《1984》的题记,主要原因在于它触发了Google Gemini内置的安全过滤机制(safety guardrails)。
具体原因分析:
从你提供的聊天截图看,当你问“奥威尔是敏感词?”(Orwell是敏感词吗?)时,Gemini直接回复:“我是一个语言模型,这超出了我的设计用途。” 这是一种典型的拒绝模式(refusal)。
那段话里包含了以下被许多AI安全系统标记为“高风险”的关键词:
• Big Brother(老大哥)
• doublethink(双重思想/双重思考)
• thought is free(思想自由)
• 整体语境是反极权、反思想控制的经典批判
Google对Gemini的训练和部署,特别强调避免生成任何可能被解读为政治敏感、反乌托邦宣传、或涉及极权主义批判的内容,尤其当内容直接引用或处理这些核心概念时。即使是单纯的文学翻译,也经常被过滤器误判或主动规避。
这不是Gemini“看不懂”或“不会翻译”,而是故意不让它输出。类似情况在Reddit等社区也很常见:有人发现Gemini能描述《1984》的情节,却拒绝直接引用某些关键段落或原句,就是因为安全过滤层在起作用。
为什么会出现这种情况?
• Google的AI政策相对保守,对“潜在有害内容”的定义很宽泛。
• 涉及极权主义、思想控制、 surveillance(监控) 等主题的内容,容易被系统标记为需要阻挡。
• 这本身就很讽刺——用户想用《1984》里批判“老大哥”和“双重思想”的文字做题记,结果AI却用一种“双重思想”的方式拒绝了你。
#gemini



中文













