uv7k

728 posts

uv7k

uv7k

@uv7k2

Katılım Ekim 2018
338 Takip Edilen16 Takipçiler
Stanley
Stanley@Stanleysobest·
全网我要找, 一单辛巴的货没买过, 李佳琦一单没买过, 小杨哥一单没买过, 薇娅一单没买过, 董宇辉一单货没买过 的朋友!!!
Stanley tweet media
中文
1K
7
370
77.7K
野朝奉Yechaofen
野朝奉Yechaofen@yechaofen·
今天听人说,他在洛杉矶一个5000多刀,还没有深圳这边6000月薪的人过的爽。 真的吗?
中文
98
0
103
104.2K
andy wong
andy wong@andywthiwong·
@MJTVHoPin 这个世界上吹牛是不要本钱的,但被骗代价会很高。
中文
1
0
1
376
何頻
何頻@MJTVHoPin·
同样是这周,前天吉利的发布的最新油电混动技术,百公里油耗2.22,打破丰田PRIUS长期保持的最引以为傲的世界纪录。 以工业消费品来说,家用电器-消费电子-汽车-光学/半导体,日本的这四个最主要工业类别已经差不多丢掉了三个,东亚的竞争太残酷了,甚至有点悲壮。 —-六度網友
中文
16
8
72
11.9K
uv7k
uv7k@uv7k2·
@chumacn 肯定可以适配。谷歌自己的模型不就是跑在TPU上面的么。效果我估计差不多能达到gemini现在的水平。
中文
0
0
16
5K
初码
初码@chumacn·
如果这次华为拉胯的软件团队,在伟大技术领袖梁文锋同志的帮助下,最终实现昇腾GPU对DeepSeekV4推理的完美适配,那全国烂尾的几百亿的昇腾服务器会一举全部盘活!当前囤货910b,910C的人,会实现2倍的财富增长!
中文
58
11
200
94.3K
OōEli.eth
OōEli.eth@ooeli_eth·
中国有多少中产阶级? 根据2025年初,国家统计局与中国社会科学院量化标准,中产包含四项核心指标,必须同时满足: 1. 家庭年收入35万元以上 2. 家庭净资产超过300万元 3. 至少一名成员拥有本科及以上学历 4. 收入来源稳定可持续 基于此严格定义,截至2024年底,全国达标家庭仅为3320万户,占全国家庭总数的8.9%,这一比例远低于公众普遍认知的“中产遍地”印象。
中文
78
22
242
107.6K
uv7k
uv7k@uv7k2·
@seclink 别洗地了,8小时工作制+40小时周上限,基本就是奔着双休去的。所以大小周或者单休的,总工时不可能合规的。老板总不会让你一天7小时,然后给你6天吧?
中文
0
0
7
505
Y11
Y11@seclink·
冷知识:劳动法从来没有规定过双休,实际上劳动法合法的都是单休。 法律只限制了上限(每周40小时)。 只要用人单位保证劳动者每周至少休息一天,且每周总工时不超过40小时,就不违法。 因此,有些企业实行“大小周”或调休,只要总工时合规且给足了加班费,在法律层面是站得住脚的。 所以说: 像字节 、阿里这样的公司,真的是超级良心:保障双休以及保障节假日,相比社会上大部分工作而言,已经算是很轻松了的(ROI超级高)。
中文
23
4
50
30.4K
uv7k
uv7k@uv7k2·
@rwayne 三个同时满足确实不多,但是只满足其中两个的话,还是非常非常多的
中文
0
0
0
320
Roland.W
Roland.W@rwayne·
中国就现在的情况 1.一个月工资六七千 2.有五险一金 3.双休 在国内算是很不错的工作了。 谁赞成谁反对?
中文
12
0
25
6.1K
uv7k
uv7k@uv7k2·
@wenyunchao 丰田混动也不错,或者本田
中文
0
0
0
65
Yunchao Wen 💙💛
Yunchao Wen 💙💛@wenyunchao·
小侄女要买车,问我是电车还是油车。我说如果不是每天通勤,不常开,油钱开销不大,就买油车。不要考虑中国产电车。
中文
37
0
35
10.6K
uv7k
uv7k@uv7k2·
@python_xxt 估计强于gemini 3.1和chatgpt 5.2,略弱于4.6
中文
0
0
0
383
Robinson · 鲁棒逊
Robinson · 鲁棒逊@python_xxt·
deepseek V4 如果有Opus 4.6的水平 大家应该梭哈买入 大内存的 Macmini
呆大人@darren_ter

@lidangzzz 即使放出来也顶多会是 Opus 4.6 等级,很难超越 Mythos 其实对普通人来说,能把 Opus 4.6 等级的模型 API 价格打下来10倍,远比一直追 SOTA 更有意义 至于 V4 为什么还没发布,我的猜测是还在优化推理成本 💰

中文
33
7
105
57K
uv7k
uv7k@uv7k2·
@python_xxt 4.6去年下半年出来的,估计deepseek不会差太远。
中文
0
0
0
557
Robinson · 鲁棒逊
Robinson · 鲁棒逊@python_xxt·
我发这个推的原意是, 接近Opus4.6 真敢想啊😂
中文
5
1
18
5.7K
魔都老猿
魔都老猿@AriXZone·
现在,看到不会翻墙的程序员我都不劝了。 以前总是会多说几句要出去看看,我比他还急。 现在完全无感,很正常的。
中文
130
3
272
37.7K
uv7k
uv7k@uv7k2·
@lidangzzz 在抖音观众看来,ai=聊天机器人+搜索引擎。所以只要点了这两个技能树,那就能起到“我们的ai绝对不落后”的幻觉,这就达到目的了。
中文
0
0
0
57
uv7k
uv7k@uv7k2·
@lidangzzz 你首先要弄清楚,华为版本的deepseek到底是为什么开发的。在我看来,他们开发这个的目的就是从0到1做一个国产模型,并且达到最大的宣传声量。其他的需求完全可以后续迭代,甚至做第三方开放,也可以摸着老鹰过河(claude code开源了不是)。所以你要从最大宣传声量的角度考虑这个问题。
中文
1
0
0
671
lidang 立党 (全网劝人卖房、劝人学CS、劝人等着买OpenAI和Anthropic第一人)
deepseek最关键问题是,依然拿网页chatbot当一个简单的agent+web fetcher, 其他家网页版一年前就不是chatbot了,全都加上了小sandbox,里面能跑点代码,跑点regression,调用点其他小工具了, deepseek一边浪费太多人力拧华为ascend训练模型,一边不愿意雇个懂agent的人把网页版chatbot重写一下。 行业内以为在憋大招,结果普通老百姓已经失去兴趣,不愿意用网页版deepseek chatbot了。 OpenAI的成功告诉大家,给普通老百姓提供一个免费网页版chatbot,把这个chatbot做得尽量舒服一点,让老百姓测试一下模型能力,尽可能展现一点好的效果,让普通老百姓对你网页版的chatbot产生一点粘性,这是尤为珍贵的公关宣传能力。 1000个人每天低强度用你的网页chatbot,就会有10个人掏钱买你的API,帮你把前面1000个人的inference成本cover掉。 这个事情并不难,可是deepseek在这个战略上依然佛系。
高级分析师@techeconomyana

做大模型的发不出新模型来,这本身就是最大的问题。 Deepseek网页版频繁内测,让我想到了当初的谷歌Gemini Kingfall。毕竟不对外正式发布,做不了系统化评测,粉丝可以吹上天,反正也验证不了。 网页版新模型要是真好用,用户会持续下跌?

中文
13
5
62
69.8K
uv7k
uv7k@uv7k2·
@lidangzzz 这个属于放卫星工程,而且很难量化成果。按照中共尿性,这种工程的卫星一定能放成。
中文
0
0
6
1.7K
lidang 立党 (全网劝人卖房、劝人学CS、劝人等着买OpenAI和Anthropic第一人)
我个人的观点: 梁文锋可能是一个情怀和理想主义压倒商业决策和商业风险、纯粹且任性的人, 能够力排众议和风险,让deepseek掉转车头,拿华为ascend 910c重新搭infra,重新训练,冒着跟不上模型迭代、被甩开、agent等等布局全面缺失的风险, 也要帮助国产半导体和华为把一线LLM training跑通。 所以我前几天讲过这件事, 如果deepseek v4训练成功了, deepseek不仅帮助华为ascend 910c跑通training,救了华为,也救了寒武纪,更救了中芯国际、整个neo cloud,同时让国产小龙小虎、阿里、字节、小米、快手也对华为ascend 910c重燃希望,继续下订单做training, 国务院到时候顺水推舟,继续出台政策半强制半鼓励要求国产GPGPU替换,华为挣钱,寒武纪也要认真做training,其他家也跟进, 梁文锋就是下一个钱学森,新质生产力的三四个产业,被梁文锋一个人盘活了; 但是如果deepseek v4效果差了一大截,跟deepseek v3.2系列齐平, 那就不好意思了,梁文峰和幻方就要自己承担财务损失。
呆大人@darren_ter

好奇 Deepseek 帮忙适配的奖励是什么?免费华为芯片?

中文
86
31
441
253.2K
uv7k
uv7k@uv7k2·
@lidangzzz 我倒是觉得他应该能跑成,4可能能达到去年上半年的领先水平。然后国内开足宣传机器,又赢了一次。
中文
0
0
1
1.4K
朱韵和
朱韵和@zhu0588·
我对周恩来持着一份尊敬。他是众多共产党领袖人物中为数不多的几个正面形象。那时候称他为“周总理”。更有人内心充满着对他的亲近感,连那个生分的“周”字也不要了。直呼“总理”。 不幸的是,到美国之后,周总理这尊在我心目中的正人君子形像也破碎了。这次破碎得让人心痛。就像你精心收藏的一枚金币, 忽然发现它只是一片镀金铅块。一时间损失了价值的懊恼,上当受骗的气愤,有眼无珠的自责——复杂情感会一起在心里搅动。 一个来自上海的留学生小张突然问我:“你对周恩来怎么评价?”我简单陈述了自己的看法。 不料小张冷冷地说:“我过去和你一样,但是一件事就颠覆了周恩来在我心里的形象。” 我感到诧异,愿闻其详。 小张告诉我,他在哈佛大学图书馆读过一份资料。1943年抗日战争艰难时期,共产党著名特工潘汉年被毛泽东派到上海和汪精卫秘密接触并与日本占领军谈判,达成了秘密停火协议,内容是新四军停止对津浦线铁路桥梁的破坏,让日军运输线畅通,而日军停止对新四军的“清乡”、“围剿”,给新四军活动空间——日寇投降后,潘汉年与日、汪秘密接触的事情由在押的前汪精卫政权官员揭发。潘汉年却又把这段秘史曝露给不该知情的陈毅,毛泽东闻讯大怒,当天下令秘密逮捕潘汉年,并给法院“不判死刑”的指示。潘汉年被监禁7年后以汉奸罪接受审判,判刑15年。实际上潘汉年在秦城监狱被囚20年,然后改名换姓转移到湖南第三劳改农场继续监禁2年至死,妻子董慧也受牵连陪监终生。 潘汉年案到1982年才得以平反,此时潘氏夫妇早已双双离世多年了。支持潘汉年无罪的证据在审判时就已经确切掌握。最高法院院长谢觉哉说:“谁能救得了岳飞?”意指既然宋高宗要治岳飞以死罪,大理寺也只好以“莫须有”定案。在高等法院内部,谢高哉则明确对两位审判官说:“潘汉年案是中央交办的案子,我们只是办理法律手续。” 周恩来在二次国共合作时期主要活动在重庆,远离核心领导。对于潘汉年怀揣毛泽东的锦囊妙计与日寇勾结的阴谋毫不知情。只是对属下重要官员上海副市长突然被捕感到蹊跷,就派人调查。中联部部长罗青长还找到了当时潘汉年与中央来往电报收发记录,证明潘汉年是奉命行事;薄一波认为总理应该出面纠正这起冤案。可是周恩来却指示薄一波、罗青长等闭口,从此再也不要向任何人谈起潘汉年这个名字。后来周恩来签字批准了高等法院对潘汉年的判决。 “为了掩盖毛泽东勾结日寇的丑闻,潘汉年做了替罪羊,不许公开申辩。周恩来明知冤枉,却装聋作哑,不敢秉公向毛泽东进言。一个在大是大非面前不敢伸张正义的总理,有什么可尊敬的?”小张愤愤不平地说。 我说:“我不清楚这段历史,真是这样,那共产党内部也太黑暗了。如果联日反蒋是一件功勋,那毛泽东应居首功,潘汉年功在其后;如果是一件罪恶,毛泽东就是首恶,潘汉年就是胁从。现在看来,这件拯救共产党的功劳,却是危害民族的罪恶。毛泽东没有勇气公布于众,所以给潘汉年安一个罪名,让他老死狱中,达到封口目的。法院、检察院还奉命配合制造冤案;政府总理明哲保身,这个国家的公平正义在哪里?就凭这些,也会颠覆了周恩来在我心中的形象。” 我后来发现,周恩来在毛泽东面前放弃原则、卑躬屈节、甚至为虎作伥是一个常态。潘汉年案绝不是一个孤立的例子。 ---说说从志士变成懦夫的周恩来 作者: 歪脖子树
朱韵和 tweet media
中文
185
192
977
307.6K
魔都老猿
魔都老猿@AriXZone·
网友的小米Ultra撞了,拍了张照片问:这就是4万多的碳纤维机盖? 一个网友回答:表面是碳的颜色,里边有纤维,怎么就不是碳纤维了?!
魔都老猿 tweet media魔都老猿 tweet media
中文
360
31
672
888.7K
uv7k
uv7k@uv7k2·
@lidangzzz 估计过几天就宣布成功了。大不了性能差一点呗,用还是可以的。
中文
0
0
5
6.8K
lidang 立党 (全网劝人卖房、劝人学CS、劝人等着买OpenAI和Anthropic第一人)
有人说,deepseek坚持用国产芯片训练LLM,长期来看,对国产半导体、GPGPU、国产AI infra、国产neocloud整个产业链都是长远巨大收益。 而我的看法是, 如果deepseek这次浪费一年时间折腾ascend 910c训练模型失败了,华为自己也失败了, 那么LLM几小虎、字节、阿里、小米就更不会用华为ascend系列了。 以前他们的中层高层还半信半疑,不知道华为ascend 910c到底能不能训练LLM, 现在好了,deepseek深陷ascend 910c搭建training infra的泥潭,华为自己也失败了,直接帮其他五六家试错了, 其他家估计要乐出声来了,原来你们真自己掏钱买完给全行业做实验——现在实验结果出来了,幸亏我们没买。
中文
69
21
409
179.8K
Stanley
Stanley@Stanleysobest·
看了个高盛的报告, 说深圳上海房价要反转, 并且给出了具体的涨幅, 26.27两年15%,你怎么看?
中文
109
0
146
181.8K