anderu
1.5K posts


习近平招待川普的国宴,从菜品来看,非常用心,中西结合,兼顾了中国特色烹饪和西方保留食材营养。
担当今晚国宴主菜的,当然就是大北京的北京烤鸭了!
今晚国宴菜单上的菜品:
开胃小吃
番茄汤中的龙虾
脆皮牛肋
北京烤鸭
炖时令蔬菜
芥末酱慢炖三文鱼
煎猪肉包
小号贝形糕点
提拉米苏
水果和冰淇淋
KUNLUN昆侖@Kunluntalk
哈哈哈哈,举世瞩目的大国晚宴舞台上,全世界最厉害的两个科技领袖,搞怪拍照。外星人马斯克端坐其中,鬼脸一个又一个,库克还是那样的温文尔雅。 中方这个官员,很年轻,政治前途无量😂😅
中文

120 亿美元拨下去,最后只换来四个字:不知道。
这是马斯克在播客里讲出的荒唐现实。
柯林斯参议员给海军批了 120 亿美金造潜艇。
结果钱花完了,潜艇一艘也没见着。
开听证会追问,参议员问钱到底去哪了?
军方的回复很干脆:不知道。
就这么结束了。
没人负责,没人被开除,钱就像人间蒸发了一样。
看清楚这背后的宏观数字。
联邦政府现在每年亏损 2 万亿美元。
连自己做的审计都通不过,连账目都对不齐。
除了联邦政府,没有哪个机构能靠这种规模的浪费活下去。
这种对税金的藐视,是深层政府官僚体系最丑陋的底色。
当"不知道"能成为法治国家的合法证词,制度的底线就已经坍塌。
这已经不是管理效率的问题,这是在光天化日之下挪用民脂民膏。
常识回归的第一桶金,就藏在这些消失的账本里。
中文

@WangNextDoor2 up主是不是魔障了,越说越有劲,自己都信了吧,人家既然能这么赚钱为什么要把方法告诉你呀?先回答这个问题再往下编吧
中文

一位国内开发者,在万米高空的航班上,仅凭一台MacBook本地部署运行Llama 70B大模型,全程断网离线11个小时,硬是搞定了整套客户项目开发。
他坐在跨大西洋航班的靠窗位置,设备是顶配64G内存的MacBook Pro M4机型。整趟飞行的机上WiFi要收费25美元,他直接选择放弃连接。
全程不依赖任何云端API,也没接入Anthropic、OpenAI等外部服务器,彻底处于无网络离线状态。
全程靠本地跑Llama 3.3 70B模型,采用bf16精度配置,搭配自己编写的自动化编排脚本完成所有工作。
模型依托llama.cpp框架部署,生成速度可达每秒71个token,上下文窗口约6万token,整机64G内存仅占用48.6GiB。飞机起飞时,设备初始电池续航显示3小时21分钟。
起飞前,他提前给本地编排器设定好了专属系统指令:
“你是一台单机MacBook离线运行的智能编排工具,全程无网络可用。可调用资源仅限电脑/Users/dev/work路径下的本地文件、本地Llama 70B推理服务localhost:8080,以及剩余3小时21分钟电池电量。自动读取/Users/dev/work/queue.jsonl任务队列,按单行逐个处理客户需求。每个任务依次完成初稿撰写、本地自测评估、成果归档保存至/Users/dev/work/done/目录。每完成12个任务自动保存上下文检查点,方便后续换电接续任务。仅在任务队列清空或电池电量低于5%时停止运行。”
整套系统清晰掌握自身硬件、电量、运行环境的所有资源限制。
它清楚接下来11小时完全与世隔绝、无任何外网连接,也明白内存和电池都有硬性上限,更知道在飞机降落前,不会有任何人手动介入操作。
系统全程按单循环模式自动运转:依次读取队列任务、本地推理处理、归档输出成果、定时写入检查点,有条不紊逐个推进任务。
只有当电池电量跌破5%时,编排器才会自动暂停工作,待外接移动电源补电后,从最近的检查点无缝接续继续运行。
飞行途中,系统后台日志实时输出了这些运行记录:
“saved context checkpoint 8 of 12 (pos_min = 488, pos_max = 50118, size = 62.813 MiB)”
“restored context checkpoint (pos_min = 488, pos_max = 50118)”
“prompt processing progress: n_tokens = 50 / 60 818”
“task 37016 done | tps = 71 s tokens text → /Users/dev/work/done/proposal_westside.md”
窗外是蓝天白云层层云海,全程没有联网WiFi。小桌板上摆着一台MacBook,双屏幕同时打开终端界面,本地推理服务在后台稳定运行。
在我看来,这是近一年见过最简洁高效的离线AI工作流:整整11小时航程,一分钱WiFi费用没花,所有客户任务队列,在飞机落地前就全部处理完毕。
中文






























