MemeInformation 🔔|AI First

757 posts

MemeInformation 🔔|AI First

MemeInformation 🔔|AI First

@MemeInformation

AI = story + impact, not just scores. Let’s walk out of this foggy forest together. mail:[email protected]

Katılım Mayıs 2025
404 Takip Edilen5.1K Takipçiler
CuiMao
CuiMao@CuiMao·
有没有深圳的,我准备搬到深圳住,有什么需要注意的和推荐的,求告知。
中文
444
2
241
136.7K
MemeInformation 🔔|AI First
MemeInformation 🔔|AI First@MemeInformation·
有一种创作的挫败感,几乎每个人都经历过,你脑子里明明有一个完整的画面,眼前却只剩空白。 你开始打字,AI 给你渲染出一段视频,你看了十秒,意识到不对,就差那么一点,却不知道下一步该怎么办。 退出,重来,等待,得到另一个差那么一点。 因为整个交互的逻辑错了。 4月16日,阿里ATH事业群发布了世界模型产品HappyOyster(快乐生蚝)。 这是同一个孵化出HappyHorse的团队,带来的一次更具野心的尝试,他们想解决的,是一个根本性的问题:当AI构建的世界出现在你面前,为什么你只能是个旁观者? 过去两年,文生视频的技术进步有目共睹,生成质量飞速提升,但交互范式几乎没有变过:输入提示词,等待渲染,收到成片。 这是一条单向的传送带,用户站在终点等货。 HappyOyster要打破的,正是这个链条。 它提供四个核心能力。 漫游模式(Wander)让用户从一张图或一句话出发,生成具备物理一致性的完整空间,场景持续存在,光照随视角变化,还可以自由拖拽镜头、延伸探索,目前支持1分钟连续实时位移和多样风格切换。 导演模式(Direct)则允许用户在视频任意节点通过文字、语音或图像介入世界演化,改写剧情、调度角色、切换镜头,目前支持连续生成3分钟以上的480p或720p实时画面。 创造让用户持续补充设定、角色、场景和规则。 分享则让数字世界可以被保存、被他人继续体验和二次创作。 漫游和导演两种模式之间存在微妙的区别:漫游更接近身临其境,导演更接近掌控叙事。 而创造与分享,则让这种交互进一步从一次性的体验延伸为持续搭建、持续流转的内容过程。 它们代表着几种不同的创作欲望,也指向了AI内容交互的几个尚未被充分挖掘的维度。 HappyOyster所属的技术流派,世界模拟器,在AI领域仍是相对小众的前沿赛道,与谷歌的Genie3同属一个方向。 要理解它和文生视频的区别,不妨做一个类比:文生视频模型更像是一位摄影师,接到委托,拍好交付。 而世界模型更像是一位物理引擎,持续运行着一个包含空间、重力、因果规律的虚拟宇宙,摄影机只是进入这个宇宙的其中一种方式。 技术层面的差异是本质性的。 传统文生视频模型的建模目标是生成一段合理的画面序列,而世界模型的建模目标是预测一个世界的演化方式。 前者完成后即告一段落,后者在整个过程中持续推演。 这意味着模型需要真正理解空间位置关系、物体的物理属性、角色动作的因果逻辑,而不只是让画面看起来顺滑。 相较于谷歌Genie3,HappyOyster在技术路径上做出了几个有趣的选择。 它采用了时间跨度更长的世界演化建模方式,让模型在更宏观的时序框架下保持场景的高保真度。 同时,它在建模之初就引入了多样的控制信号,文本、动作指令、图像参考,使得生成质量、长时序与实时可控性能够在同一个框架内协同优化,而不是相互取舍。 产品层面的差异则体现在独家的实时导演功能,以及漫游模式更强的风格泛化能力和动态表现力。 再往前一步看,创造与分享能力的补充,也让HappyOyster呈现出一个更完整的产品闭环:从进入世界、干预世界,到搭建世界、传播世界。 世界模型现阶段的技术成熟度仍在早期,但它已经开始改变某些行业的工作流。 在游戏原型设计领域,开发者不再需要搭建完整的关卡就能验证玩法感受,他们可以用HappyOyster快速生成一个可玩的空间原型,在其中测试叙事节奏、光照氛围和空间体验。 在影视创作中,分镜验证的成本被极大压缩。 导演可以在正式开机之前,用自然语言描述想象中的场景,实时获得可修改的视觉参考,并在任意节点调整镜头语言和角色调度,让创意验证从等待渲染变成实时对话。 我个人认为更长远的方向,是与穿戴设备等智能硬件结合,根据用户的位置、动作和语言,实时生成响应性的沉浸内容,让数字世界和现实空间真正产生共振。 而当这些内容能够被保存、分享,再被其他人继续接力创造时,HappyOyster想做的就变成了一个可以不断生长的数字世界入口。 必须承认,世界模型距离大规模商业落地还有相当的距离。 漫游与导演两大模式目前尚未完全打通,真正意义上的边探索边创造还停留在路线图阶段。 画面质量、物理一致性、生成稳定性,都还有肉眼可见的提升空间。 但这恰恰是这个方向最有意思的地方:它的技术可能性还远未被触及天花板,而它描绘的那个愿景,每个人都拥有一个可以随时进入、随时修改、实时反馈的数字世界,足够清晰,足够令人心动。
MemeInformation 🔔|AI First tweet mediaMemeInformation 🔔|AI First tweet media
中文
0
0
0
400
🦈
🦈@la_dj92847·
这个月一张单子都没有😭 谁来可怜我一下🥺(画了个吸血鬼猎人)
🦈 tweet media🦈 tweet media🦈 tweet media
中文
142
9
1K
56.4K
CuiMao
CuiMao@CuiMao·
😭😭😭😭😭😭😭😭😭😭😭😭😭😭😭😭😭😭😭😭
CuiMao tweet media
QME
7
0
18
7.6K
MemeInformation 🔔|AI First
MemeInformation 🔔|AI First@MemeInformation·
上周我去参加一场只有20个早期创始人的闭门会,散场的时候我等滴滴,站在路边吹了十分钟风。 那十分钟里,我脑子里反复冒出来一个判断:创始人的角色,可能真的在变。 以前大家默认,创始人首先是人员管理者。 要招人,要盯执行,要管流程,还要不断处理团队磨合、效率波动和人员流失。 公司想做大,第一反应往往也是继续招人,把组织铺开,把岗位补齐。 但我现在越来越强烈地感觉到,创始人的角色,正在从人员管理者,变成Agent管理者。 你不用天天蹲在工位盯执行,不用一轮一轮招人。 你更需要做的,是把需求提清楚,把流程拆明白,把关键节点定义好,然后指挥不同分工的Agent,把销售获客、内容生产、用户客服这些全链路的活跑起来。 我在闭门会上见了个做ToB业务的创始人,整个公司明面挂着的人类员工只有三个,剩下二十多个岗位全是Agent。 每个Agent都有固定分工和沟通风格,对接客户的销售Agent说话永远干脆,处理售后的客服Agent永远耐心。 客户跟他们合作了大半年,根本没察觉对面不是真人。 现在这种Agent团队,已经越来越像一种新的组织形态,7*24小时待命,随时开工。 并且这不只是公司变轻了,这是公司的成本结构和交付方式都在变。 我身边就有个做垂直行业知识库的朋友,就他一个人,养了十几个Agent做内容更新、用户答疑、续费提醒,现在有120个付费客户,每个月每人付399,一个月流水接近五万,扣掉服务器和API调用成本,纯利还有四万多。 放在以前,这点收入未必养得起一个十人团队。 光是内容、运营、客服这些人力成本,就已经把利润吃掉不少。 很多原本需要多人协作完成的标准化工作,现在都能被拆成流程,再交给不同Agent并行执行。 谁更新内容,谁回答问题,谁做续费提醒,谁整理客户反馈,都可以被设计进一套持续运转的系统里。 这样一来,公司的瓶颈也变了。 过去的核心问题,是怎么招更多人、怎么把人管好。 现在越来越多小公司的核心问题,正在变成你能不能把任务拆清楚,能不能把流程搭起来,能不能把Agent协作跑顺。 这也是我最近反复在想的一件事。 过去大家信奉人海战术,觉得多招人、多铺团队、多设岗位,组织就更稳,交付就更快。 这个逻辑在过去当然成立,因为很多事情确实只能靠人堆出来。 但现在,这个逻辑开始松动了。 因为人一多,沟通成本、协作成本、管理成本都会迅速上升。 很多团队表面上很热闹,实际上大量时间都消耗在对齐、返工、等待和内耗上。 岗位越多,链条越长,响应速度反而越慢。 很多公司最后输的,不是能力不够,是组织太重,动作太慢。 Agent带来的变化就在这里。 它不一定会立刻替掉所有人,但会优先吞掉那些重复的、标准化的、可拆解的工作环节。 一旦这些环节被系统接管,传统靠堆人维持效率的方式,就会越来越不划算。 你招十个人才能跑起来的业务,别人三个人加几十个Agent就能做。 你还在为招聘、培训、考核和流失头疼,别人已经把主要精力放在定义需求、优化流程和提升结果上了。 所以我越来越觉得,未来几年,拼的不会是谁团队更大,拼的是谁更早把公司改造成一个人类指挥、一群Agent执行的新系统。 先跑通的人,会把小赛道的利润先吃掉。 人海战术不会一下子消失,但它最风光的阶段,可能真的快过去了。
中文
0
1
1
242
MemeInformation 🔔|AI First
MemeInformation 🔔|AI First@MemeInformation·
招聘Agent开发工程师(实习) 薪资待遇 200-400元/天 岗位职责 - 参与公司Agent产品的设计与开发工作,协助完成前后端全栈开发任务,包括管理后台、用户交互界面、工作流编排系统、任务调度系统及相关服务接口的开发与优化。 - 基于大语言模型(LLM),协助构建高可用的Agent生产能力,参与Prompt优化、上下文管理、记忆机制、工具调用、长文本生成及多轮迭代策略的设计与落地。 - 协助完成RAG检索增强系统的设计与优化,打通知识库、案例库等内容资产,提升Agent对业务需求的理解与响应能力。 - 参与Agent的多Agent协作、工作流协同能力建设,协助解决任务拆解、流程编排、记忆管理等关键问题。 - 与业务团队深度协作,深入理解真实业务场景的需求与痛点,协助优化Agent的可用性、交付质量及生产效率。 - 跟踪自然语言处理、大模型应用、Agent框架的前沿技术,协助推动新技术在业务中的验证与落地。 - 协助完成相关系统的部署、监控、性能优化与稳定性维护,保障Agent平台的持续可用与高效迭代。 必备要求 - 本科及以上学历,计算机、软件工程、人工智能、自然语言处理等相关专业,在校学生(可保证稳定实习时长优先)。 - 具备扎实的工程基础,熟练掌握Java或GO编程语言,具备良好的编码规范与逻辑思维。 - 了解Web开发基础,熟悉前后端分离架构,能够协助完成管理后台、内容工作台等简单功能的开发与调试。 - 对LLM应用开发有一定了解,熟悉Prompt Engineering、上下文工程、工具调用等基础概念,有相关实践经验者优先。 - 了解RAG相关技术原理,能够协助完成知识切片、向量检索等基础工作。 - 具备较强的学习能力、问题分析能力与执行力,能够快速适应业务节奏,主动推进任务落地。 - 具备良好的沟通协作能力,能够配合团队完成协作任务,乐于分享与交流技术。 加分项 - 有完整的Web产品开发实习经验,能够独立完成简单功能模块的开发。 - 熟悉LangChain、LangGraph、LlamaIndex、AutoGen、CrewAI等Agent主流框架,有实际项目落地经验。 - 具备RAG检索增强系统相关开发经验,能够独立完成召回优化、重排序、知识库更新等功能设计与实现。 - 了解HTTP、WebSocket、消息队列、缓存、数据库等基础设施,具备基础的服务端开发与系统集成能力。 - 关注Agent领域技术动态,有相关技术博客、开源项目或竞赛经历者优先。 工作地点 上海/深圳 简历投递邮箱:hr@velneth.com
中文
0
1
0
414
Xiangyu 香鱼🐬
Xiangyu 香鱼🐬@XianyuLi·
@CuiMao 😅😅😅所以上次卡兹克挂的那个小姑娘拿返点看来是业界常态?
中文
2
0
7
4.5K
Xiangyu 香鱼🐬
Xiangyu 香鱼🐬@XianyuLi·
我今天才知道,国内平台的商单居然是要要返点的?? 就是假设我报5000,MCN要返40-60% 我一整个震惊
中文
167
11
253
165.2K
MemeInformation 🔔|AI First
MemeInformation 🔔|AI First@MemeInformation·
中国有大量的方言内容没有被好好存档。 地方戏曲、地区性的口述历史、农村的广播录音,还有那些只在特定城市流传的民谣、市井里的叫卖声、老人讲了一辈子却从未被记录下来的故事。 这些东西有语言学价值,也有文化价值。 但因为方言转写的成本极高,它们大多没有文字,没有索引,没有办法被检索和传播。 慢慢地,随着会说那门方言的人越来越少,这些内容就这样消失了。 不过,严格来说,真正更容易消失的,往往也不是大家最熟悉、最常见的那些方言。 像粤语、四川话、东北话这样仍然拥有大量使用者、内容生产也很活跃的方言,当然不会轻易消失。 更脆弱的,反而是那些传播范围更窄、记录更少、代际传承更弱的长尾方言和地方口音。 也正因为这样,方言识别能力真正有价值的地方,从来不只是能不能听懂常见方言,更在于能不能覆盖那些不那么常见、却更需要被保存下来的语言样本。 从公开信息看,Qwen3.5-Omni 已将语音识别能力扩展到 39 种方言。 除了普通话、粤语这些大家熟悉的类型,也已经支持像广东普通话、南京话这样的更细分表达,以及吴语、闽南语等具有鲜明地域特征的方言体系。 对很多原本更难被记录、也更容易在代际更替中变弱的语言内容来说,这种能力本身就有现实意义。 消失不是一个突然的事件。 它是一个漫长的、安静的过程。 某个地方的录音磁带氧化了,某位老人去世了,某种腔调再也没有年轻人开口说了。 没有人宣布它结束,它只是不再出现。 我有时候会想,语言是文化最后的容器。 当一门方言消失,装在里面的那些东西,也跟着一起走了。 这件事让我开始认真想一个问题:大模型对语言的理解,究竟算不算真正的理解? 标准的评测指标,比如 MMLU、GPQA,还有各种 Benchmark,已经越来越难以让人产生直觉上的认同。 数字在涨,但你不清楚那意味着什么,也不清楚模型会在什么时候悄悄失效。 真正能让我产生判断的,是那种文化嵌入的、需要真正理解才能完成的具体任务。 我最近看到阿里云 Qwen 团队发布了 Qwen3.5-Omni,其中有个 demo 让我比较感兴趣。 他们输入了一段多方言说唱混剪,让模型识别每一位歌手来自哪里、用了什么方言、情绪状态怎样,并转写出完整歌词。 我觉得这个任务比背英语选择题难多了。 因为说唱本身已经是语音识别的噩梦。 语速快、背景音强、韵脚压迫着发音变形,说唱歌手为了押韵,会刻意拉长或切断某些音节。 方言说唱更难。 粤语九声六调,一个字的声调错了,意思就完全不同。 重庆话的入声字短促爆破,标准普通话的 ASR 系统常常直接跳过。 东北话的儿化音密度和北京话不同,有自己的节律逻辑。 维吾尔语混入汉字时,两套音系的边界本身就是一道难题。 而这个 demo 里有 12 位来自不同地区的歌手,粤语、普通话北京口音、杭州话吴语、河南话、天津话、武汉话、维吾尔语、山西话、云南话、河北话、四川话、东北话,轮番出场。 每个人说唱的时间只有十几到三十几秒,没有任何提示告诉模型现在换人了。 模型要做的事是,听出换人,判断来自哪里,分析声音质感和情绪状态,转写歌词,还要给出歌词里的文化语境解释。 我把输出仔细看了一遍,最让我留意的是模型在描述每个歌手时的粒度。 对粤语歌手,它写道,声线属于中音区,听起来自信且充满活力,有一种街头巷尾的亲切感。 对北京普通话女歌手,它写的是,声音中透着一股京味儿的飒爽和利落。 对天津歌手,它的描述是,声音极具辨识度,带有天津话特有的哏儿和幽默感,语调夸张,节奏明快,像是在说相声一样。 这些描述没有说错。 天津话里确实有相声的基因,那种语调的弹性和包袱感是真实存在的东西,不是凭空生成的形容词。 歌词转写的部分也让我有些意外。 粤语部分出现了“哼住歌”“麻将馆等自摸”,四川话部分有“别去装憨厚”,东北话里大碴子味的节奏也基本完整保留。 方言说唱的歌词本来就不容易在文字上对齐,模型在这里没有回避,而是给出了明确的转写结果。 为什么我觉得这个 case 有意思呢。 因为这个任务需要的不只是听清楚,还需要某种关于中国各地城市文化和语言历史的背景知识,才能把声音和来源对上。 天津话和东北话听起来都爽朗,但节奏感截然不同。 河南话和山西话同属北方官话,但声调走向和词汇选择完全是两回事。 武汉话里的码头气,杭州话里的吴侬软语,这些都不是从频谱分析里能直接读出来的东西,它们是文化积淀在语音里的印记。 模型把这些大部分接住了。 这意味着它在某种程度上把语音、语义、文化背景整合到了一起。 语言是文化最后的容器。 一个模型效果究竟怎么样,我不会去看 Benchmark,我会观察它在这种任务上的表现。 具体的、文化嵌入的、需要真正理解才能完成的。 因为只有到了这种时候,你才比较容易判断,它到底是在机械匹配,还是已经开始摸到理解这件事的边。 而 Qwen3.5-Omni,确实交出了一份还不错的答卷。
中文
0
0
0
228
MemeInformation 🔔|AI First
MemeInformation 🔔|AI First@MemeInformation·
最近AI行业有个现象挺有意思:大厂们好像突然一起踩了油门。 谷歌把Gemini从“大模型”重新定位成“全栈AI系统”,Android、Chrome全线往Agent化改;英伟达不满足于卖显卡,开始做Agent开发平台;OpenAI在收缩应用线,集中资源押注基础能力。 方向出奇一致,都在从“做一个聪明的模型”转向“做一套能干活的系统”。 国内这边,最近动静最大的是阿里。 Qwen3.6-Plus发布两天,直接冲上了OpenRouter日榜第一,更夸张的是,单日调用量达到1.4万亿Token,把OpenRouter单日单模型的全球纪录给破了。 OpenRouter是真实的使用场景,开发者在这里用真实的项目来投票,性能、速度、成本,一个都不能糊弄。 。而且三天发了三款模型:全模态的Qwen3.5-Omni、图像生成的Wan2.7-Image、编程和Agent方向的Qwen3.6-Plus。 这个速度本身不是新闻。 真正罕见的,是一家体量这么大的公司,能在半个月内完成从组织重构到产品集中兑现的完整动作。 这让我想起一个不那么常被讨论的话题,为什么大公司的AI进展总是忽快忽慢? 往往是因为组织结构没有跟上。 资源在不同事业部之间摩擦,决策链条拉长,能力没办法形成合力。 阿里之前也经历过这个阶段,通义实验室能力毋庸置疑,但从实验室到产业化的路走得并不顺畅。 ATH的成立,某种程度上是在修复这个问题。 今年还有一个趋势越来越清晰:AI的竞争正在从“谁更聪明”转向“谁更能干活”。 龙虾这种个人桌面agent的走红,是因为它真的能替人完成一系列连续的操作,打开应用、搜索信息、执行任务,像一个有手有脚的数字员工。 这种能力,需要的是多模态理解、工具调用、任务规划的综合协同。 而Agent的兴起,也让AI的Token消耗进入指数级增长。 一个Agent完成一次复杂任务,调用的Token数量可能是普通对话的几百倍。 这意味着,谁能高效地创造Token(模型端)、输送Token(云和算力端)、应用Token(产品和场景端),谁就占据了这一轮AI产业化的核心位置。 黄仁勋说Agentic AI是继大模型之后的下一个万亿美元机会。 这个判断大概率没错,但问题是,要把Agent能力真正落进企业工作流,光有一个好模型是不够的。 你还需要理解企业场景,需要安全可控的私有化部署能力,需要跟现有软件生态打通。 钉钉背后的2000多万企业组织,是悟空真正有意思的地方,它的分发渠道和场景密度,是大多数AI创业公司没有办法复制的。 但这里有一个更值得深思的问题:可持续的技术创新体系,到底依赖什么? 很多公司会在某一轮押对,用一款产品出圈,然后逐渐掉队。 而真正能在多个技术代际保持前沿的,往往是那些把创新做成体系化能力的。 这件事说起来容易,做起来极难,它需要组织耐心、资本持续性和判断力同时在线。 黄仁勋说Agentic AI是下一个万亿美元机会。 但机会这个词本身是中性的,它向所有人敞开,又对大多数人关闭。 真正的问题或许是,当AI开始真正干活的那一天,你的工作流里,还剩下多少事情是只有人能做的?
中文
0
0
1
340
Frank Wang 玉伯
Frank Wang 玉伯@lifesinger·
如果要学会用 AI 记得取消订阅以下人 - 傅盛 - 花叔 - 橘子 - 玉伯 - 宝玉 - Karparhy - Elon Musk 等等 关注以上人 学不会 AI 欢迎补充这个列表 同时推荐真正值得关注的人
中文
247
70
940
371.4K
MemeInformation 🔔|AI First
MemeInformation 🔔|AI First@MemeInformation·
人生要学会多做减法。拿不到结果的事,或者做到一半已经看清跑不通的业务,就该果断砍掉。
中文
0
0
0
124
CuiMao
CuiMao@CuiMao·
有些人上来就说 cuimao 老师 加个微信,我问你干嘛加,你说有合作,然后加了一句话不说,那你加了是干嘛呢,把我微信当文件传输助手吗?
中文
53
0
73
30K
MemeInformation 🔔|AI First
MemeInformation 🔔|AI First@MemeInformation·
AI生图用了两年,我终于等到一个肯认真填坑的模型 过去几年,用AI生图的人都有一段相似的心路历程。 刚接触的时候觉得什么都能做,满脑子是这东西要改变设计行业了。 用了三个月开始发现不对劲,用了半年开始认命,用了一年之后,已经学会了在心里给它划一道边界:这类需求别指望它,绕开走。 那道边界后面,堆着四个没人打算修的问题。 AI生图过去最大的困境,是关键细节一直不可控。 人物差异、文字精度、局部修改,这些看起来像小问题,实际上决定了一张图能不能真正进入专业工作流。 1. 所有人长同一张脸。 你在提示词里写鹅蛋脸、丹凤眼、高颧骨,它给你生一张脸。 你换成方脸、圆眼、低眉骨,它给你生出相似的脸换了个表情。 不同提示词,不同性格设定,出来的人物放在一起,像是同一个人的换装游戏。 角色控制做不到,意味着AI生图很难进入短剧、游戏设定、多角色广告这些需要角色体系的生产流程。 2. 颜色是开盲盒。 你脑子里有一个配色方案,提示词里写的很具体,但生图工具不认这个。 每次生成都是随机抽卡。 颜色控制决定的是AI生图能不能进入品牌和商业场景。 在专业设计里,颜色是规范变量。 只要颜色还在开盲盒,AI生成图就很难真正进入交付链条。 3. 薛定谔的文字。 短文本还好。 但只要图上的字数一多,就会开始模糊、变形、漏字、出现乱码。 文字渲染一直是AI生图最容易暴露玩具属性的地方。 因为论文配图、信息图表、密排版的商业海报,这些日常真实存在的需求一直没有被满足。 4. 改一处,动全部。 这是最让人崩溃的。 你有一张九成满意的图,嘴角弧度不对,或者背景有个元素位置偏了。 改完之后,那个局部确实变了,但整张图整体可能也都变了。 局部编辑之所以重要,是因为真实创作流程里,大部分修改都是局部的。 只要局部改动还会牵连全图,AI生图就永远无法进入真实生产端。 不过,今天,Wan2.7-image发布。 它把这四个门槛挨个认真过了一遍。 1.千人千面 Wan2.7-image做了可深度自定义的面部控制系统,提示词可以细化到脸型类别(鹅蛋脸/方脸/长方脸)、眼形(杏仁眼/丹凤眼/深邃眼窝)、肤色、发型和五官比例的逐项指定。 不需要全部写清楚。 提示词可以就是“四个刚入学的大一新生在寝室合影”,它会生成有差异的四张脸。 2.规范色彩 颜色控制的解法更直接:一键提取或输入参考图中的颜色和占比,模型就能按这个配比生成色彩构成。 颜色不再是开盲盒,它可以作为规范变量输入。 3.超超超长文本渲染 它用长上下文文本编码器(Long Context Text Encoder)处理文字输入,支持最高3K token,覆盖12种语言,复杂公式和表格在处理范围内,渲染精度达到印刷级。 这意味着AI生图开始能承载信息,而不只是承载氛围。 论文配图、信息图表、密排版的商业海报,这些之前只能绕开的场景,开始有了进入的可能。 4.局部修改 原生支持交互式编辑,框选区域内可以进行添加、移动、替换、对齐操作,框外图片理论上不受影响。 这意味着AI生图不再只是玩具。 它开始尝试进入更细的制作环节。 AI生图这几年最尴尬的地方,是太多关键环节一直停留在偶尔能用。 Wan2.7-image这次真正值得看的,是它开始把这些长期影响专业使用的细节,当成正经问题来解决。 这件事的意义可能比某一次跑分领先更大。 因为AI生图真正的分水岭,一直都是那些最容易让人返工的细节,能不能终于开始变得可控。
MemeInformation 🔔|AI First tweet mediaMemeInformation 🔔|AI First tweet mediaMemeInformation 🔔|AI First tweet media
中文
0
0
1
688
MemeInformation 🔔|AI First
MemeInformation 🔔|AI First@MemeInformation·
我个人平时其实不太依赖AI产品来搜集信息。 原因很简单,大模型的幻觉问题一直都在。 另外,很多时候,它给出的内容看起来完整、流畅,甚至还附着引用和出处,但只要真的顺着查下去,就会发现有些引用本身质量不高。 这会影响我获取信息的效率。 这也是为什么,哪怕AI已经成了很多人的默认工具,我在搜集信息的时候,依然会多留一个心眼。 其实AI出现之后,连不少大媒体都曾被AI内容误导过。 也正因为这样,我最近看到千问在产品里测试引证feature时,还是比较惊喜的,因为终于有一个主流AI产品,开始正面碰这个行业一直绕着走的问题了。 今天发现,打开千问提一个涉及新闻时事的问题。 等AI洋洋洒洒答完,你会在回答末尾发现一个不起眼的按钮,叫引证。 点下去,界面里的文字开始变色。 绿色的部分,是有可靠信源交叉验证过的内容。 红色的部分,系统会打上一行小字提示:需进一步核查。 这个设计看起来不算复杂,却十分重要:这是第一个主流AI产品,开始主动寻找“回答内容来源有问题”的解法。 在此之前,绝大多数主流AI产品的默认逻辑是:给出答案,语气笃定,哪怕内容存疑。 用户如果不主动追问来源,很难知道眼前这段流畅的文字,究竟是有据可查的事实,还是模型觉得大概是这样的自信推断。 为什么行业迟迟没有正面应对AI幻觉问题呢? 自从大语言模型进入公众视野,这个问题就从未消失。 模型会虚构引用、捏造案例、把错误的年份和人名混搭在一起,还会用毋庸置疑的语气包装这一切。 学界和工业界对此的态度,长期处于一种奇怪的错位,技术论文里年年讨论,产品设计上几乎不正面承认。 原因不难理解。 主要还是因为用户体验的包袱。 AI产品最核心的价值主张就是快速、流畅、有用。 如果每一条回答后面都挂着警示标,用户的第一感受可能不是这个产品诚实,而会是这个产品不可信。 产品经理不愿意自己挖坑。 还有就是技术上的模糊地带。 大语言模型的运作机制,决定了它在生成文本时并不区分“我知道”和“我猜”。 从模型的视角看,两者在输出层面没有本质差异,都是对下一个词的概率预测。 要给输出内容打上可信度标签,需要在模型生成之后再增加一层独立的核查机制,这在工程上是额外成本,在逻辑上也容易自相矛盾。 另外,还有竞争压力。 现在正是几家头部AI产品你追我赶的阶段,没有人愿意率先给自己贴上答案可能有误的标签,眼睁睁看着用户去用更自信的竞品。 正因为如此,千问这次测试引证功能,才显得有几分反常,反常得让人意外。 要理解这个功能的价值,必须先搞清楚它在技术上做了什么,以及更重要的,它没有做什么。 我根据已有的产品表现来推断,引证的工作流大致如下:模型先生成初始回答;系统再对回答中的关键信息节点进行提取和拆解;接着针对每个信息节点,调用实时检索能力,比对网络上的权威信源,包括主流媒体报道、官方声明等;最后根据比对结果,对原始回答中的对应内容进行标注,可验证则标绿,存疑则标红。 这个逻辑的核心,本质上是检索增强验证(Retrieval-Augmented Verification),可以视作RAG技术路线的一种延伸应用。 区别在于,传统RAG是在生成回答之前检索信息以提升质量,而引证是在生成之后反向检索以核查质量。 在引证之前,行业针对AI可信度问题,主要有几种已有的解法。 一种是引用来源链接。 这是最常见的做法,在回答末尾附上参考链接,把验证责任转交给用户。 问题在于,链接的存在不等于内容的准确。 链接有时指向的页面内容与AI的表述存在出入,或者链接内容本身不可信。 另外,这种方式依赖用户主动点开并阅读来源,而现实中大多数用户不会这么做。 一种是输出置信度分数。 部分模型探索过给回答的不同部分打上置信度分数。 但这种方式对普通用户不友好,且置信度的计算来自模型内部,仍然是模型对自己有多自信,而不是独立的外部验证。 还有一种是添加通用免责声明。 在回答末尾加上以上内容仅供参考之类的措辞。 这种方式几乎是无效的。 引证的本质区别在于,它通过颜色的视觉差异,把核查结果直接嵌入用户的阅读体验之中。 用户不需要主动去验证,系统替你做了第一步初筛,并且明确告诉你哪里可信、哪里存疑。 我认为这种设计,比任何通用免责声明都更有信息密度,也更诚实。 有人会说,这不就是加了个核查标注,有那么重要吗? 我倒觉得这个feature值得认真对待,因为它改变的是一种底层预设。 过去几年,AI内容的默认状态是可信,直到被证伪。 用户拿到一段AI回答,如果没有明显的漏洞,往往会直接接受。 这种默认信任,在AI回答私人问题,帮我写封邮件、解释一个概念时影响有限。 但在涉及新闻事实、政策信息、医疗健康等领域,它的代价可能相当高昂。 引证功能试图做的事,是把这个默认值翻转过来。 这个翻转,如果成为行业惯例,对AI内容生态的影响是深远的。 用户会开始习惯区分被验证的AI内容和未被验证的AI内容,正如他们区分经过编辑审核的报道和社交媒体上的传言。 这种识读能力的建立,确实需要产品端率先给出示范。
MemeInformation 🔔|AI First tweet mediaMemeInformation 🔔|AI First tweet media
中文
1
1
1
452
CuiMao
CuiMao@CuiMao·
新发的 qwen3.6 plus 支持 1m 上下文了,教练,我有一个大胆的想法,
中文
23
0
109
70K
Pangyu 胖鱼 🐠
Pangyu 胖鱼 🐠@pangyusio·
我发现一个很普遍的规律:一个人承受的压力越大,就越容易有一些坏习惯来给自己解压。 听马督工说,张雪峰烟瘾极大,而且离不开大鱼大肉。金正恩作为整个东半球压力最大的 80 后,体重和健康状况也有目共睹。 其实我自己也一样。压力一上来,就有很强的购物欲,想买各种咖啡奶茶,想吃炸鸡薯条牛排汉堡。 压力消耗意志力,而意志力是有限资源。白天用来扛工作、扛焦虑、扛人际关系,到了晚上已经所剩无几。这时候大脑会直接选择阻力最小的快感通道。 所以坏习惯本质上是压力的利息。压力越大,利息越高,身体替你还债。 如何平衡压力和坏习惯,可能是当代大城市年轻人最需要认真面对的课题。因为这个时代给年轻人的压力只会越来越大,而廉价快感的供给也只会越来越多。
中文
76
195
1.7K
409.6K