pascal24
376 posts


一个反直觉的事实:包括 DeepSeek、千问在内的中国大模型,其逻辑推理能力的底座是用英文世界的高质量语料(代码、论文、技术文档)训练出来的。模型从英文语料中习得的推理模式,在输出中文时被保留了下来——低语境、重逻辑、主谓宾清晰。
这让大量中国网民第一次在日常场景中持续接触到了结构化、高信息密度的中文表达。过去这种风格只存在于翻译体媒体(比如纽约时报中文网)或少数作者的输出中。曾经我第一次看这些媒体的感受是,原来中文新闻可以这么写...
现在每天跟 DeepSeek、Kimi 对话、让它写邮件改方案,就是在被这种语言风格反复浸泡。对于过去浸泡在官话和高语境语言环境的中文使用者来说,算是一个语言环境的升级吧.
中文
pascal24 리트윗함














