AI我知道:AI 怎么读懂你的话?Token、上下文窗口与提示词

AI我知道:AI 怎么读懂你的话?Token、上下文窗口与提示词p 温馨提示 若页面不能正常显示数学公式和代码 请获得更好的阅读体验 p 作者 丁闪闪 连享会 邮箱 系列说明 本文是 AI 我知道 系列推文的第一篇 面向经管 金融 社会学领域的研究者和学生

大家好,我是讯享网,很高兴认识大家。这里提供最前沿的Ai技术和互联网信息。



 

温馨提示:若页面不能正常显示数学公式和代码,请获得更好的阅读体验。

作者: 丁闪闪 (连享会)
邮箱: 

系列说明:本文是「AI我知道」系列推文的第一篇,面向经管、金融、社会学领域的研究者和学生。我们的目标不是把你训练成 AI 工程师,而是帮你建立足够扎实的概念框架,让你能更聪明地使用这些工具,并在研究和工作中做出有依据的判断。

  • Title: AI我知道:AI 怎么读懂你的话?Token、上下文窗口与提示词
  • Keywords: 大语言模型, ChatGPT, Claude code, 词元, Gemini, AI基本概念

使用大模型时,大家或许都有这样的感受:同样一个问题,有时 AI 的回答像是一位专业人士;有时却像是超市的推销员。更让人困惑的是:明明只是多贴了几页材料,速度变慢了,费用变高了,答案却未必更好。

这背后并不神秘。对普通用户来说,最值得先理解的,不是模型参数有多大,而是三个更贴近日常使用的概念:Token上下文窗口 和 提示词(Prompt)。这三个概念几乎直接决定了三件事:AI 能看进去多少内容,会优先关注什么,以及你要为这次交互付出多少时间和成本。


1.1 什么是 Token?

人类读文章,通常按字、词、句、段来理解;模型处理文本时,用的却是另一套更底层的单位:Token

可以把 Token 想成一块块积木。我们看到的是一整段文字,模型看到的则是一串被切分后的符号序列。一个 Token 可能是一个完整单词,也可能只是词根、标点、空格,或者中文文本中的一个字、半个词、甚至某种中英文混排片段。也就是说,Token 并不等于“一个字”或“一个词”

这件事为什么重要?因为很多模型服务,本质上都是按 Token 计费的。你发给模型的输入会占用输入 Token,模型回复给你的内容会占用输出 Token。输入越长、输出越多,通常成本越高,等待也越久。

如果用一个很粗略但很有用的公式来表示:

Cost≈pin⋅Tin+pout⋅ToutCost≈pin​⋅Tin​+pout​⋅Tout​

其中,TinTin​ 表示输入 Token 数,ToutTout​ 表示输出 Token 数,pinpin​ 和 poutpout​ 则分别表示输入和输出的单位价格。这个公式不需要精确到小数点,它的作用只是帮助你建立一个基本直觉:同样的问题,如果材料更长、格式更乱、要求输出更详细,通常就会更贵。

1.2 各类文本大约会占多少 Token?

下面这些数字更适合拿来建立直觉,而不是当成严格换算公式:

内容类型 直观理解 约 Token 数 一条简短问句(中文) 一句普通提问 约 20–40 一页 A4 论文正文(中文) 约 1 页正文 约 900–1800 一篇期刊论文(中英文混排) 一篇常见论文全文 约 10000–18000 一本普通学术专著 一部 20 万字左右专著 约 20 万–40 万 GPT-4o 上下文窗口上限 常见通用模型 128,000 Token GPT-5.4 上下文窗口上限 新一代旗舰模型 1,050,000 Token Claude Sonnet 4.6 上下文窗口上限 长上下文能力很强 1,000,000 Token Gemini 2.5 Pro 输入上限 Google 长上下文旗舰 1,048,576 Token

注:前四行是经验估计,不同模型、不同 tokenizer、不同语言混排方式都会带来差异。对中文文本,可以把它理解为:字数与 Token 数通常接近,但经常偏高;对版式复杂、表格密集、脚注很多的文档,Token 消耗往往会明显上升。

图 1:同一段文字在模型内部会被切分成 Token 序列。对普通用户来说,更重要的不是记住精确换算规则,而是建立“文本越长、格式越复杂、Token 通常越多”的直觉。


2.1 什么是上下文窗口?

如果说 Token 是模型处理语言的最小单位,那么 上下文窗口(Context Window) 就是模型在当前一次交互中,最多能同时“摆在桌面上”的总内容量。

我更愿意把它比作一张有限大小的工作台,而不是“无限记忆宫殿”。系统提示、聊天历史、你刚输入的问题、上传的文档、模型已经写出的回答,都会一起占用这张工作台。桌面越满,新的内容就越难继续塞进去;即便塞进去了,也不等于每个细节都会被同样认真地注意到。

这也解释了几个常见现象:

  • 聊天轮次太多之后,模型会“忘记”前面说过的话;
  • 你贴进一份过长的材料时,模型可能只处理其中一部分;
  • 同一个模型在新对话里,并不会自动记得上一段对话的全部细节。

温馨提示:若页面不能正常显示数学公式和代码,请获得更好的阅读体验。

小讯
上一篇 2026-04-27 16:24
下一篇 2026-04-27 16:22

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/279543.html