type
status
date
slug
summary
tags
category
icon
password
1. Tokens(词元):AI 阅读的基本单位
想象一下你在阅读一本书,书是由一个个字词组成的。对 AI 来说,“Tokens”就是它们阅读和理解文字的基本单位。一个 Token 不一定是一个完整的单词,它可能是一个单词、半个单词、一个标点符号,甚至只是一个字母。
- Tokens 就是 AI 用来“数”文字长度的小积木。中文里,一个汉字通常算一个或多个 Token,英文里一个单词可能是一个或多个 Token。
- 不同模型甚至不同API提供商的Tokens切分方法可能都不一致,Tokens不仅仅影响计费,也影响着模型对你的prompts的理解。
2. Context Window(上下文窗口):AI 的“短期记忆”
你的大脑有记忆,可以记住对话的前后内容。AI 也有类似的东西,叫做“Context Window”。它就像 AI 的一个临时记事本,记录了你和它当前对话的内容(包括你的提问和它的回答)。但这个记事本大小有限,只能记住一定数量的 Tokens。
- Context Window 就是 AI 在一次对话中能“记住”多少内容。如果对话太长,超出了这个窗口,AI 可能会忘记一开始说了什么,就像我们聊太久会忘记开头一样。
- 如果你要询问一个不同的问题,最好重新开一个话题。
- 联网搜索的内容,工具的调用本质都是以上下文形式参与进AI运作。

3. Prompts(提示词):给 AI 下达指令
你向 AI 提出的问题、要求或说的任何话,都叫做“Prompt”。Prompt 就是你引导 AI 思考和回应的指令。写好 Prompt 非常重要,就像给导航设定清晰的目的地一样,好的 Prompt 能让 AI 更准确地理解你的意图,给出你想要的答案。
- Prompt 就是你对 AI 说的话,是你开启对话和引导方向的钥匙。
一些编写prompts的实用技巧:
- 清晰具体的要求,你要明白自己想要AI输出什么内容,或者你希望AI的答案能更偏向那个方向。
- 角色扮演,给AI一个设定的身份。
- 明确输出的格式和风格,比如你希望答案是列表、段落、表格、代码,还是特定风格(如幽默、正式、儿童化)?
- 给出示例,好的例子可以让AI更好的理解你的需求。
- 拆解复杂主题,如果你不知道怎么拆解,那为什么不问问AI呢?
4. Function Calling(函数调用):让 AI 不只是“聊”
有时候,光靠聊天不够,我们希望 AI 能做更多事,比如查询即时天气、预定餐厅、或者操作其他软件。这时候就需要“Function Calling”。它就像给 AI 配备了一些“工具”或“技能”,让 AI 在需要时可以调用外部程序或服务来获取最新信息或完成特定任务。
- Function Calling 就是给 AI 打电话求助的能力,让它可以连接外部世界,而不只依赖它脑袋里已经储存的知识。
5. Parameters(参数):调整 AI 的“个性”
开发者可以调整一些参数来改变 AI 回答问题的方式,其中最常见的是 Temperature(温度)和 Top-p。
- Temperature(温度): 这个参数控制 AI 回答的“创意度”或“随机性”。温度值越高,AI 的回答可能越有创意、越发散,但也可能越不着边际;温度值越低,回答就越集中、越保守,更接近标准答案。
- Top-p: 这个参数也影响 AI 的选择。它设定了一个概率阈值,让 AI 在生成下一个词时,只从可能性最高的一小部分词汇中选择。可以理解为,它限制了 AI 的“选项范围”,让回答更聚焦。
- Temperature 像调整 AI 的“兴奋度”,决定它敢不敢“自由发挥”。Top-p 则像给 AI 的选项划定一个“热门范围”,让它别选太冷门的词。
6. Streaming Output(流式输出):像打字一样呈现答案
你可能注意到,有些 AI 回答问题时,文字是一个词一个词或一句一句蹦出来的,而不是等全部写完再一次性显示。这就是“Streaming Output”。它让用户可以更快地看到部分结果,感觉更像自然的对话。
- Streaming 就是 AI 把答案“边想边说”给你看,而不是憋个大招一次性放出来。
7. Chain of Thought (CoT,思维链):教 AI“思考过程”
有时候遇到复杂问题,直接给答案很难。CoT 是一种技巧,它引导 AI 在给出最终答案前,先一步一步地展示它的“思考过程”或“推理步骤”。这不仅能提高 AI 解决复杂问题的准确率,也让我们更容易理解它是怎么得出结论的。
- CoT 就像让 AI 在做数学题时,把计算步骤写出来给你看,而不是只给你一个最终数字。
8. API 格式(OpenAI 及其他):程序之间的“沟通语言”
API(应用程序接口)就像是不同软件之间沟通的“桥梁”或“翻译官”。开发者通过 API 将 LLM 的能力整合到自己的应用程序中。OpenAI 提供了一套非常流行的 API 格式,许多开发者都遵循这套标准来与 GPT 模型互动。当然,Google、Anthropic 等其他公司也提供自己的 API,格式会略有不同。
- 简单来说: API 格式就是一套“语法规则”,告诉开发者的程序如何正确地向 AI 模型提问并接收答案。OpenAI 的格式是其中一种常见的“方言”。

- Author:YGN
- URL:http://preview.tangly1024.com/article/1d8b23d7-4fbf-8017-9342-cb66133aa60f
- Copyright:All articles in this blog, except for special statements, adopt BY-NC-SA agreement. Please indicate the source!
Relate Posts






