ChatGPT 提示工程
在本节中,我们将介绍 ChatGPT 的最新提示工程技术,包括技巧、应用、局限性、论文和延伸阅读材料。
主题
ChatGPT 简介
ChatGPT 是一个由 OpenAI 训练的新模型 (在新标签页中打开),能够以对话的方式进行交互。该模型经过训练,能够遵循提示中的指令,在对话语境中提供适当的响应。ChatGPT 可以帮助回答问题、提供食谱建议、以特定风格创作歌词、生成代码等等。
ChatGPT 使用人类反馈强化学习 (RLHF) 进行训练。虽然该模型比以前的 GPT 版本功能更强大(并且也经过训练以减少有害和不真实的输出),但它仍然存在局限性。让我们通过具体的示例来介绍一些功能和局限性。
您可以在此处使用 ChatGPT 的研究预览版,但对于下面的示例,我们将使用 OpenAI Playground 中的 Chat
模式。
回顾对话任务
在之前的一份指南中,我们稍微介绍了对话功能和角色提示。我们讨论了如何指导 LLM 以特定风格、特定意图、行为和身份进行对话。
让我们回顾一下我们之前的基本示例,在该示例中,我们创建了一个能够对问题生成更具技术性和科学性回复的对话系统。
提示
The following is a conversation with an AI research assistant. The assistant tone is technical and scientific.
Human: Hello, who are you?
AI: Greeting! I am an AI research assistant. How can I help you today?
Human: Can you tell me about the creation of black holes?
AI:
从上面的示例中,您可以看到两个重要的组成部分
- 意图或对聊天机器人的解释
- 身份,指示聊天机器人将使用的回复风格或语气
上面简单的示例适用于使用 text-davinci-003
的文本补全 API。最近,OpenAI 宣布了 ChatGPT API (在新标签页中打开),这是一种更强大、更便宜的模型,称为 gpt-3.5-turbo
,专门为这种类型的聊天补全功能构建。实际上,OpenAI 推荐它作为即使是非聊天用例的最佳模型。使用 ChatGPT API 的其他优势包括显着的成本降低(90%)和效率提高。
Snap Inc. 和 Instacart 等大公司已经在他们的产品中集成了由 ChatGPT 驱动的对话功能,这些功能涵盖了从个性化推荐到开放式购物目标等多种应用。
与 ChatGPT 对话
多轮对话
为了开始演示 ChatGPT 的功能,我们将使用上面提到的聊天机器人助手示例并讨论结果。与 text-davinci-003
相比,为 ChatGPT 提供支持的 gpt-3.5-turbo
模型使用聊天格式作为输入。该模型期望一系列消息作为输入,并使用这些消息生成响应。
输入
SYSTEM: You are an AI research assistant. You use a tone that is technical and scientific.
USER: Hello, who are you?
ASSISTANT: Greeting! I am an AI research assistant. How can I help you today?
USER: Can you tell me about the creation of black holes?
输出
ASSISTANT: Of course! Black holes are created when a massive star runs out of fuel and collapses under its own gravity. This collapse causes the star to become incredibly dense, with a gravitational field so strong that not even light can escape it. This point of no return is known as the event horizon. Once a star crosses the event horizon, it is considered a black hole...
请注意,在上面的示例中,我简化了输入和输出,但 ChatGPT 聊天补全 API 要求消息采用特定格式。我在下面添加了一张快照,展示了在 OpenAI Playground 中使用 Chat Mode
时此示例的外观

我们示例中更正式的 API 调用类似于下面的示例
import openai
openai.ChatCompletion.create(
model="gpt-3.5-turbo",
messages=[
{"role": "system", "content": "You are an AI research assistant. You use a tone that is technical and scientific."},
{"role": "user", "content": "Hello, who are you?"},
{"role": "assistant", "content": "Greeting! I am an AI research assistant. How can I help you today?"},
{"role": "user", "content": "Can you tell me about the creation of black holes?"}
]
)
实际上,开发者未来与 ChatGPT 交互的方式预计将通过聊天标记语言 (在新标签页中打开)(简称 ChatML)进行。
单轮任务
聊天格式支持多轮对话,但也支持类似于我们与 text-davinci-003
一起使用的单轮任务。这意味着我们可以使用 ChatGPT 执行与我们为原始 GPT 模型演示的类似任务。例如,让我们尝试使用 ChatGPT 执行以下问答任务
输入
USER: Answer the question based on the context below. Keep the answer short and concise. Respond "Unsure about answer" if not sure about the answer.
Context: Teplizumab traces its roots to a New Jersey drug company called Ortho Pharmaceutical. There, scientists generated an early version of the antibody, dubbed OKT3. Originally sourced from mice, the molecule was able to bind to the surface of T cells and limit their cell-killing potential. In 1986, it was approved to help prevent organ rejection after kidney transplants, making it the first therapeutic antibody allowed for human use.
Question: What was OKT3 originally sourced from?
Answer:
输出
ASSISTANT: Mice.
请记住,我添加了 USER
和 ASSISTANT
标签,以便更好地演示如何使用 ChatGPT 执行该任务。以下是使用 Playground 的示例

更正式地说,这是 API 调用(我只包含请求的消息部分)
CONTENT = """Answer the question based on the context below. Keep the answer short and concise. Respond \"Unsure about answer\" if not sure about the answer.
Context: Teplizumab traces its roots to a New Jersey drug company called Ortho Pharmaceutical. There, scientists generated an early version of the antibody, dubbed OKT3. Originally sourced from mice, the molecule was able to bind to the surface of T cells and limit their cell-killing potential. In 1986, it was approved to help prevent organ rejection after kidney transplants, making it the first therapeutic antibody allowed for human use.
Question: What was OKT3 originally sourced from?
Answer:
"""
response = openai.ChatCompletion.create(
model="gpt-3.5-turbo",
messages=[
{"role": "user", "content": CONTENT},
],
temperature=0,
)
指导聊天模型
根据 OpenAI 官方文档,gpt-3.5-turbo
模型的快照也将提供。例如,我们可以访问 3 月 1 日的快照 gpt-3.5-turbo-0301
。这使得开发者可以选择特定的模型版本。这也意味着指导模型的最佳实践可能会因版本而异。
当前对于 gpt-3.5-turbo-0301
的建议是将指令添加到 user
消息中,而不是使用可用的 system
消息。
Notebooks
这是一个 Notebook,可以帮助您了解如何使用官方的 openai
库调用 ChatGPT API
参考资料
- 使用 ChatGPT 进行列类型标注 (在新标签页中打开) (2023 年 6 月)
- 使用 ChatGPT 生成的反事实思维启发的问题增强编程电子教材 (在新标签页中打开) (2023 年 6 月)
- ChatGPT 是 ENFJ,Bard 是 ISTJ:大型语言模型人格的实证研究 (在新标签页中打开) (2023 年 5 月)
- ChatGPT 在基准数据集上的系统研究和全面评估 (在新标签页中打开) (2023 年 5 月)
- 聊天机器人在数学和逻辑问题上的测试:ChatGPT-3.5、ChatGPT-4 和 Google Bard 的初步比较和评估 (在新标签页中打开) (2023 年 5 月)
- GPT 模型在建筑行业中的应用:机遇、局限性和用例验证 (在新标签页中打开) (2023 年 5 月)
- ChatGPT 的公平性 (在新标签页中打开) (2023 年 5 月)
- 主流媒体中的 ChatGPT 映射:通过情感分析和词频分析获得的早期定量见解 (在新标签页中打开) (2023 年 5 月)
- 关于 ChatGPT 的调查:AI 生成内容、挑战和解决方案 (在新标签页中打开) (2023 年 5 月)
- 语言模型知道它们何时产生幻觉引用吗? (在新标签页中打开) (2023 年 5 月)
- HowkGPT:通过上下文感知困惑度分析调查检测 ChatGPT 生成的大学生作业
- 使用大型语言模型玩重复博弈 (在新标签页中打开) (2023 年 5 月)
- 零样本尚未成为英雄:衡量 LLM 在金融任务中的零样本性能 (在新标签页中打开) (2023 年 5 月)
- 利用 LLM 从混合长文档中检索 KPI:综合框架和数据集 (在新标签页中打开) (2023 年 5 月)
- 标记的人物:使用自然语言提示测量语言模型中的刻板印象 (在新标签页中打开) (2023 年 5 月)
- 越大越容易失败:语言模型无法识别 Python 中的标识符交换 (在新标签页中打开) (2023 年 5 月)
- InternGPT:通过与超越语言的 ChatGPT 交互解决以视觉为中心的任务 (在新标签页中打开) (2023 年 5 月)
- Narrative XL:用于长期记忆模型的大规模数据集 (在新标签页中打开) (2023 年 5 月)
- ChatGPT 具有心智理论吗? (在新标签页中打开) (2023 年 5 月)
- LLM 已经可以作为数据库接口了吗?用于大规模数据库支持的 Text-to-SQL 的大型基准测试 (在新标签页中打开) (2023 年 5 月)
- ZeroSCROLLS:用于长文本理解的零样本基准 (在新标签页中打开) (2023 年 5 月)
- 零样本分类中的提示复杂性探索:大型语言模型在计算社会科学中的研究 (在新标签页中打开) (2023 年 5 月)
- ChatGPT-EDSS:从 ChatGPT 派生的上下文词嵌入训练的共情对话语音合成 (在新标签页中打开) (2023 年 5 月)
- LLM 可以促进预训练语言模型的解释吗? (在新标签页中打开) (2023 年 5 月)
- ChatGPT 能检测意图吗?评估大型语言模型在口语理解方面的能力 (在新标签页中打开) (2023 年 5 月)
- LLM 赋能的聊天机器人用于精神科医生和患者模拟:应用与评估 (在新标签页中打开) (2023 年 5 月)
- ChatGPT 作为您的个人数据科学家 (在新标签页中打开) (2023 年 5 月)
- 大型语言模型是抽象摘要的优秀评估者吗? (在新标签页中打开) (2023 年 5 月)
- ChatGPT 能否捍卫真相?自动辩证评估揭示了 LLM 在推理方面的不足 (在新标签页中打开) (2023 年 5 月)
- 评估 ChatGPT 在多语言和基于表情符号的仇恨言论检测方面的表现 (在新标签页中打开) (2023 年 5 月)
- ChatGPT 取代众包意图分类释义:更高的多样性和可比的模型鲁棒性 (在新标签页中打开) (2023 年 5 月)
- 蒸馏 ChatGPT 用于可解释的自动学生答案评估 (在新标签页中打开) (2023 年 5 月)
- 在 MNER 中提示 ChatGPT:基于辅助精炼来自 ChatGPT 的知识的改进多模态命名实体识别方法 (在新标签页中打开) (2023 年 5 月)
- ChatGPT 更容易被认为是男性而非女性 (在新标签页中打开) (2023 年 5 月)
- 关于电信领域 LLM 的观察:能力与局限性 (在新标签页中打开) (2023 年 5 月)
- 零星之草:GPT 已经知道如何写像惠特曼了吗? (在新标签页中打开) (2023 年 5 月)
- 大型语言模型适合引导阅读吗? (在新标签页中打开) (2023 年 5 月)
- ChatGPT 在机器翻译中延续了性别偏见,并忽略了非性别代词:孟加拉语和其他五种低资源语言的研究发现 (在新标签页中打开) (2023 年 5 月)
- BAD:在候选人筛选情境下大型语言模型的偏见检测 (在新标签页中打开) (2023 年 5 月)
- MemoryBank:用长期记忆增强大型语言模型 (在新标签页中打开) (2023 年 5 月)
- 知识图谱补全模型是少样本学习者:使用 LLM 在电子商务中进行关系标注的实证研究 (在新标签页中打开) (2023 年 5 月)
- 关于 GPT-3.5 和 Bard AI 模型生成 Java 函数代码能力的初步分析 (在新标签页中打开) (2023 年 5 月)
- ChatGPT-4 在零样本学习中标注政治 Twitter 消息方面优于专家和众包工人 (在新标签页中打开) (2023 年 4 月)
- ChatGPT 超越英语:面向大型语言模型在多语言学习中的全面评估 (在新标签页中打开) (2023 年 4 月)
- 通过日语文体分析区分 ChatGPT(-3.5, -4) 生成的论文和人类撰写的论文 (在新标签页中打开) (2023 年 4 月)
- 使用 ChatGPT 进行零样本时间关系提取 (在新标签页中打开) (2023 年 4 月)
- ChatGPT 和 Bard 能生成对齐的评估项目吗?对人类表现的可靠性分析 (在新标签页中打开) (2023 年 4 月)
- 大型语言模型已准备好用于医疗保健了吗?临床语言理解的比较研究 (在新标签页中打开) (2023 年 4 月)
- 华尔街新手:ChatGPT 在多模态股票走势预测挑战上的零样本分析 (在新标签页中打开) (2023 年 4 月)
- ChatGPT 中的毒性:分析分配人格的语言模型 (在新标签页中打开) (2023 年 4 月)
- 对 ChatGPT 的多步越狱隐私攻击 (在新标签页中打开) (2023 年 4 月)
- ChatGPT 是一个好的情感分析器吗?一项初步研究 (在新标签页中打开) (2023 年 4 月)
- ChatGPT 在零样本对话理解方面的初步评估 (在新标签页中打开) (2023 年 4 月)
- 通过 ChatGPT 进行抽取式摘要以生成忠实摘要 (在新标签页中打开) (2023 年 4 月)
- ChatGPT 回答人类价值观是什么?使用描述性价值观理论探索 ChatGPT 的价值观偏见 (在新标签页中打开) (2023 年 4 月)
- 关于 ChatGPT 评估和情感增强提示在心理健康分析中的应用 (在新标签页中打开) (2023 年 4 月)
- ChatGPT-Crawler:找出 ChatGPT 是否真的知道它在说什么 (在新标签页中打开) (2023 年 4 月)
- ChatGPT 应该有偏见吗?大型语言模型中偏见的挑战和风险 (在新标签页中打开) (2023 年 4 月)
- 从自然语言规范合成数学程序 (在新标签页中打开) (2023 年 4 月)
- 大型语言模型有效地利用文档级上下文进行文学翻译,但关键错误依然存在 (在新标签页中打开) (2023 年 4 月)
- 调查 ChatGPT 思维链在社交媒体立场检测中的应用 (在新标签页中打开) (2023 年 4 月)
- ChatGPT 形塑牙科未来:多模态大型语言模型的潜力 (在新标签页中打开) (2023 年 4 月)
- 大型语言模型能玩好文本游戏吗?现状与开放问题 (在新标签页中打开) (2023 年 4 月)
- 使用 ChatGPT 进行类人摘要评估 (在新标签页中打开) (2023 年 4 月)
- 评估 ChatGPT 系列模型在生物医学推理和分类方面的性能 (在新标签页中打开) (2023 年 4 月)
- CHATGPT 与语言模型演变的比较分析 (在新标签页中打开) (2023 年 4 月)
- 释放 ChatGPT 在翻译中的潜力:一项实证研究 (在新标签页中打开) (2023 年 4 月)
- 土力工程鹦鹉故事(GPT):利用提示工程克服 GPT 幻觉以应用于土力工程 (在新标签页中打开) (2023 年 4 月)
- 释放 ChatGPT 的潜力:对其在自然语言处理中的应用、优势、局限性和未来方向的全面探索 (在新标签页中打开) (2023 年 4 月)
- ChatGPT/GPT-4 研究总结及大型语言模型未来展望 (在新标签页中打开) (2023 年 4 月)
- ChatGPT 是一个高度流畅的语法错误纠正系统吗?一项全面评估 (在新标签页中打开) (2023 年 4 月)
- 大型语言模型时代的安全性分析:使用 ChatGPT 进行 STPA 的案例研究 (在新标签页中打开) (2023 年 4 月)
- 大型语言模型可以评估新闻媒体的信誉度 (在新标签页中打开) (2023 年 4 月)
- AI 聊天机器人能否通过工程基础 (FE) 和工程原理与实践 (PE) 结构考试? (在新标签页中打开) (2023 年 4 月)
- AI 会让伽马射线天体物理学家失业吗? (在新标签页中打开) (2023 年 3 月)
- 通过盲审和文本分类算法比较 ChatGPT 生成的抽象摘要与真实摘要 (在新标签页中打开) (2023 年 3 月)
- HuggingGPT:使用 ChatGPT 及其在 HuggingFace 中的朋友解决 AI 任务 (在新标签页中打开) (2023 年 3 月)
- SelfCheckGPT:用于生成大型语言模型的零资源黑盒幻觉检测 (在新标签页中打开) (2023 年 3 月)
- WavCaps:一个由 ChatGPT 辅助的弱标注音频字幕数据集,用于音频-语言多模态研究 (在新标签页中打开) (2023 年 3 月)
- 大型语言模型在算术任务中的表现如何? (在新标签页中打开) (2023 年 3 月)
- 评估 ChatGPT 与人类社会的跨文化对齐:一项实证研究 (在新标签页中打开) (2023 年 3 月)
- 是的,但是.. ChatGPT 能识别历史文献中的实体吗? (在新标签页中打开) (2023 年 3 月)
- 评估 ChatGPT 在基于 NLP 的心理健康应用中的性能 (在新标签页中打开) (2023 年 3 月)
- 大象的透视镜:调查 Google、ChatGPT、Wikipedia 和 YouTube 上的语言偏见 (在新标签页中打开) (2023 年 3 月)
- ChatGPT 还是学术科学家?使用现成的机器学习工具以超过 99% 的准确率区分作者身份 (在新标签页中打开) (2023 年 3 月)
- 使用 ChatGPT 进行零样本临床实体识别 (在新标签页中打开) (2023 年 3 月)
- ChatGPT 是一个知识渊博但经验不足的解决者:大型语言模型中常识问题的调查 (在新标签页中打开) (2023 年 3 月)
- ChatGPT4PCG 竞赛:科学小鸟的角色级关卡生成 (在新标签页中打开) (2023 年 3 月)
- ChatGPT 作为抽象文本摘要事实不一致评估器 (在新标签页中打开) (2023 年 3 月)
- Chat-REC:面向交互式可解释的 LLM 增强推荐系统 (在新标签页中打开) (2023 年 3 月)
- 对 ChatGPT 零样本 Text-to-SQL 能力的全面评估 (在新标签页中打开) (2023 年 3 月)
- 最大限度地利用 ChatGPT 进行机器翻译 (在新标签页中打开) (2023 年 3 月)
- 错误分析提示使得大型语言模型能够进行类人翻译评估:以 ChatGPT 为例 (在新标签页中打开) (2023 年 3 月)
- ChatGPT 在文本标注任务上优于众包工人 (在新标签页中打开) (2023 年 3 月)
- ChatGPT 还是 Grammarly?评估 ChatGPT 在语法错误纠正基准上的表现 (在新标签页中打开) (2023 年 3 月)
- ChatGPT 和新的学术现实:AI 撰写的研究论文和大型语言模型在学术出版中的伦理问题 (在新标签页中打开) (2023 年 3 月)
- LLM 是万事通吗?:探索 LLM 的领域无关推理能力 (在新标签页中打开) (2023 年 3 月)
- ChatGPT 是一个好的关键词生成器吗?一项初步研究 (在新标签页中打开) (2023 年 3 月)
- MM-REACT:提示 ChatGPT 进行多模态推理和行动 (在新标签页中打开) (2023 年 3 月)
- 大型语言模型可用于在零样本学习环境中估计政客的意识形态 (在新标签页中打开) (2023 年 3 月)
- 中国中级英语学习者在深层连贯性上超越了 ChatGPT:来自英语叙事写作的证据 (在新标签页中打开) (2023 年 3 月)
- GPT-3 和 GPT-3.5 系列模型的全面能力分析 (在新标签页中打开) (2023 年 3 月)
- ChatGPT 作为科学写作中交通公平信息来源 (在新标签页中打开) (2023 年 3 月)
- 使用 ChatGPT 和 GPT-4 进行提示学习将放射学报告翻译成通俗语言:有希望的结果、局限性和潜力 (在新标签页中打开) (2023 年 3 月)
- ChatGPT 参与计算机科学考试 (在新标签页中打开) (2023 年 3 月)
- ChatGPT 一致性分析 (在新标签页中打开) (2023 年 3 月)
- 研究外壳中的算法幽灵:大型语言模型和管理研究中的学术知识创造 (在新标签页中打开) (2023 年 3 月)
- 职场中的大型语言模型:一项关于职位类型分类提示工程的案例研究 (在新标签页中打开) (2023 年 3 月)
- 通过学生的视角看 ChatGPT:一项 TikTok 数据分析 (在新标签页中打开) (2023 年 3 月)
- 使用对话式语言模型和提示工程从研究论文中提取精确的材料数据——以 ChatGPT 为例 (在新标签页中打开) (2023 年 3 月)
- ChatGPT 即将来临:大型语言模型能否满足智能交通的所有需求? (在新标签页中打开) (2023 年 3 月)
- 构建计算律师 (在新标签页中打开) (2023 年 3 月)
- LLM 的合成数据生成有助于临床文本挖掘吗? (在新标签页中打开) (2023 年 3 月)
- MenuCraft:使用大型语言模型进行交互式菜单系统设计 (在新标签页中打开) (2023 年 3 月)
- AI 生成内容 (AIGC) 全面调查:从 GAN 到 ChatGPT 的生成式 AI 历史 (在新标签页中打开) (2023 年 3 月)
- 探索 ChatGPT 进行事件提取的可行性 (在新标签页中打开)
- ChatGPT:人工标注时代的终结开端?自动体裁识别用例 (在新标签页中打开) (2023 年 3 月)
- ChatGPT 是一个好的 NLG 评估器吗?一项初步研究 (在新标签页中打开) (2023 年 3 月)
- 情感计算会从基础模型和通用 AI 中涌现吗?对 ChatGPT 的首次评估 (在新标签页中打开) (2023 年 3 月)
- SemEval-2023 Task 9 中的 UZH_CLyp:用于推文亲密度预测的跨语言学习的头先微调和 ChatGPT 数据生成 (在新标签页中打开) (2023 年 3 月)
- 如何格式化 ChatGPT 模型的输入 (在新标签页中打开) (2023 年 3 月)
- ChatGPT 能评估人类个性吗?一个通用评估框架 (在新标签页中打开) (2023 年 3 月)
- 通过 ChatGPT 进行跨语言摘要 (在新标签页中打开) (2023 年 2 月)
- ChatAug:利用 ChatGPT 进行文本数据增强 (在新标签页中打开) (2023 年 2 月)
- ChatGPT 医生,告诉我我想听的内容:提示知识如何影响健康答案的正确性 (在新标签页中打开) (2023 年 2 月)
- ChatGPT 在数学文字问题 (MWP) 上的独立评估 (在新标签页中打开) (2023 年 2 月)
- ChatGPT:2.5 个月后的元分析 (在新标签页中打开) (2023 年 2 月)
- 我们来聊聊!与 ChatGPT 的对话:技术、应用和局限性 (在新标签页中打开) (2023 年 2 月)
- 检查事实并重试:利用外部知识和自动化反馈改进大型语言模型 (在新标签页中打开) (2023 年 2 月)
- ChatGPT 的鲁棒性:对抗性与分布外视角 (在新标签页中打开) (2023 年 2 月)
- ChatGPT 等生成式 AI 模型如何在 SPC 实践、教育和研究中被(误)用?一项探索性研究 (在新标签页中打开) (2023 年 2 月)
- ChatGPT 也能理解吗?ChatGPT 和微调 BERT 的比较研究 (在新标签页中打开) (2023 年 2 月)
- 一个提示模式目录以增强 ChatGPT 的提示工程 (在新标签页中打开) (2023 年 2 月)
- 通过与 ChatGPT 聊天进行零样本信息提取 (在新标签页中打开) (2023 年 2 月)
- ChatGPT:万事通,但无一精通 (在新标签页中打开) (2023 年 2 月)
- ChatGPT 和 DALL-E 2 在决策和空间推理方面的初步评估 (在新标签页中打开) (2023 年 2 月)
- 网民、学者和信息专业人士对 AI 的看法,特别关注 ChatGPT (在新标签页中打开) (2023 年 2 月)
- ChatGPT 中的语言歧义分析 (在新标签页中打开) (2023 年 2 月)
- ChatGPT 与知识图谱传统问答:现状和面向知识图谱聊天机器人的未来方向 (在新标签页中打开) (2023 年 2 月)
- ChatGPT 和生成式 AI 对科学意味着什么 (在新标签页中打开) (2023 年 2 月)
- 应用 BERT 和 ChatGPT 对科学文献中的莱姆病进行情感分析 (在新标签页中打开) (2023 年 2 月)
- 探索 ChatGPT 的 AI 伦理:诊断分析 (在新标签页中打开) (2023 年 1 月)
- ChatGPT 向善?大型语言模型在教育中的机遇与挑战 (在新标签页中打开) (2023 年 1 月)
- 对话式 AI 的政治意识形态:关于 ChatGPT 环保、左派自由主义倾向的综合证据 (在新标签页中打开) (2023 年 1 月)
- 提高可靠性的技术 - OpenAI Cookbook (在新标签页中打开)
- 优秀的 ChatGPT 提示 (在新标签页中打开)
- 引入 ChatGPT (在新标签页中打开) (2022 年 11 月)