论文
以下是关于大型语言模型 (LLM) 提示工程的最新论文(按发布日期排序)。我们会每日/每周更新论文列表。
综述
- 提示报告:提示技术系统综述 (在新标签页中打开) (2024 年 6 月)
- 提示设计与工程:引论与高级方法 (在新标签页中打开) (2024 年 1 月)
- 大型语言模型幻觉综述:原理、分类、挑战与开放问题 (在新标签页中打开) (2023 年 11 月)
- 从强化学习视角看 RLHF、提示及其他 (在新标签页中打开) (2023 年 10 月)
- 少样本微调与上下文学习:公平比较与评估 (在新标签页中打开) (2023 年 5 月)
- 通过提示工程越狱 ChatGPT:一项实证研究 (在新标签页中打开) (2023 年 5 月)
- 实践中利用 LLM 的力量:ChatGPT 及其他综述 (在新标签页中打开) (2023 年 4 月)
- 基础模型的工具学习 (在新标签页中打开) (2023 年 4 月)
- 生成式 AI 的一小步,AGI 的一大步:AIGC 时代 ChatGPT 完整综述 (在新标签页中打开) (2023 年 4 月)
- 2017 至 2023 年大型语言模型研究文献计量综述 (在新标签页中打开) (2023 年 4 月)
- 大型语言模型综述 (在新标签页中打开) (2023 年 4 月)
- 自然语言推理综述 (在新标签页中打开) (2023 年 3 月)
- 增强语言模型综述 (在新标签页中打开) (2023 年 2 月)
- 上下文学习综述 (在新标签页中打开) (2022 年 12 月)
- 大型语言模型推理综述 (在新标签页中打开) (2022 年 12 月)
- 基于语言模型提示的推理综述 (在新标签页中打开) (2022 年 12 月)
- 大型语言模型的涌现能力 (在新标签页中打开) (2022 年 6 月)
- 文本到图像生成提示修饰符分类 (在新标签页中打开) (2022 年 4 月)
- 预训练、提示与预测:自然语言处理中提示方法的系统综述 (在新标签页中打开) (2021 年 7 月)
方法
- 通过逻辑增强大型语言模型的零样本思维链推理 (在新标签页中打开) (2024 年 2 月)
- 提问 LLaMA-1/2, GPT-3.5/4 所需的原则性指令 (在新标签页中打开) (2023 年 12 月)
- 走出记忆迷宫:通过交互式阅读超越上下文限制 (在新标签页中打开) (2023 年 10 月)
- 大型语言模型作为类比推理者 (在新标签页中打开) (2023 年 10 月)
- LLMLingua:压缩提示以加速大型语言模型的推理 (在新标签页中打开) (2023 年 10 月)
- 基于离线逆向强化学习的查询相关提示评估与优化 (在新标签页中打开) (2023 年 9 月)
- 验证链减少大型语言模型中的幻觉 (在新标签页中打开) (2023 年 9 月)
- 连接大型语言模型与进化算法以获得强大的提示优化器 (在新标签页中打开) (2023 年 9 月)
- 从稀疏到密集:使用密度链提示的 GPT-4 摘要 (在新标签页中打开) (2023 年 9 月)
- 重读改善语言模型中的推理 (在新标签页中打开) (2023 年 9 月)
- 思绪图:使用大型语言模型解决复杂问题 (在新标签页中打开) (2023 年 8 月)
- 思绪骨架:大型语言模型可以进行并行解码 (在新标签页中打开) (2023 年 7 月)
- 聚焦前缀微调实现可控文本生成 (在新标签页中打开) (2023 年 6 月)
- 探索预训练语言模型的彩票提示 (在新标签页中打开) (2023 年 5 月)
- 不太可能的头脑风暴:使用语言模型生成替代假设 (在新标签页中打开) (2023 年 5 月)
- 让我们一步步验证 (在新标签页中打开) (2023 年 5 月)
- 提示微调的普适性与局限性 (在新标签页中打开) (2023 年 5 月)
- MultiTool-CoT:GPT-3 可以通过思维链提示使用多种外部工具 (在新标签页中打开) (2023 年 5 月)
- PEARL:提示大型语言模型以规划和执行长文档上的操作 (在新标签页中打开) (2023 年 5 月)
- 使用语言模型进行推理即使用世界模型进行规划 (在新标签页中打开) (2023 年 5 月)
- 使用大型语言模型进行自我批评提示以实现归纳指令 (在新标签页中打开) (2023 年 5 月)
- 通过自适应提示实现更好的零样本推理 (在新标签页中打开) (2023 年 5 月)
- 分层提示协助大型语言模型进行网页导航 (在新标签页中打开) (2023 年 5 月)
- 交互式自然语言处理 (在新标签页中打开) (2023 年 5 月)
- 我们能否通过上下文学习编辑事实知识? (在新标签页中打开) (2023 年 5 月)
- 将大型语言模型的上下文学习解释为核回归 (在新标签页中打开) (2023 年 5 月)
- 规划求解提示:通过大型语言模型改进零样本思维链推理 (在新标签页中打开) (2023 年 5 月)
- 大型语言模型中的元上下文学习 (在新标签页中打开) (2023 年 5 月)
- 让我们一步步采样:LLM 高效推理的自适应一致性 (在新标签页中打开) (2023 年 5 月)
- 语言模型的后验解释可以改进语言模型 (在新标签页中打开) (2023 年 5 月)
- 压缩后提示:利用可转移提示改进 LLM 推理的准确性-效率权衡 (在新标签页中打开) (2023 年 5 月)
- TreePrompt:学习构建树状提示以实现可解释的视觉定位 (在新标签页中打开) (2023 年 5 月)
- TELeR:用于基准测试复杂任务的 LLM 提示通用分类 (在新标签页中打开) (2023 年 5 月)
- 通过动态上下文学习实现高效提示 (在新标签页中打开) (2023 年 5 月)
- 网络可以成为改进大型语言模型的利器 (在新标签页中打开) (2023 年 5 月)
- 平坦度感知提示选择提高准确性和样本效率 (在新标签页中打开) (2023 年 5 月)
- 思绪之树:使用大型语言模型进行深思熟虑的问题解决 (在新标签页中打开) (2023 年 5 月)
- ZeroPrompt:流式声学编码器是零样本掩码语言模型 (在新标签页中打开) (2023 年 5 月)
- 符号链提示激发大型语言模型的规划能力 (在新标签页中打开) (2023 年 5 月)
- CooK:通过模块化和协作知识赋能通用语言模型 (在新标签页中打开) (2023 年 5 月)
- 上下文学习在上下文中“学习”什么:解耦任务识别与任务学习 (在新标签页中打开) (2023 年 5 月)
- 再提示:通过 Gibbs 采样自动推断思维链提示 (在新标签页中打开) (2023 年 5 月)
- 使用声明式提示的可满足性辅助语言模型 (在新标签页中打开) (2023 年 5 月)
- 预训练以进行上下文学习 (在新标签页中打开) (2023 年 5 月)
- 大型语言模型的增强提示集成 (在新标签页中打开) (2023 年 4 月)
- 全局提示单元:用于有效提示的便携式控制模块 (在新标签页中打开) (2023 年 4 月)
- 为什么要一步一步思考?推理源于经验的局部性 (在新标签页中打开) (2023 年 4 月)
- 重新审视自动化提示:我们真的做得更好了吗? (在新标签页中打开) (2023 年 4 月)
- REFINER:中间表示上的推理反馈 (在新标签页中打开) (2023 年 4 月)
- Reflexion:具有动态记忆和自我反思的自主代理 (在新标签页中打开) (2023 年 3 月)
- CAMEL:用于大规模语言模型社会“思维”探索的交流代理 (在新标签页中打开) (2023 年 3 月)
- 自我完善:通过自我反馈进行迭代完善 (在新标签页中打开) (2023 年 3 月)
- kNN 提示:使用免校准最近邻推理进行超上下文学习 (在新标签页中打开) (2023 年 3 月)
- 基于知识引导上下文优化的视觉-语言提示微调 (在新标签页中打开) (2023 年 3 月)
- 公平性引导的大型语言模型少样本提示 (在新标签页中打开) (2023 年 3 月)
- 大型语言模型的上下文忠实提示 (在新标签页中打开) (2023 年 3 月)
- 提示就是你所需要的一切吗?不是。指令学习的全面而广阔视角 (在新标签页中打开) (2023 年 3 月)
- UPRISE:用于改进零样本评估的通用提示检索 (在新标签页中打开) (2023 年 3 月)
- 通过提示进行模型微调使 NLP 模型具有对抗性鲁棒性 (在新标签页中打开) (2023 年 3 月)
- 知识图谱迁移的结构预训练和提示微调 (在新标签页中打开) (2023 年 3 月)
- CoTEVer:用于解释验证的思维链提示注释工具包 (在新标签页中打开) (2023 年 3 月)
- 更大的语言模型进行上下文学习的方式不同 (在新标签页中打开) (2023 年 3 月)
- OpenICL:一个用于上下文学习的开源框架 (在新标签页中打开) (2023 年 3 月)
- 动态提示:一个用于提示微调的统一框架 (在新标签页中打开) (2023 年 3 月)
- ART:大型语言模型的自动多步推理和工具使用 (在新标签页中打开) (2023 年 3 月)
- 多任务提示微调实现参数高效迁移学习 (在新标签页中打开) (2023 年 3 月)
- 有限数据下前缀微调的数据增强有效性 (在新标签页中打开) (2023 年 3 月)
- 可控数据生成的软提示混合 (在新标签页中打开) (2023 年 3 月)
- 提示、生成、然后缓存:基础模型级联构建强大的少样本学习器 (在新标签页中打开) (2023 年 3 月)
- GPT-3.5 对前代模型的鲁棒性如何?一项关于语言理解任务的综合研究 (在新标签页中打开) (2023 年 3 月)
- ChatGPT 也能理解吗?ChatGPT 与微调 BERT 的比较研究 (在新标签页中打开) (2023 年 2 月)
- EvoPrompting:用于代码级神经架构搜索的语言模型 (在新标签页中打开) (2023 年 2 月)
- 上下文指令学习 (在新标签页中打开) (2023 年 2 月)
- 后见链对齐语言模型与反馈 (在新标签页中打开) (2023 年 2 月)
- 语言不是你所需要的一切:感知与语言模型的对齐 (在新标签页中打开) (2023 年 2 月)
- 带标注数据的思维链自动提示增强与选择 (在新标签页中打开) (2023 年 2 月)
- 大型语言模型的主动提示与思维链 (在新标签页中打开) (2023 年 2 月)
- 超出你所求:应用集成大型语言模型的新型提示注入威胁综合分析 (在新标签页中打开) (2023 年 2 月)
- 增强 ChatGPT 提示工程的提示模式目录 (在新标签页中打开) (2023 年 2 月)
- 通过定向激励提示引导大型语言模型 (在新标签页中打开) (2023 年 2 月)
- 上下文学习如何帮助提示微调? (在新标签页中打开) (2023 年 2 月)
- 语言模型半监督学习的可扩展提示生成 (在新标签页中打开) (2023 年 2 月)
- 带提示约束的开放文本生成中大型语言模型能力边界 (在新标签页中打开) (2023 年 2 月)
- 零点提示微调 (APT):通过可组合提示结合不同数据 (在新标签页中打开) (2023 年 2 月)
- GraphPrompt:统一图神经网络的预训练与下游任务 (在新标签页中打开) (2023 年 2 月)
- 大型语言模型的道德自我纠正能力 (在新标签页中打开) (2023 年 2 月)
- SwitchPrompt:在低资源领域学习特定领域门控软提示进行分类 (在新标签页中打开) (2023 年 2 月)
- 评估离散提示的鲁棒性 (在新标签页中打开) (2023 年 2 月)
- 上下文学习的组合范例 (在新标签页中打开) (2023 年 2 月)
- 硬提示变得容易:用于提示微调与发现的基于梯度的离散优化 (在新标签页中打开) (2023 年 2 月)
- 语言模型中的多模态思维链推理 (在新标签页中打开) (2023 年 2 月)
- 大型语言模型容易被不相关上下文分散注意力 (在新标签页中打开) (2023 年 2 月)
- 合成提示:为大型语言模型生成思维链演示 (在新标签页中打开) (2023 年 2 月)
- 渐进式提示:语言模型的持续学习 (在新标签页中打开) (2023 年 1 月)
- 批量提示:使用 LLM API 进行高效推理 (在新标签页中打开) (2023 年 1 月)
- 演示-搜索-预测:结合检索和语言模型进行知识密集型 NLP (在新标签页中打开) (2022 年 12 月)
- 再想一想,我们还是不要一步步思考了!零样本推理中的偏见和毒性 (在新标签页中打开) (2022 年 12 月)
- 宪法式 AI:AI 反馈下的无害性 (在新标签页中打开) (2022 年 12 月)
- 分解复杂问题的连续提示 (在新标签页中打开) (2022 年 12 月)
- 大型语言模型是具有自我验证能力的推理者 (在新标签页中打开) (2022 年 12 月)
- 使用模型撰写的评估发现语言模型的行为 (在新标签页中打开) (2022 年 12 月)
- 结构化提示:将上下文学习扩展到 1,000 个示例 (在新标签页中打开) (2022 年 12 月)
- PAL:程序辅助语言模型 (在新标签页中打开) (2022 年 11 月)
- 大型语言模型是人类水平的提示工程师 (在新标签页中打开) (2022 年 11 月)
- 忽略之前的提示:语言模型的攻击技术 (在新标签页中打开) (2022 年 11 月)
- 机器生成文本:威胁模型和检测方法的综合综述 (在新标签页中打开) (2022 年 11 月)
- 通过上下文学习教授算法推理 (在新标签页中打开) (2022 年 11 月)
- 通过自然语言推理增强预训练语言模型的自我一致性和性能 (在新标签页中打开) (2022 年 11 月)
- 问我任何事:提示语言模型的简单策略 (在新标签页中打开) (2022 年 10 月)
- 复述增强语言模型 (在新标签页中打开) (2022 年 10 月)
- ReAct:语言模型中推理与行动的协同 (在新标签页中打开) (2022 年 10 月)
- 提示 GPT-3 使其可靠 (在新标签页中打开) (2022 年 10 月)
- 分解提示:解决复杂任务的模块化方法 (在新标签页中打开) (2022 年 10 月)
- 大型语言模型中的自动思维链提示 (在新标签页中打开) (2022 年 10 月)
- 语言模型是贪婪的推理者:思维链的系统形式化分析 (在新标签页中打开) (2022 年 10 月)
- 通过手工制作的对抗性示例评估预训练语言模型的易感性 (在新标签页中打开) (2022 年 9 月)
- 通过策略梯度进行动态提示学习实现半结构化数学推理 (在新标签页中打开) (2022 年 9 月)
- Promptagator:从 8 个示例实现少样本密集检索 (在新标签页中打开) (2022 年 9 月)
- Atlas:使用检索增强语言模型的少样本学习 (在新标签页中打开) (2022 年 11 月)
- DocPrompting:通过检索文档生成代码 (在新标签页中打开) (2022 年 7 月)
- 关于使语言模型成为更好的推理者的进展 (在新标签页中打开) (2022 年 6 月)
- 大型语言模型是零样本推理者 (在新标签页中打开) (2022 年 5 月)
- 助产术提示:通过递归解释实现逻辑一致的推理 (在新标签页中打开) (2022 年 5 月)
- MRKL 系统:一种模块化、神经符号架构,结合大型语言模型、外部知识源和离散推理 (在新标签页中打开) (2022 年 5 月)
- PPT:用于少样本学习的预训练提示微调 (在新标签页中打开) (2022 年 5 月)
- 基于生成式提示推理的毒性检测 (在新标签页中打开) (2022 年 5 月)
- 学习迁移提示进行文本生成 (在新标签页中打开) (2022 年 5 月)
- 文本推理少样本提示中解释的不可靠性 (在新标签页中打开) (2022 年 5 月)
- 文本到图像生成提示修饰符分类 (在新标签页中打开) (2022 年 4 月)
- PromptChainer:通过可视化编程链式连接大型语言模型提示 (在新标签页中打开) (2022 年 3 月)
- 自我一致性改进语言模型的思维链推理 (在新标签页中打开) (2022 年 3 月)
- 通过人工反馈训练语言模型遵循指令 (在新标签页中打开)
- 重新思考演示的作用:是什么让上下文学习有效? (在新标签页中打开) (2022 年 2 月)
- 思维链提示引发大型语言模型的推理能力 (在新标签页中打开) (2022 年 1 月)
- 展示你的工作:语言模型的中间计算草稿本 (在新标签页中打开) (2021 年 11 月)
- AI 链:通过链式连接大型语言模型提示实现透明可控的人工智能交互 (在新标签页中打开) (2021 年 10 月)
- 用于常识推理的生成知识提示 (在新标签页中打开) (2021 年 10 月)
- 多任务提示训练实现零样本任务泛化 (在新标签页中打开) (2021 年 10 月)
- 将教学提示重构为 GPTk 的语言 (在新标签页中打开) (2021 年 9 月)
- 文本到图像生成模型提示工程设计指南 (在新标签页中打开) (2021 年 9 月)
- 使预训练语言模型成为更好的少样本学习者 (在新标签页中打开) (2021 年 8 月)
- 神奇的有序提示及其查找方法:克服少样本提示顺序敏感性 (在新标签页中打开) (2021 年 4 月)
- BERTese:学习与 BERT 对话 (在新标签页中打开) (2021 年 4 月)
- 规模对于参数高效提示微调的力量 (在新标签页中打开) (2021 年 4 月)
- 大型语言模型的提示编程:超越少样本范式 (在新标签页中打开) (2021 年 2 月)
- 使用前校准:提高语言模型的少样本性能 (在新标签页中打开) (2021 年 2 月)
- 前缀微调:优化用于生成的连续提示 (在新标签页中打开) (2021 年 1 月)
- 从任务描述中学习生成特定任务适配器 (在新标签页中打开) (2021 年 1 月)
- 使预训练语言模型成为更好的少样本学习者 (在新标签页中打开) (2020 年 12 月)
- 从任务描述中学习 (在新标签页中打开) (2020 年 11 月)
- AutoPrompt:使用自动生成的提示从语言模型中获取知识 (在新标签页中打开) (2020 年 10 月)
- 语言模型是少样本学习者 (在新标签页中打开) (2020 年 5 月)
- 我们如何知道语言模型了解什么? (在新标签页中打开) (2020 年 7 月)
- 神经语言模型的缩放定律 (在新标签页中打开) (2020 年 1 月)
应用
- PromptRE:通过基于提示的数据编程实现弱监督文档级关系提取 (在新标签页中打开) (2023 年 10 月)
- 使用思维链提示大型语言模型进行少样本知识库问题生成 (在新标签页中打开) (2023 年 10 月)
- 谁写的以及为什么?提示大型语言模型进行作者身份验证 (在新标签页中打开) (2023 年 10 月)
- Promptor:用于智能文本输入技术的会话式自主提示生成代理 (在新标签页中打开) (2023 年 10 月)
- 思绪传播:使用大型语言模型进行复杂推理的类比方法 (在新标签页中打开) (2023 年 10 月)
- 从稀疏到密集:使用密度链提示的 GPT-4 摘要 (在新标签页中打开) (2023 年 9 月)
- 自学优化器 (STOP):递归自改进代码生成 (在新标签页中打开) (2023 年 10 月)
- 三思而后言:使用暂停标记训练语言模型 (在新标签页中打开) (2023 年 10 月)
- (动态)提示可能是修复压缩 LLM 所需的一切 (在新标签页中打开) (2023 年 10 月)
- 大型语言模型中的上下文学习:神经科学启发的表征分析 (在新标签页中打开) (2023 年 9 月)
- 从重复中理解上下文学习 (在新标签页中打开) (2023 年 9 月)
- 通过思维链提示研究大型语言模型在反思性评估方法中的有效性 (在新标签页中打开) (2023 年 9 月)
- 个性化文本生成的自动提示重写 (在新标签页中打开) (2023 年 9 月)
- 带有注意力汇聚的高效流式语言模型 (在新标签页中打开) (2023 年 9 月)
- LMM 的黎明:使用 GPT-4V(ision) 的初步探索 (在新标签页中打开) (2023 年 9 月)
- 使用大型语言模型的图神经提示 (在新标签页中打开) (2023 年 9 月)
- 大型语言模型对齐:综述 (在新标签页中打开) (2023 年 9 月)
- 通过逻辑增强大型语言模型的零样本思维链推理 (在新标签页中打开) (2023 年 9 月)
- 上下文学习零样本提示设计的实用综述 (在新标签页中打开) (2023 年 9 月)
- EchoPrompt:指示模型重新措辞查询以改进上下文学习 (在新标签页中打开) (2023 年 9 月)
- 提示、条件与生成:使用上下文学习对不支持声明进行分类 (在新标签页中打开) (2023 年 9 月)
- PolicyGPT:使用大型语言模型自动分析隐私政策 (在新标签页中打开) (2023 年 9 月)
- LLM4Jobs:利用大型语言模型进行无监督职业提取与标准化 (在新标签页中打开) (2023 年 9 月)
- 摘要(几乎)已死 (在新标签页中打开) (2023 年 9 月)
- 事实核查中零样本和少样本泛化研究 (在新标签页中打开) (2023 年 9 月)
- 预训练大型语言模型 GPT-4 在自动短答案评分上的表现 (在新标签页中打开) (2023 年 9 月)
- 对比解码改进大型语言模型中的推理 (在新标签页中打开) (2023 年 9 月)
- Struc-Bench:大型语言模型真的擅长生成复杂的结构化数据吗? (在新标签页中打开) (2023 年 9 月)
- 神经机器翻译模型可以学习成为少样本学习者 (在新标签页中打开) (2023 年 9 月)
- 思维链推理是一种策略改进算子 (在新标签页中打开) (2023 年 9 月)
- ICLEF:利用专家反馈进行上下文学习以实现可解释的风格迁移 (在新标签页中打开) (2023 年 9 月)
- 生成式查询和文档扩展何时会失败?跨方法、检索器和数据集的综合研究 (在新标签页中打开) (2023 年 9 月)
- 使用大型语言模型进行知识工程 (LLMKE):Wikidata 案例研究 (在新标签页中打开) (2023 年 9 月)
- 归纳自然语言推理上的自我一致叙事提示 (在新标签页中打开) (2023 年 9 月)
- 研究 LLM 在长文本问答中的可回答性 (在新标签页中打开) (2023 年 9 月)
- PromptTTS++:使用自然语言描述控制基于提示的文本到语音中的说话人身份 (在新标签页中打开) (September 2023)
- 大型语言模型在零样本临床自然语言处理中的提示策略的实证评估 (在新标签页中打开) (September 2023)
- 利用上下文信息进行有效的实体显著性检测 (在新标签页中打开) (September 2023)
- Prompting4Debugging:通过寻找有问题提示对文本到图像扩散模型进行红队测试 (在新标签页中打开) (September 2023)
- PACE:使用提示和增强在云事件根本原因分析中校准GPT-4的置信度估计 (在新标签页中打开) (September 2023)
- 从稀疏到密集:使用密度链提示的 GPT-4 摘要 (在新标签页中打开) (2023 年 9 月)
- 测量和改进视觉语言模型中的思维链推理 (在新标签页中打开) (September 2023)
- 大型语言模型的零资源幻觉预防 (在新标签页中打开) (September 2023)
- 认证LLM对抗性提示的安全性 (在新标签页中打开) (September 2023)
- 通过动态温度采样改进代码生成 (在新标签页中打开) (September 2023)
- 提示大型语言模型生成多样化的激励信息:与人工撰写信息的比较 (在新标签页中打开) (August 2023)
- 使用微调的Llama 2 GPT模型进行金融新闻分析 (在新标签页中打开) (August 2023)
- 大型语言模型代码生成的鲁棒性和可靠性研究 (在新标签页中打开) (August 2023)
- 大型语言模型投票:提示用于罕见疾病识别 (在新标签页中打开) (August 2023)
- WizardMath:通过强化 Evol-Instruct 增强大型语言模型的数学推理能力 (在新标签页中打开) (August 2023)
- 混合思维树:结合快慢思维进行多跳视觉推理 (在新标签页中打开) (August 2023)
- 思维图谱:使用大型语言模型解决复杂问题 (在新标签页中打开) (August 2023)
- 使用话语链对大型语言模型进行红队测试以实现安全性对齐 (在新标签页中打开) (August 2023)
- 通过新框架增强大型语言模型的逻辑推理能力:思维图谱 (在新标签页中打开) (August 2023)
- 只需一次提示:大型语言模型提示学习处理有害内容的 能力 (在新标签页中打开) (August 2023)
- LLM作为DBA (在新标签页中打开) (August 2023)
- 通过分步规划生成可解释的数学应用题解 (在新标签页中打开) (June 2023)
- 面向任务对话系统的上下文学习用户模拟器 (在新标签页中打开) (June 2023)
- SQL-PaLM:改进的大型语言模型适应文本到SQL (在新标签页中打开) (June 2023)
- 通过元学习和代表性言语器实现有效的结构化提示 (在新标签页中打开) (June 2023)
- 零样本文档图像问答的布局和任务感知指令提示 (在新标签页中打开) (June 2023)
- 流批处理下的思维链提示:案例研究 (在新标签页中打开) (June 2023)
- 使用语言模型对语言模型检测器进行红队测试 (在新标签页中打开) (May 2023)
- Gorilla:连接海量API的大型语言模型 (在新标签页中打开) (May 2023)
- 先思考后生成:增强文本生成的提示框架 (在新标签页中打开) (May 2023)
- 在零/少样本设置中未能使用“分别”进行推理说明了大型语言模型什么? (在新标签页中打开) (May 2023)
- ScoNe:使用微调和上下文学习对语言模型中的否定推理进行基准测试 (在新标签页中打开) (May 2023)
- SheetCopilot:通过大型语言模型将软件生产力提升到新水平 (在新标签页中打开) (May 2023)
- 使用大型语言模型进行特定领域语言生成的语法提示 (在新标签页中打开) (May 2023)
- 减轻上下文学习中的标签偏差 (在新标签页中打开) (May 2023)
- 使用一次性提示和文本相似度评分模型进行简答题评分 (在新标签页中打开) (May 2023)
- 使用语言模型进行战略推理 (在新标签页中打开) (May 2023)
- 解剖思维链:MLPs组合式上下文学习研究 (在新标签页中打开) (May 2023)
- 标记的角色:使用自然语言提示衡量语言模型中的刻板印象 (在新标签页中打开) (May 2023)
- 在少样本数值推理提示中利用训练数据 (在新标签页中打开) (May 2023)
- 探索GPT-3在语法错误纠正中的有效性:基于提示方法在性能和可控性方面的研究 (在新标签页中打开) (May 2023)
- NOTABLE:针对基于提示的NLP模型的可迁移后门攻击 (在新标签页中打开) (May 2023)
- Tab-CoT:零样本表格思维链 (在新标签页中打开) (May 2023)
- 评估GPT-3生成的有害内容审查解释 (在新标签页中打开) (May 2023)
- 提示引导的检索增强非知识密集型任务 (在新标签页中打开) (May 2023)
- [基于提示的元学习实现零样本和少样本事件检测]https://arxiv.org/abs/2305.17373 (在新标签页中打开)) (May 2023)
- 思维链中心:衡量大型语言模型推理性能的持续努力 (在新标签页中打开) (May 2023)
- 大型语言模型可能是懒惰的学习者:分析上下文学习中的捷径 (在新标签页中打开) (May 2023)
- 大型语言模型的异构价值评估 (在新标签页中打开) (May 2023)
- PromptNER:用于命名实体识别的提示定位和类型化 (在新标签页中打开) (May 2023)
- 小型语言模型通过改写巨型模型的输出来提升它们 (在新标签页中打开) (May 2023)
- 关于大型语言模型的规划能力——一项批判性研究 (在新标签页中打开) (May 2023)
- 超越思维链,大型语言模型中有效的思维图谱推理 (在新标签页中打开) (May 2023)
- PRODIGY:在图上实现上下文学习 (在新标签页中打开) (May 2023)
- 大型语言模型是少样本健康学习者 (在新标签页中打开) (May 2023)
- 大型语言模型角色扮演 (在新标签页中打开) (May 2023)
- 使用不完整示范衡量上下文学习的归纳偏差 (在新标签页中打开) (May 2023)
- 使用程序引导的推理核实复杂主张 (在新标签页中打开) (May 2023)
- 大型语言模型作为工具制造者 (在新标签页中打开) (May 2023)
- 迭代前向调优提升语言模型的上下文学习能力 (在新标签页中打开) (May 2023)
- SwiftSage:具有快慢思维以应对复杂交互任务的生成式代理 (在新标签页中打开) (May 2023)
- 交互式自然语言处理 (在新标签页中打开) (May 2023)
- 自动发现的思维链提示可泛化到新模型和数据集 (在新标签页中打开) (May 2023)
- 大型语言模型引导的思维树 (在新标签页中打开) (May 2023)
- 主动检索增强生成 (在新标签页中打开) (May 2023)
- 一位博士生对超大型语言模型时代NLP研究的看法 (在新标签页中打开) (May 2023)
- 视觉思维链:通过多模态填充弥合逻辑差距 (在新标签页中打开) (May 2023)
- 海市蜃楼:关于对话系统中的拟人化 (在新标签页中打开) (May 2023)
- 极端风险的模型评估 (在新标签页中打开) (May 2023)
- 语言模型不总说其所想:思维链提示中不忠实的解释 (在新标签页中打开) (May 2023)
- 通过人机交互对负面想法进行认知重塑 (在新标签页中打开) (May 2023)
- PromptClass:通过提示增强噪声鲁棒自训练的弱监督文本分类 (在新标签页中打开) (May 2023)
- 通过参数化知识引导增强大型语言模型 (在新标签页中打开) (May 2023)
- 通过合成反馈对齐大型语言模型 (在新标签页中打开) (May 2023)
- 概念感知训练提高语言模型的上下文学习能力 (在新标签页中打开) (May 2023)
- FrugalGPT:如何在降低成本和提高性能的同时使用大型语言模型 (在新标签页中打开) (May 2023)
- 使用基于提示的数据增强提升黑盒少样本文本分类 (在新标签页中打开) (May 2023)
- 自动检测临床文档布局以提升下游自然语言处理性能 (在新标签页中打开) (May 2023)
- “教皇是天主教徒吗?”应用思维链推理理解对话中的言外之意 (在新标签页中打开) (May 2023)
- 逐帧思考:使用视频填充和预测评估视频思维链 (在新标签页中打开) (May 2023)
- 使用大型语言模型生成符号语言数据 (在新标签页中打开) (May 2023)
- 做出选择!基于知识库的上下文学习问答 (在新标签页中打开) (May 2023)
- 通过即插即用检索反馈改进语言模型 (在新标签页中打开) (May 2023)
- 对话中主题转移检测的多粒度提示 (在新标签页中打开) (May 2023)
- CoT Collection:通过思维链微调改进语言模型的零样本和少样本学习 (在新标签页中打开) (May 2023)
- 语言模型能理解物理概念吗? (在新标签页中打开) (May 2023)
- 使用大型语言模型评估摘要的事实一致性 (在新标签页中打开) (May 2023)
- Dr.ICL:示范检索的上下文学习 (在新标签页中打开) (May 2023)
- 上下文探测:通过探测大型语言模型构建鲁棒分类器 (在新标签页中打开) (May 2023)
- 基于技能的上下文学习少样本选择 (在新标签页中打开) (May 2023)
- 探索文本到SQL的思维链式提示 (在新标签页中打开) (May 2023)
- 通过扩展高质量教学对话增强聊天语言模型 (在新标签页中打开) (May 2023)
- 关于使用大型语言模型作为参考进行摘要学习 (在新标签页中打开) (May 2023)
- 通过情境化文献发现学习生成新颖的科学方向 (在新标签页中打开) (May 2023)
- 大型语言模型上下文学习的主动学习原则 (在新标签页中打开) (May 2023)
- LLMs多步推理中自我一致性的两次失败 (在新标签页中打开) (May 2023)
- 通过多智能体辩论提高语言模型的事实性和推理能力 (在新标签页中打开) (May 2023)
- ChatCoT:基于聊天的工具增强思维链推理大型语言模型 (在新标签页中打开) (May 2023)
- WikiChat:一个基于LLM并以维基百科为基础的少样本聊天机器人 (在新标签页中打开) (May 2023)
- 检索增强大型语言模型的查询重写 (在新标签页中打开) (May 2023)
- 零样本重排序器基于约束生成的离散提示优化 (在新标签页中打开) (May 2023)
- 使用大型语言模型的元素感知摘要:专家对齐评估和思维链方法 (在新标签页中打开) (May 2023)
- 小型语言模型通过改写巨型模型的输出来提升它们 (在新标签页中打开) (May 2023)
- 提示和评估大型语言模型的主动对话:澄清、目标导向和非协作 (在新标签页中打开) (May 2023)
- 基于提示的蒙特卡洛树搜索用于目标导向对话策略规划 (在新标签页中打开) (May 2023)
- 通过交互式问答知识对齐减轻语言模型幻觉 (在新标签页中打开) (May 2023)
- 通过执行反馈使语言模型成为更好的工具学习者 (在新标签页中打开) (May 2023)
- 使用代码语言模型进行文本到SQL错误修正 (在新标签页中打开) (May 2023)
- 使用大型语言模型进行相关语言间机器翻译的分解提示 (在新标签页中打开) (May 2023)
- SPARSEFIT:使用稀疏微调进行少样本提示,共同生成预测和自然语言解释 (在新标签页中打开) (May 2023)
- “据...所述”提示语言模型提高引用预训练数据 (在新标签页中打开) (May 2023)
- 基于提示的方法可能低估了大型语言模型的语言泛化能力 (在新标签页中打开) (May 2023)
- 知识链:使用结构化知识库支持大型语言模型的框架 (在新标签页中打开) (May 2023)
- 使用不完整示范衡量上下文学习的归纳偏差 (在新标签页中打开) (May 2023)
- 使用指令微调语言模型进行自动少样本分类 (在新标签页中打开) (May 2023)
- 增强大型语言模型的少样本文本到SQL能力:提示设计策略研究 (在新标签页中打开) (May 2023)
- MvP:多视图提示改进方面情感对预测 (在新标签页中打开) (May 2023)
- 通过提示LLMs学习可解释的风格嵌入 (在新标签页中打开) (May 2023)
- 通过隐私保护的上下文提示增强小型医疗学习者 (在新标签页中打开) (May 2023)
- 使用程序引导的推理核实复杂主张 (在新标签页中打开) (May 2023)
- 极端弱监督文本分类基准:协调种子匹配和提示方法 (在新标签页中打开) (May 2023)
- 此提示正在测量
:评估语言模型中的偏差评估 (在新标签页中打开) (May 2023) - 通过多语言言语器软提示增强跨语言自然语言推理 (在新标签页中打开) (May 2023)
- 评估开放研究知识图谱中基于提示的对象预测问答 (在新标签页中打开) (May 2023)
- 解释Transformer如何利用上下文构建预测 (在新标签页中打开) (May 2023)
- PiVe:通过迭代验证提示改进LLMs基于图的生成能力 (在新标签页中打开) (May 2023)
- PromptNER:一种通过k近邻搜索实现少样本命名实体识别的提示方法 (在新标签页中打开) (May 2023)
- Logic-LM:赋能大型语言模型符号求解器以实现忠实的逻辑推理 (在新标签页中打开) (May 2023)
- 基于提示顺序数据增强提升少样本NER (在新标签页中打开) (May 2023)
- 使用LLM对深度对话问题进行思维链提示 (在新标签页中打开) (May 2023)
- 如何提示LLMs进行文本到SQL:零样本、单领域和跨领域设置研究 (在新标签页中打开) (May 2023)
- 中大型语言模型在零样本封闭书本生成式问答中的评估 (在新标签页中打开) (May 2023)
- 通过骨架辅助提示迁移进行少样本对话摘要 (在新标签页中打开) (May 2023)
- NLP模型能否正确地对打破常见假设的上下文进行推理? (在新标签页中打开) (May 2023)
- 使用思维链提示推理隐含情感 (在新标签页中打开) (May 2023)
- 撰写自己的书:一种从封闭书本问答到开放书本问答的方法,以提高小型LLMs的鲁棒性和性能 (在新标签页中打开) (May 2023)
- AutoTrial:提示语言模型进行临床试验设计 (在新标签页中打开) (May 2023)
- CRITIC:大型语言模型可以通过工具交互式批判进行自我纠正 (在新标签页中打开) (May 2023)
- 通过提示微调控制大型语言模型中记忆数据的提取 (在新标签页中打开) (May 2023)
- 使用伪代码指令提示 (在新标签页中打开) (May 2023)
- TrueTeacher:使用大型语言模型学习事实一致性评估 (在新标签页中打开) (May 2023)
- 对齐指令任务释放大型语言模型作为零样本关系提取器的能力 (在新标签页中打开) (May 2023)
- 利用有偏模型去偏差文本:一种性别公平的改写模型 (在新标签页中打开) (May 2023)
- 学习命名实体识别的上下文学习 (在新标签页中打开) (May 2023)
- 中途休息:探索分层脚本生成的子目标 (在新标签页中打开) (May 2023)
- TEPrompt:用于隐性语篇关系识别的任务启发式提示学习 (在新标签页中打开) (May 2023)
- 大型语言模型可被引导以逃避AI生成文本检测 (在新标签页中打开) (May 2023)
- 使用上下文学习进行无知识的时间知识图谱预测 (在新标签页中打开) (May 2023)
- 提示网络规模语音模型的隐藏天赋以实现零样本任务泛化 (在新标签页中打开) (May 2023)
- 跳出代码思维:头脑风暴提升大型语言模型的代码生成能力 (在新标签页中打开) (May 2023)
- 通过自博弈和AI反馈的上下文学习改进语言模型协商 (在新标签页中打开) (May 2023)
- ConvXAI:通过对话提供异构AI解释以支持人机协同科学写作 (在新标签页中打开) (May 2023)
- StructGPT:大型语言模型对结构化数据进行推理的通用框架 (在新标签页中打开) (May 2023)
- 利用大型语言模型实现专家级医学问答 (在新标签页中打开) (May 2023)
- 大型语言模型是内置的自回归搜索引擎 (在新标签页中打开) (May 2023)
- MsPrompt:用于少样本事件检测去偏的多步提示学习 (在新标签页中打开) (May 2023)
- 探索层归一化对零样本神经机器翻译的影响 (在新标签页中打开) (May 2023)
- SGP-TOD:通过模式引导LLM提示轻松构建任务机器人 (在新标签页中打开) (May 2023)
- 使用提示进行多模态视觉理解,实现图像语义信息解缠 (在新标签页中打开) (May 2023)
- 多语言密集检索的软提示解码 (在新标签页中打开) (May 2023)
- PaLM 2 技术报告 (在新标签页中打开) (May 2023)
- LLMs是面向任务对话所需的全部吗? (在新标签页中打开) (April 2023)
- HiPrompt:通过层次导向提示进行少样本生物医学知识融合 (在新标签页中打开) (April 2023)
- 使用提示近似评估社交聊天机器人的人类评估 (在新标签页中打开) (April 2023)
- 使用OpenAI大型语言模型自动生成阅读段落 (在新标签页中打开) (April 2023)
- WebBrain:通过基于大型网络语料库学习为查询生成事实正确的文章 (在新标签页中打开) (April 2023)
- 使用两万个类别进行提示预训练以实现开放词汇视觉识别 (在新标签页中打开) (April 2023)
- GPT检测器对非母语英语写作者存在偏见 (在新标签页中打开) (April 2023)
- 使用大型预训练语言模型进行零样本下一项推荐 (在新标签页中打开) (April 2023)
- 大型语言模型作为万能钥匙:使用GPT解锁材料科学的秘密 (在新标签页中打开) (April 2023)
- 使用提示微调实现对话任务的高效对齐跨语言迁移学习 (在新标签页中打开) (April 2023)
- 通过自我改进实现更好的代码语言模型 (在新标签页中打开) (April 2023)
- PromptORE——一种完全无监督关系提取的新方法 (在新标签页中打开) (April 2023)
- 使用风险卡评估语言模型部署 (April 2023)
- 使用气候资源增强大型语言模型 (在新标签页中打开) (March 2023)
- BloombergGPT:一个用于金融的大型语言模型 (在新标签页中打开) (March 2023)
- 使用语言增强型Transformer编码器和医疗提示估计医疗干预持续时间 (在新标签页中打开) (March 2023)
- 使用软提示微调预测肺癌,基于荷兰初级保健自由文本医疗记录 (在新标签页中打开) (March 2023)
- TaskMatrix.AI:通过连接基础模型与数百万个API来完成任务 (在新标签页中打开) (March 2023)
- 更大的探测器讲述了一个不同的故事:通过上下文学习扩展心理语言学数据集 (在新标签页中打开) (March 2023)
- 语言学启发的ChatGPT提示增强日语-中文机器翻译:定语从句的案例研究 (在新标签页中打开) (March 2023)
- 使用混合提示微调增强知识的框架语义解析 (在新标签页中打开) (March 2023)
- 对二维扩散的分数和提示进行去偏,实现鲁棒的文本到三维生成 (在新标签页中打开) (March 2023)
- 零样本模型诊断 (在新标签页中打开) (March 2023)
- 提示大型语言模型生成代码混合文本:以东南亚语言为例 (在新标签页中打开) (March 2023)
- SPeC:基于软提示的校准,用于减轻临床笔记摘要中的性能变异性 (在新标签页中打开) (March 2023)
- 大型语言模型和简单、愚蠢的错误 (在新标签页中打开) (March 2023)
- 生成式预训练Transformer(GPT)能否通过高等教育编程课程的评估? (在新标签页中打开) (March 2023)
- SelfCheckGPT:生成式大型语言模型的零资源黑盒幻觉检测 (在新标签页中打开) (March 2023)
- 工作场所的大型语言模型:岗位类型分类提示工程的案例研究 (在新标签页中打开) (March 2023)
- ICL-D3IE:使用多样化演示更新进行文档信息提取的上下文学习 (在新标签页中打开) (March 2023)
- MathPrompter:使用大型语言模型进行数学推理 (在新标签页中打开) (March 2023)
- 基于提示的网络安全论坛主题结构预测学习 (在新标签页中打开) (March 2023)
- 控制与选择:用户如何使用叙事性和非叙事性提示与大型语言模型进行写作 (在新标签页中打开) (March 2023)
- 使用答案启发式提示大型语言模型进行基于知识的视觉问答 (在新标签页中打开) (March 2023)
- 软提示引导的联合学习用于跨领域情感分析 (在新标签页中打开) (March 2023)
- SpeechPrompt v2:用于语音分类任务的提示微调 (在新标签页中打开) (March 2023)
- 通过语言描述实现分布差异的目标驱动发现 (在新标签页中打开) (February 2023)
- 探索灰色区域:语言模型中过度自信和不确定性的表达 (在新标签页中打开) (February 2023)
- TabGenie:一个表格到文本生成工具包 (在新标签页中打开) (February 2023)
- SGL-PT:使用图提示微调的强大图学习器 (在新标签页中打开) (February 2023)
- 使用基于提示适配器进行少样本表格到文本生成 (在新标签页中打开) (February 2023)
- 语言模型是用于预后预测的少样本学习者 (在新标签页中打开) (February 2023)
- STA:用于改进文本分类的自控文本增强 (在新标签页中打开) (February 2023)
- 核实你的事实并再试一次:使用外部知识和自动反馈改进大型语言模型 (在新标签页中打开) (February 2023)
- ChatGPT等生成式AI模型如何在SPC实践、教育和研究中被(误)用?一项探索性研究 (在新标签页中打开) (February 2023)
- 格林在 Wonderland:使用Midjourney进行提示工程以绘制童话故事插图 (在新标签页中打开) (February 2023)
- LabelPrompt:用于关系分类的有效基于提示学习 (在新标签页中打开) (February 2023)
- 语言模型交叉:通过少样本提示进行变异 (在新标签页中打开) (February 2023)
- 用于说话人自适应视觉语音识别的深度神经网络提示微调 (在新标签页中打开) (February 2023)
- 大型语言模型的道德自我纠正能力 (在新标签页中打开) (2023 年 2 月)
- 多模态仇恨表情包分类的提示 (在新标签页中打开) (February 2023)
- PLACES:提示语言模型合成社交对话 (在新标签页中打开) (February 2023)
- Toolformer:语言模型可以自学使用工具 (在新标签页中打开) (February 2023)
- 常识感知的提示用于可控的同情对话生成 (在新标签页中打开) (February 2023)
- 爬取语言模型的内部知识库 (在新标签页中打开) (January 2023)
- 多语言法律判决预测的法律提示工程 (在新标签页中打开) (December 2022)
- 研究扩散模型中的提示工程 (在新标签页中打开) (November 2022)
- 学习解释:通过思维链进行科学问答的多模态推理 (在新标签页中打开) (September 2022)
- 与Copilot对话:探索使用自然语言解决CS1问题的提示工程 (在新标签页中打开) (October 2022)
- 驾驶Copilot和Codex:高温、冷提示,还是黑魔法? (在新标签页中打开) (October 2022)
- 从零开始使用预训练语言模型进行情节写作 (在新标签页中打开) (July 2022)
- 自然语言生成中的幻觉调查 (在新标签页中打开) (February 2022)