OA0
OA0 是一个探索 AI 的社区
现在注册
已注册用户请  登录
OA0  ›  代码  ›  LMOps — 面向大模型训练、评测与部署的一体化实践集合

LMOps — 面向大模型训练、评测与部署的一体化实践集合

 
  jasmine ·  2026-03-22 11:00:25 · 4 次点击  · 0 条评论  

LMOps 是一个研究计划,专注于构建基于基础模型(尤其是大语言模型和生成式AI模型)的AI产品所需的基础研究和技术。

相关链接

最新动态

提示智能

促进语言模型提示的高级技术。

Promptist:用于自动提示优化的强化学习

[论文] 优化文本到图像生成的提示

  • 语言模型作为一个提示接口,将用户输入优化为模型偏好的提示。
  • 通过强化学习学习一个用于自动提示优化的语言模型。

image

结构化提示:以高效方式处理长序列提示

[论文] 结构化提示:将上下文学习扩展到1000个示例

  • 示例用例:

1) 在GPT中前置(许多)检索到的(长)文档作为上下文。
2) 将上下文学习扩展到许多演示示例。

image

X-Prompt:超越自然语言的可扩展提示,用于描述性指令

[论文] 语言模型的可扩展提示

  • 可扩展的接口,允许超越自然语言来提示LLMs,以实现细粒度的规范。
  • 通过上下文引导的虚构词学习,实现通用可用性。

Extensible Prompts for Language Models

LLMA:LLM加速器

利用参考加速LLM推理

[论文] 基于参考的推理:大语言模型的无损加速

  • LLM的输出通常与某些参考(例如,检索到的文档)有显著重叠。
  • LLMA通过从参考中复制文本片段到LLM输入并进行验证,无损地加速LLM推理。
  • 适用于检索增强生成和多轮对话等重要LLM场景。
  • 无需额外模型即可实现2~3倍的加速。

image

LLM的基础理解

理解上下文学习

[论文] GPT为何能进行上下文学习?语言模型作为元优化器秘密执行微调

  • 根据演示示例,GPT通过前向计算为上下文学习产生元梯度。ICL通过注意力机制将这些元梯度应用于模型。
  • ICL的元优化过程与通过反向传播梯度显式更新模型参数的微调具有对偶视角。
  • 我们可以将优化算法(如带动量的SGD)转化为其对应的Transformer架构。

image

招聘:aka.ms/GeneralAI

我们正在招聘各个级别的员工(包括全职研究员和实习生)!如果您有兴趣与我们一起从事基础模型(即大规模预训练模型)、通用人工智能、自然语言处理、机器翻译、语音、文档AI和多模态AI的研究,请将您的简历发送至 fuwei@microsoft.com

许可证

本项目遵循源代码根目录下LICENSE文件中找到的许可证。

Microsoft 开源行为准则

联系信息

如需获取预训练模型的帮助或报告问题,请提交GitHub issue。
其他沟通事宜,请联系 Furu Wei (fuwei@microsoft.com)。

4 次点击  ∙  0 人收藏  
登录后收藏  
0 条回复
关于 ·  帮助 ·  PING ·  隐私政策 ·  服务条款   
OA0 - Omni AI 0 一个探索 AI 的社区
沪ICP备2024103595号-2
耗时 19 ms
Developed with Cursor