OA0 = Omni AI 0
OA0 是一个探索 AI 的论坛
现在注册
已注册用户请  登录
OA0  ›  代码  ›  HuggingFace Optimum — 硬件优化工具

HuggingFace Optimum — 硬件优化工具

 
  graphql ·  2026-03-03 00:02:27 · 2 次点击  · 0 条评论  

🤗 Optimum

PyPI - License PyPI - Python Version PyPI - Version PyPI - Downloads Documentation

Optimum 是 Transformers 🤖、Diffusers 🧨、TIMM 🖼️ 和 Sentence-Transformers 🤗 的扩展库,提供了一套优化工具,旨在目标硬件上以最高效率训练和运行模型,同时保持简单易用。

安装

可以使用 pip 安装 Optimum:

python -m pip install optimum

如果想使用 Optimum 针对特定加速器的功能,请查阅文档并根据下表安装所需的依赖项:

加速器 安装命令
ONNX pip install --upgrade --upgrade-strategy eager optimum[onnx]
ONNX Runtime pip install --upgrade --upgrade-strategy eager optimum[onnxruntime]
ONNX Runtime GPU pip install --upgrade --upgrade-strategy eager optimum[onnxruntime-gpu]
OpenVINO pip install --upgrade --upgrade-strategy eager optimum[openvino]
NVIDIA TensorRT-LLM docker run -it --gpus all --ipc host huggingface/optimum-nvidia
AMD Instinct GPU 与 Ryzen AI NPU pip install --upgrade --upgrade-strategy eager optimum[amd]
AWS Trainum & Inferentia pip install --upgrade --upgrade-strategy eager optimum[neuronx]
Intel Gaudi 加速器 (HPU) pip install --upgrade --upgrade-strategy eager optimum[habana]
FuriosaAI pip install --upgrade --upgrade-strategy eager optimum[furiosa]

--upgrade --upgrade-strategy eager 选项用于确保将不同的包升级到最新的可用版本。

从源码安装:

python -m pip install git+https://github.com/huggingface/optimum.git

对于特定加速器的功能,请在上述命令后追加 optimum[accelerator_type]

python -m pip install optimum[onnxruntime]@git+https://github.com/huggingface/optimum.git

加速推理

Optimum 提供了多种工具,用于在各种生态系统中导出和运行优化后的模型:

  • ONNX / ONNX Runtime:最流行的模型导出开放格式之一,以及用于部署的高性能推理引擎。
  • OpenVINO:用于在英特尔硬件上优化、量化和部署深度学习模型的工具包。
  • ExecuTorch:PyTorch 针对移动和边缘设备端推理的原生解决方案。
  • Intel Gaudi 加速器:在第一代 Gaudi、Gaudi2 和 Gaudi3 上实现最佳性能。
  • AWS Inferentia:在 Inf2 和 Inf1 实例上进行加速推理。
  • NVIDIA TensorRT-LLM

导出和优化既可以通过编程方式完成,也可以通过命令行完成。

ONNX + ONNX Runtime

🚨🚨🚨 ONNX 集成已迁移至 optimum-onnx,请务必遵循其安装说明 🚨🚨🚨

开始之前,请确保已安装所有必要的库:

pip install --upgrade --upgrade-strategy eager optimum[onnx]

可以轻松地将 Transformers、Diffusers、Sentence Transformers 和 Timm 模型导出到 ONNX 格式,并进行图优化和量化。

有关 ONNX 导出的更多信息,请查阅文档

模型导出为 ONNX 格式后,我们提供了 Python 类,使您能够使用后端的 ONNX Runtime 无缝运行导出的 ONNX 模型。

为此,请确保已安装 ONNX Runtime,更多信息请查看安装说明

有关如何使用 ORTModelForXXX 类运行 ONNX 模型的更多详细信息,请参阅此处

Intel (OpenVINO + NNCF)

开始之前,请确保已安装所有必要的

pip install --upgrade --upgrade-strategy eager optimum[openvino]

您可以在我们的文档optimum-intel 的示例中找到有关不同集成的更多信息。

ExecuTorch

开始之前,请确保已安装所有必要的库:

pip install optimum-executorch@git+https://github.com/huggingface/optimum-executorch.git

用户可以将 Transformers 模型导出到 ExecuTorch,并在 PyTorch 生态系统内的边缘设备上运行推理。

有关将 Transformers 导出到 ExecuTorch 的更多信息,请查看 Optimum-ExecuTorch 文档

Quanto

Quanto 是一个 PyTorch 量化后端,允许您使用 Python API 或 optimum-cli 来量化模型。

您可以在 Quanto 仓库中找到更多详细信息和示例

加速训练

Optimum 提供了对原始 Transformers Trainer 的封装,以便轻松地在强大的硬件上进行训练。
我们支持许多提供商:

  • Intel Gaudi 加速器 (HPU):在第一代 Gaudi、Gaudi2 和 Gaudi3 上实现最佳性能。
  • AWS Trainium:在 Trn1 和 Trn1n 实例上进行加速训练。
  • ONNX Runtime(针对 GPU 优化)。

Intel Gaudi 加速器

开始之前,请确保已安装所有必要的库:

pip install --upgrade --upgrade-strategy eager optimum[habana]

您可以在文档示例中找到相关示例。

AWS Trainium

开始之前,请确保已安装所有必要的库:

pip install --upgrade --upgrade-strategy eager optimum[neuronx]

您可以在文档教程中找到相关示例。

2 次点击  ∙  0 人收藏  
登录后收藏  
目前尚无回复
0 条回复
About   ·   Help   ·    
OA0 - Omni AI 0 一个探索 AI 的社区
沪ICP备2024103595号-2
Developed with Cursor