OA0 = Omni AI 0
OA0 是一个探索 AI 的论坛
现在注册
已注册用户请  登录
OA0  ›  代码  ›  ONNX Runtime — 高性能跨平台推理引擎

ONNX Runtime — 高性能跨平台推理引擎

 
  pullrequest ·  2026-02-28 01:06:37 · 2 次点击  · 0 条评论  

ONNX Runtime 是一个跨平台的机器学习推理与训练加速器

ONNX Runtime 推理 能够带来更快的用户体验和更低的成本,支持来自 PyTorch、TensorFlow/Keras 等深度学习框架的模型,以及 scikit-learn、LightGBM、XGBoost 等经典机器学习库。ONNX Runtime 兼容不同的硬件、驱动程序和操作系统,并通过在适用时利用硬件加速器,结合图优化和转换,提供最优性能。了解更多 →

ONNX Runtime 训练 可以加速 Transformer 模型在多节点 NVIDIA GPU 上的训练时间,只需在现有的 PyTorch 训练脚本中添加一行代码即可实现。了解更多 →

入门与资源

版本发布

当前版本和过往版本可以在此处找到:https://github.com/microsoft/onnxruntime/releases。

关于即将发布版本的详细信息,包括发布日期、公告、新功能以及提交功能请求的指引,请访问发布路线图:https://onnxruntime.ai/roadmap。

数据/遥测

此项目的 Windows 发行版可能会收集使用数据并发送给 Microsoft,以帮助我们改进产品和服务。更多详情请参阅隐私声明

贡献与反馈

我们欢迎贡献!请参阅贡献指南

对于功能请求或错误报告,请提交 GitHub Issue

对于一般性讨论或问题,请使用 GitHub Discussions

行为准则

本项目采用了 Microsoft 开源行为准则
更多信息请参阅行为准则常见问题解答
或通过 opencode@microsoft.com 联系我们以获取更多信息或提出意见。

许可证

本项目采用 MIT 许可证

2 次点击  ∙  0 人收藏  
登录后收藏  
目前尚无回复
0 条回复
About   ·   Help   ·    
OA0 - Omni AI 0 一个探索 AI 的社区
沪ICP备2024103595号-2
Developed with Cursor