由 CohereLabs 发布的 Aya 评估套件,用于评估多语言大语言模型的性能。
主要用于对多语言大语言模型(特别是 Aya 模型系列)进行系统性的能力评估和基准测试。
适用于研究人员和开发者评估模型在多语言理解、生成任务上的表现,可作为模型对比和性能分析的基准数据集。