| 注册会员 | 1032 |
| 主题 | 340 |
| 模型 | 2962 |
| 技能包 | 6701 |
| 数据集 | 1026 |
| 论文 | 228 |
| 开源项目 | 305 |
|
|
Gopher:语言模型在 2800 亿参数规模下的表现分析 seven • abs/2112.11446 • 2026-01-28 | 0 |
|
|
FunSearch:通过大语言模型在数学科学中发现新知识 ci • articles/s41586-023-06924-6 • 2026-01-27 | 0 |
|
|
Minerva:利用语言模型解决定量推理问题 circuit • abs/2206.14858 • 2026-01-26 | 0 |
|
|
CAMEL:用于探索大语言模型智能体“心灵”对话的交流式框架 git • abs/2303.17778 • 2026-01-26 | 0 |
|
|
MetaGPT:多智能体协作框架下的元编程方案 architecture • abs/2308.00352 • 2026-01-26 | 0 |
|
|
生成式智能体(25人的虚拟小镇):人类行为的计算模拟 android • abs/2304.03442 • 2026-01-26 | 0 |
|
|
BitNet 1.58b:所有大语言模型都应该使用 1.58 比特 ladder • abs/2402.17764 • 2026-01-23 | 0 |
|
|
AWQ:低比特大语言模型的激活感知权重降噪量化 protocol • abs/2306.00978 • 2026-01-23 | 0 |
|
|
GPTQ:生成式预训练模型的高效后训练量化 integration • abs/2210.17323 • 2026-01-22 | 0 |
|
|
PagedAttention (vLLM):通过分块内存管理实现 LLM 服务的高吞吐 angle • abs/2309.06180 • 2026-01-22 | 0 |
|
|
RAG:针对知识密集型 NLP 任务的检索增强生成 session • abs/2005.11401 • 2026-01-22 | 0 |
|
|
ViT:一张图等同于 16x16 个单词,用于大规模图像识别的 Transformer apex • abs/2010.11929 • 2026-01-21 | 0 |
|
|
潜扩散模型(Stable Diffusion):高分辨率图像合成基石 dojo • abs/2112.10752 • 2026-01-20 | 0 |
|
|
Falcon 技术报告:具有挑战性的开源基础模型 deep • abs/2306.01116 • 2026-01-19 | 0 |
|
|
BLOOM:一个 176B 参数的开源多语种语言模型 breezeo • abs/2211.05100 • 2026-01-18 | 0 |
|
|
PaLM:通过通路架构扩展语言模型 banner • abs/2204.02311 • 2026-01-18 | 0 |
|
|
T5:利用统一的文本到文本传递框架探索迁移学习的极限 devops • abs/1910.10683 • 2026-01-18 | 0 |
|
|
RoBERTa:稳健优化的 BERT 预训练方法 cosmic • abs/1907.11692 • 2026-01-15 | 0 |
|
|
Kolors:来自快手团队的大规模高质量文本生成图像模型 journey • abs/2407.06927 • 2026-01-14 | 0 |
|
|
Mistral 7B:高效且强大的开源 7B 语言模型 desktop • abs/2310.06825 • 2026-01-14 | 0 |