中文 | View English
感谢您对Omni-Infer项目的贡献意愿!我们的社区向所有人开放,欢迎各种形式的贡献,无论大小。您可以通过以下方式参与项目建设:
- 发现并报告问题或漏洞:提交清晰的问题描述和复现步骤,帮助我们改进项目稳定性。
- 请求或添加新模型支持:提出您需要支持的模型需求,或参与模型适配开发。
- 建议或实现新功能:分享您的创意想法,或直接提交代码实现新特性。
- 完善文档或撰写指南:优化现有文档,或编写使用教程、最佳实践等内容。
我们同样重视社区支持的力量:回答问题、提供PR评审建议、帮助其他开发者等行为,都是极具价值的贡献!
此外,支持我们最具影响力的方式之一是提升Omni Infer的关注度:在博客中分享使用体验,强调它如何驱动您的项目;在社交媒体上表达对Omni-Infer的认可,或通过给代码仓库加星(Star)来表示支持!
请参考Omni-Infer安装指南安装Omni-Infer。
如果您遇到漏洞或有功能需求,请先搜索现有问题,查看是否已被报告。若未找到匹配项,请提交新问题,并尽可能提供详细信息。
感谢您为Omni-Infer贡献代码!在提交拉取请求前,请确保PR满足以下标准,这有助于Omni-Infer保持代码质量并提升评审效率。
社区将为您提供CLA机器人签署ICLA或CCLA。请确保您已签署CLA后提交拉取请求。
仅特定类型的PR会被评审。请在PR标题中添加适当前缀以表明变更类型,可使用以下分类:
<span class="pre">[Bugfix]</span>Bug修复类问题.<span class="pre">[CI/Build]</span>CI或构建类问题.<span class="pre">[Doc]</span>文档改进类问题.<span class="pre">[Model]</span>增加新的模型支持.<span class="pre">[Frontend]</span>涉及Omni-Infer前端的更改 (e.g., OpenAI API server,<span class="pre">LLM</span>class, etc.)<span class="pre">[Kernel]</span>涉及CANN算子或其他计算内核的更改.<span class="pre">[Core]</span>涉及Omni-Infer核心代码逻辑的更改 (e.g.,<span class="pre">LLMEngine</span>,<span class="pre">AsyncLLMEngine</span>,<span class="pre">Scheduler</span>, etc.)<span class="pre">[Misc]</span>其他类别的问题.
参与项目时,请遵守我们的行为准则,保持社区友好、包容的氛围。
如有任何疑问,欢迎通过Gitee Issues与我们交流!期待您的贡献让Omni Infer更强大!