View Code? Open in Web Editor
NEW
雅意大模型:为客户打造安全可靠的专属大模型,基于大规模中英文多领域指令数据训练的 LlaMA 2 & BLOOM 系列模型,由中科闻歌算法团队研发。(Repo for YaYi Chinese LLMs based on LlaMA2 & BLOOM)
Home Page: https://www.wenge.com/yayi/index.html
License: Apache License 2.0
yayi's People
Contributors
yayi's Issues
请问yayi开源的模型,是使用全量参数训练,还是使用lora训练的?使用了多少训练资源?期待您的回答。
尊敬的 YaYi 应用开发者,我是 InternLM 社区开发者&志愿者尖米, 大佬开源的工作对我的启发很大,希望可以探讨使用 InternLM 实现 YaYi 的可能性和实现路径,我的微信是 mzm312,希望可以取得联系进行更深度的交流;
参考阿里的:python -m vllm.entrypoints.openai.api_server --model Qwen/Qwen1.5-7B-Chat
你好,关于你们的模型yayi-13b-llama2,希望能够提供更多的信息。比如我现在能看到词表32005是没有动过的。你们的增量中文预训练数据大约是什么样的量级?有没有拿他跑过类似ceval和cmmlu这类的分数?谢谢!
网上说本次开源了部分高质量训练数据 500GB(约100Btoken),请问数据开源在了什么地方?谢谢~
您好,感谢您开源YaYi相关模型,我想问一下您在C-Eval榜单上的模型,是您开源的版本么?如果是其他版本,能稍微给些大致信息么?因为我用您开源的YaYi-13B-LLaMa2的模型在C-Eval的测试集测评,效果和榜单差距过大。
yayi大模型没有那种像glm一样的demo部署吗?
如果支持,该怎么使用该功能,如果不支持,可以通过prompt来支持吗?