YAYI 2学术引用指南:论文撰写规范与最佳实践
YAYI 2学术引用指南论文撰写规范与最佳实践【免费下载链接】YAYI2YAYI 2 是中科闻歌研发的新一代开源大语言模型采用了超过 2 万亿 Tokens 的高质量、多语言语料进行预训练。(Repo for YaYi 2 Chinese LLMs)项目地址: https://gitcode.com/gh_mirrors/ya/YAYI2YAYI 2是中科闻歌研发的新一代开源大语言模型采用超过2万亿Tokens的高质量多语言语料预训练为学术研究提供强大支持。本文将详细介绍如何在学术论文中正确引用YAYI 2模型确保引用格式规范、信息完整帮助研究人员高效完成论文撰写。为什么规范引用YAYI 2至关重要在学术研究中正确引用模型不仅是对原作者知识产权的尊重也是确保研究可追溯性和可重复性的基础。YAYI 2作为支持多语言处理的开源大语言模型其41.5%的中文语料占比和40.4%的英文语料占比如图1所示使其在跨语言研究中具有独特优势。规范引用能帮助读者准确获取模型信息促进相关领域的进一步研究。图1YAYI 2预训练语料的语言分布比例中文和英文占比合计超过80%支持多语言学术研究标准引用格式与示例1. BibTeX引用格式推荐在LaTeX论文中推荐使用以下BibTeX条目引用YAYI 2模型article{YAYI 2, author {Yin Luo, Qingchao Kong, Nan Xu, et.al.}, title {YAYI 2: Multilingual Open Source Large Language Models}, journal {arXiv preprint arXiv:2312.14862}, url {https://arxiv.org/abs/2312.14862}, year {2023} }2. APA格式对于采用APA格式的论文引用格式如下Luo, Y., Kong, Q., Xu, N., et al. (2023). YAYI 2: Multilingual Open Source Large Language Models. arXiv preprint arXiv:2312.14862. https://arxiv.org/abs/2312.148623. GB/T 7714-2015格式中文论文罗荫, 孔庆超, 徐楠, 等. YAYI 2: 多语言开源大语言模型[J/OL]. arXiv preprint arXiv:2312.14862, 2023. https://arxiv.org/abs/2312.14862.引用时需包含的核心信息为确保引用的完整性需包含以下关键信息论文标题YAYI 2: Multilingual Open Source Large Language Models作者Yin Luo, Qingchao Kong, Nan Xu等et.al.发表平台arXiv preprint论文编号arXiv:2312.14862发布年份2023访问链接https://arxiv.org/abs/2312.14862不同研究场景的引用建议1. 模型性能对比研究当将YAYI 2与其他模型进行性能对比时建议同时引用技术报告和官方代码库YAYI 2在CMMLU数据集上达到84.0%的准确率显著优于同规模模型Luo et al., 2023。实验代码可参考training/trainer_yayi2.py实现细节。2. 数据或训练方法研究YAYI 2的预训练数据包含49.6%的互联网数据和31.4%的领域特定数据如图2所示相关研究可引用本研究采用与YAYI 2类似的数据分布策略其中领域数据占比参考了其31.4%的配置Luo et al., 2023。图2YAYI 2预训练数据的来源分布涵盖互联网数据、领域特定数据和通用精选数据常见引用错误与避免方法遗漏论文编号需确保包含arXiv:2312.14862便于精准定位文献。作者姓名拼写错误注意作者姓名的正确拼写如Yin Luo而非Ying Luo。未标注预印本状态需注明arXiv preprint以区分正式发表论文。引用检查清单 ✅为确保引用无误建议使用以下检查清单包含完整的作者列表et.al.可用于多作者情况标题、期刊/平台、年份准确无误论文编号和URL正确格式符合目标期刊要求BibTeX/APA/GB/T 7714等总结正确引用YAYI 2不仅是学术规范的要求也是推动大语言模型研究透明化的重要一步。通过本文提供的格式示例和最佳实践研究人员可轻松完成规范引用同时充分利用YAYI 2的多语言优势开展创新研究。如需进一步了解模型细节可参考技术报告或访问项目代码库获取训练脚本如scripts/start.sh。祝各位学者研究顺利成果丰硕 ✨【免费下载链接】YAYI2YAYI 2 是中科闻歌研发的新一代开源大语言模型采用了超过 2 万亿 Tokens 的高质量、多语言语料进行预训练。(Repo for YaYi 2 Chinese LLMs)项目地址: https://gitcode.com/gh_mirrors/ya/YAYI2创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2441370.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!