赞
踩
本比赛旨在测试参与者的逻辑推理和问题解决能力。参与者将面对一系列复杂的逻辑谜题,涵盖多个领域的推理挑战。
比赛的连接:第二届世界科学智能大赛逻辑推理赛道:复杂推理能力评估
选择相应的GPU环境以及对应的镜像,这里使用到的是魔搭社区的内容
LoRA(Low-Rank Adaptation)微调是一种高效的模型微调技术,特别适用于大型预训练语言模型的适应性调整。LoRA的核心思想是通过引入低秩矩阵来调整模型的权重,从而在不显著增加模型参数数量的情况下,实现对模型的微调。
复制内容:
git clone https://www.modelscope.cn/datasets/Datawhale/DW2024_Complex_reasoning_ability_assessment_qwen2-7b-lora.git
之后就会看到有一个文件夹,点击进去,选择 lora.ipynb
运行前两个代码
然后逐个运行下面的代码
vLLM(Virtual Large Language Model)是一个由伯克利大学LMSYS组织开源的大规模语言模型高速推理框架。它的设计目标是在实时应用场景中大幅提升语言模型服务的吞吐量和内存使用效率。vLLM的特点包括易于使用、与Hugging Face等流行工具无缝集成以及高效的性能。
调用这个vllm的服务
选择start_vllm.ipynb
运行主函数 baseline2_main.ipynb
然后要注意的是要上传相应的test的文件
将生成的文件upload.jsonl
提交到官网,得到相应的分数
主要就是根据datawhale所给到的相应学习资料进行一个运行操作,了解了这个模型调整的内容,对自己来说有很多还有学习的地方
文章当中的内容都是由datawhale所给出
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。