相关文章推荐

Chinese-Vicuna-lora-7b-3epoch-belle-and-guanaco这个模型是怎么训练出来的 #87

@hyb1234hi

Description

本人第一次接触这类项目,请问文档里的Chinese-Vicuna-lora-7b-3epoch-belle-and-guanaco这个模型是怎么训练出来的,finetune.py的输出又是什么,checkpoint-final是什么,和13B-based lora model什么关系。另外CPU推理的tools/merge_lora_for_cpp.py这个文件也没有。可以从huggingface上加载我们的模型或其他lora模型,为什么文件名是generate.py,需要generate生成什么呢?断点重训/增量训练支不支持单卡写法呢?哪些是你们自己训练的或是三方的,哪些是我们需要我们自己可以训练的呢?

 
推荐文章