We read every piece of feedback, and take your input very seriously.
To see all available qualifiers, see our documentation.
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
作者您好!我对您的工作非常感兴趣,同时我拿了您发布的权重,想要测试一下您的模型,结果发现效果并不是很理想,我问的是几个您在文档中有提及的问题,下面是我的测试记录 llama-7b模型本身就非常容易陷入胡说八道的情况,目前我也在做和您类似的工作,我用的是alpaca-7b的lora 微调算法,发现效果要远好于llama。同时扩充中文词汇量的工作也有人做过了,lora训练后的效果有大幅提升。不知道您接下来是否会尝试一下?目前我的工作发现用chinese-alpaca lora精调,比用llama、vicuna精调的效果都好很多。
The text was updated successfully, but these errors were encountered:
jjyu-ustc
非常感谢你的反馈! 是的,llama-7b 会存在生成的结果文不对题、以及无法自然地结束生成等情况。 我们正在选用更好的中文基础模型如 baichuan-7B等 继续做金融领域的多任务SFT 模型。 本项目-聚宝盆 作为开源项目,欢迎大家积极参与与贡献idea、代码、数据!
Sorry, something went wrong.
在baichuan2这种具有一定金融领域知识的基座模型上,是否还有必要进一步进行二次预训练呢?
No branches or pull requests
作者您好!我对您的工作非常感兴趣,同时我拿了您发布的权重,想要测试一下您的模型,结果发现效果并不是很理想,我问的是几个您在文档中有提及的问题,下面是我的测试记录
llama-7b模型本身就非常容易陷入胡说八道的情况,目前我也在做和您类似的工作,我用的是alpaca-7b的lora 微调算法,发现效果要远好于llama。同时扩充中文词汇量的工作也有人做过了,lora训练后的效果有大幅提升。不知道您接下来是否会尝试一下?目前我的工作发现用chinese-alpaca lora精调,比用llama、vicuna精调的效果都好很多。
The text was updated successfully, but these errors were encountered: