Comments (27)
推荐一手我们团队开发的微调工具库:XTuner
目前已经支持了 ChatGLM3-6B-Base 的微调;同时,在数据集处理逻辑上,我们也进行了精心设计,方便拓展自定义数据。
一键启动
ChatGLM3-6B-Base, QLoRA, open assistant 数据集(显存占用 11GB 左右)
pip install xtuner==0.1.6
xtuner train chatglm3_6b_base_qlora_oasst1_e3
from chatglm3.
LLaMA-Factory is all you need: https://github.com/hiyouga/LLaMA-Factory
from chatglm3.
@LZHgrla thanks , and i've finally launched up my QLora fine tune .
from chatglm3.
+1
from chatglm3.
+1支持
from chatglm3.
+1
from chatglm3.
chatGLM2的微调代码适用不?很好奇都是同一个系列的模型,为什么微调代码不能共用呀?
from chatglm3.
from chatglm3.
想问下大佬,想用多轮对话数据训练chatglm3,应该怎么组织数据呀?魔搭这个文档我没看明白要怎么组织。。。
from chatglm3.
chatGLM2的微调代码适用不?很好奇都是同一个系列的模型,为什么微调代码不能共用呀?
输入格式不一样
from chatglm3.
https://github.com/xxw1995/chatglm3-finetune
from chatglm3.
好东西, mark 一下
from chatglm3.
@WangRongsheng does LLaMA-Factory support GLM2-6b and using Qlora SFT . in several steps ?
from chatglm3.
@LZHgrla how to use xtuner in command line to train my custom dataset , mode is QLora . any guide doc link ?
from chatglm3.
@LZHgrla how to use xtuner in command line to train my custom dataset , mode is QLora . any guide doc link ?
Single-turn conversation Docs: zh_cn, en
Multi-turn conversation Docs: zh_cn, en
from chatglm3.
@WangRongsheng does LLaMA-Factory support GLM2-6b and using Qlora SFT . in several steps ?
Yes, it can do.
from chatglm3.
@LZHgrla following single turn conversation doc guide : i got this error: NotImplementedError: Loading a dataset cached in a LocalFileSystem is not supported.
any ideas ?? @LZHgrla
leo@leo-System-Product-Name:~/Downloads/mvp/work_dirs$ xtuner -v
10/29 20:58:18 - mmengine - INFO - 0.1.6
from chatglm3.
@LZHgrla following single turn conversation doc guide : i got this error: NotImplementedError: Loading a dataset cached in a LocalFileSystem is not supported. any ideas ?? @LZHgrla leo@leo-System-Product-Name:~/Downloads/mvp/work_dirs$ xtuner -v 10/29 20:58:18 - mmengine - INFO - 0.1.6
You can try pip install -U datasets
If you have further questions, please post them on here
from chatglm3.
marked
from chatglm3.
marked
from chatglm3.
推荐一手我们团队开发的微调工具库:XTuner 目前已经支持了 ChatGLM3-6B-Base 的微调;同时,在数据集处理逻辑上,我们也进行了精心设计,方便拓展自定义数据。
一键启动
ChatGLM3-6B-Base, QLoRA, open assistant 数据集(显存占用 11GB 左右)
pip install xtuner==0.1.6 xtuner train chatglm3_6b_base_qlora_oasst1_e3
使用xtuner train 微调chatglm3后 无法生成 adapter_config.json 导致qlora训练后的权重无法使用@LZHgrla
from chatglm3.
关心这个问题,谢谢
+1
from chatglm3.
https://github.com/minghaochen/chatglm3-base-tuning
chatglm3发布了,这次还发了base版本的模型,意味着我们可以基于这个base模型去自由地做SFT了。本项目实现了基于base模型的多轮对话SFT。
from chatglm3.
关心这个问题,谢谢
+1
from chatglm3.
推荐一手我们团队开发的微调工具库:XTuner 目前已经支持了 ChatGLM3-6B-Base 的微调;同时,在数据集处理逻辑上,我们也进行了精心设计,方便拓展自定义数据。
一键启动
ChatGLM3-6B-Base, QLoRA, open assistant 数据集(显存占用 11GB 左右)
pip install xtuner==0.1.6 xtuner train chatglm3_6b_base_qlora_oasst1_e3
使用xtuner train 微调chatglm3后 无法生成 adapter_config.json 导致qlora训练后的权重无法使用@LZHgrla
我们这边测试并不会出现这个问题,训练后经过转换可以直接获得qlora的adapter权重
from chatglm3.
微调代码什么时候能够发布?
from chatglm3.
微调代码已发布,请参考 ChatGLM3-6B 微调示例。
from chatglm3.
Related Issues (20)
- RMSNorm的不同实现方式
- LORA 微调报错 HOT 1
- bug when running inference_hf.py after finetuning with lora.
- api模式下是不能实现工具调用吗? HOT 1
- 执行了composition_demo,发现仅仅用了一个cpu去执行推理。速度非常慢。这个是什么原因导致的? HOT 1
- 运行basic_demo下的web_demo_gradio.py程序报错ModuleNotFoundError: No module named 'peft' HOT 3
- langchain_demo中的那个是不是不是流式处理?
- ChatGLMForConditionalGeneration forward position_ids 参数哪里传入的?
- 从 chat 接口内部调用 generate 接口的处理逻辑看,使用上述拼接方式生成的 input_ids 不符合你们对于特殊符(如<|user|>、<|assistant|>)的 id 定义,这部分是否只是为了兼容通用的 generate 接口?且存在对模型性能的损失? HOT 3
- 使用chatglm.cpp调用chatglm3-6b-32k时,非常容易触发无限循环的问题,repetition_penalty设置为2依然没有效果 HOT 1
- openai_api_request.py运行不成功 HOT 1
- Getting requirements to build wheel did not run successfully. HOT 1
- ChatGLM3-6b微调之后再运行就会出错 HOT 1
- 但是这样做代码会自动复原,加入的代码就被冲刷掉了> 请问你解决了吗?
- 使用finetune_demo/finetune_hf.py的lora微调之后,用finetune_demo/inference_hf.py做推理了的时候加载权重后无反应 HOT 3
- 用这里的ChatGLM3 + 魔搭社区的ChatGLM3-6B的模型在阿里云微调官方示例,但Running Evaluation时出错,请求指导。 HOT 6
- 运行 api_server.py , 请求返回异常 HOT 2
- 数据读取时的问题
- inconsistent `tool_def` in examples
- 微调中途报错BatchEncoding.to() got an unexpected keyword argument 'non_blocking' HOT 1
Recommend Projects
-
React
A declarative, efficient, and flexible JavaScript library for building user interfaces.
-
Vue.js
🖖 Vue.js is a progressive, incrementally-adoptable JavaScript framework for building UI on the web.
-
Typescript
TypeScript is a superset of JavaScript that compiles to clean JavaScript output.
-
TensorFlow
An Open Source Machine Learning Framework for Everyone
-
Django
The Web framework for perfectionists with deadlines.
-
Laravel
A PHP framework for web artisans
-
D3
Bring data to life with SVG, Canvas and HTML. 📊📈🎉
-
Recommend Topics
-
javascript
JavaScript (JS) is a lightweight interpreted programming language with first-class functions.
-
web
Some thing interesting about web. New door for the world.
-
server
A server is a program made to process requests and deliver data to clients.
-
Machine learning
Machine learning is a way of modeling and interpreting data that allows a piece of software to respond intelligently.
-
Visualization
Some thing interesting about visualization, use data art
-
Game
Some thing interesting about game, make everyone happy.
Recommend Org
-
Facebook
We are working to build community through open source technology. NB: members must have two-factor auth.
-
Microsoft
Open source projects and samples from Microsoft.
-
Google
Google ❤️ Open Source for everyone.
-
Alibaba
Alibaba Open Source for everyone
-
D3
Data-Driven Documents codes.
-
Tencent
China tencent open source team.
from chatglm3.