Chuan & LLM
自去年11月OpenAI公布chatGPT以来,大模型持续被推到热度的顶点,我从研究生时期就持续保持对预训练大模型的研究与关注。
终于有一天,pretrain和RL再一次以Emergent Ability的方式涌现到大众眼前,基于A100的加持我也开展了大量的LLM工作。
这里对于LLM工作做简介以及demo做展示。
LLM 工作
- 175B参数量的基于GPT2的预训练
- 175B参数量的基于BLOOM的SFT有监督微调
- 7B参数量的基于BLOOM/BLOOMZ的SFT
- 6B参数量的chatGLM的SFT
- 6B参数量的LLAMA的SFT
- DEMO展示,结合工作中业务落地,形成数据飞轮收集数据
- 基于DEEPSPEED-CHAT的RLHF(ing:)
Chuan DEMO
因网络与资源敏感等限制,贴视频如下: