LoRA小结 前言:PEFT的诞生 传统的预训练-下游任务微调的范式,是对预训练模型所有参数进行微调,即全量微调。之前基于Bert、GPT1的下游微调任务都是这么干的。因为当时的预训练模型参数量比较少,所以速度并没有那么慢。…
|
40
|
|
2674 字
|
11 分钟
GPT3与ChatGPT有什么不同?——RLHF技术小结 1.前言 在2022年11月30日,ChatGPT横空出世。ChatGPT和GPT看起来都是GPT,为什么ChatGPT可以“Chat”? 首先从官方寻找答案: 可…
|
90
|
|
4173 字
|
18 分钟