#1 - 2024-2-8 15:51
neneko (_____的里界名义)
上期回顾:开坑!用夜羊社洛丽塔系列的脚本训练语言大模型:数据集开源

6B 的模型语言能力还比较弱,驾驭不了剧情,不过好在夜羊社作品里也没太多剧情

另外,按理说,夜羊社的脚本包含诗和睡觉,但是对于 6B 来说诗还是有点难,所以目前嘛,只擅长睡觉(逃

好,上图

(图片用 yuzutalk 制作的,用爱丽丝的头像只是因为她是机娘,邦邦咔邦!

“日常”



“非常的日常”(因为赶时间所以是速通版



虽然没有特别针对叙述描写训练,但算是能写一点吧





你先别急,使用技巧我只讲这一个

对于一些比较难开头的对话,可以为模型手动填充一些对话,就是修改对方的对话为自己期待的回应。比如在上面例子中标有“(手动填充)”的那些内容都是我给加上去的。把大型语言模型想象成一个学东西很快的小孩子,不要用说教的方式,而是要身体力行地示范。
另外,毕竟训练内容都是夜羊社的脚本,所以只要你的说话方式够夜羊,就能得到较好的回应。
还有一件事,重复多生成几次,总能抽到大保底。


快端上来罢

注意:GGUF 模型(相当于一种有损压缩)对生成质量有可见的负面影响,具体效果对比见我会发在回帖里

请问你是?

- (全平台,推荐)……你有没有那种,呃,Google Colab,我想白嫖 GPU……
  - 有!→ vLLM Colab
- 我是 Windows 用户,我有N卡或A卡 / 我是 macOS M系列芯片用户
  - → LM-Studio (GGUF 模型)
- 我用 iPhone/iPad,内存有 6GB 或以上
  - → LLMFarm (GGUF 模型)
- 统统闪开,我知道自己要做什么
  - → 为勇士准备的生肉



vLLM Colab

在 Google Colab 里加载模型作为服务端,然后用本地的客户端连接

服务端

戳这个 》》》https://colab.research.google.co ... FFY9qYL?usp=sharing

执行安装代码,再执行运行代码。在看见像
https://|xxxxxx|.trycloudflare.com
这样的输出的时候就代表初始化完成,开始运行了。

等待的时候,去下载客户端吧。

客户端

Chatbox,从其官网下载:https://chatboxai.app (或者你有自己用着顺手的 OpenAI 客户端都可以,设置方法大同小异)

设置:

- AI 模型提供方:选 OpenAI API
- OpenAI API 密钥:留空不填
- API 域名:填你在服务端看到的那个
https://|xxxxxx|.trycloudflare.com

- 模型&Token
  - 模型:选 自定义模型
  - 自定义模型名:填 nenekochan/Yi-6B-yoruno

保存!

在聊天界面,把那个默认的 system prompt(齿轮图标的那条信息)删了。然后,嘿嘿,可以了哟。

Colab 有每天的 GPU 用量限制,不用的时候,记得先停止运行(点一下那个转动的播放图标)并右上角菜单内断开连接并删除运行时,再关标签页。


LM Studio

软件,从其官网下载:https://lmstudio.ai

网上能找到些教程,我这里就简单讲讲。

模型下载

如果你能前往城墙之外,可以在软件内下载模型,点左边栏🔍图标,搜“Yi-6B-yoruno-GGUF”。

按照自己设备的显存大小,选择一个最大的下载:

- .q8_0.gguf (≥8G显存)
- .q5_k_m.gguf (≥6G显存)
  - OneDrive 源:https://1drv.ms/u/s!AmDfq64kq3L9e5tLZm-PzRhfMcE?e=vRfcJE

如果你无法前往城墙之外,可以手动从我的OneDrive源下载
https://1drv.ms/u/s!AmDfq64kq3L9e5tLZm-PzRhfMcE?e=vRfcJE
软件内点左边栏📁图标,点“Reveal in ...”按钮,在这个存模型的目录里,新建“nenekochan”文件夹,再在里面新建“Yi-6B-yoruno-GGUF”文件夹,把下好的 GGUF 文件放在最内层。

开始对话

点左边栏💬图标,然后右边栏顶端 Preset 下拉选项选 Import Preset From file...,加载我的这个 JSON 配置文件:
https://1drv.ms/u/s!AmDfq64kq3L9fOnKvB5BkoAf0xU?e=0KomPy

顶端横幅下拉选项,选择模型来加载。其余的应该比较直观了。

就酱。

LM Studio 还是相对好用,bug 比较少,而且可以编辑对话历史。


LLMFarm

这个方案也就凑合能用,推荐先看看上面的 vLLM Colab

App:https://apps.apple.com/ru/app/llm-farm/id6461209867

模型按照自己设备的显存大小,选择一个最大的下载:
https://huggingface.co/nenekochan/Yi-6B-yoruno-GGUF/tree/main
- .q8_0.gguf (≥8G显存)
- .q5_k_m.gguf (≥6G显存)
  - OneDrive 源:https://1drv.ms/u/s!AmDfq64kq3L9e5tLZm-PzRhfMcE?e=vRfcJE

设置:

- Prompt format
  - Format:
{{prompt}}</s>

  - Reverse prompt:
</s>

- Prediction options:这几个开关都是加速的,机器要是支持的话可以打开

保存!

因为不能编辑对话,得用奇技淫巧做手动填充,比如说,对话可以这么开始:


<s>我摸了摸茉子的头。
我:“嘿嘿,想……”</s>茉子:“想什么?”</s>我:“茉子很可爱,想跟茉子……”  




为勇士准备的生肉(误

- 嗯,这里是融合后的完整 f16 模型:https://huggingface.co/nenekochan/Yi-6B-yoruno
  这是“无损”的模型,能复现我贴出来的对话实例。
  Linux/Windows WSL + N卡/A卡 推理推荐使用 vLLM(我在上面 Colab 中用的就是 vLLM),速度极快且可转 OpenAI API
- 这里是融合前的 PEFT LoRA:https://huggingface.co/nenekochan/Yi-6B-yoruno-peft
- 如果对训练细节感兴趣,可以看看README



(兴奋地搓手手

6B 的模型终究上限很低,而我这业余的微调训练大家就看个乐吧。模型总是在发展更替,唯数据集长存。我总觉得,大型语言模型这个领域只要躺着等几个月就会生长出新的惊喜,所以接下来就是继续的等待。

最后,希望有好心人帮忙转发贴吧和Q群(我都没有账号)、帮忙转存模型和数据(我没有魔搭账号),注明来源即可。
最后的最后,还是希望在不久的将来见到有人用这个数据集训练出更好的模型。
#2 - 2024-2-9 02:06
#3 - 2024-2-9 02:59
(言葉よ風となれ 届いて彼方まで)
强,太强了(bgm37)
一定帮你转发
#3-1 - 2024-2-9 08:15
neneko
感谢!(bgm42)
#4 - 2024-2-9 09:24
有几个问题想咨询一下:训练的指令数据集是单纯的单轮对话还是多轮对话?
2:基座模型有没有考虑非transformer模型的,毕竟长文本transformer那一系太吃资源了
#4-1 - 2024-2-9 10:34
neneko
1. 多轮对话,一章分成1到3个对话串
2. 指隔壁的 RWKV 么,我了解不多,需要学习一下。选择 Llama 系的主要是为了方便部署。
我把重要的细节都列在README里了,可以去看看。
#4-2 - 2024-2-10 12:29
Tsumugi Sara
neneko 说: 1. 多轮对话,一章分成1到3个对话串
2. 指隔壁的 RWKV 么,我了解不多,需要学习一下。选择 Llama 系的主要是为了方便部署。
我把重要的细节都列在README里了,可以去看看。
隔壁rwkv有专门为了rp任务微调过的,那个最大的好处就是在多轮多话的情况下对于显存较为友好,感觉可以看看
#5 - 2024-2-9 09:24
训练方式是使用peft还是全参ft?
#5-1 - 2024-2-9 10:35
neneko
peft,未来会试试全参
#6 - 2024-2-9 09:26
(没有鱼香茄子我不吃)
mark
#7 - 2024-2-9 11:24
(_____的里界名义)
附录 1:GGUF 量化对模型生成质量的影响
这是 q5_k_m 的 GGUF 的生成内容,可以对比一下主楼中量化前的生成内容。叙述变少了,并且性格稍有变化。



在我接着往后的更深入的(意味深)测试中我发现,夜羊社脚本的对话里有相当多的少女萌叫,当模型失智时,就会退化成哈啊嗯唔呜这种本能般的回应。
#8 - 2024-2-9 16:09
(被时间捉住)
体验了一会,模型失智吐语气词确实是个比较明显的问题(bgm38),不过睡觉部分整体还算挺满意的hh(她好主动
#8-1 - 2024-2-9 16:22
空诗
还有个细节问题,我是用 vLLM Colab 方式加载的,使用一段时间后客户端就无法连接模型对话了,具体体现为模型无回复,api 域名无法连接,提示“unexpectedly closed the connection”,且多次在 Colab 重新启动模型均出现相同问题,在科学上网工具正常运行的情况下可能是什么原因造成的(bgm38)
#8-2 - 2024-2-9 17:04
neneko
空诗 说: 还有个细节问题,我是用 vLLM Colab 方式加载的,使用一段时间后客户端就无法连接模型对话了,具体体现为模型无回复,api 域名无法连接,提示“unexpectedly closed the c...
感谢反馈!
重新启动是指中断 Colab 上最后一个正在运行的代码块,然后再点一次运行是吧(这是正确重启操作)?每次重启后会有新的链接,新的链接可以用吗?
我自己没有遇到过无法连接,倒是偶尔会出现客户端卡住,就是卡在等待生成内容一直出不来。这时候我就重启拿一条新的链接就可以了。
另外,不知道你生成到多少 token?理论上来说 token 累积到一定数量就会塞爆内存。不过刚刚压力测试了一下,好像超过 4000 tokens 还有内存。
编辑:修改了 Colab 代码里我怀疑可能会有问题的一处地方,似乎有所改善?
#8-3 - 2024-2-9 19:45
空诗
neneko 说: 感谢反馈!
重新启动是指中断 Colab 上最后一个正在运行的代码块,然后再点一次运行是吧(这是正确重启操作)?每次重启后会有新的链接,新的链接可以用吗?
我自己没有遇到过无法连接,倒是偶尔会出现客户...
1. 重启操作应该没有问题,新的链接当然可以用~
2. 其实我遇到的问题就是客户端卡住,稍微研究了下发现此时域名貌似也打不开了,积累到大概 2、3k token 这样吧
3. 改日再测试下,感谢回复和解答 =w=
#9 - 2024-2-9 20:21
(この世のすべては、あなたを追いつめる为にある)
牛逼 帮你转发了
#9-1 - 2024-2-9 21:49
neneko
啊,谢谢!(bgm61)
#10 - 2024-2-10 11:32
(_____的里界名义)
附录 2:跟萝莉谈人生
#11 - 2024-2-10 12:33
(この世のすべては、あなたを追いつめる为にある)
#11-1 - 2024-2-10 13:31
neneko
#12 - 2024-2-14 16:16
(Eden* They were only two,on the planet)
mark
#13 - 2024-2-14 16:30