2023年5月

这两天在折腾AI,一个是目前比较火爆的SD,一个是内容生成的一些模型,比如ChatGLM等等。
心得就是部署越来越简单了。
这里记下两个非常方便简单的工具:GPT4All、秋叶SD Web UI
下载地址分别是:
1、https://github.com/nomic-ai/gpt4all
这个工具类似steam,它把一些常见的AIGC(内容生成)模型都放到了一个界面里,允许用户自由下载安装,省去配置步骤,比较方便。
2、https://github.com/djstla/novelai-webui-aki-v3
这是一个SD的启动器,用户无需配置命令,直接运行启动器就可以完成部署。启动器里面有关于SD的一些配置,还有插件下载界面,可惜的是我这里点击下载之后,下载不下来;好在还可以直接点击复制链接按钮然后自己去浏览器下载,之后就是点击安装按钮进行安装,所以总体还是比全自己部署要方便的多。
另外就是极力推荐一下ChatGLM-6B这个模型。虽然这个没有启动器,但使用也是非常简单,只需要下载下来然后按照说明把require里面的模块都用pip安装了,基本就可以开始运行了。推荐它的原因是因为这个模型对系统要求很低,我nvdia geforce 2070 ti的显卡都能带的动(前提是按照说明修改一下代码,把显存使用量降到6G),不好的一点就是编程能力太差,只能日常语音对个话。
还有,推荐两个东西,一个是azure的深度学习平台,可以免费使用一年,虽然现在还不会操作训练机器人,但也已经申请下了,希望能尽快开始训练自己的模型。第二是腾讯出的一个SD学习课程,地址是https://cloud.tencent.com/developer/article/2264456
还有一个:https://guide.novelai.dev/guide/install/sd-webui
建议去看一下,对比着看吧。
还有一个SD的模型库忘了说了:https://rentry.org/sdmodels#
值得一用的是:2.Stable Diffusion v1.4 [4af45990] [7460a6fa] [06c50424]

此外,如果用的是N卡,在使用上述工具之前,一定要自己安装好cuda环境。这个操作是比较复杂的,首先你得看自己的显卡支持哪个cuda,命令是nvidia-smi,右上角就写着cuda版本;然后去nvidia官网下载这个版本的cuda。但是在安装的时候,也经常会出现无法安装的情况,一定要仔细注意安装的整个过程,记录下来到底安装哪个模块的时候出的问题。在我的2070显卡上,出问题的模块就是执行到Nsight Visual Studio Edition安装的时候突然就失败了,然后就回过头来把Nsight VSE选项给取消掉,再安装就ok了。目前还没发现有什么不良影响,所有框架正常使用。

目前自己使用较多的仍然是aigc功能,主要是用的poe和chatGPT,但chatGPT发送和回复内容对长度要求限制很高,经常会出现不能发送完整的问题或者回复经常中断的现象,更不要说chatGPT无论是哪个版本都会瞎编乱造胡说八道,所以现在正在逐步转向POE平台。在文生图方面,我用的比较多的是Midjourney,需要下载或者在线在discord里面用,像聊天似的,总体来说还是比较方便,而且生成效果也确实好于本地部署的SD,但这一切都是由于我电脑配置太低导致的。如果能换成台式机,多装几块显卡、哪怕是纯计算卡,也可能让本地部署的SD强于Midjourney。

好了,下一步的计划就是利用azure尽快掌握AI训练过程,训练出几个自己的模型,方便自己的工作。

对了,还有语音生成、虚拟人物生成这些还没有搞,等以后有时间有心情了再说吧。目前最要紧的就是模型的训练。