用AI来创造无限涩图,营养快线都救不了你!

能不能扣衣服? :troll:

笔记本确实有点惨,上docker又贵性能又不够…从某种意义上魔改卡也就台式玩玩。这种情况也许云服务器是最经济的选择。

1 个赞

nsfw不能开,然后自己算的图主机方想看都能看到也不安全

2 个赞

替活在我的硬盘里的已经退役了的日本老师们感谢楼主

今天听说DirectML版本可以利用到内存的shared GPU memory部分,不过自己没试过,而且directML版本据说同分辨率用显存比torch更多。

如果显存真的那么紧张的话,也许值得一试。

装了个扩展 multidiffusion-upscaler-for-automatic1111 ,一定程度上解决了显存oom问题。

我好像完全不用自己抠图,直接通过lz的链接跑韩国论坛看就行了 :troll:

1 个赞

本帖该进技术区 :clown_face:

2 个赞

今天刷小戏精刷到一个用stable diffusion 生产的图搞了17k follower的人,大家好像都不知道。可悲的是我尽然知道这是chillout mix,我是不是花太多时间在ai 图上面 :wulian:

1 个赞

其实你私人用的话无所谓,不外传就行。条款上主要是防止有人开黄网。你算点数据,算完关机,主机商没那么闲的蛋疼去偷看你的数据。
(排除国内某些云厂商,那是你开了几个端口他都知道

垃圾佬怎么连张亮机卡都没有?太鸡儿丢人了
开个虚拟机,显卡直通,ssh进去用,理论上也可以

已经有了www

主要是懒,本来可以直接核显亮,但是嫌核显打游戏掉帧,懒得换来换去了。后来就是一块MI25专卡专用了。

之前用我的二手970炼丹贼慢,现在用了免费的Google Colab快到飞起

搜索关键词stable defusion webui colab