Stable DiffusionのLoRA学習って4090でも1.2it/sしか出ないのが普通なんか?
■ このスレッドは過去ログ倉庫に格納されています
>>2
ワイもそう思ってたのにイテレーション速度全然でなくて悲しくなったで
3060 12GBとかで学習回しとる人とかどうやっとるんや…… 1時間10円くらいでAI向けのグラボクラウド借りたほうが安いで
ハイグレードなら4090より性能高いし
このへん
https://www.gpueater.com/
https://soroban.highreso.jp/ >>4
60万のA6000 48GBやと3090×2相当やし6000 adaの100万コースとかさすがに無理無理カタツムリや…… 電気代まで考えたら、自宅でAI生成するメリット皆無や
クラウドGPU借りたほうが楽だし、安いし、壊れない >>5
H100 80GBとかレンタルできちゃうならロマンやね…… google colab使うのはひよっこ?
初心者動画みながら触ってるとこ >>7
クラウドはファイル操作が苦手ンゴね
デカいモデルなんか転送すると帯域狭くて結局時間かかるし >>10
gzで高圧縮で固めろ
自動化スクリプト組んどけば楽や >>9
別にローカルが絶対偉いとかないから適材適所でええと思うで
ただ学習素材とかのエロ絵なんかは気をつけたほうがええらしいで >>11
ひゃーそこまでやるんか
圧縮にも時間かかるやろに やっと終わったで
バッチ数をギリギリまで増やして30分やからまあ現実的な数字やろか
https://i.imgur.com/UUzvbTf.png。 >>15
イテレーション秒で1層を通過する時間やっけな >>17
A10はもっとらんからわからんけど
ebayで3万で買ったGTX10XXと同じPascal世代のTesla P40 24GBは3080Tiの3分の1くらいやったで
業務用とはいえ3世代も離れたらみんなそうなっちゃうんやな 知らんけど30分なら別に滅茶苦茶長くないんちゃうか
3Dプリンターみたいにうん十時間とかかかるんかと思った >>19
せやな
そうなると3060やと3Dプリンタみたいに寝る前に学習仕込んで朝起きたら完成とかの感じなんやな >>20
バッチ減らしたほうがいいんけ?
減らすとVRAM遊んじゃうのが気になって上げたほうがいいのかとばかり思っとったで >>22
DFLしか触ったことないけどバッチサイズ下げれば1イテレーション当たりの時間は短縮できるはず
でもloss値下がるのに必要な学習回数増えるから結局動かせるならバッチサイズ下げるメリットは特に無かったわすまん >>24
サンガツ謝らなくてええんやで
正直ワイもわからんことばっかりで雰囲気で触っとるからやっぱりどこかでちゃんと学びたいンゴね 今更lola学習する必要ある?
配布されてるlolaがクソ多いんやしそれらを集めるだけで一苦労やのに 立ち絵素材と背面差分追加してを30枚から90枚に増やしたらお下げリボンまで再現できるようになったで
こっからまた地獄のガチャで学習素材を集める時間や……
https://i.imgur.com/uCGTk7X.jpg
https://i.imgur.com/0hOckLj.jpg >>27
エポックは繰り返し学習数やなかったっけ
んでイテレーションが実際に下層から上層に向けてネットワークを伝播する時間やったきがするで >>28
civitaiとかredditとか探しに行ってもボイロloraを作ってくれてるジャップがおらんのや…
今じゃLoRA だのLycolisだのLoHAだのごちゃごちゃやし >>31
たしかにボイロ系はまだ投稿されてへんな
まあそのうち誰かがやってくれそうな気がするけど人気キャラやし >>32
ようやっとる
ワイは転がってた1070でもまわしてみたけどCUDA Out of memory連発で悲しくなったで >>33
ワイもそれでまってたけど一向にでなくて痺れを切らしちゃった感じや
やっぱり海外でも人気があるやつやないと入手性わるわるなのはしゃーないんやろな やっぱり従量課金でレン鯖借りる方が勉強目的なら安いんやろな >>30
せやな
調べたけどバッチ1個分で1イテレーション、イテレーション回して訓練データ全部使い切って1エポックみたいや 機械学習やるならライブラリ何がええんや?
chainer使っとるやつおる? >>37
はぇ~サンガツ!
1バッチ=1イテレーションは初めて知ったで
これはまだまだ勉強せなあかんな……🥺 >>35
ついでにボイスボックスも頼むでドスケベな春日部つむぎちゃんを生成しまくりたい
頼むわ応援してるで >>39
ワイはtensorFlowで一杯一杯やわ
注文してたオライリーの「ディープラーニング実践ガイド」が届いたから読んどったら「googleによるgoogleのためのTensorFlow」だの「TensorFlowなんて使いこなせるくらい有能ならGoogleに雇って貰える(それだけクソむずい)」とか書かれてて乾いた笑いが出たで >>41
おうがんばるで
立ち絵で公開されとるやつやと素材集めやすくてワンチャンありそうやわ >>44
やっとワイら庶民でも触れるくらいまで落ちてきたけdl
やっぱりまだどこ見て難しい世界やね
ちなみにディープラーニング実践ガイドはSDのサンプリングに組み込まれてるkerasでの犬猫判別機の概論もあったしなかなかおすすめの技術書やで
ただ翻訳通ってるから内容が古めなのがちょっと歯がゆいンゴね ■ このスレッドは過去ログ倉庫に格納されています