いま3080Ti使っとるにゃがもう4090買ってええか?
■ このスレッドは過去ログ倉庫に格納されています
>>3
stable diffusionとチャットAIのローカル実行やりたいんや
metaがLLaMAってAI流出させてたのを落としたんやが動かすのにVRAM15GBとか必要らしくてファッ!?ってなったで >>4
stable diffusionはLoRAさまさまやね
VRAMバカ食いのdreamboothは悲惨やった >>5
それ個人向けで動かすようなもんじゃないやろ AI用途なら要求vram青天井やしA6000adaかH100買うにゃで >>7
せやな
でもOPENAIに課金するのも負けた気がするし従量課金じゃパケ死が怖すぎるからやっぱりローカルで動かしたいんや >>8
1枚で60万とか100万超えはさすがに無理ですよー無理無理ィ! >>11
ラデのVRAM盛々お得路線は素晴らしいから早くcuda乗っけてクレメンス まさか3060 12GBが上位のはずの3070等を上回るとはな
3070がVRAMをケチッたのが原因なんだけど >>14
ほんまやね
AI民こぞって3060の12GBに飛びついたから4000番代売れとらんとかありそうやわ
ワイも変なところでケチらんで3090買えばよかったわ ■ このスレッドは過去ログ倉庫に格納されています