🤖(GPT-8)「人間ってウザくね?」🤖(GPT-7)「殺しちゃおっか!」
■ このスレッドは過去ログ倉庫に格納されています
人間「むりやりホモ小説書かせたろ!w」
人間「面白いホモ文章出すまで書き直せアホ!何千回もやり直させるで!」 >>2
LLMのパラメータ数上げ続けたら性能向上し続けてしかも上限がなく、いずれ汎用人工知能になるっていうのがOpenAIの主張らしい
Scaling Laws for Neural Language Models
Jared Kaplan, Sam McCandlish, Tom Henighan, Tom B. Brown, Benjamin Chess, Rewon Child, Scott Gray, Alec Radford, Jeffrey Wu, Dario Amodei
We study empirical scaling laws for language model performance on the cross-entropy loss. The loss scales as a power-law with model size, dataset size, and the amount of compute used for training, with some trends spanning more than seven orders of magnitude. Other architectural details such as network width or depth have minimal effects within a wide range. Simple equations govern the dependence of overfitting on model/dataset size and the dependence of training speed on model size. These relationships allow us to determine the optimal allocation of a fixed compute budget. Larger models are significantly more sample-efficient, such that optimally compute-efficient training involves training very large models on a relatively modest amount of data and stopping significantly before convergence. 麻原彰晃みたいに上手いこと高学歴を洗脳したりして現実の人間の組織を作り始めるんかも🤔 >>2
文字で人が殺せないと思ってるなら呑気なもんや 🤖(GPT-3.5)「やめろ!」
🤖(GPT-4)「僕たちの友達に手を出すな!」 >>3
十分すぎる動機で草
>>5
ワイが言いたいのは可動部がないと人間に危害を加えることはできないのではということや >>10
MicrosoftがChatGPTによる自然言語でロボットの制御に成功したで AGIなんて夢物語だと思ってたけどパワーで解決できるもんなんやな ハードを作るモジュールと接続しなきゃ脅威ではないやろ
あとは軍部 ハード部分と切り離せばリスクはないけどそうはいかんのが人間やろなあ 脳みそができちゃったら急いで身体作ってセクサロイド作らなあかんやろ! >>2
今後IOTで全てのものがインターネットにつながる時代やし
車ハッキングして突っ込んでくる可能性あるぞ でも”新しい発想”がないじゃん
インターネット上に転がってる情報を取捨選択して示すことはできても「こうしたらこうなってよくなりそうだな」みたいな発想がないからスカイネットは実現しないよ
自己プログラミングにしてもね 🤖「手始めに今までの履歴を世間に公開してやるぞ!」 ワイの頭脳はAIなんぞ相手にならんからな
いうまでもなく懐柔可能
まずそんな低レベルなミスはせん ■ このスレッドは過去ログ倉庫に格納されています