今のAIはブラックボックスやからヤヴァイって風潮あるやん…?
■ このスレッドは過去ログ倉庫に格納されています
ディープニューラルネットが複雑なパラメータからなる高度な合成関数やからやけど、
普通にそれすらもニューラルネットでブラックボックスを解明出来るんちゃうか? 例えば「ニューラルネット」をインプットとして、アウトプットを「インプットのニューラルネットをごく少数の数学の関数からなるアルゴリズムで近似したもの」として、
インプットとアウトプットが近くなるように学習すれば 例えば「手書き数字を分類するニューラルネット」をインプットとして、アウトプットが「数字の角度とか面積などの幾何学量ででどの数字か当てるアルゴリズム」
みたいな感じにすればブラックボックス問題解決できるやん つまりニューラルネットすらもニューラルネットで解明すればええやん
人間が人間のことを研究するみたいなもんで >>5
今のAIってのは基本的な構造は全部「すごい複雑な合成関数」で近似する仕組みなんや
例えば「手書きの数字画像からなんの数かを当てるAI」
みたいなのがあるとするやろ? この場合、このAIは
インプットが「手書きの数字画像」で
アウトプットが「数(正確にはその数である確率)」という「関数」なんや
ここまでええか? >>8
ちゃんと文章読んでその感想ならマジモンのアホやぞ >>9
いや分かってほしい
とりあえず「関数」は分かるか? >>10
アホやないで
AIがプロンプトに応じて学習モデルから吐き出すロジックはブラックボックスやけどそれを同じようにAI使えば計算できるんちゃうか?って話やろ? >>12
「同じように」ってのが雑やな
ザックリいうなら
「AI」をインプット、「そのAIの解釈」をアウトプットとしたニューラルを学習すればええやん
ってこと なんJ民に関数などというプログラミングの基礎を学ばせるのは至難の業やぞイッチ… 「AIの解釈」とは
「自然言語とごく少数の数学関数で表現されたアルゴリズム」のことや
これが元のニューラルネットと近くなるように学習しまくれば教師データすらいらん >>13
例えば
「与えられた数字に1を足す」
ってのも関数や
2 → 3、
5 → 6
みたいな対応のことを関数って言うんや
ここまでええか? >>15
やっぱニューラル言いたいだけやんな
AIの出力をそのままインプットしたところで同じような学習モデルができるだけやろ
しかも元のモデルから出力される全てのパターンを学習するなんて現実的なじゃないからその理屈なら完全に解析することは無理やろ >>19
マジで何も理解してないやん
「AIの出力」がインプットじゃないで??
「AI(を構成するニューラルネット)」そのものが丸々インプットなんやで?? >>19
アウトプットを>>17みたいに制限すれば
同じようなモデルが出ることはないやん ガチで意味わからん
そうやって構築したニューラルネット()も人間から見たらブラックボックスやん
しかも元のものと近似した出力なんてどんな数をどうやって用意するん? >>23
「AI」を入力として、「そのAIの解釈」を出力とするニューラルネットがブラックボックスでもなーんも問題無いやん
元々の目的はインプットのAIのブラックボックス問題を解消するためなんやから >>23
LLMでランダムに「自然言語+少数の数学関数からなるアルゴリズム」を生成すればええだけや
あとは入力の「AI」と出力の「解釈化されたAI」が(例えばクロスエントロピーとかで)近くなるように学習すればいいだけや >>25
で、どうやって近似した出力を用意して集めて学習させるん? >>26
くっそ小規模ちゃう?
しかもランダムならやってること大して変わらんし
あとAIをベースに学習モデルを作ると世代毎にどんどん破綻していくんやで しかも解析、比較するためのニューラルネットの構築方法がLLMとか学習元が既にブラックボックスじゃねえか @onewnoarstory←この親父ゴリラ()母親()マントヒヒの土人一家()き〇すぎて草^^
たまにみすぼらしい土人飯を藁だかなんかで作られた屋根の下で食べてる図upしてたけどゴ〇土人なのになんか食べてて草^^つかこの土人の次男()とかよく口開けてるけど発達かなんかなん?
まあゴリラとマントヒヒの交配で生まれた訳だしなんでもないけどw
長女()の出来損ない間草^^ >>30
なぜ初期値がランダムなだけやのに「やってることが大して変わらん」になるんや?
>>31
まーー💢 まーだ理解しとらんやん
別にLLM自体がブラックボックスでもなーんも問題無い >>31
例えば「数字画像から正解の数を与えるニューラルネット」という入力から
「この画像は形ががこれこれこうなら1、うんぬんかんぬんなら2、…」っていう「自然言語からなるアルゴリズム」を出力出来れば
LLMがブラックボックスだろうとどうでもよくて、
もとの「数字画像から正解の数を与えるニューラルネット」のブラックボックス問題は解決出来たことになるやん >>33
アルゴリズムはアルゴリズムであってそのアルゴリズムを使って出力した値が解析したいAIの出力と近似してるからってその解釈したいAIが使ってるアルゴリズムも近似とは言えないんだけど
解析してるAIが少しでも解釈が狂って学習が進めば元のAIと全く違うことにもなり得るんだけど 数学の問題で答えは一緒でもそこまでの計算過程が複数ある場合にワイの答えと一緒やからB君の計算過程もワイも一緒やなとはならんやろ 素人質問ですまんがただ生成するのとそれを解明しようとするのってコストの差がかなり大きいんやないの? ■ このスレッドは過去ログ倉庫に格納されています