ディスカッション (10件)
ディープラーニングの裏側で何が起きているのか。これまでブラックボックスと呼ばれてきたその挙動に、ついに科学的な裏付けを与える理論が登場しようとしています。経験則で語られてきたAI開発が、論理的な学問へと進化する転換点について議論しましょう。
論文の途中までしか読んでないけど、すごく引き込まれるし考えさせられる内容だな。内容が濃くて理解するのに時間がかかりそうだけど、すべてが一つにまとめられているのを見るのは圧巻。
わあ、これはクールだな。単に「形状」を推測するだけじゃなくてさ。
ずっと腑に落ちないことがあるんだけど、ニューラルネットワークの概念は何十年も前からあったのに、ほとんど注目されてなかったよね。それが2017年に『Attention Is All You Need』が出てから、ディープラーニングが爆発的に急成長した。GPUのおかげで加速したのはわかるけど、Transformerの概念自体は、もっと遅いハードウェアでも昔から使えたはずじゃない?
潜在空間における一般相対性理論みたいなものが必要なんじゃないかな。
ディープラーニングがこれほど高レベルで機能しているのは、他のどんな手法よりも「より多くのデータから学習し続けられる」からだよね。でも、今みたいに「馬鹿げた量のデータ」がなければ、そのアーキテクチャはほとんど無意味だったはず。モデルとデータの両方の側面を説明しない限り、「なぜ推論モデルが推論できるのか」みたいな科学的理論を構築する確固たる根拠にはならないと思う。モデルはアーキテクチャと学習データの両方の産物だからね。
怖いのは、人間や他の動物が膨大な入力データから特定のことを学習できる理由を説明するのと同じくらい、今は絶望的だってこと。経験的な理解は深まっていくだろうけど、もう根本的なコンピュータサイエンスには戻れない気がする。だって、根本的な複雑さの源はアーキテクチャじゃなくてギガクラスのデータセットなんだから。
我々は複雑さが根本的な規則性を隠しており、ディープラーニングには実際に科学的な理論が存在すると主張する
そうなったらすごいけど、個人的には懐疑的だな。
まあ、『ディープラーニングの科学的理論は存在する』なんてタイトルは、旗を立てているというか、「ほら言った通りだろ!」という学術版みたいなもんだよね。引用を稼ぐための仕掛けだよ。
この分野で働いている身からすると、人気のある研究トピックがうまくまとめられていると思う。一番有益で素晴らしいのは最後に書かれている未解決問題のリストで、この分野の主要な研究の方向性をほぼ網羅しているよ。
コメント欄で懐疑的な意見が多いのは、こうした研究の成果が一般にどれだけ浸透していないかを物語っていて、すごく悲しいね。最適なネットワーク設計を導き出すための数学的メカニズムはまだ少ないけれど(理論を突き詰めるより経験的に試すほうが速いから、後付けで解釈することのほうが多い)、『なぜニューラルネットワークは他のモデルよりうまくいくのか?』という問いへの答えは、かなり確実なところに近づいている。問題は、人々がその問いにはあまり興味を持ってこなかったことで、だからこそこの分野は次に何を問うべきかを考えなきゃいけないんだ。
これは期待が持てるね。タイトルはちょっと大げさかな。『ディープラーニングが実際に何をしているのかを理解するための攻め口』くらいの方が正確だけど、目を引かないか。
これが進めば、ディープラーニングシステムがいつ適当なことを言ったりハルシネーション(幻覚)を起こしたりしているかを測定する方法がわかるようになるかもしれない。そうなれば見返りはめちゃくちゃ大きいよ。それができるようになるまで、ディープラーニングシステムはデタラメを出力しても問題が少ないタスクにしか使えないからね。