ディープラーニングの分野では、特定のモデルのランキングに関するニュースをよく目にします。ニューラルネットワークアルゴリズムタスクの主なブレークスルーは、最初にデータセットに依存し、次にモデル構造に依存します。
画像分野の飛躍的進歩である ImageNet データセットは不可欠です。これは、目的関数の情報を記録するため、データセットの重要性です。 しかし、前のセクションから、データセットに欠陥があり、目的関数の情報を完全に記録することができず、その一部が失われることがわかりました。データセットの品質は、目的関数情報の保持率にあります。
トレーニングフェーズのタスクは、データセット(データセット関数 )の情報を使用して、目的関数 を復元することです。さまざまな制限により、目的関数を近似する関数 のみを取得します。
優れたモデルは、目的関数に近い対応する関数形式を持っています。これにより、データセットの欠陥をより適切に補正し、より適切な結果を得ることができます。
前のセクションの例を引用すると、データセットには 2 つのポイントがあり、このデータセットの情報保持率は非常に低くなっています。
データセット
その関数形式についてさまざまな仮定をします。
直線形式
3放物線形
のパラメータを調整することで、無数の放物線を取得でき、それらすべてがデータセット関数 を完全にシミュレートできます。
他にも多くの機能形式があり、機能形式自体は無限大です。他の関数形式でも、データセット関数 を完全にシミュレートできます。
直線形式
3放物線形
直線形式
25放物線形
データポイントの増加に伴い、関数形式は直線に近づいていますが、それでも無限の可能性があります。
目的関数の形での情報はデータから取得できず、無限の可能性があります。
データセット内の情報が不十分です。他の場所から追加情報を取得し、それを使用してニューラルネットワークの構造設計をガイドし、情報の不足を補う必要があります。
さまざまな深層学習タスクでは、優れたモデルは高度に特殊化された構造を使用します。お気に入り:
多くの特殊な構造は、特定の目的関数の処理プロセスを参照して設計されています。たとえば、CNN は視神経の組織構造をシミュレートします。 目的関数の具体的な形式は不明ですが、目的関数の処理プロセスをシミュレートすることで、多くの場合、その情報の一部を取得し、より良い結果を得ることができます。
ニューラルネットワークの構造はアルゴリズムの骨格であり、アルゴリズムの究極の可能性を直接決定します。スケルトンがうまく設計されていないと、どのようにトレーニングしても、最終的には不十分になります。
12不適切な構造
100適切な構造
ニューラルネットワークの構造は、トレーニングでは取得できず、通常は人工的な設計が必要です。
アルゴリズムによるアーキテクチャ検索もあります。つまり、さまざまな異なるアーキテクチャを試し、最終的なトレーニング効果に応じて最適なアーキテクチャを選択します。これは、膨大な計算能力を必要とし、ごく少数の機関にのみ適しています。強力な財源を持っています。
優れたニューラルネットワーク構造を人為的に設計するには、次のものが必要です。