【でぃーぷらーにんぐ】

ディープラーニング とは?

💡 脳の神経回路を模倣した「多層学習」でAI革命を起こした
📌 このページのポイント
ディープラーニング(多層ニューラルネットワーク) 入力層 隠れ層1 隠れ層2 隠れ層3 出力層 "深い"=多層の隠れ層 従来の機械学習 (浅いネットワーク) 隠れ層: 1層のみ Deep: 隠れ層2層以上 自動で特徴を学習 大量データが必要
ディープラーニングの構造
ひよこ ひよこ

ディープラーニングが注目されたきっかけは?

ペンギン先生 ペンギン先生

2012年のImageNet画像認識コンペで、ジェフリー・ヒントンのチームがCNN(AlexNet)で圧倒的な精度を出したのがきっかけだよ。それまでの手法を大幅に上回り、「ディープラーニング革命」と呼ばれた。以降、画像認識音声認識自然言語処理と次々にブレークスルーが起きたんだ

ひよこ ひよこ

CNNとTransformerの違いは?

ペンギン先生 ペンギン先生

CNN畳み込みニューラルネットワーク)は画像の局所的な特徴を階層的に抽出するのが得意。Transformerは自己注意機構(Self-Attention)でデータの長距離の関係を捉えるのが得意。ChatGPTの基盤はTransformer。最近はVision Transformerのように画像処理にもTransformerが使われ始めているよ

ひよこ ひよこ

ディープラーニングの弱点は?

ペンギン先生 ペンギン先生

①大量のデータとGPU計算資源が必要(コストが高い)、②「なぜその判断をしたか」の説明が困難(ブラックボックス問題)、③過学習訓練データには強いが未知データに弱い)のリスク、④敵対的攻撃(わずかなノイズで誤認識させる)に脆弱。これらの課題を解決する研究が活発に進んでいるよ

ひよこ ひよこ

最新のトレンドは?

ペンギン先生 ペンギン先生

①LLM(大規模言語モデル)のスケーリングGPT-4、ClaudeGemini)、②マルチモーダルAI(テキスト+画像+音声の統合理解)、③ディフュージョンモデル(画像・動画生成)、④小型モデルの蒸留(大きなモデルの知識を小さなモデルに転移)。2024-2025年はLLMの実用化と効率化が最大のテーマだね

ペンギン
まとめ:ざっくりこれだけ覚えればOK!
「ディープラーニング」って出てきたら「多層ニューラルネットワークによる高度な学習技術」と思えればだいたいOK!
📖 おまけ:英語の意味
「Deep Learning」 = 深層学習
💬 Deep(深い)Learning(学習)。ニューラルネットワークの層が深い(多い)から「深層」だよ
← 用語集にもどる