資料詳細

岡谷 貴之/著 -- 講談社 -- 2015.4 -- 007.13

  • 総合評価
    5段階評価の0.0
    (0)
  

所蔵

所蔵は 1 件です。予約は 0 件です。

所蔵館 所蔵場所 請求記号 資料コード 資料区分 帯出区分 状態
中央 参書庫 K/007.1/おか/ヤ 180280809- 一般書 可能 利用可

館別所蔵

館名 所蔵数 貸出中数 貸出可能数
中央 1 0 1

資料詳細

タイトル 深層学習
シリーズ 機械学習プロフェッショナルシリーズ
著者名 岡谷 貴之 /著  
出版者 講談社
出版年 2015.4
ページ数等 10,165p
大きさ 21cm
分類(9版) 007.13  
分類(10版) 007.13  
内容紹介 多層のニューラルネットワークを用いた機械学習の方法論、深層学習(ディープラーニング)の基本的な事項をカバー。SGD、自己符号化器、CNN、RNN、ボルツマンマシンなど、盛りだくさんの内容を体系的に解説する。
著者紹介 東京大学大学院工学系研究科計数工学専攻博士課程修了。東北大学大学院情報科学研究科教授。 
内容注記 文献:p157~163
テーマ 深層学習  
ISBN 4-06-152902-1 国立国会図書館 カーリル GoogleBooks WebcatPlus
本体価格 ¥2800
特定資料種別 図書
URL https://www.library.city.hiroshima.jp/winj/opac/switch-detail.do?bibid=1103707838

内容一覧

タイトル 著者名 ページ
第1章 はじめに
1.1 研究の歴史
1.2 本書の構成
第2章 順伝播型ネットワーク
2.1 ユニットの出力
2.2 活性化関数
2.3 多層ネットワーク
2.4 出力層の設計と誤差関数
第3章 確率的勾配降下法
3.1 勾配降下法
3.2 確率的勾配降下法
3.3 「ミニバッチ」の利用
3.4 汎化性能と過適合
3.5 過適合の緩和
3.6 学習のトリック
第4章 誤差逆伝播法
4.1 勾配計算の難しさ
4.2 2層ネットワークでの計算
4.3 多層ネットワークへの一般化
4.4 勾配降下法の完全アルゴリズム
4.5 勾配消失問題
第5章 自己符号化器
5.1 概要
5.2 ネットワークの設計
5.3 自己符号化器の働き
5.4 スパース正則化
5.5 データの白色化
5.6 ディープネットの事前学習
5.7 その他の自己符号化器
第6章 畳込みニューラルネット
6.1 単純型細胞と複雑型細胞
6.2 全体の構造
6.3 畳込み
6.4 畳込み層
6.5 プーリング層
6.6 正規化層
6.7 勾配の計算
6.8 実例:物体カテゴリ認識
第7章 再帰型ニューラルネット
7.1 系列データの分類
7.2 RNNの構造
7.3 順伝播計算
7.4 逆伝播計算
7.5 長・短期記憶(LSTM)
7.6 入出力間で系列長が異なる場合
第8章 ボルツマンマシン
8.1 データの生成モデル
8.2 ボルツマンマシン
8.3 ギブスサンプリング
8.4 隠れ変数を持つボルツマンマシン
8.5 制約ボルツマンマシン(RBM)
8.6 RBMの学習
8.7 その他のユニット
8.8 ディープビリーフネットワーク
8.9 ディープボルツマンマシン
8.10 性能比較