岡谷 貴之/著 -- 講談社 -- 2022.1 -- 改訂第2版

所蔵

所蔵は 1 件です。

所蔵館 所蔵場所 資料区分 請求記号 資料コード 所蔵状態 資料の利用
配架日 協力貸出 利用状況 返却予定日 資料取扱 予約数 付録注記 備考
中央 2F 一般図書 /007.1/5416/2022 7115151796 配架図 Digital BookShelf
2022/02/14 可能 利用可   1
Eメールによる郵送複写申込みは、「東京都在住」の登録利用者の方が対象です。

資料詳細 閉じる

ISBN 4-06-513332-3
ISBN13桁 978-4-06-513332-3
タイトル 深層学習
タイトルカナ シンソウ ガクシュウ
著者名 岡谷 貴之 /著
著者名典拠番号

110005898760000

並列タイトル Deep Learning
版表示 改訂第2版
出版地 東京
出版者 講談社
出版者カナ コウダンシャ
出版年 2022.1
ページ数 16, 366p
大きさ 21cm
シリーズ名 機械学習プロフェッショナルシリーズ
シリーズ名のルビ等 キカイ ガクシュウ プロフェッショナル シリーズ
シリーズの編者等 杉山 将/編
シリーズの編者等の典拠番号

110005343620000

価格 ¥3000
内容紹介 深層学習を俯瞰できるテキスト。ネットワークの基本構造から、学習の基礎となる確率的勾配降下法、誤差逆伝播法、異なるタイプのデータを扱うネットワーク、より発展的な学習方法、深層生成モデルまでを解説する。
書誌・年譜・年表 文献:p329~360
一般件名 深層学習-ndlsh-001253719
一般件名 深層学習
一般件名カナ シンソウ ガクシュウ
一般件名典拠番号

511990100000000

分類:都立NDC10版 007.13
資料情報1 『深層学習』(機械学習プロフェッショナルシリーズ)改訂第2版 岡谷 貴之/著  講談社 2022.1(所蔵館:中央  請求記号:/007.1/5416/2022  資料コード:7115151796)
URL https://catalog.library.metro.tokyo.lg.jp/winj/opac/switch-detail.do?lang=ja&bibid=1153933224

目次 閉じる

第1章 はじめに
  1.1 研究の歴史
  1.2 本書の構成
第2章 ネットワークの基本構造
  2.1 ユニットと活性化関数
  2.2 順伝播型ネットワーク
  2.3 学習の概要
  2.4 問題の定式化:出力層と損失関数の設計
第3章 確率的勾配降下法
  3.1 確率的勾配降下法(SGD)
  3.2 汎化性能と過剰適合
  3.3 正則化
  3.4 学習率の選定と制御
  3.5 SGDの改良
  3.6 層出力の正規化
  3.7 重みの初期化
  3.8 その他
第4章 誤差逆伝播法
  4.1 勾配計算の煩わしさ
  4.2 誤差逆伝播法
  4.3 自動微分
  4.4 勾配消失問題
  4.5 残差接続
第5章 畳み込みニューラルネットワーク
  5.1 単純型細胞と複雑型細胞
  5.2 畳み込み
  5.3 畳み込み層
  5.4 プーリング層
  5.5 畳み込み層の出力の正規化
  5.6 推論のためのCNNの構造
  5.7 入出力間の幾何学的関係
  5.8 畳み込み層の一般化
  5.9 アップサンプリングと畳み込み
第6章 系列データのためのネットワーク
  6.1 系列データ
  6.2 リカレントニューラルネットワーク
  6.3 ゲート機構
  6.4 自己回帰モデル
  6.5 1次元畳み込みネットワーク
  6.6 逆伝播の計算
第7章 集合・グラフのためのネットワークと注意機構
  7.1 集合データを扱うネットワーク
  7.2 注意機構
  7.3 トランスフォーマー
  7.4 グラフニューラルネットワーク
第8章 推論の信頼性
  8.1 推論の不確かさ
  8.2 不確かさの数理モデル
  8.3 不確かさの予測
  8.4 分布外入力の検出
  8.5 敵対的事例
  8.6 品質保証の試み
第9章 説明と可視化
  9.1 はじめに
  9.2 入力による出力の微分
  9.3 入力の遮蔽・挿入
  9.4 中間層出力の表示
  9.5 寄与度の分解
  9.6 寄与度の逆伝播
  9.7 可視化手法の評価
  9.8 影響関数
  9.9 学習内容の可視化
第10章 いろいろな学習方法
  10.1 距離計量学習
  10.2 事例集合(マルチインスタンス)学習
  10.3 クラスラベルの誤り
  10.4 クラス間不均衡
  10.5 継続・追加学習
  10.6 知識蒸留
  10.7 枝刈り
  10.8 計算の量子化
  10.9 ネットワーク構造探索(NAS)
第11章 データが少ない場合の学習
  11.1 はじめに
  11.2 データ拡張
  11.3 転移学習
  11.4 半教師あり学習
  11.5 自己教師学習
  11.6 マルチタスク学習
  11.7 ドメイン適応・汎化
  11.8 少数事例学習
  11.9 能動学習
第12章 生成モデル
  12.1 データの生成モデル
  12.2 自己符号化器
  12.3 変分自己符号化器(VAE)
  12.4 敵対的生成ネットワーク(GAN)
  12.5 正規化フロー
  12.6 ボルツマンマシン