岡留 剛/著 -- 共立出版 -- 2024.3 --

所蔵

所蔵は 1 件です。

所蔵館 所蔵場所 資料区分 請求記号 資料コード 所蔵状態 資料の利用
配架日 協力貸出 利用状況 返却予定日 資料取扱 予約数 付録注記 備考
中央 2F 一般図書 /007.1/6183/2024 7117816275 配架図 Digital BookShelf
2024/04/19 可能 利用可   1
Eメールによる郵送複写申込みは、「東京都在住」の登録利用者の方が対象です。

資料詳細 閉じる

ISBN 4-320-12575-9
ISBN13桁 978-4-320-12575-9
タイトル 深層学習生成AIの基礎
タイトルカナ シンソウ ガクシュウ セイセイ エーアイ ノ キソ
著者名 岡留 剛 /著
著者名典拠番号

110006346780000

出版地 東京
出版者 共立出版
出版者カナ キョウリツ シュッパン
出版年 2024.3
ページ数 9, 252p
大きさ 21cm
価格 ¥3000
内容紹介 生成AIの理解を目標とした、大学学部2年生後期~3年生むけの深層学習のテキスト。生成モデルの実現をささえる基盤技術と基盤アーキテクチャから、言語の生成と画像の生成、さまざまな学習の枠組みまでを解説する。
一般件名 深層学習 , 人工知能
一般件名カナ シンソウ ガクシュウ,ジンコウ チノウ
一般件名典拠番号

511990100000000 , 511271700000000

分類:都立NDC10版 007.13
資料情報1 『深層学習生成AIの基礎』 岡留 剛/著  共立出版 2024.3(所蔵館:中央  請求記号:/007.1/6183/2024  資料コード:7117816275)
URL https://catalog.library.metro.tokyo.lg.jp/winj/opac/switch-detail.do?lang=ja&bibid=1154336443

目次 閉じる

第1章 はじめに
  1.1 ニューラルネットワークの基礎
  1.2 ニューラルネットワークの行列表記
  1.3 深層学習の発展とその要因
  1.4 付録
第Ⅰ部 基盤
第2章 深層学習をささえる要素技術
  2.1 確率的勾配降下法の進化と深化
  2.2 勾配消失/発散に対する対応
  2.3 残差接続
  2.4 活性の正規化
  2.5 付録
第3章 RNN:recurrent neural network
  3.1 RNNのアーキテクチャと計算
  3.2 RNNの学習
第4章 単語埋めこみ
  4.1 単語のベクトル表現
  4.2 Word2Vec
  4.3 Word2Vecの学習
  4.4 埋めこみの取得
第5章 トランスフォーマー
  5.1 注意機構
  5.2 トランスフォーマー
  5.3 トランスフォーマーの適用例
第6章 強化学習
  6.1 問題設定
  6.2 Q学習とDQN
  6.3 方策勾配法とその発展形
第Ⅱ部 生成モデル
第7章 言語の生成
  7.1 言語モデル
  7.2 RNN言語モデル
  7.3 系列変換モデル
  7.4 大規模言語モデル
  7.5 言語生成モデルに向けて
  7.6 言語生成モデル
  7.7 付録
第8章 拡散モデル
  8.1 拡散モデルの概要
  8.2 マルコフ過程(マルコフ連鎖)
  8.3 拡散モデルの定式化
  8.4 拡散モデルの学習
  8.5 Stable diffusion:拡散モデルの実装
  8.6 付録
第9章 GAN:生成的敵対ネットワーク
  9.1 GANの基本
  9.2 GANの発展
第Ⅲ部 深層学習アラカルト
第10章 取りあつかい注意のデータ
  10.1 クラス間のデータ不均衡
  10.2 クラスラベル誤り
第11章 多様な学習の枠組み
  11.1 距離計量学習
  11.2 知識蒸留
  11.3 半教師あり学習
第12章 微分可能演算機構
  12.1 微分可能データ増強
  12.2 幾何学的変換機構
  12.3 付録