竹内 一郎/著 -- 講談社 -- 2015.8 --

所蔵

所蔵は 1 件です。

所蔵館 所蔵場所 資料区分 請求記号 資料コード 所蔵状態 資料の利用
配架日 協力貸出 利用状況 返却予定日 資料取扱 予約数 付録注記 備考
中央 書庫 一般図書 /007.1/5433/2015 7106152883 Digital BookShelf
2015/09/08 可能 利用可   0

Eメールによる郵送複写申込みは、「東京都在住」の登録利用者の方が対象です。

    • 統合検索
      都内図書館の所蔵を
      横断検索します。
      類似資料 AI Shelf
      この資料に類似した資料を
      AIが紹介します。

資料詳細 閉じる

ISBN 4-06-152906-9
ISBN13桁 978-4-06-152906-9
タイトル サポートベクトルマシン
タイトルカナ サポート ベクトル マシン
著者名 竹内 一郎 /著, 烏山 昌幸 /著
著者名典拠番号

110006853350000 , 110006853380000

並列タイトル Support Vector Machine
出版地 東京
出版者 講談社
出版者カナ コウダンシャ
出版年 2015.8
ページ数 13, 175p
大きさ 21cm
シリーズ名 機械学習プロフェッショナルシリーズ
シリーズ名のルビ等 キカイ ガクシュウ プロフェッショナル シリーズ
シリーズの編者等 杉山 将/編
シリーズの編者等の典拠番号

110005343620000

価格 ¥2800
内容紹介 サポートベクトルマシン(SVM)をデータ解析ツールとして利用したい情報技術者にとって最低限必要な事項を整理して提供。SVMが他のデータ解析手法とどのような点で異なるか、共通しているかに焦点をあてて解説する。
書誌・年譜・年表 文献:p171~173
一般件名 パターン認識-ndlsh-00569072
一般件名カナ パターンニンシキ-00569072
一般件名 パターン認識
一般件名カナ パターン ニンシキ
一般件名典拠番号

510336800000000

分類:都立NDC10版 007.13
資料情報1 『サポートベクトルマシン』(機械学習プロフェッショナルシリーズ) 竹内 一郎/著, 烏山 昌幸/著  講談社 2015.8(所蔵館:中央  請求記号:/007.1/5433/2015  資料コード:7106152883)
URL https://catalog.library.metro.tokyo.lg.jp/winj/opac/switch-detail.do?lang=ja&bibid=1152679452

目次 閉じる

第1章 2クラス分類
  1.1 はじめに
  1.2 線形SV分類
  1.3 双対表現
  1.4 カーネルによる一般化
  1.5 計算上の特徴
  1.6 SV分類の性質
第2章 多クラス分類
  2.1 はじめに
  2.2 1対他方式
  2.3 1対1方式
  2.4 誤り訂正出力符号
  2.5 多クラス問題の同時定式化
第3章 回帰分析
  3.1 回帰問題
  3.2 最小二乗法と最小絶対誤差法による回帰
  3.3 SV回帰の定式化
  3.4 SV回帰による非線形モデリング
  3.5 SV回帰の性質
  3.6 分位点回帰分析
第4章 教師なし学習のためのサポートベクトルマシン
  4.1 教師なし学習のタスク
  4.2 1クラスSVM
第5章 カーネル関数
  5.1 カーネル関数の性質
  5.2 いろいろなカーネル関数
第6章 最適化概論:最適性条件と汎用的解法
  6.1 はじめに
  6.2 最適性条件
  6.3 汎用的解法
第7章 分割法
  7.1 分割法
  7.2 カーネルSVMのためのSMOアルゴリズム
  7.3 線形SVMのためのDCDMアルゴリズム
第8章 モデル選択と正則化パス追跡
  8.1 モデル選択と交差検証法
  8.2 正則化パス追跡アルゴリズム
第9章 逐次学習
  9.1 はじめに
  9.2 ウォームスタート
  9.3 アクティブセットに基づく方法
第10章 サポートベクトルマシンのソフトウェアと実装
  10.1 統計解析環境Rを用いたSVM
  10.2 LIBSVMソフトウェアの実装
  10.3 LIBSVMのアルゴリズムの流れ
第11章 構造化サポートベクトルマシン
  11.1 はじめに
  11.2 結合特徴ベクトル空間における最大マージン
  11.3 最適化法
  11.4 損失関数の導入
  11.5 応用例:ランキング学習
第12章 弱ラベル学習のためのサポートベクトルマシン
  12.1 はじめに
  12.2 半教師あり学習のためのSVM
  12.3 マルチインスタンス学習のためのSVM