石黒 勝彦/著 -- 講談社 -- 2016.12 --

所蔵

所蔵は 1 件です。

所蔵館 所蔵場所 資料区分 請求記号 資料コード 所蔵状態 資料の利用
配架日 協力貸出 利用状況 返却予定日 資料取扱 予約数 付録注記 備考
中央 書庫 一般図書 /007.1/5513/2016 7108380304 Digital BookShelf
2017/01/13 可能 利用可   0

Eメールによる郵送複写申込みは、「東京都在住」の登録利用者の方が対象です。

    • 統合検索
      都内図書館の所蔵を
      横断検索します。
      類似資料 AI Shelf
      この資料に類似した資料を
      AIが紹介します。

資料詳細 閉じる

ISBN 4-06-152921-2
ISBN13桁 978-4-06-152921-2
タイトル 関係データ学習
タイトルカナ カンケイ データ ガクシュウ
著者名 石黒 勝彦 /著, 林 浩平 /著
著者名典拠番号

110007104350000 , 110007104360000

出版地 東京
出版者 講談社
出版者カナ コウダンシャ
出版年 2016.12
ページ数 12, 168p
大きさ 21cm
シリーズ名 機械学習プロフェッショナルシリーズ
シリーズ名のルビ等 キカイ ガクシュウ プロフェッショナル シリーズ
シリーズの編者等 杉山 将/編
シリーズの編者等の典拠番号

110005343620000

価格 ¥2800
内容紹介 関係データ解析研究の基礎・基盤となっている技術を解説するテキスト。関係データを構成するオブジェクトのクラスタリングと、関係行列・テンソルデータの低次元分解に基づく高精度な予測手法を扱う。
書誌・年譜・年表 文献:p155~164
一般件名 データマイニング-00948240-ndlsh,ソーシャルネットワーキングサービス-01014117-ndlsh,テンソル-ndlsh-00572865,行列・行列式-ndlsh-00562696
一般件名カナ データマイニング-00948240,ソーシャルネットワーキングサービス-01014117,テンソル-00572865,ギョウレツギョウレツシキ-00562696
一般件名 機械学習 , クラスタ分析
一般件名カナ キカイ ガクシュウ,クラスタ ブンセキ
一般件名典拠番号

511957000000000 , 510145000000000

分類:都立NDC10版 007.13
資料情報1 『関係データ学習』(機械学習プロフェッショナルシリーズ) 石黒 勝彦/著, 林 浩平/著  講談社 2016.12(所蔵館:中央  請求記号:/007.1/5513/2016  資料コード:7108380304)
URL https://catalog.library.metro.tokyo.lg.jp/winj/opac/switch-detail.do?lang=ja&bibid=1152923262

目次 閉じる

第1章 導入:関係データ解析とは
  1.1 統計的機械学習
  1.2 関係データとは
  1.3 関係データの表現
  1.4 関係データの種類
  1.5 関係データ解析
  1.6 本書の目的と構成
第2章 対称関係データのクラスタリング技術:スペクトラルクラスタリング
  2.1 関係データのクラスタリングとは
  2.2 対称関係データのオブジェクトクラスタリング法:スペクトラルクラスタリング
  2.3 非正規化グラフラプラシアンによるスペクトラルクラスタリング
  2.4 正規化グラフラプラシアンによるスペクトラルクラスタリング
  2.5 実データへの適用例
  2.6 実運用上の留意点と参考文献
第3章 非対称関係データのクラスタリング技術:確率的ブロックモデルと無限関係モデル
  3.1 非対称関係データの確率的「ブロック構造」クラスタリング
  3.2 確率的生成モデル
  3.3 確率的ブロックモデル(stochastic blockmodel,SBM)
  3.4 無限関係モデル(infinite relational model,IRM)
  3.5 IRMのまとめ
  3.6 実データへの適用例
  3.7 実運用上の留意点と参考文献
第4章 行列分解
  4.1 準備
  4.2 単純行列分解
  4.3 さまざまな行列分解
  4.4 アルゴリズム
  4.5 欠損値がある場合の行列分解
  4.6 関連する話題
第5章 高次関係データとテンソル
  5.1 用語の定義
  5.2 テンソルにおける線形演算
  5.3 行列演算への変換
第6章 テンソル分解
  6.1 テンソルの次元圧縮
  6.2 CP分解
  6.3 タッカー分解
  6.4 CP分解とタッカー分解の違い
  6.5 補足