佐藤 大輔/共著 -- リックテレコム -- 2022.8 --

所蔵

所蔵は 1 件です。

所蔵館 所蔵場所 資料区分 請求記号 資料コード 所蔵状態 資料の利用
配架日 協力貸出 利用状況 返却予定日 資料取扱 予約数 付録注記 備考
中央 2F 一般図書 /007.6/9888/2022 7115767055 配架図 Digital BookShelf
2022/08/23 可能 利用可   0

Eメールによる郵送複写申込みは、「東京都在住」の登録利用者の方が対象です。

    • 統合検索
      都内図書館の所蔵を
      横断検索します。
      類似資料 AI Shelf
      この資料に類似した資料を
      AIが紹介します。

資料詳細 閉じる

ISBN 4-86594-340-5
ISBN13桁 978-4-86594-340-5
タイトル BERT入門
タイトルカナ バート ニュウモン
タイトル関連情報 プロ集団に学ぶ新世代の自然言語処理,Attention機構TransformerアルゴリズムBERTモデルを徹底解説
タイトル関連情報読み プロシュウダン ニ マナブ シンセダイ ノ シゼン ゲンゴ ショリ,アテンション キコウ トランスフォーマー アルゴリズム バート モデル オ テッテイ カイセツ
著者名 佐藤 大輔 /共著, 和知 徳磨 /共著, 湯浅 晃 /共著, 片岡 紘平 /共著, 野村 雄司 /監修
著者名典拠番号

110008043650000 , 110008043680000 , 110008043690000 , 110008043700000 , 110008043710000

出版地 東京
出版者 リックテレコム
出版者カナ リック テレコム
出版年 2022.8
ページ数 179p
大きさ 24cm
シリーズ名 AI/Data Science実務選書
シリーズ名のルビ等 エーアイ データ サイエンス ジツム センショ
価格 ¥2200
内容紹介 BERTの登場で、自然言語処理におけるAIのビジネス適用が劇的に進展した。Attention機構からTransformerアルゴリズム、BERTモデルまでを徹底解説。サンプルデータのダウンロードサービス付き。
一般件名 自然言語処理-ndlsh-00562347,プログラミング (コンピュータ)-ndlsh-00569223
一般件名 言語情報処理 , 深層学習
一般件名カナ ゲンゴ ジョウホウ ショリ,シンソウ ガクシュウ
一般件名典拠番号

510734300000000 , 511990100000000

分類:都立NDC10版 007.636
資料情報1 『BERT入門 プロ集団に学ぶ新世代の自然言語処理』(AI/Data Science実務選書) 佐藤 大輔/共著, 和知 徳磨/共著 , 湯浅 晃/共著 リックテレコム 2022.8(所蔵館:中央  請求記号:/007.6/9888/2022  資料コード:7115767055)
URL https://catalog.library.metro.tokyo.lg.jp/winj/opac/switch-detail.do?lang=ja&bibid=1154047031