• 本

大規模言語モデル入門 2

生成型LLMの実装と評価

出版社名 技術評論社
出版年月 2024年9月
ISBNコード 978-4-297-14393-0
4-297-14393-3
税込価格 3,300円
頁数・縦 220P 23cm
シリーズ名 大規模言語モデル入門

商品内容

目次

第10章 性能評価(モデルの性能評価とは
評価指標を用いた自動評価
LLMを用いた自動評価)
第11章 指示チューニング(指示チューニングとは
指示チューニングの実装
指示チューニングしたモデルの評価)
第12章 選好チューニング(選好チューニングとは
選好チューニングの実装
選好チューニングの評価)
第13章 RAG(RAGとは
基本的なRAGのシステムの実装
RAG向けにLLMをチューニングする
RAGの性能評価)
第14章 分散並列学習(分散並列学習とは
さまざまな分散並列学習手法
LLMの分散並列学習)

著者紹介

山田 育矢 (ヤマダ イクヤ)  
株式会社Studio Ousiaチーフサイエンティスト・名古屋大学客員教授・理化学研究所AIP客員研究員2007年にStudio Ousiaを創業し、自然言語処理の技術開発に従事。2016年3月に慶應義塾大学大学院政策・メディア研究科博士後期課程を修了し、博士(学術)を取得。大規模言語モデルLUKEの開発者
鈴木 正敏 (スズキ マサトシ)  
株式会社Studio Ousiaソフトウェアエンジニア・東北大学データ駆動科学・AI教育研究センター学術研究員。2021年3月に東北大学大学院情報科学研究科博士後期課程を修了し、博士(情報科学)を取得。博士課程では質問応答の研究に従事。日本語質問応答のコンペティション「AI王」の実行委員。東北大学が公開している日本語BERTの開発者
西川 荘介 (ニシカワ ソウスケ)  
LINEヤフー株式会社自然言語処理エンジニア。2022年3月に東京大学大学院情報理工学研究科修士課程を修了。現在は情報検索分野での言語処理に取り組む
藤井 一喜 (フジイ カズキ)  
東京工業大学情報工学系修士1年・Turing株式会社嘱託研究員。学士、修士課程では大規模モデルの分散並列学習に従事。llm‐up、Swallow Projectにて日本語大規模言語モデルの事前学習を担当
山田 康輔 (ヤマダ コウスケ)  
株式会社サイバーエージェントAI Labリサーチサイエンティスト・名古屋大学大学院情報学研究科協力研究員。2024年3月名古屋大学情報学研究科博士後期課程を修了し、博士(情報学)を取得。2024年4月より現職。博士後期課程では自然言語処理、特にフレーム意味論に関する研究に従事(本データはこの書籍が刊行された当時に掲載されていたものです)