GPT-Xを含む大規模言語モデルの基礎と応用および実装フレームワーク <オンラインセミナー>

~ Transformerから派生したモデル全体の相関関係(BERT、RoBERTa、GPT-2、GPT-3、T5、PaLM、Reformer、onformer、Deformer) 、GPT-XおよびChatGPTとプロンプトの利用 ~

・GPTを含むTransformer関連モデルと応用技術を俯瞰的に学び、システムの実装に応用するための講座
・手持ちのデータを大規模言語モデルに適用できることで注目されているLLaMAやLoRAなどの最新技術を修得し、AIシステム開発へ応用しよう!
・どのようなデータをどのぐらい学習として使うとどういうことができているのか、また新たに開発された利用可能な自然言語処理モデルで現在どのぐらいの処理ができているのか、デモを通して体験していただきます

オンラインセミナーの詳細はこちら:

・WEB会議システムの使い方がご不明の方は弊社でご説明いたしますのでお気軽にご相談ください。

講師の言葉

 近年、TransformerのDecoder部分で事前学習を適用したGPTおよびChatGPTが各言語で、自然な応答返したり、試験に解答したり、会話やプログラムを生成することが話題になり、自然言語処理研究者だけでなく、多くの実務に関係する人々の興味を集めています。本講義では、翻訳で利用されているTransformerを中心に、どのような応用法が展開されているかを俯瞰するとともに、その中心的な機構の解説と実装について具体的に説明します。さらに、Downloadして利用可能な言語モデルであるLLaMAが公開されてから、手持ちのデータを大規模言語モデルに適用できる道が開けるようになりました。その一つの方法がLoRAであり、GPUのメモリが限られている状況でも手持ちのデータで大規模言語モデルをfine-tuneできることから、応用の可能性がさらに広がりました。講義では、LinuxとPythonを利用したデモを行いますが、特に深い知識は必要ありません。この講義を通してGPTを含むTransformer関連のモデルの発展の理解を深めることで皆様がお持ちになる課題の解決の一助となることを願っています。

セミナー詳細

開催日時
  • 2023年12月25日(月) 10:30 ~ 17:30
開催場所 オンラインセミナー
カテゴリー オンラインセミナーソフト・データ・画像・デザイン
受講対象者 ・自然言語処理に興味がある方
・GPTの応用に興味のある方
・自然言語処理が必要になった技術者
・言語処理まわりの課題を既にお持ちになっていて、処理手法の選択肢を広げたい方
・Transformerの一部であるGPTやBERTを利用して言語処理モデルを利用したい方
・文書をベクトル化して深層学習に適用する手法を具体的に学びたい方
・システム、ソフト、データ解析ほか関連企業のエンジニアの方
予備知識 ・予備知識は特に仮定しませんが、深層学習に関連した具体的なプログラムをパソコン上で利用した経験があるとより具体的な部分の理解が深くなります
修得知識 ・自然言語処理におけるGPTおよびChatGPTの機構、および応用の範囲を俯瞰的に理解
・Transformerを中心としたモデルの発展の歴史の理解
・OpenAIで作成されているGPTを利用した言語処理の複数の手法(例えばプログラミングコードの補完やクラス分類)についての実装方法
・PT-NEOXやBERTなどを用いて文をベクトル化する手法、およびどのような拡張可能性があるかを理解
プログラム

1.GPTを含むTransformerによる自然言語処理
  (1).Transformerとは 
    a.全体のネットワーク構造 (GPTはDecoder側)
    b.翻訳モデルを意識した入力と出力
    c.深層学習におけるベクトル化を利用したEncoderとDecoderモデル
    d.従来法からの数多くの改良点 (LSTMより学習が早く長距離依存関係が捉えられる)
    e.文内の言葉同士の関係を取り出す機構
    f.実用例として翻訳システム
  (2).Transformerから派生したモデルの活躍
    a.全体の相関関係(BERT、RoBERTa、GPT-2、GPT-3、T5、PaLM、Reformer、
    onformer、Deformer)
    b.BERTについて (Encoder部分の利用)
    c.BERTの利点 (文をトークンに分解して文脈を考慮してベクトル化できる)
    d.BERTの事前学習 (Masked Language Modelingにより言語の知識を大規模テキストデータ
    みから獲得することができる)
    e.BERTの有効性: (教師あり学習のタスクで精度向上)
    f.GPT-Xについて (Decoder部分の利用)
    g.GPT-Xの利点 (文生成を利用してクラス分類や検索、会話など数後の事例を学習しただ
    で幅広いタスクで問題を解く)
    h.GPT-Xの特徴 (文を生成する際に1つ1つトークンを出力するauto-regressive)
    i.GPT-Xの期待される機能 (言葉だけでなく記号やプログラム扱える幅広いタスクでの利用)
    k.PaLM について
    l.PaLM の機能
    m.T5について
  (3).まとめ
  (4).質疑応答

2.ChatGPTを中心とした生成系言語モデルの爆発的展開
  (1).ChatGPTについて
    a.ChatGPTの概要
    b.ChatGPTの仕組み (ネットワーク構造)
    c.ChatGPTの学習 (データからの学習とトレーナーによる強化学習)
    d.ChatGPTの使用例
  (2).ChatGPTおよびGPTを利用したプロンプト利用の発展
    a.Chain-of-Thouhts (CoT) 補足説明を入れて回答の精度を高める
    b.プログラムを利用して回答の精度を高める
    c.ReACT (LangChain) 検索エンジンを利用して最新の情報を取り出す
  (3).LLaMAなどダウンロードして使える言語モデル
    a.LLaMA: 公開された言語モデルの利用
    b.AlpacaやVicuna など他の利用可能モデル
    c.LoRA: 言語モデルに自分のデータを学習させる
  (4).まとめ
  (5).質疑応答

3.Transformerの構造の理解
  (1).全体構成 (翻訳タスクを主眼に置いた構造)
    a.Encoder部分とDecoder部分の機能と役割
    b.翻訳の際の処理の流れ
  (2).トークン化 (Tokenization)
    a.WordPiece、Sentencepiece、MeCab Piece
    b.データ入力の際のマスク作成などの構造化
  (3).位置情報の獲得 (Position encoding)
    a.周期を利用した位置情報
    b.回転行列とattentionでの相対化
  (4).文内の要素同士の関係抽出 (Attention機構の利用)
    a.Attention機構による共起情報の獲得機能
    b.Multi-head attention機構
  (5).深層学習における構造 (Residual network、Layer normalization)
    a.EncoderとDecoderの基本構成要素
    b.DecoderにおけるAttention機構
    c.Residual network、Layer normalizationの機能
  (6).質疑応答

4.GPT-XおよびChatGPTの利用:Decoderを利用した新たな言語処理 (コード例を含む)
  (1).Decoder部分の利用
    a.GPT-Xを用いたプロンプトによる質問応答 (Few-shot learning)
    b.GPT-Xを利用したAPIを通したfine-tuning (事例による学習)
    c.GPT-Xを利用したLoRAによるfine-tuning
  (2).GPT-Xにおけるプロンプトの利用
    a.GPT-Xの実行環境の構築(Linux)
    b.GPT-2およびGPT-3 (LLaMA)を用いた質問応答の実装    
    c.GPT-3のOpenAIのAPIを利用したfine-tuningの実装
    d.日本語のGPT (GPT-NEOX他)に対する日本語質問応答
  (3).GPT-X(またはLLaMA他)オープンソースの言語モデルに対するLoRA適用によるオリジナルタスクの実行
    a.LoRAのしくみと利点
    b.GPT-NEOX他に対するLoRA学習によるオリジナルデータ適用の実装例
    c.GPT-NEOX他に対するLoRA学習によるローカルタスク(クラス分類)の実装例
  (4).まとめ: Decoderを利用した新たなローカルタスクの適用
  (5).質疑応答

5.BERTを利用した自然言語処理
  (1).Encoder部分を利用した文ベクトル化モデル
    a.BERTの利用で精度が向上した例
    b.GPTと相違点
  (2).BERTのネットワーク構造 (GPT-2と比較)
  (3).Masked Language Model (MLM)による学習
    a.繰り返しトークンを隠しながら学習
    b.大規模データを利用した事前学習の注意点
  (4).BERTの利用
    a.BERTは基本的にFine-tuningによる正解データを使った学習が必須
    b.Fine-tuningを成功させるポイント
  (5).利用可能なBERTの学習済みモデルと実行例
    a.英語の学習済みモデル
    b.日本語の学習済みモデル
    c.BERTからXLNetまでの発展
  (6).まとめ (BERT の利点と欠点)
  (7).質疑応答

6.全体のまとめ

7.質疑応答

キーワード GPT Transformer 自然言語処理 翻訳モデル BERT RoBERTa T5 PaLM Reformer onformer Deformer  ChatGPT 生成系言語モデル プロンプト LLaMA  LoRA トークン化 GPT-X GPT-NEOX  XLNet

タグ AI・機械学習コンテンツソフト管理データ解析ITサービス
受講料 一般 (1名):49,500円(税込)
同時複数申込の場合(1名):44,000円(税込)
会場
オンラインセミナー
本セミナーは、Web会議システムを使用したオンラインセミナーとして開催します。
こちらのセミナーは受付を終了しました。
次回開催のお知らせや、類似セミナーに関する情報を希望される方は、以下よりお問合せ下さい。
contact us contact us
各種お問い合わせは、お電話でも受け付けております。
03-5322-5888

営業時間 月~金:9:00~17:00 / 定休日:土日・祝日