自然言語処理モデルと実装プログラミング:Transformer、BERT、GPT-3、PaLMとその応用 ~デモ付~ <オンラインセミナー>

~ Transformerの構造の理解、GPT‐3の利用方法、PaLM構築における学習の工夫、BERTの実装上のポイント ~

・脅威的な性能を持つPaLMなどの最新モデルを先取りし、高性能なシステム開発へ応用するための講座

・人間の能力を超え始めた最新の大規模自然言語処理モデルを修得し、効率的に言語処理システムの開発へ応用しよう!

オンラインセミナーの詳細はこちら:

・WEB会議システムの使い方がご不明の方は弊社でご説明いたしますのでお気軽にご相談ください。

講師の言葉

 近年、Transformerを利用した派生モデルが数多く出現して、自然言語処理を中心に従来モデルの精度を超えるだけでなく、ほとんど学習データがない場合でもある程度、質問に回答できる新たな処理方法が提案されています。
 本講義では、翻訳で利用されているTransformerを中心に、どのような応用法が展開されているかを俯瞰するとともに、その中心的な機構についてどのような役割を果たしているかを説明します。これにより、Transformerだけでなく、共通の機構をもつ、GPT-2やGPT-3、BERTなどの理解を深めるとともに、具体的な結果を見ていただくことでどの程度の処理ができるのかを体験していただきます。
 講義では、LinuxとPythonを利用したデモを行いますが、特に深い知識は必要ありません。GPT-3ではブラウザベースの環境で利用していただく予定です。この講義を通してTransformer関連のモデルの発展の理解を深めることで皆様がお持ちになる課題の解決の一助となることを願っています。

セミナー詳細

開催日時
  • 2022年12月14日(水) 10:30 ~ 17:30
開催場所 オンラインセミナー
カテゴリー オンラインセミナーソフト・データ・画像・デザイン
受講対象者 ・自然言語処理に興味がある方
・Transformerに興味のある方
・自然言語処理が必要になった技術者の方
・言語処理まわりの課題を既にお持ちになっていて、処理手法の選択肢を広げたい方
・Transformerの一部であるGPT‐3やBERTを利用して言語処理モデルを利用したい方
・文書をベクトル化して深層学習に適用する手法を具体的に学びたい方
・システム、ソフト、データ解析ほか関連部門の方
予備知識 ・深層学習に関連した具体的なプログラムを利用した経験があるとより具体的な部分の理解が深くなります
修得知識 ・自然言語処理においてtransformerを利用したモデルの相関関係が理解できます。OpenAIで作成されているGPT‐3を利用した言語処理の複数の手法(例えばプログラミングコードの補完やクラス分類)についての実装方法が習得できます。またBERTなど文をベクトル化する手法について理解し、どのような拡張可能性があるかを理解することができます。
プログラム

1.自然言語処理とTransformerの派生モデル
  (1).Transformerとは 
    a.全体のネットワーク構造
    b.翻訳モデルを意識した入力と出力
    c.深層学習におけるベクトル化を利用したEncoderとDecoderモデル
    d.従来法からの数多くの改良点(LSTMより学習が早く長距離依存関係が捉えられる)
    e.文内の言葉同士の関係を取り出す機構
    f.実用例として翻訳システム
  (2).Transformerから派生したモデルの活躍
    a.全体の相関関係(BERT、RoBERTa、GPT‐2、GPT‐3、T5、PaLM、他)
    b.BERTについて(Encoder部分の利用)
    c.BERTの利点(文をトークンに分解して文脈を考慮してベクトル化できる)
    d.BERTの事前学習
     (Masked Language Modelingにより言語の知識を大規模テキストデータのみから獲得することができる)
    e.BERTの有効性:(教師あり学習のタスクで精度向上)
    f.GPT‐3について(Decoder部分の利用)
    g.GPT‐3の利点
     (文生成を利用してクラス分類や検索、会話など1度事前学習しただけで、すべてのタスクを少ない事例で解く枠組を提供)
    h.GPT‐3の特徴(文を生成する際に1つ1つ出力auto‐regressive)
    i.GPT‐3の期待される機能 (新たなタスクに対する回答を出力(Few‐shot learning)
  (3).まとめ
  (4).質疑応答

2.Transformerの構造の理解
  (1).全体構成(翻訳タスクを主眼に置いた構造)
    a.Encoder部分とDecoder部分の機能と役割
    b.翻訳の際の処理の流れ
  (2).トークン化(Tokenization)
    a.WordPiece、Sentencepiece、MeCab Piece
    b.データ入力の際のマスク作成などの構造化
  (3).位置情報の獲得(Position encoding)
    a.周期を利用した位置情報
    b.回転行列とattentionでの相対化
  (4).文内の要素同士の関係抽出(Attention機構の利用)
    a.Attention機構による共起情報の獲得機能
    b.Multi‐head attention機構
  (5).深層学習における構造(Residual network、Layer normalization)
    a.EncoderとDecoderの基本構成要素
    b.DecoderにおけるAttention機構
    c.Residual network、Layer normalizationの機能
  (6).質疑応答

3.GPT‐2、GPT‐3からPaLMの活用法とプログラミング
  (1).Decoder部分の利用
    a.言語を生成する機構(Autoregressiveモデル)
    b.言語生成機構を利用した少数事例による学習(Few‐shot learning)
  (2).GPT-2におけるネットワーク構造
    a.ネットワーク構造と各要素の説明
    b.言語生成のモデルとの対応(GPT‐2の論文から)
  (3).GPT‐2およびGPT‐3の学習方法
  (4).GPT‐2実装と実行例
    a.GPT‐2実行環境の構築
    b.英語および日本語を利用したデモ    
  (5).GPT‐3の利用方法と実行例
    a.GPT‐3の全体の説明
    b.用意されている各モデルとタスクの説明
    c.Playgroundの利用
     (Completionを利用した言語生成のデモ、またCodexを利用した言葉の指示によるプログラム作成)
    d.Pythonでの環境の構築(ローカルのLinuxマシンからアクセスするための設定)
    e.Pythonを利用したローカルLinuxマシンからの利用例
  (6).GPT‐3以降のDecoderモデル:PaLM他
    a.PaLMの特徴
    b.PaLM構築における学習の工夫
    c.PaLMによる新たな結果
  (7).まとめ:Decoderベースの手法における利点と欠点
    a.Decoderモデルにおけるプロンプト入力の考察
    b.GPT‐2、GPT‐3における利用制限など他
  (8).質疑応答

4.BERTを利用した自然言語処理
  (1).Encoder部分を利用した文ベクトル化モデル
    a.BERTの利用で精度が向上した例
    b.GPTと相違点
  (2).BERTのネットワーク構造(GPT‐2と比較)
  (3).Masked Language Model(MLM)による学習
    a.繰り返しトークンを隠しながら学習
    b.大規模データを利用した事前学習の注意点
  (4).BERTの利用
    a.BERTは基本的にFine‐tuningによる正解データを使った学習が必須
    b.Fine‐tuningを成功させるポイント
  (5).利用可能なBERTの学習済みモデルと実行例
    a.英語の学習済みモデル
    b.日本語の学習済みモデル
    c.実装上のポイント(TensorflowとPytorchにおける違い)
  (6).まとめ(BERTの利点と欠点)
  (7).質疑応答

5.全体のまとめ

6.質疑応答                  

                  

キーワード 自然言語処理 翻訳モデル LSTM  BERT RoBERTa GPT‐2 GPT‐3 T5 PaLM トークン化 関係抽出 共起情報 Decoderモデル MLM
タグ AI・機械学習コンテンツソフト管理ソフト教育データ解析ITサービス
受講料 一般 (1名):49,500円(税込)
同時複数申込の場合(1名):44,000円(税込)
会場
オンラインセミナー
本セミナーは、Web会議システムを使用したオンラインセミナーとして開催します。
こちらのセミナーは受付を終了しました。
次回開催のお知らせや、類似セミナーに関する情報を希望される方は、以下よりお問合せ下さい。
contact us contact us
各種お問い合わせは、お電話でも受け付けております。
03-5322-5888

営業時間 月~金:9:00~17:00 / 定休日:土日・祝日