Transfomerの基礎と自然言語処理技術(GPT-2やGPT-3、BERT)への応用 ~デモ付~ <オンラインセミナー>
~ Transfomerrから派生した自然言語処理モデル、Transfomerの構造、GPT-2、GPT-3、BERTを利用した自然言語処理への応用 ~
・従来モデルを超える高精度なTransfomerモデルを先取りし、システム開発に応用するための講座
・Transfomerだけでなく、共通の機構をもつ、GPT-2やGPT-3、BERTなども理解でき、LinuxとPythonを利用した拡張性の高い実装法まで修得できる特別セミナー!
オンラインセミナーの詳細はこちら:
・WEB会議システムの使い方がご不明の方は弊社でご説明いたしますのでお気軽にご相談ください。
講師の言葉
近年、Transfomerを利用した派生モデルが数多く出現して、自然言語処理を中心に従来モデルの精度を超えるだけでなく、ほとんど学習データがない場合でもある程度、質問に回答できる新たな処理方法が提案されています。
本講義では、翻訳で利用されているTransfomerを中心に、どのような応用法が展開されているかを俯瞰するとともに、その中心的な機構についてどのような役割を果たしているかを説明します。これにより、Transfomerだけでなく、共通の機構をもつ、GPT-2やGPT-3、BERTなどの理解を深めるとともに、具体的な結果を見ていただくことでどの程度の処理ができるのかを体験していただきます。
講義では、LinuxとPythonを利用したデモを行いますが、特に深い知識は必要ありません。GPT-3ではブラウザベースの環境で利用していただく予定です。この講義を通してTransfomer関連のモデルの発展の理解を深めることで皆様がお持ちになる課題の解決の一助となることを願っています。
セミナー詳細
開催日時 |
- 2022年05月16日(月) 10:30 ~ 17:30
|
開催場所 |
オンラインセミナー |
カテゴリー |
オンラインセミナー、ソフト・データ・画像・デザイン |
受講対象者 |
・自然言語処理に興味がある方
・Transfomerに興味のある方
・自然言語処理が必要になった技術者の方
・言語処理まわりの課題を既にお持ちになっていて、処理手法の選択肢を広げたい方
・Transfomerの一部であるGPT-3やBERTを利用して言語処理モデルを利用したい方
・文書をベクトル化して深層学習に適用する手法を具体的に学びたい方
・システム、ソフト、データ処理関連の技術者の方 |
予備知識 |
・予備知識は特に仮定しませんが、深層学習に関連した具体的なプログラムをパソコン上で利用した経験があるとより具体的な部分の理解が深くなります |
修得知識 |
・自然言語処理においてTransfomerを利用したモデルの相関関係が理解できます
・OpenAIで作成されているGPT-3を利用した言語処理の複数の手法(例えばプログラミングコードの補完やクラス分類)についての実装方法が習得できます
・またBERTなど文をベクトル化する手法について理解し、どのような拡張可能性があるかを理解することができます |
プログラム |
1.Transfomer周辺で起きている新たな自然言語処理
(1).Transfomerとは
a.全体のネットワーク構造
b.翻訳モデルを意識した入力と出力
c.深層学習におけるベクトル化を利用したEncoderとDecoderモデル
d.従来法からの数多くの改良点(LSTMより学習が早く長距離依存関係が捉えられる)
e.文内の言葉同士の関係を取り出す機構
f.実用例として翻訳システム
(2).Transfomerから派生したモデル
a.全体の相関関係
b.BERTについて(Encoder部分の利用)
c.BERTの利点(文をトークンに分解して文脈を考慮してベクトル化できる)
d.BERTの事前学習 (Masked Language Modelingにより言語の知識を大規模テキストデータのみから獲得することができる)
e.BERTの有効性 (教師あり学習のタスクで精度向上)
f.GPT-3について(Decoder部分の利用)
g.GPT-3の利点(文生成を利用してクラス分類や検索,会話など1度事前学習しただけで、すべてのタスクを少ない事例で解く枠組を提供)
h.GPT-3の特徴(文を生成する際に1つ1つ出力auto-regressive)
i.GPT-3の期待される機能(新たなタスクに対する回答を出力(Few-shot learning))
(3).まとめ
(4).質疑応答
2.Transfomerの構造の理解
(1).全体構成(翻訳タスクを主眼に置いた構造)
a.Encoder部分とDecoder部分の機能と役割
b.翻訳の際の処理の流れ
(2).トークン化(Tokenization)
a.WordPiece、Sentencepiece、MeCab Piece
b.データ入力の際のマスク作成などの構造化
(3).位置情報の獲得(Position encoding)
a.周期を利用した位置情報
b.回転行列とattentionでの相対化
(4).文内の要素同士の関係抽出(Attention機構の利用)
a.Attention機構による共起情報の獲得機能
b.Multi-head attention機構
(5).深層学習における構造 (Residual network、Layer normalization)
a.EncoderとDecoderの基本構成要素
b.DecoderにおけるAttention機構
c.Residual network、Layer normalizationの機能
(6).質疑応答
3.GPT-2およびGPT-3: Decoderを利用した新たな言語処理
(1).Decoder部分の利用
a.言語を生成する機構(Autoregressiveモデル)
b.言語生成機構を利用した少数事例による学習(Few-shot learning)
(2).GPT-2におけるネットワーク構造
a.ネットワーク構造と各要素の説明
b.言語生成のモデルとの対応(GPT-2の論文から)
(3).GPT-2およびGPT-3の学習方法
(4).GPT-2実装と実行例
a.GPT-2実行環境の構築
b.英語および日本語を利用したデモ
(5).GPT-3の利用方法と実行例
a.GPT-3の全体の説明
b.用意されている各モデルとタスクの説明
c.Playgroundの利用(Completionを利用した言語生成のデモ、またCodexを利用した言葉の指示によるプログラム作成)
d.Pythonでの環境の構築(ローカルのLinuxマシンからアクセスするための設定)
e.Pythonを利用したローカルLinuxマシンからの利用例
(6).まとめ: GPT-2およびGPT-3における利点と欠点
a.GPT-2およびGPT-3でのプロンプト入力の考察
b.GPT-3における利用制限など他
(7).質疑応答
4.BERTを利用した自然言語処理への応用
(1).Encoder部分を利用した文ベクトル化モデル
a.BERTの利用で精度が向上した例
b.GPTと相違点
(2).BERTのネットワーク構(GPT-2と比較)
(3).Masked Language Model(MLM)による学習
a.繰り返しトークンを隠しながら学習
b.大規模データを利用した事前学習の注意点
(4).BERTの利用
a.BERTは基本的にFine-tuningによる正解データを使った学習が必須
b.Fine-tuningを成功させるポイント
(5).利用可能なBERTの学習済みモデルと実行例
a.英語の学習済みモデル
b.日本語の学習済みモデル
c.実装上のポイント(TensorflowとPytorchにおける違い)
(6).まとめ(BERTの利点と欠点)
(7).質疑応答
5.全体のまとめ
6.質疑応答
・講義では、深層学習の理論的な側面では無く、応用可能性を中心に、どの部分の機構がどういう働きがあるかの理解に努めます。どんなデータをどのぐらい学習として使うとどういうことができているのか、また、新たに開発された利用可能なモデルで現在どのぐらいの処理が出来ているのか、デモを通して理解していただきます。プログラミングを深く理解している方は講義中に疑問に思ったところを質問していただくことでより深くお答えすることができます
|
キーワード |
Transfomer 自然言語処理 ネットワーク構造 翻訳モデル ベクトル化 LSTM 翻訳システム BERT GPT-3 トークン化 関係抽出 深層学習 Playground MLM |
タグ |
AI・機械学習、データ分析 |
受講料 |
一般 (1名):49,500円(税込)
同時複数申込の場合(1名):44,000円(税込)
|
会場 |
オンラインセミナー
本セミナーは、Web会議システムを使用したオンラインセミナーとして開催します。
|
こちらのセミナーは受付を終了しました。
次回開催のお知らせや、類似セミナーに関する情報を希望される方は、以下よりお問合せ下さい。