1.GPTを含むTransformerによる自然言語処理
(1).Transformerとは
a.全体のネットワーク構造 (GPTはDecoder側)
b.翻訳モデルを基にした入力と出力
c.深層学習におけるベクトル化を利用したEncoderとDecoderモデル
d.従来法からの数多くの改良点 (長距離依存関係が捉えられるAttention機構)
e.文内の言葉同士の関係を取り出す機構
f.実用例として翻訳システム
(2).Transformerから派生したモデルの活躍
a.全体の相関関係(BERT、 GPT-X、 T5、PaLM、Bard/Gemini、Llama、Vision Transformer)
b.T5について
c.GPT-Xについて (Decoder部分の利用)
d.GPT-Xの利点 (文生成を利用してクラス分類や検索,会話など数後の事例を学習しただけで幅広いタスクで問題を解く)
e.GPT-Xの特徴 (文を生成する際に1つ1つトークンを出力するauto-regressive)
f.GPT-Xの期待される機能 (言葉だけでなく記号やプログラム扱える幅広いタスクでの利用)
g.BERTについて (Encoder部分の利用)
h.BERTの利点 (文をトークンに分解して文脈を考慮してベクトル化できる)
i.BERTの事前学習 (Masked Language Modelingにより言語の知識を大規模テキストデータのみから獲得することができる)
j.BERTの有効性:(教師あり学習のタスクで精度向上)
(3).まとめ
(4).質疑応答
2.ChatGPTを中心とした大規模言語モデルの爆発的展開
(1).ChatGPTについて
a.ChatGPTの概要
b.ChatGPTの仕組み (ネットワーク構造と大規模化の効果)
c.ChatGPTの学習 (データからの学習とトレーナーによるhuman alignment)
d.ChatGPTの使用例
(2).ChatGPTおよびGPTを利用したプロンプト利用と学習
a.Chain-of-Thouhts (CoT) 補足説明を入れて回答の精度を高める
b.プログラムを利用して回答の精度を高める
c.ReACT (LangChain) 検索エンジンを利用して最新の情報を取り出す
d.RAG: Retrieval-Augmented Generation を利用したオリジナルデータに対する質問応答
e.GPTs: 数分でオリジナルデータに対するChatGPTが作成可能
f.GPT-4v (ChatGPT) を利用した画像処理 (文字認識など)
(3).Bard/Geminiを利用したプロンプト利用と学習
a.Bard/Geminiの特徴と利用 (無料(2024/1現在)、最新の情報に対応、APIの利用、画像入力)
b.Bardに対するAPIの利用 (画像とテキスト)
c.Google WorkspaceでBardを利用 (言葉でGmail他を検索)
(4).Llama2などダウンロードして使える言語モデルの利用と学習
a.Llama2:公開された言語モデルの利用
b.AlpacaやVicuna など他の利用可能モデル
c.日本語を含む生成系言語モデル(rinna、opencalm、Llama2、ELYZA、Swallow 他)
d.LoRA:Llama2などの言語モデルにオリジナルデータを学習(fine-tuning)させてオリジナルのChatをローカルのパソコン上に作成 (言語モデルのサイズと必要なGPUメモリ量など)e.LoRAによるオリジナルデータを学習とRAGによるオリジナルデータの取り込み、GPTsの比較 (パソコン環境や費用など)
(5).まとめ
(6).質疑応答
3.Transformerの構造の理解
(1).全体構成 (翻訳タスクを主眼に置いた構造)
a.Encoder部分とDecoder部分の機能と役割
b.翻訳の際の処理の流れ
(2).トークン化 (Tokenization)
a.WordPiece、Sentencepiece、MeCab Piece
b.データ入力の際のマスク作成などの構造化
(3).位置情報の獲得 (Position encoding)
a.周期を利用した位置情報
b.回転行列とattentionでの相対化
(4).文内の要素同士の関係抽出 (Attention機構の利用)
a.Attention機構による共起情報の獲得機能
b.Multi-head attention機構
(5).深層学習における構造 (Residual network、Layer normalization)
a.EncoderとDecoderの基本構成要素
b.DecoderにおけるAttention機構
c.Residual network、Layer normalizationの機能
(6).質疑応答
4.GPT-XおよびLlama他の利用とオリジナルデータに対する学習 (コード例を含む)
(1).GPT-xおよびChatGPTやLlamaの利用
a.GPT-Xを用いたプロンプトによる質問応答 (pythonからAPI経由で利用)
b.RAGを利用したオリジナルデータに対する質問応答するChatGPTの利用 (python)
c.Llama2など大規模言語モデルをCPUのみで動かす方法
(2).GPT-xおよびChatGPTに対してAPIを利用した学習
a.GPT-Xを用いたプロンプトによる質問応答 (Few-shot learning)
b.GPT-Xに対してAPIを通したオリジナルデータの学習(fine-tuning)
c.RAGを利用したオリジナルデータに対する質問応答するChatGPTの作成
(3).Llamaなどダウンロード可能な言語モデルに対するLoRA適用によるオリジナルタスクの学習と実行
a.LoRAを利用した大規模言語モデル学習のしくみと利点
b.日本語を学習した言語モデル(opencalm2他)に対するLoRA学習による実装例
c.Opencalm2他に対するLoRA学習によるローカルタスク(クラス分類)の実装例
(4).まとめ:Decoderを利用した新たなローカルタスクの適用
(5).質疑応答
5.BERTを利用した自然言語処理技術
(1).Encoder部分を利用した文ベクトル化モデル
a.BERTの利用で精度が向上した例
b.GPTと相違点
(2).BERTのネットワーク構造 (GPT-2と比較)
(3).Masked Language Model (MLM)による学習
a.繰り返しトークンを隠しながら学習
b.大規模データを利用した事前学習の注意点
(4).BERTの利用
a.BERTは基本的にFine-tuningによる正解データを使った学習が必須
b.Fine-tuningを成功させるポイント
(5).利用可能なBERTの学習済みモデルと実行例
a.英語の学習済みモデル
b.日本語の学習済みモデル
c.BERTからXLNetまでの発展
(6).まとめ (BERT の利点と欠点)
(7).質疑応答
6.全体のまとめ
7.質疑応答
|