GPTおよびLLamaなど大規模言語モデルの基礎と最新技術および実装フレームワーク ~デモ付~ <オンラインセミナー>

~ ChatGPTおよびGPT、Bard/Geminiを利用したプロンプト利用と学習、日本語を含む生成系言語モデル(rinna、opencalm、Llama2、ELYZA、Swallow 他)、BERTを利用した実装技術 ~

※本セミナーは日程が変更になりました。
申込みにつきましては、下記リンク先にて受け付けております。
https://www.j-techno.co.jp/seminar/seminar-62947/

・GPTから最新のLoRA、Gemini、Llama2などの最新大規模言語モデルの特徴と活用のポイントを修得し、システム開発に活かすための講座
・エキスパートの方からGPTモデルの基礎からGeminiやLlama2など最新の言語モデルの実装法に至るまで体系的に修得し、開発実務に活かせる特別セミナー!

オンラインセミナーの詳細はこちら:

・WEB会議システムの使い方がご不明の方は弊社でご説明いたしますのでお気軽にご相談ください

講師の言葉

 近年、TransformerのDecoder部分で事前学習を適用したGPTおよびChatGPTが各言語で、自然な応答返したり、試験に解答したり、会話やプログラムを生成することが話題になりました。さらに画像に対する質問、オリジナルのChatGPTの作成、Gemini (Bard)の出現など、生成言語モデル関連は日々更新されています。本講義では、GPTの基礎モデルであるTransformerを中心に、GPTを利用した応用法が展開されているかを俯瞰するとともに、その中心的な機構の解説と実装について具体的に説明します。Downloadして利用可能な言語モデルであるLLaMAが公開されてから、手持ちのデータを大規模言語モデルに適用できる道が開けるようになりました。その一つの方法がLoRAであり、GPUのメモリが限られている状況でも手持ちのデータで大規模言語モデルをfine-tuneできることから、応用の可能性がさらに広がりました。講義では、LinuxとPythonを利用したデモを行いますが、特に深い知識は必要ありません。この講義を通してGPTやLLaMAモデルの発展の理解を深めることで皆様がお持ちになる課題の解決の一助となることを願っています。

本講座は、日程が7月1日(月)に変更になりました

セミナー詳細

開催日時
  • 2024年06月26日(水) 10:30 ~ 17:30
開催場所 オンラインセミナー
カテゴリー オンラインセミナーソフト・データ・画像・デザイン
受講対象者 ・自然言語処理に興味がある方
・GPTの応用に興味のある方
・自然言語処理が必要になった技術者の方
・言語処理まわりの課題を既にお持ちになっていて、処理手法の選択肢を広げたい方
・Transformerの一部であるGPTを学習してオリジナルのデータに対して処理を行いたい方
・文書をベクトル化して深層学習に適用する手法を具体的に学びたい方
・システム、ソフト、データ分析ほか関連企業の方
予備知識 ・システム開発における基礎知識
・講義では、深層学習の理論的な側面では無く、応用可能性を中心に、どの部分の機構がどういう働きがあるかの理解に努めます。どのようなデータをどのぐらい学習として使うとどういうことができているのか、また、新たに開発された利用可能なモデルで現在どれぐらいの処理が出来ているのか、デモを通して体験していただきます。プログラミングを深く理解している方は講義中に疑問に思ったところを質問していただくことでより深くお答えすることができます。
修得知識 ・自然言語処理においてGPTおよびChatGPTの機構、および応用の範囲を俯瞰的に理解することができます
・またTransformerを中心としたモデルの発展の歴史が理解できます
・GPTを利用してオリジナルデータに対する質問応答を作成する方法やBardを利用した質問応答について実装方法が習得できます。
・Llama2などダウンロード可能な言語モデルにたいしてRoLAやRAGを利用してオリジナルデータに対する質問応答や分類タスクなどの処理を作成する手法について理解し、どのような拡張可能性があるかを理解することができます。
プログラム
1.GPTを含むTransformerによる自然言語処理
  (1).Transformerとは 
    a.全体のネットワーク構造 (GPTはDecoder側)
    b.翻訳モデルを基にした入力と出力
    c.深層学習におけるベクトル化を利用したEncoderとDecoderモデル
    d.従来法からの数多くの改良点 (長距離依存関係が捉えられるAttention機構)
    e.文内の言葉同士の関係を取り出す機構
    f.実用例として翻訳システム
  (2).Transformerから派生したモデルの活躍
    a.全体の相関関係(BERT、 GPT-X、 T5、PaLM、Bard/Gemini、Llama、Vision Transformer) 
    b.T5について
    c.GPT-Xについて (Decoder部分の利用)
    d.GPT-Xの利点 (文生成を利用してクラス分類や検索,会話など数後の事例を学習しただけで幅広いタスクで問題を解く)
    e.GPT-Xの特徴 (文を生成する際に1つ1つトークンを出力するauto-regressive)
    f.GPT-Xの期待される機能 (言葉だけでなく記号やプログラム扱える幅広いタスクでの利用)
    g.BERTについて (Encoder部分の利用)
    h.BERTの利点 (文をトークンに分解して文脈を考慮してベクトル化できる) 
    i.BERTの事前学習 (Masked Language Modelingにより言語の知識を大規模テキストデータのみから獲得することができる) 
    j.BERTの有効性:(教師あり学習のタスクで精度向上)
  (3).まとめ
  (4).質疑応答
  
2.ChatGPTを中心とした大規模言語モデルの爆発的展開
  (1).ChatGPTについて
    a.ChatGPTの概要
    b.ChatGPTの仕組み (ネットワーク構造と大規模化の効果)
    c.ChatGPTの学習 (データからの学習とトレーナーによるhuman alignment)
    d.ChatGPTの使用例
  (2).ChatGPTおよびGPTを利用したプロンプト利用と学習
    a.Chain-of-Thouhts (CoT) 補足説明を入れて回答の精度を高める
    b.プログラムを利用して回答の精度を高める
    c.ReACT (LangChain) 検索エンジンを利用して最新の情報を取り出す
    d.RAG: Retrieval-Augmented Generation を利用したオリジナルデータに対する質問応答
    e.GPTs: 数分でオリジナルデータに対するChatGPTが作成可能
    f.GPT-4v (ChatGPT) を利用した画像処理 (文字認識など)
  (3).Bard/Geminiを利用したプロンプト利用と学習
    a.Bard/Geminiの特徴と利用 (無料(2024/1現在)、最新の情報に対応、APIの利用、画像入力)
    b.Bardに対するAPIの利用 (画像とテキスト)
    c.Google WorkspaceでBardを利用 (言葉でGmail他を検索)
  (4).Llama2などダウンロードして使える言語モデルの利用と学習
    a.Llama2:公開された言語モデルの利用
    b.AlpacaやVicuna など他の利用可能モデル
    c.日本語を含む生成系言語モデル(rinna、opencalm、Llama2、ELYZA、Swallow 他)
    d.LoRA:Llama2などの言語モデルにオリジナルデータを学習(fine-tuning)させてオリジナルのChatをローカルのパソコン上に作成 (言語モデルのサイズと必要なGPUメモリ量など)e.LoRAによるオリジナルデータを学習とRAGによるオリジナルデータの取り込み、GPTsの比較 (パソコン環境や費用など)
  (5).まとめ
  (6).質疑応答
 
3.Transformerの構造の理解
  (1).全体構成 (翻訳タスクを主眼に置いた構造)
    a.Encoder部分とDecoder部分の機能と役割
    b.翻訳の際の処理の流れ
  (2).トークン化 (Tokenization)
    a.WordPiece、Sentencepiece、MeCab Piece
    b.データ入力の際のマスク作成などの構造化
  (3).位置情報の獲得 (Position encoding) 
    a.周期を利用した位置情報
    b.回転行列とattentionでの相対化
  (4).文内の要素同士の関係抽出 (Attention機構の利用)
    a.Attention機構による共起情報の獲得機能
    b.Multi-head attention機構
  (5).深層学習における構造 (Residual network、Layer normalization)
    a.EncoderとDecoderの基本構成要素
    b.DecoderにおけるAttention機構
    c.Residual network、Layer normalizationの機能
  (6).質疑応答
 
4.GPT-XおよびLlama他の利用とオリジナルデータに対する学習 (コード例を含む)
  (1).GPT-xおよびChatGPTやLlamaの利用
    a.GPT-Xを用いたプロンプトによる質問応答 (pythonからAPI経由で利用)
    b.RAGを利用したオリジナルデータに対する質問応答するChatGPTの利用 (python)
    c.Llama2など大規模言語モデルをCPUのみで動かす方法
  (2).GPT-xおよびChatGPTに対してAPIを利用した学習
    a.GPT-Xを用いたプロンプトによる質問応答 (Few-shot learning)
    b.GPT-Xに対してAPIを通したオリジナルデータの学習(fine-tuning)
    c.RAGを利用したオリジナルデータに対する質問応答するChatGPTの作成
  (3).Llamaなどダウンロード可能な言語モデルに対するLoRA適用によるオリジナルタスクの学習と実行
    a.LoRAを利用した大規模言語モデル学習のしくみと利点
    b.日本語を学習した言語モデル(opencalm2他)に対するLoRA学習による実装例
    c.Opencalm2他に対するLoRA学習によるローカルタスク(クラス分類)の実装例
  (4).まとめ:Decoderを利用した新たなローカルタスクの適用
  (5).質疑応答
 
5.BERTを利用した自然言語処理技術
  (1).Encoder部分を利用した文ベクトル化モデル
    a.BERTの利用で精度が向上した例
    b.GPTと相違点
  (2).BERTのネットワーク構造 (GPT-2と比較)
  (3).Masked Language Model (MLM)による学習
    a.繰り返しトークンを隠しながら学習
    b.大規模データを利用した事前学習の注意点
  (4).BERTの利用
    a.BERTは基本的にFine-tuningによる正解データを使った学習が必須
    b.Fine-tuningを成功させるポイント
  (5).利用可能なBERTの学習済みモデルと実行例
    a.英語の学習済みモデル
    b.日本語の学習済みモデル
    c.BERTからXLNetまでの発展
  (6).まとめ (BERT の利点と欠点)
  (7).質疑応答
 
6.全体のまとめ
 
7.質疑応答
キーワード GPT Transformer BERT T5 PaLM Bard/Gemini Llama Vision Transformer プロンプト ReACT  LangChain  GPTs  ReACT  Alpaca Vicuna  Llama2 トークン化 Attention機構 RAG 
タグ AI・機械学習ソフト管理ソフト教育ソフト知的財産データ解析ITサービスOS・言語
受講料 一般 (1名):49,500円(税込)
同時複数申込の場合(1名):44,000円(税込)
会場
オンラインセミナー
本セミナーは、Web会議システムを使用したオンラインセミナーとして開催します。
こちらのセミナーは現在募集を締め切っております。
次回開催のお知らせや、類似セミナーに関する情報を希望される方は、以下よりお問合せ下さい。
contact us contact us
各種お問い合わせは、お電話でも受け付けております。
03-5322-5888

営業時間 月~金:9:00~17:00 / 定休日:土日・祝日