PyTorchによるディープラーニングの基礎講座 ~1人1台PC実習付~

~ ニューラルネットの枠組み、最急降下法と誤差逆伝播法、「numpy」と「tensor」、PyTorch の学習プログラム手順、PyTorch による実装例 ~

・実装例が豊富にあり注目されているPyTorchの特徴と使い方について修得する講座!

・ディープラーニングの基本原理から、画像処理の実装例を通して学び、PyTorchを利用したデータ解析に活かそう!

 

PCは弊社にて用意いたします

講師の言葉

 本講座では PyTorch を利用してディープラーニングのプログラム作成方法を学びます。ディープラーニングのプログラムを作る場合、サンプルプログラムを基にして、それを自分用に修正するのが手っ取り早い方法です。ただそれでは修正部分が大きくなったり、かなり違ったネットワーク構造になる場合には、その方法では無理です。

 本講座ではディープラーニングのプログラムとは結局何をやっているのかとそのプログラムの大枠を示します。本講座の目標はこの枠組みを理解することです。この枠組みを理解して、PyTorch を利用すれば、サンプルプログラムを改良するにしても、自分で一からプログラムを構築するにしても、プログラムを構築することができると思います。

セミナー詳細

開催日時
  • 2020年02月20日(木) 10:30 ~ 17:30
開催場所 日本テクノセンター研修室
カテゴリー ソフト・データ・画像・デザイン
受講対象者 ・ディープラーニングの枠組みを理解したい人やディープラーニングのプログラムの基本的な作成について学びたい方
・PyTorch を使ってみたい方、実装例を学びたい方
予備知識 ・大学初年度程度の数学知識
・Pythonは、触れたことがある程度で大丈夫です
修得知識 ・ディープラーニングの枠組みを理解できます
・ディープラーニングのプログラム作成方法の基礎が理解できます
・PyTorch の使い方が理解できます
プログラム

1.ニューラルネット

 まず人工知能の問題を、ニューラルネットを使って解く枠組みを説明します。人工知能の多くの問題は関数推定の問題と見なせます。関数推定では推定すべき関数をいくつかのパラメータを持った関数として表現し、入出力データからパラメータを推定することで行います。そしてニューラルネットもいくつかのパラメータを持った関数と見なせることを説明します。

  (1).人工知能と関数推定

  (2).パラメトリックモデル

  (3).ニューラルネットは関数

  (4).ニューラルネットのパラメータ

 

2.最急降下法と誤差逆伝播法

 ニューラルネットは訓練データから関数を推定する回帰のモデルです。その推定方法が最急降下法になります。ニューラルネットの関数のモデルはネットワークなので、この最急降下法がいわゆる誤差逆伝播法と呼ばれるものであることを示します。

  (1).ニューラルネットにおける学習

  (2).目的関数

  (3).最急降下法

 

3.Define-by-run と自動微分

 Deep Learning の学習も関数を推定する回帰の問題であり、最急降下法が使われます。最急降下法では勾配を求める部分がポイントです。勾配を求めるために計算グラフが利用されます。この計算グラフを動的に構築する仕組みが Define-by-run です。PyTorch は Define-by-run を採用しているために、学習モデルを構築するのが容易になっています。PyTorch の自動微分を使って、この点を確認してみます。

  (1).合成関数と計算グラフ

  (2).計算グラフを利用した勾配計算

  (3).自動微分

 

4.numpy と tensor

ディープラーニングで扱うデータは配列です。Python では配列の演算に numpy を利用しますが、PyTorch では tensor を利用します。ここでは tensor データの作り方や、tensor に関する演算や関数を示します。また numpy との相互の変換が重要です。

  (1).tensor と numpy

  (2).tensor の作成

  (3).tensor どうしの演算

  (4).tensor を扱う関数

  (5).tensor と自動微分

 

5.PyTorch の学習プログラムの基本手順

PyTorch における学習プログラムの基本構成要素は、モデルの設定、最適化関数の設定、誤差の算出、勾配の算出、パラメータの更新からなります。最後の3つを繰り返すことでパラメータが推定され、モデルが完成します。ここでは最初にプログラム全体のひな形を示し、簡単な問題を通して、各手順を解説します。

  (1).プログラム全体のひな形

  (2).モデルの設定

  (3).最適化関数の設定

  (4).誤差の算出

  (5).勾配の算出

  (6).パラメータの更新

 

6.多層 NN による分類

NN を多層にするテクニックの一つに dropout があります。ここでは dropout を解説し、それを利用して画像認識のための NN を構築してみます。データとして PyTorch 用に準備されているデータセットの使い方も説明します。

  (1).データセットの利用

  (2).3層の NN

キーワード PyTorch Deep Learning ディープラーニング 深層学習 ニューラルネットワーク Python パラメトリックモデル fine-tuning 最急降下法 誤差逆伝播法
タグ AI・機械学習データ解析
受講料 一般 (1名):55,000円(税込)
同時複数申込の場合(1名):49,500円(税込)
会場
日本テクノセンター研修室
〒 163-0722 東京都新宿区西新宿2-7-1 新宿第一生命ビルディング(22階)
- JR「新宿駅」西口から徒歩10分
- 東京メトロ丸ノ内線「西新宿駅」から徒歩8分
- 都営大江戸線「都庁前駅」から徒歩5分
電話番号 : 03-5322-5888
FAX : 03-5322-5666
こちらのセミナーは受付を終了しました。
次回開催のお知らせや、類似セミナーに関する情報を希望される方は、以下よりお問合せ下さい。
contact us contact us
各種お問い合わせは、お電話でも受け付けております。
03-5322-5888

営業時間 月~金:9:00~17:00 / 定休日:土日・祝日