スポンサーリンク コンテンツ 2021.01.04 2020.12.06 ディープラーニングとはディープラーニングとは、機械学習の手法の1種です。まずは、機械学習とは何かを説明し、その後、ディープラーニングとは何かを説明したいと思います。機械学習とはまず、ルールベースと機械学習の違いを説明します。ルールベース... 学習とは、推論とは機械学習での「学習」と「推論」という言葉について説明したいと思います。もちろんディープラーニングでも「学習」と「推論」という言葉が使われます。推論機械学習では、回帰、分類、物体検出、セグメンテーション、自然言語処理、時系列... 全結合層とはディープラーニングのネットワークの基本要素である全結合層について説明します。全結合図のように、1層目のノードと2層目のノードが全て結合している場合を、全結合と言います。結合している線については、左から右に計算が進む... ドロップアウトとは全結合層に用いられるドロップアウトについて説明します。ドロップアウト図のように、全結合層で、学習時にxx%のノードを使用せずに学習を行うことをドロップアウトと言います。学習ステップ毎にドロップアウトするノードはラン... 恒等関数とは、ソフトマックス関数とは回帰問題の出力層で使われる恒等関数と、分類問題の出力層で使われるソフトマックス関数について説明します。恒等関数出力をそのまま出す関数を恒等関数と言います。回帰問題の出力では、そのままの値を出力するので、そこで使用されます。... 畳込み層とはディープラーニングで画像処理をするときに多用される畳込み層について説明します。畳込み図のように、フィルタを使って出力画像の各ピクセルを作成していく処理を畳込みと言います。図は3回分しか描いていませんが、49回ずらし... プーリング層とはCNNで利用されるプーリング層について説明します。プーリングとはここで言うプーリングとは、解像度を絞ることを指しています。図は、MaxPoolingで解像度を1/2に絞るときの例です。MaxPoolingは... バッチノーマライゼーションとはバッチノーマライゼーションについて解説します。バッチノーマライゼーションが導入された背景各層の活性化関数の出力は、適度な分散をもっていると勾配消失などの問題が起こりにくいことが知られています。そこで、各層の出力を適度に分散... ショートカットとはショートカット接続図のように、ニューラルネットワークでいくつかの層を挟んだ後、前の値をそのまま持ってくるパスを作成することがあります。これをショートカット接続と言います。ショートカットの効果ショートカット接... 活性化関数とは活性化関数各層の計算は、重みの掛け算とバイアスの足し算の後、活性化関数を通します。活性化関数は、非線形関数であることが必須です。というのは、もし線形関数を用いてしまうと、せっかく層を重ねても、全て線形結合になってしまうので、線形の... 画像の標準化について画像の正規化画像は、通常、各画素、各色、0〜255の値で構成されています。それを、0.0〜1.0にすることを正規化(Normalization)と呼びます。入力画像は、0〜255の値をそのまま使用すると、学習が発散してしま... データ拡張についてデータ拡張データ拡張(Data Augmentation)とは、学習用データセットにバリエーションをつけて学習させる手法です。このデータ拡張を行わないと、過学習に陥ることが多いです。画像の基本的なデータ拡張の例としては、拡大・縮小... 過学習とは過学習機械学習において、訓練データには正しく答えられるが、未知の一般データに対しては正しく答えられない、汎化できていない状況を指します。過学習になると、accuracyとlossは、図のようになります。青のTrai... 損失関数とは損失関数ディープラーニングで学習を行うときに、損失関数を決める必要があります。学習は、この損失関数の値が小さくなる方向に進むようになっています。なので、この損失関数を間違って規定してしまうと、学習がまともに進みません。代表... DCGANとはGANとはGAN(Generative Adversarial Networks)とは、敵対的生成ネットワークのことで、論文で提案されたものです。GANでは、訓練されたGeneratorを利用して、本物に近い偽物のデータを... 物体検出の学習でLossが下がらないときは物体検出のLossSSDライクな物体検出のニューラルネットワークを独自に組んで、学習させたときにLossが下がらないという現象に遭遇したので、そのときの原因と解決方法を書いておきます。SSDライクな物体検出で、人物検出を行...