2019-09-01から1ヶ月間の記事一覧

train_xを減らしてmnistでval_accを0.02%伸ばす方法

TL;DR trainデータで間違えるところだけを学習するとちょっと0.02%伸びたよ TL;DR やったこと まず普通にモデル作成 データの取捨選択 やったこと mnistでモデルを作っていると、 学習率を落としても、数値が上がりそうで上がらず振幅して悲しいことが多いと…

今更ながらDropoutを検証してみる~その2~

TL;DR dropoutを入れてmnistで99.66%を達成した TL;DR dropoutの本気を見た modelというかソース 結果 結論 dropoutの本気を見た 前回の記事でdropoutは安定しただけ、と書いたが、 もうちょい試すと99.66%を達成したのでこちらにて。 modelというかソース …

今更ながらDropoutを検証してみる

TL;DR; dropoutで適切なパラメータを振ると学習が安定するよ。 val_accの最大値は更新しませんでした。 TL;DR; Dropoutの効果は本当にあるのか 検証モデル 結果 検証2 結果2 検証3 結果3 Dropoutの効果は本当にあるのか 今までいろんなモデル(つっても画像の…

ReLUファミリー活性化関数を検証してみる(ReLU,leakyReLU,PReLU)

TL;DR ReLUファミリー最強の活性化関数は今の所PReLU。 ただしRReLUは未検証。 TL;DR mnistでモデルのみで99.5%を超えたい 結果 まとめ mnistでモデルのみで99.5%を超えたい How to score 97%, 98%, 99%, and 100% | Kaggle 上記によると 99.5%: If you desi…