実践 Deep Learning - Python と TensorFlow で学ぶ次世代の機械学習アルゴリズム

出版日
ページ数
336
実践 Deep Learning - Python と TensorFlow で学ぶ次世代の機械学習アルゴリズム
ISBN10
4873118328
ISBN13
978-4873118321
説明

訳書で、オリジナルのタイトルは「 Fundamentals of Deep Learning: Designing Next-Generation Machine Intelligence Algorithms 」です。

目次
監訳者まえがき まえがき 1章 ニューラルネットワーク 1.1 知的な機械を作るということ 1.2 従来のプログラムの限界 1.3 機械学習のしくみ 1.4 ニューロン 1.5 線形パーセプトロンをニューロンとして表現する 1.6 フィードフォワードニューラルネットワーク 1.7 線形ニューロンとその限界 1.8 シグモイド、 tanh 、 ReLU のニューロン 1.9 ソフトマックス出力層 1.10 まとめ 2章 フィードフォワードニューラルネットワークの訓練 2.1 ファストフード店での問題 2.2 勾配降下法 2.3 デルタルールと学習率 2.4 勾配降下法とシグモイドニューロン 2.5 逆伝播のアルゴリズム 2.6 確率的勾配降下法とミニバッチ 2.7 テストデータ、検証データ、過学習 2.8 深層ニューラルネットワークでの過学習の防止 2.9 まとめ 3章 TensorFlow を使ったニューラルネットワークの実装 3.1 TensorFlow とは 3.2 他の選択肢との比較 3.3 TensorFlow のインストール 3.4 TensorFlow の Variable の生成と操作 3.5 TensorFlow での操作 3.6 プレースホルダのテンソル 3.7 TensorFlow でのセッション 3.8 Variable のスコープと共有 3.9 CPU と GPU 上でのモデルの管理 3.10 ロジスティック回帰のモデルを記述する 3.11 ログの記録と訓練 3.12 TensorBoard を使って計算グラフと学習を可視化する 3.13 多階層の MNIST モデル 3.14 まとめ 4章 勾配降下法を超えて 4.1 勾配降下法での課題 4.2 深層ネットワークの誤差曲面での極小値 4.3 モデルの識別可能性 4.4 深層ネットワークにおける極小値の影響 4.5 誤差曲面上の平坦な領域 4.6 勾配が誤った方向を向く場合 4.7 モーメンタムに基づく最適化 4.8 2 次の最適化手法の概要 4.9 適応的な学習率 4.10 最適化手法の選択基準 4.11 まとめ 5章 畳み込みニューラルネットワーク 5.1 人間の視覚におけるニューロン 5.2 特徴選択の欠陥 5.3 単純な深層ニューラルネットワークにはスケーラビリティがない 5.4 フィルターと特徴マップ 5.5 畳み込み層の完全な表現 5.6 最大プーリング 5.7 畳み込みネットワーク全体の構成 5.8 畳み込みネットワークを使った MNIST の最終解 5.9 画像の前処理による、さらに頑健なモデル 5.10 バッチ正規化による訓練の高速化 5.11 CIFAR-10 用の畳み込みネットワーク 5.12 畳み込みネットワークでの学習の可視化 5.13 畳み込みネットワークを使い、絵画のスタイルを適用する 5.14 他の問題領域への畳み込みネットワークの適用 5.15 まとめ 6章 埋め込みと表現学習 6.1 低次元表現の学習 6.2 主成分分析 6.3 オートエンコーダーのアーキテクチャー 6.4 TensorFlow を使ったオートエンコーダーの実装 6.5 頑健な埋め込み表現のためのノイズ除去 6.6 オートエンコーダーの疎性 6.7 入力のベクトルよりもコンテキストに多くの情報が含まれる場合 6.8 Word2Vec フレームワーク 6.9 スキップグラムアーキテクチャーの実装 6.10 まとめ 7章 シーケンス分析のモデル 7.1 可変長の入力に対する分析 7.2 neural n-gram による seq2seq 問題へのアプローチ 7.3 品詞タグ付け器の実装 7.4 係り受け解析と SyntaxNet 7.5 ビームサーチとグローバル正規化 7.6 内部状態を持ったディープラーニングのモデルの例 7.7 リカレントニューラルネットワーク 7.8 勾配消失問題 7.9 LSTM ユニット 7.10 RNN のモデルのために TensorFlow が提供するプリミティブ 7.11 センチメント分析のモデルの実装 7.12 RNN を使って seq2seq の問題に取り組む 7.13 アテンションを使って RNN を強化する 7.14 ニューラル翻訳ネットワークの分析 7.15 まとめ 8章 メモリ強化ニューラルネットワーク 8.1 ニューラルチューリングマシン 8.2 アテンションベースのメモリアクセス 8.3 NTM でのメモリのアドレス管理 8.4 微分可能なニューラルコンピューター 8.5 DNC での干渉のない書き込み 8.6 DNC でのメモリの再利用 8.7 書き込みの時系列的リンク 8.8 DNC の読み込みヘッドを理解する 8.9 コントローラーのネットワーク 8.10 DNC の動作の可視化 8.11 TensorFlow を使った DNC の実装 8.12 DNC に読解させる 8.13 まとめ 9章 深層強化学習 9.1 Atari のゲームを習得した深層強化学習 9.2 強化学習とは 9.3 マルコフ決定過程( MDP ) 9.4 探索と利用 9.5 方策学習と価値学習 9.6 ポールバランシングへの方策勾配の適用 9.7 Q 学習と深層 Q ネットワーク 9.8 DQN の改善と新たな方向性 9.9 まとめ 索引
紹介( powered by openBD

機械学習とニューラルネットワークの基礎を学ぶ!
2000年代にニューラルネットワークの研究が再び活発になりました。現在、ディープラーニングは近代的な機械学習の道を切り開いている非常に活発な研究領域となっています。Google、Microsoft、Facebookなどの企業では、社内のディープラーニングチームが急成長しています。しかし、多くの人にとってディープラーニングはまだまだとても複雑で困難な課題です。本書ではサンプルのPython★プログラムと簡潔な説明を通してこの複雑な分野の主要な概念を紹介します。微積分、行列演算、Python 3★の基礎があれば誰でも本書を始めることができます。本書を読み終える頃には、読者はディープラーニングの歴史的背景を把握し、TensorFlowに用意されている最適化アルゴリズムを組み合わせてニューラルネットワークを構成できるようになるでしょう。