電子書籍『詳解 ディープラーニング』をマナティで発売中!
(上の書籍画像をクリックすると購入サイトに移動できます)
TensorFlowによるリカレントニューラルネットワークの実装
リカレントニューラルネットワークにおいても、これまで同様 inference()、loss()、training() の構成は変わりません。順番に中身を見ていきましょう。
まず inference() ですが、シンプルに考えると簡易的な擬似コードは下記になるはずです。
しかし、このままでは s_prev がどこまで時間をさかのぼるべきかを把握することができません。そこで、引数に時間 𝜏 に相当する maxlen をとり、
という計算をどこかで行う必要があります。TensorFlow では、この時系列に沿った状態を保持しておくための実装は tf.contrib.rnn.BasicRNNCell() を用いることで実現できます※。
※:もともとリカレントニューラルネットワーク用のAPI は tf.nn.rnn などで提供されていましたが、TensorFlowのバージョンが 1.0.0 から tf.contrib.rnn に移行されました。今後もバージョンアップに伴いAPI の仕様が変わるかもしれませんが、ここでは実装の大枠をつかむようにしましょう。
この cell は内部で state( 隠れ層の状態)を保持しており、これを次の時間に順々に渡していくことで、時間軸に沿った順伝播を実現します。最初の時間は入力層しかない(過去の隠れ層がない)ので、
という「ゼロ」の状態を代わりに与えます。ここで、n_batch はデータ数となります。placeholder では学習データ数は None とすることができましたが、cell.zero_state() は実際の値を持っておかなければならないので、n_batch という引数を与えています。ドロップアウト時に用いた keep_prob と同じような扱いだと考えると分かりやすいかもしれません。
これらを用いると、入力層から出力層の手前までの出力を表す実装は下記のようになります。
基本的な流れは各時刻 t における出力 cell(x[:, t, :], state) を順次計算しているだけですが、リカレントニューラルネットワークでは過去の値をもとに現在の値を求めるので、過去を表す変数にアクセスできるようにしておかなければなりません。それを実現するために、
および
の2 つの実装が足されています。前者は変数に対して共用の名前(識別子)を付けるために必要になります。これにより、試しに print(outputs) で出力してみると、下記のように RNN/basic_rnn_cell_*/Tanh:0 という名前が各過去の層に付けられていることが分かります※。
※:この中身を見ても分かるように、隠れ層の活性化関数には双曲線正接関数 tanh(x) が使われています。これは BasicRNNCell(activation=tf.tanh) がデフォルトの引数で与えられているためです。一般的にはこのように tanh(x) が用いられることが多いですが、式「 h(t) = f (Ux(t) + Wh(t - 1) + b) 」からも分かるように、他の活性化関数を用いても問題ありません。
この名前が付いた変数を再利用することを明示しているのが後者になります。ここで得られた output を用いると、「隠れ層 - 出力層」はこれまでと同様下記のように表されます。
以上でモデルの出力をすべて表すことができました。inference() 全体を振り返ると、コードは以下のとおりです。
残る loss() と training() ですが、こちらはこれまでとほとんど変わりません。loss() は、今回は2 乗平均誤差関数を用いるので、
となり、training() は Adam を用いる場合は、
となります。
以上を用いると、メインの処理で書くモデルの設定に関するコードは下記となります。
n_batch は訓練データと検証データとで値が変わるので、placeholder としています。また、実際のモデルの学習もこれまでの実装と同じように記述できます。
これでモデルの学習が行えるようになりました。実行してみると、下図のとおり確かにsin 波を学習できていることが確認できます。
誤差が小さくなり学習が進むことは分かったので、実際に学習したリカレントニューラルネットワークのモデルを使ってsin 波を生成できるかを見てみましょう。元データのはじめの長さ 𝜏 (すなわち1 データ)だけを切り出し 𝜏 + 1 を予測、それをまたモデルの入力に用いて 𝜏 + 2 を予測、という流れを繰り返していくことになります。これにより、2𝜏 + 1 からは完全にモデルの予測値のみが入力となった出力となります。コードでは、まずは、
によりデータの先頭 𝜏 を切り出します。また、図示のために次の original および predicted を定義しておきます。
この predicted に予測値を随時追加していくことになります。逐次的に予測をするコードは下記になります。
出力のサイズを入力のサイズに合わせるために予測値 y_ を加工する処理がやや煩雑に見えますが、行っていることはあくまでも「直近の予測値をまたモデルの入力に用いる」だけです。この結果を、
により図示すると、次図が得られます。真のsin 波(図の点線)と若干のずれはあるものの、確かに波の特徴を捉えた時系列データの予測ができていることが分かります。
以上、TensorFlowによる実装について紹介しました。次回はKerasによるリカレントニューラルネットワークの実装について解説します。