We read every piece of feedback, and take your input very seriously.
To see all available qualifiers, see our documentation.
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
deepflarenet.py 89行目 の2つめの skip connection の箇所:
h6bn = self.relu_BN(h5bn, self.ext_W[5], self.is_training, "ext_BN_5") + X
ですが、これでは、h1, h2bn を通ってきた情報がスキップ側の回路を通らないように思います。 Nishizuka 2018 論文の Fig. 4 の回路図と一致させるためには
h6bn = self.relu_BN(h5bn, self.ext_W[5], self.is_training, "ext_BN_5") + h3bn
とすべきではないかと思うのですが、ご確認いただけませんでしょうか。
The text was updated successfully, but these errors were encountered:
1つ目のskip connection 86行目
h3bn = self.relu_BN(h2bn, self.ext_W[2], self.is_training, "ext_BN_2") + X
も、+Xではなく+h1や+h1dの方が良いのではないでしょうか? 関数の入力値Xに定数の四則演算と活性化関数(とランダムな値落し)だけで学習要素は無く、前処理にあたるのではないかと思いました。h1も1.1+入力値×(±0.2以内の乱数) ですので、入力値がreluで0に塗りつぶされるものではないとの前提でいます。故に最初のskip connectionはXよりもh1かh1dの方が相応しい気がしました。
素人考え半分です。間違っていたらすみません。(河村@京大)
Sorry, something went wrong.
No branches or pull requests
deepflarenet.py 89行目 の2つめの skip connection の箇所:
ですが、これでは、h1, h2bn を通ってきた情報がスキップ側の回路を通らないように思います。
Nishizuka 2018 論文の Fig. 4 の回路図と一致させるためには
とすべきではないかと思うのですが、ご確認いただけませんでしょうか。
The text was updated successfully, but these errors were encountered: