てがみ: qatacri at protonmail.com | 統計 | 2019

201919301

Deep learning for symbolic mathematics

数式をポーランド記法に変換して Transformer に突っ込む。論文はデータセットの作り方についての説明が大部分。本当に機能しているならば凄いけれど、にわかには信じがたい…。

今はディープラーニングにさほど興味はないけれど、木構造をベクトル空間の世界にどう持ち込むかという部分には興味がある。しかし Transformer の構造をみても何も分からん、という気分にしかならない。そもそも Transformer は例えば中置記法を後置記法に変換できる能力はあるんだろうか。自然言語のパーズができているのだからそれくらい朝飯前なのかな。練習問題としてはちょうどいいかもしれない。