0329
昨晩もword2vecの説明を読みました。一応全体構造はわかったけど、なんで(特にskip-gram)こんなのでああいう性質の良い埋め込みが得られるのかはぜんぜんピンとこないなあと思いました。というか具体的な回帰の計算もよくわかってない気がする。まあこの先はコードを。
仕事の前に病院。今日はとても空いてて誰もいなかったのですぐ終わりました。調子はすこし良くなっているのかもしれないけれど、まあそんなの何回目だよって感じだし。
仕事は日本語OCRの調査。領域検出も既存手法ではどうやらぜんぜんだめで、これは学習すればどうにかなるのかどうか、ぜんぜんわかりません。あとはCNNを使った手法の論文を読んだりしたけど、これはオーバーキルなんじゃないだろうかと心配になる。既存研究の地図がぜんぜん描けてないので、すごく的外れなことをやってないだろうか。うーむ。
普通に使ったつもりの言葉に、「難しい言葉知ってるんですね」とか言われちゃうと、ちょっと疎外感?を感じる。そうだ、僕は「難しい言葉」を使ってしまう人間なんだ。こうやって普通におしゃべりをしているけれど、違う種類の人間だったんだ。
まあ、単に僕がナチュラルボーン頭が高い人間なせいでもあると思いますけれども。会話はいつもマインスイーパ!
今夜はアニメを消化しつつtensorflowを触る。その「つつ」は不可能では?