Skip to content

Instantly share code, notes, and snippets.

@nezuQ nezuQ/NLPStudy2.md
Last active Aug 29, 2015

Embed
What would you like to do?
NLP勉強会#2の感想(発表別) #NLPStudy

##(再)入門自然言語処理 #02@yamano357) ###質問

  • エンジニアの人が文書を扱う時に今回の発表の中でどれぐらい知っておくべきでしょうか。(もちろん全部知っておくべきだとは思いますが)
  • 前回同様、密度が濃くて勉強になりました。TD-IDFを使う際に、事前に文書集合が与えられていればDFを計算できるが、オンライン学習など事前に文書集合がない場合どのようなベクトル化が良いのかを伺いたいです。
  • IDF求めるときに使うコーパスとして具体的にどのようなものがあるのでしょうか? コーパスによって結果が変わったり偏ったりすることがあると思います。これらの問題を解決する方法はあるのでしょうか?
  • P21 表記ゆれ・言い換え、実際に実適用としてどのように処理すると効果高いか?
  • P22 トピックモデルのスライドに入るとき「表記ゆれ・言い換えの解決として、トピックモデルも使われる」とあったがどう使われるか?
  • 今の発表を理解できないレベルの初心者は何からはじめたら良いでしょうか。
  • トピックを想定した後、そのトピックが何を表しているのかはどう判断すればよいのでしょうか?
  • 自分の復習+新しい事について知れてとても良かったです。各次元削減の手法の特徴(良い点・悪い点)について教えていただけませんでしょうか。
  • 「文書要約」においてLDAやword2vecはどのように使えばよいですか。
  • N-gramは英語のような、単語の区切りが明確な文書ではあまり有用でない。あるいは不要だったりするものですか?
  • CBOWはオライリーのword2vec本で知って、使ったのですがもう少しほり下げるにはどうすれば良いか分かっていないので、もし自力て実装するにはやっぱり論文を読むとかしないといけないでしょうか?
  • 例を含めて話してもらえたのでスライドについていきやすかったです。次元圧縮した次元の解釈は人がする他ないのです?

###要望

  • 今後、HDP-LDAなどの理論面と実装面について、発表していただけることを期待してます!
  • 色々な話が聞けて良かったです。話題数を減らして1つの話題に対する説明時間を長くしてもらえると、より深く理解しやすかったかもと思いました。
  • トピックモデルについてもっと詳しく知りたかったです。もう少し内容を減らして、具体的説明を増やしてもらった方がよいです。
  • 次回実応用例に期待
  • トピックモデルについて具体的な例を用いながら順を追って解説してほしいです。
  • トピックモデルを実際のサービスで使われた事例など、ごぞんじでしたらご紹介いただけるとうれしいです。
  • もう少し図的なものが多かったから嬉しかったです。
  • 紹介されたものの中でこれ良かったみたいなアルゴリズムがあったら感想を聞きたいです。

###感想

  • 非常に分かりやすかったです。ユークリッド距離とコサイン類似度に関する話は普段あまり意識していなかったので特に良かった。
  • 次元削減などイメージが分かりやすかった。
  • トピックモデルについて、更に深く知りたいから軽く紹介してほしい。
  • 大変もりだくさんな内容で勉強になりました。出てきたトピックについて復習したいと思っています。次回も楽しみにしています。
  • 紹介していただいたものを深堀するといろいろ使えそうな気がしたので大変ありがたかったです。
  • キーワードが多く、自習する際に役立つ内容だと思います。
  • キーワードが網羅されていたのであとで調べやすいと思いました。
  • 基礎的な内容から応用まで幅広く取り扱っていただき、大変勉強になりました。
  • 網羅的なモデル紹介で大変参考になりました。
  • 体系立てて説明されていたので、大変分かりやすかったです。量も多く、非常にためになりました。
  • よく調べられていてすごかったです。
  • すばらしい導入セッション! 高村本で拾えない内容もあったのでたのしいです。
  • やんわりでしたが、自然言語ででてくる要素は理解できました。後半から複雑な所があるので勉強したいと思います。
  • 内容難しかったが、文書の数値化の方法について大まかに知ることが出来たので今後やりたいことが出来たときに参考になりそうでよかったです!
  • 後半理解できなかった手法もあったので、参考文献見ながら調べてみようと思います。ありがとうございます。
  • 多分ためになる話をしてたと思うけれど、初心者なのでついていけずに死亡した。入門終わらせてNLPの理解が少しできてきた頃にまた復習してみます。
  • 初心者には少しむずかしかったかな。いろいろなキーワードは参考になりました。
  • 色々な手法がありますが、数学がわからない(苦手な)場合は、メリット・デメリットがわからないという所に最初の壁があるように感じました。
  • 資料共有に関して、以前のものも確認できるようになっていたので、ありがたかった。

##文脈自由文法の話@kogecoo

  • 久しぶりにCFGの説明を聞きました。とてもよく説明されていて、良かったです。この話の基本は最左導出でしたよね?
  • 文の構造を扱うのに必要なものをよく知らなかったので、道具の知識をつけようと思います。
  • 面白くわかりやすかったです。
  • よくまとまっており分かり易かったです。
  • 大学で学んでいた言語学の話と非常に近い話だったので理解しやすかったです。
  • しげき的な発表ありがとうございました。
  • 大学で習った内容もあり再び学習できてよかった。マルコフあたりから難しくなった。
  • ちょっとむずかしかったです。NLPの奥の深さが身にしみた感じ。
  • 句構造に関する内容を聞いたのは初めてでしたが用語の説明もありとてもわかりやすかったです。
  • CKYの説明が非常にわかりやすくよかったです。
  • 興味深い内容でしたが追いきれなかったので後で復習しようと思いました。
  • わかりやすく、丁ねいでよかった。質問にもお応えいただきありがとうございました。
  • なつかしかった。最近はけっこう進んでいるのだなと思った。
  • はいけいやがいねん的な説明がもっと欲しかった。具体的な内容についてはそれほど難しそうではないなと感じましたが…
  • 今まで文脈自由文法について分からなかったので、よく分かったので良かったです。
  • 難しく勉強したいと思いました。
  • 質問の時間をもうけて頂き理解しながらすすめる事ができた。
  • 文脈自由文法とか聞いた事がなかったですがCKYアルゴリズムをステップ実行してくれて非常に分かりやすかったです。
  • 文脈を学習で得るあたりについて、もっとくわしく知りたいと思いました。
  • CYKアルゴリズム、難しい。自分の手を動かして、例を解きつつ学びたいと思います。

##自然言語処理のための機械学習入門1章@piroyoung

  • とてもおもしろい内容でした。説明された内容について細かく確認したいので、ぜひスライドをアップして欲しいです。
  • 今回の本は持っているのですがほとんど積ん読なので読まないとと思いました。それ以前に数学が…
  • 面白かったです。
  • たいへんおもしろいトークで、内容もざっくりわかりやすくお話いただけて大変楽しく聞けた。
  • おもしろいお話でした。
  • 難しかったので勉強してきます!
  • 軽快かつ濃密な発表で大変勉強になりました。
  • 最初ちょっとだけわかった気になったが、やっぱりそんなことはなかった。
  • 機械学習の話というより、ほぼほぼ最適化の話でしたね。図があったので始めての人でもイメージはつかめたと思います。
  • @piroyoung さんには書籍の紹介よりは前回のような本にはなかなかないような話をしてほしいと思った。
  • KKTと呼ばれていてKarushさんが入っていることに安心しました。
  • 分かりやすかった。(コンパクトで)
  • 数学について高校レベルで止まっているので勉強したいと思います。
  • らしくてよかったです。
  • 高村本を自習してましたが、よい復習になりました。
  • すごい。
  • スパム分類だと、不要メールが必要と分類されるエラーより必要メールが不要と分類されるエラーの方が起こってほしくないので、そのあたりで評価するといいかもです。
  • 自然言語処理のための機械学習入門を読む際に見返しながら学習を進めたいです。
  • 数学的知見の必要性を実感できたので良かったです。

##ド素人による自然言語処理実践(仮)(@aich_08_

  • CKY法 よくわかりました。
  • 不要と分類されたもののうち、実は必要だったものの割合も、時間があるときに調べるとおもしろいかもしれません。
  • モチベーションの設定がとても実用的になっていて楽しいと思いました。
  • 思ったよりうまくいっていて驚いた。MeCabの辞書はIPAのをそのまま使っていたのでしょうか。
  • 身近な応用例という感じでわかりやすかった。
  • 自分もやってみたいと思いました。

##Twitterテキストのトピック分析(LDA)(@nkawagashira

  • 時間がなかったのがもったいなかったです。
  • グラフをペンタブで書くの良いアイデアでまねしようと思いました。
  • ぜひ最後まで聞きたかったです…
  • ゴエモンの例、とてもわかりやすかったです。自分の数学に対する苦手意識もキレイに斬ってくれました。紹介頂いた本、手にとってみようと思います。ありがとうございました。
  • 最後、細かく結果を聞いてみたかった。トピック分析試してみたいと思いました。
  • トピック数はどう決めましたか?
Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
You can’t perform that action at this time.