[[MenuBar]]
 
 ***2010年06月10日 招待講演 [#ha0ca845]
 +「人工知能は哲学である。」
 --ホッブス「リヴァイアサン」 1651年
 
 ***2010年06月10日 松本先生の参考文献 [#ia64547e]
 -https://kaigi.org/jsai/webprogram/2010/pdf/383.pdf
 +これらのモデルでは,隠れクラスの数は恣意的に決めなければならないが,任意の単語を隠れクラスとして用いることにより潜在的な意味クラスを仮定しない Latent Words Language Model (LWLM)
 --[Deschacht 09] Deschacht, K. and Moens, M-F., ”The Latent Words Language Model,” Proceedings of the 18th Annual Belgian-Dutch Conference on Machine Learning, (2009).
 +[Hearst 92] Hearst, M., “Automatic Acquisition of Hyponyms from Large Text Corpora,” 14th International Conference on Computational Linguistics, (1992).
 +ある特定の文脈やパターンが,そこに出現する実体の意味や実体間の関係を強く規定す
 る場合がある.Hearst[Hearst 92] が実体間のIS-A 関係を抽出するために,そのような関係を持つ単語が出現する典型的な言語表現パターンを定義することにより,&color(red){大規模コーパスから自動的に上位-下位関係にある語を抽出した研究};が有名である.
 --[Hearst 92] Hearst, M., “Automatic Acquisition of Hyponyms from Large Text Corpora,” 14th International Conference on Computational Linguistics, (1992).
 +文書と単語の生成モデルとして,隠れクラスを仮定する
 --Probabilistic Latent Semantic Analysis(PLSA)
 ---[[Hofmann 99] Hofmann, T., ”Probabilistic Latent Semantic Analysis”, Proceedings of the Fifteenth Conference on Uncertainty in Artificial Intelligence, (1999).
 --Latent Dirichlet Allocation(LDA)
 ---[Bei 03] Blei, D.M. et al., ”Latent Dirichlet Allocation” Journalof Machine LLearning Research, vol.3, (2003).
 
 
 
 +類似度について
 --[Lin 98] Lin,  D., “An Information-Theoretic Definition of Similarity,” Proceedings of International Conference on Machine Learning, (1998).
 +.少ない事例をシードとして用意し,パターンの獲得と事例の獲得をそれぞれの信頼度を考慮しながらブートストラップ的に行うEspresso というアルゴリズムを提案している
 --[Pantel 06] Pantel, P. and Pennacchiotti, M., “Espresso: Leveraging Generic Patterns for Automatically Harvesting Semantic Relations,” COLING/ACL-06, (2006).