2007-07-01から1ヶ月間の記事一覧
http://cl.naist.jp/~eric-n/ubuntu-nlp/ NAISTのericさんによる Ubuntu 用リポジトリ。
Traditional SLMs are based on N-gram language models (NGLMs), which essentially treat each word occurrence as an probabilistic event.Naive NGLMs are suffered with data sparseness. One examples was ...To avoid the data sparseness problem, .…
http://nlp.stanford.edu/~wcmac/papers/20050421-smoothing-tutorial.pdf ふつうのLMスムージング
http://cl.naist.jp/~masayu-a/article/2006-05-26.pdf
Feed Forward Neural Networks (Multi-layer Perceptron)と Baysian Networks (Belief Networks) は、DAG で表現された学習・推論のモデルであるという点で似ている。FFNNでは、1つのノードは入力の線形和に対する閾値関数として定義され、 線形和の重みと閾…
Perl の組込みのハッシュは、いろいろな点で java.util.Map (Java) とか std::map (C++) と違うので、 同じような動作を期待するとはまることが多い。Perl の組込みのハッシュは文字列をキーとしたハッシュなので、 bless されたリファレンスはたとえば 「ク…
http://nltk.sourceforge.net/index.php/main_page 各種コーパスやWordNetのパーザーがPythonで提供されている。
http://jscience.org/ 単位変換と精度つき数、行列とベクトルのライブラリ