In this paper, we propose a deep neural network that learns character-level representation of words and associate them with usual word representations to perform POS tagging.
2014-07-31
Learning Character-level Representations for Part-of-Speech Tagging
http://jmlr.org/proceedings/papers/v32/santos14.pdf
soumith/convnet-benchmarks · GitHub
https://github.com/soumith/convnet-benchmarks
Easy benchmarking of all public open-source implementations of convnets. A summary is provided in the section below.
Java8のHotSpotVMからPermanent領域が消えた理由とその影響 | ギークを目指して
http://equj65.net/tech/java8hotspot/
今回はJava8のHotSpotVMの話。Java8ではJEP122が取り込まれ、VMのメモリモデルが変更された。JEP122のタイトル「Remove the Permanent Generation」から想像できるとおり、Java8のHotSpotVMからは従来のPermanent領域が無くなった。
2014-07-29
Neuroinformatics Summer School 2000
http://www.jnns.org/niss/2000/lecturenotes.html
NISS2000 Lecturenotes (講義録)
はじめに:脳における双方向情報処理 川人光男、銅谷賢治
日本神経回路学会 若手向け講習会案内
http://www.jnns.org/niss/
日本神経回路学会では、数理モデル化のできる実験家、実データを扱える理論家の育成と、 異分野の研究者間の交流とネットワーク形成を目標に、若手向け講習会を 1999年から開催してきました。≪サマースクールの足跡≫ のページは存在するが、≪沖縄計算神経科学コース Okinawa Computational Neuroscience Course OCNC≫ のページは消えている。
SENNA
http://ml.nec-labs.com/senna/
SENNA is a software distributed under a non-commercial license, which outputs a host of Natural Language Processing (NLP) predictions: part-of-speech (POS) tags, chunking (CHK), name entity recognition (NER), semantic role labeling (SRL) and syntactic parsing (PSG).
Graham Neubig - チュートリアル資料
http://www.phontron.com/teaching.php?lang=ja
NLPプログラミングチュートリアル
機械翻訳についての資料
ノンパラメトリックベイズ入門
ノンパラメトリックベイズを用いた、品詞数が決まっていない品詞推定や教師なし単語分割などの実装方法について述べます。
脳の世界:中部学院大学 三上章允
http://web2.chubu-gu.ac.jp/web_labo/mikami/brain/index.html
「脳の世界」では、これまでに明かになった研究成果の一部を紹介するだけでなく、討論のページでは研究データからは完全に証明できていない仮説についても取り上げます。
2014-07-28
sparsehash - An extremely memory-efficient hash_map implementation - Google Project Hosting
https://code.google.com/p/sparsehash/
An extremely memory-efficient hash_map implementation. 2 bits/entry overhead! The SparseHash library contains several hash-map implementations, including implementations that optimize for space or speed.
PPMと言語モデル (2) | mots quotidiens.
http://chasen.org/~daiti-m/diary/?200706a&to=200706042#200706042
圧縮で経験的に高性能だった手法は自然言語処理/音声言語処理の 手法と同じだった, という結論になるようです。
Google Sparsehash+HPYLM | mots quotidiens.
http://chasen.org/~daiti-m/diary/?201003a&to=201003071#201003071
自製のHPYLMのコードをGoogle sparsehashで書き直してみることに
PPM, 言語モデル, Burrows-Wheeler Transform | mots quotidiens.
http://chasen.org/~daiti-m/diary/?200705b&to=200705191#200705191
PPMは, 実は要するにWitten-Bellスムージングされたバックオフnグラムのことだとわかった。
[プログラミング] Google Sparsehashを使うときの注意点 - tsubosakaの日記
http://d.hatena.ne.jp/tsubosaka/20100302/1267541850
持橋さんの書かれたgoogle-sparsehashと自作のsplay-treeとの速度比較をした結果の記事を読んで、さすがに速度に200倍近くの差がでるのはおかしいだろうということで原因を探ってみた。
Fixed-Size Block Allocator suite for C++
http://warp.povusers.org/FSBAllocator/
The advantage of this is that it's memory-efficient when the sizes of the allocated blocks are very varied throughout the execution of the program.
cacay/MemoryPool · GitHub
https://github.com/cacay/MemoryPool
This is a template class implementation of a memory pool allocator that is very simple to use and extremely fast with minimal overhead for each allocation/deallocation.
cpp-btree - C++ B-tree - Google Project Hosting
https://code.google.com/p/cpp-btree/
C++ B-tree is a template library that implements ordered in-memory containers based on a B-tree data structure. Similar to the STL map, set, multimap, and multiset templates, this library provides btree_map, btree_set, btree_multimap, and btree_multiset.