「カリフォルニア工科大学教授で認知神経科学者の下條信輔さんと話したことがあるのですが、ポストディクション(postdiction)の話をされていて、興味を持ちました。プレディクション(prediction:予言)は良く使う言葉ですが、ポストディクションというものもあるのです。簡単に言うと、後付けで自分の行動や認識の意味を書き換え、再構成する機能が脳にはあるというものです。脳が再構成してしまうので、本人は錯覚したり、時には本当のことをしゃべっているつもりで嘘をついたりもするのです」
2016-05-30
【人工知能はいま 専門家に学ぶ】(5)情報幾何学の創始者、甘利俊一氏が見るAIの世界 - SankeiBiz(サンケイビズ):
http://www.sankeibiz.jp/aireport/news/160529/aia1605290700001-n1.htm
2016-03-17
子供の言語獲得と機械の言語獲得
http://www.slideshare.net/unnonouno/ss-59660836
2016/03/17にPFIセミナーで話したスライドです。子供の言語獲得に関する非常に基本的な話と、関係しそうな機械学習の技術を紹介しました。素人なりのまとめなので、間違いなどご指摘いただけると助かります。
2016-03-06
なぜcuDNNのConvolutionは高速なのか
https://tkng.org/b/2016/03/06/convolution/
個人的には、CPUでどこまで高速にConvolutionが実現できるのかに興味がある。本記事は、その準備段階として、どういう高速化戦略がありえるのかを調べたものである。
Stanford University CS224d: Deep Learning for Natural Language Processing
http://cs224d.stanford.edu/
Through lectures and programming assignments students will learn the necessary engineering tricks for making neural networks work on practical problems.http://cs224d.stanford.edu/syllabus.html
2016-02-27
共変量シフト適応 - 東京大学 杉山・佐藤研究室
http://www.ms.k.u-tokyo.ac.jp/research-jp.html#theory-different-distributions-covariate-shift
入出力関係(関数)は訓練時とテスト時で変わらないが, 訓練入力とテスト入力は異なる確率分布に従うという状況を共変量シフトとよぶ.共変量シフトの簡単な解説(図付き)。
2016-02-24
[1502.03167] Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift
http://arxiv.org/abs/1502.03167
Our method draws its strength from making normalization a part of the model architecture and performing the normalization for each training mini-batch.
2016-02-11
C++11のスレッド、アフィニティ、ハイパースレッディング | プログラミング | POSTD
http://postd.cc/c11-threads-affinity-and-hyperthreading/
C++のスレッディングのライブラリとPOSIX呼び出しによって、所定のマシンにおけるCPUの使い方を微調整し、どのCPUでどのスレッドを実行するかまで正確に指定します。[関連]
-
std::thread::hardware_concurrency - cppreference.com
http://en.cppreference.com/w/cpp/thread/thread/hardware_concurrency -
Processor affinity - Wikipedia, the free encyclopedia
https://en.wikipedia.org/wiki/Processor_affinity -
Portable Hardware Locality (hwloc)
https://www.open-mpi.org/projects/hwloc/
2016-01-25
Automatic Colorization
http://tinyclouds.org/colorize/
This project is an attempt to use modern deep learning techniques to automatically colorize black and white photos.http://tinyclouds.org/
Ryan Dahl
2016-01-23
Japanese Cheat Sheet Pack by Nihonshock.com » Basic Japanese
http://cheatsheets.nihonshock.com/sheets/basic-japanese/
Nihonshock.com has offered and will continue to offer the digital version of its Basic Japanese cheat sheet as a free resource for Japanese learners.
2016-01-21
google/brotli · GitHub
https://github.com/google/brotli/
Brotli is a generic-purpose lossless compression algorithm that compresses data using a combination of a modern variant of the LZ77 algorithm, Huffman coding and 2nd order context modeling, with a compression ratio comparable to the best currently available general-purpose compression methods. It is similar in speed with deflate but offers more dense compression.
GitHub - google/zopfli: Zopfli Compression Algorithm is a compression library programmed in C to perform very good, but slow, deflate or zlib compression.
https://github.com/google/zopfli
Zopfli Compression Algorithm is a compression library programmed in C to perform very good, but slow, deflate or zlib compression.
Google Open Source Blog: Introducing Brotli: a new compression algorithm for the internet
http://google-opensource.blogspot.jp/2015/09/introducing-brotli-new-compression.html
While Zopfli is Deflate-compatible, Brotli is a whole new data format. This new format allows us to get 20–26% higher compression ratios over Zopfli.
2016-01-20
Go - Luceneで使われてるFSTを実装してみた(正規表現マッチ:VMアプローチへの招待) - Qiita
http://qiita.com/ikawaha/items/be95304a803020e1b2d1
FST というのは Finite State Transducer (有限状態変換機) の略で,有限オートマトンに出力がついたものです.変換機とか言うと小難しい感じがするかもしれませんが,文字列を入力として,文字列を返す単純な機構です.(機能としては map[string]string みたいなものです).
udp/json-parser · GitHub
https://github.com/udp/json-parser
Very low footprint JSON parser written in portable ANSI C.
Runtime Optionsコメント付きのJSONを扱うことができる、C/C++言語用のJSONパーサのソースコード。
settings |= json_enable_comments;
Enables C-style // line and /* block */ comments.
cedar - C++ implementation of efficiently-updatable double-array trie
http://www.tkl.iis.u-tokyo.ac.jp/~ynaga/cedar/
Cedar implements an updatable double-array trie [1,2,3], which offers fast update/lookup for skewed queries in real-world data, e.g., counting words in text or mining conjunctive features in a classifier.
2016-01-13
Quantum Annealing: Quantum computing for combinatorial optimization problems
http://www.stat.phys.titech.ac.jp/~nishimori/QA/q-annealing_e.html
量子アニーリング(西森秀稔)
http://www.stat.phys.titech.ac.jp/~nishimori/QA/q-annealing.html
量子アニーリング(西森秀稔)
http://www.stat.phys.titech.ac.jp/~nishimori/QA/q-annealing.html
量子アニーリング(Quantum annealing)は,量子効果を制御して,多変数1価関数(目的関数)の最小値を探す問題(最適化問題)を解く手法である。 パターン認識,自然言語処理,医療診断,金融商品開発その他への応用を持つ機械学習を始めとする多くの重要な課題が最適化問題として定式化できるため,最適化問題の効率的な解法は社会的に大きなインパクトを持つ。
2015-12-24
robertsdionne/neural-network-papers · GitHub
https://github.com/robertsdionne/neural-network-papers
neural-network-papers Table of Contents Other Lists Surveys Books Datasets Pretrained Models Programming Frameworks Learning to Compute Natural Language Processing Convolutional Neural Networks Recurrent Neural Networks Convolutional Recurrent Neural Networks Adversarial Neural Networks Autoencoders Restricted Boltzmann Machines Biologically Plausible Learning Supervised Learning Unsupervised Learning Reinforcement Learning Theory Quantum Computing Training Innovations Parallel Training Weight Compression Numerical Precision Numerical Optimization Motion Planning Simulation Hardware Cognitive Architectures Computational Creativity Cryptography Distributed Computing Clustering
Neural network paper list | Eniod's Blog
https://haduonght.wordpress.com/2015/12/23/neural-network-paper-list/
Based on https://github.com/robertsdionne/neural-network-papers
2015-12-12
Computational Network Toolkit (CNTK) - Home
https://cntk.codeplex.com/
下記ページに速度性能を比較した記事がある。
Microsoft Computational Network Toolkit offers most efficient distributed deep learning computational performance
http://blogs.technet.com/b/inside_microsoft_research/archive/2015/12/07/microsoft-computational-network-toolkit-offers-most-efficient-distributed-deep-learning-computational-performance.aspx
CNTK, the Computational Network Toolkit by Microsoft Research, is a unified deep-learning toolkit
CNTK allows to easily realize and combine popular model types such as feed-forward DNNs, convolutional nets (CNNs), and recurrent networks (RNNs/LSTMs). It implements stochastic gradient descent (SGD, error backpropagation) learning with automatic differentiation and parallelization across multiple GPUs and servers.Microsoft Research による、Windows と Linux に対応した deep learning のツールキット。
下記ページに速度性能を比較した記事がある。
Microsoft Computational Network Toolkit offers most efficient distributed deep learning computational performance
http://blogs.technet.com/b/inside_microsoft_research/archive/2015/12/07/microsoft-computational-network-toolkit-offers-most-efficient-distributed-deep-learning-computational-performance.aspx