2023年10月9日月曜日

統計力学を勉強するためのYouTube教材

  統計力学を勉強するために参考になったYouTubeビデオ。動画の方が続けやすいときもある!(2回目)


慶応大学理工学部の講義。独特の関西弁がクセになる藤谷洋平先生の講義。面白いしわかりやすい。

【理工学部講義】統計物理 (慶應義塾 Keio University)


統計力学の教科書で有名な田崎先生の非平衡統計力学の講義。これから見る。

非平衡統計力学入門:現代的な視点から (Hal Tasaki / 田崎晴明)


振動・波動を勉強するためのYouTube教材

 振動・波動を勉強するために参考になったYouTubeビデオ。動画の方が続けやすいときもある!


京大・前川先生(退官されたらしい)の講義。過程を非常に丁寧に説明してくれるのでわかりやすかった。

全学共通科目「振動・波動論」前川覚 教授 (Kyoto U OCW)



ヨビノリさんの複素関数講義。複素数の扱いの基礎として。この人のわかりやすさも言わずもがな。

複素関数論 (予備校のノリで学ぶ「大学の数学・物理」)

2018年10月25日木曜日

行動課題を行う再帰的ニューラルネットワーク(RNN)

ちょっと情報が古いかつ一部異なるが、(主にサル用の)行動課題をこなすRNN(再帰的ニューラルネットワーク, Recurrent Neural Network)の論文集。
趣味研を始めるときや論文書き始めのときに調べました。
一部記憶はあやふやなのでご了承くださいm(. .)m

RNNが何をやっているかということへの仮説:課題の情報を高次元空間に振ってから低次元に圧縮してんじゃないか
Curr Opin Neurobiol. 2017 Oct;46:1-6. doi: 10.1016/j.conb.2017.06.003. Epub 2017 Jun 29.
Recurrent neural networks as versatile tools of neuroscience research.
Barak O1.
https://www.ncbi.nlm.nih.gov/pubmed/28668365


サルの課題をRNNに学習させるとサルのPFCの挙動と似た挙動を示した
Nature. 2013 Nov 7;503(7474):78-84. doi: 10.1038/nature12742.
Context-dependent computation by recurrent dynamics in prefrontal cortex.
Mante V1, Sussillo D, Shenoy KV, Newsome WT.
https://www.ncbi.nlm.nih.gov/pubmed/24201281


RNN内の神経素子を興奮性と抑制性に分けても学習できた
PLoS Comput Biol. 2016 Feb 29;12(2):e1004792. doi: 10.1371/journal.pcbi.1004792. eCollection 2016.
Training Excitatory-Inhibitory Recurrent Neural Networks for Cognitive Tasks: A Simple and Flexible Framework.
Song HF1, Yang GR1, Wang XJ1,2.
https://www.ncbi.nlm.nih.gov/pubmed/26928718
https://github.com/xjwanglab/pycog/tree/master/pycog


強化学習ベースのRNNシステムで行動課題を学習
BioRxiv-> eLife
Reward-based training of recurrent neural networks for cognitive and value-based tasks
H. Francis Song, Guangyu R. Yang, Xiao-Jing Wang
http://biorxiv.org/content/early/2016/08/19/070375
http://github.com/xjwanglab/pyrl
https://elifesciences.org/content/6/e21492


Hebb則(亜種)+強化学習のRNNシステムで行動課題を学習
BioRxiv -> eLife
Flexible decision-making in recurrent neural networks trained with a biologically plausible rule
Thomas Miconi
http://biorxiv.org/content/early/2016/07/26/057729
https://github.com/ThomasMiconi/BiologicallyPlausibleLearningRNN
https://elifesciences.org/content/6/e20899


連続的な行動をRNNで学習できた
Neuron. 2016 Apr 6;90(1):128-42. doi: 10.1016/j.neuron.2016.02.009. Epub 2016 Mar 10.
Recurrent Network Models of Sequence Generation and Memory.
Rajan K1, Harvey CD2, Tank DW3.
https://www.ncbi.nlm.nih.gov/pubmed/26971945


課題への回答の確信度みたいのも学習できた(OFCと挙動が似てた?*要見直し)
Neuron. 2015 May 20;86(4):1067-77. doi: 10.1016/j.neuron.2015.04.014. Epub 2015 May 7.
Dynamic Control of Response Criterion in Premotor Cortex during Perceptual Detection under Temporal Uncertainty.
Carnevale F1, de Lafuente V2, Romo R3, Barak O4, Parga N1.
https://www.ncbi.nlm.nih.gov/pubmed/25959731


RNNでMEG(筋電位)の挙動を再現
Nat Neurosci. 2015 Jul;18(7):1025-33. doi: 10.1038/nn.4042. Epub 2015 Jun 15.
A neural network that finds a naturalistic solution for the production of muscle activity.
Sussillo D1, Churchland MM2, Kaufman MT1, Shenoy KV3.
https://www.ncbi.nlm.nih.gov/pubmed/26075643


RNNで行動課題ができた(再帰結合はへんかしない?*要見直し)
J Neurosci. 2013 Jul 10;33(28):11515-29. doi: 10.1523/JNEUROSCI.5044-12.2013.
Emergence of dynamic memory traces in cortical microcircuit models through STDP
Klampfl S1, Maass W.
https://www.ncbi.nlm.nih.gov/pubmed/23843522

Cereb Cortex. 2014 Mar;24(3):677-90. doi: 10.1093/cercor/bhs348. Epub 2012 Nov 11.
Emergence of complex computational structures from chaotic neural networks through reward-modulated Hebbian learning.
Hoerzer GM1, Legenstein R, Maass W.
https://www.ncbi.nlm.nih.gov/pubmed/23146969



Continual learning(ある課題を学習させた後に別の課題を学習させても、前の課題の情報を失わないようにさせた学習方法)なRNNに複数の課題を学習させると課題間の関係がベクトル表現できるようになった
BioRxiv
Clustering and compositionality of task representations in a neural network trained to perform many cognitive tasks
Guangyu Robert Yang, H. Francis Song, William T. Newsome, Xiao-Jing Wang
https://www.biorxiv.org/content/early/2017/09/01/183632

2018年10月14日日曜日

脳部位座標計算Androidアプリ

超久々の更新。

(主にげっ歯類の)脳に何か刺したり注入したりするときに、アトラス上での座標の位置を、ステレオタキシック脳定位固定装置の座標に合わせるためのアプリ。
同業者向けです。

Brain Targeter

前のラボでは自動計算だったのだが、新しいところに移って手計算(面倒)になった+ちょろっと探して見つからなかった + スマホアプリ作ってみたかったので。

Bregma, Lambdaの位置から脳のサイズと傾き(Medial-Lateral軸以外の二方向)に対して補正をかけるようにしました。
計算は自分で考えましたが何回か試してみて概ねOKだと思います(誰か3Dでの角度補正の正しい計算方法を教えてください)。

もしよかったらご利用ください。


2015年2月25日水曜日

ImageJ(TurboReg)をMatlabで操作

久々々の投稿。
ImageJのプラグインTurboReg(連続画像ブレ補正ソフト、何故かとてもよく動く)的なものを使う必要があって、何とかMatlabでできないかと(matlabのimage processing toolbox付属のは何故か上手く動かなかった)色々調べてたら便利なものが出てきて、かつインストールが面倒だったのでメモ。

見つけたのはこのサイト
で、必要なものが色々な場所にバラけていたので各個確保する必要がある。

----------------------------------
参照するのは下記の3つ。基本的にmファイルはmatlabのパスが通っている場所に、jarファイルはmatlab本体ディレクトリ下java/jar内に、classファイルはmatlab本体ディレクトリ下javaディレクトリに入れる。
ソース 1: mouse-electrophysiology-project(Google code) ソース 2: arterioj/ImageJ/plugins/TurboReg (GitHub) ソース 3: MIJ (Biomedical Imaging Group: Ecole Polytechnique Federale de Lausanne, EPFL) matlab script: ソース 1: mouse-electrophysiology-projectから - array2ijStackAK.m - ij2arrayAK.m 少し場所が変わって - MotionCorrection_TurboReg.m jar file: ソース 3: MIJ から - mij.jar - ij.jar class file: ソース 1: mouse-electrophysiology-projectから - IJAlin_AK.class - TurboReg_AK.class ソース 2: arterioj/ImageJ/plugins/TurboReg から - turboRegDialog.class - turboRegFinalAction.class - turboRegImage.class - tuboRegMask.class - turboRegPointHandler.class - turboRegProgressBar.class - turboRegTransform.class
------------------------

これでTurboReg on Matlabが完成。
すごく便利す。
使用用途に合わせてMotionCorrection_TurboReg.mをいじって使わせて頂いています。

少々間違えているかもですが、3つのサイトの中のどこかから辿れます。
便利なインストール用シェルスクリプトとかを書くつもりはありません。
悪しからず。

で、さらに便利そうなのはここでつかっているMIJというもの。どうやらTurboRegを作ったラボと同じラボでつくったMatlabとImageJのインターフェース。
これ自体はイントールは難しくない。Matlab本体のappのディレクトリ下のjava/jarフォルダ内にij.jarとmij.jarを入れるだけ。
使い方は大元サイトにあります。(これもあまり丁寧ではないけど)

2013年11月10日日曜日

神経回路網の数理



 甘利さんが1978年(脂の乗った40代)に書いた少し古典(?)。内容は統計神経力学、神経場理論、学習理論の3本柱の数理モデルとその考察。

 甘利さんはやっぱり頭がいいんだと、再認識させられる。僕でも分かるほどシンプルなモデルなのに、おーおーなるほどそうかも気付かされる。オイラーの公式が美しいと言ってる数学者達の気持ちが少しわかる気がする。上手く表現できてないけど、とにかく頭いい。

 実験でも理論でもそうだけど、いい研究というのは、本質的なもの数個だけを残して他はギリギリまで削ぎ落としてシンプルな系になっている。多分そこまでしないと人間の頭では理解できないのだろう。

 ちなみに、利根川さんは系(海馬、fear conditioning、免疫はよく知らない)もシンプルだけど、それ以上に問題設定とコントロールの置き方が秀逸だと思っている。

 問題設定(仮説)、実験系、コントロール、にどこまで鋭利に考えられるか、削ぎ落とせるかが勝負な気がする最近。言うは易し行うは難し、だな。

2013年11月6日水曜日

Neural coding during active somatosensation revealed using illusory touch.

久しぶりに本業に近い論文紹介。少し前の論文だけど、自分の中では今年最大のヒット。

Nat Neurosci. 2013 Jul;16(7):958-65. doi: 10.1038/nn.3419. Epub 2013 Jun 2.
Neural coding during active somatosensation revealed using illusory touch.
O'Connor DH, Hires SA, Guo ZV, Li N, Yu J, Sun QQ, Huber D, Svoboda K.

タイミングvs発火率 神経が情報をコードしているのはどちらか、という議論があるがこれはそれに対して一つの答えを出している論文。結論としては、発火率。

手法は、ヒゲ知覚によるGo no-Go task時のS1の神経活動をチャネルロドプシンで再現するというもの。ヒゲのタッチと神経細胞の発火のタイミング(を模倣した刺激)をずらしても課題の成績に変化は無かったが、PV(抑制性)細胞の活性化による興奮性の発火率減少は成績を悪くしたため、上の結論に至っている。ヒゲの根元に働く張力(?)をコードしているのでは、ということだ。

ms単位で神経発火を再現する技術も凄いけど、問題設定が逸脱。分かりやすい上に、超重要。なぜNature Neuroscienceなのかがわからない(わけでもないけど、コントロール実験とか)。結論も、もちろん部位や課題によってはタイミングが重要なことがあるのだろうけれども、それでも長年の議論に一定の答えを示したのは凄い。

Go no-Go早くしたい…。アイデアはあるけど、その前に早く今の仕事に片を付けなければ。