NC研究会(玉川大学、2007.03.14-16)で発表しました。
題目:情報量の測り方による近似事後分布の性質の相違について
論文誌Neural Networksに論文が掲載されました(2007.02.26)。
題名:Stochastic complexities of general mixture models in variational Bayesian learning<pdf>.
研究集会「統計モデルの数理と実際」(2006.11.27-28)に参加しました. 配布資料<ps, pdf>.
博士(工学)の学位をいただきました(2006.09.29)。
博士論文: Statistical Learning Theory of Variational Bayes
<ps, pdf>.
国際会議IDEAL2006にて発表しました(2006.09.22)。
博士論文の公聴会を開催していただきました(2006.06.21)。
参加してくださった皆様、ありがとうございます。
Journal of Machine Learning Researchに論文が掲載されました!!(2006.04).
題名:"Stochastic Complexities of Gaussian Mixtures in Variational Bayesian Approximation"<pdf>.
◎論文:"Variational Bayesian Stochastic Complexity of Mixture Models"
が NIPS*2005 に採択されました。
ポスター発表をしました(2005.12.5)。
アブストラクト
◎情報論的学習理論IBIS2005(早稲田大学, 2005.11.9-11)で発表しました(ポスター)。
論文タイトル:"混合分布における変分ベイズ学習の理論と実験の比較".
3日目の「変分ベイズ法」のオーガナイズドセッションで"変分ベイズ学習理論入門"という発表をさせていただきました。
◎ICONIP2005(Taipei, Taiwan, 2005.10.30-11.2)で発表しました。論文タイトル:"Variational bayesian algorithm and stochastic complexity for mixture models".
◎NOLTA2005(Bruges, Belgium, 2005.10.18-21)で発表しました。論文タイトル:"On variational bayes algorithms for exponential family mixtures".
発表資料の画面がきちんと映らない不手際があり、申し訳ありませんでした。
◎ALT2005(Singapore, 2005.10.8-11)で発表しました。 論文:"Stochastic complexity for mixture of exponential families in variational bayes".
◎NC研究会(玉川大学,2005.3.28-30)において発表しました.
論文:混合指数型分布の変分ベイズ学習における確率的複雑さ<ps版,
pdf版>
◎第 3回東工大数理科学フォーラム(2005.03.09)で発表させていただきました。ポスターはこちら 。
◎2005 IEEE Tokyo Student Workshop(2005.02.15)で発表しました。
◎12月に IEEE Conference on Cybernetics and Intelligent Systems (CIS2004) で発表しました。
◎IBIS2004(早稲田大学,2004.11.08-10)においてポスター&口頭発表しました.
◎NC研究会(けいはんなプラザ,2004.10.18-19)において発表しました.
論文:変分ベイズ法による混合正規分布モデルの学習における確率的複雑さにつ
いて<ps版,
pdf版>
混合正規分布の学習において,変分ベイズ法によってベイズ学習を近似したとき の確率的複雑さに対し下界を与えました.
◎ ISITA2004 (Parma, Italy, Oct.10-13)で発表しました。
◎ALT2004 (Padova, Italy, Oct.2-5)で発表しました。
データの現れる範囲を推定するときの推定精度を最適にするような新しい方法を提案しました.
論文のpdfファイルがこちらにあります.
◎修論発表資料はこちら。
◎IBIS2003(京都,2003.11.11-12)のポスター セッションで発表しました. 論文:極値統計量を用いたデータ領域の推定法について<ps, pdf>
◎NC研究会(東京工業大学,2003.07.28)において発表しました. 論文:極値統計量を用いたデータ発生領域の学習法<ps, pdf>
◎電子情報通信学会論文誌に論文が掲載されました(2003.03). 題名:縮小ランク回帰モデルのベイズ汎化誤差について
◎IBIS2002(富士吉田,2002.09.08-10)のポスターセッションで発表しました. 論文:縮小ランク回帰モデルの学習曲線の解析<ps版, pdf版>
◎電子情報通信学会NC研究会で発表しました.(2002.03.18). 論文:ランク縮小写像のベイズ汎化誤差の解析<ps版, pdf版>
ニューラルネットの線形バージョンであるランク縮小写像に対して,ベイズ推測をおこなったときの汎化誤差の上限値を与えました.
◎卒業研究の発表をしました(2002.02.18).発表は12分間でしたが,緊張しました. パワーポイントはこちら
◎精研公開(2001)のパワーポイントはこちら:学習理論の 導入部分について書いてあります.
◎確率項の入った最急降下法についてps版、pdf版 :最急降下法に雑音を加えたときにどうなるか書いてあります.確率微分方 程式とFokker-Planck方程式の辺りがメインです. 渡辺澄夫先生の著書"データ学 習アルゴリズム"(共立出版)のp.42〜p.46の内容です.