« March 2007 | Main | May 2007 »

2007.04.28

強化学習

コンピュータ将棋ボナンザと渡辺明竜王の対局をドキュメンタリーでやった番組を再放送でみました。面白かった。なんとなく分かった気にさせるCGとともに対局中のつぶやきや、お互いの背景とかがで結果は分かっているもののどきどきしました。渡辺さんに当日の様子ボナンザ(下の方に技術資料


NHKはいいドキュメンタリーをやるねぇ。昔は電子立国続編)を見てわくわくしてました。

最初書いたとき忘れてましたが、上のコンピュータ将棋の話に関連して強化学習[wikipedia]の本も読んでみてます。ボナンザとか最近のコンピュータ将棋が対局集からどうやって評価関数を学習して行動を決定しているかですね。自然言語処理でも構造を持った出力の学習で使われたりして(searn)、ある程度成功しています。

| | Comments (77) | TrackBack (0)

2007.04.26

最近の出来事

箇条書き

・高校以来ぐらいの規則正しい生活を送ってます。ただ全部6時間後ろずれてる
・プログラム書いて論文かいてます。やる気があって調子いい。仕事も進める。
・論文の引用を探す過程で、ある方が今の私とほぼ同じ頃に事故で亡くなっていたことを知りました。優れた業績をあげていたのが突然とだえたので就職したのかとも思っていたのですが・・できるうち、やれることやらんとねぇ。
・風呂で漫画を読むのが最近の流行。ふやける
・辻井研の歓迎会はワインをがんがん飲んで、その後バーテンダー付きで焼酎を飲んで幸せに。面白いメンバーが集まってきたなぁ
・アルゴリズムを思いついて実装もして予想通りの動作をしているのだが何の役に立つのかわからない。そんなのばっかり

| | Comments (4) | TrackBack (0)

2007.04.15

長ければいいわけではないのだが・・

Frustratingly Easy Domain Adaptation, Hal Daume III ACL 2007 to appear(pdf)
はドメイン適用問題での現在の最高精度を、perlで10行ぐらい書いて入力データを変換させたら達成できたよという論文。Frustratingly(訳:ストレスのたまるほど) と書いたほど、簡単な方法。

俺も修論の発表で、成果の重要度を、高い順に並べたとき(C++の)ソース量で考えると10行、500行、1万行。そして、発表の流れ上、二つ目、三つ目の内容を捨てざるを終えなかった。その時の気持ち・・

---
上の論文は名前が面白いだけじゃなく、内容も面白いので簡単な説明

ドメイン適用は実アプリケーションではよく問題になることで、学習器を作ろうとしたとき、ある分野(例えば新聞記事)に関する正解データは大量にあるけど、今から解こうとしている問題(例えばブログ)に関する正解データは無いので作るにしてもお金かかるからちょこっとしか作れない。

そこで、

大量の違うドメインの正解データ(src) と 少量の解こうとしているドメインの正解データ(target)

を組み合わせて、どちらか片方だけを使った場合よりも高い精度をだしたいという話。

で上の論文で提案したのは利用する特徴テンプレート x は従来と同じのを使うが、それを一般用 x_general、違うドメイン用 x_src、解きたいドメイン用 x_target の三つ分に拡張して(特徴種類数は元の三倍になる)、違うドメインの学習では(x_general, x_src, 0)が発火するように、解きたいドメインの学習では(x_general, 0, x_target)が発火するようにする。複数のドメインがある場合は(x_general, x_domain1, x_domein2, .., x_domeinN)というふうにつくって、x_domeinIの学習時(評価時)は(x_general, 0, 0, ..., x_domeinI, 0, ..., 0)とする。で、あとは従来と同じように学習

学習結果は、一般の情報はx_generalの部分(に対応する重みベクターとか)に入って、ドメインにspecificなところはx_domeinI...の部分に入る。

| | Comments (56) | TrackBack (0)

2007.04.08

4月第一週終わり

3月末に私は修士を出たわけですが、高校のときにお世話になった先生も修士出たばっかりで僕らを教えていました。今の自分の立場を思うと、当時先生が何考えていたのかが少しは分かるなぁ。大変

土曜は上野で花見。ちょっと寒かったですが、お酒を飲んだので大丈夫。今日は新宿でやもりを囲む会。その後久しぶりのカラオケ。どんどん飲むよ。駅前では浅野さんとドクター中松に会った。彼らも最後の追い込みで大変

最近、背景分野が違う人と飲むことがいろいろ多いのですが、話がまだまだ下手だなぁと。みんなが分かって楽しめるネタをいくつか持っていた方がいいし、他分野のことに関する質問の仕方とかもうまくなりたい。うまい人はいくらでもいるので、その人達から技術を盗もうと。黙ってしまうか聞く興味を持たなくなってしまうのは一番よくない。

| | Comments (0) | TrackBack (0)

2007.04.05

誰もいない

今日は午後に雷とどしゃ降りの中、俺はバグが取れないのでプールで泳ごうと、御殿下行ってみたらプールに誰もいない。監視員と二人だけ。監視員は俺だけを見ている。そういうことならと、いろいろ変な泳ぎ方をしてました。バグもとれました

久しぶりにみてみたら、googleの2006後半から2007のpaperの出しっぷりがすごい [link]
これには含まれていないけど、インターン参加者が書いた分も含めるとすごいことになるでしょう

| | Comments (2) | TrackBack (0)

2007.04.03

読みづらい名前

去年ロスの空港で会ってお互い読みづらい名前だねといってDSを一緒にプレイしていたHaghighiさんがいい研究をしている。

Unsupervised Coreference Resolution in a Nonparametric Bayesian Model, Aria Haghighi and Dan Klein
To appear in proceedings of ACL 2007 [link]

Approximate Factoring for A* Search: Aria Haghighi, John DeNero, and Dan Klein
To appear in proceedings of HTL-NAACL 2007 [link]

前者はcoreference問題をNonparametric Hierachical Bayesian Modelでやったら、supervisedと同じぐらいの精度でますよという話。今までNonparametric Bayesian modelを使ったNLPアプリケーションは評価が微妙(クラスタリングやっても評価が難しいし、教師付問題とかと比較してもラベルの数が不定のケースがそんなにない)だったけど、これはentityの数は不明でいくつに分けるかが分からない問題なので、適用するのには確かにいいタスクですね。

後者は構造を持った出力のサーチでA*を使いたいんだけど、そのheuristic functionを求めるのに、基の問題をexactにとける単純な問題の組み合わせに変換して、それを解いた結果をheuristic functionに使うというもの。

ACLでマリオとヨッシーばかりでてくるプレゼンをやるくらいだし、頭が柔らかいんだろうなぁ。

| | Comments (0) | TrackBack (0)

2007.04.02

いろいろ変わる

卒業式終わってから、いろいろどたばたしてました。旅行したり研究室とかオフィスを引越ししたり。

春休みだから、本郷とは気分変えて、駒場図書館に篭ってプログラミングと論文・本読み。論文の再実装は謎解きみたいなところがあって楽しい。

花も咲いてるし、お酒もどんどん飲むよということで花見もしてきました。

学校では、研究室の方々と花見をしました。ちょっと肌寒かったのでお酒を強めに入れたのですが、なかなか。で研究室で寝ていたら、次の飲み会に遅れそうになって全力疾走で、ワインがシェイク

今日は代々木公園でサークルOBOGの方々と花見。昼間からお酒を飲むのは贅沢。サッカーを久しぶりに少しやったけど、球技も楽しいよなぁ。

目標もたてたし、今年度もがんばりましょ

| | Comments (0) | TrackBack (0)

« March 2007 | Main | May 2007 »