2016年1月25日月曜日

何もしないためなら何でもする

これは、本当にそうですね。

→→→「何もしないためなら何でもする」

放射能汚染に関して、本来やるべき施策をやらないで済ませるために、

多くの国側の人間がやってきたこと:

ベラルーシの隠蔽方法を調べ、

この程度は大丈夫だと言ってくれる学者を探し出し、

IAEA傘下の国際機関の報告書などから「健康被害の明確な証拠は無い」などの部分を調べ上げ、

中高の副教材を作って身近で役に立つ放射線だと教育し、

人々の訴えは権限の無い役人に聞き置かせ、

被害者分断のための線引きをあれこれ考え出し、

収束宣言をして作業員の手当てをカットし、

もう普通に住めるのだから避難の補償は終了と言い渡し、

ガンの医療情報を隠蔽する法律を作り、

TOKIOの「食べて応援」のコマーシャルを作らせ、

子供達に給食で食べさせ、

それに補助金を出し、

ちょっとでも厳しい質問をしてくるジャーナリストは寿司友の社長に番組から降ろさせ

(まだまだあるはずだけど)...


何もしないための逆方向を向いたこれらの仕事のために、経産省、環境省、農水省や電通やメデイア企業でどれほど多くの人間が高額の給料をもらいながら、被害者の希望を打ち砕くために毎日仕事をしていることか。熱心に。それに仕事が速い。

被害者や国民の希望していることには仕事が遅いか放置だが。

というより、あれこれ理由をつけて、希望や要求を却下することが、仕事なのだから。吸い上げた税金は却下のために使われていると言っても良い。

大した国だよ、本当に。こういうことをやる国に協力するのがアイコク的で、これが日本のホコリの源泉なんでしょうね。

こどもたち、若者たち、「ウツクシイクニ」をよく見ておいてください。

ーーーーーーーー
上のリストの各項目について、根拠となる情報のソースをまとめてくださった方があります。→
【福島原発事故への対応】やるべきことから逃れるための壮絶な「努力」の数々
(お役立ち情報の杜(もり))

http://useful-info.com/fukushima-make-effort-to-avoid-what-must-be-done


ーー
日本人は何もしないためなら何でもする -- 「すべては気づき」さん 11/24/2015
http://sekaitabi.com/servant.html

のタイトルだけ見て、「何でもする」の内容を自分なりにリストアップした結果が上です。





2016年1月20日水曜日

Foveated Renderingとステレオ映画の行き着く先

論理的にこれの行き着く先は、そもそもIMAXなどの大型シアターでは真の3次元ステレオ映像は無理、よって、IMAXは廃れる運命にあるということでしょうか?

SMI’s 250Hz Eye Tracking and Foveated Rendering Are For Real, and the Cost May Surprise You

http://uploadvr.com/smi-hands-on-250hz-eye-tracking/

YouTube:
https://www.youtube.com/watch?v=Qq09BTmjzRs


いま、ここまで来て注視点付近だけを高解像度でrenderingして、周辺視野の解像度は落とす技術が十分実用になりそうですが、次の論理的ステップは、見ている人の両眼の注視点に合わせて両眼視差のつけ方をリアルタイムで計算しなおさないといけません。

輻輳眼球運動 (vergence eye movement)ができるステレオカメラで撮ったAvatarなどからポピュラーになった3D映画では、現状は両眼視差のつけ方はある代表的であろう注視点を想定して、すべての観客に同一映像を見せています。レンダリング時の想定と異なる画面の場所を注視している人には、視差が間違った画像ペアが提示されることになります。それも3D映画が気持ち悪い一つの大きな原因だろうと思います。

だとすると、3D映像を本気でやろうとすれば、一人一人の両眼の注視点をモニターしながら、それに合わせて個別の独立した映像をリアルタイムで生成して見せなければなりません。とすると、IMAXシアターや大画面テレビはどうなるんでしょうね。2D動画限定ならいいですが、3Dとはそもそもみんなで見る大画面とは整合性が無いのではありませんか?

もう一つの帰結は、3D映像は見ている人の眼球位置もとにその場でCG renderingしないとできない。ステレオカメラで撮った生の映像だけでは、絶対まともな3D映像は再生できないということです。だとすると、「実写」の3D映像は有りえない。必ず間にCGが入ります。映写する側にとんでもない映像世界の3次元モデル計算と、realtime rendering機能をそなえたシステムが必要そうです。Virtualized Reality(TM- T. Kanade)の世界ですが、大変そう。

それにしても、味気ない、非ロマンチックな話やね。

この考察間違っていますかね?そうならご指摘ください。


2016年1月16日土曜日

バークレーでの大学院生の頃の話:両眼視の研究を始めたきっかけ

[2つのFacebook記事の内容を一つにまとめたものです。]
--

今日は(おっと、もう昨日だ)かなりまじめにお仕事しましたよん。

午前中は委員会があって、午後は前にFBにでたDK君のD論のtandem editをほぼ5時間ぶっ通しでやりました。そろそろ投稿できるかな。

その後、FB見ていると突然DK君が戻ってきて、ぼくが学生のころの話を聞きたい。特に、両眼視の実験を始めたきっかけは?と。

そんなことを聞かれるのは久しぶりなので、ほとんど無い昔の写真を引っ張り出して、1時間半。この際なので、引っ張り出した蔵出し写真も公開します。

バークレーで大学院生だった7年間、長かったのか短かったのかよく分からない。自由に勝手にいろいろできたのは確かです。

両眼視の実験を始めたきっかけは、大学院生の研究トッピックの選び方としてごく普通で、advisorであるRalphが、これやるか?と言ってきたからです。

だから、だからD論となった研究の着想はボク由来ではない。ちゃんとやったのはボクですが。

その意味では、あくまでもRalphの手のひらの上での研究だったとも言えます。

ボクがバークレーに着いて1年後、だから多分1980年ですが、RalphはサバティカルでCambridge Univ.のJohn Robsonのラボで半年か1年?過ごしました。その時にやった実験の成果がこれです(知らない人が多いですが)。

Freeman RD, Robson JG.
Exp Brain Res. 1982;48(2):296-300.
PMID: 7173364
http://www.ncbi.nlm.nih.gov/pubmed/7173364

彼がバークレーに帰ってきてすぐ、こういうことをやりたいという話があって、ああ..それならボクがやります、ということで飛びつきました。

これが最初の研究トピックではなかったですよ。お手伝い的に2~3課題はやったし、自分の研究課題としてはこのD論の課題は2つ目です。半分以上運で、Natureの論文(1982)になった Contrast gain control の実験は続いていたのですが、それはD論にはしないことにしました。それでまとめるなど、単純すぎるというか、申し訳ないというか、チャレンジが無さすぎると思ったからです(1985の長い論文にはしましたが)。

「ちゃんとやる」というのは実は重要で、そうしないとわからないことはいくらでもあります。それ以外にも、もちろん最初の準備段階から、ちゃんとやっておくことで、査読の時に文句が少なくなる。自慢になりますが、D論のメインの論文 (1986a,bの2つ)を投稿した時、revision無しの一発で通りました。で、一人の査読者のコメントは手書きのただ一行、正確には覚えていませんが、「What took you so long? Publish as is...」とかでした。後にも先にも、そんなのはこの1回だけですが。紙は引っ越しで多分捨ててしまった。

Ralphの上の論文の実験は、いわゆるquick-and-dirtyな実証実験で、図は2つだけ。左右の目に映るサイン波の視差(位相差)を変えるのに Risley prismという相互に反対方向に回転する2枚のプリズムを合わせたものを使っていました。

Risley Prism:
http://osa.magnet.fsu.edu/terms/prisms.html#r

こういうのを使って、手動で視差を変えていたわけです。

手動でプリズムを回して視差を変えるなど、到底ボクには許せない話で、電子制御で位相を制御するべきだということはすぐにわかりました。でも、研究室にそれまであった刺激装置VS-1は単眼用で、両眼を同時に刺激する実験をするためには、今後のことを考えても2チャンネル完全独立な刺激装置が必要でした。

で、ちょうどその時うまい具合にEECS/Bioengineeringの修士の学生RR君が、何かプロジェクトをやりたいと、ラボを訪問してきました。

両眼版の刺激装置を作るためのVS-2プロジェクト始動です。

VS-1は、その当時Rockfeller Univ.にいたRobert Shapley先生のラボの技術担当だったMilkman氏が作ったシステムで、Milkman氏の?会社を通して他のラボに供給していました。回路図とMotorola 6800のアセンブラソースコード付きでです。Data Generalのミニコン上で走るクロスアセンブラで作ったプログラムをEEPROMに焼いて、機能追加したりして使っていました。プログラミングは、こういうので覚えるんですよね。

RR君とボクでVS-2の仕様と作り方を相談しながら、彼はS-100バスのカード4枚くらいからなる両眼視覚刺激システムを、VS-1と同じ系統の6802をベースに完成させました。初期の実験データはこれを使って取りました。Mike Shadlenとかも、このシステムを使って彼のD論のための心理物理実験をやりました。

だけど、です。VS-2は動作が不安定というかflakyでした。実験中にコントロールが効かなくなるんですよね。そういう時は、電源を落としてボードをイゴイゴといじって挿し直すと治った。多分wire-wrapの接続不良。そんなに経験が豊富ではない学生が作ったものにはありがちです。

それで、これではちょっとやっていられないということになって、ボクがその頃ブームになっていたIBM PCをベースに全部作り直すことにしました。

今は信じがたいですが、IBM PCは、回路図とBIOSのソースがTechnical Reference Manualとして公表されていたし、何か互換の基盤を作るには個人レベルで手がとどきました。いやぁ、面白かったです。

Macは開発を始めた1983年にはまだなかったし、あったとしてもスロットがなくて無理だった。

RalphもJohnも、最終的にあの研究がどういうストーリーになるかは、予見はしていなかったと思います。

ただ、両眼立体視のメカニズムの理解という目標からは、一歩引いて一段下がったところで、サイン波を刺激として両眼統合のシステム解析をすることが重要だというセンスは持っていたのではないかと思います。

←これ、一歩引いて当面の問題を包含するもっと一般化した原理を研究するというのは、いまでも超重要なボクの指針です。ぼくのD論のChapter 1はそういう話から始まります。この章だけ、ジャーナルの論文にはなっていませんが。

工学教育のかなりの部分が時間城域での記述と周波数領域での記述を難なく行き来できるだけの直感にするために、数学とシステム解析論に費やすところが多いと思います。我々の場合は2次元の画像とその空間周波数成分の理解、それを扱う視覚細胞の理解ということですが、理論は同じです。

そういう考え方で、両眼立体視を直接のターゲットとせずに、まずその基盤となる両眼からの信号の合流のプロセスを見ることが重要で、それができるという確信はありました。

サイン波というのは、人工的なパターンで、普通の人には直感が働かないですが、システムを理解するには今でも重要です。そこを理解してもらうのが、なかなか困難なのですが。

最終的に、一連の研究の最重要ポイントは一言で表せることがわかりました。一次視覚野の両眼統合は左右入力の線形加算である。それだけです。

今は当たり前のような話ですが、1982年当時はそうでもなかったのです。David Marrの遺作となった有名な1982年のVisionという本では、両眼統合のモデルはANDになっていたのですから。ゼロクロッシングに至る計算は線形ではないし。

刺激装置を自分で作ってというのも遠大なことのように思われるかもしれませんが、これは半分趣味でしたから、何ということはない。

それに、急いでポスドクになりたいと思わなかったので(だって、フルタイムで教授から給料もらうと勝手にやりにくいし、早く成果をという無言の圧力がかかる)、途中で視覚刺激をCRTモニターに出すための信号発生ボードを作って、一人会社を作って売りました。Vision Metricsという名前で1984-1986の期間にやっていました。全部で40数枚売れたかな。

でも、1983年のクリスマスは一人寂しくアパートでプロトタイプをワイヤラップで作っていました(グス)。

一度、多分1984年ですが、ARVOという毎年フロリダである学会へ行って、ポスター会場で許可なく実機デモ/セールス活動をやっていたら、午後になって見つかって怒られました。すんません。許可を取ることは考えもしなかった。無謀といえばそうですが。

そもそも、就労が原則禁止の留学生が、こんな事やっていいんかいという疑問はありました。でも誰にも聞きませんでした。法的なことの話です。お伺いを立てていたら、どこかでおそらく止められていたかもしれません。ボスにはOKをもらっていましたよ、もちろん。研究にも使える刺激装置を作るんだといったらそれはOKですよ。その国の市民の雇用を奪うことが就労禁止の主な理由なので、それは無いし、ボロ車を買って整備して高く売ったりは禁止では無い。それと同じで、部品を買って組み立てて売るのも、雇用を奪うことはなく誰にも迷惑はかけないし問題無し、と結論しました。

ボードを2枚IBM PCクローンに挿して使って左右の目を刺激するための2台のモニターを制御しました。ラボの写真の上部にあるブルーの箱がVS-3と名付けたstimulatorです。ぼくのD論のデータのかなりの部分をこれを使って取りました。

たぶん1987年

Ralph Freeman Lab, UC Berkeley 1985年頃。左上にVS-3 (BlueBox)。その下にspike用のwindow discriminator。左下の緑色の箱がJoyce Electronics Display (300cd/m^2)でそれを2台使いました。右下がTektronix 611でグラフ表示用ディスプレイとその下にWyseの80x24ターミナル。この二つはミニコン(Data General Nova 4X)につながっていました。


2枚作るんだったら、N枚作れるようにして売れば?ということです。いや、むしろワイヤラップで2枚作るのは嫌だということのほうが大きかったかも。PCボードを起こすのならということで、それなら売れると気付いたのでしょう。自分の研究に使うためだけの装置であっても、チャチャッといい加減に作るのではなくて、売れるくらいにしっかり作るというのは、あとあと原因不明の誤動作を防げるし、夢もあるし良いと思います。

VS-3に入っていた2枚のPC基盤(表)
(裏)Wire-wrapでプロトタイプ(上)を作った

[このパラグラフはnerd only]
今でこそ、Macしか使わないNeXT evangelistの生き残りですが、80年代はミニコン(DataGeneral NOVA)とDOS PCだけでした。NeXT以前のMacはどうでもいい。ボードのドライバーはアセンブラ(masm)で書いて、DOSのソフトウエアインタラプトでコマンド制御、でビデオの垂直同期信号でhardware interruptをかけて、フレーム落ちのない刺激提示を保証できました。こういうinterruptを扱う部分をやってみて、コンピュータの面白さがようやくわかってきた気がしましたね。このドライバーをC言語のソフトでコントロールして刺激装置にします。4ビット並列+strobeのカスタムポート経由で別の実験制御コンピュータからのパラメータとコマンドを受けて刺激をコントロールました。

1986年にPh.D.修了しましたが、その頃この信号発生ボードの回路図、ボードデザインなど全ての権利とコントラスト感度計測ソフトをまとめてある会社に売って、RX-7の1986年モデルの頭金にしました。初めて買う新車はrotaryのMazdaじゃなくて、どうするの?という訳のわからない非論理で納得して、うん、自分への「PhDお疲れプレゼント」にしました。あ、その会社は後に倒産しましたが、ぼくのせいではない。

Near Carmel, 1987 or 1988

Yosemite Valley, 多分1988


横道にさらにそれますが、日本の大学でやっている起業の支援、何か特許をとって会社を大きくして、いずれはIPOして...というシナリオにとらわれすぎではないですかね。特許とかそんなに大それた技術でなくても、軽く受注生産で細々とやっちゃえ、で良いとおもうのです。本職があってか学生なら、人を雇わなければ採算は取れます。ぼくはこれを含めて3つくらい製品化を目指して開発して、2つ実際に一人会社として営業しましたが、研究者をやっているかぎり大きくするつもりはありませんでした。潰れても自分が路頭に迷わない一人会社は逆に絶対潰れませんから(訴訟リスクは考えないといけませんが)。そういうのを気軽にできるのが米国の良いところで、それが100あって、そのうち1社が大きくなるところまでいくものだと思っています。その裾野無しに知財とかから始めて、いろいろ心配するのは、何か逆のような気がします。

留学して大学院に行けたことも本当に得難い経験をさせてもらったと思うのですが、こうしたちょっとした起業の真似事ができたことも、大学で研究しているだけでは経験できないことだったと思います。完成した基板のフィルムを持ってボロ車Datsun B210 (日本ではSunny)でDubinというひとつ山を越えたところにある市まで、ボード作成の発注に行ってきました。エッチング液の薬品くさい工場の社長は中国系のおじさんで、親切にいろいろ教えてくれました。ガーッとやっていると助けてくれる人は出てくるみたいです。

迷うのならやる、というのが以後の基本方針になりました。

こんな好き勝手なことやってきて良かったし、みんなもっといろいろやればいいのにと思っているので、日本の博士課程の規定の年限が5年と決まっているのが、とても不満です。アカハラで出してもらえないということでなければ、10年くらいかかったって別にいいじゃん。本人のためとか、勝手に言わないで。米国のバイオ系の平均は7年程度だったと思います。なので、あれだけ勝手にできて平均だったら、そう悪く無いかなと思っています。

Ph.D.後は、ポスドクで reverse correlationをやるために、さらに新しい刺激装置VS-4を作ることになり、90年代にはスパイクデータを記録するためにNeXT内臓のDSPを使ったスパイク波形弁別装置(SpikeCoder)を作ることになりますが、その話は別の機会に。

なんだか、実験装置作りを中心に研究が変遷していった感じですね。その時代を生きていた時はあまり意識はしていなかったのですが、振り返ってみるときれいにそうなっている。好きなことがそっちに傾斜しているのだから、当然だと言えば当然です。



Since a doctoral student of mine asked today how I got into binocular vision research at Berkeley, I dug out old photos  from 1984 - 87 and the PC board I designed. Here they are.

The visual stimulator printed circuit boards, which were sold at $1800 a pop through my one-man company named Vision Metrics.

Using two of my boards in an IBM PC clone, I collected a substantial part of my data which went into my dissertation. It was fun.

2016年1月1日金曜日

あけましておめでとうございます

あけましておめでとうございます。

ゆったりとおせちを食べ、千里川沿いのいつものルートでルーカスくんのお散歩のあと、地元の神社に歩いて初詣にいってきました。



暖かかったからか、時間帯なのか、神頼み事が多い世の中だからか分かりませんが、この神社では珍しい長蛇の列でした。参道だけでは収まらず、列が道路にはみ出しているのを見たのは初めてです。

性格なんですが、後ろで人が待っていると思うと、落ち着いてお祈りできないです。改めてそのうちですね〜。

大学で自由に研究できる時間も、残りをまじめに自覚しなければならない歳になりました。

さらに、それと同じくらいかそれ以上に危機感を持っていることも、どうすれば一番良いのかをよく考えないといけません。日本に帰ってきたのが間違いだったということには、決してしたくない。もちろん、自分のことだけではないのですが、いろいろ考えます。

FB,TWは、繋がりと考えのアンカーをもたらしてくれる場であり、ぼくにとって信頼できる方々からの重要な情報源でもあります。新聞やテレビを見ているだけでは、大事なことはわからないですから。FB,TWが無ければ決してお会いすることも無かった方も多いと感じ、感謝しております。昨年はありがとうございました。

今年もよろしくお願いいたします。

(2016年1月1日のFBポストから転載)
https://www.facebook.com/izumi.ohzawa/posts/1008271119231456