Baku Hashimoto

橋本 麦

構成論的アプローチと分析的アプローチ

メモ

実際に事業を営む経営者は経営を構成論的なアプローチで理解している一方、経営学氏はは分析的に理解している。あるいは、実際にスポーツをしているアスリートはスポーツを構成論的に理解している一方、スポーツ評論家は分析的に理解している。要するに、構成論的アプローチとは、「つくってなんぼ」というアプローチなのだ。

人工知能は人間を超えるか ディープラーニングの先にあるもの

Making of “group_inou – EYE” (EN)

Video
Below is quick technical note.

How to Make?

Basic idea of this video is combination of Google Street View sequence and stop motion animation of group_inou(cp and imai). Building efficient methods of getting background panoramas from Street View and shooting pictures of members were keys to make the idea real in short period.

Here is a basic workflow.

  1. Location Hunting: Writing down good locations onto spread sheet.
  2. Fetching proxy images of Street View and making pre-visualization.
  3. Shooting.
  4. Converting images to high-res and compositing with characters.

Below is set of tools I had built in making process while large part of their codes is messed up.

baku89/group_inou-EYE – GitHub

Hyperlapse.js

To get images from StreetView, I forked Hyperlapse.js which was an open source library from teehan+lax.

I ended up barely used Hyperlapse.js itself but mainly used a library called GSVPano.js which Hyperlapse.js depended. An original repository was deleted by violating Term of Service so I used the modified version in Hyperlapse.js. The official blog of teehan+lax said they rewrote the part of code which downloads panorama-tiled images to use official API methods not to conflict with ToS.

Fetching Panorama

Hyperlapse.js automatically searches route between two points with Google Map API, subdivides the route to array of points, and finds corresponded positions in StreetView. This means Hyperlapse.js cannot go out-of-way places, inside buildings, or elevated railroad so a tool exports array of contiguous panorama IDs was required instead of a one searches route.
So I made this.

Pano ID Extractor

GSVPano.js loads the JSON array of panorama ID and downloads each panorama images.

toDataURL() converts the panorama image drawn on canvas into base64 and “fs.saveFile()“ in Node.js saves them into local. I used NW.js to enable Node.js functions to be called from browser.

Embeding Data in Panorama Images

Below is edited panorama images.

A red and green dots on bottom edge of this video are the saved Panorama data.

{
    "id": "WysqsRo6h5YGNmkkXVa9ZA",
    "rotation": 35.11,
    "pitch": 1.09,
    "latLng": {
        "A": 51.59035,
        "F": 3.677251999999953
    },
    "date": "2009-09",
    "heading": 0
}

These JSON converted into byte arrays and writes each bit on bottom of video. (corresponding code)
The reason to go though this process was to replace with high-res images later. The dimension of sky map image needed for rendering 1080p is at least 10Kpx but it could cause some trouble if I kept downloading too much of such large images so I got 1600px-wide good looking images for that time. I built proxy-replacing tool for that.

Making Pre-visualization

A detailed previz was required at pre-production stage because shooting could be very tough otherwise. I brought edited panorama images into C4D and added camera motion. Fortunately, there were low-poly models of both characters from another project so it was easy to set motion of members.

Shooting

EOS 5Dm2 was used for shooting. To add realistic adjustment for lighting and perspective, the idea of taking images of many general poses so to use them repeatedly was not good enough. So I decided to shoot from begin to end in turn. (It seemed to be much better to dare to adopt the hard way for shooting. )

It turned out to be around 3,000 frames to shoot. A strong automation was required so I built a shooting system with NW.js.

Controlling lights with DMX

DMX a protocol generally used for controlling stage lights was applied to control lightings. ENTTEC DMX USB PRO was used to send DMX signals. It was tough to install driver into mac with OS after Mavericks because of some known bugs. This is an support article.

DMX is basically a protocol sends light intensity with XLR so stage lights usually have XLR input for receiving DMX but there is no such things on photographic lighting. An alternative was ELATION DP-415 to control input voltage directly.

Test with some lights at office.

Calculating Camera Position and Ajusting Direction of Characters

I added Xpresso in C4D project to calculate camera position. Time direction was used to set direction of members. Distance from members are written on floors and scale was written on tripod feet to make angle more accurate. Plates with each time were around them. A video guide was set above them so they could see the direction to turn next.

DIY Release and Electric Follow-focus with Arduino

Since position of camera was high, I built PC control for shutter and zoom ring with Arduino.

(I found there were official Canon SDK and add-on for oF after everything was done by the way.)

I used stepping motor for follow-focus. It was little risky because it did not recognize end of rotation of zoom ring but I there was no time to fix that problem. It was ugly but still worked all fine.

C4D with Python Libraries

External python libraries works fine inside C4D. This means OSC and DMX also works on C4D with related libraries. I used python-orc to synchronize timecode between shooting system of Node.js and C4D, and used pySimpleDMX to control lighting.

ex) Send OSC with python tag

Use of VDMX

A large video guide was projected using VDMX. This helped members to image their motion.

Actual Shooting

It turned out to be system like above. Pink arrows indicate OSC. With this system, all of 3,500 frames were shot in two days.

Test shooting.

Post Production

All sources were edited with AfterEffects. Background was replaced with high-­res version. Because of too fast motion, “Warp Stabilizer” effect did not work well so most of the frames were adjusted by hand. Positioning of characters was done frame by frame that almost killed us.


I guess I will not make another video with same method and I will not take street view work so if you have any question, please feel free to mention to @_back89.

Special thanks to nolie for translating.


Feb 4, 2016

△▼▽▲素材

とのことだったので、素材載っけときました。多分大丈夫。

Tesselation with Triangle (156.4MB)
[license type=”cc0″]

2年前なので正直自分でもどうやったか忘れてますが、C4Dでグレースケールの△▼▽▲素材を作って、AEでコロラマで色付けしたのは覚えてます。▲がチラチラし過ぎてる時は、フレームブレンドONにしてスロー再生しつつ、エコーかけるとイイ感じになったような…。


「数ドット分の溝」なんだけど、多分これの事だと思います。ぶっちゃけそんな気にしてませんでした…。

  1. C4Dから書き出す時に4K位でアンチエイリアスをオフって書き出し
  2. AE側でコロラマなりTritoneを掛けて色をつけ
  3. 50%に縮小 & OLM Smootherを適用する

って方法だと上手く行きそう。

おじさんのホームページ

デザインのデの字も知らないおじさんが、ブログやTumblrといったWeb2.0的なプラットフォームに目をくれることなく、10年以上シコシコとホームページ・ビルダーで継ぎ足し継ぎ足し更新し続けてきたようなサイトが好きだ。その人の中でガラパゴス的に深めていった知見の集積が独特の生活臭となってダサいタイル背景画像に染み込んでいるような、実家を思い起こさせる安心感のある乱雑さが良い。

というと、馬鹿にしているみたいで申し訳ないのだけど、別に何かウラの含みがあるわけでもなしに、普通に読み物として面白い。それこそ最近のバイラルメディアの、いかにもバズに最適化されたような「一度は行ってみたい 世界の○○な場所 ベスト10」とかいうクッソ薄い記事じゃなくて、おじさんが独自のキュレーション力とフェティシズムでコツコツ集めたニッチで濃ゆい情報にガツンとやられる。


Takemaのあっちこっち
夫婦の旅行記が面白い。奥さんはY字バランス、管理人さんはX字で空中ジャンプで記念写真を撮るのが恒例らしい。

scilla
嘘じゃなしに、小学生の頃から読んでた。高学年の頃、なぜか無性に分子模型を作りたい欲求に猛烈に駆られた時期があって、毎日このWebサイトをチェックして新しい分子模型が出来上がってないか楽しみにしていた。ちなみに結局発泡スチロール球は高すぎたので、ペーパークラフトで我慢する他なかった。「仮説実験授業関連」がおすすめ。

S.F.A1 サイエンス ファクトリー 英一
ニッチなペーパークラフト多し。フラーレン作った時は死ぬかと思ったので、簡易版がおすすめ。

世界飛び地領土研究会 (飛地)
ここ数年のおじさんホームページの中で一番のヒット。タイトルに括弧書きで「(飛地)」と付け足されている感じがなんとも言えない。書籍も出ているので一部界隈では有名っぽい。学生時代に九龍城に住まれていた事があるらしく、そのときの体験談も相当にカオス。group_inouのMVを作るときもこのサイトで場所をピックアップしたりした。

折り紙研究ノート
東大大学院のプロモーションWebを作った時に知った。少しデザインはかっこよくなってしまうが、折り紙の折り方を幾何学的に研究されていて面白い。こんな折り目、見たことない。

北岡明佳の錯視のページ
錯視研究の第一人者。Lady GaGaの”ARTPOP”のアルバムにもこの方の作品が採用されたことで有名。

変な法律
子供向け科学教材みたいな会話劇になってるのが楽しい. 近々第二版へ移動予定だとか.

世界の砂と日本の砂 スキャナーを使った砂の画像観察 地質調査センター 須藤定久
ノガミカツキが教えてくれた. 良い.


見つけたら足していく。

Making of “group_inou – EYE”

group_inou “EYE”のMV、かなり独特なフローで制作したので、技術まわりの諸々をメモ。丁寧に書いていくと相当な物量になりそうなので、要所だけ抑える感じで…。

どうやって作る

見れば分かる通り、Street Viewを使ってます。そこにコマ撮りしたアーティストを雑コラ的に合成。

大まかなフローは以下の通りです。

  1. ロケハン (スプレッドシートによさ気な場所をピックアップ)
  2. プロキシ版StreetViewの取得 & プレビズ作成
  3. 撮影
  4. 高解像度置き換え & 合成

いくつもインハウス・ツール的なものを作りました。超汚いコードで多分動かなそうだけど、一応まるっとコードアップしときます。

baku89/group_inou-EYE – GitHub

Hyperlapse.js

StreetViewの画像の取得には、teehan+lax社がオープンソースで公開しているHyperlapse.jsを参考にしました。Vimeo界隈だとこのムービーは有名かも。

ただ、実のところHyperlapse.js自体は殆ど使ってなくて、Hyperlapse.jsが依存しているGSVPano.jsってライブラリを主に使いました。本家リポジトリがGoogleから怒られたらしく消されていたので、Hyperlapse.jsに入ってるバージョンを。teehan+laxのどっかに載ってたメイキング記事によれば、GSVPano.js内部で直でパノラマのタイル画像を引き抜いてる所がアウトだったから、API的に呼び出すよう書き換えた、とのことでしたので。

パノラマの取得

Hyperlapse.jsはGoogle Map APIで2点間の経路を検索し、その経路のパスを分割して点群にバラし、各点毎に近傍のStreetViewを検索かけています。つまり、経路検索の出来ない僻地や建物内は行けない上に、僻地や高架などではうまく動かないので、経路検索ではなく、隣接するパノラマのIDの配列を吐き出すツールを作りました。

Pano ID Extractor

ここで吐き出したパノラマIDをGSVPano.jsに読み込んで、パノラマデータを書き出します。

公開した後になって、この方のツイートでtakramさんの記事を知ったのだけど、やってる事はかなり近いです。ただ、canvasをbase64変換したやつをAjax的にゴニョゴニョしてサーバーから保存かけてやるのはコードが分散して億劫だったので、Node.jsの fs.saveFile() 使ったというワケ。で、ブラウザ内からNode.jsのモジュールが使えるようにするために、NW.jsなるものを使いました。要するにNode.jsでネイティブアプリっぽいものが作れるよーっていうやつで、使い方も割と簡単。多分APIとか絡めてジェネ的に映像素材を作るためのフレームワークとして今後もかなり使えそうです。何よりHTML+CSSでUIが組めるのがデカイ。

データの埋め込み

Hyperlapse.jsを使って保存した連番をPremiereで編集したものがこれ。

下の方にある赤と緑のQRコードみたいなのは、保存をかけたパノラマの各種情報が埋め込まれてて。

{
    "id": "WysqsRo6h5YGNmkkXVa9ZA",
    "rotation": 35.11,
    "pitch": 1.09,
    "latLng": {
        "A": 51.59035,
        "F": 3.677251999999953
    },
    "date": "2009-09",
    "heading": 0
}

こういうJSONを、バイト配列にバラし、各ビットを書き込んでるから仕組みは単純です。(該当箇所のコード) 何がしたいのかというと、後で高解像度版に置き換えられるようにするため。フルHDでスカイマップとして使うには横13,000px位は必要なのだけど、そんなバカバカ画像取得しまくったら何となく怒られそうだったのと、編集段階ではなるたけデータを軽くしたかったので、一旦横1600px程度でサクサクよさ気な場所を取得し、Premiereで実尺に編集したのを一気に高解像度版に置き換え。これも専用のツールを作りました。

プレビズ作成

撮影が大変そうだったので、プリプロ段階でかなり細かい所までプレビズを作りこみました。
編集したパノラマをC4Dに持って行ってカメラワークとか付けて。ちょど前のgroup_inouのPR vol.10のティザー映像で、お二人のローポリモデルを作っていたので、それを再利用して人物の動きも決めていきます。

撮影

コマ撮りなので、5Dmk2で写真撮影しました。基本的に雑コラ感を意図的に出し、あまり馴染ませない方向にはしようと思っていたのだけど、それでも最低限パースとライティングは合わせておこうと。そうなると汎用性の高いポーズを素材撮りして随所で使いまわすという方法が難しかった上に、やっぱりそこは苦労してタイムラインに沿って撮った方が画に凄みが出るように思えたので、3000F近く撮ることに。こうなると、時短のためにも徹底的にオートメーション化してやろうということで、またもやNW.jsで撮影用アプリを組みました。NW.js最高。

DMXで照明の制御

ライブハウスとかの照明の制御に使われるプロトコル、DMXを使って、ライトの制御をしました。DMXの送信にはENTTEC DMX USB PROを使いました。Marvericks以降のドライバのインストールはかなり厄介で、サポート記事参考にしています。

DMXは要するにXLRで照明の明度を送んよーってプロトコルで、ライブ照明とかは本体にXLRの入力端子が付いていたりするのだけど、撮影用照明はそうはいかないので、ELATION DP-415を使って照明への入力電圧を直接変えることにました。今後も色々つかえそうです。

事務所の適当な電球で試したやつです。

カメラ位置、メンバーの向く角度の算出

プレビズ作成に使ったC4DのプロジェクトをXpressoを使い、カメラ位置などを算出します。人物の向く方向は「○時の方向」で。スタジオ床にメンバーからの距離をバミって、三脚の伸縮部分にも目盛りを付け, カメラ位置を正確に移動させられるようにしました。スタジオの周囲には「○時」のプレートを貼り付けて、上のガイド映像を見つつ、指定の方向を向いてもらいます。

Arduinoでレリーズと電動フォローフォーカスの自作

三脚位置が高いので、PCからシャッターやズームリング制御出来ると良いなと思って、Arduinoでチキチキ工作しています。レリーズ自作は超簡単。この記事を参考に。

カメラのタイマーレリーズを自作してみた – FALCON’s Diary

あと、諸々終わって気づいたのだけど、EOSのSDKも出てるし、oF用のアドオンもある。国内ではダウンロード出来ないのだけど、色々ゴニョゴニョやったら入手出来ました。(かもしれません, と念のため言っておきます)

フォローフォーカスはステッピングモーターを使って回します。ズームリングが回りきったのを検出してくれないから危なっかしいんだけど、時間が無かったのでとりあえず動けば良いという方針で。東急ハンズで諸々買い出し。近所のFabCafeでアクリル切って、組み立てた。相当不格好だしMAKERS界隈の人には笑われそうですが…。

とはいえ、実際これ撮影段階で邪魔になり後半使わず…。このまま陽の目を見ないのは可哀想だし、電動フォローフォーカスはコマ撮り系でかなり使えるはずなので、借りたい人は気軽に言ってください。

C4D Library

C4Dも外部のPythonライブラリ普通に使える。つまりはOSCも使えるということなので、pyhton-oscをつかって、Node.jsの撮影アプリとC4D間でフレームやカメラ情報の同期をしたり、C4DからDMXの制御をしたりしています。pySimpleDMXを用いてDMXも同様に。

参考: OSC with C4D – gist

VDMXの有効活用

VDMXを使って、ガイドやカメラからの映像出力を合わせて、プロジェクターで現場に大きく投影しました。現場全体で撮影しているシーンや展開を共有できたので良かったです。

撮影本番

こういうシステム構成にんばりました。ピンクの矢印はOSC。

このシステムを使うことで、結局2日で3500フレーム超撮影することが出ました。とはいえ、相当お二人に負担をかけてしまったのが反省点です。

僕とノガミでテスト撮影。DIY感あります。

ポストプロダクション

撮影後は、地道にAfterEffectsを使って編集。背景は先のReplace Proxyを用いて高画質版に変換し、AEでワープスタビライザーかけています。ただ、あまりに動きが早すぎて、スタビライズが全く上手く効いてくれなかったので、半分くらいは人力で…。(辛かった)

人物の配置は全編にわたって1フレームずつキーフレーム打ってる感じ。2コマ打ちでも良かったのかもしれませんが、地面のプルプルに追従する感じや、動きのジワジワ感を醸し出すためには、2コマ打ちではなく、ここは地道に1コマずつ編集していかないと。。。

また、グリッチ空間のシーンはノガミがベースとなるポリゴンを作っているのですが
, これもPhotoscanというソフトを謎活用して無茶苦茶なことやってるらしいです。

そのほか

Slack最高。
ただ、タスクやチェック動画は、タイムラインだと埋もれてしまうので
スプレッドシートと併用が良いかもしれない。–>

Term of Servicesはかなり読み込みました。ウォーターマークを消さない状態で、ブラウザ上での見え方から”著しく”変わらなければ商用利用も可、許可申請も要らない。雲などの自然物の除去や合成は可。あとは多分ToS的にはアウトですが、2年以上公開停止になっていないStreetViewを使った他作品(これとかこれ)を参考にしつつ、どこまで画を弄っていいかを判断しました。

リファレンスは色々あります。ノガミと共有してるものだと

あと個人的には。


本家Hyperlapse.jsもオープンソースプロジェクトだし、個人的にもっと映像以外にも色々出来るんですよって自慢したかったような気もするので色々書き尽くしました。あと、多分これ普通のアーティストだといろんな意味で絶対やらせてもらえなかったと思います。アーティストやレーベルの方々も、面白いものが出来れば良し、とのスタンスで許して頂けましたし、小回りの効く座組だったからこそ、これだけ変わったワークフローでもどうにか完成させられたと今振り返って思います。

多分今後同じ手法を用いて作品作ることはありませんし, 似た案件が来たとしても断るつもりでいますので、何か作り方に関して質問等があれば気軽に@_baku89に連絡ください。webには書きづらい制作過程とか結構ありますので。


追記 Feb 4, 2016

ユーフォニアムロス

響け!ユーフォニアムの何が刺さったのかずっと考えてたのだけど、結局佐藤雅彦氏の言うところの「studious」に行き着くのかなって思う

『Q9:将来佐藤さんのようになりたいと思っている若者や子供たちへのメッセージをお願いします』

僕は実は30過ぎてから表現の世界に入ってきたわけなんですけど、今なんでこんなに物を作ることに集中とか夢中になれるかっていうと、ちっちゃい時僕は静岡県の伊豆で育ったんですね。毎日海に行って、海の生物・・・アメフラシとかですねヒトデとか、そういったものに夢中になってたんですね。

それとか近所の子ども達に新しい遊びを提供することに夢中になってたりとかしてて、あと海もありますし山もあるし川もあって、もう夢中になれるものがですね、素材がまわりにあふれてたんですね。虫も魚もものすごくいっぱいあったし、遊びも自分で作ってて、ものすごく夢中になったんですね。

で、その時には例えば表現の「表」の字もないですよね。デザインの「デ」の字もないんですよ。やっぱり何が面白いか、これに夢中になるっていう、僕は夢中になるってことを「studious」っていうラテン語で表してるんですけど。

あの「study」っていうと勉強って訳しますけど、その「study」の語源っていうのは「studious」っていって、夢中になる・熱中する状態なんですね。ですからスタジオ(studio)なんかみんなが熱中して物事を作ったり撮影したりしてるわけですけど。

「studious」になることを覚えた子どもだったら、将来それは表現をやろうと、他の例えば研究をやろうと、あるいは物を作る人になろうと、それはすごくやっぱりひとつのものを集中の仕方が分かっているので到達できるんですね、自分のやりたいことに。

一番いけないのは、体裁だけを整えて「こっちの方が見栄えがいい」とかですね、その表面だけのことを覚えて取りつくろうことだけが巧みになるっていうのが、僕はすごく今恐れていることなんですね。

もう小さいときは・・・この映像って多分、子どもが直接見るっていうか、お母さんとかあるいは大学生とか、これから若い人を育てる立場の人だと思うんで言いたいんですけど、それが釣りだろうと音楽だろうと、特にスポーツですね。野球やサッカー、そういうものに夢中になることを周りで勧めたいなと思ってるんですね。そういう環境を作りたいっていう。

例えば僕は結構、体育会の子が好きなんですけど、野球やってた子って、中途半端な面白さ、世の中の例えばシュールな面白さみたいなああいうものは「え、つまんないんじゃないの?そういうものは」と一言で看破できる力を持ってるんですね。

ですから一度夢中とか熱中した経験のある子だったら、「何が本当に面白いのか」「何が本当に美味しいのか」とかが分かるんです。世の中マスコミがすごくうるさいから、「これがなんか美味しいですよ」とか「これが面白いですよ」とかって、いっぱい情報がありますよね。

その時にやっぱり大事なのは自分の考え、自分の意見ですよね。「なんだつまんないじゃないか」と、「なんか世の中間違ってるな」と思ってもいい。そういうなんかこう自分が一度夢中になった・熱中した体験があると、本当のものを見つける力があるなと思うんですね。

僕は本当に表現の世界に入ったのはすごく遅いんですけど、それまでに夢中になったものが今思うとたくさんあって、たまたま故郷が伊豆で海とか山とか自然がとてもきれいなところで、それはすごく今感謝してますね。本当に面白いもの・きれいなもの・美味しいものっていうのを、そこで身をもって知ったと思うんですね。

子ども達にはそこを体験させたいですね。間違っても上辺だけ、あるいは人との関係だけで成立するような人間にはなってほしくなくて、だからズバッと本当に面白い番組とか表現をやりたいなと思っているんですね。

「新しい発想のために必要なこと」佐藤雅彦さんのインタビューが非常に良かった – Blog@narumi

最初から才覚とモチベーションに溢れた主人公らしい主人公がスポ根するんじゃなくて、さして夢中に打ち込める事も無ければ、かといって無気力ヤレヤレ系でもない、人並みに真面目で人並みにシニカルな一面を孕んだ主人公が、身近な人物のstudiousさに異化されて自分なりのstudiousに目覚めていく過程こそが、ユーフォの一つの大きな魅力だと思うわけですよ僕は。

そういう意味でも「進学校の部活動」は 舞台設定としてとても上手くて。スポ根モノみたいに、プロプレイヤーになるであろう将来が透けて見えるワケでもなければ、部活で活躍したとて受験勉強ほど実利的な見返りがあるワケでもない。現実的な進路の影が常に付きまとい続けるからこそ、その学生限りの活動に打ち込む登場人物の本当の意味での内的動機付けが輝いて見える。

もちろん承認欲求や打算が完全に無いとは言わないけど、studiousに何かにのめり込んでいる時の気持ちって「こうこうこうだからこれが好き」みたいに説明できるものではない気がする。再帰的な言い方だけど、「好きだから好き」「自分はこれが好きだという気持ちが何よりこれを好きでいさせてくれる」というか、ぜんぜん論理的じゃないんだけど、なんかそういうフワッとするような、ジリジリするような、そんな感覚。

この数年でようやく気付けたのだけど、そういうものに10代のうちに出会えるのって、実はとても幸運なことで、studiousな経験があるからこそ佐藤雅彦氏の言うように物事の本質を看破出来るようになるし、就活控えて急に意識高くなったり、自分探しの旅に出たり、なんてことにならずに、良質な ‪#‎QualityOfLife‬ を得られるような気がする。(人生を語れる年じゃないからなんも偉そうな事言えないんだけど…)

多分ナードな第一印象ほど深夜アニメが好きというワケでもない僕がアニメアイコンとか柄でも無いことをする位にハマったユーフォは、studiousであることの尊さを再認識させてくれる作品だったと思います、感謝しかない

そしてユーフォロスが辛すぎて手が動かない

千島列島


千島列島 – Wikipedia

道産子はアイヌ語由来の地名に慣れ親しんでいるけど、 千島列島の地名って、聞いたことの無い「北海道っぽい地名」に溢れてて怖い。

知林古丹島(ちりんこたん) 新知島(しむしる) 羅処和島(らしょわ) あたりの、既視感と未視感の入り混じった感じ、妙にそそられる。

ブラックホールの大きさ


My theory on how the universe was created – Data Politics

ふと思い出したんだけど、ブラックホールの大きさは「半径」じゃなくて「円周」で表さないといけない、ってインターステラーの原作(?)に書いてあった。

よくこども百科とかニュートンに、ブラックホールを、超重いパチンコ球の周りが鋭いすり鉢状に沈み込んだゴム膜で表してる図があったりするが、「この坂道を転がっていく力が重力だよ」っていう解釈は間違っているらしくて(このゴム膜を歪ませてる力も、坂道を転げ落とさせる力も重力なワケで、再帰的に何も説明してない)、ただ、重力が周りの空間に与える「たるみ」の模式図としてはあながち間違っていないらしい。

円錐で考えたらわかりやすいが、重力のある天体を周る軌道半径とその軌道の長さは常に 2πr > c になってしまう。(半径も直径も、歪んだゴム膜の表面にメジャーをあてがって測らなくてはいけない。) そして、地球規模の天体はそのズレは無視できる程度なんだけど、時空の歪みが極端なブラックホールでは、その差は無視できないほどになるのだそうだ。

ガルガンチュアも、その見た目の大きさに反して、その内部にずっと大きな「半径」を持っている、って想像したらめちゃくちゃ怖いし、だけどその怖さってキライじゃない。

artcode

ArtとCodeが二項対立で語られるのは凄く違和感がある。言い換えれば「美的センス&デッサン力」のようなもので、元からお互いに干渉しあっている、渾然一体としたものなわけだから、いまさら融合もクソも無い。

っていうのが僕個人の感覚だ。2割位は「ITネイティブ」感を自己演出してオッサンをビビらすために言っているような気もするし、だけど多分本音だと思う。

確かに僕の場合は「5・6年生にもわかるJavaScript」を勉強し始めた時期と、なぜか爺ちゃんが知人から譲り受けたクラック版Photoshop 6(ご丁寧にCDラベルまで自作してプリントしてあった)を触り始めた時期は一緒だったし、厨二の頃「真のハッカーは、科学、プログラミング、文学、アートの全てがより高次の創造的遊戯に融合されがちだったりする」みたいなこと言ってる文に感化された経験も、そういう価値観の形成のルーツとしては大きいかもしれない。

Art&Codeなんて自明じゃないか! って言い切るのはさすがに無理があるとしても、CGやフィルム技術、リトグラフや花火、さらには染色や鍛冶の技術もかつては「Code」的な存在だったように、Codeも自然と「工芸」的な佇まいになっていくだろうし、Coderもこの数十年で「職人」になっていくのだろう。

だから、ArtとCodeを峻別する感覚自体が無い人こそがArt&Codeな人間なんだろな、と思うし、僕もその一端でありたい。少なくとも、両者を「&」で繋げてドヤる人に「Art&Code魂」は感じない。

ofxAEKeyframe

最近やった撮影で効率化のためにoFで自動撮影するシステム組んだんですが、なんかaddonに出来そうな雰囲気を醸してたのでまとめてみました。初addon。

ofxAEKeyframe / baku89

oF側からAfterEffectsにキーフレームをコピペ出来るやつです。

比嘉さんのofxAfterEffectsKeyframeParserが、AEのキーフレームのデータをoF側でパースするaddonだったんで、丁度その逆です。

映像制作にも楽器を弾くかのような即興性があれば良いのになって前々から思ってたけど、Adobeは謎ニッチな機能ばかりAEに追加するし、自分で作るしか無いなぁと最近は諦めてます。

このaddon使えば、LeapMotionで取った手の動きとかをAEに読み込めたりするんで、かなり俺得な作業環境作れそう。