E-M1ユーザな私としてはかかわらない訳にはいかない
・何を使うの?
「オリンパスの技術をオープンにして」と書かれているが、
どれだけオープンになっているのか確かめてみる。
HWは、簡単に言うとE-M1からボタンと液晶を取っ払っただけ。
映像素子や、Wifi機能、マイクロフォーサーズ等、正にE-M1。
SWは、スマホ(Android・iOS)からつなげれるSDKが提供される。
要は、Ol.Shareアプリの下回り。
これだけでオリンパスさんがどれだけ本気か伝わりますね。。。
・何するの?
プロジェクトはこれらを使って何をするのかというと、
「デベロッパー、クリエイター、ユーザーと共に新しい写真体験を開拓していく」
つまり、E-M1×Ol.Shareを使っていて、
「ここが足りないな」と思ったもの自由に作ってもいいということ。
自分のOl.Shareの機能の使用状況をまとめるとこうなる。
・リモコン(ライブビュー)
- 使わない
- ファインダーから覗かないと、自分の写真が撮れない。リモコンを使う必要が無い。
・写真転送
- 使う
- その場で撮った写真を友人に送る為。
・写真加工
- 使わない
- ちゃんとしたモニタじゃないと加工はできない。
・位置情報付与
- 使わない
- 毎回付与すのは酷。
この状況から、自分にとって新しい写真体験を想像してみた結果、
「日常bot」になりました。
・「日常bot」って何ぞ?
例えば、街中をぶらついている時。
何の気もなしに、ファインダーも覗かずパシャリ。
そうして撮れた写真は、自分の意識か介在しない、他人の写真。
街の雑踏、息遣いがある、自分の意識では撮れない写真。
そこには発見があり、感動があり、体験がある。
写真を撮る誰しもが知っている写真体験。
自分が意識しなくても、こうした日常は周りにあって、
もしも、知らない写真家が、
自分の日常の出来事をスナップショットしてくれるなら、
自分の知らない日常の撮り方を知れるかもしれない。
丹沢大山であいさつした人たちの笑顔であったり。
毎日歩いてる橋から見た川辺にいた名も知らない鳥であったり。
そんな日常のスナップショットを撮ってくれるのが、「日常bot」。
日常botは自分が持ちえる感性すべてを使って、
一枚一枚、すべてに対して思い入れを持ちながら、
スナップショットを撮っていく。
そうして撮った写真をbotと一緒に見て、
良いところ、悪いところを教えてあげる。
すると日常botは良いところを取り入れて、またスナップショットを撮り始める。
日常botはどこにでもいる。
お部屋の自動掃除機ルンバiRobot Create 2の上から。
登山リュックのうえから。
日常生活にひっついて、どこにでもついていく。
これが、「日常bot」
・実現性検討
HWの基本構成
4はiRobot Create 2の上に乗せる時とか、
登山リュックに着けるときのアクセサリ。
問題は、SW。
ざっくりとした処理を考えると
一枚一枚、すべてに対して思い入れを持ちながら、
スナップショットを撮っていく。
そうして撮った写真をbotと一緒に見て、
良いところ、悪いところを教えてあげる。
すると日常botは良いところを取り入れて、またスナップショットを撮り始める。
日常botはどこにでもいる。
お部屋の自動掃除機ルンバiRobot Create 2の上から。
登山リュックのうえから。
日常生活にひっついて、どこにでもついていく。
これが、「日常bot」
・実現性検討
HWの基本構成
- 公式でもあるような自動雲台「Galileo」部分は自作で。
- Android端末一台
- 必要であればAndroid用拡張ボード
- 各種搭載用アクセサリ
4はiRobot Create 2の上に乗せる時とか、
登山リュックに着けるときのアクセサリ。
問題は、SW。
ざっくりとした処理を考えると
- Botはrobotaとか、まあ色々ある。
- Botの感性は、OPCから取得できる角度情報や顔認識情報、スマホ自身にある方位、GPSを常時解析して作られる。
- Botの感性の琴線に触れると、パシャリ
- 撮れたらTwitterなりのコミュニケーションツールで写真と、なぜ撮ったのかを送る
- ユーザは撮った写真に対して、何がいいのか悪いのかをリツイートしてフィードバック。
一番の問題は、Botに感性とは何かを教えること、学ぶこと。
といってもこの問題を深く理解するには、
作ること、最小構成でも、フィジビリティがある手段で形にする事が重要。
SDKを見たところ、顔認識情報でRectと人数が取得できるから、
まずは人がいっぱい居ると嬉しいから撮るbotから始めようかな?と思いませう。
なんにしても、実機が手元に来ないと何もできない\(´ー`)/
0 件のコメント:
コメントを投稿