2014年7月7日月曜日

Android Wear のデザイン関係のセッション

いずれも Android Wear、Google Glass 両方取り上げられている。

■ Google I/O 2014 - Wearable computing with Google



最初の方は Wearable computing とはなんなのか、という話。
Android Wear: The developer's perspective でも見たような写真がでてくる。
MVC になぞらえた説明は正直よくわからなかった。
14分くらいから具体的なリマインダーアプリの作り方の説明になっている。構成はまぁ、想像つく感じ。リマインドのトリガーに Geofencing を使うという例がいい。
Wearable はテスト時間しっかりとってね、とのこと。このテストとはドックフーディングのこと。
Wear になんでランチャーが無いのか、という話とか。22分で終るので、短い。半分くらいQ&A。



■ Google I/O 2014 - Designing for wearables



全体的にパラダイムというかビジョンの話。Wearable にどういう可能性があって、なにを解決しようとしているのかについての話。開発の話はでてこない。

Google Glass による実際の体験が紹介されている。日本では Google Glass になじみがないので、あんまりピンとこないけど、子供と両手をつないでくるくる回っているときの写真はなるほどなと思った。
Google Glass を付けて車を運転しているときのナビはこういうふうに見えるのかー。
Wear の画面に情報をつめこまないこと。情報が6個の画面と3個の画面を走ってるときに見たらどうなるか、というの面白かった。
ヘルメットにタブレットを付けたプロトタイプとか、腕に針金でスマホをくくりつけたプロトタイプとかでテストしたそうだ。


いつ情報を表示すればいいのか、どうやって知ればいいのだろう?
センサーを使う。それによりコンテキストを理解する。
Location
Time
Calendar
Identity
Activity
Nearby devices
Sensors

ランニングするときのコンテキストを例に説明。ランニングアプリを起動して、音楽アプリを起動して、、、というのをコンテキストから判断して、もっと簡単にしよう。
Voice & Context
Voice Action Interest Form
こういう音声コマンドがあるといいな、というのをぜひリクエストしよう!

実際のアプリの例が紹介されるので、どんなアプリがありえるのか、なにが出来るのか考えるのに参考になると思う。

Q&AでHTML+JavaScriptのようなプロトタイプできないの?という質問があったけど、HTMLのレンダリングできないので無理だねー。いまはプロトタイプ用の何かはないよ。でもスマホを腕にくくりつければできるよ(冗談)という回答でした。



0 件のコメント:

コメントを投稿