1日1tech

スポンサーサイト

上記の広告は1ヶ月以上更新のないブログに表示されています。
新しい記事を書く事で広告が消せます。
  1. --/--/--(--) --:--:--|
  2. スポンサー広告|
  3. トラックバック(-)|
  4. コメント(-)

Napkin look & feel

Windows7 が発表になって、新しく搭載予定の機能紹介がちらほらとでてきてますね。
Vistaがまだlonghornの名前で呼ばれていた頃のものですが、このデモムービーを思い出しました。



longhornはかなり初期の頃に、こうしたムービーを作っていて、それをみた人はもうできてると安心してしまい、結果、できあがるのにあんなに時間がかかってしまった・実際の内容も微妙になってしまったという話もあるみたいです。
プロジェクトの初期にゴールのイメージを共有するため、もうしたモックを作るのが有効な場合もありますが、細部まで作りこんでしまうと、見た目の細部の検討に目がいってしまい、肝心の内容の検討がおろそかになるおそれがありますね。デザイン事務所には耳の痛い話です。
こうした事態を避けるために、プロジェクトの初期の頃には、できるだけグラフィカルな表現は作り込まず、あえて手描きや、スタイルを定義しない HTML モックで画面の内容や遷移の検討を進めるようにしているのですが、JavaのUIスタイルで、UI 要素の表現をあえて紙に手書きしたようなスタイルにする「Napkin Look & Feel」というのがあるようです。

20081102.jpg

Napkin Look & Feel
http://napkinlaf.sourceforge.net/

デモではものができあがっているように見せない
http://www.aoky.net/articles/kathy_sierra/dont_make_the_d.htm

最近は Flex (MXML) とか、標準でもそこそこ綺麗なビジュアルのスタイルをもっているので、あえてこうした手描き表現のスタイルとかあったほうがよいのかも、と思いました。

スポンサーサイト
  1. 2008/11/02(日) 12:30:55|
  2. interface|
  3. トラックバック:0|
  4. コメント:0

タイピングよりも手書きのようが記憶しやすい?

この間の AirPen ビジネスメモ研究会で、「タイピングするより、手書きのほうがなんか内容を覚えている」というような事をいっていたのですが、日本認知科学会の発表でも、それに近い研究がされているようでした。

日本認知科学会
http://www.jcss.gr.jp/meetings/JCSS2008/papers/html/session/P5.html

手書き文字と活字の認識の差に関するfMRI研究
http://www.jcss.gr.jp/meetings/JCSS2008/papers/pdf/JCSS2008_P5-8.pdf

個人的には、記憶するためというよりは、手を使って描きながら、それを目で見ることで自分自身にフィードバックがかかり、内容をより咀嚼する、という感じです。
とりあえずメモメモ。
  1. 2008/10/16(木) 12:10:23|
  2. interface|
  3. トラックバック:0|
  4. コメント:1

AirPen ビジネスメモ活用研究会に参加してきました

東京で開催された「AirPen ビジネスメモ活用研究会」という、AirPenのモニターさんやブロガーさんを対象にした会議に参加してきました。

20080918.jpg


実は荷物になると嫌だったので、より小さい MVPen のほうを持っていっていたのですが、なんと私以外は全員 AirPen 装備!(当たり前か...)...もしかして KYな子になってる?と思ったのですが、ミーティング自体は、AirPen に限らず、デジタルメモ全般のお話だったので、ほっと安心しました。逆にAirPen を使いこなしておられる皆さんだったので、MVPen にも興味をもって頂けました。

肝心のミーティングの内容はというと、皆さん、ばりばりに使いこなしておられるので勉強になる事・刺激になる事が盛りだくさん。読書メモや手書きスクラップ、会議の見える化など、早速試してみようと思うことが幾つもありました。他にも「文字認識(OCR)を使ってますか?」という質問に対して、使っている方と使ってない方、ちょうど半分に分かれてたのと、皆さん、デジタルばりばりではなく、紙などのアナログも使ってみて色々試行錯誤しておられる手法が興味深く、参考になりました。

このような意見交換の場を設けてくださったスタッフの皆さん、意見交換してくださった参加者の皆さん、本当にありがとうございました。また機会があれば、是非、参加したいです。

ミーティングの詳しい内容は、ITMedia Biz.D さんで記事にしてくださるそうなので、公開されたら、そちらにリンクしたいと思います。

あと打ち合わせの時に準備していた私のレジュメ、SlideShareGoogle Documents にアップしました。
詳細のところでリンクしておきます。 【“AirPen ビジネスメモ活用研究会に参加してきました”の続きを読む】
  1. 2008/09/18(木) 23:59:59|
  2. event|
  3. トラックバック:0|
  4. コメント:0

「セカイカメラ」で電脳コイルの世界が実現?(2)

昨日は「セカイカメラ」のPVを見て、モバイルアプリケーション(サービス)やインタフェースの点でこれはいいなぁと思った事を書いたのですが、これまで何機種かのケータイのGPSを使って位置情報を扱うプログラムを作成してみた経験や技術的な視点からみると、これどうやるんだろう?と気になる点が幾つかあるので、メモしておきます。

ケータイのGPSを使って位置情報を扱うプログラム -> HIS対話発表2006:social map?
http://miyana2m.blog2.fc2.com/blog-entry-356.html

●位置精度の問題

これまで試してきたケータイのGPSでは、どれも5-30m程度の誤差がでる場合がありました。自分が今いる位置から半径約○○m程度内の周辺情報を提示する、くらいならなんとか許容されそうですが、AR を使って現実世界の映像にオーバーレイするとなると、10mもずれたらとなりのお店の情報が表示されている、ということにもなってしまいそうです。
※GPSだけでなく、PlaceEngine のような WiFi を使う位置検出と併用することで、ある程度までは精度は高められそうですが...

●制止状態からの視線向き・角度の検出

歩きながらの利用であれば、位置の時間変化をとれば移動方向がわかり、視線の向きをほぼ決定できると思うのですが、立ち止まって、自分の周囲を見渡すような場合、GPSによる位置情報だけでは、決定が難しいのではないかと。加速度センサーと組み合わせれば...とも思うのですが、それでも、近くの対象をみたいのか/遠くの対象をみたいのかや、仰角等を微妙な数十 cm 単位の動きから正確に検出できるのかな?と思います。
※タグ付けする際に、カメラの映像もひも付けしておいて、閲覧時にその状態との適合度合いを測る、という手もありそうですが、モバイルの貧弱なCPU環境でどこまでリアルタイムにできるのかや、色だけのマッチングなら、日光の具合でもかなり変わってしまいそうです。

..で、上記のような精度を求めないにしても

●情報の更新・収集

位置情報ひも付け系(?) のサービスって、情報がその位置に束縛されてしまうので、たとえ何万件の情報が入っていても、エリアが偏っていると、ほとんどの場所で使えない、せっかく起動しても、何も表示されないということになってしまいます。それなら登録を一般に開放して情報量と登録位置の分散をはかる...となると、どうやって情報を登録するモチベーションを持ってもらうのか?や、情報の鮮度をどうやって保つのかが課題になるかと思います。
※HIS2006での発表では、情報の登録は実験的に発表者3~4人が登録しているだけなので、ほとんどの情報が京都の北山周辺(会社の近く)に集中しています。
※以前、WBSでユーザが自分がいる位置の天気情報を携帯で登録すると、周辺のお天気情報が見られる、という登録=閲覧というモデルも考えられそうです。

●バッテリの問題
仮に上記が全て解決したとして、利用面でバッテリの持ちが厳しいのではないかと。
私は iphone はもってないのですが、E-MONSTER (S11HT) で3GやGPS(WiFiも?)をごりごり使うと、みるみるバッテリが減って数時間も持ちません。
アプリケーション・サービス自体の問題ではないですが、元NTTの夏野さんがモバイル学会の講演でも語っておられたように、バッテリ技術は今後のモバイルで重要なファクタだと思います。


※提供されている技術資料等全てに目を通したわけではなく、ふと思った範囲で書いています。
 既に提供済み・解決済みの内容もあるかもしれないので、あらかじめご了承下さい。
  1. 2008/09/12(金) 03:02:20|
  2. 未分類|
  3. トラックバック:2|
  4. コメント:0

「セカイ カメラ」で電脳コイルの世界が実現?

なんか今回の iPod 新型の発表は、いまいち食指が向かないな~と思っていたのですが、Apple からではなく、日本のTonchidot(頓智・)という会社がすごいものを発表したようです。



iPhoneを電脳メガネにする「Sekai Camera」がすごい件
http://blogs.itmedia.co.jp/closebox/2008/09/iphonesekaicame.html?ref=rssall

tonchidot corporation
http://tonchidot.com/

iPhoneのカメラからはいってくる映像に、GPS や WiFi を使ってその位置にひも付けされた情報を重ね合わせて提示するアプリケーションのようです。まさに、去年放送されてた電脳コイルの電脳メガネそのもの。カメラ(iphone)を知りたい方向に向けるだけなら、小さい子供やお年寄りでも簡単に使えるなぁ。iモードとか使えない・使おうともしないうちの両親でもこれなら使いそう。
間違いなく、iPhoneの、というかモバイルのキラーアプリケーションになると思う。
ブラザーさんが発売する網膜投影ディスプレイで使ってみたいなぁ。

去年くらいから Evernote とか、OmniFocus とか google のストリートビューとか、なんかすごい・新しいと感じられるアプリケーションやサービスの発表が相次いでいるような気がします。新型 iPod touch はいまいちだったので、やっぱり無理してでも、iPhone は買うべきか?

  1. 2008/09/10(水) 23:10:40|
  2. interface|
  3. トラックバック:1|
  4. コメント:0

最近の UI ガイドライン

最近、仕事関係でUIのガイドラインを調べてみたところ、AppleもMicrosoftのもアップデートされていました。というわけでリンクメモ。

Apple Human Interface Guidelines
http://developer.apple.com/documentation/UserExperience/Conceptual/AppleHIGuidelines/XHIGIntro/chapter_1_section_1.html#//apple_ref/doc/uid/TP30000894-TP6
いつの間にか、Leopard 対応な内容になってます。
内容と関係ないのですが、Leopard から、CoreGraphic だか CoreAnimation だかで、これまでの標準とは少し異なるUIが、標準のOS にもはいってきているイメージがあります。
もはや一般の人にも OS の標準的な GUI の作法はわかっているものと言い切れる状況・そこからの応用発展を考える段階になっているのかな?とか。
※すみません、まだそこまで読み込めてない。。。

Windows VISTA Guidelines
http://msdn.microsoft.com/en-us/library/bb328626.aspx
こちらは Vista対応のUIガイドライン。PDFでがーっと印刷したいけど、見つけられなかった。

  1. 2008/09/07(日) 20:29:50|
  2. interface|
  3. トラックバック:0|
  4. コメント:0

ヒューマンインタフェースシンポジウム (HIS2008)に行ってきました (1)

大阪大学で9/1 から開催されているヒューマンインタフェースシンポジウム (HIS2008)に行ってきました。今年は発表できなかったのですが、今日は下記の発表を聴講してきました。

●コミュニケーション支援2
・看板写真を利用した気楽な街歩きでの興味の共有
・ユーザ応答学習に基づいたコミュニケーションロボット
http://isw3.naist.jp/IS/MasterThesis/2007/Master-feb/0651075.html
・遠隔コミュニケーションを支援するデジタル写真立ての実装と評価
http://www.siio.jp/index.php?PublicationBySequence#content_1_1
・個人の環境温度履歴の視覚化による家庭内コミュニケーション支援ツール
http://aibm4.main.eng.hokudai.ac.jp/contents/research/activities/thesis/B_19_mari.pdf
・Pivo2におけるロボティックエージェントのインタラクションデザイン開発
http://www.nissan-global.com/JP/TECHNOLOGY/INTRODUCTION/DETAILS/RI/

●学習支援1
・読書タスクにおける手書きアノテーションの影響に関する定量的実験
・顔の向き推定によるアノテーション呈示
・不可視マーカのコンビネーションを用いた情報提供手法
http://www.hcilab.jp/~kono/Research/index.html

●感性・感覚2
・弦楽器練習支援のためのウェアラブルインタフェースデザイン
・オトノリ-駅の自動改札機を自分の好きな音で通り抜けるマイクロサウンド・デザイン-
http://www.geocities.jp/ruwon1219/OTONORI-index.html
・呼吸誘導コンテンツを用いた空気砲式香り発生装置制御方法の検討
・コラージュ制作による看護学生の心身のリラクゼーション

それぞれの感想、印象に残った内容は、随時、追記していく予定です。
※ミニノートもってたら、会場にもっていけたのに... 【“ヒューマンインタフェースシンポジウム (HIS2008)に行ってきました (1)”の続きを読む】
  1. 2008/09/02(火) 23:51:59|
  2. event|
  3. トラックバック:0|
  4. コメント:0

フィッツの法則(Fitts' Law)

フィッツの法則は、ユーザーインタフェース関連の法則です。
ソシオメディアさんのサイトの説明を引用すると

https://www.sociomedia.co.jp/349

画面上で、マウスなどの入力装置を使ってものを指し示すときにかかる時間を計測するモデル。
ターゲットオブジェクトのサイズと距離に基づき、以下の計算式で算出される。
面積が大きく、現在のポインター位置から近いものほど、指し示しやすい。

T = a+b log2 (D/S + 1)

* T = ターゲットまでポインターを動かすのにかかる時間
* D = ポインターとターゲットの間の距離
* S = ターゲットの大きさ

なお、通常、ポインターはスクリーンの端よりも外へは移動できないため、スクリーンの端にあるものは、その面積(ポインターから見た奥行き)に関わらず、容易に指し示すことができる。


マウスカーソルの移動距離・ターゲットの大きさそれぞれについてはよく言及されるのですが、それらが D/W で比する関係であることは、私はどうにも忘れがちでいけません。
ターゲットを単純化して正方形と考えると、距離を1/2 に縮めるのと、面積を2倍(1辺の大きさを約1.4倍(ルート2))とが同じになるので、ターゲットの面積を調整するほうが、もろもろ調整しやすいかもしれない。
※最近はタッチパネルを想定しないといけない場合も多いので、逆に複数ターゲットの間隔も十分にとる必要があるので、なかなか難しいのですが...

とりあえずお仕事関連の備忘録、でした。
  1. 2008/08/24(日) 20:28:58|
  2. interface|
  3. トラックバック:0|
  4. コメント:0

バランスWiiボードでGoogleストリートビューを操作してみた人がいた

以前、勉強会で、バランスWiiボードって、BlueTooth だしハックできるとおもしろそう、とおっしゃられていた先生がおられたのですが、バランスWiiボードを使って、重心移動で、Googleストリートビューの移動方向を操作されている方がおられました。



うちには IntelMac がないので試せてないのですが、かなりおもしろそうです。
Google ストリートビューのレスポンス・移動速度が上げられたら、昔、back to the Future 2 にでてきた、空中に浮かぶスケートボード(エアボード?)みたいなのが体験できそうです。
  1. 2008/08/21(木) 23:30:06|
  2. interface|
  3. トラックバック:0|
  4. コメント:0
次のページ
上記広告は1ヶ月以上更新のないブログに表示されています。新しい記事を書くことで広告を消せます。