300notes

Video Games Challenge ➣ [6/10] female characters 
➥ Tali’Zorah vas Normandy ❇ from Mass Effect series

When I was a quarian on Pilgirmage, I used to walk by that sushi place and watch the fish through the window. I knew they would never let me inside, but I told myself, someday, when I’ve proven my worth to the galaxy, I’ll go there for dinner… And then, you broke their floor.

空間的に操作できる革新的ディスプレイ
wired.jp

Image:TED
カリフォルニア州ロングビーチで年1回開催される「TED」で、マサチューセッツ工科大学(MIT)の大学院生であるジンハ・リー(李鎭河)が最新のデジタル3D環境「SpaceTop」を発表した。コンピューター画面の「内部に手を伸ばして」、ウェブページや文書、動画などを、現実世界の物体と同じようにつかむことができる3次元コンピューター・インターフェースだ。より込み入った操作も、ハンドジェスチャーで行うことができる。
リー氏は昨年、空中で浮遊する3Dボー…

Search Later

作った。三時間くらいかかった。三十分で終わらすつもりだったのに。。。 reblog if you want to try this. - notesが100notes超えたらdeveloper用に再利用できるレベルに公開する。githubで。 - 300notes超えたらpocketユーザーなら誰でも使えるようにサーバーたてる。 - 1000を超えたらサービスレベルにするかもしれない。

ギーキーすぎてされようがないw

目的(解こうとしてる問題)

5つの効果が期待される。一石五鳥的な。

検索作業の自動化による時間削減、検索結果を読む速度の上昇による時間削減、読む作業と考える作業の切り分け、隙間時間の効率化、集中の確保、運動や食事などの時間の負担ない確保。

検索時間の効率化について

とりわけこの効果が大きい。 測ってみたんです。一ヶ月の、検索作業(内容を読むのではなく検索してからそれを読み始める時間)の累計が20時間以上ある。

僕の場合、 - 検索する - 上位1位とかだけではなくて、平均すると5位までは全部開いてみてる。 - 開いてすぐpocketに投げ込んでタブとじて、後で読んでる。 なんだけどはかってみたらこの一連の作業で、56秒。

一般の人でも、クリックして、戻って、またクリックして、とやってると同様の作業時間がかかっていると思う。

繰り返すけど、検索結果内容を読む時間でない。検索結果を読む前までの作業の時間である。この時間だけでこんな時間になる。現代の人はマイクロに情報を仕入れて、その都度グーグルとか検索開いてる。遅延学習法だよな。

一日の検索回数は80だった。グーグルの検索履歴の統計みた。一日に「検索作業に費やしている時間が80x1=80分で、1.3時間」に及ぶ。やばくない?俺クズ?多分お前らみんなクズだよ?

ここまで時間かかってるとは思わなかった。

(「計測」ってやばいツールだよね。時間の計測は特に、比較的。レコーディング素晴らしい。)

僕はPCの操作速度は平均的なオフィスワーカーの2-5倍速いと思う。それでもこれだ。ま結局情報収集と問題解決に使う時間が一日の50%は知識労働者ならかかってる。うち20%は検索エンジン操作。この数字は間違ってないと思う。

月間の検索作業時間20-40時間。。。。削減したい。。。しかもこれ自動化できるなと思ってたんだ。長らく。ROI評価するつもりでどのくらいインパクトあるか出したら上記のようにヤバいことになった。

あとは、検索して一番上の検索結果で済む(これで十分って閉じる)ことも25%くらいはあるようだった。「バイリンガルってどこまでの意味だっけ」って確認したとか言う時だった。

検索結果を読む速度の上昇による時間削減

読む速度事態もインパクトが大きい。そして効率化しやすい。読むという作業に対してはいくつかのわかっている要素があるがここでは

  • 余計な広告とかを排除する。25%の高速化
  • 読みを標準化する。25%の高速化
  • 断片化された読書体験になりやすいread later/rss的なものを出来る限り補助して、まとまりを持つようにして、エピソード記憶による理解速度=読解速度の上昇を得る。20%の高速化

もちろんこのためにはreadability系ツールを使う。ぼくは最近はpocketにしているのでpocket。理由はすでにコードを書いたことがあったから。

読む作業と考える作業の切り分け

遅延評価学習法というのは理想的な方法ではないと思う。考える作業を止めるから。コードを書くみたいになってくると、読むと書くのサイクルはとても短くなるし、これは言い換えれば検索結果1位とかが主になる。開発作業でもそうだけどジョエルスポルスキーとかが言う「サイクルを見つけてそれを殺すと劇的に早くなる」というやつ。ここでは問題ー>考えるー>検索ー>というサイクルなんだけど、僕はこれはバッファするのがいいと思う。 それとGTDでは「コンテキスト」という概念がある。コンテキストスイッチという問題から考えるとコンテキスト最適化の作業者にとってのコスト削減効果は過激に高い。25%〜酷い時は40%とかいくだろう。GTDはこれに着目し、ワークフローエンジンにしたものだ。ある作業に適したところで適したことをしろっていうやつですね。読むのの適している環境で読むことだけ集中すると、読む作業に統一された脳とか体の使い方があって比較的カンタンにその作業が続けられる。

隙間時間の効率化

隙間作業を効率化したいですよ。すみませんね、いやしくて。マイクロタイムというのは実際、かき集めると30%に及ぶわけだよ。マイクロタイムという時間は「割り込みが多い」「変数をあまり使わない」「作業までのリードタイムが短い」というところに特徴があるので、結構このコンテキストでできることは少ない。それと、就寝前や、寝る五時間前以降の時間帯ってのもこれに当たる。それで、いろいろ試してみたけど「すごく短く砕いたタスク」「体を使う雑事」「読む」の3つが一番いいんだけど、割りといつでもどこでもできるのは「読む」なので、マイクロタイムの作業としては合ってる。

集中の確保

GTDはこれをうたってる。時間管理っていうよりは、創造性のためのワークフローだと。余計なことを忘れて集中する時間を確保するために、雑事を管理し、創造という行為に必要な脳の状態などのコンテクストを、聖なるものとして確実に他をロックアウトしようぜ。ということ。これは完全に同意だ。そして実際に効果がある。 だから出来る限り「考える作業」の中に調べ物は入れない方がいいと思った。

運動や食事などの時間の負担ない確保

それでこれは僕の特徴かもしれないが、僕はワーカホリックだ。起きてから寝るまで、すべての時間仕事をする。ただ創造的に仕事をし続けるための最も良い方法が、予防医学的な良質の健康維持で、だからこそ、寝る、食事を取る、運動をする、はとても気を使う。この3つの知識労働への影響因子はなによりも(給与だの他のモチベーション管理だの)の最低でも10倍はROIが大きい。 運動や食事に時間をきっちり割り当てるためにはボトルネックになる「集中して知的に脳と手作業を組み合わせる時間」としてのコンピュータの前での作業を聖なるものとして維持しつつ、読むとかいった作業をマップさせのがとても有効だと気づいた。すでにreadlaterやkindleで買った本をジムで消費するというのはワークフローになっていてとても有効だったのだけど、思い切って、read just a little bit laterというプロジェクトとオレオレコードやiftttなどの自動化を組み合わせて、メールその他仕事関連のものもpocketに組み込めるようにした。受信したり「読む必要が発生」してから4時間以内に読めるようにした。それについては後で書くKAMO。 僕にとってはこれはとても大きかった。罪悪感なく運動できる。なんだかしょっちゅう散歩するようになった。二時間に1回は800メートルくらい歩いてる気がする。

作ったもの

はい!前置き長いですが作ったものは単純。 検索するとpokcetとかread later系アプリに、検索結果上位7くらいを(スクレイピングしてる)入れてくれるもの。

RUNTIMEとしては

登録RUNTIME

  1. 検索したい言葉を見つけるなり思いつく。見つけた場合はコピペしてcommand+alt+L。あるいはalfredにsl 検索文字列とタイプする。

    以上!

ConsumeするRUNTIME 1. pocket開いて新しい順に読みつづける。 こうなる 以上!

作り方と中身の挙動

内部的には、 1. search laterというwebアプ(java mvnアプ的に作ってmvn:jettyして作った。storytellerという自作のframework=テンプレートエンジンみたいなもので、modelからwebアプ化するの一瞬でめっちゃコード行数少ない)にquery投げる。 2. jsoupでgoogleの検索結果をscrapingしてる。簡単である。 3. linkのリストをtextファイルにappendしていく子。 4. rss.php的なもの作ってtextからrssレンダリングしてる。 5. iftttで、「もし新しいarticleがあったら、then pocketに入れる」を作って4のrssのurlを登録。 6. alfredでworkflowとして登録した。macの。windowsでもランチャーがある。 7. urlがあるので、ほかのUIから流すこともできる。

ハマったとこ

pocketのapi叩こうとしたら、一回ポッキリのoauthは許さない感じだったので断念してifttt経由にした。。。。あとgoogleの検索結果画面のscraperが、なんか、user agentによって検索結果のhtml構成が変わるということで30分以上はまった。ブラウザ(chrome)で検索結果画面ひらいてそこでhtml(dom)からselector的に検索結果のlinkを取得すべく眺めてて、絶対合ってるのにコードのスクレイパーだと取得できないの。それでuser agentをchromeとかにしたらできたwなんていうかかw

ヤってみて

めっっっっっっっっちゃいい。素晴らしかった。生活ちょっと変わる。というか検索結果画面はもう見ることないかもしれないくらいすごくいい。おれalfredでfeeling luckyに直繋ぎしてるので「一発で結果画面に飛ぶ」系はもうこれでOK。

それと、alfredでsearch historyとかにしてるし、どっかのサイト表示するときもfeeling luckyに言葉でいけるUXに慣れてるんだけど、これはいいよ。この事自体はすごくスケール大きいポテンシャルある。社会的に。「言葉で済む」ということは革命的な可能性がある。検索結果ページがほしいわけじゃないもんな。feeling luckyはadを出したいという理由で消し去られつつあるんだけど、まだ隠しコマンドあるからalfredとかランチャーつかってる人は、おすすめする。

特に検索しといたほうがいいかもしれない言葉を選択ー>command alt Lで、安心して忘れられるというのを非常に頻繁に行うようになったのだがこれも素晴らしい。

これさあ、グーグルが自分で実装してくれた方がいいよ。まじで。Search Later。それくらい便利だよ。後で綺麗なビューで結果のクリック先5件とかサクサク読めるようにしといてくれるgoogle keepかreader。

今後

そこそこ綺麗に結合緩められたのでいろいろできそう。 まじどんどんコード行数減って言いくよね。現代。レイヤーどんどん増えるし。今回やっていて思ったのはjsでできることが最近多すぎるってことかな。あとrssのところ、むしろmusrtacheとかでrss用のテンプレートが転がっていたらこっちのが汎用的っぽい。node.jsなどでサーバーでjsでレンダリングもできるし。なんかphpのrss用apiとか恥ずかしいジャン使うのもう。 までもとにかくどこもかしこも、どの概念もどのデータの入り口も、どの言語でも使えどのレイヤーでも使えるようにどんどんなっていっている時代だなって思う。こういうライトなもの作るところでこそ思う。

それと俺自分のnodepadで、「語」としてノードを開いたときに、いままでの自分のevernoteの内容を、オレオレwebapp化したevernote検索インターフェイスから叩いて、ヒントを取得とかしてるんだけど、検索結果を開くのもいいな。。。。それをssarch laterするのもいい。

rssにしとくとiftttとかでいろんなことできるので、ついでにlist 2 rssというのをmvnプロジェクトとして疎結合にして作った。gistかな本当は。