Apple IDの利便性と危険性

Apple IDを使うとデバイス間で様々な情報を共有・管理できる。たいへん便利な側面がある一方で弊害もある。




Apple IDの発展

もともとApple IDはAppleの直販サイトからコンピュータを買ったりするのに用いられていた。その後、Apppleはmac.comというフリーメールアドレスを作り、Apple IDとヒモづけた。さらに、iTunesで何かを買う為にも使われるようになった。著作権の都合上、購入した音楽は3台までのハードウェアで作成されるので、iTunesユーザーは購入後もApple IDを使う必要がある。この時点ではApple IDは限られた人が持つものだった。

Apple IDが普及したのは、iPhoneやiPadなどのモバイルデバイスで使われるようになったからだ。アプリケーションのダウンロードに使うので、ほとんどの人が IDを持つようになった。iPhoneが爆発的に広まると、コンピュータに詳しくない人もApple IDを使うことになった。さらに、IDはファイル共有システムiCloudでも使われるようになり、利用の幅が広がった。

メリット – デバイス依存からの脱却

Apple IDを使うと様々な情報をデバイス間で共有できる。OSのバージョンによって違いはあるが、ブラウザーの設定、メール、メモ、住所録、予定、音楽、写真、クレジットカード番号、パスワードなどが挙げられる。共有するデバイスには、アップル社製のパソコン、スマホ、タブレットの他にWindowsパソコンも含まれる。

例えばこんな使い方ができる。情報を共有するとiPhone上で取ったメモをMacに転送しなくてもよい。Mailを開いてメモを見ると同期されている。情報はIMAPという仕組みを通じてサーバー上に蓄積されるようになっているのだ。同じメールを見ているので「メールがどこにあるか分からなくなった」という心配もない。カレンダーもwebcalという仕組みで共有可能だ。これらの仕組みには汎用性があり、Googleなどとも連携することができる。

iTunesで購入した音楽も共有できる。新しいiPhoneを買ってApple IDを入力するとそのデバイスでも同じ音楽を聴ける。もちろん、WindowsパソコンにiTunesをインストールすると同じように音楽がセットされている。認証さえ整えば、購入した音楽は新しいデバイスにも引き継がれる。最近では定額制の音楽サービスもあり、家族で共有することもできるのだという。

デメリット1 – 管理が複雑

Apple IDは便利な反面、デメリットもある。一台のデバイスには複数のアカウントをヒモづけることができる。例えば、iPadは家族の複数アカウントをヒモづけられるので、住所録も複数のアカウントのものが混じることになる。このため、息子がiPhoneで入力した友達の住所が家族のiPadに筒抜けになるということも起こる。家族全体の住所録は1つに統合され、どのアカウントでも編集が可能だ。さらに、アカウントは切り離すこともできるので、バージョンが違う情報が複数出回るということも考えられる。

設計者は想定していなかったと思うのだが、新しいIDを作るのが面倒だという理由(アプリを人数分買うのが嫌だという人もいるらしい)でApple IDを家族で使い回す人もいる。こうなると複数デバイスで住所が入り交じり、分離も不可能ということになってしまう。ヘルプサイトには「どうにかして欲しい」という要望があるが、同じアカウントの情報なので、どうしようもない。新しくApple IDを作り直すことはできるだろうが、住所録は最初から作り直しである。

また、携帯のアドレスを変更するノリでストアのApple IDを変更してしまい、過去にダウンロードしたアプリが使えなくなったという人も多い。Apple Musicなどの継続型のサービスを利用していて、古いアカウントにアクセスできなくなり、そのままお金だけ取られ続けるという人もいるようだ。

かつての携帯電話(ガラケー)のように、電話を買い替えたら住所録や写真が全部消えてしまうということがなくなった反面「情報設計」をきちんとしておかないと面倒な事態も引き起こしかねない。なお、ソフトウエアの更新が頻繁になったせいで「アップデートしたら連絡先が消えた」という事態も起こっているらしい。バックアップは取っておいた方がよいようだ。

デメリット2 – 実は制度が複雑

さらに面倒なのは、実はApple IDが複数のIDの共同体であるという点である。Apple IDにはいくつかの前身がある。mac.comのメールアドレス、ストアのアカウント、iTunes(Appストア)のアカウントなどだ。これにiPhoneで作ったアカウントが加わった。このため、メールアドレス(Gmailなどの他サービス)と同じApple ID、メールアドレスのないApple ID(これはiCloudに使えない)、クレジットカード情報のあるApple ID、クレジットカード情報のない Apple ID(これは iTunesに使えない)と様々なバリエーショんができる。

この他、iCloudのIDとApple IDの混同も見られる。 iCloudのメールアドレスで Apple IDを作る事もできるし、 Apple IDに iCloudのメールアドレスを加える事もできる。ヘルプサイトにもこの2つを混同している人が多くいて、混乱の原因になっている。

iTunesのメールアドレスは登録時にクレジットカードの情報を入力したものしか使えない。支払い情報が正しく入っていないと「iTunesで使われた事がない」という謎のメッセージがでて登録ができない。UIがあまりよくないので「何が理由なのか分からないがとにかく入力ができない」という声が多い。これといったサポートもなくヘルプコミュニティでは情報が錯綜している。

最新のiTunesやiOSからはクレジットカード情報の入力ができるのだが、少し古いiTunesからでは登録ができない(OSの制限から最新版のiTunesが更新できないのだ)ので、お手上げ状態となる。これを回避するためにはブラウザーでストア(Appleの製品を買うところ)に行き、別途クレジットカード情報を入力すればよいのだが、これに気がつく人は少ないだろう。同じAppleでもストアとアップストアは別立てのシステムになっていて、情報だけが共有されている。これに加えて、IDそのものを管理するシステム(id.apple.com)がありなかなかに複雑だ。

このため、デバイスを管理するApple ID、そのApple IDにヒモづけられたiCloud.comのアカウント、さらに別の(入力ができず、やむを得ず家族のIDを使い回した)iTunes用のApple IDと複雑な構成になることもあり得る。iTunesのアカウントは一度入力すると90日間は変えられないそうなので、間違っても回復ができない。

古くなったシステムからは、Itunesストアにはアクセスできなくなる。このため、将来的には買い貯めた音楽を聴く為にデバイスを買い替えなければならないという本末転倒なことも起こりかねない。

デメリット3 – セキュリティ

Apple IDは拡張を続け、最新のOSではついにはパスワードまで管理できるようになった。暗号対策も施されており、もちろんセキュリティ対応は万全だと考えられるのだが、使う側はコンピュータの専門家ばかりとは限らない。家族でIDやデバイスを共有したり、パスワードを他サービス(特にメールサービス)と使い回したりすると、情報漏洩の可能性が高くなる。 これとは逆に「秘密の質問」を忘れてしまい、アカウントが回復できなくなる可能性もある。嫌がらせで他人の Apple IDを使ってわざとパスワードを間違えるという人もいるらしい。するとアカウントがロックされてしまう。何も悪い事をしていないのに、アカウントが使えなくなったという人がでてくるのだ。

改めて思うのだが、スマホは鍵束のようなものだ。一度落とすと、銀行口座やソーシャルネットワークなどをすべて乗っ取られるということも起こりえる。パソコンを持っていれば、リモートでIPhoneをロックするということもできるのだが、スマホしか持っていない人はこうした対応も取れないだろう。便利な反面「個人情報を持ち歩いている」という危険性もあるようだ。

Google Recommendation Advertisement



電卓の陳腐化と日本のオフィス

明治時代の商人たちはソロバンくらい使えないとよい仕事につけなかったに違いない。戦中や戦後すぐのドラマをみていてもソロバンをはじいて、手書きで書類を書いているというシーンを見かける。事務作業には「ソロバン」の知識は欠かせなかったに違いない。

状況が一変するのは戦後に入ってしばらく経ってからだ。電子計算機が登場したのだ。最初の計算機は機械式だったが、徐々に電子式になり「電卓」と呼ばれるようになった。なぜ「卓」なのかというと、机のような形をしていたからだろう。それだけ重く、とても持ち運びができるようなものではなかった。

1964年にシャープが開発した電子計算機の初期型は重さが25キログラムあり、価格は50万円程度だった。月産目標台数は300台程度だった。オフィスユースの商品であり、個人に手が届くような代物ではなかっただろう。

1971年にオムロンが49,800円の電卓を開発に成功すると価格競争が激化した。1972年にはカシオが12,800円の電卓(カシオミニ)を発売する。「答え一発カシオミニ」というテレビコマーシャルを覚えている人もいるのではないだろうか。この頃から個人でも電卓を持てるようになった。発売後10ヶ月で販売台数が100万台を突破した。その後電卓の小型化競争が始まると、メーカーが次々と脱落した。残ったのはシャープとカシオだった。もはや、電卓を操れたからといって尊敬されることはなくなっていた。

電卓時代が終る兆候が見られたのは1980年代にマイクロソフトがMS-DOSを開発した頃からだった。「パーソナルコンピュータ」がオフィスに導入されるようになったからだ。当初は表計算ソフトが好んで使われた。マイクロソフトマルチプランやロータス1-2-3などが有名だ。

文章制作はさらに未開で、和文タイプのオペレータが作業を請け負っていた。日本では、パソコンとワードプロセッシングが結びつくことはなく、専用のワードプロセッサ(ワープロ)が先行した。日本の最初のワープロは1978年に東芝が発売し、価格は630万円だったそうだ。パソコンで一太郎などのワープロソフトが導入されはじめたのは1980年代の中盤頃だ。ワードとエクセルが一般化するのは、グラフィカルインターフェイスが改善されたWindows95頃からだという。もうバブルは崩壊していた。

バブル期のオフィスではパソコンを使えれば確かに就職に有利だったかもしれない。しかし、パソコンやワープロを使うのは「下働き」の仕事だった。OLや新人の役割で、正社員(いわゆる総合職)は「もっと生産性の高い仕事をするべきだ」という風潮があったのだ。生産性の高い作業とは社内の利害調整のことである。事務作業員を「事務屋」と呼んで蔑む傾向すら見られた。同じような傾向は英語にも見られる。グローバルな社会では英語くらいできなければという割には英語話者の地位は高くない。「英語屋」と呼ばれて通訳代わりに使われることもある。このため、総合職の中には英語ができてもひけらかさない人が多かった。「英語屋」として認知されると、通訳としてこき使われるからである。

新人類と呼ばれた人たちは「パソコンみたいな訳の分からないものは操れるかもしれないが、本当の仕事(つまり内部調整のこと)はできない」などと揶揄された。今では、専門家たちはスマホばかりしている若者を見て「日本の若者はパソコン離れしている」などと心配しているようだ。時代は繰り返すのである。

バブルが崩壊してしばらく経った今、電卓は100円ショップでも売られている。Amazonでは600円程度から手に入る。同じように、パソコンの地位も大いに凋落しつつある。今では20,000円も出せば立派なパソコンが手に入る。

ハローワークに行くと「入門パソコン講座」のような事業に多くの税金が投入されているが、こうした講座を卒業しても、最低賃金のパート労働くらいしか見つけられないかもしれない。欧米ではパソコンを使った労働は、もはや「知的労働」とは見なされない。最近パラリーガルの仕事を代替する人工知能が話題になった。初級の弁護士やパラリーガルという仕事すらなくなってしまうかもしれないのだそうだ。一昔前の印象で「知的労働」を捉えると、却って時代に取り残されるかもしれないのだ。

日本人は古くて面倒なものをありがたがる人が多いが、面倒なQWERTY式のキーボードは廃れて、スマホに似た操作感覚を持ったタブレット型のOSが主流になるかもしれない。「面倒なことを簡単にしよう」という思考こそがイノベーションを生むのだということを考えると複雑な気分になる。

参考文献

パソコンは高くない

軍事アナリストの小川和久さんは日本の競争力について心配しているようだ。若者のパソコン離れが進行しつつあり、これが貧困スパイラルに拍車をかけているという。これについて氏のアンチの方が「そもそも貧乏だからパソコンが買えない。因果関係が反対だ」とかみついた。日本の貧困については、議論すべきことがたくさんあるというのは確かだろう。しかし、このやり取りが不毛だということだけは言える。パソコンは別に高くないからである。

パソコンの価格は10,000円台から

試しにAmazonでスティックPCという商品を検索すると、5,000円台からパソコンが買えることが分かる。ただしこれはアンドロイドPCだ。小川氏の支持者たちのコメントを読むと、パソコンとはWindowsパソコンのことらしい。Windowsのパソコンで最安値は「ドスパラ」という会社が出している製品で、現在10,000円を切った価格で売られているらしい。キーボードがついているセットで13,000円程度だ。しかし、Amazonには取り扱いがない。もっと有名なメーカーの商品が欲しいということであれば、Intel(このパソコンのCPUを作っている、いわばお家元のような会社だ)製品をはじめ、いくつかの商品を選択することができる。価格はおおよそ15,000円程度。地方だから都会のように家電専門店がないという苦情も当たらない。Amazonでスマホから注文すればいいからだ。

なんで、パソコンがそんな値段で買えるのか、と疑問に思う方がいるかもしれない。どうせ、おもちゃのようなパソコンなんだろうというわけである。半分当たっている。パソコンはおもちゃみたいな価格で売られているコモディティなのだが、それでもテレビにフルサイズの動画を映しても楽しめる程度の能力を備えている。確かに記憶容量は低い。それでも32Gバイトあり、miniSDカードを足せば倍くらいまでにはなる。キーボードとモニター(モニターはテレビを使う)が付属していないのも安い理由だろう。

「テレビを占有されるからパソコンが使えない」と嘆く人は確かにでてくるのかもしれない。人並みにノートパソコンがいいという人もいるだろう。Amazon調べでは25,000円程度から手に入る。

WordやExcelは無料で使える

別の支持者のコメントの中に「パートでもWordやExcelなどの操作方法は求められる」というコメントがあった。確かにスティックPCや格安ノートPCにはOfficeは搭載されていないが、ネットにつなぐと「無料版」のOfficeが使える。機能限定版らしいのだが、関数などは普通に使えるという。家庭での利用には十分な内容だし「覚えたい」という人にはぴったりだろう。もちろん、お金を出せばOfficeを買い足すこともできる。

通信料金は月々4,000円弱から

一番のネックは通信環境かもしれない。これは月々支払わなければならないからだ。固定の光回線を使うと月々6,000円程度(別途工事費)がかかる。いくつか割引を使えばもう少し安くすむかもしれない。一方、無線通信分野の値引き競争は過熱気味だ。WiMax2という規格の商品がいくつかでている。本来、月々4500円程度の料金が必要らしいのだが、2年間は割引を適用して月々3,500円程度で利用できるのだという。別途通信用のルーターが必要なのだが、太っ腹なことに無料で使わせてくれるらしい。一度顧客を獲得するとよっぽど儲かるのかもしれない。

もちろん、食べるのにかつかつで、金銭的な余裕が1円もないという人もいるかもしれない。こういった人たちには適切な援助が必要だろう。しかし、日本のスマホ普及率を見る限り、多数の人たちは「全く余裕がない」というわけでもないのだろう。

知識の分断が招く不毛な議論

少し深刻かもしれないと思うのは知識の分断である。パソコンが安く買えて高速通信環境も手頃な値段で手に入るという知識はコモン・ナレッジだが、こうした知識にアクセスできない層というのが一定数いるのだろう。今回の場合「スティックPC」とか「wimax」などという言葉を知らないと検索できない。

そういえば、最近パソコンのコマーシャルをテレビで見なくなった。テレビで受動的に情報を取っている層はこうした情報を知ることはないだろう。「パソコン習熟が日本の競争力を左右する」と信じるなら学校教育などで教えるのも良いだろう。一方、「知識人」と呼ばれる人たちも「パソコンは最先端技術で高いはずだ」と思い込んでいるのかもしれない。つまり、知っているからこそ知らないのだ。

こうした知識的な分断があるせいで、議論が不毛なものになりやすいのだとしたら、それは単に不幸なことだ。

パソコンとモバイル機器は融合しつつある

さて、パソコン操作ができないと貧困になるという議論にはいくつか考えるべき点がある。

確かにスマホには欠点がある。画面が小さく、文字入力がしにくい。出先で読む人が多い事も考え合わせると、多分長い文章を読むのは苦手だろう。さらに、文章入力の手間を省く為に予測変換機能がついているので、あまり考えなくても自動的に作文できるようになっている。コミュニケーションが単純化しやすく、思考が高まらない。LINEやメールが随時入ってくるので、気が散りやすくなる。このため集中力が削がれやすいという研究の結果もでている。こうした特性から議論が感情的になりやすいのだ。人間の思考力はマルチタスクには向いていないようである。

では、やはりパソコンの方が優れているのだろうか。そもそもこの問いは意味をなくしつつある。パソコンのオペレーティングシステムとスマートフォンのオペレーティングシステムは融合しつつある。どちらかというとパソコン側がスマホに合わせているというのが実情かもしれない。ノートパソコンとキーボード付きのタブレットにはほとんど違いがない。パソコンを知っている人かお店の人に聞いてみると良い。違いが分からないという人も多いだろう。画面を分割してタブレットとして使えるノートパソコンもある。マイクロソフトのタブレットSurfaceにはOfficeが付いていて、キーボードを取り付けることができる。40,000円程度から手に入るようである。

日本の競争力とパソコン

最後の問題は少し難解だ。アメリカのIT産業の競争力が高いのは、IT分野でデファクトスタンダードを握っているからだ。その担い手は中国やインドから来た移民なのである。一方、日本人は中国から来た移民を「一時的な格安労働力」として扱ってきた。このために、優秀な人は集らず、少し働いただけで雇い主の基から逃亡するというケースが相次いでいる。日本の競争力を気にする「愛国的」な人たちは、移民の導入には否定的だろうし、それが中国人だということになれば猛烈に反対するだろう。国の競争力を高めるためには優秀な移民を招き入れた方がよいことは自明だが、この議論が日本で受け入れられないのも、また確かなことなのだ。

一方、パソコンが操作できるとしても、期待されている仕事は事務労働のパート程度のものなのかもしれない。特に、サービス分野の労働生産性は低く、パート労働者の労働時間も限られている。パソコンを知らなくてもできる最低賃金の仕事と、パソコンができてできる最低賃金の仕事にどういう違いがあるのだろうか。コンビニ業界のように非正労働者に依存する業界はパソコンに期待してない。スマホと同じように操作できるタブレットで仕事ができるようになっている。賃金が低く抑えられ、出世の見込みのない非正規の労働者がパソコンのオペレーションをしているというケースも珍しくない。コンピュータを使える人の能力が労働生産性に結びついていないのである。

つまり「パソコンができるかどうか」ということと、国に競争力があるかということの間には実はあまり関係がないのだと言える。貧困に結びつく要素があるとしたら、それはその家庭が持っている人的なネットワークの違いだろう。コンピュータやネットワークに関する智識を得られないというのは、そうした機器を使っている知り合いがいないということを意味しているに過ぎない。それを「若者のXXばなれ」という要素で括ってしまうと、議論が錯綜するばかりで本当に解決すべき問題が却って見えにくくなるのではないかと思う。

デジカメ写真のバックアップを取る・遺す

デジカメやスマートフォンで写真を撮っていると、知らず知らずのうちに溜まってくる。これをどう残しておくのがよいのだろうか。

デジタルカメラが日本市場に登場したのは1993年だそうだ。登場してから20年強しか経っていないことになる。最初はフィルムカメラより劣ったおもちゃのような位置づけだったが、2000年にシャープからカメラ付き携帯電話が登場すると状況は一変した。最初は写真メール(写メ)というメールに添付する小型の映像(128×96ピクセル)がスタートだったのだが、現在ではほとんどの携帯電話にはカメラがつくまでになった。1人が1台以上の携帯電話を所有しているのだから、すべてのカメラが記録する情報量は膨大なものになるだろう。なかには買い替えと同時に写真をなくしたという人もいるかもしれない。

人が一生に撮影する写真の量というのはどれくらいになるのだろうか。試しに手元にある写真を見たところ、10,000枚弱で6ギガバイト程度になっていた。初期の写真は640×480ピクセル程度だったが、最近のものは1280×96ピクセル程度(だいたい2L版の写真用のサイズだそうだ)で撮影されており、1枚のサイズは700キロバイト程度だ。最近のスマホは高解像度化が進んでいるので、ファイルサイズはもっと大きいかもしれない。2メガバイトとすると3倍の18ギガバイトということになる。

せっかく撮り貯めた写真がなくなるのは忍びない。どのようにすれば写真を残しておけるだろうか。

Google Photos

第一の選択肢は無料のオンラインサービスを使うというものだ。地震や洪水で家が浸水して家族の思い出が消えたという話をよく聞くが、オンラインサービスに預けておけば安心だろう。

現在最もポピュラーな選択肢は2つのある。GoogleとAppleだ。Googleは、PicasaとGoogle Photosという写真サービスを2つ持っており、お互いに連動している。1600万画素までであれば、無料で制限なく預かってもらえる。圧縮がかかるが、見た目ではほとんど分からないという。1600万画素もあれば、A4で300pdiで印刷できる。スマホの写真をすべてA4で印刷する人などいないから、十分すぎるクオリティと言える。自動でタグ付けもしてくれる。どうやら写真から直接判別しているようである。例えばインド旅行の写真を丸ごとアップロードすると、タージマハルの写真を自動で探し出してくれる。写真はWeb上で共有する事もできる。Google画像検索の対象にはならないらしい。

もちろん欠点もある。無料のサービスなので突然打ち切られても文句は言えない。実際にアカウントを凍結された例も報告されている。自分の子どもの裸の写真を「かわいいから」と言って自動アップロードした人がアカウントを凍結された例がある。児童虐待だと認定されたらしい。海外ではしばらく使わなかった(規約では9か月ということだ)人が、予告もなしにアカウントを閉じられたという例もある。メールアドレスをGoogleに依存していると、ある日突然誰とも連絡が取れなくなったということもあり得るのだ。

しばらくアクセスがないと削除されてしまうのだから、遺族が本人の死後に「いつまでも見られるから」という理由で、そのまま写真を預けておく事はできないことになる。Googleはデータを一括ダウンロードできる仕組みを提供している。

iCloud – Apple

Appleも写真をバックアップサービスiCloudを提供している。こちらは5Gバイトまで無料で預かってくれるそうだ。500万画素の写真を2MBとすると、2,500枚程度ということになる。それ以上になると容量を買わなければならない。iCloudサービスを使うと、どのデバイスで写真を撮った写真も同期される。例えば、パソコン(最新版であれば、Windowsでもよいのだそうだ)で写真を削除すれば、各デバイスの写真も整理される。2500枚というのは人が一生に撮影する写真の量としては少ないかもしれない。AppleTVを使えばテレビで表示する事もできる。LAN環境さえあれば、設定にはほとんど知識がいらない。

Appleのサービスでも写真の共有はできるが、共有する人がiOSを持ったデバイスやパソコンを持っていなければならない。そして、それは常に最新のものである必要がある。5年程度のオーダーであれば問題はないが「一生」見られるかといえば、疑問符がつく。Appleのサービスには継続性がないものが多い。写真を整理するソフトであるiPhotoはいつのまにか打ち切りになってしまった。iDiskというサービスを運営していたが、こちらもiCloudが普及したという理由で打ち切られてしまった。無料メールアドレスを配って、それを有料にし、それを打ち切るというようなことをしているので、今のサービスが今後も使えるかは分からない。

CDやDVDに保存する

長期保存するためには、CDやDVDに保存すればよいではないかという意見もありそうだ。しかし、意外なことにCDやDVDといったメディアの寿命は5年〜10年程度と言われている。最近では光学式ドライブを持たないパソコン(Appleなどが有名だ)も出ているので、昔のフロッピーディスクのような存在になってしまうかもしれない。今DVDを持っていたら、今すぐどこかにバックアップを取った方が良い。

1990年代にはフィルムカメラの情報を読み込んだフォトCDという形式があったが、読み込めるソフトウェアはなくなりつつある。「永久に」画像データを保存するというのはなかなか難しいらしい。フォトCDには100枚程度の小型サイズの写真が保存できたようだ。

SDカードに保存する

デジカメは保っているがパソコンがないという人もいるだろう。その場合、SDカードに保存しておいてカードごと変えているという人もいるのではないだろうか。ところが、SDカードにも寿命があるのだという。頻繁に書き換えをしていると5年程度でダメになるという報告がある。すべてが壊れるわけではなく部分的に痛んでくるということだ。すぐに発見できないので却って厄介だ。

さらに、SDカードは放置しておくと5年程度でデータが飛ぶのだそうだ。記録されている電子が放電してしまうらしい。と、いうことでSDカードは中期的にデータを保存する媒体としては使えない。DVDに保存しろと書いてあるものもあったが、DVDも中期的にデータ保存ができないのは同じである。

ハードディスクやSSDに保存する

ということで、データを中期間以上保存するにはパソコンがあった方が安心だ。最近では家庭内ネットワークに対応したハードディスクやSSDも登場している。パソコンがなくてもモバイル機器(スマホなど)だけがあればバックアップできる装置もあるようだ。こうしたネットワーク対応型ハードディスク(NAS)であれば、1TB(約1000GBに当たる)が15,000円程度で手に入る。二重バックアップができるものは20.000円を越える。家庭内LANに対応した装置(スマホ、タブレット、テレビ用のセットトップボックス)などで写真を共有する機能を備えたものもある。

ハードディスクの難点は壊れる可能性が高いことだろう。機械式なのでいつかは寿命が来るのだが、いつ来るのかは分からないのだ。このため、ネットワークの知識とバックアップの知識が必要になってくる。自動バックアップを取るためには、ハードディスクドライブを2つ以上揃える必要がある。アップロードしてしまえば整理まですべてやってくれるGoogleのクラウドサービスに比べると難易度は高いかもしれない。最近のネットワーク対応型のディスクは接続に複雑な仕組みを使っている。デバイスのOSが変わったら接続できなくなったというケースもないわけではない。

SSDはハードディスクと違ってうるさい動作音がない。理論上読み書きに寿命があるということだが、100年程度の耐久性はあるだろうとされているようだ。SSDは今のところテラバイト単位の製品を作るのは難しいらしい。128GBの製品が10,000円強で売られている。一生安泰という程ではないが、そこそこの保存容量ではある。

古いパソコンをサーバーとして利用する

WindowsXPのサポートが切れて、ネットにつなぐのはちょっとはばかられるという人もいるかもしれない。こうした古いPCをサーバー代わりに利用するという手もある。昔のパソコンは大きい代わりに作りが単純なのでハードディスクの増設などもしやすい。単純という事は壊れにくいということでもある。OSが古いままなので、古いアプリが「いつのまにか使えなくなる」ということもない。

古いパソコンの難点は部品が手に入りにくいということだ。中古品店を探せば安い部品が手に入るが、サポートは全くないので、すべて自前で解決する必要がある。

終わりに

ということで、バックアップには正解がない。残念ながら永遠にデータが保存できる媒体は存在しないのだ。

現実的には、オンラインサービスと自宅に複数の選択肢を保っていると良さそうだ。かつてのパソコンは100ギガバイト程度のハードディスクしか認識してくれなかったが、最近ではテラバイトクラスがスタンダードになった。ハードディスクの価格も安くなっているので、余裕を持って複数の装置や手だてを準備すると良さそうだ。改めてNASを準備しなくても、古いパソコンをサーバー代わりに利用するという手もある。

jQuery File Uploadでファイルが削除(デリート)できない

jQuery File Uploadは画像ファイルをサーバーに一括アップロードできるとても便利なjQueryプラグインだ。しかし、サーバーの設定によってはファイルのアップロードはできても削除(デリート)ができない場合がある。ブラウザーで見ると、403エラーが表示される。

その場合にはdelete_typeという項目をDELETEからPOSTに変更すると削除ができるようになる。具体的には’delete_type’ => ‘POST’とする。ハマる人が少ないのかどうか分からないが、GOOGLEで検索しても分からなかった。

よく見ると、コメント欄に書いてあった。

1999年のウェブデザインを振り返る

フォルダーの整理をしていたら、昔のウェブサイトのスクリーンショットが出てきた。1999年のもので、主にテレビ局と音楽レーベルのサイトを集めたものだった。

この頃のサイトにはいくつか特徴がある。まず、文字がぎざぎざしている。この頃のブラウザーはスムーズな字が出力できなかった。スムーズな文字を出す為には文字を画像化する必要があった。いつごろ文字がスムーズになったのかと思い調べてみたところ、Windowsの文字をスムーズにする方法という記事が見つかった。Windowsでは2007年頃にはまだ文字はギザギザしていたようだ。マッキントッシュでスムーズなフォントが表示されるようになったのは2001年のOS Xからだ。

また、曲線も表現できなかったので、曲線を表示するためには画像に頼らざるを得なかった。しかし、画面全体を覆うような大きな画像は使えなかった。電話線を利用するモデムの速度は最終的には56kまで「高速化」していたが、それより早いADSLが登場するのは2000年代に入ってからのことだったようだ。

最大の特徴は全体を統合するグリッドという概念が薄いということだろう。現在のウェブサイトはまず大きな枠組みを決めて、その枠組みを分割してゆくことで画面全体を支配するデザインを作っている。中には画面幅を変えると全体の枠組みを維持したままで画像やセクションが拡大・縮小することもある。こうしたシステムをグリッドと呼ぶ。

当時のウェブサイトのデザイナーの中には出版出身の人たちもいたので「グリッドを意識したデザイン」というものは存在した。ところが、HTMLはもともと文章の構造とリンク関係を記述する言語であり、デザインには主眼が置かれておらず、部品は置くだけのものだった。当初は枠組みを記述するdivというタグがなく、デザインにはテーブル(もともと表を作るのに利用されていたものだ)を流用していた。1990年代の終わりにdivタグが登場した(1999年に出されたInternet Explore 5でもdivタグは表示される)あとも、しばらくはテーブルが多用されていた。縦線を記述するHTMLもなかったので、縦枠を引くためだけにテーブルタグを使うこともあった。

画像が使える事になったことで、ウェブにデザインという概念が持ち込まれたのは良い事だった。しかし、何でもできたために統一感がない上に「盛りだくさん」に情報が氾濫していたが、これが刺激的で新しかったのだ。

現在のウェブサイトは上部にグランドナビゲーションを横配置するのがお約束になっているが、当時にはそのようなお約束事はなかった。メインのメニューは左側に縦に並べられるものが多かった。中には画面の下にグランドナビゲーションを配置したコンテンツもある。メインコンテンツ(左)とサブコンテンツ(右:広告など)という概念もあまり明確ではなかった。現在の決まり事はこうしたさまざまな思いつきが淘汰された結果だといえる。

このように、1999年のウェブサイトと2015年のそれで一番違っているのは画面デザインについての考え方だろう。1999年のデザイナーはさまざまなパーツを組み合わせることで全体のデザインを組み上げていた。画面全体で個性を表現していたのだ。ところが、現在のデザインからはこうした個性が消えている。ウェブデザイナーの役割はモジュールとその配置方法を決める事であって、個性を決めるのはそれぞれのモジュール化されたコンテンツだ。

こうしたモジュール化はスマートフォンの登場でさらに加速しつつあるようだ。過剰なデザインはコンテンツに対する理解を妨げらるものだと捉えられている。そこで、過剰なグラデーション、背景の模様、陰影などは消え行く運命にある。陰影のついたデザインは小さな画面では視認性が悪い。そこでフラットなデザインが好まれるようになった。断片化された情報はソーシャルメディアによって切り取られ、横幅320ピクセルほどの画面でシェアされている。

メニューやナビゲーションにはリストタグを使うべきか?

ウェブサイト制作には「なんだかよく分からないが、そう決まっている」という決まりごとがいくつかある。そのうちの一つが「メニューやナビゲーションにはリストタグを使え」というものだ。しかし、その理由を尋ね歩いても、納得のゆく答えを見つけるのは難しいかもしれない。「そういうものだから」というのが、大方の意見だろう。

そもそもリストタグはメニューを横に並べるのには適していない。メニュー(とくに、グランドナビゲーション)のために発明されたのではないことは明らかだ。大抵のグランドナビゲーションは横に並べてあるので、CSSのディスプレイ指定を使って無理矢理に横に並べなければならない。

そこでいろいろと探したところ「ナビゲーションにリストタグを使うべきか」という英語の文章を見つけた。この文章によると、大抵の(多分、アメリカのことだろう)教科書には「ナビゲーションにはリストタグを使え」と書いてあるそうだ。たぶん、この習慣が日本にも伝わったのだろうと思われる。

ところが、目の見えない人用の支援ツールを研究した結果「リストタグを使ったメニューは認識しにくい」ということが分かったのだと言う。ユニバーサルデザインに配慮すれば、スパンタグを使った方がよいらしいのだ。

HTML5には、NAVというタグがある。だから、NAVタグで囲みさえすれば、仕様には合致していると言える。NAVタグを使うと「そこは、本文とは関係がない」という指定ができる。メニューやナビゲーションにリストタグを使うかどうかは、好みの問題だということになるだろう。

しかし、話はそれほど単純なものではなさそうだ。レスポンシブデザインが一般化し、それに対応したプラグインが発展した。「ナビゲーションにはリストタグを使う」ことが一般化しているので、大抵のプラグインもナビゲーションのリスト構造の把握に、リストタグとそのネストを利用している。つまり、レスポンシブデザインを意識すると、ナビゲーションやメニューにはリストタグを使わざるを得なくなるというわけだ。

ここで出てくるのは「メニュー構造をネストすべきか」という問題だ。確かに、ネスト構造を取るとサイト構想は把握しやすくなる。アコーデオンやドロワーを使えば、かなり多くのメニューを表示できるだろう。しかし、これはPCを使ってメニューを縦に並べた場合に言えることだ。これをタブレットやスマートフォンで表示するとかなり分かりにくい画面構成になることは間違いない。

そもそも、どうしてメニューにリストタグを使うようになったのかはよく分からない。昔のウェブサイトデザインを見ると、ナビゲーションが左横に縦に並んでいるものが多く見られる。単に文字を並べているだけなので、リストタグをそのままメニューとして使っていたのだろう。意外とそのころの名残が習慣として残っているだけなのかもしれない。

避難経路マップを作る

防災をネタにGoogleMapのAPIを勉強している。今回は避難経路マップを作る。HTMLとJavaScriptのプログラミングが必要だが、Googleのサンプルをほぼそのまま使うので、コードを書く必要はほとんどない。

 

まず、近所の避難場所の情報を集めてくる。

住所があれば良いのだが、小学校名や施設の名前でも検索ができる。

次にGoogleMapAPIのページからサンプルを取ってくる。持っていない人はGoogleAPIのキーも手に入れる必要がある。

このページの最初のサンプルはプルダウンメニューから出発点と目的地を選ぶようになっている。このプルダウンメニューのデータを書き換える。valueに入っている値を避難場所の名前(例えば「○○小学校」)などに変更するだけでよい。このままでは車で移動するルートを検索してしまうので、travelMode: google.maps.TravelMode.DRIVINGtravelMode: google.maps.TravelMode.WALKINGに書き換える。

本来であればAとBの位置を割り出し、ルートを検索し、受け取ったデータを地図上に解釈するという手続きが必要なのだが、それはすべてAPIがやってくれる。ズーミングも自動で行われる。つまり、何のプログラミングも必要ないのである。

directionsDisplay.setPanel(document.getElementById(“directionsPanel”));という一文を加え、displayエリアのdiv(idをdirectionsPanelとする)を追加すると経路図も表示してくれる。

出発点の住所を入力できるようにしたければ、プルダウンメニューをテキストボックスに書き換えてやればよいだろう。

このプログラムでは最短距離が自動的に検索される。ユーザーが自分で経路を考えたい場合にはdirectionsDisplay = new google.maps.DirectionsRenderer();directionsDisplay = new google.maps.DirectionsRenderer({draggable:true});と書き換える。すると、経路が動かせるようになる。経路を動かすと自動的に所要時間が再計算される。これもAPIでやってくれるので、自分でプログラミングする必要はない。

map持ち運び可能なタブレット端末がある場合には現地のロケーションを使用することも可能。現地ロケーションを探す機能をジオ・ロケーションと呼ぶらしく、情報取得のサンプルはここから入手できる。ここで取得した値を単にstartに代入すればよいだけらしい。つまり文字列が住所なのか施設名なのかそれとも座標なのかはGoogleで勝手に判断してくれるようだ。

今回は避難経路地図を例題にして勉強したのだが、もちろんこの地図は会社案内の道順案内にも応用が聞く。トラベルモードにトランジット(TRANSIT)という選択肢があり、乗り換え案内にも対応しているらしいのだが、アメリカ国内だけの対応らしい。試しに経路検索したところ、ロスアンゼルスからサンフランシスコまでバスで行けという指示になった。その内に日本でも導入されるかもしれない。

GoogleMapでご近所の災害マップを作る

GoogleMapを使うと写真をマップ上で共有することができる。この仕組みを使うと様々な地図を手軽に作成できる。例えば、防災情報などを集めておくと「近所の災害マップ」を作れる。地域で共有すれば避難経路などを話し合うのに役立つかもしれない。もちろん、旅行の記録を保存したり、ラーメン屋マップを作る事もできるだろう。

最低限必要なものはGPS機能のついたスマホ作業ができるパソコンだ。プログラムが必要のない方法もあるが、JavaScriptとPHPの簡単な知識があればより高機能な地図を作る事もできるだろう。

まず、iPadやiPhotoなどのスマートフォンを使って近所の危険箇所の写真を撮影する。すると、自動的にGeocodeという位置情報が記録されている。ガラケーの場合、写真を撮影したら手動でGPSデータを付加する必要がある。こうした位置情報をGeoコードとかGeoタグと呼ぶ。

最も簡単な方法:Picasa Webを使う

picasaまず、Googleのアカウントを作る。次にPicasa Webに行きGoogleアカウントでログインする。次に右上にある歯車マークにマウスを合わせ[設定]を選択する。設定では[場所]にある二つのチェックボックスを選択しておく。すると写真についている位置情報がサービスに反映されるようになる。これを忘れるとPicasaにアップロードしたデータには位置情報が付加されず、手動で付け直さなければならなくなる。

iPhoneを持っている場合、Google+アプリをダウンロードし[設定]から[インスタントアップロード]をONにする。すると全ての写真がPicasa WebとGoogle Photoにアップロードされる。一度パソコンに取り込んでからアップロードすることもできる。PicasaではGPS機能のないデジカメで撮影した写真にも位置情報を追加することができる。

picasa2

Google+からアップロードした写真は「インスタントアップロード」という場所に保存されるので、アルバムを作り、何か名前をつけて保存する。パソコンから保存した写真はアルバムを作って管理しておく。写真には簡単な説明を付けることができる。写真の下にある[説明を追加]を選ぶと説明を付けることができる。

Picasa Webでアルバムを選択する。右端の[このアルバムへのリンク]に[メールやIMにリンクを貼り付け]という項目があるので、そこにあるURLをコピーする。マップを見るためには[マップを表示]をクリックする。

 

少し複雑な方法:KMLを使う

KMLはいくつかの方法で作る事ができる。Picasa Webの場合[Google Eearthで表示]をクリックするとKMLをダウンロードできる。これをGoogle Mapに持ち込みマイマップに読み込ませるとオリジナルの地図が作成される。

googlemap
ご近所の呟きデータをKMLにまとめてGoogleMapで表示させた例

KMLは簡単なフォーマットなので手描き(あるいはプログラミングで自動的に作成)することもできる。Twitterの呟きにもGeoコードが付加されているものがあるので、GoogleMapに持ち込んで読み込ませることが可能だ。

最も複雑な方法:プログラミングする

GoogleMapAPIを使って地図を作成する。GoogleMapAPIを使うためにはAPIキーを取得する必要がある。APIキーは全てのGoogleサービスで共通。プロジェクトを作ってから必要なサービス(この場合はGoogleMap)を起動する仕組みになっている。

GoogleMapAPIのチュートリアルから適当なコードを拾って最初のマップを作る。Google検索すればチュートリアルがいくつも見つかるが、古いもの(verrsion 2)のコードが多く出回っており、使えない可能性がある。

写真にはEXIFと呼ばれる標準化されたフォーマットがあり、位置データも保存されている。

PHPを使い、写真から位置データを抜き出す。$exif = @exif_read_data( $img );というコードで簡単に抜き出せるが、ここから先が意外と大変だ。場所データが特殊な形をしており、そのままでは地図に使えない。10進法のデータを60進法に編集する必要がある。$data = convert_float( $gps[0] ) + ( convert_float($gps[1])/60 ) + ( convert_float($gps[2])/3600 ) ;というコードを書いてくれている人がいたので、それをそのまま使わせてもらった。南緯と西経はマイナスデータに置き換える必要があるらしい。return ( $ref==’S’ || $ref==’W’ ) ? ( $data * -1 ) : $data ;という式を使うそうだ。

写真からGeoコードを抜き出したら、これを使って地図のセンターポジションを設定する。例えばこんな感じ。

function initialize() {
var place = new google.maps.LatLng($lat,$lng);
var myOptions = {
zoom: 15,
center: place,
mapTypeId: google.maps.MapTypeId.ROADMAP
}

map = new google.maps.Map(document.getElementById(“map_canvas”), myOptions);

複数写真がある場合はそれぞれのGeoコードデータを読み込んだ上で次のように設定することができる。

<img style=”cursor: pointer;” src=”$img” alt=”” />

Googleのチュートリアルにはサーチボックスを使って住所からGeoコードを抽出するためのコードが掲載されている。これを使って、Geoコードを調べるミニアプリを作る事もできる。Geoコードを自動で集めてデータベースに収集するのは規約違反らしいので注意する必要がある。

GoogleMapとTwitterであなたの回り半径3kmで起こっていることを調べる

GoogleMapAPIを使ってみることにした。JavaScriptはよく分からないのだが、Googleが公開しているサンプルコードをそのままコピペしてみるときちんと動作した。GoogleMapはKMLというファイルを読みこんでレイヤー表示することができる。何かできないかなあと思って、以下の要領で試してみた。

  • まず、GoogleMapAPIを使って任意の場所の座標を調べる。
  • 次にTwitterAPIを使って任意の場所の周辺で呟かれたツイートを抽出した。式はhttps://api.twitter.com/1.1/search/tweets.json?count=100&geocode=35.6625031,139.73192029999996,2kmのように書く。これは六本木6丁目の周囲2kmで呟かれているツイートを抽出せよという意味だ。位置情報を示すデータはgeocodeと呼ばれる。
  • このデータをKMLというファイルに整形する。手作業でやるのは大変なので予めプログラミングして置くとよい。
  • このKMLファイルをGoogleMapに読み込ませて表示する。下記のような画面が得られた。
  • このプログラムはバージョン2でも3でも動作した。2はかなり昔に終っているバージョンのはずだが未だに動かしてくれているらしい。古いAPIを切り捨ててしまうサービス(例えばTwitterやFacebook)もあるので、有り難い限りだ。

googlemapKMLファイルはかなり強力にキャッシュされるらしい。頻繁に情報が更新されるデータなどに使うのはやめた方がよさそうだ。CData形式にしておくと、httpで始まるテキストには自動でリンクが貼られている。

場所付きのデータはかなり多く見つかった。最近流行っていると思われる、スマホを使って場所をチェックインするサービスが普及しているようだ。たいていのデータは「どこで買い物をした」とか「どこで食事をした」などといったたわいもないものだった。イベントなどがあれば参加者の反応を見る事ができて面白いのかもしれない。

意外に思われるかもしれないが、これらのツイートのほとんどが公開されており、誰でも利用することができる。個人情報とか守秘義務などを気にする人はGPS機能を切っておいた方がいいのかもしれない。

KMLファイルは手動で作る事もできるが、最近のスマホカメラ(iPhoneやiPadなど)には最初から場所のコードが添付されている。これをPicasaにアップロードする。PicasaにはKMLファイルを出力するオプションがあり、コメントなども付加することができるので、プログラミングなしで情報の共有地図を作る事も可能だ。災害情報を近所と共有したり、お薦めのお店マップを作ったりと様々に応用できそうだ。