レス数が1スレッドの最大レス数(1000件)を超えています。残念ながら投稿することができません。
おちゃめくらぶ掲示板
現在大阪オフ中にょ
現在大阪オフにょ。
昼食を12時に済ませ現在3時のおやつ休憩にょ。
昼ご飯を食べてから現在までいろいろ買い物をしたけどもう3万円くらい使っているにょ。
めぼしいものは大体買えたけどそろそろ資金が尽きるにょ。
マリモーマさんへ
>今日は 大阪オフだけど 関西は 雨が降ってたよ
さっきは結構降っていたにょ。
また詳しくは明日書くにょ。
キーボードレスだからこそ薄い(軽い)ものが良い
iPadはいいけれどやっぱりキーボードがないと・・・という人もいると思うにょ。
iPhoneはガジェットマニアからするとスペックが低い(特に画面解像度)というのが不満
だったけれどiPhone4ではスマートフォンの中では最強クラスのスペックになったため
その点では問題なくなったにょ。
とはいえ、やはりキーボードがないということを気にしている人も多いのではないかと
思うにょ。
確かにないよりはあった方が絶対にいいからね。
私は根っからのキーボード派にょ。
QWERTYキーボードはポケコン以来ということで26年使っているにょ。(当時はマイコンは
非常に高価だったので持っている家の方が少なかった)
しかし、96年に買ったPDAはキーボードレスのザウルス(PI-6500)にょ。
これはシャープのカナメモ、電子手帳・・・という流れをきて同じシャープのザウルスを
選択しただけであってキーボードレスに魅力を感じたから選択したというわけではないにょ。
むしろ欲しかったのはHP200LXだったけど高価だし使えるようにするためにはハードルが
高すぎたので安価で済むザウルスにしたにょ。
またBASICカードを挿せばポケコンにもなったしね(アーキテクチャはPC-E500シリーズを
踏襲し、CPUはE500の倍速であるため演算速度も倍速だった)
次に買うPDAはキーボード付きのWinCE機か・・・と思っていたのだけど買ったのはザウルス
カラーポケット(MI-310)とパワーザウルス(MI-610)にょ。
これに外付けキーボードを付けることで長文を書くことが可能になったにょ。
とはいえ、キーボードの出来はお世辞にも良いものではなく日本語変換も2文節変換で
AI辞書や学習機能が無しということで事実上単文節変換で入力していたにょ。(単文節
変換でないと候補が10通り×10通りあった場合は最大100回変換キーを押す必要がある)
それでもおちゃめくらぶのサイト立ち上げ時には大いに役立ってくれたにょ。
その次に買ったザウルスはMI-E1で初代のスライド式キーボードモデルにょ。
キーピッチが狭いだけでなくキーが固く押すのにかなり力が必要ということで微妙だった
けれどパワザウのキーボード専用端子が削られたのでそのキーボードを使うしかなかった
からね。
さらにその次にかったリナザウ(SL-C750では普通に使えるレベルのキーボードを搭載
だったにょ。
そうなるとやはり、日本語変換がボトルネックになってきたにょ。
確かにキーボードがあるということは重要とは思うけど本質的なことはそこにはないにょ。
要はストレス無く手軽に文字入力が可能かということであり、キーボードと遜色ない
レベルに入力可能であれば問題ないわけだからね。
キーボードレスとなるとやはり真っ先に思いつくのが手書き入力にょ。
ザウルスの手書き入力は文字認識率が非常に高かったとはいえ100%でもないし、私は結構
くせ字であるため急いで書いたら上手く認識されず修正の方に手間取るということも多々
あるため丁寧に書く必要があり、その分入力速度は著しく遅くなってしまうにょ。
ザウルスで通常の手書き入力では認識速度、精度ともに不満で入力速度を最重視するとき
には使えなかったけどそういう時には手書き文字をベクターデータとして保存するインク
ワープロが便利だったにょ。
PIザウルスではそのベクターデータは再利用が不能だったけどMIではそのインクワープロ
で書かれたベクターデータを後からテキストデータに変換(文字認識)させるという方法も
可能であり大きくその価値を高めてくれたにょ。
ただ変換精度がイマイチだったので個人的には使う機会はそれほど多くはなくインク
ワープロ参照機能用(インクワープロモードでのテキストデータは他のどのモードでも
使用することができるためWeb閲覧中にオフラインで書いたテキストファイルを開ことが
この参照機能を使用によってのみ可能だった)として使うのがメインだったにょ。
しかし、リアルタイムでテキスト入力したいという場合には速度面でキーボードには遠く
及ばないからね。
速度だけで言うならばザウルスの手書き認識よりもPalmのGraffitiの方が認識速度や
精度において圧倒していたにょ。
ただし、Graffitiは英数字だけということで日本語入力をする場合には結局日本語変換
という手間が加わるためキーボードには速度面で及ばなかったにょ。
では、ソフトウェアキーボードはどうなのかというと画面サイズがある程度ないと押し
にくいわけだし、ハードウェアのキーボードと比べて入力のフィードバックがないため
速度面でも不利になるにょ。
やはり、同じQWERTY配列という時点でソフトウェアキーボードがハードウェアキーボードに
勝てるはずがないにょ。
というわけでハードウェアによるQWERTY配列キーボードが最強という当たり前の結論に
なってしまったにょ。
さて、最近はQWERTY配列のキーボードを搭載したケータイが増えている(ソフトバンク
からは現行品の中にないのが残念)とはいえやはりメインはテンキーを使っている機種
だと思うにょ。(ガラケーではごく一部の機種を除きほぼ100%がこれである)
この[1]を押すごとにア→イ→ウ→エ→オと変化する文字入力法は使ったことがない人は
いないくらいのおなじみのものだけど私はシャープのカナメモで初体験したにょ。
この文字入力は達人レベルになれば並の人がQWERTY配列キーボードで入力するよりも速い
とはいえ、私はその域に全く達してないにょ。
1秒間に16回ボタンを押せる達人であればカナベースで1分に最大300文字程度入力可能
だと計算される(ア段だと1回、オ段だと5回のボタン入力が必要なので平均は3回となる
けれど濁音、半濁音は別途押さないといけないし、同じ行のカナだとカーソルを押さないと
いけないため平均だと1文字あたり3ボタンよりも大きくなる)ため私がフルキーボードで
タイプする速度と互角の速度となるにょ。
私の打鍵速度は平均よりやや上というレベルでありとても速いとはいえないレベルなので
同じ達人同士を比較した場合はテンキー入力はQWERTY配列キーボード入力には到底及ば
ないにょ。
ケータイには予測変換があるからPCよりも日本語入力において有利だという人もいるかも
しれないけどそれを言ったらPC向けでも予測変換があるためにそれはアドバンテージでも
何でもないにょ。
やはり、純粋に文字入力が速い方が日本語入力も速くなるにょ。(むしろ使えない
予測変換搭載の機種だとケータイの方がかえって遅くなる)
達人の話をしても仕方がないので私自身の話でいうとケータイのボタン入力速度は最大
でも1秒間に3〜4回程度ということでカナベースで1秒に1文字程度、1分で約60文字という
レベルにょ。
これはPC史上最凶のキーボードだと私が思っているVAIO UXで私自身が入力する速度に
さえ劣るにょ。
つまり、私にとってケータイのテンキー入力はVAIO UXのキーボード以下ということに
なるわけにょ。
これは経験を積めば1.5倍くらいには速くなるだろうけど同じテキストをフルキーボードで
書けば5倍は速く入力できるということを考えるとPCで入力ができないケータイでの
ショートメール以外にはケータイで文字入力するという機会がほとんど無くなってしまい
言い換えれば経験を積むという機会もないわけにょ。
ソフトウェアキーボードはハードウェアキーボードに大きく劣るとQWERTY配列キーボード
においてはいえるのだけどテンキーでもそれはいえ、ソフトウェアテンキーではとても
満足な速度で文字入力ができるとは思えないにょ。
ただし、それはテンキーで普通に入力した場合の話にょ。
iPhoneではフリック入力で文字が入力可能というのが大きいにょ。
フリック入力では文字をフリックによって入力するというものにょ。
フリック入力そのものを知らない人のために説明すると、か行を入力する場合は[か]を
押して上方向にフリックすれば「く」が入力されるというものにょ。
これによって、文字入力に必要なボタン入力回数は3分の1程度に減らせるため仮にテンキー
入力よりも打鍵速度が半減しても時間あたりの入力文字数は1.5倍に増えるにょ。
テンキーを達人レベルに使いこなしている人を除けばフリック入力をすることで文字
入力速度は上がるということにょ。
これはiPhoneだけではなくAndroid端末でも可能であり、ドコモのXperiaも最新のアップ
デートでフリック入力が可能になったにょ。
http://k-tai.impress.co.jp/docs/news/20100609_373169.html
したがって、タッチパネルによる文字入力はハードウェアによるキーボード(ボタン)
よりも入力速度の面で劣るとはいえ、それはあくまで文字入力システムが同一の場合に
限られるというわけにょ。
また、VAIO UXのような出来が非常に悪いキーボードの場合は同じキーピッチのQWERTY
配列によるキーボードソフトウェアキーボードにも劣る可能性があるためハードウェア
キーボードに絶対的な優位性があるというわけではないにょ。
私のVAIO UXも木工用ボンドによる加工をしてからようやく多少はまともに使えるレベルに
なったわけだしね。
http://ww5.tiki.ne.jp/~ochame/test/ux_bond.jpg
ということでまとめると日本語変換効率が同程度の場合は日本語入力速度に優劣をつける
とすれば下記のようになるにょ。(フリック入力はあまり経験がないため上記のように
ボタン入力速度の半分の打鍵速度として考えた)
十分なキーピッチのQWERTY配列キーボード >>>>>
十分なキーピッチのQWERTY配列ソフトウェアキーボード >>
キーピッチが小さなにスライド式QWERTY配列キーボード >>
フリック入力のソフトウェアテンキー >>
ハードウェアテンキー >> ソフトウェアテンキー
(※私個人における入力速度の差であり、>が1つで20%程度の速度差を想定)
つまり、十分に使えるQWERTY配列キーボードがダントツで1位ということは確実なのだけど
それはケータイやスマートフォンでは望めないにょ。
上記の中からケータイやスマートフォンだけを取りだして考えた場合には
QWERTY配列キーボード搭載機>>フリック入力対応スマートフォン>>通常のガラケー
ということになりガラケーで主体となっているテンキー入力ではどても入力速度でガマン
できないレベルだけどスマートフォンでは満足・・・とはいかなくてもガマンができる
レベルで入力が可能になりそうにょ。
この辺は人によってどの程度の差があるかが異なるだろうし、私の入力速度の優劣比較
とは順位そのものが異なる人もいると思うにょ。
私はテンキーとフリック入力の間に「越えられない壁」を感じるけどこれも人によって
壁の場所や有無が変わってくると思うにょ。
これがiPadクラスの大型タブレット型端末であればソフトウェアキーボードに越えられない
壁を感じており、なおかつ大量の文字入力をするような人はキーボードレスのタブレット
型の端末を選べば失敗してしまうだろうけどそうでなければタブレット型の端末というのは
そんなに悪い選択肢ではないにょ。
それは多くの場合、タブレット型の端末では別途外付けキーボードが使えるけどハード
ウェアキーボード搭載の場合はそれを外して軽量化や薄型化はできないからね。(外付け
キーボードだと角度調整が難しいため別途スタンド等が必要だったり膝の上では使えない
ということがあるためサイズ、重量面以外の問題も発生してしまうけど)
だから、文字入力速度の低下を天秤にかけるだけではなく重量やサイズ(薄さ)も天秤に
かけて判断する必要があるにょ。
だから、重くて厚いキーボードレスのタブレット型の端末は魅力がなく軽くて薄いもので
ある必要があるわけにょ。
それと同じことがiPhoneにも言えるにょ。
東芝のT-01Bはスライド式キーボードを搭載にも関わらず12.9mmの薄型ボディを実現して
いるにょ。
キーボードレスのメリットは上記のようにキーボードがない分だけ薄型化が可能になる
ということなので「キーボードがない」ということを「メリットに昇華」させるためには
キーボード内蔵型では実現できないような薄型化を実現する必要があるにょ。
iPhone 4は12.3mmの3GSから9.3mmへと3mmほど薄型化されたにょ。
キーボードレス端末にとってはこの3mmは小さくて大きなものにょ。
料金定額プランは使い放題ではない
イーモバイルがついに帯域制限を8月24日から開始するにょ。
http://k-tai.impress.co.jp/docs/news/20100610_373358.html
現状では事実上の帯域制限がない唯一のキャリアだったからね。
現在も事実上の帯域制限がないに等しいというだけであって現時点では帯域制限が導入
されていないというわけではないにょ。
1ヶ月で300GBがボーダーラインとなり1日あたりだと10GBが帯域制限のラインとなるにょ。
1日10GBというのはP2Pをやっている人を除けばほぼ達することはないラインにょ。
私は自宅のCATVの回線(12Mbpsのベーシックな契約で実効下り速度8Mbps程度)でも1日
当たり数GBしか通信をしていないくらいだからね。
それよりも遅いイーモバの回線では1日あたり10GBに到達することはまずありえないにょ。
私は自宅にいる時間(12〜14時間)はPCは常時ネットに繋がった状態になっているし、
寝ている時間や風呂に入っている時間を除いても6〜8時間となるにょ。
もしも24時間通信しっぱなしということで計算すればその制限値に達する可能性は十分に
あるにょ。(とはいえ毎日寝ずにそんなことをするのはP2P以外には考えられないけど)
計算すると理論値の7.2Mbpsで1日24時間(86400秒)フルに通信をした場合には1日に77GBに
なり月間では2.3TBに達するにょ。
したがって、理論値でフルに通信をした場合は1日当たり3時間しか使えないにょ。
ところが理論値で通信するなんて不可能にょ。
24時間通信しっぱなしという同一条件で1日10GBに達するための実効速度を求めると
926Kbpsとなるにょ。
これくらいならば可能か・・・?とはいえ、さすがに24時間連続通信ということ自体が
ほぼ考えられないにょ。
1.9Mbpsコンスタントに出るような場所であれば12時間通信しっぱなしで1日あたり10GBに
達するため月間300GBは達成が出来ないレベルとは言わないけどほぼないといっても
いいレベルだと思うにょ。
ちなみに私の自宅、およびその周辺地域では300Kbps程度しかでないため1日あたり
72時間連続で通信しない限りはその月間300GBという帯域制限に引っ掛かることはない
からいくら使っても全く問題がなかったにょ。
ところが、上記のように8月24日から大幅に規制されるにょ。
今まで月間300GB(1日当たり10GB)というのがボーダーラインだったのが1日当たり
300万パケット(約366MB)へと27倍も制限が厳しくなってしまうにょ。
これを上記の計算と同じ方法で試算し直すにょ。
単純に27倍時間が短くなるというわけなので7.2Mbpsの理論値で通信ができた場合で7分で
到達するにょ。
理論値で計算しても仕方がないけど実効約300Kbpsという遅い私の地域でも2.7時間となるし
1Mbps出ているような地域であれば1時間足らずでその基準値に達してしまうにょ。
モバイル時のみの回線として考えれば常時通信で1時間程度使えればそれほど困らない
とはいえ、ネットブックとのセット販売でイーモバイルに加入してインターネットデビュー
したような人(イーモバがメイン回線となっている人)であればこれは少し厳しいにょ。
とはいえ、時間課金ではなくパケット課金(通信量に対する課金)であるため別の方法で
計算し直すとYouTubeの720pの動画が1分半当たり20MB少々であるため合計25分程度の動画で
366MBに達するにょ。
フルHDであれば合計12分程度にょ。
HD動画を正式サポートしてないニコニコでも高画質なものならば30分で100MB程度にょ。
それでも合計2時間弱の動画で366MBに達するにょ。
これだけ見たらメイン回線としては使えないような感じだけど通常のWeb閲覧程度であれば
1ページ平均300KBと想定すると1000ページ分は閲覧できるためライトな使用でればその
制限値に達することはあまりないにょ。
もっとも1ページ300KBというのはテキスト+静止画で構成されたシンプルなサイトであり
昨今のフラッシュ使いまくりサイトの場合は1ページ数MBというのはザラだからそれを
考えるとライトなWeb閲覧でさえもメイン回線として使うならば微妙にょ。
それくらい月300GBから1日366MBへと制限が強化されたのは大きいにょ。(従来は一旦
制限値に達したら1ヶ月制限されっぱなしだったのに対して制限値が低くなった分だけ
数時間の制限に止まるからペナルティ自体は小さくなっている)
しかし、同じモバイル回線で考えてみると他のキャリアであればドコモは3日で300万
パケット(約366MB)ということでイーモバの3倍厳しいし、ソフトバンクに至っては
1ヶ月300万パケット(366MB)、スマートフォン向けプランで1000万パケット(1.2GB)
ということで改正されるイーモバよりもさらに10〜30倍厳しいにょ。
とはいえ、帯域制限といってもどの程度のものが行われるのかというのは分からないにょ。
ドコモもトラフィックが混んでいる時のみ制限がされるというだけだしね。
ソフトバンクは繋がりにくく帯域制限も他のキャリアよりも非常に大きいということで
通信用としては最も薦めにくいキャリアでありそれがiPadやiPhone購入希望者にとって
大きな問題点になっているのは確かにょ。
しかし、モバイルルータを使うという選択肢があるにょ。
その際はエリアと実効速度重視でドコモを選ぶか、帯域制限が緩くプロコトル制限もない
イーモバを選ぶかという二択になるにょ。(auは対応するモバイルルータがないし、断続
的な通信に対する帯域制限が大きいため選択肢にはない)
あとは、ピーク速度重視でモバイルWiMAXという選択もあるけどエリアが狭いだけではなく
建物内や建物の影ではほとんど通信できないというのがネックなのでその辺が許容できるか
ということが重要になるにょ。
このような帯域制限はモバイル回線に限ったことではないにょ。
据え置き型のADSLやFTTHにおいても制限が大きなものになっているにょ。
それはここ最近はP2Pに対する規制が厳しくなっているからにょ。
確かに一部ユーザーのそのような使い方によってトラフィック量が大幅に増大するという
のは他の大多数のユーザーにとってはデメリットとなるためそのようなユーザーに対する
制限は仕方がないところにょ。
FTTHはADSLやCATVと比べ上りが速いというのが最大のメリットであり、そのような規制に
よって上りの量に制限が設けられているにょ。
プロバイダにもよるけど1日あたり15〜30GB程度という制限値を設けているプロバイダも
少なくないにょ。(P2P規制ではなくただの転送量規制)
これは理論値で100Mbps、実効値でも30〜70MbpsのFTTHであれば簡単に到達するラインにょ。
P2Pソフト使用時の帯域制限は当然とるべき措置だけどそれ以外の帯域制限はせっかくの
FTTHの利便性を損ねてしまうことになるにょ。
私は現状のCATVでは下りはそれほど不満はないとはいえ、上りはさすがに1Mbps程度と
いうのは不満があり、上り帯域が必要になるときにはFTTHに乗り換えを考えているけれど
このようなP2P以外での大きな帯域制限があるならば事前によく調べた上でプロバイダ選びを
したいところにょ。
料金定額というのはいくら使ってもそれ以上は課金されないという安心感があるが故に
どんどん使っていく人も多いけどそれはプロバイダにとっては望ましいものではないわけ
だからね。(ソフトバンクの繋がりにくさはホワイトプランによる影響も大きいと思う)
そのうち規制量に応じて同じ速度プランであっても3000円コース、5000円コース、1万円
コースと分かれるような日が訪れるかもしれないにょ。(例えば、3000円コースは月5GB、
5000円コースは月50GB、1万円コースは月500GBで規制という感じ)
今となってはそんな時代ではないけど・・・
さて、そろそろOPASに関するページを作ろう・・・と思ったけどその前にワンポイント
テクニックの更新をしたにょ。
ANDで剰余の演算をする
http://ww5.tiki.ne.jp/~ochame/E500/TECH/TECH030.HTM
このテクニックは先日発表したUFO GAME 2でも使われているにょ。
というか、UFO GAME 2での使用があったから思い出したにょ。
私が頻繁に使うようなテクニックは(OPAS応用編などの一部応用的なテクニックを除き)
すでにテクニックコーナーで網羅しているとはいえまだ不完全だからね。
だから、こうやって気づいたときに随時追加していくにょ。
ちなみにUFO GAME 2でこのテクニックをI AND 7ではなく7AND Iとして使用しているのは
理由があるにょ。
前者ではIとANDの間にスペースが必須なのに対して後者の方は7とANDの間にスペースが
不要だからにょ。
これで1文字分節約できるとはいえ、1行にたくさん押し込まないといけない1LINEや2LINEの
ゲームではないからそこまで拘る必要はないんだけどね(笑)
容量の小さなポケコンだと1文字、1バイトの節約テクニックは非常に重要だったけど
ポケコンの中では比較的メモリの多いPC-E650ではそこまでする人もあまりいないのでは
ないかと思うにょ。
まして、PCでプログラミングするならば1文字を節約するためにソースを見づらくするという
のは逆に駄目なものとされているくらいだしね。
本当にiPhone4の液晶は人間の目を越えているのか・・・?
iPhone 4のウリの1つは3.5インチながら960x640の高精細液晶を採用していることにょ。
326ppiという高密度であり一般的に人間の目の分解能とされている300ppiを越えている
ためにもアップル社はこれを「網膜ディスプレイ」と呼んでいるにょ。
しかし、それに関しては専門家は「誇大広告」と言っているにょ。
http://wiredvision.jp/news/201006/2010061122.html
一般的には300ppiと言われているけど上記専門家の意見では477ppiとなっているからね。
確かにメーカー発表は大げさに発表することが多いし、少し性能や機能が上がっただけで
あっても「革新的な進化」と言うことも少なくはないけどそれが本当に間違いであれば
問題としかいえないにょ。
そもそも、この300ppiが人間の目の分解能というのが正しいのかというのが疑問になって
くるにょ。
その際に問題となるのは300ppiの出所にょ。
これは「視力1.0の人の分解能が1分(の角度)」であることから計算されておりそれから
計算すると30cmの距離だと約300ppi(約0.09mm)になるというわけにょ。
ただ、実際にドットが見分けられるかどうかをチェックしてみればその300ppiというものが
正しいかどうか疑わしくなってくるにょ。
目の分解能が(30cm離れて)300ppiならば120ppiの液晶モニタを使用した場合には75cm
離れたら見分けわれるかどうかの限界に達し、それよりも大きく離れたら見分けることが
出来なくなってしまうにょ。
ところが、私のR5(123ppi)で白地に黒の線(線幅1ピクセル)を表示してみたところ
分解能の4倍となる3m離れてもその線を十分に識別可能だったにょ。
別の例を挙げると空気中に漂っているホコリだけどこれは0.09mmよりも遙かに小さいにも
関わらずその存在が目に見えてしまうことは多々あるにょ。
これはなぜかというと4月11日に書いたように人間の目には色彩を感知する錐体細胞が
600万個程度なのに対して明暗を感知する桿体細胞は1億個以上あるからにょ。
つまり、明暗差(コントラスト)の大きなものはこの錐体細胞によって識別され本来の
性能を遙かに超えた認知力を発揮されるにょ。
だから人間の目はコントラストが高い輪郭線を認知する力は極めて高いものとなっている
ためにピーク時には300ppiを遙かに大きく越えることが可能になるわけにょ。
私は昨年3月16日にデジカメで撮影した写真を比較したにょ。
その際には150dpi、200dpi、250dpi、300dpi、350dpi、400dpiでプリントしたものを
無作為に取り出しその優劣を見分けられるかというテストだけど300dpiを越えるものは
ほとんど見分けることができなかったにょ。
それ故に300dpi(300ppi)という基準はそれほど大きな間違いとは思えないけどプリント
した写真の場合はプリンタ側がボトルネックとなり、実効印刷解像度で300dpiを大きく
越えるのは難しいということを考えなくてはならないにょ。
インクジェットプリンタは誤差拡散方式であるためプリント解像度と実効解像度には
大きなずれがあるからね。(1ドットでフルカラーを表現できているわけではない)
では、人間の目の分解能が300ppi程度というのは正しいのかどうかをここではっきり
させようと思うにょ。
そういうことで実効ppiがはっきり分かっているPCモニタ上で改めてチェックしてみよう
と思ったにょ。(そもそも発端がプリントではなく液晶モニタに関してだからね)
200ppi〜600ppiくらいまで20ppi刻みくらいでたくさんの液晶モニタを持っている人で
あればそんなその液晶モニタを30cmの距離から離れて見て自分の目の分解能がどれくらいか
というのが分かるだろうけどそのようなモニタを多数持っているなんていう人はまず居ない
と思うので1つのモニタに対して距離から逆算するしかないにょ。
ここで気を付けないといけないのはどのような環境で測定するかにょ。
フルカラー(RGB256階調)で表示する場合には黒(0,0,0)と白(256,256,256)を比較した
場合においては明暗差が大きいために高い分解能が発揮されるけど実際に画面を見る場合は
カラーの方が圧倒的に多いからね。
では、その実際の使用時におけるRGBの輝度差というのはどれくらいの差で考えれば良い
のかというと難しいところだけど平均的に見れば隣同士のピクセルにおけるRGBそれぞれの
輝度差は64くらいだろうと予測してその輝度差のドットを識別できるかというのをセルフ
チェックしてみることにしたにょ。
そのために速攻で作ったソフトがこの「c-test1(C力測定)」にょ。
http://www1.axfc.net/uploader/Sc/so/123631.zip
これは視力検査と同じように一定距離を離れてそれが見えているかどうかを調べるもの
となっているにょ。
測定に必要なものはWindows PC&液晶モニタ(もしくはノートPC)、長目の物差しもしくは
巻き尺にょ。
まず簡単にソフトの使い方を説明するにょ。
c-test1.exeをダブルクリックで起動すると画面上に色が付いた四角形とその中に3x3
ピクセルの小さな四角形(外側の四角形とはRGB64階調差)が表示されているけどその
四角形の4辺のどこかに1カ所だけ欠けている部分があるのでそれがどこなのかを選択肢し
正解ならば「○」、不正解ならば「×」が表示されるという単純明快なものにょ。(5回に
1回は欠けてない四角形が表示されるのでその際には「無」を選択する)
右クリックをすれば次の問題に進むにょ。
ゲーム性は全くないためそのテストの繰り返しとなるにょ。
テスト方法はまずは十分にドットが見える近い位置からスタートしていき2問連続正解
したら適当に少しずつ離れていき(2問連続にしたのは「たまたま正解する」という可能性が
20%あるけど2問連続ではればそれが4%へと軽減されるため)1問でも外した時点で終了と
なりそこから画面までの距離を物差し等を使って計測するにょ。(同じ64の輝度差でも
色によって人間の目は分解能が異なるため複数回チャレンジした方が良いと思う)
そしてresult.exeを使って液晶の大きさと解像度と距離を入力すれば結果(30cm離れた
地点での分解能)が分かるにょ。(距離に「30cm」を入れるとその液晶のドットピッチが
分かる)
ちなみに私の測定結果はR5(10.4インチXGA)で295、VAIO UX(4.5インチWSVGAで308と
なったため一般的に言われている300dpiはそれほど間違ってないことがいえそうにょ。
このテストは高精細の液晶モニタを使用した方が正しい計測結果が得られると思うにょ。
距離が長くなってしまえばただの視力検査になってしまうからね。(1m以上の計測結果に
なる場合は測定誤差が大きいため高精細の液晶モニタを推奨)
視力0.1の人が視力1.0の人と比べて10分の1の分解能しかないなんてことはなくきちんと
ピントが合う範囲内ならば視力に10倍の差があろうと分解能に大きな差は生まれないにょ。
近視の人が分解能で劣る(視力検査表の大きなランドルト環しか識別できない)というのは
その距離では水晶体のピント調節の範囲外となっているためでありカメラで言うとピントが
合ってない状態で撮影しているようなものにょ。
その状態で「レンズ性能が低い」と判断するのは間違いであることが分かると思うにょ。
また分解能を測るのであれば2本の線が正しく見分けられているかというので測定することが
多いと思うにょ。(特にカメラのレンズの解像力チェックによく用いられている)
それは2本の線を引いてその間隔がゼロか否かというのをチェックするという方法だけど
それだと二択になってしまい95%以上の正しさを求めるためには同じ距離で5回テストを
する必要があるため(たまたま5回連続正解する確率は1/32)テスト時間がより長くかかって
しまうにょ。
そのテスト方法であるc-test2も用意したので興味がある人は試してみるといいにょ。
隙間が空いていれば「有」空いてなければ「無」を選択していくというだけにょ。
ただc-test2ではc-test1より高めの測定結果になるにょ。
これはドットではなく線ということで認知しやすいためにょ。
視力検査のランドルト環はそのようなことがないように太さと隙間の幅は同じになるように
設定されているにょ。
したがって、このc-test2は人間の目の分解能を測定するのには適したテスト方法とは
言い難いにょ。
コントラストの低下によって線の間隔の有無を判断するのではなく線がはっきり見えるか
どうかという判断で行えばまた異なるだろうけどその基準が難しいからね。
まc-test1とc-test2の測定結果の違いというのは点か線かというサイズの問題というのも
あるけど形状の問題も大きいにょ。
例えば数100m先の電線は見えるけどその電線の太さと同じ大きさの物体(電線が1cmと
すれば1cm角の立方体)は見えないというのは人間の目は図形を見る認識能力に優れて
いるからにょ。(距離300mで太さ1cmの電線が識別可能な場合、30cm離れて300ppiのものが
識別可能という分解能の9倍、つまり視力9.0相当となる)
これが最初に出たモニタ上に線を引いた場合にかなり離れていても線が認識可能な理由と
なっているにょ。
ということで私の測定結果を下記にまとめてみたにょ。
使用したPCはR5(10.4インチXGA)が123ppi、UX(4.5インチWSVGA)が264ppiにょ。
ちなみに私の視力は左右ともに0.9(ただし矯正)にょ。
《 測定結果 》
c-test1 c-test2 c-test1-bw c-test2-bw
R5 295 測定不能 377 測定不能
VAIO UX 308 659 387 測定不能
※距離が1mを越えたものは誤差が大きいため「測定不能」とした
すべてのテストは「ドットがはっきり見える」というラインではなく「ドットもしくは
線の想定できるという条件下での測定値
各3回テストしてもっとも良いものを記載した
同じ測定アルゴリズムでも少し条件を変えただけのc-testとc-test2では結果が明らかに
異なるというのを見ればいかに測定方法で結果が左右されるのかが分かるように条件に
よって大きな差が出るテストであるということは認識しておいて欲しいにょ。
図形として線を認識するのではなくドットがはっきり見える距離という条件で測定すれば
c-test1とc-test2では今回のような大きな測定結果の差はなくなると思う)
また、c-testではRGBの輝度差は64で計測したけど上記のように輝度差256(つまり白と黒)
ではそれよりも遙かに大きな測定結果が残せるからね。
実際このテストの白黒版を先に作った(ファイル名の最後にbwが付いているもの)のだけど
隙間が空いているのかどうかがはっきり見えなくてもコントラスト低下によって隙間の
あるものとないものに差ができてしまうため簡単に区別がついてしまうのが厄介にょ。
c-test2-bwではVAIO UXでさえも測定不能のレベル(1000ppi以上)となったにょ。
そもそも人間の目はデジカメとは根本的に作りが異なるため単純に「分解能」という言葉で
表すことはできないにょ。
しかし、326ppiの液晶モニタは(30cm離れて見たときに)「フルカラー画像のドットは
ほとんど見えない」というレベルになっているのは私の測定結果から間違いではないにょ。
あくまでこのテストは30cm離れて見た場合における推定分解能なので15cm(多くの人が
ピントが合うであろう最短距離)ならばさらに2倍になるため画面に近づけば326ppi程度
ではドットが目で見えると思われるにょ。
それもフルカラーで64の輝度差というのが前提条件であるため輝度差の大きいもので
あれば余裕で識別可能だからね。
c-test1-bwではUXでも387ppiに達していているにょ。(視力0.9の私だけど近接時には視力
1.3相当になるということ)
最初に書いたリンク先の専門家の意見では人間の目の分解能は477ppiに達するというのも
考えられない数字でもないにょ。(言い換えればピント調節というボトルネックが無ければ
平均的な人の視力は1.5〜1.6相当になるということ)
仮にその477ppiが正しいとしたら15cmまで近づいてみれば954ppiまでドットの有無が識別
可能といえるにょ。(私自身の測定結果でも15cmならば774ppiまで識別可能)
したがって、1000ppiクラスであれば完全に人間の目(網膜)を越えたといっても問題は
ないけどiPhone4の326ppi程度で「網膜ディスプレイ(人間の目を越えた液晶)」という
のはやはり過剰表現であることが否めないにょ。
iPhone 4のライバルはニンテンドー3DS!?
iPhone 4は本日より予約開始となったにょ。
http://k-tai.impress.co.jp/docs/news/20100614_374335.html
32GBモデルの場合は月々の割賦金は2400円ということで24回払いの総額57600円となり3GSと
同じ金額にょ。(16GBモデルは46080円)
そこから1440円(段階制定額の「バリュープラン」加入時)〜1920円(固定金額の「標準
プラン」加入時)の月月割が行われるため実質負担額は毎月480円(標準)〜980円
(バリュー)となり割賦金の総額は11520円(標準)〜23520円(バリュー)となるにょ。
標準プランとバリュープランは端末代の実質負担金は1万円以上の差がついているけれど
どっちがお得かはパケット使用料が上限の4410円に達する機会がどれくらいあるかで
変わってくるにょ。
ほとんど上限に達しないような使い方をするのであれば端末代が1万円以上高価になっても
バリュープランの方がトータルとして安くなる可能性があるにょ。
とはいえ、iPhoneで通信を極力抑えた使い方というのはそのアドバンテージがあまり発揮
されないからね。(通話メイン、もしくは通話・通信以外がメインならばガラケーの方が
便利)
もっとも、ソフトバンクの通信そのものが嫌とか、PCでも使用したいからということで
モバイルルータを別途持っているという人であれば極力それを活用すればパケット代を
節約することは可能にょ。
ガラケーにおいても最近はWi-Fi対応の機種は多いけどガラケーの場合はWi-Fi時には
出来ることにかなり制限ができてしまうからね。(フルブラウザの通信にはWi-Fiは使える
けど標準ブラウザを使用したり、メールの受送信にはパケット代がどうしてもかかって
しまう)
したがって、iPhoneは「iPhpneが欲しい(もしくはスマートフォンが欲しい)」という人
にはお勧めできるけど「ガラケーとどっちにするか迷っている」という人(ガラケーと
優劣を比較している人」であれば素直にガラケーを買った方が失敗は少ないのではないか
と思われるにょ。
カタログスペックでいえば何だかんだでガラケーは高いし、日本のユーザーが欲している
ようなサービス面や機能が充実しているからね。
しかし、スマートフォンが欲しいという人の中には「iPhoneはスペックが低い」というのを
ネックに感じている人も少なくなかったにょ。
これはiPhone 4になって6月9日に書いたように大幅にスペックアップし、今まで
低スペックがネックでiPhoneを買わなかったという人にとっては朗報といえるにょ。
iPhoneのライバルといえばキャリアは異なるものの国内端末ではドコモのXperiaだと
思うにょ。
http://trendy.nikkeibp.co.jp/article/pickup/20100611/1032077/
Xperiaは今年の4月になって発売開始されてわずか1ヶ月でドコモのスマートフォン史上で
最高の売上台数に達するほどの人気ぶりにょ。(別キャリアでの比較が対象にならない
ならばiPhoneと同じソフトバンクのAndroid端末であるDesireを対象にすると良い)
そのXperiaだけどiPhoneとは好対照になっているにょ。
カテゴリー的には両者ともスマートフォンに位置するもののiPhoneはアップル社の囲い
込みが大きいのに対してXperiaの方はその自由度が高いにょ。
これは特にアプリにおいてもいえ、iPhoneでは基本的にアップル社の認証済みのものしか
インストールできない(脱獄することで使用可能とはいえそれは非保証となる行為である
ため推奨できない)のに対してXperiaの方はLinuxをベースとしたAndroid OSによって
そのような縛りは一切ないにょ。
アップル社の認証が必要であるが故に作れないアプリというのもあるにょ。
その1つがWebブラウザにょ。
Xperiaの方は標準のWebブラウザが気に入らなくても他のWebブラウザをインストールする
ということがいくらでも可能なのに対してiPhoneにはその選択肢さえ用意されないからね。
確かにiPhoneはアプリの数が多いし、一カ所にすべてまとまっていることや支払いのための
システムが確立しているなどのメリットがあるためアプリだけを見ればiPhoneの方が優勢
だけど自由度を求めるという人にはあまり向いている端末ではないにょ。(したがって
スマートフォンの最大のメリットは自由度にあるという人にはiPhoneはお勧めできない)
Xperia vs iPhone 3GSであれば液晶解像度やCPU性能など基本スペックでiPhoneが劣って
いることが使い勝手に大きな影響を与えていたけどiPhone 4ではスペック面では互角
以上となったためその足かせは無くなったにょ。
これは後発だから当然とはいえ、iPhone 3GSは発売時点でもハイスペックとはとても
いえなかった機種だったために基本スペックの底上げを望んでいた人も多かっただろう
からね。
そして、やはりOSがマルチタスクに対応したことも大きいにょ。
Webで調べものをしながらGoogleマップを使用し、そしてWeb閲覧に戻るという簡単なこと
さえ満足にできなかったということでiPhoneはシングルタスクでの操作性に優れていても
スマートフォンとしてみれば使い勝手が良いとはいえなかったけどマルチタスク対応で
それも改善されたにょ。
Xperia vs iPhone 3GSでは多くの面でiPhoneが負けていたけどそれもiPhone 4ではほとんど
無くなったにょ。
http://xperia-fan.jp/special/vsiphone
個人的には「ケータイとしてiPhoneは使いたくない」「通信用のサブとして使うには毎月の
維持費が馬鹿にならない」という理由で6月9日にも書いたようにiPhone 4は見送る予定
だけどスペック面やアプリには興味があるので同等のスペックのiPod touchが発売されたら
購入するかもしれないにょ。
でも、秋まで待つならニンテンドー3DSも発売されるだろうからね。(日本時間の今夜未明に
E3で3DSの発売時期や価格が発表される予定)
ジャンルこそ違うけどエンターテイメント用途に使用するのモバイル端末ということで
個人的には用途が被ってしまうからね。
まぁ同時に買うことはなく買う時期をずらして両方買うことになるだけだろうけどね(笑)
ニンテンドー3DSは「奇抜」ではなく「堅実」なDS後継機
3月に名称だけ発表されていた任天堂の次世代携帯ゲーム機であるニンテンドー3DSが
E3で発表されたにょ。
http://game.watch.impress.co.jp/docs/news/20100616_374648.html
http://game.watch.impress.co.jp/docs/news/20100616_374649.html
私は日本時間で本日午前1時〜2時半に行われたE3での任天堂の基調講演は生で見たにょ。
過去のヒット作品が軒並み最新シリーズとして登場するため会場は拍手喝采の連発だった
けれどやっぱり一番の目玉となったのはニンテンドー3DSにょ。
その3DSの中での一番のウリとなる要素は3D液晶にょ。
上が3.5インチ400x320の3D液晶(実際は800x240で左右用の画像を用意するため解像度が
半分になる)、下がタッチパネル付きの3インチQVGA液晶にょ。(上のみワイドになると
いうのは開発基板の画像データが流出してすでに分かっていたことだけどね)
上の方はワイド液晶搭載だからWVGAかと期待されていたけど1ピクセルが縦長の800x240
というものになったにょ。(バランスを考えればこんなものだろうけどこれだと3Dは
横持ち専用になってしまいそう)
下の方には3D液晶を搭載しなかったのはやはりインターフェイスの問題が大きいからでは
無いかと思うにょ。
公式見解ではタッチによって画面が汚れるからということなんだけど私は実際にはそう
ではなく3月24日に書いたように3Dだと左右の像がずれるためタッチペンでの操作ができなく
なってしまうことが原因に思うにょ。(誤差が大きいためゲームでは使えない)
正確なインプットを求めるならば、タッチペンそのものにセンサーを内蔵して空中で
認識させる必要があるにょ。
3Dは確かにインパクトはあるけど目に負担がかかってしまうという問題があるにょ。
それに人によって3Dの見え方が異なるしね。
それは調整機能によって克服されているにょ。
3D液晶を搭載機器だと3D機能のONとOFFくらいしかできないものばかりだけど3DSの場合は
3D効果を自由に調整できる(強くしたり、弱くしたり、OFFしたりできる)ということで
ボリューム調整で簡単にその強さが変えられるというのはまるで魔法のようなものという
感じらしいにょ。(実機を触った記者の感想)
3DTVやBlu-ray 3Dなど3Dは話題性が高いものの問題はコンテンツにょ。
わずか数タイトルのためだけに数10万円出して機材の買い換えができるという人はほとんど
いないだろうからね。(ちょうどTVやBlu-rayの買い換えをしようとしている人であれば
予算に少しプラスαするだけで買えるけど)
しかし、3DSではコンテンツ面の心配はないにょ。
3DS用タイトルは恐らくすべてが3Dとなるからにょ。
それに加えて3D液晶というのを生かし、カメラが外側に2つ付いているので3D写真も
撮れるようになったにょ。(3月24日の私の予想通り)
VGAカメラであるためとても印刷には耐えられないけど3DSの実効400x320の画面で見るなら
十分なレベルにょ。
あと3D液晶を生かして3D映画の配信サービスも行われるにょ。
3Dは体感しないと分からないだけにほぼ確実に数1000万台規模の売上台数が予想される
3DSは3D映画の配信サービスとして最も適しているからね。(すべてのPS3で3D映画が再生
できたとしても3D視聴環境が整っている人はその中のごく一部に過ぎない)
3Dゲーム(紛らわしいので以下「ポリゴンゲーム」と記す)はプレステ、サターン登場して
以来ポピュラーなものとなったにょ。
確かにポリゴンゲームは自由に視点が変えられるということやモデリングの強化や
モーションキャプチャ導入によってリアルな表現が可能になったのだけどゲームとしては
1つの壁があるにょ。
それは距離感がつかめないということにょ。
人は左右の目の視差を利用して距離を把握しているために横スクロールや見下ろし画面で
展開するゲームを無理矢理プレイヤー視点(プレイヤーの後方視点)のポリゴンゲームに
した場合にはプレイができないレベルまで難度が高まることがあるにょ。
しかし、表示が3Dであれば距離感がつかめるためポリゴンゲームが生きてくるにょ。
3Dは見た目のインパクトや流行だけではなくポリゴンゲームをプレイしやすくするための
重要なファクターといえるにょ。
しかし、ゲームをするには表示だけでは駄目にょ。
入力デバイスも重要だからね。
入力デバイスの進化(コントローラの進化)はそのままゲームの進化へと繋がってきて
いるにょ。
コンシューマゲーム機で初めてアナログ操作を導入したニンテンドー64以来アナログ
スティックがコンシューマゲーム機においても標準的な存在となっているけど残念ながら
DSには採用されなかったにょ。
そのためDSは入力デバイスがボトルネックになったため3Dゲームが遊びやすいゲーム機
とはいえない状況だったにょ。
しかし、この3DSでは360度アナログ入力が可能なスライドパッドが搭載されたにょ。
使い勝手は未知数だけどこれによりDSが抱えていた問題点の1つが解消される可能性が
出てきたにょ。
あと話題性は3D液晶が持っていった感じがあるけど実はすごいのは通信部分にょ。
ドラクエIXではすれ違い通信で累計1億人突破というギネスブック記録になったのだけど
このすれ違い通信は特定ソフトをスリープさせている人同士に限られたにょ。
いくら、DSの普及台数が多くてもドラクエIXをプレイしてスリープ状態でいる人という
のは限定されるし、ドラクエIXにおけるデータ交換しかできないにょ。
しかし、3DSではそれと似た機能をハードウェアレベルでサポートしているにょ。
つまり、すべての3DSが常時無線ネットワークで繋がれた状態にあるということにょ。
実際は3DSの無線LAN出力が弱いいので「すべて」というわけにはいかないけどこれは
3D液晶以上の革新的な変革をもたらす可能性があるにょ。
これは3G通信内蔵のケータイやスマートフォンでは簡単に実現可能なものだけど3DSでは
通信費用がかからないというのが大きいにょ。
システムができても何に使うのかというのが問題だし、スリープ中の消費電力増に繋がる
という可能性もあるから現時点ではこれがそれほど有益であると判断はできないけどね。
CPUやGPUというハードウェアのスペックがどれくらいかということを気にしている人も
いるだろうけど少なくともDSよりは桁違に上であると感じるにょ。
PSPをも越えているだろうし、クオリティという面ではプレステ2を越えGC並にょ。
http://www.nintendo.co.jp/n10/e3_2010/3ds/kid_icarus/movie.html
解像度が足りないためにGCのゲームをベタ移植するのは厳しいけど容量的にも十分ある
から難しくはないにょ。
3DSのカートリッジは現時点で最大2GB(16Gbit)までサポートされているのでDS発表時の
256MB(2Gbit)の8倍のサポート容量だからね。
2GBあればよほど動画を使いまくりのゲームでない限りは容量不足になることはないと
思われるにょ。(PSPのUMDも1.8GBを使い切っているものは一部のタイトルに限られる)
さて、ここまで見てきてやっぱり「3Dは奇抜だから売れない」と判断している人もやはり
いるのではないかと思うにょ。
確かに過去には失敗作品はあった・・・というか成功した例がないにょ。
それは上記のようにコンテンツが無かったからにょ。
卵が先か鶏が先か・・・というわけでもないけどコンテンツ無くしてハードの普及はない
からね。
とはいえ、コンテンツがあればハードが売れるのかとなるとまた一概には言えないにょ。
それは使用スタイルや価格も影響するからにょ。
いくら映画が3Dで供給されても高価な3D液晶搭載のTVを買い専用メガネを付けて鑑賞する
というスタイルは限定されるにょ。
3DSは小さい画面、基本的に1人しか見ない画面、ほぼ一定の距離を保ってプレイするで
あろうことが想定される(携帯ゲーム機であるために持ちやすい位置というのは各自で
決まっている)ということで裸眼で3Dは苦もなく実現できたというだけの話だからね。
ゲーム機として成功するかどうかはコンテンツと価格が大きいにょ。
コンテンツは世界最強のソフトベンダーである任天堂が中心となっているし、多くの
サードパーティの参入が決定しているということもあるけどDSとの下位互換性が保たれて
いるというのは最大の強みにょ。
国内だけでシリーズ累計3000万台、世界では1.3億台売れたDSとの互換性があるという
だけで買い換え需要だけでも相当数が望めるからね。
新世代機においては当初はどうしてもコンテンツ不足になりがちであるためこの互換性が
非常に重要となってくるにょ。
互換性保たれていればそのシェアを新世代に引き継げるためトップシェアのゲーム機は
新世代でもトップシェアを保てる可能性が高いにょ。
任天堂の場合はかつてはファミコン→スーファミ→64→GCとずっと互換性無しでやって
きたけどスーファミでのトップシェアは64でその座を失ってしまったにょ。
その最大の理由はサード離れだけどスーファミとの互換性があればここまで極端に減少
することはなかったにょ。
同じ任天堂でも携帯ゲーム機ではGB→GBカラー→GBアドバンス→DSと少なくとも1世代前
までは互換性は保たれているからね。(DSiではGBA互換は切ってしまったけどこれは
十分にDSが普及しているから妥当な判断ともいえる)
それくらい過渡期においては互換性は重要となるにょ。
しかし、それを持ってしてもプレステ3はプレステ2でのトップシェアを守ることができな
かったのは価格の問題があったからにょ。
Blu-rayプレイヤーとして見れば決して高価ではなかったとはいえ、ゲーム機としては
高価なのは否めない価格であったためプレステ2互換はプレステ3の売上の後押しをする
ことはできなかったにょ。
そのため後発の40GBモデルではその互換性を切ってコストダウンを行ったにょ。
さて、そうやって考えると任天堂は過去にバーチャルボーイで3D(立体視)ゲーム機では
失敗したという前例があるもののそれは3DSにはまったく当てはまらないことが明白と
いえるにょ。
VBはあのプレイスタイルやGBとの互換性がないためコンテンツに乏しかったなどの敗因が
あるにょ。
3DSはVBのような奇抜なものではなく私は堅実なものに感じるにょ。
すでに普及しているDSを順当に進化させたものであり「3D液晶」というのはその付加機能に
すぎないということにょ。
「3Dだからすごい」と感じるのは最初だけにょ。
ポリゴンゲームに慣れてない人がポリゴンでの表現をすごいと感じるのと同じようなもの
だからね。
結局ゲームとして考えるならば「3Dをウリにする」のではなくゲームそのものをウリに
していかないと駄目にょ。
実際現時点でのラインナップを見てみると有名タイトルが勢揃いしているもののこれが
3DSの3D液晶を使わないと成立しないものなのかというと微妙にょ。
VBのゲームは単体で見ればグラフィック(見た目)も内容もそれほどすごいというわけ
ではないけど実際に覗いてみればすごいと感じさせたにょ。(実際にプレイしてみないと
VBのすごさは分からない)
3DSはスクリーンショットを見ただけでもDSとは明かな差を感じるためそういう面に
おいてはVBよりも遙かに売りやすいにょ。
それでいてなおかつ3Dというおまけが付くわけだからね。
とはいえ、やはり3Dということが大きなプラス要素になっているのは否めないので雑誌
などの2D媒体でその3DSのすごさをアピールするのは非常に難しいにょ。
どのように見えるか・・・なんて口で言っても分からないからね。
まぁ雑誌掲載のスクリーンショットは交差法などで立体的に見えるようにするという
方法もあるけどね。(VB発売当時もこのような方法で紹介している雑誌もあった)
現時点では3DSが失敗する要素は何もないにょ。
とはいえ、プレステ3のように価格次第では失敗の可能性もあるけどDSiやLLの価格改定を
考えると3DSの価格は2万円程度になるのではないかと予想しているにょ。
この価格で発売されれば間違いなくDSに続いてトップシェアの携帯ゲーム機になると
思うにょ。
3D(立体視)液晶は将来的には当たり前のものになる!?
3D(立体視)液晶は最近になってやたらと注目を集めているものの立体視に関しては
映画や写真の世界では古くから存在するにょ。
それなのに最近になって注目されている理由は、コンテンツを作るにも鑑賞するにも特別な
機器が必要になるからにょ。
3D写真の場合はステレオカメラによって撮影された2枚の写真を平行法もしくは交差法で
見ることで3Dに見えるし、映画もそれと同じく2台のカメラを並べたもので撮影しそれを
専用のメガネを見て3Dで見ることができるにょ。
昨年話題になった映画「アバター」もフルCGということ以外はそれらと基本的には違いは
ないにょ。
要は左右の視差を利用して立体に見せているだけだからね。
なぜ最近になって注目を集め出したのかというと1つにはコンテンツがあると思うにょ。
YouTubeも昨年7月から3Dに対応になったからね。
コンテンツがないと対応したハードの普及も望めないし、対応ハードがないとコンテンツの
普及も望めないのだけど上手く両者が絡み合ってきているにょ。
それが出来るのも3D鑑賞に必要なコストが昔と比べて格段に下がったことが大きいにょ。
ブラウン管TVではアクティブシャッター方式が使えないためアナグリフ(赤青メガネ)で
しか3Dを再現できなかったけど最近は120Hz(倍速)や240Hz(4倍速)という高速駆動が
できる液晶モニタ、液晶TVが安価に作れるようになったということが3D化の普及に貢献して
いるにょ。
それは確かに新規に購入するならば大きな負担になるけどちょうどTVや液晶モニタを
買い換えようとしている人であれば少しプラスαするだけで3D対応のものが買えてしまう
ためそれほど大きなものではないにょ。(元々ミドルクラス以上の製品を買うつもりなら
今となっては多くの機種が対応しているためそれほど高価というイメージはない)
別に3Dは要らないという人であっても倍速、4倍速駆動であれば高品位となっているため
3D不要の人であってもメリットはあるにょ。
そうやって、3D対応の高速駆動のTVを買う人が増えていけばいつの間にか3D液晶TVが家庭に
普及しているというシナリオが完成するにょ。(だから、3D対応のコンテンツがないから
3D液晶TVは売れないというのは正しくない)
むしろ、割高に感じるのはTVや液晶モニタ側ではなくメガネの方だと思うにょ。
これは3Dコンテンツを楽しみ場合には必要不可欠なオプションだからね。
アクティブシャッター方式であれば1台で2万円程度かかってしまうにょ。
しかし、円偏光方式のメガネを使い安価にするという選択肢もあるにょ。
http://pc.watch.impress.co.jp/docs/column/gyokai/20100609_372928.html
富士通もこの夏モデルでは円偏向メガネを採用により普及クラスのPCを3D対応にしてきた
けどこのように3D採用の機種が増えれば増えることコンテンツの拡充も加速化されるにょ。
問題のコンテンツだけど昨年末にBlu-ray 3Dはようやく規格が定まりあとは対応する製品
(対応するプレイヤー)の登場を待つだけにょ。
http://www.itmedia.co.jp/news/articles/0912/18/news030.html
すでにBlu-rayプレイヤーを持っている人であれば買い換えが必要になる(3Dに非対応の
プレイヤーでも2Dモードで再生は可能)だけどプレステ3の場合はアップデートで対応可能
なので買い換えることなしにBlu-ray 3Dが鑑賞できるにょ。
プレステ3の場合は4月のアップデート(ver.3.30)でプレステ3用ゲームソフトは3Dで
プレイできるようになったにょ。
http://av.watch.impress.co.jp/docs/series/rt/20100422_362973.html
原理的にはすべてのゲームが対応可能だけど実際は処理速度の面で対応ができないにょ。
両目用の映像を720/60pで再生しなくてはならないために負荷が増大するので現時点で
コマ落ちしている(60fpsに満たない)ようなゲームや両目用の映像を作り出すことで
60fpsに満たなくなるようなものは3D化できない(メガネのアクティブシャッターと
タイミングが合わない)ために実質的には3Dを前提として作り直す必要があるにょ。
その3D対応ゲームは6月10日にようやく配信がスタートしたにょ。
http://game.watch.impress.co.jp/docs/news/20100531_371199.html
その点はPCゲームの場合は自由度が高いにょ。
nVidiaのGPUを使用していれば3D Visionによって3Dでプレイできるからね。
http://game.watch.impress.co.jp/docs/series/pcgaming/20090917_315956.html
PCの場合はハイスペックなPCを使うことで60fpsを確保可能だし、そこまでできないと
いう人であっても設定を落とすことで60fps確保できればいいわけなのでハードルはかなり
低いにょ。(プレステ3の場合はハードウェアの性能をユーザーの手によって上げることは
できないしすでに最適化されている状態なので設定を落とすこともできない)
ただ、3Dは奥行き感が増し映画では迫力が増すというメリットがあるのだけど問題となる
のはコスト面だけではないにょ。
3Dは疲れやすいというのが一般的になっているからね。
ある実験データでは「3Dによって3倍疲れた」という結果も出ているにょ。
http://www.j-cast.com/2010/04/20064948.html
とはいえ、たまたまその実験ではそうなったというだけであって必ずしも「3倍」とは
いえないのだけど実際に疲れやすいのも事実・・・。
では、なぜ3Dは疲れやすいのかを考えてみるにょ。
そのためには3D(立体視)の基本から見直さなくてはいけないにょ。
最初に書いたように右目で見る映像と左で見る映像が異なっているから3Dに見えるのだけど
本来であればただのずれた映像でしかないにょ。
それが3D(立体)に見えるのは脳がうまく画像処理をしてくれるからに他ならないにょ。
逆にいえば1つの映像だけでは立体的な処理はできないということにょ。
例えば話題となったこの「反重力滑り台」を見てみるといいにょ。
http://www.youtube.com/watch?v=hAXm0dIuyug
この反重力というのは1つの映像だけでは距離感がないいわゆるだまし絵状態になって
いるから実現が可能になっているにょ。
もしも、この反重力滑り台を実際に目の前に置いてみたらこの映像と同じ視点であっても
一発でこれが反重力でも何でもないことに気が付くと思うにょ。
左右の目から異なる映像を入力し、それを脳で処理をすることではじめて3Dに見えると
いうことは分かったと思うけどここで重要となるのはその映像にょ。
左右の目の視差を考えて異なる映像を表示・・・というのはいいとして左右の目の間隔
なんて当然ながら人によって変わってくるにょ。
それが人によって同じ映像を見ても立体視できたりできなかったりする理由となるのに
加えて疲れやすさにも影響を与えているにょ。
なぜ疲れるのかというと脳で無理矢理見えるように認識するからにょ。
人間の脳は左右の目から入った異なる映像を特に意識することなく脳によって立体的な
映像として処理されているけどこれは多少の誤差があっても自動調整してくれるため
上記のような目の間隔の個人差の問題は立体視においてあまり影響はないにょ。
しかし、普段行わないような調整は脳に大きな負荷を与えているにょ。
これはメガネをかけている人であれば分かると思うけど視力が悪くなったから度数の
大きなメガネに買い換えた場合最初の数日間は疲れやすくなった経験があると思うにょ。
これは普段行わない補正処理(度数が上がったことで微調整が必要になる)ために発生して
いるにょ。
例えばアバターを見たら3倍疲れる人が居たとするにょ。
その人が1日中アバターを見るという生活を繰り返し行った場合には脳がその補正量に
慣れてしまいそれが普通になってしまうことも十分に考えられるわけにょ。
あともう1つ問題となるのは映像内で物体が目に近づいてくるような処理をする場合にょ。
人間の場合は遠くのものが急に近寄ってくる場合には寄り目になるのだけどこの寄り目
というのは実質的には左右の目の距離が縮まるのと同じことにょ。
つまり、映像を立体的に見せたいがためにこのような処理を多用するとそれは疲れやすさ
へと繋がってくるにょ。
それが、「3D映画は疲れやすい」という風評を産んでしまう原因となっているにょ。
人間は生まれた瞬間からそのような立体視ができるわけではないにょ。
乳児期、幼児期の経験によってそれが徐々にできるようになっていくからね。
そのような幼児に立体視映像を見せ続けていると正確な立体視ができなくなるおそれが
あるにょ。
ただでさえ、個人差によって疲れやすさが変わってくるわけだしね。
とはいえ、立体視映像を与えるのが悪いから平面映像のみにした方が良いというわけでは
ないにょ。
立体視は経験で会得するものだからね。
最近はTVゲームの影響で立体視がうまくできないという子供が増えてきているという報告も
あるにょ。
http://www.rui.jp/ruinet.html?i=200&c=600&t=6&k=0&m=206819
これはTVゲームだけの問題ではないけどTVゲームの場合は画面の一点に視点を集中する
機会が大きいからその影響が大きいというだけであってTVを鑑賞する場合でも長時間の
鑑賞はやはり良くないことには代わりないにょ。
では、子供がプレイする可能性があるコンシューマゲーム機において3D(立体視)ゲームは
害になるのか・・・?
確かに発達途上における幼児期においてはあまり相応しくないという専門家の意見に
間違いはないと思うにょ。
ただ、これは概ね6歳くらいでほぼ確立化されるため小学生以上であればそれほど気にする
必要はないにょ。
むしろ時間やプレイ環境が重要にょ。
3D映像は上記のように疲れやすいというのは確かだし、プレイ環境によってそれはさらに
増大されるからね。
基本的に3D映像は正面からまっすぐ見た場合を想定して作られているために斜めから
見たり寝ながら見るというのは上手く立体視できないばかりか疲れを増大する原因と
なってしまうにょ。
「うまく立体視できない=脳に余分な負担を与える」と考えれば分かりやすいと思うにょ。
そういう面を考えてみるとニンテンドー3DSに付いている3Dボリュームはすごく画期的な
ものにょ。
自分にとって最も見やすい位置に調整できるということは逆にいえば最も疲れにくい位置に
調整できるということだからね。
そういう面から考えるとアクティブシャッター方式の3D液晶TVで見るよりも疲れにくい
という可能性もあるにょ。(3D液晶TVでも3Dボリュームはぜひ採用してもらいたい)
3D液晶TVで3D映像を見たり、3Dゲームを遊んだりする場合には従来の非3D(立体視では
ないもの)よりも環境(TVから離れて正面からまっすぐ見る)が重要となってくるわけ
だからね。
今後は3D(立体視)液晶での視聴(プレイ)環境はどんどん増えていくと思うにょ。
その際にはどの方式が良くてどの方式が悪いというのは画一的なものではなくそれぞれに
短所や長所があるのと同時に視聴する際には上記に書いたような注意ポイントが多く
存在するにょ。
それさえ守っていれば3Dは映像に関してはプラスの効果があるし、ゲームにとっては
昨日書いたように見た目が3Dではなく真の意味での3Dゲーム(距離感が分かる)となり
プラス効果は非常に大きいにょ。
これは現時点では目新しさとかブームによる影響が大きいけど将来的にはそれが標準と
なっていくものだと思うにょ。
例えるならば、白黒TVからカラーTVへ変わったときのようなものにょ。
もうMS-Officeを買う必要なんてない・・・とはいえ・・・
Office2010日本語版が昨日より販売開始されたにょ。
http://pc.watch.impress.co.jp/docs/news/20100617_375023.html
私は現在MS-Officeは2000、XP、2003を所持しているけどすでに2000はサポート終了して
しまっているにょ。
サポート期間は下記のような感じにょ。
メインストリームサポート 延長サポート
Office 2000 2004年6月30日 2009年7月14日
Office XP 2006年7月11日 2011年7月12日
Office 2003 2009年4月14日 2014年4月 8日
Office 2007 2012年4月10日 2017年4月11日
サポートが終了したからといって使えなくなるというわけではなく新しいセキュリティ
パッチが提供されないというだけなのでセキュリティにさえ気を付けていて、なおかつ
機能に不満が無ければ継続使用は可能にょ。
私は現在のOffice 使用頻度が多いR5には所持している最新のものである2003を入れている
ためにサポート期間はあと4年弱残っており、現時点では2010が出たからといってすぐに
乗り換えるなんて考えてはないにょ。
というか、2003で不満なく使えているわけだしね。
あえて高いお金を出して買う気はないにょ。(2007はそれに加えてリボンUIが気に入らない
ということで購入には至らなかった)
Officeソフトは必要な人には必要だけどあまり使わないという人にとってはMS-Officeは
高価すぎるにょ。
仕事で使うためどうしてもMS-Officeでないと困るというのでなければOoOでも十分と
いうことで最近はMS-Officeを使用しているユーザーは減っているのではないかと思うにょ。
官公庁をはじめ法人関係でも脱MSも徐々に進んでいるわけだしね。
OoOってフリーウェアだから機能も貧弱とか互換性に乏しそう・・・という偏見を持つ
ユーザーも中にはいると思うけど古いMS-Office(特にOffice97以前)では機能面ですでに
OoOと比べて著しく劣っているし、互換性という面でも十分に確保できないためにあえて
MS-Officeを使っているというアドバンテージは無くなっているにょ。
自宅PCでMS-Office形式のファイルを編集したいというならばOffice Web appを使うという
方法があるにょ。
これは無料で使えるWebアプリにょ。
http://www.itmedia.co.jp/news/articles/1006/09/news012.html
現在はまだ英語版のみのリリースだけど日本語版も登場予定なのでそれができれば高い
お金を出してOffice 2010を買うという必要性もないにょ。
Office Web appはOffice 2010をベースとしているために互換性という面では古いMS-Officeを
使うよりも優れているからね。(機能面はかなり削られているみたいだけど)
http://pc.watch.impress.co.jp/docs/column/mobile/20090716_302575.html
とはいうもののOffice Web appはオンライン専用となっているためにどこでも使えるという
わけでもないし、快適さは回線速度に依存するにょ。
高速なブロードバンド回線が使える自宅PCであれば問題はないけど数100Kbps程度の速度
しかでないようなモバイル回線では快適に使えるとは言い難いし、ネット接続環境がない
場所では使用自体無理になるにょ。
したがって、Office Web appがあるからパッケージソフトであるOffice 2010が要らなく
なるかというとそうではないにょ。
MSとしてはメインはパッケージ版と無料のWeb版はそれぞれを補完し合うものと考えている
模様にょ。
Office 2010を所持しているすべてのPCの台数分のライセンス数購入するというのは難しい
けどWeb版であればネット回線さえあればどのPCでも使えるし、Webストレージに保存されて
いるため他のPCで編集し保存したファイルもそのまま開くことが出来るからね。
これはOoOを牽制する役割も果たしているにょ。
Office Web appがどの程度使いものになるのかは日本語版が出てから確かめてみることに
するにょ。
Web版で十分使い物になるならば個人的には機能面では2003で十分と考えてるため
オフライン時もしくは高速通信できない場合の緊急時のためにあえてパッケージ版の
2010を買うこともないかもしれないにょ。
とかいって、2003ではWeb版との互換性に乏しいから2010を買うハメになったりして(笑)
やはり、タダで使えるということによって間口が広がればパッケージ版の売上にもプラスに
働く可能性を考えるとMSの戦略は悪く無さそうにょ。
上記の続き
さて、もう1つのライバルといえばiPhoneをはじめとするスマートフォンやケータイにょ。
こちらは直接的には3DSと争うことはないとはいえ、無視できなくなってきているにょ。
実際、利益ベースで考えるとすでにゲームだけを見てもiPhoneアプリははPSPのソフトを
金額的に越えているくらいだからね。
http://journal.mycom.co.jp/news/2010/03/24/056/index.html
だから「ゲーム機とケータイが競合するはずがない」という固定観念で否定することは
もうできないレベルにょ。
空き時間を埋めるものという観点からすれば両者は完全に競合するものと考えられるにょ。
iPhoneの脅威はやはり単体でネット機能を有しているという点と個人がアプリを世界に
向けて販売できる(販売はアップル社がApp storeを提供している)というのが大きいにょ。
個人が作った素性の分からないアプリというのは利用が厳しいし支払いの問題もある
けれどApp storeという公式的な販売ルートがあるお陰でそれは大幅に緩和されているにょ。
ガラケーも9年前に登場した503iシリーズよりJAVAアプリ動作機能が導入され、当初は
容量制限が10KBということもありゲーム内容はファミコン以下というレベルのものだった
ためにとても携帯ゲーム機を脅かすものではなかったけど昨今の機種はすでにプレステを
越える性能を有しているにょ。
したがって、プレステや64レベルのゲームであればケータイで十分に遊べる時代になって
いるにょ。
DSがいくら大ヒットしたとはいえ国内で高々3000万台にょ。
PSPと合算しても携帯ゲーム機市場は5000万台にも満たないにょ。
それに加えてケータイは国内だけで1億台に達しているにょ。
それらですべてアプリ機能を有しているというわけではないけどほぼすべてが有している
というのは間違いないし、それらでゲームをするという人はさらに絞られるとはいえ
それを言ったら特定ゲームのためだけに1万〜2万円出してゲーム機を本体ごと買うと
いう人はさらに限られてしまうにょ。
ケータイやiPhoneのアプリで十分と考えている人も少なくないだろうからね。
しかも、アプリの価格も無料〜数100円というものが中心であり、携帯ゲーム機では1本
あたり実売でも4000〜5000円となっているためにその価格差は大きいにょ。
本格的に遊べるゲームならばその金額を払う価値はあるけれどその価格に似合ったものは
一部のものに限られるにょ。
それゆえ、値崩れを待つとか中古で購入するとかすでに持っているゲームソフトを売却
して新しいゲームソフトを購入する等の方法を使っている人が非常に多いと思われるにょ。
逆にいえばケータイのアプリやiPhone用アプリは無料、もしくは数100円程度のものが
当たり前というのが一般的になっているせいで数千円の本格的なゲームというのはユーザー
心理の面からいっても売りにくい状況となっているにょ。
したがって、利益ベースでは無視できないとはいえゲーム内容(というか価格帯?)に
よって十分棲み分けができていると思うにょ。
しかも、そのライトなゲームに関してはDSならばDSi以降はダウンロード販売によって
低価格なシンプルゲームというものを売り出すことでケータイやスマートフォンに対抗
しているにょ。
性能面ではコンシューマゲーム機は高い性能を持つと考えられるけれコンシューマゲーム
機の場合は製品のサイクルが5〜6年置きになってしまうため性能面ではすぐにスマート
フォン等に追いつき、追い越されてしまうにょ。
3DSの性能がDSより桁違いに高いとはいえ、それは現在では安価、かつ省電力で実現
可能なレベルだからCPUやGPUの性能面においてスマートフォンにアドバンテージがある
とは思えないにょ。
PSPも登場当時は携帯ゲーム機としては異例の高性能だったけどiPhone 3GSにさえ劣る
性能であり、iPhone 4と比べれば完全に劣っているにょ。
しかし、コンシューマゲーム機の場合はケータイやスマートフォンとは異なりゲーム向け
として設計できるというのがアドバンテージとなっているにょ。
ボタン入力に関しては餅は餅屋ということでケータイがいくら高性能になろうと激しい
アクションゲームやシューティングゲームはとても快適にはプレイできないからね。
あと、ゲームに必要と思われるデバイスもそれ専用であるがために搭載が可能になるにょ。
iPhoneアプリはiPhone用であるため各種センサーを使ったアプリは多数登場しているけど
ガラケーの場合はそういうことをすればその機種専用となってしまうからね。
コンシューマゲーム機では基本的に使用はすべて同じである(DSであればどのモデルでも
2画面とタッチパネルは搭載している)ということでそれを生かしたゲームができるにょ。
それは、一種の強みともいえるにょ。
特に3DSで大きいのは3D(立体視)液晶にょ。
ケータイやスマートフォンではそれがデファクトスタンダードになるということは
考えにくいからね。(映像を見るのが主体であればいいけどそうでなければ搭載する意味が
あまりない)
特定機種にのみ搭載されてもそれを生かすにはその機種専用となりコンテンツの提供は
十分に行われないにょ。(一昨日も書いたようにコンテンツとの相乗作用がないと普及は
難しいため)
仮にiPhone 5で3D液晶が標準搭載されればその影響はかなり大きいだろうけど少なくとも
それまでは3D液晶というのは3DSの大きなアドバンテージになるにょ。
これらの理由により3DSはPSP2に負けることはまずありえず、現在大幅にシェアを拡大して
いるケータイやスマートフォンと比べても棲み分けが十分できるといえるにょ。
3D液晶が標準搭載ということですべてのソフトが3D対応するというのはコンテンツが
ないために普及しないという負のスパイラルを避けるという面でも非常に有用となって
くるにょ。
やはり、標準で使えるということが非常に重要にょ。
プレステ3の3D機能はVer.3.30で本体側が対応しても過去のソフトでは手直しが必要だし、
今後登場するソフトも家庭用TVにおいて3D液晶TVの普及割合が乏しいためにサードも
3Dを考慮したゲーム作りはしないだろうからね。
プレステ3用Moveがレイテンシが少なく精度も非常に高いといってもそれがオプション
であるため性能や精度は低くてもWiiリモコンのように標準装備というのは非常に大きい
からね。
逆にWiiでは標準的なコントローラであるクラコンがオプションであったために従来型
ゲームを作るというのが作りにくいという状況にあるというデメリットがあったにょ。
3DSには「従来のDSでできて3DSではできない」というものがないためその点においては
弱点がないにょ。
唯一の懸念材料は最初に書いたように価格だけにょ。
これは実際に発表されるまでは単なる憶測にすぎないけどこの価格付けさえ間違うことが
無ければ3DSのトップシェアは揺るぎないものといえそうにょ。
ニンテンドー3DSは「最強」のゲーム機なのか!?
ニンテンドー3DSはDS同様トップシェアになるのは確定だと私は考えているにょ。
むしろ、発売前における予想ではGBA→DSへの移行よりもさらにトップシェアの確実性が
増していると思うにょ。
というか、過去の任天堂のゲーム機においてここまで「売れるのが確実」と私が思った
ものはないにょ。
その理由は以下の6つにょ。
(1)トップシェアを持つDSとの互換性があること
(2)そのDSの正統型な後継機種であること
(3)DSと比べて見て目で分かる性能向上があること
(4)3D液晶をマイナスではなくプラス要素にしていること
(5)DS Lite並の小型軽量ボディを実現していること
(6)サードパーティが積極参入していること
(1)に関しては説明不要だと思うにょ。
シェアトップのゲーム機との互換性があることで買い換えの際にはその高いシェアが
有効に働くからね。
(2)は何を持って正統型というのかは難しいけど従来機と比べて大きな変化(奇抜な
変化)がないことが重要になるということにょ。
Wiiは従来型のゲームをプレイするにはオプションであるクラシックコントローラが
必要であり基本的にはリモコン操作となるため「正統型」とはあまり言えない例と
いえそうにょ。
それに対してPS→PS2、GB→GBAなどは正統型の典型例にょ。
(3)は買い換えを促すにはかなり重要な要素にょ。
目に見える違いがあるというのはライトなユーザー層だけではなくコアユーザー層に
関しても有効に働くにょ。
これは「グラフィックがキレイになった」「高解像度になった」というだけではなく
「従来ではできなかったDVD(Blu-ray)の再生ができるようになった」というのも
含めるにょ。(3DSでは立体写真が撮れるということも1つの要素かもしれない)
(4)は非常に重要な要素にょ。
一昨日書いたように3D(立体視)液晶はポリゴンゲームにおいては非常に有用なのだけど
「疲れる」とか「別売りオプション(専用メガネ等)が必要」という問題点があるからね。
それに関しては3DSではオプション不要で3Dで見れることや携帯ゲーム機ということで
プレイしやすい距離は自由に調整できなおかつ3Dボリューム調整機能付きということで
マイナス要素がなくプラス要素のみになっているということにょ。
(5)はいくら高性能化しようとも携帯ゲーム機にとってはサイズは非常に重要だからね。
大きすぎるのが駄目というのと同様にGBミクロのように小さすぎるのも駄目にょ。
あと液晶サイズも従来のDSi並を維持しながらDSiよりフットプリントが小さいDS Lite
並のサイズを実現しているのは大きいにょ。
(6)は挙げた順番こそ最後になったけどこれはゲーム機にとっては最大のポイントにょ。
ファミコン、スーファミとトップシェアだった任天堂が64でその座を渡したのも
サードパーティの参入を制限したというのが一番の理由だからね。
世界最強のゲームソフトメーカーといっても過言ではない任天堂だけどやはりサード
パーティが多く参入し多彩なゲームが登場する(任天堂以外の大作ゲームが登場する)
ということがハードの売上を高めるのに重要となるにょ。
プレステvsサターンにおいてサターンが優勢だったにも関わらずFF7がプレステで登場
ということだけでそのシェアが逆転したというのを考えてもサードパーティの参入状況は
大きな影響を与えるにょ。
DSが販売時にはDSの特異性からかサードはまだ積極参入しておらずそれでもPSP相手に
互角の争いをしていた(DSはスタートダッシュで売れたけれどそれ以降は伸び悩んだ)
くらいだからね。
3DSの唯一の懸念材料は価格にょ。
私が予想している2万円程度の価格であればDSに続いてトップシェアを維持するのは確定
だろうけどこれが高価であれば上記のようなメリットがあっても厳しくなるからね。
価格が29800円くらいでも相当鈍くなるだろうし、(あり得ない金額だろうけど)5万円
くらいになれば自爆する可能性さえあるにょ。
それくらいユーザーは価格に敏感にょ。
携帯機であれば2万円以内、高性能ということを考慮しても3万円以内が上限だからね。
アーリーアダプター層が数10万人いるから多少高価でも魅力的ならば数10万台は売れる
けど普及が開始(200〜300万台)となると据え置き型でさえも3万円切ったあたりから
となるにょ。(それに据え置き型よりも携帯型の方が安いという固定観念がある以上は
携帯機ならば2万円程度でないと普及は難しい)
元々玩具・遊具メーカーである任天堂はPC、家電メーカーとは違い価格には敏感である
ため一部のアナリストが言っているような「3DSは高価になり、普及はしない」という
ような事態にはならないと思うにょ。
http://news.searchina.ne.jp/disp.cgi?y=2010&d=0617&f=business_0617_107.shtml
任天堂のゲーム機においては過去に最高でも25000円だからいくら3DSが高価であっても
それを越えることは考えにくいにょ。(私の予想では本命2万円、対抗が2.5万円)
そもそも任天堂はパーツ屋ではないため内製率(構成する部品の自社製品割合)がかなり
低いからね。
ソニーのように内製率が高い場合は長期的に見てコストダウンが計れるため年数を重ねて
最新技術で作ることで部材コストを抑えることが可能になるけど任天堂はそれができない
ということで、最初からある程度安めの価格設定にする必要があるにょ。
したがって、そういう面からも発売当初に高価な価格付けというのは考えられないにょ。
量産効果による値下がりよりも最初に想定した売価を元にパーツ構成を考えているわけ
だしね。(言い換えれば時間が経てば黒字転換するということを考慮にいれ最初は
「逆さや」で販売するという考えでは厳しい)
DSがヒットしたことで液晶をはじめパーツメーカーとは強気の取引が可能となっただろう
から高性能になった分だけ高価になるというものではないにょ。
では、仮に2万円程度で3DSが出た時に果たして3DSを脅かすライバルは登場するのか?
やはりライバルといえば筆頭はPSPの後継機種(以下「PSP2」と記す)だと思うにょ。
PSPは国内では売上台数が1500万台近くに達しておりすでにGBアドバンスに少し劣る程度
であるため本来であればトップシェアを取ってもいいレベルにょ。
DSの国内3000万台という売上が異常ともいえるレベルだからね。
ソフトに関してもDSでは任天堂ソフトの圧倒的強さを発揮したにょ。
DSでは1位のNEWスーパーマリオの580万本を筆頭に9本が300万本を突破しているにょ。
プレステ2に参入しているソフトベンダーの多くがPSPに参入しているということで当初
よりサードパーティに恵まれたPSPはその高性能さも相まってGBA互換を有するDSよりも
有利という見方をする人も多かったにょ。
しかし、PSPではキラーソフトと呼べるようなタイトルはモンハンくらいしか登場しない
というのがDSの後塵となったと思われるにょ。
そのモンスターハンター2nd Gはベスト版を含めて300万本突破しているもののそれに
継ぐタイトルが不在だったからね。
しかも、海外ではそのモンハンでさえあまり売れてないせいでハードはそれなりに売れても
ソフトが売れないため小売り泣かせの商品にょ。(ハードはほとんど小売りにとっては
利益が泣くソフトが売れないと利益にならないため)
ソフトが売れないということに関してはやはり違法ダウンロードをしている人が多いと
考えているのではないかと思うにょ。
音楽に関してはすでにCDというパッケージ販売は一部のマニア相手の商売になりつつあり
ダウンロードの方が主流になっているのだけどその際に無視できないのが違法ダウンロード
だからね。
従来であればダウンロードはグレーゾーンだったのだけど著作権法が改正され今年の1月
からはダウンロードも違法となったにょ。(違法と知りつつダウンロードした場合に限る)
そういうわけで違法ダウンロード数というのがどの程度あるのかを見てみるにょ。
http://www.cesa.or.jp/uploads/2010/ihoufukusei.pdf
上記リンク先のまとめからワースト5を抜き出すとこんな感じにょ。
PSPソフト違法ダウンロード数
1位 ディシディア ファイナルファンタジー 528万回
2位 ファンタシースターポータブル2 467万回
3位 真・三國無双 MULTI RAID 207万回
4位 モンスターハンターポータブル 2nd G 182万回
5位 クライシスコア -ファイナルファンタジーVII- 122万回
PSPソフト合計 2325万回
これはさすがに多いと思うけど相対的に考えてPSPだけが多いのかということを見るために
DSの方も見てみるにょ。
DSソフト違法ダウンロード数
1位 ポケットモンスター プラチナ 200万回
2位 ポケットモンスター ダイヤモンド 186万回
3位 ドラゴンクエストIX 星空の守り人 155万回
4位 マリオパーティDS 147万回
5位 New スーパーマリオブラザーズ 145万回
DSソフト合計 1935万回
こうしてみるとPSPはDSより本体の売上台数が半分しかないのに違法ダウンロード数は
多いという由々しき事態となっているにょ。
この理由はDSでは違法DLしたソフトをプレイするには通称「マジコン」が必要なのに
対してPSPでは誰でも無料で入手可能なCFWさえ入れれば使用可能になるというのが影響
していると思うにょ。
DSが本体、ソフトでマジコン対策を行っているのと同様にPSPもCFW対策を行っている
とはいえそれを突破するユーザーによっていたちごっこが続いているにょ。(CFWや
マジコンが悪いということではなくそういう使い方をしているユーザーが多いというのが
問題となる)
吸い出しをすれば事実上コピーフリーになってしまう現状のパッケージソフトよりは
DRMでしっかり管理されたダウンロード販売であれば逆にコピー対策には有効に働く
ために現状の問題点を打開するためにはPSP2はダウンロード販売オンリーでいくという
のがベストとなるにょ。
しかし、それが商業的に成功するかは別問題にょ。
試金石として用意されたPSP goはとても成功したとはいえないからね。
PSP2をダウンロード販売オンリーでいくという計画がもしもあったとしてもユーザーの
PSP goに対する反応を見てそれは白紙に戻されたと思うにょ。
では、いずれ登場するであろうPSP2が3DSにシェアで勝つためにはどのような形にすべきか
ということを考えてみるにょ。
現行モデルでいえばPSPのDSに対するアドバンテージはやはりスペックの高さだと思うにょ。
DSがN64クオリティーのゲームなのに対してPSPはPS2クオリティーのゲームだからね。
これは誰の目から見ても明らかな差となっているにょ。
同じような価格であればスペックが低いよりは高い方がいいというのはほとんどの
ユーザーが感じることだからね。
それでもDSが勝った理由はGBA互換があったというのもあるけどやはり新規ユーザーの発掘
と上記の任天堂ソフトの強さによるものが大きそうにょ。
ソフトで任天堂に勝つというのは難しいのでPSP2が3DSに勝つためには現在のPSPの長所を
より生かしていく必要がありそうにょ。(自作アプリの動作を公式に認めるという方法も
あるけどそれは上記のような違法コピーを増進するだけなのでメーカーにとっては論外の
ものとなる)
PSPを好んで買うという人はやはりグラフィック性能の高さを重視する人となるにょ。
確かにDSとPSPでは目に見えて分かるレベルの差はあったけど3DSによって性能が底上げ化
された影響で目に見えてその差を感じるレベルにするのは難しいにょ。
3DSもDSよりは高解像度になったとはいえPSPにまだ負けているけど3D(立体視)液晶に
なればあまりドットが気にならなくなる(400x240とはいえ実際は800x240の情報量がある
わけだし立体視によるアンチエイリアスが働くためあまりドットが目立たなくなる)から
多少の解像度で優れているというレベルであればPSP2には勝ち目はないにょ。
目に見えるくらいの大きな違いを出すにはPSPの4倍となる960x540ドットくらいの液晶
パネルを搭載する必要がありそうにょ。
それで、PS3クオリティのゲームが遊べるならばハイエンド指向の人は飛びつきそうにょ。
ただし、その高解像度で3DSを完全に超えるクオリティーとなると消費電力も馬鹿には
ならないにょ。
問題は記録メディアにょ。
PSPとの互換性を保つことはシェアを現状よりも落とさないための必須条件であるため
UMDドライブは必須となるにょ。
しかし、現状のUMDドライブは1.8GBしかないにょ。
現行PSPの解像度であればそれほど困る機会はないとはいえ上記のように4倍になれば
足りなくなる機会も多くなりそうにょ。
3DSに関しては現状で2GB(16Gbit)までのカートリッジをサポートしているにょ。
現行DSは発売当初は2Gbit(256MB)までしかサポートしておらず、当初は512Mbitが最高
だったので問題はなかったけど2007年発売の「アルカイック・シールド・ヒート」で
その最高の2Gbitに達したにょ。(あくまで2GbitというのはDS発表当時の技術限界であり
光学メディアとは異なりそれがが限界ではない)
それ以降は2Gbit使用したソフトは多数登場し、7月1日に発売予定の「イナズマイレブン3」
ではついにその限界を突破した4Gbitに達するにょ。
ROMカートリッジは時代によって進化するために末期には当初のサポート容量を越えると
いうのは珍しくないにょ。
1Mbit ROMでさえディスクシステムを越える大容量ということで大きな話題となった
ファミコンで最終的には8Mbitのもの(「メタルスレイダーグローリー」「信長の野望
武将風雲録」)が登場するなんて当初では考えられなかったしね。
したがって、3DSも現状では2GBというだけであり、末期(5、6年後くらい)には4GBや8GBの
容量のソフトが登場する可能性は十分にあるにょ。
だから、「ROMだから容量が小さいのがネック」とはならないにょ。
製造プロセスの改善を考えると2年あたり2倍程度の容量アップは期待できるため5〜6倍の
ハンデがあったとしても6年程度で逆転可能になるからね。
両面で896Kbitの(当時としては)大容量であったディスクシステムがすぐにROMカート
リッジに容量で逆転されたのを覚えている人も多いのではないかと思うにょ。
むしろ容量でネックなのは最大で1.8GBしかないPSP用のUMDにょ。
かといって、全く別のドライブを採用するわけにはいかず、Blu-rayの技術を使った高密度
UMDを新規に作るしかないにょ。
しかし、それを搭載するにはコスト面での制約上かなり厳しいものとなるにょ。
あまりコストを増やさず容量アップさせるには現在の2層式から4層式にするということ
くらいか・・・。
PSPで独自の光学メディアを採用したという時点で厳しくなってしまったにょ
互換性を残すためにはドライブを残す必要があるし、ネットでのダウンロードに関しては
goでユーザーの反発が多かったからそれをメインに据えるのは難しいからね。
またスペックアップのためにPSP2がTegra2を採用するという方法を取った場合、PSPとの
互換性が無くなるため従来のMIPS系CPUも別途搭載しなくてはならないのでさらにコスト
面で不利になってしまうにょ。
3DSより見た目で明らかに性能を上回るレベルにするというのは技術的にはたやすい
ことだけどコストの面と消費電力の面を考えるとかなり難しいものといえるにょ。
3DSの価格がいくらかはまだ発表されてないので分からないけど仮に3DSが2万円だとしたら
29800円でPSP2を販売すれば台数で3DSに勝てる見込みは全くないにょ。(スペック面で
ハイエンド層を取り込んだとしてそれだと現状のPSP vs DSと同じであるため3DSから
シェアを奪うことはできない)
そうなるとかなり戦略的(というか無謀)な価格付けをする必要があるため大幅な逆ざやに
なってしまうにょ。
3DSより圧倒的に高性能かつ圧倒的に安価というならば話は別だけどそれは無理にょ。
そこまでの逆ざやはSCE自身が耐えられないし、ハイスペックになるとソフトの開発費
高騰を招いてしまいそれはソフトの価格に反映されてしまうからね。
よって、PSP2は3DSには絶対に勝てないにょ。(ハイエンド層だけではシェアに大きな
影響を与えるのは難しい)
だからSCEも3DSが発表されたからすぐにそれに追従しようとは考えてないみたいにょ。
http://av.watch.impress.co.jp/docs/series/rt/20100617_375056.html
上記リンク先のインタビューより開発中なのは間違いないけどそれがまだ世間に発表できる
段階にはないということはしばらくDSおよび3DSの一人勝ち状態が続きそうにょ。
(下記へ続く)
OPASを使う人が増えるとイイナ
以前から言っていたOPASの応用編についてようやく書いてみたにょ。
といっても、長くなるので今回は前半のみだけどね。
OPAS応用編1 多ライン同時スクロール
http://ww5.tiki.ne.jp/~ochame/E500/TECH/opas_1.htm
OPASはPJの最終号で発表してから14年、Web上で発表してから11年ということで長い年数
経っているけどほとんど使う人がいないというのはポケコンユーザー(特にPC-E500系
ユーザー)がここ10年で激減してしまったというのもあるけどOPASの使いどころがよく
分からないという人もいるのではないかと考えているにょ。
PJで発表したのは最も基本となる部分だけだし、10年前にWebで発表したものも基本的な
アニメーションとスクロールだけだからね。
アニメーションだけでも「パネルQ」のようなゲームはできてしまうけどそれ以外の用途
というのは思い浮かばないという人が多いのではないかと思うにょ。
それにスクロールも1ラインのみでありこちらも使いどころが難しいからね。
OPASは使える用途がほとんどないと思われてしまうけど実際はフォント書き換え並に使い
どころは多いからね。(オールBASICでアクションゲームを作りたいという人でなければ
さすがにOPASの出番はないけど)
今回の応用編1となる前半では、まずはスクロールが1ラインだけではなく多ラインで
行うということに関して書いているにょ。
これにより、OPASの活用範囲が大きく広がる・・・けれどまだまだこれだけだと不十分
と思うにょ。
応用編とタイトルに書いているのだけど基本編の延長にすぎないからね。
そういうことで後半となる応用編2こそが真のOPAS活用方法にょ。
私のOPAS対応ゲームは「パネルQ」を除きすべてがその応用編2で書く予定の使い方を使用
しているからね。
パネルQの解説ページでOPASの実践的活用法を書いているように私はOPAS対応のゲームに
関してはその都度OPASがどのように活用されているかを書くつもりにょ。
シュプールに関してはOPAS応用編を書いてからにしようと思っていたしまだ完成版では
ないために実践的活用法のページはまだ書いてないにょ。
OPAS応用編の後編は来週か再来週あたりに公開予定にょ。
一応書くネタは決まっているので楽しみにしておいてにょ。
OPAS応用編2
(1) 1領域でスクロールさせながらアニメーション表示
(2) スクロールの制限を無くす
(3) 縦スクロール
3D液晶の最大の問題点は・・・
一昨日にはニンテンドー3DSはライバル不在の最強のゲーム機ということでトップシェアは
確定的であるということを書いたにょ。
確かにそれは間違いではないと思うけど最大のウリである3D液晶には問題要素がないとは
いえないにょ。
6月17日に書いたように3D液晶には「疲れやすい」という問題点があるもののそれは立体視
には個人差があるというのが最大の理由にょ。
「アバター」のような映画ではその個人に合わせて個別の映像を流すなんていうのは
不可能だけど携帯ゲーム機であればそれは可能になるにょ。
また、3D映画のようにメガネ要らずだし、ポリゴンゲームにおいては距離感がつかめる
というメリットがあるものの同時にデメリットも発生してしまうにょ。
3DSにおいては下記のようなデメリットがあるにょ。
(1)立体視できない場合がある
(2)立体視調節は難しい
(3)ジャイロとの相性が悪い
(4)縦持ち3D不可
(5)3D画面をタッチできない
これらについて順に詳しく書いていくことにするにょ。
(1)に関しては視差バリア方式であるというのが理由となるにょ。
立体視は左右の映像の視差によって発生するのだけど裸眼立体視が可能になっているのは
要するに右目のみ見える(左目からは見えない)映像、左目のみ見える(右目からは見え
ない)映像があることで実現しているにょ。
しかし、これは一定以下の距離の場合視差が大きくなりすぎて現状の視差バリア方式では
左右の目のみではなく両目から目視できる状態になってしまうために立体視ができなく
なってしまうにょ。
また、見るのが正面からではなく左右どちらかから傾けてしまうと片方の映像しか目視
できなくなり左右の映像の視差が発生しないために立体視ができなくなってしまうにょ。
つまり、立体視を行うためには一定の距離の範囲内で液晶に対してまっすぐ見る必要が
あるということにょ。
この制約はメガネタイプの立体視ではあまり発生しない(極端に斜めから見ると左右の
補正量に差が出てしまう)ということで複数の人が1つの画面に対して同時に見る場合には
裸眼による立体視は良いものではないにょ。
他人がプレイしているのを横からのぞき見るという場合にはこれまでのDSではできていた
ことだけど3DSで3Dゲームをプレイしている場合には他人からは立体ではなく2重像でしか
見ることはできないにょ。
あくまで携帯ゲーム機であり、プレイする人本人が画面を見る場合のみという制約が
科せられてしまうにょ。
(2)3Dボリュームは3DSの1つのウリ機能となっているけれどこれが意外な落とし穴になり
かねないにょ。
立体視を楽しもうとしてボリュームを最大にしてしまいがちだけど(それでぴったり
当てはまるような人を除き)それだと立体視効果が大きくなりすぎる(左右の視差が
大きくなりすぎる)ために目や脳に無理な負担がかかってしまうから疲れてしまうにょ。
ならば、弱くすれば良いのかというとそれも微妙にょ。
その弱い状態で無理に立体視しようとするとそれも負担になるからね。
ベストなポジションに調整するのが一番にょ。
しかし、そのベストなポジションというのは個人差や液晶モニタまでの距離に大きく影響
されてしまうためにどこが良いというのは客観的には分からないにょ。
(3)3D(立体視)液晶というのは何度も書いているように左右映像の視差によって実現
しているもののこれには縦方向のずれは厳禁となるにょ。
左右のずれはベストなポジションではなくても脳内で自動調整してくれるから大抵の場合
立体視が可能になる(ベストなポジションから大きくずれている場合は疲れも大きくなる)
けれど人間の目には上下方向のずれを修正する機能はないからね。
そのため縦方向のずれがあると疲れが大きくなるだけではなく映像に違和感が出てしまう
ことになるにょ。
そのため3D液晶TVでは寝ころんでの鑑賞は厳禁となるにょ。
3DSではジャイロセンサー搭載で本体の傾きを感知してそれを画面に反映させることが
可能になるにょ。
レースゲームでいえばハンドルを左右に切る容量で本体を左右に傾けるというプレイ
方法をとることができるにょ。
ただし、それは上記のような縦方向のずれを産んでしまうにょ。
そのずれを無くすには持った手の角度は維持したまま体ごと傾けるという方法を取る
しかないにょ。
もう1つの方法はジャイロセンサーの感知によって生じた斜めのずれを液晶画面に
映し出す左右の視差に反映するというものにょ。
この方法をとれば斜め方向に傾けた場合であってもちゃんと3Dに見えるにょ。
ただ、視差バリア方式で斜め方向から見た場合に左右の映像がちゃんと分離できるのかは
よく分からないけどね。
シャッター方式のメガネを使用する3D液晶TVであれば左右の分離はできるからこの方法を
とれば寝ながら3D鑑賞もできるけど精度の高いセンサーを搭載する必要があるし、リアル
タイムレンダリングではないので左右視差を斜め方向に発生させるというのは恐らく無理
だと思われるにょ。
(4)は恐らくコストと液晶の鮮明さを優先したためだと思われるにょ。
すでに縦横両方で3D(立体視)が可能なモバイル液晶は発表されているものの視差バリア
方式で立体視を行うには基本的に解像度が半分になってしまうにょ。
QVGA以上の解像度を確保するためにはVGA以上の3D液晶が必要になるにょ。
ケータイやスマートフォン向けのFWVGA液晶ならば問題はないものの2万円程度の金額が
予想される端末に搭載するというのはコスト的に割が合わないにょ。
一昨日に書いたように任天堂は価格優先でスペックを考えているためにこれは賢明な判断
だと思うにょ。(だからこそ3DS本体が2万円台後半以上の価格になるのは考えにくい)
ただ、DS用ソフトには液晶を縦で使うものが多数存在するにょ。
その際に3Dが使えないというデメリットが発生してしまうにょ。
「縦で使えない」というわけではなく「3Dが使えない」というだけとはいえ、ウリの1つが
失われてしまうわけだからね。
(5)はかなり残念に思っている人がいるのではないかと思うにょ。
とはいえ、これは何度も書いているようにタッチペンで厳密なポインティング操作が
できないからにょ。
3D液晶は左右に違う映像を表示することで立体視が可能になっているのだけどその異なる
映像のどちらに当たり判定を用意するかで大幅に変わってしまうからね。
どちらでもOKにしてしまうと当たり判定はヘタをすると数10ドットになってしまい当たり
判定は破綻してしまいかねないにょ。
また、液晶画面にピントがあるということを前提に視差を計算されているため目のピントが
タッチペンに合ってしまうと立体視そのものが出来にくくなるという問題が発生して
しまうにょ。(多少の誤差は脳内で修正可能だけど10cm以上手前にピントが合ってしまうと
ほぼ間違いなく左右の映像が融合できず破綻する)
これは視差バリア方式だけに止まらず視差を利用している現行の3D映像すべてに当てはまる
問題となっているためこれは根本的に解決できないにょ。(つまり、iPhoneのような
タッチパネルオンリーの端末は3Dゲームには向かない)
視差バリア方式による裸眼3Dだから発生する問題とシャッター方式のメガネを使用する
3D液晶TVで発生する問題はちゃんと分けて考えるべきだけど裸眼3Dだから発生する問題と
いうのは実は(1)だけにょ。(左右の視差による立体視はすべての方式に共通に発生する
問題であっても裸眼3Dのみに発生する問題と誤解している人が非常に多い)
あとはメガネを使った3D液晶TVでも起こる問題にょ。
モバイル型だからこそ回避手段が用意されているというものがあるけど固定型の3D液晶TV
では回避することもできないという問題も含まれているため裸眼3Dがシャッター方式の
3Dよりも劣るとは一概には言えないにょ。(それだけ裸眼による3D液晶の進化が大きい
ので数年前の製品の印象で評価するのは良くない)
任天堂もVBで失敗した3D(立体視)ゲーム機を3DSで再び作ったのはただ3Dブームに乗った
というわけではなくようやく社内基準で裸眼3Dに耐えうる性能を持つ液晶が登場したと
いうのが大きいと思われるにょ。
実際、VB失敗後も3Dの研究は随時進められておりゲームキューブでも3Dの実験を行って
いたみたいだからね。
しかし、上記のような多くの問題点を持っているために携帯ゲーム機に3D液晶を搭載する
というのは必ずしも良いとはいえないにょ。
とはいえ、3D液晶にはポリゴンゲームをプレイしやすくするというメリットがあるし
疲れやすいというのも調整の仕方でいくらでも解決可能だからすでに大きな問題点では
なくなっているにょ。(素人が考えそうな問題点はすでに対策が取られていると思われる)
(2)で書いたような3D効果最大でプレイして問題が起きる場合は暗い場所で携帯ゲーム機の
画面を長時間見つめて目が悪くなったり、ヘッドホンで大きな音を聴いて耳が悪くなった
というのと同じようなレベルだからね。
3D液晶に関してはすでに安全のためのガイドラインが制定されているので3D液晶そのもの
には問題はないのだけど上記のヘッドホンなどのように安全を考えずに使用する人が
まれにいるからね。(まだ現在では普及製品ではないためこのガイドラインも十分とは
いえず、すでに大きな普及している普通のTVでさえも「ポケモンショック」によって
ガイドラインの見直しがされたように実際に多くの人が使い特殊な状況になって初めて
発覚するという問題点もまれにある)
もしも体調が悪いと感じたらすぐにプレイをやめる(再調整をする)ということは必ず
心掛けるべきだと思うにょ。
液晶TVであれば見やすい位置まで離れてみるという調整方法を取ることができるけど
携帯ゲーム機の場合は持ちやすい位置というのはほぼ固定的であるため画面から離したり
近づけたりという手段をとることはできないにょ。
それゆえ、3DSで搭載された3Dボリュームは非常に大きな意味を持つにょ。
3Dボリューム機能がない携帯ゲーム機は明るさやコントラストが調整できない液晶モニタ、
音量が調整できないスピーカーを搭載しているのと同じようなものだからね。
何度も繰り返すようだけど3D液晶というのはその方式に関わらず左右の目から異なる映像を
見せて立体視させているにすぎないし、スイートスポットが狭い小さな画面で裸眼による
3D液晶の場合は自分に合った調整は必要不可欠となるにょ。
ほとんどの人はその調整をせずに短絡的に「裸眼による立体視は厳しい」と判断している
からね。(端的に言うと「自分の使い方が駄目」なのに「液晶が駄目」と判断している)
将来的には網膜キャリブレーションによる自動調整ができるようになるかもしれないけど
現状では調整機能がある3DSを除けばすべての市販製品において調整機能そのものがない
ために調整機能がある3DSのアドバンテージは大きいにょ。
ただ問題なのは3D液晶に関してはまだ普及しておらずその注意点を認知している人は
ほとんど居ないということにょ。
したがって、任天堂はユーザーに対して十分に注意点を促すべきだと私は思うにょ。
3DSは一昨日書いたようにトップシェアは間違いないと私は判断しているのでそうなると
国内だけで2000万〜3000万台は売れる可能性があるにょ。
それだけ売れたらいくら注意を促しても相当数の人が誤った使い方をするだろうしそれに
よって問題を起こすということがあり得るにょ。
「蒟蒻畑」のようにたまたまそれによって死亡者が出たから製造中止になったように
たまたまそういう人身事故が起こった場合にそれが3DSのせいにされてしまうことは十分に
考えられるにょ。
それだけが一番の気がかりな点にょ。
ゲームというのはまだ世間で認められたものというものではないからね。
同じ死亡事故でも世間に認められてない蒟蒻畑は製造中止になり、世間に認められている
お餅はそれより何十倍も死亡事故が多いにも関わらず製造中止にはならないからね。
http://gigazine.net/index.php?/news/comments/20081001_chissoku/
問題が起きた数が多いというだけではなく特異的なものによって起きた場合にはより目立つ
ものになってしまうからにょ。
ゲームそのものがまだ世間で認められていない状態(趣味が「読書」なら普通の人は気に
止めないけど趣味が「ゲーム」ならば偏見の目で見る人が未だに多いくらい)だし、
おまけに3D液晶は上記のようにまだ一般的に普及しているとはとても言える状態ではない
から問題があったら3DSは格好の餌になってしまうにょ。
100%トラブルを無くすというのは不可能であるため任天堂には出来る限りの企業努力を
してもらいたいにょ。
それが先駆者としての役目にょ。
新型Librettoは真の「libretto」になった!?
東芝の夏モデルPCはアグレッシブな製品ばかりだけどその中でも異彩を放っているのが
このLibretto W100にょ。
http://pc.watch.impress.co.jp/docs/news/20100621_375378.html
http://plusd.itmedia.co.jp/pcuser/articles/1006/21/news033.html
U100以来5年ぶりのLibrettoブランドの製品だし、筐体サイズも小型であった初代モデルの
Libretto 20に近いサイズまで小さくなっているにょ。
それでいて、ArrandaleベースのデュアルコアPentium搭載というのはすごいにょ。
このクラスだとAtom搭載が当たり前だからね。
Pentium U5400はHTTもないし、ターボブーストもないので1世代前のCULVノートに多く採用
されていたセレロンSU2300と比べてもキャッシュメモリが多いということを除けばそこまで
高性能なものではないけれどAtomと比べれば別格の性能だからね。(N270との比較であれば
3倍程度の性能)
しかも、Atomであってもここまで小さいのはAtom Z採用機に限られAtom N採用機では
ここまで筐体サイズが小さいものは存在しないにょ。
それだけを見るとすごいと思うけどデュアルコアCPUでこのクラスのサイズを実現したPCと
いうのは過去に存在するにょ。
それはEVERUN NOTEにょ。
EVERUN NOTEはデュアルコアのTurionを搭載しているわけだし、搭載されているチップ
セットのRS690は統合型としては極めて高い3D性能を有していたにょ。
http://ascii.jp/elem/000/000/186/186632/
すでにAtom搭載機が市場に溢れていく中、このEVERUN NOTEはその筐体サイズからは
考えられない性能によって一部のファンの注目を集めたにょ。
ただし、性能が高い分だけバッテリ駆動時間が短いという問題があったにょ。
このLibretto W100も同じような問題を抱えてそうにょ。
何せバッテリ駆動時間は公称2時間だからね。
これだと実駆動は1〜1.5時間くらいか・・・?
それでも、小ささと性能の両方が欲しいという人には選択肢がないからこれを買うという
人も大勢いそうにょ。
現在国内で普通に入手可能なデュアルコアCPU搭載ノートPCだと最小のものはLet'snote
R9だからね。
ほぼB5用紙サイズに940gという重量は一般的なモバイルノートよりは小型軽量とはいえ
やはり嵩張るし重いという人もそれなりにいることだと思うにょ。
さて、このLibretto W100はデュアルコアCPU搭載なのに小型・軽量というのはウリの1つ
だろうけど最大のウリはダブルタッチスクリーンにょ。
これによってこのW100の方向性は大きく従来のLibrettoと比べて変えられたにょ。
タッチパネルが2画面ある代わりにキーボードを廃することになったわけだからね。
これで文字入力を大量に行う人には向かない端末となったにょ。
とはいえ、クラムシェル筐体であるためスタンド無しに自立することができるため一般的な
ピュアタブレット端末よりもソフトウェアキーボードを使用するにも使い勝手は良さそうな
感じにょ。
静電容量式のマルチタッチであるため感圧式の非マルチタッチの端末よりは同じソフト
ウェアキーボードでも格段に使い勝手は良いだろうし、ソフトウェアキーボードという
メリットを生かしてさまざまなタイプのキーボードが用意されているのも魅力にょ。
W100は7インチWSVGAというのは液晶サイズはいいとして解像度はやや物足りないにょ。
169ppiということでテーブルや膝の上に置いて使うのが前提であれば実用限界だと思う
(カラー表示における人間の目の分解能は6月14日に書いたように距離30cmでの使用時に
300ppi程度であり膝の上で使うならば50〜60cmの距離となるため150〜180ppiが限界と
なる)けれど小型ということを生かして両手に持って使うのであれば30〜40cmまで近づけて
使用できるため200〜300ppiでも十分に使えるから解像度が高くて困ることはないにょ。
しかし、このW100では2画面あるのでWSVGA1画面の端末とは比べモノにならないくらい
使い勝手は良さそうにょ。
2画面液晶は普通にSVGAのデュアルモニタとして使えるだけではなく1つのモニタとして
使うことができるからね。
その際は普通に使えば1024x1200(600x2)となり、90度傾けて使用すれば1200x1024と
して使うこともできるにょ。
概ね10インチSXGA(1280x1024)と同レベルの情報量表示できるということにょ。
これならばそれほど困ることはないような気がするにょ。
W100では2画面というのを有効活用するために180度本体が開くようになっているにょ。
この状態では1枚板のピュアタブレット端末と同じような使い方が可能になるにょ。
逆に考えるとこのW100は折りたたみができるピュアタブレット端末にょ。
これがノートPCと考えるから「奇抜なもの」と考えてしまうけど折りたたみ式のピュア
タブレット端末として考えれば急にすばらしいものに感じるから不思議にょ(笑)
ピュアタブレット端末というのはある程度の情報量を得ようとすると大画面になり
(小画面だとソフトウェアキーボードが使いものにならない)そうなると筐体サイズ
(フットプリント)がどうしても大きくなるし、持ち運びの際は液晶破損が怖いので
ハードケースに入れる必要性が出てくるにょ。
これが折りたたみ式であればそういう持ち運びの際の心配は要らないし、2画面合算の
情報量であれば筐体サイズを小さくしても十分な量を確保可能になるからね。
それに電子ブック用途であればなおさら有効にょ。
7インチ液晶というのは概ね文庫本サイズということで本を読むという用途に関して言えば
必要十分なレベル(これより小さいとさすがにやや辛い)となるわけだし、筐体サイズ
そのものも新書版よりも一回り大きいレベルだから持ち歩けないレベルでもないにょ。
iPadがいくら薄くてもおよそB5サイズという段階で持ち歩いたり電車の中での読書には
抵抗が出てくるにょ。(だから大型タブレット端末は常時モバイルには適さないと私は
考えていた)
ピュアタブレット端末としては理想型に近いものといえそうだけど大きく残念なのは
バッテリ駆動時間にょ。
公称2時間ではとても話にはならないにょ。
大容量バッテリでさえも公称4時間(JEITA測定法によるものだから軽負荷での実駆動は
この5〜7割程度の時間と予想される)だし、大容量バッテリだと800gを越えてしまうのが
ネックにょ。
そもそもデュアルコアCPUで標準699gというのが異例の軽さであり、大容量バッテリ
搭載時の819gでさえモバイルノートとして考えれば軽い部類だけど両手持ちをする機会が
多いピュアタブレット端末においては重量は非常に重要な要素だからね。
5月8日に書いたように10インチクラスの液晶を搭載のWindows PCはバッテリを除いた本体
重量は700g程度が限界(ちなみにR5は680g)と考えているのでそれからキーボードがない
分だけ100gマイナスして、それをバッテリに充てていると考えるとバッテリ込みで699gと
いう重量はそれほどすごいというわけではないけど100g程度(丸形セルだと2セル相当)の
バッテリではAtom Z採用PCならまだしも普通のモバイルノート並の消費電力を持つPCでは
さすがに駆動時間が短くなっても当然にょ。
これがピュアタブレット端末ではなく普通にキーボードを搭載したミニノートPCであれば
VAIO U101やInterlinkなどのPenM世代の機種を未だに使い「Atomでは非力だから」という
理由で昨今のUMPCを買い控えCore系のデュアルコアCPU搭載のものを期待していた人に
とってはかなりの朗報になっていたにょ。
しかし、あえてそういうマニアの要望に応えることなく今注目度が高くなっている
タブレット型の端末にしたということが幅広い層に売ろうとしている東芝の意気込みが
考えが伝わってくる感じにょ。(タブレット端末時代はまだまだこれからだし2つ折り
というのは現状ではニッチな需要とも言えなくはないけど)
ただ、Librettoというブランド名からすると従来のようなミニノートをイメージする人が
多いためにこれを普通のミニノートではなくタブレットPCの一種として売り出す方が
売れそうな気がするにょ。
ならば、ブランド名を変えるべきだったのか・・・?
折りたたみ式のスタイルで両手持ちで使用する場合はまさに「本」の感覚なのでブランド
名ではなく「libretto(歌劇の台本)」という言葉のイメージからすればこのW100は
より「librettoのイメージに近づいた」とも言えなくはないけどね。
今はキワモノ扱いされそうなこのLibretto W100だけどタブレット端末が増えればこの
ように折りたたみ式のものが増えるだろうからその時は草分け的存在としてW100の名が
挙げられるようになりそうにょ。
MSのCourierは試作したものの製品化はされないことが発表されたから製品化までこぎ
つけたW100の功績は大きいにょ。
http://japanese.engadget.com/2010/04/29/2-courier/
少し前までならばLibretto W100は試作品の段階で終了するようなイメージの端末だからね。
PSPはあと4年間戦えるのか・・・?
ニンテンドー3DSに採用されているGPUが明らかになったにょ。
http://game.watch.impress.co.jp/docs/news/20100621_375911.html
http://gigazine.net/index.php?/news/comments/20100621_nintendo3ds_pica200
国内のベンチャー企業ディジタルメディアプロフェッショナル社によるチップであり性能は
どの程度のクロックが採用されるかによって大きく異なるため一概にはいえないものの
PSPと比較した場合、ピクセル描画性能に関しては概ね1.3〜3倍となっているにょ。
3割だと体感できるほどの性能差はないとはいえ、DSはPSPと比べて5〜10倍性能が劣って
いたためにDSからの性能アップは体感できるレベルの差はあるにょ。
頂点演算性能はPSP(3300万ポリゴン/秒)、PS2(6600万ポリゴン/秒)より劣る可能性が
高いけど頂点演算性能がボトルネックになることはまずあり得ないためPS2、PSPでは実効
性能はそれより1桁小さいものになっていたにょ。(PS1でさえカタログスペックは150万
ポリゴン/秒だったので理論上の最高性能なんて全く参考にならない)
実効性能はPS1やDSが10万、PS2が300万、PSPが100万、GCが600万程度だから恐らく3DSの
実効性能はPS2とGCの中間あたりになるのではないかと思われるにょ。
そうなると3DSはPSPの3倍以上の実効性能となるわけだけど総ピクセル数がPSPの2倍である
ため単純計算ではピクセル当たりだと1.5倍くらいの性能となり見た目で大きな差は出ないと
思われるにょ。
むしろ、PSPとは異なりシェーダ機能を持っているというのが大きいにょ。
それによって見た目では大きな差を感じることができると思うにょ。
グラフィックでは「よりリッチな表現ができる」わけだからね。
3DSに使われているチップを使ったリアルタイムレンダリングの例だけどこれを見れば
携帯機としては十分な性能を持っていることが分かると思うにょ。
http://www.youtube.com/watch?v=3A-xxUyJvQQ
http://japan.gamespot.com/videos/story/0,3800076101,20415519,00.htm
表現力という観点からするとシェーダ機能をハードウェアでは持たないGCやWiiを越えて
いるとも考えることができるにょ。
とはいえシェーダ機能といってもプログラマブルではなく固定シェーダとなっているにょ。
PC向けでいえば概ねDirectX6〜7世代くらいの機能+固定シェーダということで同じ
モバイル向けのTegraなどと比べると世代的には新しいとはいえず表現力で優れているか
どうかは微妙なことろにょ。
プログラマブルシェーダ搭載のTegraではなくあえて固定シェーダのPICA2000を選択した
背景にはプログラマブルシェーダはトランジスタ数が多くなるため(同じような処理を
するにはトランジスタ効率が悪くなるため)消費電力の点で不利になるからにょ。
あとはPICA2000は基本仕様こそ固定だけどシェーダ機能はオプションであり任天堂が
必要な機能を実装できるため無駄がないということも採用の理由となっていると思うにょ。
据え置きゲーム機であれば3Dを実現するにはシャッター方式では常時120fpsを確保する
必要があるために高い性能が必要になるけどそれが視差バリア方式の裸眼3Dならば30fps
以下に落ち込んでも3Dとして認識可能になるわけだからね。(シャッター方式での処理
落ちはちらつきが目立つため裸眼3Dと比べると致命的な問題となる)
また求められる速度もだけど解像度も3DSとHDの据え置きゲーム機では大きくことなるため
単純計算では720pのプレステ3は3DSの14倍の実効性能でようやく釣り合いが取れる計算に
なるにょ。(表現力そのものが無視して考えた場合)
プレステ3はプレステ2と比べて格段に性能が向上しているけどそれは表現力アップと
画面解像度でほとんど相殺されているわけだからね。
上記のような制約があるため3D対応ゲームを作る際には3Dを前提とした効率化を行う必要が
あるにょ。
それを考えると3DSがDSから大きく高性能化しても解像度アップと3Dで相殺されているため
3DSは高性能化をした「任天堂らしくないゲーム機」ではなくその性能は十分必要なもの
といえると思うにょ。
3DSが携帯ゲーム機としては十分な性能を持つとはいえ、iPhone 3GSのPower VR SGX535で
さえすでにPSPを越えた性能となっており、iPhone 4のPower VR SGX545はさらに高性能化
しているため3DSの性能はモバイル機器として考えた場合であっても決して高い性能とは
いえないにょ。(プレステ3が高性能といっても登場して5年目だからそれと携帯機の最新
である3DSを比較して画面解像度を考慮した場合に十分な性能と言っても説得力に欠ける)
ぶっちゃけPSPクラスの性能があれば携帯ゲーム機としてはそれほど不満はないわけ
だからそれと同等以上の性能を持つ3DSならば現在の携帯ゲーム機としては十分な性能と
いえるにょ。(これから5、6年戦うとなると旧DSのように末期にはスペック不足を
感じてしまうだろうけどリッチな表現をするために開発コストの増大を考えると3DS
クラスでもう十分といえるかもしれない)
したがって、よほど3DSと差別化できるくらいハイスペックなものでない限りはPSP2を
出してもあまり意味はないといえそうにょ。
したがって、SCEが米国で「PSPは10年戦える」と宣言したことは決して間違いではない
といえるにょ。
http://playstationlifestyle.net/2010/06/19/john-koller-believes-psp-has-10-year-life-cycle/
3DSがシェーダ機能によってPSPよりもリッチな表現ができるよいうになったとはいえ、
基本的な性能においては差別化できるほどの差はないわけだからね。
無理にハイエンド仕様にしたところでコスト面の割が合わないし液晶の3D化に関しては
難しいからね。
PSPが10年戦えるということは言い換えれば「あと4年以内には次世代機を出す」という
ことになるにょ。
現時点ではSCEの社内基準を満たす裸眼3Dの液晶はないためにすぐにPSP2を出すならば
3D液晶は非搭載という形になるにょ。
しかし、ゲームにおいて3Dが重要という認識がユーザーの間に広まった際にすぐにPSP2で
3D液晶を搭載するわけにはいかずPSP3まで待つ必要があるにょ。
裸眼3Dの液晶に関してはここ数年で急速な進歩があるため4年の猶予があればかなり改善
可能になると思われるにょ。
まぁそうなった場合には3DSも途中で液晶を改善したモデルが登場するだろうから心配
しなくていいと思うにょ。
現時点でもコスト度外視であれば3DSは圧倒的に高性能化をしたりさらに良い液晶を
搭載可能だけど携帯ゲーム機にはやはり価格は大きなファクターとなるからね。
それに性能アップによって消費電力が増えればそれで無意味になるにょ。
DSは昨今のケータイと同レベルのバッテリ容量となっているけどそれで6〜10時間程度の
実駆動を確保しているにょ。
ケータイでもそれくらい動作するものは珍しくないけどCPUとGPUをフル稼働させた
ゲームでそんな長時間駆動するものは皆無にょ。
つまり、DSではケータイよりも省電力なチップを求められているということにょ。
だから、最新のケータイやスマートフォンと比べて性能が劣るというのはコスト面だけ
ではなく消費電力の面から考えてもやむを得ないところにょ。
それはPSPにも当てはまると思うにょ。
3DSと十分差別化できるくらいの高性能なPSP2を現時点で作れば価格高騰、消費電力増大と
なってしまうからね。
その上、3D液晶は非搭載となれば3DSと比べて厳しい戦いを強いられてしまうにょ。
「ゲームに3Dは要らない」という方針ならばそれでもいいけどすでにプレステ3では3D化を
進めているし、Wiiも次世代では3Dに対応するという状況下ではそういう方針ではない
というのが分かるにょ。
SCEも3DSそのものを咎めている(携帯機には3Dは不要)というのではなく現在の裸眼3D
液晶が不十分といっているだけの話だからね。
仮に3D液晶を搭載するつもりが全くないならば3D以上のユーザーの興味を惹く要素を用意
する必要があるにょ。
数年後に登場するであろうPSP2への期待度は高いけど現時点では何の音沙汰もないため
多くのサードパーティは3DSへの移行を行いつつあり、それを引き戻すとうのはかなり
大変なことだと思うにょ。
任天堂も64で失ったサードをGCでは取り戻せず、Wiiでようやく戻しつつあるという
レベルだからね。
現時点でさえPSPはDSと比べてサードパーティの差と性能差によってようやくまともに
戦えている(ライバルと見なせている)という状態だけどこれが3DSへと世代交代して
しまえばそのPSPのアドバンテージがなくなってしまうからね。
しかも、PSP2の登場がもうしばらく先(4年以内)となるとそれまでに3DSがかなり普及
してそうにょ。
海外でプレステ3がXbox360に対して大きな苦戦をしたのも発売が遅れすでにXbox360が
普及しはじめていたというのが理由の1つになっているからね。
大きく出遅れた場合はいくら高性能だろうと厳しい戦いを強いられるにょ。
仮にPSP2が4年後に登場した場合、DSが6年サイクルで発売されるならばPSP2発売2年後には
3DSの後継機と戦う必要があるからね。
その後継機を大きく上回るだけの性能や魅力があれば十分戦えるだろうけどそれは非常に
難しいにょ。
国内1500万弱、世界で5000万台売れたPSPだから4年後も恐らくゲームソフトの供給は
続いているだろうけど発売から3年以上経過した3DSとすでに1.3億台売れているDSを
相手にするのは少々厳しいと思うにょ。
上記の続き
iPadは1枚板であるため折りたたみ式が良いというのであれば現在は選択肢がないけど
タブレット端末が大ヒットして折りたたみ式の要望が大きいならば中国あたりのメーカーが
激安端末を作りそうにょ。
7インチ液晶を2枚ならばこの9980円のAndroid端末を2つ組み合わせて19800円くらいで
販売可能だろうからね(笑)
http://akiba-pc.watch.impress.co.jp/hotline/20100619/etc_tablet.html
汎用OSが動作すれば十分と考えるならばこれは十分選択肢になりうるにょ。
ただし、格安だったM001は動作が不安定でバッテリ駆動時間が短いし動作がもっさりと
不評だったのと同じくこの9980円Android端末も同じような感じだろうからそれを2枚
合わせたところでもっさりが倍増されるだけとなり実用になるかどうかは微妙だけどね。
実用性を求めるならばW100はユーザーを選んでしまうにょ。
CPUはデュアルコアが必須(Atomは嫌)、サイズはVAIO Pクラスでないと嫌(一般的な
CULVノートやモバイルノートでは大きすぎるor重すぎる)、キーボードは無くても構わない、
駆動時間は短くても良いという人には最適だけどね。
しかし、Atom機であってもさらに言うと非x86、非Windowsであってもこのような2つ折り
タッチパネル端末は発売されてないためにそれに惹かれるという人であれば使い勝手に
難があっても購入する価値はあると思うにょ。
タブレット端末が需要が拡大すればこのような2つ折り端末はそのうち登場するだろう
けれどMSのCourierが発売中止をしたくらいでありすぐには出ないからね。(すでに
いくつかのメーカーが試作品を作っているもののいつ発売されるかは全く不明)
それに性能とサイズの両方を取ったW100のような端末はよほどタブレット市場が拡大
しない限りは登場しないと思うにょ。
もしも、タブレット端末ブームがあと5年くらい続けば東芝のPC30周年でW100の後継機種が
発表されるかもしれないし、その頃には2つ折りタブレット端末というのはそれほど珍しい
ものではなくなっている可能性があるにょ。(現状の市場を考えるとW100はU100のように
1代で終了する可能性が極めて高い)
タブレット端末がブームの兆しを見せている今、iPadはすでに売上台数を300万台に
伸ばし本格的な普及に一歩ずつ進み始めているにょ。
http://k-tai.impress.co.jp/docs/news/20100623_376223.html
W100がiPadを意識していないといえばウソになると思うけど重量や液晶の合計サイズの
面でiPadと同クラスのタブレット型の端末でありながら「iPadと対極となる存在」に
なっているからね。
そういう意味ではこのW100のコンセプトは極めて明瞭にょ。
iPadがモバイルコンピューティングの進化の1つだとするとW100はそれよりもさらに
一歩前進させたものといえるにょ。
ただし、それを時代(今の一般ユーザー)が求めているか、時代に合っているかというと
別問題にょ。
4年前に登場して失敗してしまったOrigamiだけどこれは時代が追いついてなかったのが
1つの失敗要因となっているにょ。
それは技術的な問題(より省電力なCPUが必要だった)もあるし、売れるための下地が
無かったということが理由にょ。
2つ折りタブレット端末は電子ブックの普及があれば大きな後押し要因になるしタブレット
端末の普及でキーボードの重要性が薄れてくれば同じ情報量の液晶モニタを搭載時に
よりコンパクトにできるメリットがあるからね。
それに持ち歩く際の液晶破損の心配もかなり減るというメリットもあるにょ。
そういう意味ではタブレット端末の今後の行方次第では2つ折りがブームになるという
可能性を秘めているもののW100はさすがに時期尚早だったかもしれないにょ。
コンセプトカーと同じく将来のPCの進化の仕方の1つを提示したにすぎないとはいえ
タブレット端末が普及した後のバリエーションモデルとしては非常に有用なものという
わけだからね。
タブレット端末が普及していない現状ではW100の優位性もほとんどの人には伝わることが
ないにょ。
これではOrigamiの二の舞か・・・。
ただし、Origamiは同クラスのCPUを搭載のPCと比べてサイズや重量のアドバンテージは
それほど無かったというのが成功できない理由ともなっていたにょ。(一般的なモバイル
ノートより安価だったけど重量はキーボード無しにもかかわらず軽量なモバイルノートと
同レベルだった)
しかし、W100にはそれがあるためOrigamiよりは期待が持てそうにょ。
ただし、小型化、軽量化のために高コストとなってしまったからそれが普及へのマイナス
要因となっているけどね。
かといって中途半端なサイズ、重量にしてCPUのグレードを下げそこそこ安価というものが
良かったかというと微妙にょ。
W100はコンセプト優先で実用性(というかバッテリ駆動時間)を重視していない端末
だけどそのコンセプト自体を不明瞭にしてしまうと根本部分が破綻してしまうにょ。
コンセプトモデルをそのまま市販化したようなPCだからね。
コンセプトは明瞭だけど時代を先取りしすぎ・・・?
一昨日に書いたlibretto W100だけど人によって大きく評価が分かれているにょ。
私は駄目だと感じるのはバッテリ駆動時間くらいでコンセプトは明瞭だし他の端末には
ない魅力を感じるにょ。
手に持って使う端末として考えた場合にやや重いとか高価とかいうのも難点だけどこれは
ArrandaleベースのデュアルコアCPUを搭載しているということを考えれば大健闘のレベル
だと思うにょ。
では、本当にそうなのかを考えていくにょ。
重さについてだけどこれは5月8日に書いたような駆動時間あたりの重量とその本体の絶対
重量の2通りがあるにょ。
前者は重量と駆動時間を一元的に扱う場合には有用な考えだけどどうしても主観が入って
しまう(人によって必要な駆動時間が異なる)ということもあるしすでにバッテリ駆動
時間に関しては最初の段階で駄目出しをしているためここでは後者の絶対重量(要するに
一般的な考えにおける重量)について考えてみるにょ。
では、699gという重量は軽いのか?重いのか?
「重い」とか「軽い」とかいうのは主観がどうしても入ってしまうけど他の製品と相対
比較をすることでその立ち位置が分かるにょ。
体重100kgが軽いか重いかという場合に自分自身の体重より重いか軽いかというので判断
してしまったら自分の体重が120kgの人ならば「100kgの人は軽い」となってしまうにょ。
しかし、多くの人は「100kgの人は重い」と判断するのではないかと思うにょ。
それは自分の体重と比較しているのではなく平均的な人の体重と比較しているからだと
思われるにょ。
ただ、ここで問題なのはその「平均的な人(製品)」というものにょ。
すでにPMやBXなどの300〜500gクラスのAtom搭載機が多く登場しているために699gというのは
重いと判断してしまうかもしれないけどそれは正しいものではないにょ。
それは製品のクラスが異なるからにょ。
先ほどの体重100kgという人もこれが関取だと知ったら軽いと感じる人は多いと思うにょ。
それと同じようにPCでもクラスを合わせる必要があるにょ。
そうでないと「スマートフォンならば200gもないのにiPadは700gもあるから駄目だ!」
というのと同じだからね。(絶対重量はiPadは決して軽くはないけど相対重量は軽いと
私は思っている)
分かりやすくするためにもっと極端な例を挙げるならば「置き時計は腕時計より重いから
駄目だ!」というのと同じにょ。
使用する目的を理解しないで単純に重さだけで比較してしまうと最終的には「大画面HD
TVはポータブルワンセグTVより重いから駄目だ!」となってしまうにょ。
ここまでくればさすがにおかしいことに気が付くと思うにょ。
これが同じ42インチ液晶TVが2台あり片方のTVが20kg、もう片方のTVが40kgならばそれらは
重量を比較することに意味が出てくるにょ。
クラス分けをする基準を考えた場合にはCPUもしくは液晶サイズが挙げられるにょ。
CPU性能は主にTDPで分類されるけど一般的にいって高性能なCPUはTDPも高く消費電力も
大きいものになっているため軽量化は非常に難しいからね。
したがって、CPUによって重いか軽いかのクラス分けをするのは十分に意義があるにょ。
CPUでいえばW100はCULVノートが相手にょ。
CULVノートは軽いものでも1.38kg程度であり11.6インチ液晶搭載モデルならば概ね1kg
半ばといった感じにょ。(東芝のCULVノートは1.48kg)
それと比べたら2倍のアドバンテージがあるにょ。
価格を考えない場合はLet'snoteR9(930g)やRX2(SSD+軽量バッテリで858g)もある
もののそれらと比べても100〜200gのアドバンテージがあるにょ。
液晶サイズでクラス分けをした場合はW100は7インチが2画面ということで10インチ相当の
面積を持つためにそれと同レベルのもので比較する必要があるにょ。
10インチとなるとネットブックが思い浮かぶと思うけどネットブックの重量は1〜1.4kg
(平均的なもので1.2kg程度)となっており、それと比べると2倍近いアドバンテージが
あるにょ。
軽量ノートPCとなると忘れてならないのがVAIO Xの存在にょ。
11.1インチでありながら標準バッテリで765g、軽量バッテリだと655gでありほぼ互角と
なっているにょ。(液晶サイズを考えると若干VAIO Xが優勢か)
10インチクラスとなるとWindowsではないものの話題のiPadと比較すると3Gモデル(730g)
よりは軽いけどWi-Fiモデル(680g)よりは重いのでこれも互角といってもいいと思うにょ。
以上より、重量に関しては液晶サイズを考慮すればVAIO Xには若干負けるとはいえ、CPUを
考慮すれば同クラスのPCの中ではトップに位置するものといっても過言ではないにょ。
何せ現行の非AtomのWindows PCの中では最軽量だからね。
要するに同クラスにおいて世界最軽量といえるわけにょ。(軽量なAtom機は液晶サイズが
4.8インチ程度ということでW100の4分の1の面積しかないけどさすがに4倍も液晶サイズが
異なるものを同クラスとして考えるのはどう考えてもおかしいと思う)
とはいえ、これは絶対重量であり、必要駆動時間あたりの重量で考えるとその優位性は
一気に失われてしまうにょ。
公称(JEITA測定法)で8時間の駆動時間が欲しい場合は、W100に大容量バッテリを装着時
では819gとなるわけだけどこれで公称4時間であるため予備として予備としてもい1本
大容量バッテリが必要になるにょ。
その重量が明らかではないけど標準と大容量の駆動時間が2倍で重量差が120gということを
元に逆算して1本240gと仮定した場合には819+240=1059gとなるにょ。
これがVAIO Xであれば標準バッテリで達成できるため765gだし、RX2は標準バッテリで
達成できるためSSDモデルならば978gとなるにょ。
したがって、W100がクラス最軽量というのには間違いはないけどそれはあくまで標準
バッテリ(公称2時間)のみで運用可能な人にとってという場合であり、予備バッテリが
必要な人ならばその前提が変わってくるにょ。
とはいえ、このような小型のPCやダブレット型のPCの場合は両手持ちで使うという機会が
通常のモバイルノートと比べて圧倒的に多くなるにょ。
モバイルノートであればテーブルや膝の上において使うため100g程度の重量差はほとんど
気にならないのだけど手に持って使用する場合にはその差は非常に大きいため公称
2時間程度とはいえ、絶対重量が軽いというのは非常に有用にょ。
これが10時間駆動可能だけど1kgの端末であったら必要駆動時間あたりの重量は軽くなる
ものの絶対重量が重くなるため使用時の重量は重くなってしまうからね。
次に価格を考えてみるにょ。
予価12万円という価格は安いのか?それとも高いのか?
これもまたクラス分けをしないといけないにょ。
重量比較と同じように絶対的な安さというのと相対的な安さがあるからね。
重量と同じようにCPU性能と画面サイズでクラス分けをすればいいのかというとそういう
わけではないにょ。
例えばセレロンP4500(1.86GHzデュアルコア)搭載デスクノートはCore i7-640UM(1.2GHz
デュアルコア)搭載のモバイルノートよりも高速だけどこれが同じ価格であれば前者の
方がお買い得かというとそうとはいえないからね。
普通に考えれば同価格でCPU性能が異なる2機種を比較した場合にはCPU性能が高い方が
お買い得になるわけだけどそれは同サイズもしくは同重量であった場合のみにょ。
据え置きとして使うからサイズ、重量が気にならないという人ならば単純にCPU等の
スペックでお買い得かどうかを比較すればいいけれどそうでないならば他の要素を加味
しないとお買い得かどうかは分からないにょ。
したがって、単純にCPUだけではなくCPU+筐体サイズ(もしくは重量)ということで
お買い得かどうかの判定をしてみることにするにょ。
しかし、困ったことに同クラスには比較相手が居ないにょ。
そういうことで少し基準を緩めて重量は無視して同クラスのCPUを搭載PCで比較するか
CPUは無視して同クラスの筐体サイズのPCで比較することにするにょ。
同クラスのCPUとなるとやはり挙げられるのはCULVノートにょ。
とはいえ、CULVノートに使われているCPUはほとんどがセレロンだから単純比較はできない
わけだし、メーカーが異なるとその場合でも単純比較ができないにょ。
「東芝製のPCの価格」という事象と「W100の価格」という事象は完全に独立したものでは
ないために分けて考える必要があるにょ。(例えばAspire 1410と比べて高価といっても
W100が高価なのか東芝製PC全般が高価なのかが分からない)
そのためにもメーカーを統一する必要があるにょ。(絶対的な価格において安いか高いかを
判断する場合はこの限りではない)
先日発売になった東芝製のCULVノート(11.6インチ)の夏モデルには下記の2機種(MX/34と
MX/36)があるにょ。
dynabook MX/34 セレロンU3400(1.06GHz)
http://kakaku.com/item/K0000120886/
dynabook MX/36 Core i3-330UM(1.2GHz)
http://kakaku.com/item/K0000120883/
libretto W100 Pentium U5400(1.2GHz)
http://kakaku.com/item/K0000123227/
これらと価格を比較すれば良いのだけど問題はまだLibretto W100が発売されてないという
ことにょ。
価格com上位の安売りショップは発売後に大きな値引き合戦を行うから発売前の現時点での
価格は何の参考にもならないにょ。
参考になるとすれば比較的価格変動が少ないと思われる大手量販店の価格にょ。
例えばソフマップ.comの価格を見てみるとdynabook MX/34が89800円、dynabook MX/36が
109800円、libretto W100が124800円となっているにょ。
同じCULVとはいえ、CPUのグレードはCore i3>Pentium>セレロンなのにも関わらず
価格はW100>MX/36>MX/34となっておりW100の割高感は否めないにょ。
では、MX/34やMX/36を基準においた場合にW100はどの程度割高と言えるのかを考えて
みるにょ。
セレロンU3400はIntelからの提供価格は134ドルとなっているもののPentium U5400や
i3-330UMの価格は非公表となっているにょ。
これはほぼCULVオンリーとなるために条件によって大きな変動があるということを意味する
と思われるにょ。
セレロンU3400も134ドルだけど条件次第ではその半値程度までは下がるだろうからね。
したがって、CPUからはいくらの差が発生するのかが分からないにょ。
とはいえ、PCにおいては部材コストは概ね価格の半分程度であるためそれでおよその
目安は付くにょ。
MX/34とMX/36の価格差が2万円でその半分となると1万円が部材コストの差(つまり
セレロンU3400とi3-330UMの価格の差)と言えるわけにょ。
Pentuimの価格は分からないけど両者の中間としてi3-330UMより5000円安いと考えた
場合にはその2倍が価格に反映されるためMX/36よりも1万円安くなるといえるにょ。
そうなるとW100の価格は99800円が妥当となるにょ。
しかし、他の違いもあるにょ。
大きな価格差が出てきそうなものといえばOfficeの有無とシステムドライブの差にょ。
Officeは有無によって概ね2万円の価格差が発生するためOffice無しのW100はさらに
2万円安い79800円が妥当な価格になるにょ。
MX/34、MX/36に使用されている320GBのHDDは価格が4000円前後、64GBのSSDはメーカーに
よって大きく価格が異なるものの1〜2万円にょ。
大ざっぱに言って価格差は1.2万円程度と考えるにょ。
仕入れ原価はその価格の8割程度と考えると1万円程度の価格差であり、そうなると部材
コストの2倍が価格に反映されると考えたらW100は99800円が妥当な価格になるにょ。
実際はタッチパネル等の価格上昇もあるためこんなに単純なものではないと思うけど
本体のスペックを考えれば10万円程度が相場であり、それよりも2万円以上割高となって
いるにょ。(2面あるタッチパネルや基板の小型化でこの価格差が発生している)
では、次は筐体サイズを元に価格を考えてみるにょ。
ほぼ同レベルのサイズとなるVAIO Pがあるので非常に都合がいいにょ。
VAIO P Atom Z530(1.6GHz)
http://kakaku.com/item/K0000109565/
ここで上記と同じくソフマップ.comの価格を見てみると99800円となっているにょ。
このVAIO Pは夏モデルからは店頭モデルもSSDが64GBになったためにそのまま単純比較が
できるにょ。
やはり、ここでも上記と同じく2万円以上W100が割高となっているにょ。
ただし、CPUの性能はW100が圧倒的に上(2〜3倍)となっているにょ。
そういうことで結論を書くならばlibretto W100は重量でいえば同クラスに敵なしだけど
必要駆動時間当たりの重量でいえば予備バッテリが必須になる人の場合は重量面で必ず
しも有利とはいえないということにょ。(それでも本体が軽いため予備バッテリを持ち
歩いてもそこそこ軽いけど)
価格はCPU性能や筐体サイズのみを考えた場合には2万円程度は割高の設定となっている
もののCPU基準では同クラスのCULVノートと比べて半分の軽さ筐体サイズ基準では
同クラスのVAIO Pとくらべて2〜3倍の性能ということを加味すれば決して割高とは言え
ない価格となっているにょ。
ただし、これらの結論はモバイルノートとして考えた場合にょ。
これはOrigamiが失敗した原因の1つといえる部分にょ。
PCであるのにキーボードがないためにPCとして使用するにはかなり制限が出てくるという
ことが理由にょ。
キーボードがないということは大量に文字入力をする人にとっては大きなマイナス要素に
なるのは確かにょ。
ソフトウェアキーボードは用途に応じて様々な種類のものが選択可能ということで標準で
ついているものと差し替え不能なノートPCにおいては逆にメリットとなるのだけどキー
そのものが平坦で打鍵感がないという難点があるにょ。
しかし、W100ではフィードバック対応のタッチパネルによって打鍵感を獲得している
模様にょ。
フィードバック対応のタッチパネルに関しては下記の動画を参考にしてもらえば分かる
けど東芝情報システムが開発したものにょ。
http://www.youtube.com/watch?v=mBfflLidkmQ
W100に採用されているのはこれと同じものかは分からないけどソフトウェアキーボード
だから打鍵感が全くないということは無さそうにょょ。
とはいえ、いくら頑張っても所詮はソフトウェアキーボードであり打鍵感はハードウェア
キーボードに追いつくことは不可能にょ。
W100はあくまでタブレット端末として考えた場合には上記のお買い得感の計算はまた
変わってくるにょ。
別にWindowsにこだわりがない場合はiPadではW100と同じSSD64GBモデルであっても68800円
であるためにほぼ半値で買えてしまうからね。
16GBで用が足りるという人ならば48800円で済んでしまうにょ。
タブレット型だからビューア用途に便利とはいってもビューアメインの使い方をするので
あればW100は2万円どころでは済まないほどの割高感があるにょ。
(下記へ続く)
iPhone 4があればコンデジは要らない!?
昨日ついにiPhone 4が発売されたにょ。
http://k-tai.impress.co.jp/docs/news/20100624_376410.html
北米では初日だけで予約が60万台を突破しサーバダウンをしてしまったのだけど国内でも
予約初日は行列ができたにょ。
発売日といってもほぼ予約完売状態であるため並ぶ意味はあまりないのだけど少しでも
早く手に入れたいという心理が働いているのだと思うにょ。
さて、iPhoneのウリの1つである960x640の網膜ディスプレイは6月14日に書いたように
人間の網膜の限界(目に見えないくらいの高密度)とはいえないものの十分な高解像度
といえそうにょ。
もっとも昨今のガラケーのFWVGAも概ね300ppi前後あるためそれに慣れてる人ならば大した
ことはないだろうけどフルカラー対応のIPS液晶というのは並のガラケーを越えていると
思うにょ。(ただ、液晶が黄色っぽいというトラブル報告が続出しているらしい)
4の液晶に慣れたら3GSには戻れないかも・・・。
またiPhone 4では最新のiOS4が搭載されているけどこれはマルチタスクが一番のウリと
なっているにょ。
従来はシングルタスクOSということで一旦終了しないと次のアプリを使えなかったけど
マルチタスク対応になったのでアプリを動作しつつ別のアプリを使えるようになったにょ。
とはいえ、別のアプリを起動してバックグランドに回ったアプリは自動的に一時停止して
しまうにょ。
これは限られたリソースを有効活用するためにょ。(メモリは512MBへと倍増されたため
マルチタスクで動作させることによるメモリ不足の心配は薄れた)
ラジオなどバックグランドで動作させたいというものは新規に追加されたAPIを使い
バックグランド動作させる必要があるにょ。(つまりアプリ側がiOS4に対応する必要が
ある)
とはいえ、現物を使ってない(見てもない)のでこの辺にしておくにょ。
詳しくは他のサイトやブログ等を参考に・・・。
さて、今回はiPhone 4のカメラ機能について書いてみようと思うにょ。
カメラであれば撮影された写真を元に評価可能だしね(笑)
3GSでは300万画素だったのが4では500万画素に増えたり、720pの動画が撮れるようになった
ということで大幅なスペックアップとなったわけだけどやはりこのカメラで注目すべきは
「裏面照射CMOSセンサー」を採用しているということにょ。
これは恐らくケータイとしては世界初採用だと思うにょ。
私は昨年末に裏面照射CMOSセンサー搭載デジカメとしては最初の世代となるCybershot
TX1を買ったにょ。
それに関しては1月3日、5日にレビューを書いたにょ。
今年になってからはTX1の後継となるTX7が登場し、ソニーからだけではなく各社から
どんどん登場し始めたにょ。
そういうことで、まずは裏面照射センサー搭載デジカメの現状を見てみようと思うにょ。
この春に発売されたコンデジは裏面照射センサーをウリにしたものが多かったにょ。
http://camera.itmedia.co.jp/dc/articles/1004/16/news033.html
http://camera.itmedia.co.jp/dc/articles/1004/23/news019.html
なぜ裏面照射センサーが良いのかというと今更説明するまでもないことだけど同一面積で
あれば受光量が2倍以上に増えるからにょ。
これはセンサーサイズが小さければ小さいほどより高い効果を発揮するためにセンサー
サイズの小さなコンデジやケータイのカメラにとっては裏面照射センサーというのは
非常に大きな武器となるにょ。
なぜ同じ面積で受光量が倍増するのかというと一般的なCMOSセンサーというのは各画素の
周辺に配線が必ず必要になるからにょ。
田んぼでいえばその周辺には必ずあぜ道が必要なのと同じにょ。
田んぼが十分に広ければあぜ道のことはほとんど考えなくてもいいけど1つの田んぼが
1m四方のサイズしかなければ全体に占めるあぜ道の存在は無視できないレベルになる
というのは分かると思うにょ。(構造上そのあぜ道を小さくすることはできない)
それはあぜ道が田んぼのあるのと同じ面にあるからで逆方向の面にある場合(用はあぜ
道を地下道に変えるようなもの)は一面をほぼ全部田んぼに変えることができるため
面積あたりの田んぼの割合、つまり、受光面積が増えるということにょ。
裏面照射センサーにはもう1つ大きな意味があるにょ。
それはデジカメのセンサーというのは従来は上記のようにあぜ道状の配線で囲まれた
中にマイクロレンズで覆われた受光素子が入っているのだけどその配線というのは立体的
配置となっているため画素ピッチが小さくなった今となればとてつもなく大きなものにょ。
あぜ道と田んぼの高低差が10mくらいあるという状態を想像してもらえたらいいにょ。
イメージしずらければあぜ道に囲まれた田んぼではなく井戸を想像するといいにょ。
それくらい実際に受光するのはセンサーの奥深くにあるということにょ。
井戸の底に光を当ててもよほどまっすぐ上から当てないと底まで届かないように通常の
センサーではなかなか思うように受光できなかったにょ。
これが十分な画素ピッチであれば許容角度が大きくなるために気にならないけどコンデジ
みたいに極小ピッチのセンサーだとそれは致命的になるにょ。
したがって、その受光部分がセンサーの上部(受光側)に設置されている裏面照射センサー
というのは極めて理にかなった高効率のセンサーといえるにょ。
受光面積が広がるだけでなく受光割合も増えるわけだからね。
ある程度センサーサイズや画素ピッチが大きければそのメリットは小さくなるとはいえ
コンデジでは非常に有用だけどデメリットもかなりあるにょ。
(1)製造コストが高い
(2)熱ノイズにより日中屋外での写真に解像感がない
(3)従来センサーより発色傾向が異なるため色再現性が悪い
(1)は高いとはいえ何倍も高価というわけではないために量産すれば量産効果によって
価格下落が起きるためそれほど大きな問題ではないにょ。
当初は製造が難しいという理由でTX1やWX1はそれが価格に反映されていたけど今は量産
効果でプレミアム価格的なものは無くなったと思われるにょ。
(2)は少々厄介にょ。
熱ノイズは防ぎようがないからにょ。
したがって、画像処理エンジンでいかに誤魔化すかというのがポイントとなるにょ。
元々コンデジは画像データを修正しまくることで極小センサーであってもそれなりに
高い描写力を持っているために誤魔化すこと自体は問題ではないにょ。
ただノイズを消す(ノイズリダクションを行う)ということは解像感を損ねる原因と
なるためそのバランスが難しいにょ。
(3)は最初の世代であるTX1、WX1では顕著だったにょ。
まだノウハウが無かったため日中屋外での描写に関しては彩度が低くとても高画質な
ものとはいえなかったからね。
それに加えてオーバー側にダイナミックレンジが狭いという問題があるため白飛びが
非常に多くなってしまうにょ。
それらに関しては採用機種増加によって量産効果で価格が下がり、画像処理エンジンの
改善によって(2)、(3)は徐々に改善の方向に向かいつつあるというのは上記リンク先の
レビューでも分かると思うにょ。
これらのメリットがあるからこそセンサーを自社生産しているキヤノンでさえもIXYの
最新モデルでは裏面照射センサーを採用しているくらいだからね。(恐らくソニー製の
センサーを採用か)
http://dc.watch.impress.co.jp/docs/review/newproduct/20100610_373064.html
高感度に強い裏面照射センサーにプラスしてF2.0の明るいレンズを採用しているために
暗所に非常に強いコンデジに仕上がっているにょ。
これである程度iPhone 4のセンサーの素性は分かってきたと思うにょ。
裏面照射センサーの弱点部分もそれが弱点になるかどうかは画像処理エンジンによって
裏面照射センサーは現在量産されているものはソニー製の1/2.3インチ1000万画素のもの
しかないにょ。
しかし、iPhone 4では裏面照射センサーだけど500万画素になっているにょ。
果たしてこれはどこから来たものなのか・・・?
iPhone 4の特注センサーなのか・・・?
センサーサイズは分からないけど画素ピッチは1.75μmと公表されているにょ。
これは昨今の1000万画素オーバーのコンデジやケータイのカメラと比べて画素ピッチが
広いものの極端に広いというレベルでもないにょ。
単純に画素ピッチを計算すると1/2.3インチで800万画素クラスのものと同レベルになって
いるにょ。
また画素ピッチから逆算するとiPhone 4のセンサーサイズは1/3インチ程度にょ。
画素ピッチが広い方が有利になるというのは確かだけど重要なのは上記のように田んぼと
あぜ道のような関係があるので同ピッチであれば裏面照射センサーの方が有利になるのは
間違いないからね。
センサーがどんなものかというのはこれくらいにしておいて所詮は極小サイズである
ためにレンズと画像処理エンジンが重要となるので実際に撮影されたものを見てみるにょ。
http://plusd.itmedia.co.jp/pcuser/articles/1006/24/news017_3.html
これを見ると3GSよりは格段にアップしているのが分かるにょ。
画素数が増えて解像感が増しただけではなく裏面照射センサー採用によって室内でも
それなりに見れるレベルで撮れるようになったにょ。
TX1は「手持ち夜景モード」という連写をしてそれをうまく重ね合わせることで低ノイズの
写真を生成するモードがあるけどiPhone4にはそれがないみたいなのでさすがに極小サイズ
センサーの限界を感じてしまうけどね。
画像処理エンジンでうまく補正されているとはいえ、裏面照射センサーということで
日中屋外ではやはりノイズが発生してしまっているにょ。(ノイズリダクションをかけると
解像感が失われるため難しいところ)
とはいえ、レンズ性能はTX1より上かも・・・と思わせてしまうにょ。
TX1は1000万画素センサー搭載だけど1000万画素モードで撮影した写真は見るに耐えられ
ないくらいの解像感であるため私は300万画素モードを常用しているにょ。
1000万画素超が珍しくないガラケーでもここまでの描写力のある機種は一部の機種に
限られてしまうにょ。
ほとんどが「画素数増加がファイルサイズの増加にしかなってない」という機種ばかり
だからね。(TX1の1000万画素よりもさらに見るに耐えられないレベル)
そういう意味では500万画素に抑えることでその画素数なりの描写力を維持できている
iPhone4は実用度は高いにょ。
画素数は1000万画素だけど300万画素までリサイズしてようやくまともに見えるレベルだと
ファイルサイズの無駄としかいえないにょ。
これは最高画素数ではなく実用画素数で撮影すれば良いだけの話だけど大容量のメディアが
安価に買えるようになった今、ファイルサイズを節約するために少ない画素数で撮影する
という人も少ないだろうからね。
それに実際はファイルサイズが大きくなるというだけの問題ではなくメディアの速度や
端末の処理速度がボトルネックになり、画素数が増える(ファイルサイズが増える)場合
には画像を開くのが遅くなるという問題もあるからね。
無駄な高画素は「百害あって一利なし」ということにょ。
5月19日に書いたように昨今はケータイのカメラ機能が向上しコンデジの必要性はかなり
薄れてきているけれどiPhone4くらい撮れれば光学ズームが必要な人を除けばコンデジの
必要性はなくなりそうにょ。
確かにガラケーの中にはiPhone4よりも画質で上回る機種はあるものの1000万画素クラスの
センサーを採用機種の多くは500万画素のiPhone4と比べて勝っているとは言い難いため
やはり画素数で単純に優劣を決めるというのはいかに無意味なことかが分かるにょ。
一般的に画素数が少ないデジカメより多いデジカメの方が高画質というのは少ない画素数の
デジカメは設計が古い(センサーが古い、画像処理エンジンが古い)ため画素数だけの
比較になってないからにょ。
画素数で優劣が決まるのは十分に高性能なレンズ(物理的な面で理想的なレンズ)を
搭載してセンサーも画素数以外の要素は同一(同一メーカー、同一世代)であり、画像
処理エンジンもそのレンズやセンサーに最適化されたもの(もちろん比較する場合は
同じ画像処理エンジン採用の機種同士)という場合に限られるにょ。
最新のセンサーでありながら500万画素という少ない画素数のiPhone4は画素数至上主義
となる多くの人に与える影響は大きいと思うにょ。
6月10日に書いたようにトイデジカメに使われている旧世代500万画素センサーと画素数が
同じだから同じような写りしかないないだろうと判断している人もいるくらいだからね。
キーボードは本当に必要なのか?
iPadがヒットしタブレット型の端末の市場が拡大を見せつつあるのだけどタブレット端末を
買おうとしている人にとって一番の問題はキーボードがないということだと思うにょ。
6月8日にも書いたようにネットブックというキーボード付きの端末が市場に溢れることに
よってキーボード無し、つまりタブレット型の端末が売れるための下地ができたと私は
判断しているにょ。
キーボードが必要ならばすでに存在するキーボード付きのネットブックやCULVノートや
スマートブック(東芝の名称では「クラウドブック」)を買えばいいだけの話だしね。
タブレット端末は「キーボードが無い」ということをデメリットに考えている人も多い
けれど6月11日に書いたように「薄くなる」「軽くなる」というメリットもあるから
一概にはデメリットとは言い難いにょ。(薄くもなく軽くもないという端末に関しては
デメリットしかないけど)
確かにキーボードに強く依存している人であれば必要不可欠だけどそうでなければPCに
おいてハードウェアとしてキーボードが必要不可欠なものかどうかということから考える
必要があるにょ。
現在のPCにおいて旧世代の遺産ともいえるのがキーボード(QWERTY配列のキーボード)
だからね。
QWERTY配列のキーボードは19世紀末に英文タイプで考案されたものだから百数十年の
歴史があるにょ。
歴史があるから変えにくいとはいえ、それが万人にとってベストといえるかというと
そうではないと思うにょ。
30代以上ならばQWERTY配列が重要だろうけど若者の多くはQWERTY配列よりもケータイの
テンキーの方が慣れているからね。
逆に高年齢だとキーボード自体に抵抗がある人も多く存在するにょ。
文章書きを生業としている人やプログラマにとって高速にタイピングできるキーボードは
必要不可欠とはいえそうでなければその必要性は昔(80年代〜90年代)とは異なりかなり
薄れているのではないかと思われるにょ。
つまり、キーボードは一般向けではなく専門家向けに徐々に変化しているというわけにょ。
キーボードが無しで売れなかったOrigamiに対してキーボードが付いたネットブックが
売れたのはキーボードのお陰だけどこれはWindowsというOSがキーボードとマウスを使う
ことを前提として設計されているせいにょ。(特にXPまではそうだった)
しかし、キーボードレスのタブレット端末であればソフトウェアキーボードによって自分
好みの配列のキーボードを選べるし手書き入力もできるし、選択の幅はかなり広がる
というメリットがあるにょ。
ただし、ソフトウェアキーボードに関して言うと6月11日に書いたようにハードウェアの
キーボードと比べると入力速度では遠く及ばないのも事実にょ。
それだけではなく下記のような問題もあるにょ。
(1)クリック感がない
(2)同時押しができない
(3)誤動作をする
(1)は平面である液晶画面だからやむを得ないことだけどフィードバック対応のタッチ
パネルによってそれは改善しつつあるにょ。
全くゼロではないというレベルだろうけど押したか押してないのか分からないので不安に
なるというのは少し緩和できると思うにょ。
(2)はマルチタッチ対応のタッチパネルによって改善可能になったにょ。
もっともあくまでソフトウェアキーボードはアプリケーションだからOS自体が落ちている
ときは使えないけどね。
(3)はタッチパッドをあまり好まない人(スティック型のポインティングデバイスを好んで
いる人)の理由の1つにもなっているものにょ。
反応がよいタッチパネルを使うほど簡単に反応してしまうため誤動作をしてしまうわけ
だからね。(しっかり押さないと反応しないようなタッチパネルだと誤動作は少なくなる
ものの今度は「押したのに反応しない」という問題に置き換えられるだけのこと)
そのためタイピングしたもの(意図的に押されたもの)か、ただ触れただけのもの(意図
的ではないもの)かを判断するような仕組みを導入する必要があるにょ。
これはキー入力判定のアルゴリズムを変更するだけなのでいくらでも対応できるにょ。
つまり、速度を重視する人でなければ出来の良いソフトウェアキーボードならば
ハードウェアキーボードに拘る必要はないということにょ。
では、その速度差はどこから出てくるのかというと反応が悪いため高速にタイプしても
それが反映されないことやフィードバックが無いためそんなに高速では不安になるという
ことが理由だと思うにょ。
出来の良いソフトウェアキーボード&フィードバック対応のタッチパネルであればその
問題は解決可能であるためソフトウェアキーボードとはいってもかなりの速度でタイプ
可能になり、速度を極端に重視する人を除けばソフトウェアキーボードでも十分という
時代がやってくるかもしれないにょ。
とはいえ、ソフトウェアキーボードを使う場合はキーピッチが重要になるにょ。
やはりまともに使うならば大画面(10インチクラス)が必要になるにょ。
そういう意味ではW100の7インチ液晶2枚はソフトウェアキーボードには不向きなものに
なりそうにょ。(これは横位置使用して2画面にまたがるソフトウェアキーボードを用意
すればいいだけのことだけど)
当然のことながらiPhoneクラスのサイズではソフトウェアキーボードはとても使い勝手が
良いものではなくこのサイズで使いにくいからソフトウェアキーボード全般が駄目と
判断するのは正しいとはいえないにょ。
ただし、W100の場合キーピッチはやや狭めであるもののスタンド無しで自立させられる
ということで1枚板の大画面タブレット端末とは異なり膝の上やテーブルの上に置いて
使えるというメリットがあるにょ。
それとソフトウェアキーボードは立った状態で両手持ちタイプ(つまり親指タイプ)する
場合にも有用にょ。
ハードウェアキーボードの場合はその筐体サイズ(筐体の横幅)によって両手持ちタイプが
可能かどうか決まるからね。
両手持ちタイプであればよほど手が大きい人を除けば横幅15cm〜17cm程度が望ましいにょ。
そうでないと中央に指が届きにくいので無理なホールディングをしないといけないにょ。
それを避けようとするならばM704のように中間を開けて両端に配置する必要があるにょ。
http://www.tsukumo.co.jp/gigabyte/note/m704.html
しかし、このような配列は両手持ちならばいいけどそうで無い場合にはデメリットと
なるにょ。
ソフトウェアキーボードであれば両手持ち用、テーブルに置いてタイピング用と
キーボードを選べるメリットがあるにょ。
タブレット端末が大画面である方がメリットがある理由としては上記のようなソフトウェア
キーボードの問題だけではなくここで何度も書いているスマートフォンとの棲み分けの
問題もあるにょ。
スマートフォンの多くがFWVGAだし、iPhone 4に関しては960x640という高解像度になって
いるため大画面のWSVGAクラスの端末はそれらと比較してもサイズ分の恩恵があるとは
いえない状況下にあるにょ。
これが今後さらに解像度が増えればWXGAクラスの解像度を持つ大画面タブレットを脅かす
かというとそうはならないにょ。
というのも実用情報量がそれほど多くないからにょ。
というのも30cm程度の距離で使用した場合、カラー表示において私の実験上では人間の目の
分解能はせいぜい300ppiくらいしかないからにょ。
つまり、3〜3.5インチの液晶でFWVGAを大きく越える解像度の液晶パネルを搭載しても
その恩恵はほとんどないということにょ。(アンチエイリアスがかかったようになって
画像のエッジが目立たなくなるくらいの恩恵はあるけど)
つまり、XGA以上の解像度がある大型タブレット端末があれば実効解像度において
スマートフォンと十分棲み分けが可能になるということにょ。(スマートフォンは
電話機としての役割があるため大型化はできないので解像度を高めるには高ppiの液晶を
使用するしかない)
大型液晶を搭載のタブレット端末はGUIを指で操作可能というのがポインティングデバイス
とした場合には非常に有用となるにょ。
直感的に操作可能なのはタッチパネルの恩恵が大きいにょ。
ただし、タッチパネルを前提として作られたiOS(旧名「iPhone OS」)とは異なり上記の
ようにWindowsはマウスとキーボードを前提として作られているにょ。
それ故タッチパネルがベストなポインティングデバイスかと言われると微妙な面もあるけど
Vista以降は徐々にタッチパネルとの親和性を高めているためにその問題はどんどん
薄れてきているにょ。
それならばタブレット型のPCだけではなくノートPCやデスクトップPCにもどんどんタッチ
パネル対応のものが登場するかというとそうではないにょ。
コストアップの要因になるからといのも1つの理由だけどキーボードとタッチパネルの
相性があまり良くないというのも理由となっているにょ。
ポインティングデバイスとしてタッチパネルを常用する場合にはキーボードがホーム
ポジションから大きく移動してしまうからにょ。
つまり、連続してタイピングするか、連続してポインティング操作するかという場合を
除けばポインティングデバイス代わりとしてタッチパネルを操作するのはどうしても
無駄が多くなるにょ。
その点はソフトウェアキーボードであればホームポジションという絶対座標は無くなる
ためにタッチパネルにおいてはハードウェアキーボードは無い方が好ましいにょ。
ポインティング動作をする際にはかえって邪魔になることさえあるからね。
キーボードが無いというのは目に見える位置に無いという意味にょ。(キーボードを使用
することを前提に考えているためキーボード付きの端末はタッチパネル使用時には重心が
変わってしまう)
キーボードがいつでも引っ込められるスライド式やコンバーチブルタイプであれば
タッチパネル使用時にキーボード付き端末にどうしても発生してしまうデメリットは発生
しないにょ。
ただし、コンバーチブルタイプの場合は可動部分が多くなるため壊れやすくなったり
重くなったり、奥行きが長くなったりというデメリットがあるにょ。(それ故、価格面
でも高価になる場合が多い)
タブレット型の端末としても使えキーボードを備えた普通のPCとしても使えるという
メリットもあるもののそのようなデメリットを考えると必ずしもベストな選択肢とは
いえないにょ。(リナザウはそのコンバーチブルなところが良かったけどこれは300gも
なかったからそれほど重量は気にならなかった)
以上をざっとまとめると大型タブレット端末が今後普及するかはハードウェアとしての
キーボードの有無がどの程度重要視されているかということが重要なポイントとなるにょ。
スマートフォンと明確な差別化をするためにはある程度の画面サイズや解像度が必要に
なるけどそうなるとどうしても重量増が気になるにょ。
確かにハードウェアキーボードの方が文字入力速度においては有利だけどタッチパネルとの
相性が悪いことや重量アップを考えるとハードウェアキーボードのメリットは薄れるにょ。
ソフトウェアキーボードも今後はどんどん改善されていくためにハードウェアキーボードに
拘らない人はソフトウェアキーボードでも十分と感じる人は増えていくと思われるにょ。
ブームは自ら起こさなければ起きることはない
6月24日に書いたようにlibretto W100は時代を先取りしすぎているため現状ではユーザーに
そのメリットを理解させるのは難しいにょ。
それに時代を先取りしすぎてコンセプト優先で実用性に欠ける(特に駆動時間が短すぎる)
と感じている人もいるかもしれないにょ。
同時に発表されたdynabook AZ(Tegra搭載のAndroid端末)と中身を変えた方が良かった
という人も中にはいるからね。
では本当にそうなのかを考えてみるにょ。
dynabook AZは870gで7時間駆動のAndroid端末であるけど確かにそのスペックのCULV
ノートならば魅力だし、W100の短い駆動時間もTegraを搭載すれば3倍くらいに伸びて
十分実用レベルになるかもしれないにょ。
何だかいいことだらけのようだけどそれには大きな間違いがあるにょ。
AZはTegra搭載だから870gという重量と7時間駆動が実現できたわけだからね。
5月8日に書いたようにARM端末だと容易に軽くできるためにょ。
これでもしもArrandaleベースのデュアルコアCPUとWindows7を搭載してこの重量を維持
した際にはW100のような短い駆動時間となってしまうにょ。
それに価格面でも割高になるにょ。
6月24日に書いたように東芝のCULVノートはセレロン搭載のMX/34がで約9万円、Core i3
搭載のMX/36が約11万円だからね。
そのCULVノートは1.48kgもあり軽量化にはほとんどコストをかけてないのだけどAZを
ベースにCULVノートを作ってしまえばそれよりも高価なものになってしまうにょ。
TDPがまるで異なるため大幅な設計のし直しも必要になるし、Windows7を搭載するならば
SSDは60GB程度は必要になるからね。
その辺のコストをかけないように作ったら・・・Dynabook MXになってしまうにょ。
それだとAZなんて作る必要なんてないにょ。
AZは何なのかというと要するにネットブック代替となる廉価端末にょ。
ネットブックとは異なりWindowsこそ動作しないけどAtom NからARMにすることで大幅に
省電力化ができるため軽量かつ長時間駆動が可能になったにょ。
それに現状のネットブックではできないスムーズなHD動画の再生もTegraに内蔵のGPUで
可能になるにょ。
シャーシや液晶モニタはネットブック用として用意されたものを流用可能であるため
コストダウンができるしタッチパネルを搭載していないのもコスト削減のためと考えた
場合に説明が付くにょ。
iPadでも最も高額なパーツはモニタ&タッチパネルであり、まともに使える大型タッチ
パネルを搭載した場合それだけど大きなコスト増となってしまうにょ。
なぜネットブックにタッチパネルを搭載しないのかはこういう理由があるからにょ。
今度はW100にTegraを搭載した場合を考えてみるにょ。
バッテリ駆動時間も延びるし、コスト面で割高な8層基板を使う必要がないため価格面
でも有利になるにょ。
こちらはAZの中身をCULVにするよりはまともになりそうにょ。
AZでdynabookブランドでAndroidを搭載しているわけだからlibrettoブランドでAndroidを
搭載してももう驚くことはないにょ。
それをやらなかったのはガワが高コストとなっているためTegraを搭載してもあまり安価
にはならないということがありそうにょ。
あとW100の液晶とタッチパネルは消費電力が大きそうなのでTegraを搭載しても想定して
いるような長時間駆動ができないというのがあるかもしれないにょ。
120gのバッテリで(公称)2時間しか動作できない理由を考えるとこれしか思い浮かばない
からね。
いくら丸形セルよりも重量あたりの容量が劣るとはいえ、丸形であれば2セル相当の
重量のバッテリならばいくらバッテリ消費量の大きなArrandaleベースのCPUとはいえ
公称3時間くらいは達成できるからね。
あとはこのスタイルを生かして電子ブック用途に使うという方法が考えられるけどまだ
日本においてデファクトスタンダードとなる形式はないにょ。(Kindleも売られてないし
iBooksもスタートしてない)
そうなると現状では無難にWindowsを搭載するのが一番となるにょ。
Windows7を快適に動作させるにはCULVノートクラスの性能が必要となるためW100の
中身(CPU)をCULVノートと同じにしたのだと考えているにょ。
それでなくてもタブレット操作はマウス&キーボードよりも高いスペックが要求されるわけ
だからAtomではWin7のタブレット操作を快適にこなすことはできないにょ。
さらにWindowsに拘った理由を考えると電子ブックに止まらず汎用性を重視したという
ことにょ。
これはiPadとはまるで逆の方向性となるにょ。
iPadは制約を入れることでユーザーには使いやすくしているのだけどその反面制約が
あるということを嫌っている人も多いのはないかと思うにょ。
制約があるから脱獄する人もいるにょ。
つまり、W100はそういう人向けの端末にょ。
これでストレートなタブレット型にしてTegraを搭載したらそれこそ世間ではiPadの
パクリ呼ばわりされたと思うにょ。
それは東芝のPC25周年モデルとしては相応しくないにょ。
iPadに対抗するためにiPadと違うやり方でタブレット端末を作ったらW100になったと
いうことだと思うにょ。
「iPad対抗」ではないとしてもiPadとは異なる進化の1方向を示したものといっても
良いかもしれないにょ。
ただ、問題は後述のように「方向性を示して終わり」になっていることにょ。
AtomではなくArrandaleベースのCPUにしたのは上記の理由でAtomでは力不足というのも
あるし技術力誇示というのもあるだろうけどやはりCPU以外の部分にコストがかかっており
安価にはできないからCPU性能を上げてプレミアム性を持たせたということも考えられ
なくもないにょ。
CPUが安価になっても価格ダウンはせいぜい1〜2万円だけど10万円以上もするAtom機は
さすがに高価だからね。(VAIO XはAtom搭載で10万円オーバーというぼったくりネット
ブックと考えている人も多いくらいだし)
ここでW100を小型化、軽量化を行わずAtom Nで安価に作ること優先した場合にどうなるか
というのを考えてみるにょ。
パネルサイズはネットブックの主流である10.1インチWSVGAパネルを2枚使用するにょ。
要するにネットブックのキーボードを取り除きそこにタッチパネルを装着した液晶パネルを
埋め込みOSは7StarterではなくHome Premiumを採用するというだけの話にょ。
ただし、W100とは異なり公称8時間(実駆動だと4〜6時間レベル)を確保してみるにょ。
dynabook UXは6セルバッテリで公称10時間となっているにょ。
2画面になることで8時間を確保するのは厳しいけどUXはAtom N280であるためこれをN450に
変えれば6セルで公称8時間を確保は可能だと思われるにょ。
UXで6セルバッテリ使用時の重量は1.33kgにょ。
キーボードよりも10.1インチ液晶の方が重いだろうから重量は1.4kg程度になるのでは
ないかと思うにょ。
価格に関してはほぼ液晶1枚分のコストアップがタッチパネル込みで販売価格で1万円分、
OSがXP Homeから7 HomePremiumになるコストアップが1万円と考えるとUXよりも2万円
高価になると思われるにょ。
UXが発売時に約6万円だったので2画面液晶のタブレット端末だと発売時の価格は8万円
程度になるにょ。
確かにW100よりも4万円安価で駆動時間も十分あるもののAtom N、1.4kgという性能と
重量を加味して果たして売れるのか・・・?
それならばTegra+Androidの方がいいかもしれないにょ。
上記ではW100をベースにした場合には高価になるから意味がないと書いたのだけどAZを
ベースにして考えるならば1kg、6万円で作れそうにょ。
これならば価格的にはiPadのライバルになれそうにょ。
ただし、サイズや重量で大きく劣ってしまうにょ。
それだと小型化、高性能化を得意としている日本企業の製品としては相応しいとはいい
難いものになるにょ。(Windows PCというアドバンテージもなくなるわけだし)
それにiOS vs Androidでは自由度においてAndroidが勝っているだけであとは厳しいからね。
ネットメインであればiOSとAndroidの差はなくむしろFlashに対応している分だけAndroidの
方が良いという人もいるだろうけどコンテンツを総合的に考えた場合にはまだAndroidは
iOSの相手にさえなってないにょ。
しかし、ネットの利用がメインとなるAZは言葉通りの意味としての「ネットブック」の
役割は果たせるのでネットブックの後継となるクラウドブックでAndroidを搭載するのは
問題はないけどW100ではそれはできないにょ。
新型VAIO Pはティザー広告のVAIO New Ultra Mobileという文字によって過度の期待を
した人も多く現れVAIO Pのブラッシュアップモデルが登場した際にはがっかりした人も
多かったにょ。
あれはあれでブラッシュアップされており悪くはないのだけど今までに見たことがない
ような新しいUMPCやiPadとは違う方向性でiPadに対抗できるタブレット端末を期待して
いた人もいると思うにょ。
そういう意味ではこのW100の方こそNew Ultra Mobileに相応しいものになっているにょ。
2画面タッチパネル搭載PCは世界初だからね。
「世界初」が欲しいSONYだろうけどこれでiPad対抗で同じようなPCを作っても二番煎じに
なってしまったにょ。
それくらいこのW100が与えたインパクトは大きいにょ。
ただ問題はW100のコンセプト通りの時代がいつ来るのかということにょ。
実際タブレット端末は各社こぞって発表しているものの現時点で実際に売れているのは
iPadだけだからね。
もっともまだほとんどの端末が発表されたままであり発売には至ってないから今後売れる
可能性はあるもののタブレット端末市場が拡大するというのは現時点ではあくまで希望的
観測にすぎないにょ。
iPadも発表された時点でヒットすると予測していた人はそれほど多く無かったにょ。
過去に大型タブレット端末は業務用を除き成功した試しがないからね。
それでもアップルブランドを信頼して成功を予測した人はいたにょ。
確かにiPadの成功はアップル社のブランド力によるものが大きいけど一番のポイントは
端末だけではなくOS、アプリ、コンテンツを自社で用意できることが挙げられるにょ。
「時代が来るのを待つ」のではなく「時代を作る」ことができるということにょ。
要はブームを自らの手で作り出すことが可能ということにょ。
それができることがアップル社の強みであり、iPadの成功の原動力ともなっているにょ。
そのレベルに一番近い位置にあるのはマイクロソフト・・・ではなくGoogleにょ。
ただし、現状ではまだアップル社には遠く及んでいないと思うにょ。
大半のメーカーはブーム(波)に乗ることはできてもその波を作り出すことはできない
からね。
ただし、それは一社だけでできることには限界があるということにすぎないにょ。
他社と提携したり他社が始めたサービスをうまく利用するなどいくらでもやりようはある
ため傍観するしかないということではないにょ。
むしろ、自らの手で何とかしようとしないと何も始まらないにょ。
そういう意味ではどんなことであってもブームというのは偶然起こるというものではなく
何らかの働きによって起こる必然性のあるものといえるにょ。
W100は2つ折りにできるためiPadと比べるとカバンに気軽に入れることができるし、2画面
液晶は本を読むのに最適にょ。(短すぎる駆動時間を除いた場合)
ならば、ここで大手出版社となぜ提携して電子ブックの配信をしないのか?
W100を使えばこんなことができるというものを実際に提供するのとしないのとでは雲泥の
差があるにょ。
確かに電子ブックの配信は現在は国内のどの出版社も懐疑的でありケータイやPSPなどの
端末を用いて配信はしているもののそれは極めて限定されているにょ。
Kindleで読める書籍数と比べると圧倒的に少ないにょ。
日本の書籍の利権関係が複雑であるため米国のように単純にはネット配信サービスが
行えないというのが一番の理由だけどいずれは国内の大手出版社も重い腰を上げるときが
くると思うにょ。
iBooksが日本で配信されるようになったときには手遅れにょ。(iBooksは個人相手でも
契約できるため出版社単位ではなく個人単位で契約されれば出版社は利益を大きく失う
ことになってしまう)
もっとも、Windows PCであればiBooksのサービスを利用することができるためそうなれば
W100も電子ブック用として活用が可能になるけどそういう受け身で果たして良いのか?
ただのコンセプトPCだからといえばそれまでだけどやはりそれでは成功には至れないにょ。
確かにタブレット市場が大幅に拡大し、電子ブック売り上げが紙の書籍を越えるような
時代がやってくれば放っておいても売れるだろうけどそんな時代は当分やって来ない
からね。(そんな時代になれば2画面端末は珍しくなくなっているからW100の注目度は
今よりずっと小さいだろうけど)
東芝的には「こんな変わったPCを作りました。ユーザーの皆さん自らの方法で使ってね」
という感じでユーザーの動向を模索するというのも1つの目的でありW100が大ヒットする
なんて考えてないのかもしれないにょ。(SCEでいえばPSP goのような感じだけどこちらも
試金石として導入したけどただの実験ではなく100万台単位の売上を見込んでいた模様)
それでも折りたたみ式の2画面端末に萌える人、小さいPCが欲しいけどCULV以上の性能が
欲しい人には売れるだろうからそれなりには売れるとは思うにょ。
こういうのはオンリーワンというのが強みだからね。(Origamiにはそのオンリーワン的な
要素さえなかった)
確かにW100は2画面2つ折りのタブレットという今では珍しいタイプのPCであり、その筐体に
CULV並の性能を収めたということで話題性はあるにょ。
しかし、「Origami?そういえばそんなものがあったね」というのと同じようにタブレット
端末市場が将来大幅に拡大し2つ折り端末の人気が出始めた頃に当時(2010年)の迷機と
して一部の人の記憶に残るだけの存在となりそうにょ。
そうならないためには何らかの手段を講じる必要性がありそうにょ。
ファンレスノートは不安れす
現在モバイル用として使っているPCであるLet'snote R5を中古で買って1年経ったにょ。
ファンレスノートということもあり、やはりこれからの季節は厳しくなるにょ。
何せ動画再生でCPU負荷100%の状態が続くとCPU温度は80度に達するからね。
さすがにこれは少々心配にょ。
ということで買ったのが、冷却用のクーラーにょ。
http://ww5.tiki.ne.jp/~ochame/test/cooler.jpg
最近はネットブックのお陰で小型のものが入手しやすくなっているのはR5ユーザーの私
だけど歓迎したいにょ。
こんなものを使うなんてファンレスノートの意味がない・・・と思うかも知れないけど
そもそもそんな高負荷状態の長時間稼働(動画再生)で使うのは自宅のみだからね。
自宅外で使う際には動作音には気を配りたいのでファンレスもしくは静音ファンを搭載
したPCを使いたいところだけど動画再生しているときに多少のファンの音は気にならない
ので問題ないにょ。(GeForce GTX480クラスの轟音ファンならば問題外だけど)
ちなみに私がモバイルノートにファンレスを望んでいるのはファンは消耗品であり壊れ
やすい上に汎用製品ではないためパーツ単位での購入が可能なThinkPadを除けば自前修理も
難しいからにょ。(私のPCの故障箇所は「液晶<HDD<ファン」でありファンが最も多い)
実際にこのクーラーを使ってみたところ高負荷状態で1時間動作させていたらCPU温度が
80度だったのが76度に下がったにょ。
小さなファンが1つだけということで目に見えた効果はないもののCPU温度が4度下がって
いるのならばケース内は10度くらい下がっていてもおかしくはないにょ。(そもそも
ファンで冷却しているのはケースでありCPUではないわけだし)
私は過去にモバイルノートを何度も買い換えているけど中古ばかり買っているということも
あるとはいえ1年使えた試しがないにょ。
それはカバンにラフに突っ込んだ状態でそのカバンを頻繁にぶつけたり落としたりして
いるからね。
別に意識してそんなことをやっているというわけではないけど意識してないからこそ
そうなるにょ。
常に「精密機器がカバンの中に入っている」と意識しておけば良いのだけどそれだと持ち
運びだけで神経を使ってしまうからね。
Let'snoteを使い始めてからはそれで壊れたことはないためその点は非常に楽にょ。
衝撃等で今まで何台のノートPCを壊してきたことか・・・。
すでにR5も筐体にへこみ等が多数あるけど「これはやばいかも」という場合でも無事に
耐えることが出来ているにょ。
ただ、そんなLet'snoteも熱には弱いにょ。
一般的にHDDやコンデンサは温度が10度上がるごとに寿命が半分になると言われているにょ。
それを考えれば10度温度が下がるということは熱による寿命が倍増するのを意味するにょ。
Let'snoteは頑丈であり、少々の衝撃で壊れることはないけど熱に関してはどうすることも
できないからね。(この辺はファンレス設計が完全にネックとなっている)
R3はそんなラフな使い方をしているにも関わらず3年弱故障知らずだったけどさすがに
そろそろHDDの方が限界に近づいてそうに感じていたのでメモリ搭載量に不満を感じてくる
ようになったのをきっかけでR5に買い換えたにょ。
ただ、個体差の問題もあるだろうけど私の所持個体では負荷時のCPU温度はR3よりもR5の
方が負荷時のCPU温度が高くなっているのが少々厄介にょ。
それが、このクーラーで多少は安心ができそうにょ。
さすがにCPU温度が80度に達するのを見るとこれですぐに壊れることはないにしてもあまり
精神衛生上良くないからね。
予算の都合もあり、R5はあと2、3年は使いたいところにょ。
恐らく先に買い換えるとすればネット用のノートPC(ネット専用ではなく雑用全般の
要するにメインPC)の方かも・・・。
そのネット用ノートPCはPenM1.73GHz、メモリ2GBということで今は何とか使えるために
問題はないけど昨年ファンが壊れてしまったにょ。(ファンレスノートは音が静かという
だけではなく壊れやすいファンが無いということもメリットとなっている)
それ以降はこのようなクーラーを下に敷いて使っているけどそれまでは熱によって頻繁に
OSごと落ちていたけどクーラーを敷くことで普通に使えるために延命できているにょ。
あとはポケットサイズのPCもVAIO UXから買い換えたいけど予算的に厳しいにょ。
Viliv N5の弱点
5月28日に書いたViliv N5だけど先日ようやく発売されレビューが掲載されているので
それを見てみることにするにょ。
http://pc.watch.impress.co.jp/docs/column/hothot/20100628_376863.html
ライバルとなるのはPM、BXといったポケットサイズのPCとなるにょ。(VAIO Pはギリギリ
ライバルと言えるかどうかというサイズ)
上記のレビューではPMとVAIO Pとの比較がされているためそれらの機種とN5のどれを買う
べきかを比較検討している人には役立ちそうにょ。
では、PCの基本スペックから見てみるにょ。
比較となるのはPCMark05のうちPMでスコアが出ているCPU、Memory、HDDに関してにょ。
Viliv N5 PM VAIO P(店頭モデル)
PCMark05
CPU Score 1178 787 1369
Memory Score 1969 1411 2215
HDD Score 6080 2113 3311
これを見るとN5とPMはCPUスコアが1.5倍も異なるのに気が付くと思うにょ。
この要因はHTTの有無と動作クロック(N5が1.33GHz、PMが1.1GHz)にあるにょ。
AtomのHTTは0.6コア分くらいの影響力があるためベンチスコアはコア数に比例するような
HDBenchやCrystalMarkなどではHTTの有無によって1.6倍のスコア差が発生するにょ。
PCMark05ではそのような単純計算によるベンチではなく実際にマルチスレッド対応アプリ
での動作速度を計測しているため同じアーキテクチャであればデュアルコアがシングル
コアの2倍のスコアになるなんてことはなく1.4倍くらいしかスコアが上がらないにょ。
つまり、4割アップとなり、その0.6倍分である2.4割分がPCMark05のCPUスコアにおける
スコアアップになるにょ。
それに加えてクロックが約1.2倍異なるため1.24×1.2≒1.5倍の差になっているわけにょ。
さすがに1.5倍の差となると体感が可能なレベルにょ。
VAIO Pのクロックは1.6GHzでありN5とはクロック分の約1.2倍しか差はないにょ。
ちなみに私が普段持ち歩いているR5に搭載のCoreSolo 1.2GHzは1900〜2000くらいの
スコアとなるためN5のAtom 1.33GHzはCoreSolo換算だと(マルチスレッド対応アプリを
実行時において)700〜800MHz程度の性能といえるにょ。(逆に言えばCoreSolo並の性能を
得るためには2GHzオーバーのAtomが必要)
メモリスコアを見てみるとまたPMとN5の差は1.4倍となり誤差とはいえないレベルの差が
付いているにょ。
これはFSBの違いが影響しているにょ。
PMのAtom 1.1GHzはFSB400なのに対してN5のAtom 1.33GHzはFSB533だからね。
しかし、同じFSBのVAIO PがN5を上回っているにょ。
これは誤差にしてはやや大きいのでメモリN5のアクセスがやや遅いといえるにょ。
逆に言えばPMはN5と比べてFSBは1.33倍遅いのにスコアが1.4倍悪いのはN5よりもさらに
メモリアクセスが遅いせいだといえそうにょ。
次にHDDスコア(といっても全機種SSDだけど)を見てみるにょ。
見ての通りN5がダントツでNo.1にょ。
VAIO Pとは約2倍、PMとは約3倍の差が開いているにょ。
つまり、それだけSSDの速度が速いということにょ。
それがどの程度かというとCrystalDiskMarkを見てみるとはっきりするにょ。
N5のシーケンシャルリードの71.87MB/sというのはこのようなポケットサイズPCに搭載の
SSDとしてはそこそこ速い(最新の2.5インチHDD並)のだけどこれはN5が速いのではなく
PMが遅すぎるということにょ。
SSDで一番気になるのはプチフリだけどこれはランダムライトが大量発生する場合に
起きるにょ。
特に大きいのは4Kのランダムライトにょ。
N5は1.594MB/sなのに対してPMは0.040MB/sしかなくその差は何と40倍になるにょ。(N5で
0.5秒の処理がPMでは20秒かかるということが考えられるため体感で明かな差となる)
ちなみにPMの速度は概ねMLCのNANDフラッシュを何の工夫もなく2chアクセスした場合の
速度と同レベルにょ。(つまり、デュアルchのMLCのUSBメモリ並の速度しかない)
では、N5の方が40倍速いNANDフラッシュを搭載しているのかというとそういうわけではなく
コントローラやDRAMキャッシュによってそれが隠蔽されているだけだと思われるにょ。
しかし、この隠蔽化によりプチフリはかなり軽減できるにょ。
DRAMキャッシュを備えていないSSDの場合はメインメモリをキャッシュ代わりとして使用
することで体感的に速度を上げることはできるけどメインメモリが512MBしか搭載されて
いないPMでそれを行うのはスワップする頻度を高めるために良い方法とはいえないにょ。
またファイルシステムを変更することでプチフリは軽減可能にょ。
XPの場合はOSがSSDを考慮していないためNTFSではファイル書き換えが頻繁に発生し
それがプチフリを増長しているにょ。
これはFAT32でフォーマットすることで軽減できるとはいえ、最善の方法はWin7を使う
ことにょ。
しかし、メモリ512MBではWin7はスワップが多発しとても快適には使えないにょ。
したがって、PMはXP+FAT32で妥協して使うしかないにょ。
その点、N5はプチフリの心配はあまり気にせず使用できそうにょ。
さらにN5はZIFソケットを有しているためユーザーが自分の手でSSDを交換が可能にょ。
これはSSDが基板直付けであるためユーザーによる交換が不可能なPM、PA、BXとは大きく
異なる点にょ。
では、バッテリ駆動時間を見てみるにょ。
Viliv N5 PM VAIO P(店頭モデル)
BBench 4時間44分 4時間35分 4時間17分、
これを見ると3機種ともほぼ互角といっていいけどその中でもN5が首位になっているにょ。
これで十分かどうかは人によるだろうけど私は普段の使用においてモバイル環境下では
最大でも3時間程度しか使用しないため「実駆動3時間」を最低要求ラインとしているにょ。
そういう点からすると私の基準では3機種とも合格といえるにょ。
ちなみに私が普段持ち歩いているR5は輝度中では互換バッテリということで6時間くらい
となっているにょ。(純正バッテリであれば7〜8時間動作)
ということで残量半分あれば普段の使用において困ることはないといえるにょ。
もう1つのモバイルPCであるVAIO UXは実駆動2時間程度となっているにょ。
そのため実駆動3時間を確保するためには予備バッテリが必須といえるにょ。
仮にN5を買った場合、UXの置き換えとなるため本体+予備バッテリの600g超が388gに
なるというのは大きいにょ。
さらに言うとUXはキーボードが駄目すぎるためR5を毎日持ち歩いている状態であるため
もしも、R5ではなくN5を使用すればそこからさらに1kgの軽量化ができるにょ。
R5はキーピッチにやや不満がある(実際はピッチよりもキートップ縦横比が異なるという
のが原因)けれどN5のキーボードがR5並に使えるかどうかがR5の置き換えが可能になるか
どうか決まるにょ。
変態配列だし、キーピッチもあまり広くないためR5の使用頻度を落とすことは可能になる
というレベルで完全に置き換えは難しいだろうけどね。
N5はリアルサイズのポケットサイズPC(強引に突っ込まなくても入るレベル)としては
性能面では十分なレベルであるため現時点では最高の選択肢といえるのだけどやはり
5月28日に書いたように価格面が唯一の問題点といえそうにょ。
取扱店がほとんど無い(ハンファの直販店かブルレーでしか手に入らない)ということで
価格的には量販店に取扱のある製品よりも割高となってる(さらに実物を見る機会もない)
からね。
それに比べてPMはすでに実売価格は最安店だと34K円になっており(ソフマップは数量限定で
29800円だった)、BXも最安店では45K円となっているにょ。
N5はSSD16GBのXPモデルでさえ62800円、SSD32GBの7Starterモデルは67800円〜77800円と
なっており、その差はかなり大きいといえるにょ。(ヘタするとPMの2倍の価格)
そうなると現在実売価格が下がっているPMやBXをあえて買うというのも選択肢としては
悪くないと思うにょ。
N5は現時点では量販店での取扱がないため値崩れは期待できず、PM、BXが安価になっている
せいで相対的な割高感はかなり増しているにょ。
確かに価格差分の性能差はあると言えるけれどVAIO Pの実売価格とあまり変わらないと
なるとN5を選ぶのはPMでは性能で不満があり、VAIO Pではサイズに不満があるという
人に限られそうにょ。
動画撮影と通信機能の親和性
6月25日にはiPhone 4クラスの性能のカメラ機能を備えたケータイであればコンデジが
不要になるかもしれないということを書いたにょ。
では、動画に関してはどうなのか・・・。
コンデジにおいて3年前から急速に増えてきたHD動画撮影機能だけどこれにはHDTVの普及や
YouTubeのHD対応が大きいにょ。
つまり、撮った動画を「見る環境」と「公開する環境」が整ったということにょ。
それに加えてH.264エンコードチップの量産効果による低価格化がそれをさらに後押し
しているにょ。
いくらHD動画が撮れてもその機能で3万円アップとか、5万円アップとかになればとても
普及は見込めないからね。
今となっては入門機以外のコンデジの大半でHD動画撮影機能を持っているにょ。
YouTubeのHD対応で盛り上がっている動画メインのカムコーダだけどこちらは1万円以下で
HD対応のものが入手可能になっているにょ。
http://av.watch.impress.co.jp/docs/news/20100611_373765.html
つまり、コンデジの世界ではHD動画は決して高い付加価値を持つものではなく光学式
手ぶれ補正のように搭載しているのが当たり前の機能の1つになりつつあるということにょ。
では、ケータイに関して見てみるにょ。
国内で最初にHD動画撮影機能が搭載されたのは1年前に発売のWooo携帯にょ。
http://av.watch.impress.co.jp/docs/news/20090525_170018.html
それから1年経ちまだコンデジのようにHDは当たり前の機能には達してないけど徐々にHD
動画撮影機能搭載機種は増えているにょ。
ここで「ケータイの画面で見るならばVGAの動画で十分」と思うかもしれないにょ。
それならば静止画もVGAで十分であり何百万画素も要らないし、1000万画素なんて完全に
不要にょ。
ケータイのカメラとしてVGAを超えるものが有意義であるという理由は静止画と同じく
VGAをそのまま見るよりも縮小して見た方がキレイに見えるというのもあるけれどむしろ
本当の理由はケータイでの使用に止まらないということだと思うにょ。
これは静止画でいえばPCで見たりプリントしたりするのに相当するにょ。
ケータイのカメラで撮影したものであってもそれを見る側は必ずしも撮るのに使った端末を
用いるとは限らないからね。
ケータイ向けコンテンツに使用するのあればVGAで十分だけど今の他の視聴側の環境を
考えるとHD(720p)は最低欲しいところにょ。
これは例えるならば静止画においてPCでの鑑賞やL版プリントであっても200〜300万画素は
最低でも欲しいというのと同じことにょ。
昔(YouTubeがサービスを開始した当時)であれば720pの再生はハードルが高かったけど
今となってはネットブックであっても何とか再生可能なレベルだからね。(再生支援機能を
持たないネットブックで720pの動画をまともに再生するにはWebブラウザ上からではなく
一端ローカルに保存する必要がある)
それではiPhone 4の動画撮影性能を見てみるにょ。
http://plusd.itmedia.co.jp/mobile/articles/1006/29/news041.html
これを見るとHDビデオカメラ並とはとても言えないもののHD(720p)で撮影できるコンデジ
と比較してもそんなに劣っているようには見えないにょ。
私は720pで撮影できる機器はXacti HD2とTX1を持っているけどそれらと比べても同レベル
くらいだからね。
さて、iPhoneをはじめとするケータイでHD動画が撮れるということは通信環境を内蔵して
いるためにその場でアップロード可能ということを意味するにょ。
ここで問題なるのは編集機能にょ。
最近は静止画においては簡単な編集作業をケータイの内部で完結できる種も多いけど動画に
関してはまだまだにょ。
iPhoneはiMovieを使うことでHD動画を撮影→簡単な編集→アップロードという一連の流れを
PCレスでこなせるというメリットがあるにょ。
これはコンデジでは実現ができないケータイならではのメリットにょ。
確かにそれぞれ専用機(専用PCソフト)を用いて作業するのが一番良い結果が得られるの
だけど必ずしもみんながPCを持ち歩いているわけでもないし、HD動画を撮影できるビデオ
カメラやコンデジを持ち歩いているわけではないからね。
さらにそれに加えてケータイ以外の通信環境(データ通信カードや3G通信対応のモバイル
ルータなど)を常に持っているというわけではないからね。
だからケータイ(iPhone 4)で完結できるというメリットは非常に大きいにょ。
写真を撮る場合にも一眼レフを使うのがベストといってもそれをWeb上で公開するのが目的
であるならば必ずしもベストと言えないのと同じにょ。
プリンタはクラウド化に適している!?
ネットワーク上に接続された機器であればOSが何であろうと(印刷機能の有無は関係なく)
プリントできるプリンタが発表された模様にょ。
http://pc.watch.impress.co.jp/docs/column/mobile/20100630_377654.html
これはある意味画期的なものにょ。
プリンタというのはPCの周辺機器である以上はPCにドライバを組み込んでそれを利用する
ためにドライバが用意されているPCでしか利用できないからね。(プリンタが常時ネットに
繋がったPCと接続されているならばネットワークの共有を使うという方法もあるけど)
これはPCに止まらず、iPhoneやiPadという本来であれば印刷機能を持たない機器でプリント
できるというのが大きなポイントとなるにょ。
制約はあるもののこれは画期的なものといえるかもしれないにょ。
ただ、そこに大きな需要があるのかというと少し考えてしまうにょ。
少なくとも個人(プライベート)用途においては最近はプリンタの使用頻度はかなり
落ちているからにょ。
実際に私自身で考えてみるとプライベートでプリンタを使うというのはデジカメで撮影
した写真のプリントと年賀状印刷で大半を占めるにょ。
多くのユーザーがこれと似たようなものであると思われるにょ。
しかし、それではプリンタを買う意味は半減にょ。
デジカメプリントにしろ年賀状印刷にしろプリンタを買わなくてもお店でやってもらえる
からね。
確かに自分でやった方が安上がり・・・という考えもあるけどデジカメプリントの場合は
一概に安くなるともいえないにょ。
一般的なインクジェットプリンタだとL版印刷にかかるコストは1枚当たりインク代が
10〜15円、用紙代が5〜10円ということでランニングコストは1枚当たり15〜25円となる
わけにょ。
これだとキタムラなどに置いているセルフプリントと大して変わらない金額にょ。
確かにL版プリントではあまりお得ではない(Web上の激安ショップだとL版プリントが1枚
5〜10円という店もあるのでそれを利用すればプリンタを使うよりも安い)のだけど
A4サイズでプリントした場合は自宅でプリンタを使用した場合には用紙代+インク代で
1枚100〜200円で済むためこれはお店で注文するのと比較して半分以下となりお得感は高く
なるにょ。
プリンタを使用する場合には面積に比例して高くなるけどお店でプリントしてもらう場合
一定以上のサイズだと面積あたりの金額は高価になっていくからね。(これはL版が需要が
大きいために薄利多売でやっているせい)
しかし、そんなに大きなサイズのプリントを頻繁に行う人でないとプリンタ本体の元を
取るのは難しいので自宅でプリントできるということに価値を見いだせる人でないと
プリンタを買うというのは無さそうにょ。
それが最近複合機を急増させている理由にもなっていると思うにょ。
プリンタやスキャナは使用用途が限られるけどそれらが1台になれば場所を取らないと
いうだけではなくPCレスでコピー機能等が使えるということが大きいにょ。
このPCレスというのがこのhpが新しく発表したプリンタの最大の特徴となるにょ。
「PCを使ってプリントすれば良い」と考えればこのようなプリンタは生まれないにょ。
また、iPhoneなどで画面で表示できないような特殊形式のものには対応していないため
それならばあまり意味がないと考える人もいるかもしれないにょ。
確かに端末上で表示できるものであればWebストレージに保存していれば他の端末からでも
見れるわけであってそれをわざわざ紙媒体で残す必要もないわけだしね。
この辺はデジタルデバイドも関係しているし、紙媒体の方が良いという場合もあるからね。
デジタルデバイドは簡単には解消できるものではないし、文字閲覧という用途からすれば
依然として紙媒体を越えるものはないにょ。
スマートフォンのような小型液晶では1画面内に表示できる情報量が小さいし、ヒットの
兆しを見せている大型タブレット端末でもドットピッチが大きいため情報量は紙よりも
劣るにょ。
10インチで300ppiクラス(2560x1600)の画面解像度を持ち目に優しい端末が安価で発売
されない限りは紙を越えることはできないにょ。
プリンタのクラウド化はこのように十分有用なものと言えるけどそれならば昨日書いた
ように動画編集もクラウド化すれば良いだけ・・・となるとそうもいかないにょ。
動画をサーバ上で編集するには一旦その生動画をサーバに転送する必要があるからね。
例えば9MbpsのHD動画であれば10分であっても675MBに達するにょ。(YouTubeでもサーバ
上での編集機能を持つけどまずはアップロードを完了しないと何もできない)
現在の通信インフラを考えるとこれは実用的ではないにょ。
したがって、PCレスで動画編集をする場合には端末内で処理する方が適しているにょ。
それと比べるとプリントデータというのは小さいにょ。
しかも、データ量に関して言えば「元データ<<<<プリントイメージデータ」だからね。
プリンタを使用する場合は一旦PC内でプリントイメージを生成してそれをプリントする
わけだけどこれは低速なパラレルポートだとボトルネックになることがあったにょ。
しかし、それが印刷したい元データを転送しプリンタ内でプリントイメージを生成する
というのであればそのボトルネックは発生しないからね。
プリンタのクラウド化というのは通信帯域を考えると理にかなったものといえそうにょ。
すべての小中学生がPCを持ち歩く時代がやってくる!?
東芝とインテルが共同で学校教育用PCを作ったにょ。
ここで学校教育用のコンピュータというと工業高校などで導入されているポケコンを
イメージする人が多いかと思うけどこの「CM1」は何の変哲もないただのWindows PCにょ。
http://pc.watch.impress.co.jp/docs/news/20100701_377929.html
すでに現行の教育指導要領ではPCを使った内容が盛り込まれているとはいえ、現場では
授業にPCを導入しているだけであり、PCを前提にした授業はされてないにょ。
PCを積極的に授業に導入できないのはPCの絶対数が足りないからにょ。
現在、公立の小中学校において最低でも各教室1台のPCとPCルームに1クラス分のPCが設置
されてはいるもののそれではPCがあることを前提とした授業カリキュラムを作りにくく
なっているにょ。
現在30〜40歳の人であれば「21世紀になれば学校ではPCが1人1台導入されるようになる」
と小中学生時代には考えていた人も多くいるのではないかと思うけど実際はそれにはほど
遠いにょ。
2010年4月現在では小中学校の生徒1人当たり0.16台(6人に1台)しかPCがないからね。
これは先進国では下位の方にょ。
しかし、昨年12月22日に総務省は2015年までにすべての小中学校生徒にでデジタル教科書を
配備するということを発表したにょ。
http://blogs.itmedia.co.jp/business20/2009/12/post-3f88.html
2015年といえばアニメ「新世紀エヴァンゲリオン」の設定と同じにょ。
舞台中では1人1台のPCが完備されていたけどそれと同じことが2015年には可能になると
いうことにょ。
しかし、問題は山積みにょ。
まずはデジタル教科書に必要なものとはどんなものなのかということから考えなくては
ならないし、そのための導入コストも考慮しなくてはならないにょ。
デジタル教科書教材協議会(DiTT)がデジタル教科書に必要としている項目は下記の10項目
となっているにょ。(以下10項目はDiTTのサイトより転載)
(1)小学一年生が持ち運べるほど軽く、濡らしても、落としても壊れにくい。
(2)タッチパネル
(3)8ポイントの文字がしっかり読めて、カラー動画と音楽が楽しめる。
(4)無線でインターネットにアクセスできる。
(5)学年別にすべての教科書が収まる。
(6)作文、計算、お絵かき、動画制作、作曲・演奏ができる。
(7)学校でも家庭でも使える。
(8)学校でも家庭でも手に入れやすい価格。
(9)電池が長持ちする。
(10)セキュリティ・プライバシー面で安心して使える。
これを簡単にまとめると軽くて丈夫で安くタッチパネル搭載で長時間駆動の端末という
ことになるにょ。(無線LAN接続必須とはいえ完全クラウド化ではなくローカルに教科書
データを保存可能であることも求められている)
これを見ると特にWindowsある必要はないにょ。
それはOSが問題ではなくそのデータが使えるかどうかというアプリ面の方が重要になる
からにょ。
上記の東芝製の学校教育用PC「CM1」をDiTTが要求している10項目で検討してみるにょ。
△(1)丈夫さは分からないけど重さ1.8kgは小学1年にとっては微妙。
○(2)タッチパネルは搭載されているので問題ない。
○(3)WXGA液晶ため情報量的には問題ない。(ルビを表示するには高解像度が必須)
○(4)無線LANは搭載されているため問題ない。
○(5)160GBのHDDを搭載であるため教科書用としては容量面の心配はない。
○(6)キーボード搭載で文章入力には問題ないしその他の用途は全く問題ない。
○(7)ランドセルに入れて自宅と学校への往復程度なら問題ない。
?(8)価格は非公表であるため評価不能。
△(9)駆動時間は公表されてないもののAtomであるためそれなりには持ちそう。
△(10)セキュリティ面ではWindowsであることがネックだけどStarterではなくProを搭載
これが学校教育用ではなくコンバーチブルタイプのネットブックであれば平凡な機種と
いうことで終わったのだろうけど学校教育用であるためメディアへの露出は多くなるにょ。
今まで様々なPCが試験的に学校に導入されており、その結果は各所で報告されている
からね。
かつてはOrigamiを導入した学校もあったにょ。
Origamiは当時のPCの中では軽くて小さいし、小型PCとしては安価であり、タッチパネルを
搭載ということで学校教育用としては適していたけれどやはり約10万円は高価だったし、
それよりも実駆動で2時間足らずではとても授業には使えないにょ。
全校生徒1人1つの電源コンセントを用意するなんていうのは無理であるため45分×6=
270分(6時間半)は実際に駆動できなければそれを前提とした授業を行うのは無理だと
思うにょ。
実駆動6時間半を実現するにはJEITA測定法では10〜12時間程度が必要になってくるにょ。
これはAtom Nを搭載のPCであれば6セルバッテリを搭載で可能になる数字にょ。
Atom Zならばさらに長時間駆動するとはいえやはりWindows7を使うのであればAtom Nの
方が安くて快適動作が可能になるからね。
では、この東芝のPC「CM1」はいくらくらいの価格になるのかということを考えてみるにょ。
定価ベースで考えるならば普通のネットブックで約6万円、タッチパネルとコンバーチブル
対応のコストが約1万円プラス、OSがStarterではなくProということで約2万円プラスと
仮定すると約9万円となるにょ。
大量導入ということで定価の6割くらいで納品すると考えても5〜6万円にょ。
この金額がユーザー負担になるのはさすがに厳しいので税金で賄うことになるにょ。
現在も義務教育においては教科書は税金で賄われているからね。
こんなコンバーチブルタイプのWindows PCは教科書用途にはオーバースペックと考える人も
いるかもしれないにょ。
最近各社から発表されているタブレット型の端末を使うという方がより良い選択肢とも
考えられるからね。
タブレット型の端末はコンバーチブルタイプよりも軽くなるというメリットがあるにょ。
コンバーチブルタイプだとキーボード搭載で文章入力が楽にできることとスタンド無しで
自立させることができるというのがメリットだけどそれより大きいのは持ち運ぶ際には
液晶を保護できるというメリットにょ。(液晶剥き出しだとハードケースが必須になる)
キーボードなんて大量に文字入力をしなければソフトウェアキーボードでもそれなりに
使えるし、軽ければ手に持って使えるため「起立して教科書を音読する」ということも
可能になるにょ。(コンバーチブルタイプでは重量の問題でそれは無理)
したがって、どちらが良いかというと判断は難しいにょ。
むしろ、教科書に適しているのはlibretto W100のような2つ折りタイプのタブレット型
端末ではないかと私は考えているにょ。
軽くするにはそもそもx86ではなくARMベースのCPUの方が有利なのだけど突き詰めていくと
液晶の消費電力もバカにならないにょ。(5月8日に書いたように消費電力が大きいとより
大容量のバッテリを搭載する必要があるため重くなる)
そうなると液晶の代わりにこのモニタを使うというのもありかもしれないにょ。
http://plusd.itmedia.co.jp/mobile/articles/1007/01/news067.html
小型機器用ということで大画面(10インチクラス)は実用化されてないものの安価に製造
できるようになれば選択肢の1つになりそうにょ。
猶予はあと5年あるためPCはさらに進化していくとはいえ、逆にいえば「たったの5年」
しかないにょ。
確かにここ5年でAtomやWin7の登場でPCは大きく変わったといえ、今後5年(実際は導入
準備期間が必要になるので来年度から進行させていく必要がある)でそれ以上の変革が
あるかというと微妙にょ。
とはいうものの5年後にはすべての小中学生がPCを持ち歩く時代になると考えるとようやく
21世紀になったということが実感できてしまうにょ(笑)
重要なのは見せかけの性能ではなく実効性能
6月25日、30日に書いたようにiPhone 4はカメラ機能が格段に向上したにょ。
http://plusd.itmedia.co.jp/mobile/articles/1007/02/news057.html
これはカタログスペック(画素数)の面ではハイエンドなガラケーには劣っていても実際の
写りを見ればそれらに負けていないという非常に優秀なものにょ。
カタログスペックではなく実効を優先したこのような手法は個人的には好感が持てるにょ。
ただし、その逆もあるにょ。
3GSよりも大幅に電波感度が増した4だけど4は特定の持ち方をすると電波感度が悪くなって
しまうとのユーザー報告が多数現れたにょ。
http://www.itmedia.co.jp/news/articles/1006/25/news052.html
この問題はアップル社でも認めているのだけど特定の持ち方をしなければ良いという
見解となっているにょ。
しかし、外周の金属部分がアンテナになっており、それを触れずに持つなんていうのは
極めて難易度が高いにょ。(というか、もはや「普通の持ち方」ではない)
確かに一般的なケータイでも本体にアンテナが内蔵されている関係上持つ位置によって
微妙に感度が変わるものの剥き出しではないために極端に影響を与えるものではないにょ。
4は3GSと比べてデザインを一新してアンテナを外周に配置したということが裏目に出て
いるわけにょ。
このアンテナ問題は海外では集団訴訟にまで発展したにょ。
http://www.itmedia.co.jp/promobile/articles/1007/02/news020.html
アンテナに関しては設計段階で分かるレベルのものにょ。
実効性能の高いカメラ機能とは異なりアンテナはいくら電波感度が強くてもデザイン優先で
実効感度は低くなっているわけにょ。
これに関しては純正ケースの「バンパー」を使用するという選択肢もあるにょ。
従来型のケースではなく側面保護のバンパーを用意したのはアンテナに直接触れることで
感度が悪くなることを事前に認識していたのではないかと思うにょ。
これはソフトウェアのアップデートで問題無くなるということだけどそれは感度自体を
変えるのではなく単に表示されるアンテナ本数を現状と変えるだけのものにょ。
http://japanese.engadget.com/2010/07/02/iphone-4/
例えるならばPCにおいてWindowsのタスクバーに表示されるバッテリ残量は100%→
66%→33%で表示が変わってくるけどこれが一般的なケータイのように100%→20%→
5%にすれば残量が少なくなってもまだ十分残量があるように見えるからね。
つまり、このソフトウェアのアップデートはアンテナ本数だけで感度低下が分かりにくく
なるというだけのものにょ。
従来のアップル社の自社基準による計算式からAT&Tが推奨する計算式に変えるという
ことで他のケータイとの比較はしやすくなるとはいえ、それは3GSと比べて変えるという
ことになり、事実上、実効感度の低下を隠蔽するのと変わらないといえるにょ。(確かに
アップルの主張通りアンテナ自体の感度が高くなっているのかもしれないけどここで重要
なのは「普通の持ち方」をした場合の実効感度となる)
アンテナ本数が少なくなっても使えないわけないから問題ないというのは分からなくは
ないけど感度向上を謳っている以上はそれが実現されてないと偽りとなってしまうにょ。
画素数が大きく増え「カメラ性能が大幅にアップ!」と謳っていて実際に撮影したら
画素数の少ない前モデルの方が圧倒的に画質が上だったら「謳い文句はウソだった」と
感じる人は多いと思うにょ。
それでも、画素数が増えたから気にならないという人もいるかもしれないにょ。
ただ、感度に関しては唯一の「見える情報」がアンテナ本数だけというのが厄介となって
いるにょ。(カメラの場合は撮影してみればある程度の客観的判断は可能になる)
それ以外は「繋がる」か「繋がらない」かという二択しかないからね。
だから、電波感度が弱かろうと繋がれば不良ではなくなるということにょ。
ただし、「不良品」として交換や返品をする場合にはその場での確認が必要にょ。
ソフトウェアアップデートによって見た目のアンテナ本数の減少はほとんど無くなり
ショップに持っていってもそこで繋がれば従来では使えた場所で使えなくなっても不良
として認めて貰えなくなるにょ。
したがって、このようなソフトウェアのアップデートで隠蔽するやり方は余計に一部
ユーザーの反発を買うことになるにょ。(電波強度の強い場所でしか使ってない人は
このソフトウェアのアップデートによって「4の感度はすごく高い」と錯覚しそう)
これが4は「持ち方によって従来機よりも感度が落ちる場合があります」とか「感度の
低下が気になる方は別売りのバンパーをご使用ください」と事前に告知があったならば
訴訟問題にまで発展しなかったのだろうけど今となってはもう遅いにょ。
個人的には多少感度が低かろうと自分の使用圏内でちゃんと繋がれば問題はないと思う
けれど事実に反するものやあまりに苦しい言い訳やその事態を隠蔽しようとする行為には
あまり感心はできないにょ。
確かに「より良い」と思って作ったものが「結果として悪くなってしまう」ということは
無くもないにょ。
例えばニンテンドー64ソフト「マリオパーティ」においてTVCMで手のひらで3Dスティックを
回しながらプレイする様子を放送したけどそれによって手を痛めてしまうという問題が
出てきたにょ。
その際に「CMでのプレイ方法は間違っている」とプレイ方法を否定するのではなく手を
痛めないように64ユーザー全員に手袋を配布したにょ。
iPhone4もユーザーの持ち方が間違っていると言う前にせめてバンパーの無償配布を
すべきだったにょ。
しかし、これは今となっては手遅れにょ。(訴訟になって損害が大きくなる前に対策を
するという面ではまだ間に合うけど)
訴訟大国アメリカにおいては「謝ったら負け」という考えもあるものの中途半端な誤魔化
しで余計に傷口を大きくするのではなく「謝るべき場所で謝る」ということも重要になって
くるにょ。
iPhone 4はすごく魅力的な製品であるが故にこのような「人によっては些細なこと」で
あってもそれが元で駄目な製品として感じられてしまうようになるからね。
実際、ケータイにおいて「電波問題」を重視する人がコアユーザーには特に多く存在し、
国内でも「iPhoneはソフトバンクだから駄目な機種」と感じている人(キャリアと端末を
別評価できない人)も多いにょ。
特に今回のはキャリアの問題ではなく端末側の問題であるため更に厄介にょ。(というか
国内では端末問題とキャリア問題のダブルパンチになってしまうわけだけど)
2ヶ月半mixiを使ってみて
私は今年の4月からようやくmixiを始めたのだけど先日777ヒットに達したにょ。
mixiを始めた理由は詳しくは4月22日に書いているのだけど要するにここでの文章が
長すぎて読むのが辛いという人のために始めたわけにょ。
基本的にこことmixiの日記は似たようなことを書いているわけだけどmixiの方が半日分
公開が早いことや不必要に長い私の考察や補足がないという分だけmixiの方が読みやすく
なっていると思うにょ。
また、同じ内容(単純に簡略化したもの)ではなくて、まとめ方そのものを変えたり
扱っているもの自体を変えている日もあるにょ。(mixiの方では最近は天使ちゃんに
ついて書いているしね)
こっちはこっち、あっちはあっちで楽しんで貰えると個人的に嬉しく思うにょ。
さて、問題は人の流れにょ。
mixiを始めることでこっちからmixiへ人が移るのか、逆にmixiからこっちに新たな人が
やってくるのかそれとも変化無しなのか、それはmixiを始めた時からの最大のポイント
だったにょ。
個人的には一人でも多くの人に見て貰いたいため招待制のSNSであるmixiはあまり好みでは
無かったし、mixi独自の足跡機能も不用意に閲覧のハードルを高めていると感じているにょ。
mixiでは「読み逃げ」に対して嫌悪感を抱いている人もいるからね。
http://www.itmedia.co.jp/news/articles/0703/20/news042.html
私はコメントを残したいと思えば残すし、残したくないと思えば残さないのでそれを
書き手が強要するような所にはわざわざ行きたくはないにょ。(逆にコメントが書いて
あるとそれに対してのレスは確実にするように心掛けている)
私がmixiを嫌っていた理由はこんな感じだったけど「招待制」に関しては昨年3月より
廃止されて自由登録が可能になったにょ。
これには賛否両論があるけど1人でも多くの人に利用してもらいたいというのであれば
これは良いことだと思うにょ。(例えば友達を作りたくてmixiに加入しようとしても
友達からの招待がないと入れないというのであれば本末転倒)
また、読み逃げ禁止をしている人の日記を見る場合にも足跡を消す機能があるために
それは防げるにょ。
ただし、足跡を消せるのは月に10回までなのでやはり制約は大きいにょ。
もっとも、「コメント必須」などを明記しているような所には二度と行かないため足跡を
消す機能は私は使ったことはないけどね(笑)
しかし、「コメント必須」を掲げているような人だと公開範囲をマイミク限定にして
いるため一見さんからは読むことはできないにょ。
せっかくネット上で全世界へ向けて公開しているのに会員制のSNSの中でのさらに一部の
人向けにしか公開しないのは・・・と思ってしまうけど公開範囲が限定されることで
書けるようなプライベートなこともあるからそれ自体は否定できないにょ。
全体公開、マイミク限定など使い分けることも重要になりそうにょ。
というわけで事前に知っていたmixiの知識だけではなく実際に使ってみて少しは心境の
変化はあったもののやはり私がここではなくmixiの方をメインに据えることは無さそう
と感じるにょ。
もしも、こっちよりもmixiのヒット数の方が多くなれば考え方を改めたと思うけど
現状ではそれは無いからね。
777ヒットに至るまでにかかった日数は72日ということで1日10.8ヒットとなっているにょ。
スタート時はヒット数が1桁だったために単純に日数では割るのも正しくはないけど最近
でも1日10〜14ヒット程度だからね。
ちなみにこっちは最近1週間(7日間)のヒット数だけで1115ヒットとなっているにょ。
これは1日当たりだと159ヒットとなるにょ。
1日に数回アクセスする人がいるのでこれがユニークユーザー数とはいえないけどここまで
mixiの方と差があるのであればこっちは見ていてmixiの方は見ていないという人が相当数
居そうな気がするにょ。
これは「登録が嫌」「足跡が付くのが嫌」と考えている人が多いのではと感じているにょ。
アクセス数の推移を見てみると毎日統計をまとめているわけではないけど大ざっぱに言うと
mixiを始めてからのここのヒット数は減るどころか微増状態にょ。
mixi経由で人が増えたというよりも検索エンジン経由で人が増えたと考えるのが妥当だと
思われるにょ。
現在、mixiの足跡を見ると1日のアクセスにおいて概ね半分がリピーターで半分が新規と
いう感じにょ。
その新規ユーザーがそのまま全員こっちに流れても1日当たり5ヒット程度だからね。
こっちは概ね1日120〜180ヒットであるため5ヒット程度ならば誤差の範疇にょ。
ここもmixiの方も他所での宣伝行為は行ってないために新規閲覧者はリンク経由(mixi
ならばマイミク経由)もしくは検索エンジン経由でたまたま来る人だと思われるにょ。
こことmixiの10倍以上のヒット数の差はパイの大きさの違いと単純には言えず、10年以上
続けているおちゃめくらぶとわずか2ヶ月半のmixiで単純に比較ができないということも
いえそうにょ。(最近は掲示板の雑記がメインということでおちゃめくらぶのトップ
ページのヒット数はピーク時の1日300ヒットから15〜20ヒットへと減っているけどその
反面、掲示板のヒット数は60〜70だったのが今は倍増している)
そういうわけで「mixiで書いても見てくれる人が少ない」と言うのは長期間(ほぼ)毎日
書き続けてようやく言えることなのでまだここでは結論を下すのはやめておくにょ。
コンスタントに書き続けることまた読みたくなるものを書くということが重要だから
それを続けることで結果は後から付いてくると思うにょ。
それ以前に自分が書きたいことを書くということが最も重要となるにょ。
興味がないけどヒット数を伸ばすために書き続けるなんてことは私にはできないからね。
水平撮りの最終兵器
デジタル水準器(ベルボンから発売されている「Action Level」)が近所のキ○ムラで
在庫処分価格となっていたので思わずを買ってみたにょ。
http://www.amazon.co.jp/dp/B0019OQ4UQ/
ちなみに売価3980円からさらに3割引だったので2786円だったにょ。
さて、このデジタル水準器だけど要するに傾き検知をするものにょ。
別に高度なものではなく最近のゲーム機やiPhoneなどに内蔵されているジャイロセンサーの
一種だと思われるにょ。
最近のデジタル一眼だと一部機種にこういったデジタル水準器は内蔵されているものの
私が持っているK200は2年前の機種、D50は5年前の機種ということでそんな機能は内蔵して
いないにょ。
水準器は建物や風景を撮るときに特に便利になるにょ。
風景の場合は意図的に傾けたものでない限りは水平がちゃんと出ているものの方が見た
感じがいいからね。
自分の目では水平にしたつもりでも5度くらい傾いていることは日常茶飯事であるため
このような水準器は便利な存在にょ。
このデジタル水準器は左右に5つ並んだLEDで傾きを知らせるのだけど1番左の赤いLEDが
点灯していれば左に傾き過ぎの状態で2番目の黄色いLEDが点灯していればやや左に傾いた
状態で真ん中の緑のLEDが点灯したら水平になっているにょ。(右の黄色と赤のLEDも
左と同様)
つまり、左右の傾きを微調整しながら真ん中の緑のLEDが点灯するような位置に持って
いけば良いということにょ。
http://ww5.tiki.ne.jp/~ochame/test/Action_Level.jpg
これは横だけではなく縦位置撮影でも働き、縦に構えると自動的に縦の水平が出ているか
ということを検知してくれるにょ。
なおセンサー精度は5段階調整できるため極めて高い水平精度が欲しい場合は最高精度に
設定するといいにょ。
とはいえ、最高精度に設定したら少し手が動いただけでも反応してしまうので水平を維持
するのが難しいレベルだけどね。
またLEDの輝度も5段階に調整できるために屋外でもそれなりの視認性を保てるにょ。
ただ、ここで1つ問題が発生したにょ。
このデジタル水準器はアクセサリーシューに取り付けることで使用するわけだけど水平を
出そうとしたらファインダーから目を離さないといけないということにょ。
ファインダーを覗いてない方の目で確認できないこともないけどさすがに辛いにょ。
ファインダーを覗いてみて水平が出ているかどうかを見るために一旦ファインダーから
目を離したらその時点でカメラが動いてしまい水平で無くなってしまうにょ。
それならば三脚を使えば良いというだけのことだけど所持している三脚にはデジタルでは
ないものの水準器は付いているためこのようなデジタル水準器は不要にょ。
そもそも三脚を使わない状態で水平が出せるのがこのような単体水準器のメリットで
あるため三脚を使わない場所で使わないとその意味は半減してしまうにょ。(水準器が
備わってない三脚を使う場合には役立つけどね)
恐らくこの製品はライブビューでの使用が推奨だと思われるにょ。
デジタル一眼に内蔵されているデジタル水準器機能もライブビューで使うことを前提に
考えられているためライブビュー非搭載でデジタル水準器を内蔵したデジタル一眼は
ないからね。
だから、ライブビューを搭載したデジタル一眼、もしくはアクセサリーシューを搭載の
コンデジでこの製品は真価を発揮できると思うにょ。
ライブビュー機能のないK200DやD50しか持ってない私には使い勝手が良いか悪いかという
ことや実際に手持ち撮影してこの製品の有無によってどの程度の効果があるのかという
レビューはできそうにないにょ。
あとで調べてみたら水平になったら自動的に音が出る上位モデルもあるみたいなので
ライブビューではない機種用だとそちらを買った方が良さそうにょ。
実はこのデジタル水準器で一番驚いたのはボタン電池が「4個付属」していることにょ。
パッケージを開ける前は電池を4個使うのだろうと思っていたら実際に使うのは2個にょ。
しかも、最初から2個内蔵しているため「実質6個付属」しておりパッケージ内に別途
あった4個のボタン電池は「電池交換2回分の予備」として付いているというわけにょ。
普通に考えれば最初の1回分、もしくは予備交換1式程度がせいぜいだろうけど交換用の
予備が2回分ついている製品は初めて見たにょ。
確かにボタン電池は昔と比べて安くなったから金額的には大したことはないのだけど
すごい太っ腹に感じてしまうのは私だけではないと思うにょ(笑)
致命的な問題があっても「仕様です」と言えば解決か・・・?
7月3日にはiPhone 4のアンテナ問題はソフトウェアのアップデートで済ませるということを
書いたにょ。
これは、単に電波強度の表記(アンテナの本数)を変えるというだけであり持ち方によって
大きく電波強度が下がるという問題を解決するものではないにょ。
では、iPhone 4が本当にそこまで持ち方によって変わるのかということはAnandTechによって
調べられたにょ。
http://wiredvision.jp/news/201007/2010070423.html
上記記事から4と3GSの持ち方による電波強度の減衰状況を転載すると下記のような感じに
なっているにょ。
しっかり包み持つ 自然に握る 手のひらにのせる ケースに入れて自然に握る
iPhone 4 24.6 19.8 9.2 7.2
iPhone 3GS 14.3 1.9 0.2 3.2
3GSも持ち方によって落ちるというのは分かるけどここで注目すべきは自然に握った状態で
あっても19.8も落ちているということにょ。
ただし、単位は「%」ではなく「db」にょ。
したがって、10変わると10倍、20変わると100倍変わるにょ。
「db」から「%」へと変えると下記のような感じになるにょ。(最高の状態で100%)
しっかり包み持つ 自然に握る 手のひらにのせる ケースに入れて自然に握る
iPhone 4 0.3% 1% 12% 19%
iPhone 3GS 3.7% 64% 95% 48%
差 10.7倍 61.6倍 7.9倍 2.5倍
自然に握っただけで電波強度が約100分の1になってしまうPhone 4は3GSと比べて61.6倍
という非常に大きな落ち込みとなっているにょ。
とはいえ、それだけの電波強度の差が実用の差として現れるかどうかはまた別問題にょ。
電話機として通話用に使用するならば繋がるか繋がらないかという二者択一だからね。
今まで使えていた場所で使えれば電波強度が落ちても問題視する人はいないにょ。
やはり、問題視する人の絶対数が多いのは通信速度だと思うにょ。
しかし、20db(100分の1)程度の減衰量というのはADSLをイメージすれば大したことは
ないにょ。
HSDPA方式はADSLとは有線、無線という違いもあるし、周波数帯、変調方式の違いが
あり、20dbの減衰量が多いのか少ないのかは実際に確かめてみないと分からないにょ。
実際に所有者が試している動画はYouTubeにたくさんアップロードされているにょ。
例えば下記の動画を見てみるにょ。
http://www.youtube.com/watch?v=lroQsTrAuzM
外周のアンテナに触れないで持つと2.4Mbps出るような場所で使用時もアンテナの問題と
なる付け根部分(デッドスポット)に触れると通信がストップするというのはこの動画を
見れば一目瞭然となっているにょ。(開始2分くらいの場所を見ると分かりやすい)
この場合でも外周を保護するバンパーを付けていれば通信速度は3分の2程度に落ちる
ものの普通に通信は可能となっているにょ。
これは測定する場所によってもかなりの影響があるにょ。
http://www.gizmodo.jp/2010/07/why-apples-iphone-4-update-wont-fix-your-reception-problem.html
100分の1に落ちても元々十分な強度があれば普通に通信が可能にょ。
仮に1つの中継局のアンテナで5kmカバー可能だとするとアンテナから5kmの位置で通信
するのと500mの位置で通信するのとでは単純計算で100倍の差が生じるからね。
だから十分電波強度の強い場所で通信するならば100分の1に減衰したとしてもそれほど
影響は受けないにょ。
そこで最初に書いたアンテナ本数の修正プログラムの出番となるにょ。
従来は電波強度から計算したアンテナ本数よりも多めに表示していたのをそれ相応に
表示し直すことで十分に電波強度の強い場所なのに通信、通話が途切れるという問題点を
解決可能になるにょ。
途切れるような場所は元々それほど電場強度が強い場所ではなかったということだからね。
そういう意味ではこの修正プログラムは案外ユーザーにとっては有用になるにょ。
もっとも、100分の1に減衰するならばまともに使えるエリアは100分の1になるのと同じ
だから単に使えない場所が分かるようになったというだけに過ぎないにょ。(アンテナ
5本立っているのに通信、通話ができないという事態は防げる)
普通に持っただけで100分の1に減衰してしまうという問題点は設計上の問題だからこの
プログラムでは何の解決にもならないためまともに解決するならばもう1度アンテナの
場所から設計のし直しが必要になるにょ。
それならば、バンパーを標準添付品にしてしまうのが最も簡単な解決方法にょ。
バンパー使用時にはAnandTech調査では未使用の3GS比で61.6倍のダウンだったのが2.5倍の
ダウンで済んでいるし、上記の動画でも少し通信速度が落ちる程度で済んでいるのが分かる
と思うにょ。
確かにアップルも「設計問題」なんて認めたくはないと思うにょ。
実際にアンテナそのものの感度はやはり4の方が3GSよりも上ということが上記リンクの
記事にも書いてあり、すべての場合に4が3GSに劣っているとは言えないわけだからね。
アンテナを外周部分に配置していることが受信強度のピーク性能を高めているとはいえ
実際に使用時においては桁違い(AnandTech調査では61.6倍の差)に3GSよりも低くなって
いるのも間違いではなくユーザーからの報告でもその調査を裏付けているためにピーク
性能の違いではなく実効性能で考えなくてはならないにょ。
なぜ、実効性能を無視してピーク性能をとるような設計にしたのか・・・?
それはテストが十分に行えず気が付かなかったのかもしれないにょ。
私がiPhone4の開発現場の様子を妄想したものをゲーム開発に置き換えて書いてみたにょ。
(1)ゲーム開発者A「画期的なゲームを考えた」
(2)ゲーム開発者B「いいじゃん!よし、それでいこう」
(3)ゲーム発売開始
(4)ユーザー「こんなゲームはプレイできねぇよ」
(5)ゲーム開発者A「それはプレイ方法が悪い」
(2)と(3)の間に重要なものがあるにょ。
それは「テストプレイ」にょ。
特にゲームの場合は開発者によるテストプレイだと仕様が分かっているからこそ問題点に
気が付きにくくなるからね。
これは開発者兼テストプレイヤーとなる機会が多い個人制作のゲームに特に多く見ることが
できるにょ。
ゲーム制作においてテストプレイというのは主にバグチェックにょ。
RPGだとひたすら壁にぶつかって進みすり抜けられる箇所がないかどうかをチェックしたり
そういった「一般的ではない」使用法ををすることが多いけどここでは事前に予備知識が
ない人がそのゲームをどのようにプレイするかということが重要になるにょ。
開発者視点では「このゲームは○○を△△すれば簡単にプレイできる」とはいっても
それがユーザー相手に通じる保証はどこにもないにょ。
これが多くのテストプレヤーがテストしていたらユーザーとの認識にギャップがあると
いうことが事前に気づいたのだろうけどね。
iPhone 4においては開発者がテストをする段階では外部流出を防ぐため少数精鋭で行った
と想像できるけどその際には全員が右手に持って通話・通信をしていたため例のデッド
スポットに触ることは無かったから気が付かなかったと思われるにょ。
いや、発売前には気づいていたかもしれないにょ。
ただし、その頃にはアンテナの設計変更が間に合わないレベル(ゲームでいえばマスター
アップ直前)まで来ていたと思われるにょ。
それは従来のケースとはとは異なるデザインであるバンパーを用意しているから想像が
できるにょ。
設計の段階では最も感度が高くなるように外周に設置するという手法は間違いではないにょ。
だから正確に言えば「設計ミス」ではないにょ。
しかし、恐らくテストプレイ不足のため開発者の使用方法こそが普通の使用方法と剥離して
いると思われるのにユーザーの使用方法が間違っていると言ってしまうのは正しいことだ
とは思えないにょ。
ユーザーとしては従来の方法でプレイしようとするわけだからね。
仮にユーザーの使用方法(プレイ方法)が仮に間違いだとするにょ。
その場合でも普通に使用した際に4と3GSの電波強度の差は61.6倍になっていたのがなるべく
外周に触れずに持った場合は7.9倍に縮まるというだけにょ。
「持ち方によって改善が可能」というアップルの主張に間違いはないのだけど持ち方を
変えても依然として7.9倍3GSの方が有利となり「改善」ではなく「最悪の事態が防げる」
というだけに過ぎないにょ。
確かに特定の方法以外の進め方をしたらゲームが途中から先に進めなくなったり、セーブ
データが消えたりするというゲームはどんな形であれそれを回避できる方法さえあれば
致命的な問題であっても「仕様です」で済ませることができるにょ。(もしくは「こちら
では確認されていません」という場合もある)
それを考えれば3GSより61.6倍も感度が劣るのは「仕様です」で済ませるということは
いくらでも可能にょ。(実際コンシューマゲームの場合は絶対にクリア不能なゲームで
なければどれだけプレイ続行が困難なゲームでも基本的に回収や交換になることはない)
ただし、iPhone 4がそんな致命的な問題があるゲームと同次元の争いになってしまうと
いうのは果たして良いことなのか・・・?
SIMロック解除は本当にユーザーにとってメリットなのか・・・?
ドコモが来年の4月から全端末SIMロック解除にする模様にょ。
http://plusd.itmedia.co.jp/mobile/articles/1007/06/news054.html
SIMロックに関してはかかってない方が良いと単純に考える人も多いと思うけど実際はSIM
ロックがあることによるメリットを現状で受けているということに気が付いてないだけ
だからね。
「出来て当たり前のことが出来なくなる可能性もある」ということにょ。
さて、ここで問題となるSIMロックに関してだけど実際はドコモとソフトバンク以外は
蚊帳の外の状態にょ。
というのもイーモバは周波数帯が異なるため現状のイーモバ端末SIMフリーになった
ところでドコモやソフトバンクのSIMカードを挿しても使用できないし、auに関しては
そもそも通信方式自体が異なるために使用不可能にょ。
したがって、SIMロック解除というと好きな端末で好きなキャリアを選べるように考えて
いる人がいるかもしれないけど実際はソフトバンクの端末をドコモで使用(もしくはその
逆)しか行えないにょ。
全面SIMロック解除(SIMフリー)にするユーザーにとってのメリットはこれだけしかない
けれどデメリットは以下のようなものがあるにょ。
《 SIMロック解除のデメリット 》
(1)キャリア独自のサービスが利用できなくなる
(2)端末代金の価格高騰
(3)ユーザーの混乱を招く
(1)は、キャリアメールを使用したり、フルブラウザではなく標準ブラウザを使用する
場合に著しく制限が加わるということにょ。
標準ブラウザを使用した有料コンテンツの利用には端末側の認証があってようやく使用が
可能になるけどこれはキャリアが代金回収を代行しているのが理由にょ。
コンテンツプロバイダはキャリアと契約することで料金を回収できているわけにょ。
したがって、その端末に他のキャリアのSIMを挿した状態では使用できなくする必要が
ある(=SIMロックをかける必要がある)ということにょ。
またキャリアメールもそれと同様にょ。
キャリアメールのメールサーバの維持費はユーザーの基本料金から賄われているにょ。
したがって、他のキャリアのSIMカードを挿した状態では使用ができないにょ。
それに、メールアドレスそのものもキャリアと紐付けされているためソフトバンクの
端末でドコモのSIMカードを挿した場合、メールアドレスはdocomo.ne.jpしか使えない
けれど端末側がsoftbank.ne.jpしか使えないためキャリアメールは使用不可になるにょ。
これが容易に解決できるのであればMNPが始まった段階で解決できている問題にょ。
(2)は端末代金というのはインセンティブ(販売報奨金)によって価格が抑えられている
というのが大きいからにょ。
それによってかつては新機種でさえ2〜3万円で購入が可能な状態にあったにょ。
1端末当たりのインセの平均額は4万円程度と言われているけどそれを考えると端末を
普通に購入すれば当時でさえ6〜7万円になっていたということにょ。
その4万円というのはどこで回収するのかというとユーザー負担になるにょ。
概ね2年間かけて回収していくように計算されているけどこれはすべてのユーザーを対象に
行われているにょ。
頻繁に機種変更する人と長期使用する人が同じように基本料金から目に見えないインセ分を
支払っているというのは不公平であるということで総務省は端末価格と通話料を分離する
ように指示をしたにょ。
そして、近年はケータイは分割払いで購入するということが当たり前になったにょ。
かつては型落ち端末は1円とかになっていたけどこの方式の導入によって1円ケータイは
ほぼ全滅したにょ。
それならば今はインセが無くなったかというとそうではないにょ。
単に明らかに見えるような形ではなくなったというだけに過ぎないにょ。
ソフトバンクのスーパーボーナスやWILLCOMのW-VALUE SELECTのように端末代と割賦金を
明確にしているようなキャリアだけではないから依然として価格はインセが含まれた
ものになっているにょ。
ソフトバンクもしくはWILLCOMで端末を割り引き無しで一括購入した場合にはほぼインセが
含まれない価格といえそうだけどそうでもないにょ。
そもそも、ソフトバンク端末であれば「Yahooボタン」を付けることで端末開発補助金が
キャリアから端末メーカーに対して出ているわけだからね。
それを何らかの形で回収する必要があるにょ。
したがって、SIMロック解除を望む人はソフトバンクもしくはWILLCOMの一括払いの価格と
同等もしくはそれ以上の価格になるということをまずは認識しておかないといけないにょ。
また、将来的に複数のキャリアで使い回しができるような端末が出来た場合にはその分の
価格がさらに端末価格に上乗せされてしまうにょ。
ただし、この場合は端末が他キャリアで使い回しができるから量産効果で安くなるから
単純に他キャリアで使える分だけ高価になるとは言えないけど少なくとも現状のSIMロックが
かかった状態よりは端末価格が上昇するのは100%確実にょ。
(3)は過渡期においては特に問題となるにょ。
全キャリアが一斉に既存端末を含めてSIMロックが解除されるのであれば問題はないのだけど
そんなことはまずあり得ないからね。
キャリアによっての実施時期の差もあるし、キャリア内でもSIMロック解除対応の端末
(デフォでSIMフリーにするのか、何らかの手続きを必要とするのかは現時点ではまだ
不透明な状態)だけではなくそうでないものも平行して販売されるからね。
だから、SIMロック解除とは何なのか、どの端末が対応しているのかということを誰でも
分かる形で提示しておく必要があるにょ。
恐らくユーザーの大半はSIMロックというのもまともに理解してないだろうし、SIMロックが
無ければ「キャリアが自由に選べる」というレベルの認識しかない人であれば通信方式や
周波数帯の違いでauやイーモバは選択できず、事実上ドコモとソフトバンクしか選べない
ということも知らないのではないかと思うにょ。
したがって、販売する場合にはドコモショップでは「ソフトバンクのSIMカード対応」と
明確に提示する必要があるし、ソフトバンクショップではその逆を行う必要があるにょ。
auショップでは「他のSIMカードは使えない」ということを提示する必要があるにょ。
さらに問題となるのはサポートにょ。
ソフトバンク端末でドコモのSIMカードを使って通信、通話が出来なくなった場合には
どこがサポートしてくれるのかということが非常に重要となるにょ。
現在は端末とキャリアがセットであるためその心配は無用だけどSIMロックが解除されて
他のキャリアのSIMカードが自由に使えたら問題が発生するにょ。
「SIMカードを差し替えたらサポート対象外です」なんてことになったらSIMロック解除
なんて建前だけのものになってしまうからね。
本来ならばサポートすべきはドコモでもソフトバンクでもなく端末メーカーにょ。
シャープの端末であればシャープがサポートすべき問題にょ。
それを行うのは端末メーカーの負担が増えさらなる端末コストの上昇を招いてしまうにょ。
現在SIMロック解除に積極的になっているドコモだけど3年前はSIMロック解除には否定的
だったにょ。
http://plusd.itmedia.co.jp/mobile/articles/0702/02/news108.html
これが今では積極的になったのはスマートフォンのヒットが挙げられるにょ。
スマートフォンはキャリア独自のサービスに頼っている部分が少ないからね。
仮にキャリアを移動しても使えない機能というのは限られるためユーザーにとっても
デメリットは小さいにょ。
特にスマートフォンといえばiPhoneの存在が大きいにょ。
「スマートフォン利用動向調査報告書2010」においてiPhoneのシェアは46%となっている
くらいにょ。
http://www.impressrd.jp/news/091210/smartphone2010
ソフトバンクのシェアが2割程度であり、その中のわずか1端末(前モデルとの合算たから
正確には2端末になるけど)で全キャリアの46%のシェアを獲得しているということは
いかにすごい状態かが分かるにょ。
ユーザーアンケートでもauやドコモのユーザーの過半数が契約キャリアからiPhoneが出たら
買うと答えているくらいにょ。
http://www.itmedia.co.jp/promobile/articles/1002/26/news038.html
言い換えればiPhoneが他キャリアで使えるようになればその過半数はキャリア変更される
可能性があるということにょ。
実際キャリア移動可能なのはソフトバンク→ドコモだけであり、SIMロックが解除される
ことで100万契約以上がソフトバンクからドコモへと流れることを意味するにょ。
通信網が弱くほとんど端末人気だけで契約数を増やしているソフトバンクにとっては
SIMロック解除は非常に大きな問題となるにょ。
実際、孫社長もiPadにSIMロックをかけている理由に関して「他社に戦いの武器は渡せない」
とコメントしているにょ。
http://www.itmedia.co.jp/news/articles/1005/14/news036.html
これはスマートフォンがポピュラーになればなるほど有利に働くドコモとは対照的になって
いるにょ。
これが総務省がSIMロック解除のガイドラインとして「各社の自主的な取り組みに任せる」
と記したにも関わらずドコモが積極的でソフトバンクが消極的な理由になっているにょ。
ドコモはSIMロック解除に積極的であり、蚊帳の外であるイーモバとauは大きく否定する
理由もないためそういう状況になればSIMロック解除をするだろうけどそうなった時に
ソフトバンクだけは「ウチはSIMロック解除をしません」なんて出来るはずもなく必然的に
SIMロック解除の方に進行していくと思われるにょ。
つまり、ドコモが動き出した時点で事実上ソフトバンクがSIMロック解除を迫られたという
ことになるわけにょ。
確かに、一部ユーザーが待望していた国内向けiPhoneでドコモのSIMカードが使えるという
ことが行えるようになるのは時間の問題であり、これは該当するユーザーにとっては
大きなメリットといってもいいけどそうでない人にとって現状においてSIMロック解除は
上記のようにソフトバンクの端末をドコモのSIMカードで使える(もしくはその逆)しか
ないにも関わらずデメリットの方は非常に多くなっているにょ。
少なくとも現状においてSIMロック解除はイメージしているほど良いものではないにょ。
しかし、将来的には変わるにょ。
次世代通信方式であるLTEはauも採用を決定しているわけなので4キャリアがすべて同じ
通信方式を採用するために真の意味での自由なキャリア選びが可能になるにょ。
複数のキャリアのサービスに対応したも端末が登場する可能性も十分に考えられるにょ。
つまり、海外と同じくキャリアではなく端末メーカー主導になっていくことでSIMロック
解除のメリットがようやく出てくるというわけにょ。
そうなると力(資本力、開発力)のない端末メーカーは淘汰されてしまうにょ。
実際将来を見越して富士通と東芝は携帯電話事業を統合したくらいだからね。
http://www.itmedia.co.jp/news/articles/1006/17/news037.html
少ないパイで多くの端末メーカーが存在していた日本においてはキャリアの力無くして
新端末を投入するのは難しかったけれど今後はより大きなシェアを獲得するためには
スマートフォンに力を入れ海外市場も狙っていく必要があるわけにょ。
1機種当たりの販売台数が増えれば1台当たりの開発コストも軽減されるためそれは価格
低下に影響するにょ。
SIMロック解除は短期的に見ると価格の高騰を招いてしまうけどそれは長期的に見ると
必ずしもそうとはいえないということにょ。
ただし、「実質負担金」というまやかしに慣れてしまった人にとっては将来的にも現在
より価格を抑えるのは難しいけどね。
現時点ではSIMロック解除はぶっちゃけ「iPhoneがドコモで使える」というくらいしか
メリットしかなくデメリットの方が大きいけれどそれは将来的にはデメリットは徐々に
失われていくために問題はないにょ。
あとは、キャリアと端末メーカーのがんばり次第にょ。
CULVノートは旧製品の方がお買い得・・・?
Alienware M11xがCalpellaプラットフォームにリフレッシュしたにょ。
http://pc.watch.impress.co.jp/docs/column/gpl/20100706_378811.html
M11xはCULVノートにGeForce GT335Mを搭載という高性能なGPUを搭載しているのが特徴と
なっているにょ。
このGT335MはVAIO Zに搭載の330Mの1ランク上のモデルであり、このクラスのノートPCと
しては極めて高い3D性能を持っているにょ。
今回はGPUはそのままでプラットフォームが一新されたにょ。
それにより、CPUも従来のPenrynベースのものからArrandaleベースのものになったにょ。
CULVというのはIntelが従来はモバイルノート向けに高価に販売していた超低電圧版(ULV)
CPUを特定条件を満たすことで格安で提供し、それによって低価格の薄型、小型ノートPCを
可能にしたものにょ。
Atom搭載のネットブックと用途が被っているけど性能面は2〜4倍の性能を持つために
Atomでは性能面で物足りない層に人気が高いにょ。
CULVノート用のCPUというのは主に下記のようなラインナップになっているにょ。(CULV用
としては高価なものやシングルコアモデルや明らかに価格レンジがダブっていると推測
されたものは省いた)
これを見ての通り、PenrynベースのものからArrandaleベースのものへと現在移行中という
わけにょ。
すでにArrandaleベースのCULVノートは多くのメーカーから発表されているにょ。
《 PenrynベースのCULVノート用のCPU 》
クロック L2 TDP
Core2Duo SU9600 1.6GHz 3MB 10W
Core2Duo SU9400 1.4GHz 3MB 10W
Core2Duo SU7300 1.3GHz 3MB 10W ← 旧M11xに採用
Pentium SU4100 1.3GHz 2MB 10W
Celeron SU2300 1.2GHz 1MB 10W
《 ArrandaleベースのCULVノート用のCPU 》
クロック TB時クロック HTT L3 GPU TDP
Core i5-540UM 1.2GHz 2.13GHz あり 3MB 内蔵 18W
Core i5-430UM 1.2GHz 1.73GHz あり 3MB 内蔵 18W
Core i3-330UM 1.2GHz 無し あり 3MB 内蔵 18W ← 新M11xに採用
Pentium U5400 1.2GHz 無し 無し 3MB 内蔵 18W
Celeron U3400 1.06GHz 無し 無し 2MB 内蔵 18W
同じCULVノート用のCPUでもPenrynベースとArrandaleベースでは大きく変わっているにょ。
まずはGPUを含むノースブリッジ機能をCPUと同一パッケージ上に収めた(パッケージ内に
別々にダイが存在するため「統合した」とは言い難い)というわけでTDPは従来の10Wから
18Wへと上がっているもののこれはノースブリッジ分のTDPがそのまま加算されただけで
あるためプラットフォーム全体からすると上がっているわけではないにょ。
あと異なるのはPenrynベースの方はクロック以外はL2の違いしか無かったのだけど
Arrandaleベースの方はクロック以外にTBの有無とHTTの有無が存在するにょ。
TBはシングルスレッドアプリ(マルチスレッド非対応アプリ)で有用、HTTはマルチ
スレッド対応アプリで有用ということで両方あるのが望ましいけどそれは上位モデルに
限られるにょ。
つまり、Penrynベースの時よりも上下の性能差は大きくなっているということになるにょ。
そういうわけで、それぞれのベンチ結果を見てみるにょ。
ベンチ結果の中からCPUの影響力の大きなものだけをピックアップしてみたにょ。
PCMark 05 新M11x 旧M11x
CPU 3299 3114 5.9%アップ
PCMark Vantage
TV and Movies 2155 2020 6.7%アップ
Gaming 2055 2503 17.9%ダウン
Music 2783 3311 16.0%ダウン
Communicatons 2451 2652 7.6%ダウン
Productivity 2476 2285 8.4%アップ
こうやって見ると同じランクに位置するPenrynベースのCULVとArrandaleベースのCULV
だけど必ずしも新しい方が性能向上しているとはいえないことが分かるにょ。
むしろ、劣っている面の方が多いくらいだからね。
これは、PCMark05のCPUスコアがCPUの演算性能のみを測定してしたのに対してVantageの
方はより総合ベンチとしての役割が強くなっており、HDD性能等を考慮した測定結果が
出ているからにょ。
HDD性能を見ると新M11xの方が28%も性能が低くなっており、これがそれぞれのスコアを
大きく下げる要因となっているにょ。
HDDの影響力をあまり受けないTV and Movies(動画再生)とProductivity(テキスト編集)
だけは実際にアップしているわけだからね。
そういうことでCPU性能だけを見ると実性能で概ね6〜8%アップといったところにょ。
クロックが1.3GHzから1.2GHzに下がってなおかつ実性能が上がっているのはやはり
アーキテクチャ変更によるものにょ。
あとHTT対応も大きいけどこの結果を見る限りはHTTの影響力はAtomほどは大きくない
と感じるにょ。
AtomのHTTはその有無により実性能で20%程度(ベンチならば最大6割程度)の差が生じる
からね。
この1機種のベンチ結果でArrandaleベースのCULVノートはPenrynベースのCULVノートと
大差はないと断言することはできないけどやはりクロックダウンした分をアーキテクチャで
埋めるのが精一杯で大幅な性能向上は期待できそうにないにょ。(逆に言えばHTTがない
U3400はSU2300を上回る性能になるとは思えないためSU2300の方が高速になる場合が多い
と推測される)
やはり、HTTとTBの両方が備わったCore i5以上のものを選択してようやくPenrynベースの
ものよりクロック低下分を跳ね返して明確な性能アップになると思われるのだけどその場合
CULV用としては上位となるため価格的なメリットは少なくなってしまうにょ。
というわけでCULVノートは新旧の性能差があまりないために5月26日に書いたように新製品
と旧製品と比べて旧製品の方が安ければ旧製品を買うというのはありだと思うにょ。
Arrandaleに内蔵のGPUはGS45に内蔵されたGMA X4500Mよりも高性能だし、メモリもDDR3に
対応しているということで将来的に8GBへと増やしたい人は有利になるからCPU以外の面を
考慮するとまた難しくなるけどね。
TX1は早くも2モデル型落ちか・・・
TX9が発表されたにょ。
http://dc.watch.impress.co.jp/docs/news/20100708_379038.html
私が昨年末に買ったTX1はこれで2モデル型落ちとなってしまったにょ。
まぁTX1を買ったのは後継機種であるTX7が出る直前だったし、年2回のモデルチェンジを
しているため半年あまりで2モデル型落ちになるのは想定されたことだけどね。
さて、問題はこのTX9がTX7と比べて何が変わったのかということにょ。
TX7はTX1と比べて広角に対応(逆に言えば望遠が弱くなった)、フルHD動画に対応、
SDHC対応(ファームウェアアップグレードでSDXCに対応)という変化があったけどTX9は
TX7と比べて主に3つの変化があるにょ。
(1)新開発の1220万画素裏面照射CMOSセンサー搭載
(2)スイングパノラマ機能が3Dに対応
(3)背景ぼかしモード機能を追加
(1)に関しては画素数が1000万から1200万に増えた意味ははあまりないにょ。
しかし、裏面照射センサーというのはまだ熟成されたセンサーではないため新開発の
センサーが搭載されるというのはかなり大きいにょ。
現行の裏面照射センサーは確かに高感度ノイズが少ないというメリットはあるものの
日中屋外でノイズが発生し、それにより解像力の大幅な低下があったり、色再現性に
難があったりするからね。
それらは画像処理エンジンで改善されつつあるけど本質的にはセンサー側の問題である
ために大きな改善は難しいにょ。
また、裏面照射センサーはその6月25日にも書いたように構造上一般的なCMOSセンサーと
比べて面積効率で有利になるからね。
一般的なCMOSセンサーだと画素数が増えれば配線数も増え1画素当たりの面積は画素数の
増加分とは反比例ではなくそれを大きく下回るためにトータルでは受光量が減ってしまい
画素数が増えても高画質には繋がらないのだけど配線の影響を受けない裏面照射センサー
であれば画素数が増えてもトータルでの受光量が減らず画素数増加の恩恵を得ることが
できるにょ。(ただし、レンズの方がボトルネックになるため画素数増加の効果はあまり
期待できない)
(2)はTX9の一番のウリとなっている機能にょ。
3D写真が撮れるデジカメ「FinePix READ 3D W1」が昨年富士フイルムから発売されたけれど
単眼式では世界初の3Dとのことにょ。
3D写真は左右の視差で立体視することで実現しているのだけど単眼だとそれはできない
からね。
ではどうやるのかというと従来のソニーのデジカメに搭載されているスイングパノラマ
機能を使って実現しているにょ。
スイングパノラマ機能はカメラを構えて回転させながら撮影することでパノラマ撮影が
できるというモードにょ。
従来であれば少しずつずらしながら撮影した複数の写真をいくつか合成することによって
得ることができたパノラマ写真をカメラ本体でリアルタイムで生成するということで
お手軽パノラマ機能として重宝しているにょ。
3D写真が撮れるデジカメはREAD 3D W1が初めてだけど立体視写真であればそれよりも前に
撮れる機種はあったにょ。
私が持っている初代Optio S(2003年発売)でも3D写真モードを備えているからね。
これはどうやって実現しているのかというと要するに超基本的な立体カメラの原理である
2台並べて撮影と同じく1枚の写真で2回撮影し1回目の写真と少しずらした位置で2回目の
撮影をすることでその視差によって立体視写真を実現しているものにょ。
Optio Sでは交差法、平行法の両方をサポートしているものの問題はその「ずらす」という
のはカンが便りになる(上下ずれが起きたらうまく立体視されないためグリッド表示を
活用して上下にずれないようになおかつ左右視差が撮影距離に応じた適切な量ずらしていく
必要がある)ということできれいに立体視できる写真を撮影するというのは簡単なもの
ではなかったにょ。
しかし、このTX9の3Dスイングパノラマ機能ではカメラを回転する(左右に振る)ことで
撮影の最初と最後では視差が発生することを利用しそれにより3D写真を実現しているにょ。
これはOptio Sで行っていたことがすべてカメラ任せで実現できるというだけにょ。
とはいえ、カンに頼っていたものがオートで出来るようになったというのは大きいにょ。
しかも、鑑賞する人が交差法をマスターしておく必要があるのに対してMPO形式の3D写真
フォーマットで撮影できるためそれに対応したフォトフレームであれば3Dで鑑賞することが
できると思われるにょ。(ソニー独自の形式で保存している可能性もあるけど)
そういう点ではREAD 3D W1と同等といえるにょ。(視点数からいえば15視点であるため
2視点であるREAD 3D W1を越えるものになる)
単眼であればREAD 3D W1のように2つのレンズユニットとセンサーを使う必要がないため
コスト削減に大きく役立つにょ。
それに左右視差を利用するために二眼式だと左右サイズを一定以下に小さくできないけど
単眼であればその制約もないからね。
しかし、スイングパノラマモードでしか3D写真が撮れないという非常に大きな制約がある
ためあくまで簡易的な機能であることは否めないにょ。
二眼式であればすべてのモードで3D写真が撮れるし、動画も3Dで撮れるからね。
だから、単眼式で必要以上に「3D」をアピールすると購入後にユーザーをがっかりさせる
ことになりかねないにょ。
(3)は非常に興味深い機能にょ。
デジタル一眼がコンデジに比べてアドバンテージとなっているのは画質もだけどやはり
絞りのコントロールが大きいにょ。
ボケの大きさはレンズの換算焦点距離ではなく実焦点距離が影響するためセンサーサイズが
小さいコンデジの場合は実焦点距離が短くなるためボケを生かした写真を撮ることは非常に
難しいにょ。(逆に言えば誰が撮ってもピンぼけになりにくいというのはメリットになる
場合があるけど)
ハードウェアの面でうまくぼかせないならばソフト的に行うという選択肢もあるにょ。
すでに背景ぼかし機能はオリンパスから発売されたSP-590UZに搭載されているからね。
http://plusd.itmedia.co.jp/lifestyle/articles/0902/05/news074.html
これはあらかじめ指定された枠内に被写体を入れておくことでそれから外れた部分は
ぼけるというものだけど上記リンク先の画像を等倍(800x600ピクセル)で見ての通り、
非常に不自然なものとなっているにょ。
これは輪郭抽出のアルゴリズムに問題点があるのと背景に距離情報がないためにガウス
ぼかしのように均一アルゴリズムでぼかしているのが理由にょ。
TX9では高速なCMOSセンサーということを有効活用して距離情報だけの写真を別途撮影し
それを合成することで背景ぼかしを実現しているとのことだけどそれでSP-590UZと比べて
どれだけ自然なものになるのかというのは非常に楽しみでもあるにょ。
画像合成といえば手持ち夜景モードのように高感度ノイズを大幅に減らしたり、HDR
(ダイナミックレンジ拡大)によって暗所潰れや白飛びを軽減したりという大きな
成果を上げているけどそれと同じくらい使えるものであれば歓迎したいところにょ。
SP-590UZとあまり変わらないレベルであれば要らないけどね(笑)
このTX9はレビューが楽しみにょ。
これだけ進化しているならばTX1からの買い換えも検討したいけど予算的に難しいから
さすがに無理にょ。
私のデジカメの買い換え周期は2〜4年であるためTX1にはあと2、3年頑張ってもらうにょ。
CULVノートは「買い」ではない!?
一時期は大ブレイクをしたネットブックだけどある程度の売れ一般層に普及するにしたがい
ネットブックに搭載のAtomでは不満を覚える人が多くなった(YouTubeのHD動画がまともに
再生できないなど)というのとWSVGAという解像度も一般的なノートPCよりも低く不満に
思う人も多くなったにょ。
これは低価格を実現するためにはやむを得ないことだけど安かろう悪かろうでは意味がない
からね。
もっとも、それで「十分」と感じている人にとっては「あえてネットブックを買う」と
いうことはお金の節約の面で有用にょ。
ただし、PCに詳しくない一般人の場合は「安くても最新のものだから高性能なのだろう」
と感じるだろうし、そういう買い方であれば恐らく買った後で「こんなはずではなかった
のに・・・」と感じることになると思われるにょ。
そういう意味ではCULVノートの意味は大きいにょ。
何せネットブック用のAtom N450と比べても2〜3倍程度の性能があるからね。
価格差を考えるとこの性能差は非常に大きいためCULVノートが登場することによってネット
ブックを購入することが馬鹿らしくなる感じにょ。
そんなCULVノートはネットブックの代替としてバカ売れしているのかと思いきやここ最近
売れ行きがあまり芳しくない模様にょ。
http://trendy.nikkeibp.co.jp/article/column/20100628/1032222/
安価なセレロンSU2300モデルであってもネットブックより1〜2万円高価とはいえ、ネット
ブックの2〜3倍のCPU性能があり、HD動画の再生支援機能もあり、画面解像度もネット
ブックの主流であるWSVGAではなくWXGAであるためどう考えてもCULVノートの方がお得感
という観点では上であるためもう少し売れても良さそうなものにょ。
それには下記の3つの理由が考えられそうにょ。
(1)PCの買い換えは壊れた時に行う
(2)使いたいソフト、周辺機器が使えなくなった時に買い換える
(3)CULVノートが中途半端な存在になってしまった
(1)はPCマニアではなければ当然のことにょ。
他の電化製品で考えてみれば分かるけど壊れずに使えているのにわざわざ新しいものに
買い換える人はいないからね。
仮にネットブックを買ってからCULVノートに買い換えるとなるとわずか1〜2年で買い換え
となり、これは一般人ではあり得ないものにょ。
いくらネットブックが安いからといってそんなに壊れるものでもないし、ネットブックに
CULVノートの金額を合算すればそれなりの金額になってしまうためネットブックが動作
するならばそちらを使うという人が多くいると思うにょ。(お買い得だから買い換える
なんてしていたらお金がいくらあっても足りないどころか結果的には高く付く)
(2)一般人はPCが壊れたら買い換えるとはいえ、それ以外の需要もあるにょ。
それはPCでやりたいことが出来なくなったときにょ。
使いたいアプリ、周辺機器が手元にあるWin95(Win98)搭載のPCで使えなくなった場合に
やむを得ずXP搭載のPCを買ったという人は多くいると思われるにょ。
ネットブックの多くはXPであり、CULVノートは基本的にWin7であるためXPには対応せず
7なら対応というアプリ、機器が多く出てきたら買い換えに繋がるのだろうけど現状で
そんなものはほとんどないからね。
XP以前のOS(98、Me)搭載のPCからであれば十分買い換え需要があるとはいえ、XPが登場
してもう9年経つため多くの人はすでにXPへと買い換えを済ませていると思われるにょ。
ネットブックではYouTubeのHD動画がまともに再生できないという問題もそのために安く
見積もっても4〜5万円のCULVノートを買うという理由にはならないにょ。(ネットブック
だけに限らず初期のXP搭載ノートであればHD動画はまともに再生できないけどそれでも
360pや480pならば再生できるためHD動画のためだけに買い換えられるという人は少ない)
HD動画再生支援機能を持たないネットブックであっても一旦ローカルに保存して軽快に
動作する動画プレイヤー(MPCなど)で再生した場合には720pまではスムーズに再生
できるとはいえ、そこまでして再生する人はすでに一般人のレベルを超えているにょ。
(3)は少々厄介な問題にょ。
ネットブックは登場当初は軽量コンパクトで多くの貧乏モバイラーに受け入れられたにょ。
ただし、そのネットブックも大型化が進んでしまいどんどんモバイル用途には向かなく
なってきてしまったにょ。
CULVノートはその大型化されたネットブックより一回り大型であり、大型化した分だけ
重量も増しているにょ。
高価なモバイルノートにおいては少しでも薄型化や軽量化をするためにコストをかけて
いるのだけど低コストでそこそこの性能を実現したCULVノートにおいてはそれは難しい
からね。
そうなると軽量化にはバッテリ容量を減らすしか方法はないにょ。
ただし、それを行うと駆動時間の短縮に直結するにょ。
ネットブックも当初は重量優先の3〜4セルバッテリ搭載モデルと駆動時間優先の6セル
バッテリ搭載モデルがあり、大型化で重量が増したためにバッテリ容量を削り6セル
バッテリを搭載の機種はほとんどなくなったのだけどPineViewによって駆動時間が延びた
ために4セルでも実用レベルの実駆動時間(4〜6時間)を確保可能になったにょ。
でも、CULVノートはそうはいかないにょ。
従来は6セルバッテリ主流だったのが4セルバッテリが主流になりつつあるけどこれは
ネットブックがDiamondville→PineViewで平均消費電力の大幅な低減が可能になったのに
対してPenryn→Arrandaleでは平均消費電力の低減どころか逆に微増状態であるために
プラットフォーム変更でバッテリセル容量を減らすという行為は単純に駆動時間短縮で
しかなくなったにょ。
家庭内モバイルがメインでバッテリ駆動時間を気にしない人であればいいけどそれならば
そもそもCULVノートが適しているとは言い難いにょ。
同程度の金額で光学ドライブを搭載のオールインワンノートが買えてしまうからね。
性能面でもULVではなく通常版のCPUを搭載のオールインワンノートノートは廉価なもので
あってもセレロンSU2300搭載のCULVノートより1.5〜2倍も高性能にょ。
その代わり1kg程度重くなるけど家庭内モバイルであればほとんど問題ないにょ。
4月18日にも書いたようにCULVノートより一回り小型、軽量であるネットブックでさえ
持ち歩いている人は少ないくらいだからね。
それならばCULVノートをモバイルメインとして買う人は限られて当然にょ。
CULVノートをモバイル用として買う人というのは予算面から通常のモバイルノートは
買えず、1kg台半ばという重量まで許容できる人であり、性能面でネットブックには不満が
あるという人に限られてしまうにょ。
確かにそれに合う人であればCULVノートは良い選択肢となるものの全体的にみればそれは
ごく一部であるためCULVノートの売れ行きが大したことはないのではないと思われるにょ。
ネットブックが売れた背景には「小型・軽量」というメリットだけではなくWindows PCと
して「絶対的な安さ」があったからね。
しかし、CULVノートにはそれがないにょ。
ネットブックに対しては性能面の大きなアドバンテージがあるもののそれを目的として
CULVノートを買うというのはある程度PCに詳しい人だけに限られるにょ。
そして、コアなモバイラーになると駆動時間や重量の面で今度はCULVノートは選択外に
なってしまいかねないにょ。
CULVノートを軽くしようとしても上記のようにバッテリ容量を減らしてしまえば駆動時間が
減ってしまうわけだしコストをかけて軽量化してしまえば価格アップに繋がるためこれも
良い選択肢とはいえないにょ。
あくまでCULVノートは「それに合うユーザーにとってはベスト」というだけに過ぎない
からね。
しかし、Arrandaleの次世代となるSandy Bridge世代になると現行よりも省電力になる
と予測されるためバッテリ駆動時間にプラスに働きそうにょ。
そして、XPに非対応のアプリ、機器が増えることで7への需要が高まりネットブックを
買ったユーザーの買い換え需要も拡大されると思われるにょ。
ただし、iPadに始まった大型タブレット端末のブーム(今でもまだ私自身本当にiPadでは
なく大型タブレット端末がブームになったかは疑問視しているけど)によって次世代の
CULVノートではなくそういったタブレット端末の方にユーザーが移ってしまう可能性も
否定できないにょ。
CULVノートが軽量かつ安価になってしまえば、今のものより魅力になるけどモバイル
ノートを作っているメーカーとしては自社製品が喰われてしまう危険性があるからね。
差別化のためそれを作らないという選択肢があり、それによって「CULVノートは中途半端」
というイメージが深く根付いてしまうにょ。(WXGA液晶、B5用紙サイズ、1kg以下で
実駆動8時間程度のCULVノートが5万円程度で発売されたら私はぜひ欲しい)
というか、そもそもユーザーには「ネットブック」ほど「CULVノート」なんて名称は
根付いてなく単なるネットブックより高性能だけど高価な小型ノートPCというイメージ
しかないだろうからね。
ユーザーにとって価格に似合うだけのものがあると感じればそれは売れるだろうし、
そうでなければ売れないというだけにょ。
ケータイをコンデジ代わりに使うならばHD動画は必須か・・・
5月19日にはケータイのカメラ機能とコンデジとの比較においてコンデジのアドバンテージが
5つあるということを書いたにょ。
(1)画質で有利
(2)(ほぼすべての機種が)光学ズームを搭載している
(3)フラッシュを搭載している
(4)(ほとんどの機種が)光学式手ぶれ補正機能を搭載
(5)レスポンスが良い
この中で(1)の画質だけど「高画素=高画質」ではないことはここで幾度も書いた通りにょ。
PCで鑑賞をするならば1000万画素は必要ではなく200〜300万画素で十分だからね。
それならば昨今のケータイであればほとんど問題ないとはいえ、PC画面で全画面表示して
不満を感じるならばそれは十分ではないということにょ。(昨今のコンデジならばフルHDの
モニタに全画面表示を行いそれで不満を感じるような機種は皆無)
しかし、問題があるとすれば動画の方にょ。
XGAモニタでもVGA動画の全画面鑑賞では拡大補間の影響が大きいけど720pのHD動画であれば
十分キレイに見えるにょ。
昨今はノートPCでも事実上WXGAが最低ラインであるためやはり720p以上であることが
望ましいと私は思うにょ。
これが静止画では300万画素くらいに相当すると思うにょ。(720pだと92万画素だけど
静止画の場合は静止している関係上細部まではっきり見えてしまうためベイヤー配列
ということを考慮してその3倍は欲しいため)
6月30日に書いたようにコンデジにおいてはエントリーモデルを除きほとんどの機種に搭載
されているHD動画撮影機能だけどケータイにおいてはまだ一部の機種に止まるにょ。
http://camera.itmedia.co.jp/dc/articles/1007/06/news030.html
このレビューを見て「意外に良く撮れる」と思うか「まだまだ物足りない」と思うかは
意見が分かれるだろうけどHD動画撮影機能は現状ではほとんどコストアップにならなく
なってきているため(H.264エンコーダを内蔵する場合、SD対応とHD対応ではほとんど
価格差はない)HD対応によるデメリットはないと思うにょ。
ただ、上記レビュー見ての通り現状では720pがベストな選択肢だと思われるにょ。
無理に1080p(フルHD)に対応していても720pよりも解像感が増しているとは言えない
わけだし、フレームレートが低ければそちらの方がかえって気になるからね。
720pであってもWXGAまでのモニタであればドットバイドットで表示できるし、再生に
必要なPCのスペックも低くなるしね。(ULV PenM以上であれば再生可能)
昔だったらWebで公開用ならばQVGAやQQVGA(160x120)で動画撮影できる機種がベター
だったにょ。
私が持っているXacti HD2は1ボタンでHD(720p)とSD(VGA、QVGA)の切り替えができる
ために720pとQVGAの撮影を交互に行うことも簡単にできてしまうにょ。
これは購入当初は非常に良い機能だと思ったけどしばらくしてこの機能は使うことが
無くなったにょ。
すべての動画をHDで撮るようになったからね。
YouTubeで公開する場合にはHDでアップロードしても見る人の環境で解像度が選択できる
ためにHDで撮影したから鑑賞が無駄に重いということもないにょ。(これがアップロード
した解像度しか選択できないのであればVGA以下で撮影することも考慮が必要だけど)
ちょっとした動画メモだからQVGAで十分という人もいるかと思うけどやはりそれでは
後から見てもう少し高解像度で撮れば良かったと思う場合もあるからね。
画像メモだからということで1000万画素対応のデジカメをVGAモードで撮影する人も
今となっては皆無だと思うにょ。(無加工でWebで使うならばVGAモードでもありだけど)
確かに高解像度で撮影すると記録容量も増えるというデメリットがあるもののそれは
十分な量のSDカードを使うことで解決可能にょ。
720pであれば高ビットレート(9Mbps)で撮影しても16GBで4時間弱撮影できるわけだから
Motion JPEGのVGA動画と同程度の時間が撮影できるにょ。
したがって、高解像度で撮影すると多くの容量が必要というわけではなく動画形式の方が
重要であることが分かるにょ。(標準の6Mbpsだと720pでも6時間撮影できるわけだしね)
それにXacti HD2のように1ボタンでSD、HD切り替えが可能であっても結局HDで撮ってしまう
ということを考えるとメニューから撮影解像度を選択するような機種では普段使っている
解像度以外のものを使うことはほとんどないと思うにょ。
容量を節約で撮影の度に解像度変更するなんていうのは実際に行う人はほどんどないために
iPhone 4でも動画の撮影解像度は720pだけになったのだと思うにょ。
コンデジにおいてはほとんどの機種にHD動画撮影機能が搭載されているためにHD動画が
付いていないことがマイナス要素になることがあってもついていることがプラス要素に
なることは今となってはほとんど無くなっているにょ。
だから、HD動画といっても「720pかそれともフルHDか」「保存形式は何か」「撮影中の
光学ズームが可能か」ということがプラス要素になってくるにょ。
しかし、ケータイの動画撮影可能な機種は現時点ではまだ一部にとどまっているにょ。
「ケータイがあるからコンデジは要らない」という人であればやはりケータイはHD動画
撮影が可能なものを選択したいところにょ。
「ケータイのカメラなんて300万画素も要らん。100万画素でもお釣りが来る」というような
人であればHD動画は不要だろうけどね。
三脚をモバイルする
写真を撮るならば三脚の重要性は非常に高いけど私はあまり三脚を使わない方にょ。
暗所撮影も可能な限りは手持ちで行っているわけだからね。
とはいえ、全く使わないというわけではなく部屋の中には5、6脚の三脚があるにょ。
メイン SLIK U7700
サブ SOLID KP-1700
モバイル KINGポケット三脚(型番不明)
残りの2、3脚は部屋の中に埋まっているにょ(笑)
三脚に限らずあまり使わないものは私の部屋では埋まってしまうというのは珍しいこと
ではないにょ。
したがって、必要な時に改めて買うことが多いにょ。
もっともそういうのがあるから安物しか買ってないけどね。
上記3脚のうちメインとなるのは三脚が必要とあらかじめ分かっている撮影用にょ。
サブはレンズ一式を大型のカメラバッグに入れて持ち歩く場合にそのバッグに収まる
程度のサイズの三脚も入れているというだけにょ。(三脚が必須でない場合でも念のため
持ち歩いている程度)
あとは、室内の小物撮影でもこの三脚は役に立っているにょ。(レンズ一式を持ち出す
ことは滅多にないためこっちの方がメイン用途)
モバイル用のは旅行やちょっとした撮影用でデジタル一眼(+レンズ1本)を単体で持ち
歩く際に持ち歩いているものにょ。
このポケット三脚はデジタル一眼で使用することを考慮されてないけれど意外に安定性が
高いため(足の開く角度が調整出来るので開くことで安定性がアップする)それなりには
使える品にょ。
それに足を最大限に開けば地面すれすれにできるため超ローアングルでも使えるしね。
さて、ここで問題となるのは私は普段からデジタル一眼を持ち歩いているというわけでは
ないということにょ。
基本的にデジタル一眼はモバイルランクでいえばランクD相当であるため必要な時(撮影
したいものがある時)のみ持ち出しており、普段からは持ち歩いてはいないにょ。
ランクC不在のデジカメにおいて私が普段から持ち歩いているのはランクBのTX1のみと
なっているにょ。
そうなると三脚選びも少々考えてしまうにょ。
上記のモバイル用三脚として設定しているKINGポケット三脚もTX1であれば余裕で使える
とはいえ、そのサイズは大きすぎるにょ。
私は普段から三脚をあまり使わない方なのにわざわざカメラ本体よりも嵩張るような
三脚を持ち歩きたくないにょ。(TX1が薄型軽量であるため一般的なポケット三脚では
三脚の方が嵩張ってしまう)
そういうわけで以前100円ショップでポケット三脚を購入したにょ。
この三脚はそれなりに小型なのはいいけどやはり100円という安価なせいか作りが雑で
小型軽量なTX1を乗せただけで安定性があまり良いものではないにょ。
それでも使えないわけではないレベルだったけど致命的に感じたのは自由雲台ではなく
角度調整はストッパーによるものだったということにょ。
ストッパー式であるため一定の角度(約15度)ごとしかアングルを変えることができない
というものにょ。
上記の安定性の無さもこのストッパー式であることが理由となっていてストッパーによって
角度調整しているため雲台の遊び部分が非常に大きいせいにょ。
そもそもなぜ三脚が必要なのかということを考えなくてはならないにょ。
私が三脚を使うのは手持ち撮影が不能な超スローシャッター(1/4秒より長いもの)を
使用時に限られるにょ。
安定させるだけならば地面に直に置けばいいにょ。
それだとあまりにローアングルで地面ばかりが映ってしまうにょ。
ポケット三脚程度の高さで良いのであればブロックでも何でもその辺にあるものを利用
すればいくらでも何とかなるにょ。
しかし、角度を微調整するというのはその辺にあるものを利用して簡単にできるという
ものではないにょ。
その角度の微調整がどの程度重要なのかを具体的な数字を挙げて書いてみるにょ。
一般的なコンデジの広角側(換算35mm)で10m離れた被写体を撮影すると仮定するにょ。
35mm相当のレンズの垂直画角は約38度であるため10m離れた被写体は上下6.5mの範囲を
写すことができるにょ。
ここで15度単位でしか角度調整できない場合であれば10m離れた被写体で2.6mも変わって
しまうにょ。
6.5mの被写体に対して2.6mというのは人間が被写体であれば全身がファインダー内に
収まっている状態から1段階角度を調整しただけで胸から上が一気にファインダーの外に
外れてしまうレベルにょ。
これならば「角度調整は全く出来ないけど安定性が高いもの」の方が三脚としては使い
勝手がよほど良くなるにょ。
つまり、安定度は最低レベルであり、角度の微調整ができないという時点でいくら小型
軽量であっても持ち歩くには値しないものになってしまうにょ。
その辺にあるものを利用するのも大変なことがあるため無いよりはマシとはいえ、あまり
使わない(使えない)ということを考えれば嵩張りすぎるという難点があるにょ。
いくら小さくてもあくまで一般的なポケット三脚よりも小さいというレベルでしかない
からね。
利便性とサイズを天秤にかけて結局「三脚は持ち歩かない」という選択をしたにょ。
しかし、気になるポケット三脚もないわけではないにょ。
その気になっていたポケット三脚をカメラ店の店頭で見かけたので買ってみたにょ。
http://www.etsumi.co.jp/catalogue/spec.cgi?id=E-2079
ちなみに近所のキ○ムラでは480円で売っていたにょ。
エツミから発売されているこの「Keypod」は軽量コンパクトというのがウリとなって
いるにょ。
このサイズであればあまり使い物にならなくても邪魔にならないからいつも持ち歩いて
いて損はなさそうと感じたからにょ。
http://ww5.tiki.ne.jp/~ochame/test/tripod.jpg
上記写真の上からKINGポケット三脚、100円ショップの三脚、そして今回かったエツミの
Keypodとなっているにょ。(比べればいかに小さいかが分かる)
それでは早速使ってみたにょ。
これがコンパクトサイズとしては驚くほど安定性に優れているにょ。
雲台も100円ショップのポケット三脚のようにストッパー式ではなく自由雲台となっている
ために上下方向に関しては無段階調整可能にょ。
ネジをきつく締めればTX1の重量であれば全く問題ないにょ。(三脚の足の1つが雲台を
固定するためのネジとなっている)
そうなると欲が出てきてしまうにょ。
一体どこまで耐えられるかということを実験してみたにょ。
幸いにして部屋の中にはコンデジがたくさん転がっているからね。
結果としては公称耐荷重は300gとなっているものの手元のコンデジの最重量である公称
390gのCoolpix990までは耐えることができたにょ。
http://ww5.tiki.ne.jp/~ochame/test/keypod.jpg
しかもこのCoolpix990は仕様上は390gとなっているけどこれはメディアとバッテリを
含まない重量にょ。
メディアはCFだし、バッテリは単三電池4本ということで運用時の重量は軽く500gを
越えてしまうという超重量級のコンデジにょ。(卓上秤では実測550gだった)
この重量に耐えられるのであれば耐えられないコンデジはないにょ。
とはいえ、Coolpix990を乗せた状態ではさすがにギリギリ倒れないというレベルであり
超スローシャッターではぶれてしまいそうだけどね。
重量的にはCoolpix990で耐えられるのであればOlympusのPENやPanasonic GF1やSONYの
NEXのように軽量ミラーレスカメラ+標準ズームくらいならば使えそうだけど三脚が小型
であるということが原因で三脚穴が重心にないカメラでは重量的には大丈夫でも使える
というわけではないにょ。
私の手元にあるデジタル一眼であるK200Dで試してみたところレンズを付けた状態であれば
重心が前にありすぎるために簡単に倒れてしまったにょ。
そういうことを考えるとNEXのように小型軽量なものでもレンズ装着時には重心が変わる
ために厳しそうにょ。
とはいえ、公称である300gまでのコンデジならばそこそこ安定しそうな感じにょ。
コンデジの場合はレンズ交換ができないために三脚穴は重心に付けられることが多いわけ
だからね。
Coolpix990もほぼ重心に三脚穴がある(上記写真では重心からかなり外れているような
感じるかもしれないけど大型グリップ部分に単三電池を4本収納しているためこの位置で
ほぼ重心となっている)お陰でKeypodで何とか使える状態にあるにょ。
もっともデザイン優先の薄型、小型のコンデジの場合は重心なんて考えれない機種も多い
けど300gより圧倒的に軽量であれば多少重心から外れても問題はないので大丈夫にょ。
実際私のTX1も三脚穴は重心にはなく構えた状態でかなり左側に重心があるからね。
そういうわけでこのKeypodは非常にコンパクトサイズな割りにはそれなりに使える製品
といえるにょ。
だから、いつもコンデジを持ち歩いており、三脚の使用頻度は低いけど常備したいという
人にはお勧めの製品にょ。
私も普段は三脚を使わない主義なので別に三脚は無くてもいいと考えてはいるもののいざ
という時にはあった方が助かるからね。
その保険程度であればこのサイズは非常に魅力となるにょ。
iPhone 4 正規SIMフリー
iPhone 4 32GB正規SIMフリー
deedeegsm.com/tkxcgi/shop/shop_index.cgi
BlackBerry Bold 9000 SIMフリー日本語対応。
BlackBerry Bold 9700 SIMフリー日本語対応
BlackBerry Storm SIMフリー日本語対応共にあります。
iPhone 3GS 16GB, 32GB 正規SIM フリー あります。
iphone 4 正規SIMフリー7月入荷予定!ご予約受付中!
iPad 16/32/64GB Wi-Fi 3G 正規SIMフリー版取り扱い中!
http://www.deedeegsm.com/tkxcgi/shop/shop_index.cgi
YouTubeが4Kに対応する必要は本当にあるのか・・・?
6月30日に書いたようにYouTubeがHDに対応したことによってHD動画撮影機能を搭載した
コンデジやカムコーダの普及が加速したにょ。
(1)動画を作る環境
(2)動画を見る環境
(3)動画を公開する環境
この3つのどれか1つが欠けてもスムーズな普及は難しいにょ。
(1)の作る環境というのはもちろん動画撮影機能を持つ機器を示すにょ。
TV番組などがソースであればあれば録画機器もこれに含めるにょ。
「作る」と書いたもののゼロから作るというわけではなく要はデジタル保存環境にょ。
90年代にはすでにあったHDビデオカメラだけど当時は業務用で何百万円もしていたにょ。
HDでなければデジタルビデオカメラそのものはすでに90年代末期には10万円を切るまで
安くなったもののDV形式をPCで扱うためにはハードルが高かったにょ。
昨今はコンデジでさえ720pもしくは1080p(フルHD)の動画撮影機能を持っている機種が
大半であるためこの作る環境というのは十分に普及期に達していると思われるにょ。
7月11日に書いたようにケータイでさえHD動画撮影機能を搭載した機種が出始めており
価格下落によって実現が可能になったために将来的には今のコンデジと同じくHD動画が
撮れるのはケータイにおいても「当たり前の機能」(ローエンド以外の機種に標準搭載
される機能)になると思われるにょ。
(2)の見る環境はPCでいえば再生に必要なスペックや液晶モニタの解像度を示すにょ。
720pのHD動画を再生するためにはローカルに保存したものを軽量プレイヤーで再生すると
してもULV PenMもしくはAtom搭載のネットブッククラスの性能は必要になるにょ。
フルHDであればULVであればデュアルコアが必須となるにょ。
4月26日にはCoreSolo1.2GHzでYouTubeのフルHD動画が再生可能と書いたもののこれは
限界まで軽量という条件を組み合わせてようやくギリギリ再生できるというものであり
これをもって「普通に再生できる」とは言い難いにょ。
ローカルに保存せずWebブラウザ上のFlashプレイヤーで直接再生する場合にはそれより
さらに高いスペックが必要になるにょ。
Flash10.1からはGPUによる再生支援機能に対応したためCPU性能はそれほど多くは必要に
ならなくなったとはいえ再生支援が効かない機種であれば720pでさえCoreDuo以上が
必要になるにょ。(ピーク時のビットレートが高くない動画であればPenM2GHzくらいでも
コマ落ちなく再生できるけど)
フルHDであればCore2Duo 2〜2.5GHzくらいが必要にょ。
今となってはハイスペックではなくなったもののモバイルノートであれば再生支援機能が
ないと現在もなお厳しいレベルにょ。
あとPCのスペックだけではなく表示環境(液晶解像度)も重要にょ。
WSVGAのネットブックで仮にフルHDの動画がコマ落ち無く再生できたとしてそれでは720pの
動画と有為的な差はないからね。
その動画に似合った解像度のモニタがあって初めて役立つにょ。
とはいえ、720pの動画ならばWXGAのモニタ、フルHDの動画ならばフルHDのモニタがあれば
十分であり、現時点ではそれほどハードルが高いものではないにょ。
モバイルノートでさえ今となってはWXGAが当たり前(Atom機以外でWXGAに満たないものは
XGAのLet'snote Rくらい)だし、フルHDのモニタも1万円台から購入が可能になっている
からね。
アナログ放送終了に向けてTVの買い換えが急速に進んでおり家庭用のHDTVの普及率も
かなり高くなっているにょ。
HDに対応しているのはPC用のモニタだけではないということにょ。
これにより、HDビデオカメラやHD動画撮影機能を搭載したデジカメで撮影した動画も
大画面TVで気軽に鑑賞できるようになったにょ。
(3)は動画の普及という面では大きいにょ。
昔だったら自分の撮った動画を他人に見せる場合には機材を持ち寄ってどこかの家で
鑑賞会を開く必要があったにょ。
友人同士であればこれでいいけど不特定多数に見せる場合は鑑賞会の会場を確保すると
いうのは金銭的な負担も大きいしそれを見に来る人というのも限られたにょ。
しかし、これはインターネットとブロードバンドによって変わったにょ。
インターネットであれば世界中の不特定多数の人に向けて公開が可能であり、ブロード
バンド普及によって鑑賞側のハードルがかなり緩和されたにょ。
そんな中登場したのがYouTubeをはじめとする動画共有サイトにょ。
動画共有サイトというとTV番組を録画したものを公開する違法サイトとしてネガティブな
イメージを持つ人も中にはいるかもしれないけど不特定多数の人に自分の動画を簡単に
公開できるようにしてくれた功績は大きいにょ。
従来であれば公開する人はサーバをレンタルしてそこにアップロードする必要があり
鑑賞する人はそのファイルを一旦ローカルに落とした後にその動画が再生可能な
プレイヤーで再生するという必要があったにょ。
これはPCに慣れた人ならば他愛もないことだけどアーカイブファイルの解凍さえまともに
できない人も中にはいるわけだからね。
それにWindowsであれば基本的にどんな動画でも再生できるけどMacやLinuxでは再生が
難しいという形式の動画もあり公開する側はどんなコーデックを用いるかということで
頭を悩ます必要があったにょ。
動画を身近にしたインターネットビューカムやその技術を使ったeggyは動画撮影の
楽しさを教えてくれたけど映像MPEG4、音声G.726というasf形式の動画はデフォで再生
可能な環境というのは存在せず、再生するためにはG.726コーデックのインストールは
必須であり必ずしも万人向けではなかったにょ。
様々なコーデック、形式の動画のうちWebで公開するならばどれがベストかというのを
考えていたらいつの間にかFlash動画がデファクトスタンダードになっていたにょ。
やはり、見る側の環境を選ばず再生ボタンを押すだけで再生可能になるというのが
大きいと思うにょ。
YouTubeが登場した当時はQVGAだったし、ブロックノイズもひどくて「所詮はWeb動画」
と思っていたけどそれはエンコーダの改善で大きく変わり、H.263コーデックによる
FLVからH.264コーデックによるMP4に変わり同一ビットレートにおける画質も大きく
改善されたにょ。
HQ(fmt=18、H.264、MP4)に対応してからはYouTubeが低画質という認識も薄れたけれど
やはりそれよりもインパクトが大きかったのは一昨年9月のHD対応にょ。
Web動画でありながらPCの全画面表示でもそれほどアラのない画質だったからね。
すでに国内サイトではzoommeがHDに対応していたけどこちらは(当時は)ビットレートの
制限によって720pではブロックノイズが出まくるため1024x576が実用限界だったにょ。
それと比べればYouTubeの720pは圧倒的にキレイだったにょ。(昨年zoomeのビットレート
制限が緩和されHDでも十分高画質で公開可能になった)
そして昨年11月にフルHDに対応し、誰もが気軽にHD動画を公開可能な環境が整ったにょ。
このように今はフルHDの動画でも撮影、公開、閲覧のハードルはかなり低くなったわけだし
720pであれば気軽に可能になったといえるにょ。
しかし、この度YouTubeは4K映像に対応したにょ。
http://av.watch.impress.co.jp/docs/news/20100712_380168.html
フルHDのハードルはかなり低くなったとはいえ、4K(4096x2304)というのは別次元の
ものにょ。
上記(1)〜(3)のうち(3)の一部だけを満たすにすぎないからね。
なぜ一部だけかというとフルHDよりもビットレートが大幅に高くなっているせいにょ。
ブロードバンド回線であれば720p(約2.3Mbps)であればリアルタイム鑑賞は容易に可能
だけど回線速度の関係上4K動画をリアルタイム鑑賞するにはFTTHのような高速ブロード
バンドが必須になるからね。
日本ではFTTHの普及率は高いものの世界的に見ればまだ普及しているとは言い難いにょ。
さらに(1)、(2)においては現時点では絶望的にょ。
(1)に関しては4K映像が撮影できる機器なんて現時点では業務用の中でもハイエンドな
モデルに限られるにょ。
業務用は現時点ではまだフルHDが主流だからね。
現時点では数100万円する4Kカメラだけど個人レベルで購入可能となると20〜30万円程度
まで価格を下落、普及させようとするならば10万円を切ることが重要だし、当たり前と
いうならば2、3万円のデジカメに導入される必要があるにょ。
フルHDの下落を考えると個人の手の届くレベルまで来るまでまだ5、6年はかかりそう
だし、普及までは10年近くかかりそうにょ。
当たり前のレベルに来るまではあと10数年はかかるにょ。
今となっては3万円クラスのコンデジにも搭載されているHD動画だけどビデオカメラ
として普及し始めてからは5年程度しか経ってないにょ。
発売時の実売価格で20万円を切ったHRD-HC1が登場したのが今から5年前だからね。
その5年前には数100万円していたようなものがわずか数年で驚くほど価格下落をしたのは
やはり需要もあったからと思われるにょ。
32インチのTVでもはっきり分かるくらいSDとHDの差は大きかったからね。
4Kのアドバンテージを生かすには30〜40インチでは全然足らないため家庭用に50〜60
インチの大型TVが普及するかプロジェクタが普及しない限りはフルHDからの大きな買い換え
需要は期待できないにょ。
スーパーハイビジョン放送に合わせた買い換えは期待できるけど実験放送が2015年から
本放送が2025年からの予定となっており本格的な普及は10数年後になるにょ。
(2)の再生環境に関しては上記のようにここ数年以内にはTVでは期待できないもののPCで
あれば需要があればどんどん高解像化されるためにTVよりも早い段階で4Kに対応が進むと
思われるにょ。
現時点ではフルHDを越えるものというと需要が少ないので圧倒的に高価になるものの
2560x1600のモニタも普通に入手可能だからね。
しかし、PC用のモニタとなると30インチを越えるものは普及するとは言い難いにょ。
30インチ4096x2304のモニタであれば156ppiに達するにょ。
人間の目の分解能の問題で1フィートで300ppiが使用限界であるため156ppiならば
2フィートが限界となるにょ。
しかし、限界値のドットピッチでは長時間の使用は厳しいにょ。
長時間使用が前提であるならばその8割程度(120ppi)となると30インチであれば3072x1728
程度が適切といえるにょ。
4096x2304という解像度を優先するならば40インチくらいが必要だけどさすがにそれは
使用環境を選んでしまうためPC用モニタとして普及は難しいにょ。
確かにVista以降は解像度の考え方も大きく変わったにょ。
XPであればアプリとの関係上高解像度すぎたらかえって使いづらかったけどVistaでは
dpiの調整が可能になったため高解像度であることのデメリットはかなり薄れたにょ。
したがって、解像度が高ければ高い方が良いという考えもあるにょ。
IBMも22.2インチでありながら3840x2400という超高解像度モニタを製造したにょ。
http://www-06.ibm.com/systems/jp/x/monitor/t221/
204ppiに達するために2フィートの距離からではドットが認識できないレベルにょ。
これはあくまで業務用だけどこのクラスのものが普及してくれば4K映像の再生できる
という意味がようやく出てくるにょ。
現在のフルHDのモニタで4K映像を再生してもWSVGAのネットブックでフルHDの動画を再生
するくらい無意味なことだからね。
4K映像を再生するならばPCのスペックも圧倒的に高い性能が要求されるにょ。
フルHDでCore2Duo 2〜2.5GHzならば単純にその4倍の解像度で4倍の性能が必要と考えた
場合にはCore2Duo 8〜10GHz相当の性能が必要になるからね。
とはいえ、Flashのマルチスレッド対応が進んでいるし、CPUもマルチコア化しているため
コア数が今よりも増えればそれよりずっと低いクロックのCPUでも再生可能にょ。
それに今はフルHDまでしか対応していないGPU内蔵の動画再生支援機能もその頃には4Kに
対応するだろうからPCのスペック側の問題はモニタの問題よりは低いと思われるにょ。
ということで、現時点では4K映像に対応しても720pやフルHD対応の時のようにユーザーに
とっては大きなメリットはないにょ。
それを享受できるのはごく一部の人に限られるからね。
CoreAVCがver2.0で4Kに対応したためにハイエンド自作機であればPC側のスペックは
何とかなるとしてもモニタに関しては個人で調達するのは難しいにょ。(IBMの22.2
インチ超高解像度モニタも中古であれば39800円くらいで売られていたりするけど)
これは時間が解決してくれる問題にょ。
スーパーハイビジョンの本放送が開始されれば4K対応のモニタの価格下落は急速に進む
だろうからね。
その頃にはPCのスペックも上がっているので再生のハードルは今よりもずっと低くなって
いると思うにょ。
したがって、今は意味があるとはあまり思えないYouTubeの4K対応だけど将来的には確実に
有用になってくるにょ。
しかし、4Kが身近になるのは10数年後の話だろうけどね。
大雨
大雨で山口県でも避難してるけど大丈夫かな?
http://liv0.com
Win2Kが終了したら次はXPの番か・・・
本日(米国時間で7月13日)ついにWindows2000のサポートが完全に終了するにょ。
http://www.itmedia.co.jp/news/articles/1007/13/news073.html
6月18日にはMS-Officeのサポート期間について書いたけどWindowsに関しては下記のように
なっているにょ。
メインストリームサポート終了日 延長サポート終了日
Win2K 2005年6月30日 2010年7月13日
WinXP 2009年4月14日 2014年4月 8日
Vista 2012年4月10日 2017年4月11日 ※Home、ultimateは延長サポートなし
Win7 2015年1月13日 2020年1月14日 ※Starter、Home、ultimateは
延長サポートなし
メインストリームサポートを終了した場合にはサポートはオンラインサポートのみと
なり、新機能は追加されずセキュリティの更新のみとなるにょ。
延長サポートが終了すればそれさえも無くなるにょ。
サポートが終了したらOSが使えなくなる・・・というわけではないけどセキュリティの更新
終了によってネットの利用は危険性が高くなるにょ。
それにサポート終了したOS用にはアプリ、周辺機器も対応がされなくなってしまうにょ。
サポート期間が終了したからといってすぐに対応が終了するというわけではなく終了が
近づいたら徐々に対象から外されてしまうため新しいアプリ、機器を使うのが困難になる
というだけの話にょ。
実際2Kはウイルスバスター2007までしか対応していないしね。(2007のサポートはすでに
終了しており2Kで使えるセキュリティソフトの選択肢はかなり狭まっている)
対応しているものを選択すれば良いというだけの話になるけどメインとしては使えなくなり
これは事実上の終了といってもいいにょ。
さて、そうなると現在2Kを使っている人はXPもしくはそれ以降のOSに乗り換えが必要に
なってくるにょ。
XPならば2014年まで使えるので予算が無ければ1万円以下で買える安い中古PenMノート
(OS付き)を買うのがベターにょ。
VistaならばXPより長く使えるからお得か・・・というとそうとも限らず現時点では
Home BasicやHome Premiumに関してはXPのサポート終了よりも早い2012年となっている
ためにもしもVista搭載PCを中古などで買う場合はBussinesを搭載モデルにすべきにょ。
私は2Kのメインストリームサポートが終了した2005年より徐々に手元のPCのXP化を進めて
いき普段使っている5台のPCに関してはすべてXPになっているにょ。(下記5台以外にも
予備機があるけどそれにはWin2Kや98を搭載したものもある)
スペック(CPU、メモリ、GPU) 主要用途
自作PC Core2Duo3GHz 4GB RADEON HD4850 ゲーム、エンコなどの重作業用
FMV-7130MG PenM1.3GHz 1.5GB 855GM TV録画用
FMV-S8305 PenM1.73GHz 2GB 915GM ネットなど軽作業用
Let'snote R5 CoreSolo1.2GHz 1.5GB 945GMS モバイル&自宅サブ用
VAIO UX90S CoreSolo1.2GHz 0.5GB 945GMS モバイルサブ用
XPはまだ4年弱延長サポート期間が残っているとはいえここにも問題があるにょ。
2Kと同じくXP SP2もサポートが終了してしまうからにょ。
2014年までサポートされるのはXP SP3なのでまだSP3へとアップデートしてない人はすぐに
アップデートする必要があるにょ。
普段使用のPCのXP化は昨年1月にVAIO UXを購入して完了したとはいえ、そろそろ次を
考える必要があるにょ。
XPへの移行も2005年に開始して終了したのが2009年だったからね。
終わる頃になったら買い換えれば良い・・・といっても台数が多いしそれは難しいにょ。
したがって、徐々に買い換える必要があるにょ。
その際にVistaか7かとなるけど今更Vistaを選ぶ理由はないため7がベストにょ。(Vista
初期の安い中古PCを買うというのもありだけど上記のようにBussinesを搭載機でないと
XPよりもサポート期間が短い上に初期のVista機はXP中期〜末期のモデルと比べて体感速度で
不利になる)
もっとも、OSだけ7にするという方法も無くはないにょ。
その際に問題となるのは7の動作状況にょ。
7への対応度
自作PC ・・・・・ ◎ 性能面では十分問題なし
FMV-7130MG ・・・ × GPUが動作環境を満たせず
FMV-S8305 ・・・・??× 同 上
Let'snote R5 ・・ ○ 一応動作環境は満たすもののメーカーの正式対応はなし
VAIO UX90S ・・・ × メモリが動作環境を満たせず
こうしてみると自作PCはすぐに7を導入しても問題なく使えるし、R5は恐らくVista用の
ドライバで動くと思うけどそれ以外は7の機能が十分に使えなかったり、満足いく速度で
動作しなかったりというものばかりにょ。
ガマンして7を導入して使うという方法もあるけどあと4年弱あるので徐々に買い換えていく
という方法もあるにょ。
どうせあと4年も壊れないなんてことはないだろうから次に壊れた時に7対応のものに
買い換えれば良いというだけにょ。
ただし、これも先ほどのVistaと同じくHomeやStarterでは現状においては延長サポートが
ないためにXPより1年長くなるだけという点はやはり気になるにょ。
それが気になるならばProを搭載したものを買えば良いというだけにょ。
ネット用のS8305はファンが壊れてファンレス状態であるため冷却台に乗せて辛うじて
使えているという状態であるため早急に買い換えたいし、7130MGもアナログ放送終了
までには何とか買い換えたいにょ。(地デジ再生は性能的に厳しいため)
VAIO UXからの買い換え候補としてはは性能面で落ちてしまうもののAtom搭載機がいくつか
あるけどここで問題があるにょ。
XPであれば十分な性能だけど7では微妙な性能ということにょ。
ネットショップでは現在44800円(+4480ポイント)で買えるオンキヨーのBXは魅力だけど
メモリが512MBということでデフォのXPを使い続けるならば問題ないけど7は厳しいからね。
VAIO UXはバッテリ駆動時間とキーボードに大きな不満があるもののこれはR5をメインで
使うことで何とかガマンできているにょ。
あと数年ガマンして7がもう少しまともに動くレベルになったら買い換えるという方法も
あるけどAtomにそこまで望むのは難しいにょ。
来年初頭に登場するOakTrail採用機は現行のものよりやや高速になるだろうけどどちらか
というと省電力に割り振りされているため性能面の向上はあまり期待できないにょ。
ネックとなっているGPU性能の倍増やSATAへの対応は大きいけどね。
もっとも、今買って2014年(もしくはその近辺)でまた買い換えればいいというだけの話
だけどね。大きな不具合や不満がなければ買い換えるのも金銭的に厳しいにょ。
私は2003年から2K化移行を開始し2005年からXP化移行を開始したので今年からはそろそろ
7への移行を開始しようと思っていたにょ。
しかし、XPで大きな不満がないというのが7への移行を積極的に行わない理由となって
いるにょ。(要は投資に対する効果が小さい)
躊躇ったところであと猶予は4年弱しかないのでそれまでに何とかする必要があるけど
今後XP非対応のものが増えてくればXPを使い続けることがデメリットとなるため相対的に
7の価値が高まり移行の効果が大きくなるにょ。
マリモーマさんへ
>大雨
私の近所は今のところ大丈夫にょ。
市内ではすでに土石流の被害が出ている箇所はあるけどね。
XPは滅びぬ、何度でも蘇るさ
昨日はWindowsのサポート期間について書いたにょ。
延長サポートが2014年4月までのあと4年弱残っているXPにおいては現状ではVista Home
よりもサポート期間が長いためリプレイスするのであれば7の方が良い(7もHomeでは
2015年までなので長く使うならばProが望ましい)ということにょ。
確かにXPは現状ではまだ大きな不満がなく使えるOSだからね。
したがって、「XPではできないけど7ではできる」というものが多く登場しそれがその
人にとって重要なものでない限りはXPで十分であるといえるにょ。
ただ、そんなものがあるのかということにょ。
これに関してはVista以降はカーネルに手を加えられたために互換性が取りにくくなって
いるため十分起こり得る問題にょ。
特にDirectXに関してはXPまでとVista以降では大きく扱いが変わっているためXPは
サポート期間終了前に対応から外されるアプリも少なくないと思われるにょ。(ゲームに
おいてはDirextX10以降が必須になればXPは事実上終了となる)
この辺は7の普及速度にも影響しているけどね。
Vista+7のユーザー数がXPのユーザー数を大きく越えればXPを除外したとしてもメーカー
としては商売が成り立つにょ。(XPをサポートしないことでコストダウンにも繋がる)
ただし現時点ではネットブックにXPが搭載されている関係上、台数ベースではXPのシェアが
依然として高いものとなっているにょ。(これはULCPC用のXPは7発売後1年で終了するため
今年の10月以降は7のシェアが急増すると思われる)
PC Watchのユーザーアンケートでは発売して1年にも満たない7がすでにXPを越えるという
結果になっているにょ。(これは各自がメインとして使っている1台のPCに使用している
OSだから台数ベースではXPはまだ過半数を占めていると思われる)
http://akiba-pc.watch.impress.co.jp/hotline/20100703/enquete201006_10.html
アンケート結果では7の使用割合は47.6%となり、XPの36.8%を越えているにょ。
これはXPユーザーが7に乗り換えたというだけではなくVistaユーザーの乗り換えもある
というのが大きく影響しているにょ。
Vistaは昨年の31.1%から11.1%へと大幅に減っているからね。
7は先進の機能を搭載しながらVistaよりは軽いということでユーザーからは大きな支持を
得ているもののカーネル自体はVistaベース(NT6ベース)であるためVistaで動作しなかった
アプリが7で動作するということはほぼあり得ないにょ。
逆にいえばVistaで動作するアプリはほぼ7でも動作するため当初はXPベースで作られていた
アプリで動作しないためVistaは互換性で非難されたけどVistaベースで作られたアプリが
増えた今となっては互換性問題はかなり緩和されたにょ。
どうしても、7でXP用のアプリ(NT6.xで正常動作しないアプリ)を動作させたいという
場合にはXPモードがあるもののあくまでこれはVirtual PCであり、DirectXを使った
ゲームなどは動作しないにょ。
もっとも、XPモードは法人ユーザー等で互換性が重要なものを要求する場合のために用意
なるというだけであり、そのような用途は想定していないにょ。
だからゲームができないことを理由にXPモードを非難はできないにょ。
しかし、高い互換性を求めるのであればXPそのものを搭載するしかないということには
変わりがないにょ。
さて、XPはすでにOEM提供は終了しており、ネットブック(ULCPC)用としては7の
発売から1年後まで提供ということでもうすぐXPの提供は完全に終了するにょ。
では、それ以降はXP搭載PCの販売ができないかというとそうではないにょ。
OSのダウングレード権があるからそれを行使することで可能となるにょ。
ダウングレードはそのOSのライセンスで旧OSを使うというもので元々法人向けとなる
Pro(Bussines)には備わっていたライセンス形態だけどVistaではその互換性の問題や
要求スペックの高さからXPへとダウングレードするユーザーも多くそれ故ダウングレード
というものの知名度はVista以降急激に高まったにょ。
ただし、7のダウングレード権は7の発売から1年半もしくはSP1提供で終了予定となって
いたにょ。
ところが、この度そのダウングレード権を7のサポート期間終了まで延長されたにょ。
http://journal.mycom.co.jp/news/2010/07/13/075/index.html
ダウングレード権が使えるProは2020年1月まで延長サポートがあるためそこまでXPの
提供が可能にょ。
要するにこれは2020年1月までXP搭載PCを入手可能ということを意味するにょ。
これは法人ユーザーにとっては朗報にょ。
上記リンク先に書いてあるように法人ユーザーは未だに74%がXPを使っているからね。
さて、XPの終了に関しては今まで何度もあったにょ。
2008年6月に店頭販売が終了となったXPだけど後継となるVista登場が遅れたために普及
しすぎておりHomeのサポートを2009年で打ち切るのはやめProと同じく2014年の延長
サポートされることになったにょ。
これによりネットブックに搭載されるULCPC版は7の発売から1年後まで提供されることに
なりネットブックの普及に大きく貢献したにょ。
あとは、互換性問題で移行が進まないユーザーに関しては7へのXPモード搭載で克服する
というのもできずダウングレード権を行使するというパターンが未だに多いにょ。
そのため7 SP1もしくは7の発売から1年半の早い方で終了予定だったXPへのダウングレード
だけどSP1もベータ版が配布され正式にSP1が配布されるのも時間の問題にが迫ったために
ダウングレード権終了をさせるのができず今回7のサポート終了までXPへのダウングレードが
可能になったのだと思われるにょ。
以上をまとめるとこんな感じにょ。
2008年6月30日 XPのパッケージ版、OEM版の出荷終了
2009年1月31日 XPのDSP版の出荷終了
2009年4月14日 XPのメインストリームサポート終了日
※本来はここでHomeのサポートは終了だったけどProと同じく5年延長
2010年4月 7のダウングレード権終了日1(7発売前に発表されたもの)
※当初は「7発売から半年」と発表されていた
2010年10月 ULCPC版XP出荷終了
※「7の発売から1年」と発表されている
2011年4月(最長) 7のダウングレード権終了日2
※SP1もしくは7の発売から1年半とされていたけど今回延長された
2014年4月8日 XPの延長サポート終了日
2020年1月14日 7の延長サポート終了日=ダウングレード権終了日3
これを見てのようにXP搭載PCの販売終了は一般的には2008年6月30日だったけどダウン
グレード権によって2020年1月14日までは可能ということになったにょ。
ところが、その前に2014年のXPのサポート期間終了が訪れるにょ。
これは昨日2Kで書いたように事実上XP搭載PCを第一線で使えるのが終了を意味するにょ。
したがって、2020年に店頭にXP搭載PCが新品として並ぶことはあり得ないことだけど
セキュリティよりも互換性を重視する法人ユーザー向けとしては出荷が可能というわけにょ。
ダウングレード権はOSに含まれている権利であるため個人であっても7proのライセンスを
持っていればXP proへのダウングレードは可能にょ。(インストールディスクに関しては
MSからの提供がないために個人でXPのメディアを所有している必要がある)
とはいえ、これは互換性を重視する人でないとあまり意味はないにょ。
XPのサポート終了が近づいてくればXP非対応のアプリ、機器が増えるだろうから
セキュリティは問題ないという人であっても徐々に使えなくなってしまうにょ。
今使っているアプリ、機器のみをずっと使い続けるというのならば問題はないけどそうで
なければ「使えない」と判断したときにはその人にとってXPが終了となるにょ。
スマートフォンでもキャリアに依存させることが重要になる・・・?
ドコモがスマートフォン向けの「spモード」を発表したにょ。
http://k-tai.impress.co.jp/docs/news/20100713_380368.html
このspモードはスマートフォン向けのmoperaというイメージかと思いきやよく見ると
それだけではないにょ。
それは「docomo.ne.jp」というキャリアメールや「ドコモマーケット」における決済
サービスも使用可能になるみたいだからね。
さて、スマートフォンはガラケーよりも自由度が高いということがメリットとなっていた
けれどガラケーでないとできないことも多いからね。
特にキャリアに依存したサービスにおいてはスマートフォンはガラケーに完全に遅れを
とっているにょ。
キャリア依存のサービスから脱していると考えるとガラケーよりは進んでいると言えなく
ないものの実際は日本においてはキャリア独自サービスが使えるガラケーこそがその
キャリアのケータイとなっているにょ。
spモードではキャリアサービスといってもキャリアメールが使える程度とはいえ、これで
かなり変わってくるにょ。
Webサイトのモバイル向け(ケータイ向け)サービスを利用する場合は、キャリアメールが
使えるということが多くのサイトで必要となっているけどそれが使えないスマートフォン
ではそのサービスは利用できないにょ。
このキャリアメールをガラケー以外で使う方法としては「iモード.net」があるにょ。
これはPCを使い「docomo.ne.jp」宛へのメールを受送信ができるサービスだけどそれが
実現可能であるということは「スマートフォンだからキャリアメールが使えない」という
のではなく「キャリアメールを使えるようにしていない」というだけの話にょ。
スマートフォンなんだからPC向けのサービスを利用すれば良いというだけの話とはいえ
PC向けのサービスはPC向けに作ってあるため必ずしも使いやすいとはいえないにょ。
PC向けのWebサイトというと現在はXGA以上を必須としたようなサイトばかりとなっており
FWVGA程度では十分とは言い難いにょ。
解像度の問題だけではなくFlashやAjaxを多用しており動作が重いというのも難点にょ。
十分な回線速度と端末性能があれば問題ないけどPC向けサービスだけではなくモバイル向け
サービスも使えるのが便利ということには変わりないにょ。
そういう点ではキャリアメールが使えるのは大きいにょ。
無論、そのようなサービスの利用有無に関係なく友人、知人とメアド交換する場合でも
キャリアメールであることが安心感を産むにょ。
キャリアメール>ISPのメール>フリーメール
恐らく安心感のある順位というとこのようになるのではないかと思うにょ。
Web上のみの友人であれば別にフリーメールであることを気にする人はほとんど居ない
だろうけどリアルの友人であればキャリアメールの方が安心できるということにょ。
これはフリーメールはいくらでも換えが効くのに対してキャリアメールはメアドこそ
変更可能だけど解約やキャリア移動しない限りはドコモユーザーであればdocomo.ne.jp
というドメイン部分は普遍だからね。
それに対してフリーメールであればいくらでも切り捨てられるにょ。
もっとも、キャリアやISPに依存しないフリーメールはキャリアやISPを移動しても使える
というメリットもあるため現在はそれをメインとして使用している人も多数おりそれ自体
否定するものではないにょ。
もう1つのドコモマーケットの決済に関してはspモード以前に実現されていたことだけど
少し説明すると「ドコモマーケット」というのはドコモのスマートフォンユーザー向けの
コンテンツやアプリの提供サービスのことにょ。
当然有料アプリもあるわけで問題はその課金方法となるにょ。
i-modeが有料コンテンツで成功したのはその課金方法によるものが大きかったにょ。
何せその契約しているコンテンツプロバイダに別々支払うという面倒なことをせずに
ドコモが代行して決済してくれたためケータイの月額料金と一緒に支払うことができ
ユーザーは何も面倒なことをする必要がなかったにょ。
このようにキャリアによる代行決済は他のキャリアでも導入されコンテンツビジネスの
拡大に大きく貢献したのだけどスマートフォンではそれが難しいにょ。
スマートフォンには端末固有情報がないため端末に依存しているガラケーと同じサービスを
行うのは無理だからね。
ただし、スマートフォン独自のサービス展開を行うならば問題はないにょ。
そのためにもスマートフォン市場の拡大が必要になるにょ。
多くの機種がないとコンテンツビジネスとしては成功が難しいからね。
確かにiPhoneのように単一機種でサービス展開をしているスマートフォンもあるけど
これはキャリア主導ではなく端末主導であるから可能になっているにょ。
iPodですでに構築されていたWebマーケットと決済サービスをそのままiPhoneで利用して
いるためにiPodユーザーであれば簡単にそのサービスを利用できるからね。
決済方法もクレジットカードだけではなく大手量販店であれば入手可能なプリペイド
カードによる支払いも可能な点も大きいにょ。
つまり、iPhoneが発売される前にすでにキャリアに依存しないサービス、決済が実現
出来ていたiPhoneと他のスマートフォンを同列に語るのは無理ということにょ。
Android端末であればOSを提供しているGoogleがApp storeと同じようなものを作ればよい
ということで実際に作っているもののその完成度は遠く及ばないためキャリアが主導
しないと難しいと思われるにょ。
さて、ドコモが来年4月から全機種SIMロックを解除するということを7月7日に書いたわけ
だけどキャリア依存性の強いガラケーにおいては通話が出来れば良いという人でない
限りはSIMロックが解除してもほとんど意味がないのだけどキャリア依存性の低い
スマートフォンであればSIMロック解除の意味は大きくなるにょ。
失うものよりも得るものの方が大きいからね。
そんな中でspモードのようにわざわざキャリア依存性を高めるようなことをするという
のは一体なぜなのか・・・。
これはSIMロックは解除した後でもキャリアの依存性を高めることでガラケーと同じく
キャリア移動を難しくしている(docomo.ne.jpが使えるのはドコモの回線だけ)という
考え方ができるにょ。
ユーザーを「いかに他のキャリアに逃がさないか」という保守的な考えだと確かにそう
なるもののアプリで実装している以上は他のキャリアでも同様のサービスを行うことは
可能にょ。
ソフトバンクでもiPhoneでsoftbank.ne.jpというキャリアメールが使えるようになった
からね。
逆に言えばアプリで実装可能であるが故にドコモがiPhone用にdocomo.ne.jpのキャリア
メールが使えるようなアプリを提供することも可能となるにょ。
ガラケーのようなキャリア主導の端末であればSIMロックが解除されてもされなくても
影響は微々たるものだけどスマートフォンの場合はこのようにアプリでいくらでも対応
できるためSIMロック解除の影響は極めて大きいにょ。
1つのキャリアがすべてのキャリアの端末をサポートするのは難しいけどiPhoneくらい
売れている端末であればもしもSIMロックが解除されればどのキャリアも自社向けの
サービスを開始するのではないかと予想しているにょ。
そうなったときにピンチなのはソフトバンクにょ。
サービス内容が同じならばエリアや通信環境に優れたドコモへ移動するユーザーが多く
いるのは明白だからね。
iPhoneにSIMロックをかけているのはそうならないためのものだけど孫社長の考えは
何が何でもSIMロック解除に反対というわけではなくiPhone(iPad)に関しては否定的
というだけだと思われるにょ。
今週放送された「カンブリア宮殿」にて孫社長とジョブズ氏とのやりとりがあったけど
iPhoneが発表される1年前(初代モデルは日本では発売されなかったのでそれを考えると
日本での発売からは2年前となる)から交渉していたみたいだからね。
諸外国ではその国の1位のキャリアと独占契約を結んでいたiPhoneだけど日本では
3番手のソフトバンクとの契約だった(auは通信方式そのものが異なるため使用できない
ためそういう意味では2番手となる)ことに対して疑問を持っていたけどこれで納得
できたにょ。
とはいえ、独占契約権を得るのとSIMロックは別問題にょ。
将来的には国内販売のiPhoneもSIMロックが解除されると思われるけどそうなった時には
ドコモと競争して負けないレベルにしておく必要があるにょ。
来年4月にはドコモが全機種SIMロック解除となるためソフトバンクも遠くない将来には
それに追従するだろうけどさすがに通信に関してはドコモとは大きな差があるためとても
その差を埋められるとは思えないにょ。
そのために用意すべきなのがキャリア依存サービスにょ。
キャリアメールが使えるのは当然として、ソフトバンクならではのコンテンツ配信などが
重要となるにょ。
新聞、雑誌を配信する「ビューン」のようなサービスもそのうちの1つにょ。
ただし、iPhoneの最大の魅力はApp storeの膨大なアプリにあり、それはキャリアには
依存しないためiPhoneユーザーをそのキャリアに止めておくことは非常に難しいにょ。
iPhoneは前述のように特例であるためそれ以外のスマートフォンで考えてみるとキャリア
依存性が低いためSIMロックが解除された場合には強いキャリアが勝つことになるにょ。
これはRPGで例えるならば攻撃力が強い方が勝つというのと同じにょ。
それならばスマートフォンにおいてキャリア依存性を高めるというのは効果が薄いのか
というとそうではなくこれはRPGで例えるならば防御力に相当するにょ。(ユーザーを
獲得ではなく逃げないようにする手段)
それを考えると最高の攻撃力を持つドコモが今回spモード搭載で防御力を高めたという
ことがいかに脅威であることが分かるにょ。
多少攻撃力で劣っていても防御力が高ければ勝ち目はあるけど同じような防御力では
攻撃力の差で勝敗が決まってしまうからね。
ドコモ以上の防御力(より魅力的なキャリア依存性)を手に入れない限りはソフトバンク
には勝ち目がないにょ。
私の予想通りであるW100のコンセプト
ここで6月22日、24日、27日に書いたlibretto W100だけどどういうコンセプトで作ったのか
開発者はどのような意図で作ったのかは私には伝わって来たけど実際のところはどうなのか
ということはこの開発者インタビューを見れば分かるにょ。
http://ascii.jp/elem/000/000/537/537166/
上記インタビューをまとめると下記のようになるにょ。
(1)25周年モデルとして他社がやらないものを作らなくてはならない
(2)2画面ならばPCの用途を変えられるかもしれない
(3)Windowsを搭載したのはアプリの問題
(4)振動採用でソフトウェアキーボードに決まった
(5)Atomでは十分な性能を出せない
(6)2画面を重視するためにバッテリ駆動時間は妥協した
大筋においては製品を見た瞬間に私が感じたもの(すでにここで書いたもの)とほぼ同じ
だけどそれぞれを見てみることにするにょ。
(1)選択肢からすればU100の中身を今時の仕様にしたものも考えられたのだろうけどそれ
だと25周年モデルとしてはインパクトが弱いということで2画面タッチパネルとなった
模様にょ。
5年前に登場したU100は確かに当時としてはコンパクトサイズだったけどU100以降ネット
ブックが多く発売されたからね。
そうなるとそれよりは小さくする必要があるし、小さいものならばAtom Zを採用した機種が
多く存在するため小さいことだけではもはやインパクトはないにょ。
「通常のノートPCではないものも考えねばならない」ということにょ。
(2)「キーボードを搭載している現状のデザインではパソコンの用途は変わらないと考え
ました。しかし、2画面なら変えられるかもしれない」というのは確かに私もその通りに
感じる反面6月27日にここで書いたように新しいことをやろうとするならば作るだけでは
なく積極的にそうなるように働きかけないといけないけどそれは出来てないにょ。
2画面ならこんなことができるというのが実際にはユーザーには伝わらないからね。
とはいえ、折りたたみ式2画面には「スレート型は大画面になるのでカバン内での収まりが
悪い」「キーボードを入力する際に本体を傾けないといけない」という優位性はあるにょ。
(3)「W100はまったく新しいデザインではありますが『まったく新しいことだけ』をして
もらおうと考えたのではないのです」とあるようにやはり普段使っているPCと同じことが
できるということを重視しているにょ。
dynabook AZのようにAndroidを搭載するという方法もあるけどこれだとPCと同等という
わけにはいかないからね。
Webの利用だけでいえばほぼ同等の使い勝手を確保できるとはいえ、PCはアプリや周辺
機器の活用を含めて考える必要があるからOSを変えるということはライフスタイルを
変えるということになるからね。
(4)キーボード+マウスでの動作を想定しているWindowsにおいてキーボードレスという
のは生産性を下げる大きな要因となりかねないのだけどフィードバック機能の搭載に
よってソフトウェアキーボードでいけると判断したみたいにょ。
「7型サイズのディスプレーではこのインターフェースがないとつらいだろうと判断し
搭載することになりました」とあるようにこの技術があってこその2画面タッチパネル
搭載だからね。
(5)W100はこのクラスのPCとしては異例となるデュアルコアのPentiumを搭載しているの
だけどこれは1台目のPCとして使うならばAtomではやや厳しいのとあともう1つは2画面と
いうのが影響している模様にょ。
「現実的な話としてはAtomでは簡単に2画面が出せないんです」と書いてあるように
やはりAtomでは速度面の問題が大きかったということにょ。
(6)クラス最高の性能を得た反面バッテリ駆動時間は短くなってしまったけどこれは
液晶パネルが2画面あるからパネル自体の消費電力が大きいというだけではなく2画面
出力が大きいからである模様にょ。
それが原因であれば例えCPUをAtomに変えても大して駆動時間は延びないことになるにょ。
インタビューの内容について書いてみたけどやはり私の予想そのまんまだったにょ。
というか、あまりにそのまんますぎたにょ。
将来的に大型タブレット型の端末が普及すれば2画面、折りたたみという需要は必ず
訪れると私は思うけどその第1段階であるタブレット型端末の普及においてiPad以外は
売れているとは言い難い状況だからW100のメリットをメリットと感じずデメリットと
感じる人(コンセプトを理解してない人)が大勢いるのは仕方がないことか・・・。
確かに現時点だとモバイル用途であれば短すぎる駆動時間は大きなマイナス要素だから
「使えない」と判断を下す人がいるのは当然だけどね。
最善の選択だけど最高の選択ではない!?
アップル社がiPhone 4のアンテナ問題でバンパーを無償配布することにしたにょ。
http://k-tai.impress.co.jp/docs/news/20100717_381562.html
全面的ではないもののiPhone 4の設計は一部のユーザーにとって問題があることを認め
バンパーを無償配布することでユーザー側に歩み寄ったのは良いことにょ。
持ち方によって変わるといっても7月6日に書いたように普通に持っただけ(問題となる
デッドスポットに触れた場合だけどこれは普通に持つだけで触れてしまう)で100分の1
まで電波強度が弱くなる端末なんて他に存在しないからね。
3GSでは64%となり、その差は61.6倍にょ。
しっかり包み持つ 自然に握る 手のひらにのせる ケースに入れて自然に握る
iPhone 4 0.3% 1% 12% 19%
iPhone 3GS 3.7% 64% 95% 48%
差 10.7倍 61.6倍 7.9倍 2.5倍
(※7月6日に書いたものを部分的に再掲)
このiPhone 4と3GSのこれが小さいと判断するか大きいと判断するかは人それぞれ・・・と
いうレベルではなくアップル社の関係者以外はほとんどの人が明らかに影響があると判断
するのではないかと思われるレベルにょ。
しかし、バンパーを装着すればその差は2.5倍になるためこれくらいならばめずらしい
差ではなくなるにょ。
とはいえ、アップル社の調査では「ほとんど変わらない」ということなので上記の調査
結果とは異なり、ユーザーの言い分を全面的に認めたわけではないにょ。
確かに全面的に非を認めリコールへと発展すれば多額の損失になってしまうし、このまま
「弊社では確認できてません」というのを貫けば裁判は長引き金銭的な問題だけではなく
企業イメージの悪化を考慮すると長期的には大きなマイナスとなってしまうにょ。
それを考えると部分的に非を認め(一部のユーザーにとって問題であると認め)バンパーを
無償配布とした今回の措置は企業の損得という面ではベストな選択肢だと思われるにょ。
ただし、このバンパーの無償配布は9月30日までとなっているにょ。
それから先はどのような対応を取るのかはまた分かってないにょ。
もしかすると10月以降は何らかの対策をしたiPhone 4が出荷されるということなのかも
しれないにょ。(本体の周囲をシールドする程度ならばそれほど難しくない)
それならばこの期日指定は納得できるにょ。
その前に今月末に登場するホワイトも同じ問題を抱えているだろうからそれについても何の
対策もせずに登場させるというのは考えにくいにょ。
すでに生産した分はかなりあるだろうから初期ロットに関しては対策のしようがないけど
次のロットでは対策済みというのは十分に考えられるにょ。
逆にホワイトが初期ロットからからその対策済みだったとしたら余計に不自然にょ。
つまり、今回のバンパー無償配布発表よりも早い段階で問題があることを認めていた
わけだからね。
何にせよiPhone4に対するアップル社の対応がいかなるものなのかは9月30日以降に
はっきり分かるにょ。
iPhone 4 正規SIMフリー deedeegsm.com
iPhone 4 32GB正規SIMフリー
http://www.deedeegsm.com/tkxcgi/shop/shop_index.cgi
BlackBerry Bold 9000 SIMフリー日本語対応。
BlackBerry Bold 9700 SIMフリー日本語対応
BlackBerry Storm SIMフリー日本語対応共にあります。
HTC Desire SIMフリー nihonngo OK
iPhone 3GS 16GB, 32GB 正規SIM フリー あります。
iphone 4 正規SIMフリー7月入荷予定!ご予約受付中!
iPad 16/32/64GB Wi-Fi 3G 正規SIMフリー版取り扱い中!
http://www.deedeegsm.com/tkxcgi/shop/shop_index.cgi
マイペースができないと使うのは難しい
Twitterはmixiを抜き国内1000万人超が利用するサービスとなったけどその影響からか
最近は「Twitter疲れ」という言葉も度々耳にするようになったにょ。
http://www.zakzak.co.jp/zakspa/news/20100713/zsp1007131115000-n1.htm
上記リンク先の記事を見てみると社会人300人に対してアンケートを取ったところTwitterに
疲れていると答えている人は全体の3割に達している模様にょ。
その内訳は下記のようになっているにょ。
ツイッターのココが疲れるベスト10!
1位 フォロワーに気を遣ってしまう ・・・・・・・・ 30.3%
2位 リツイートを期待してしまう ・・・・・・・・ 25.7%
3位 周囲がツイッターのことを騒ぎすぎている ・・・ 25.3%
4位 フォロー返しを期待してしまう ・・・・・・・・ 22.3%
5位 フォロワーの増減に一喜一憂してしまう ・・・・ 18.7%
6位 友人、恋人、同僚などの愚痴のツイートを見たとき 17.0%
7位 有名人と絡もうとしたとき ・・・・・・・・・・ 11.7%
8位 彼氏、または彼女のツイートが気になってしまう 7.7%
9位 彼氏、または彼女にフォローされてしまう ・・・ 6.7%
10位 ツイッターで有名人になろうとして ・・・・・・ 6.3%
Twitterがmixiに対して優れている点は書き込みが手軽であるということとハッシュタグを
用いることで縦横自在に書き込みを見ることが出来るという点が大きいにょ。
mixiの場合はブログと同じく縦方向への閲覧しかできないにょ。
ブログの場合はトラックバックによって限定的ながら横方向への閲覧が可能であるものの
Twitterほどの自由度はないにょ。
つまり、書き込む方も読む方も気軽というのが他のサービスと比べて最大のアドバン
テージといえるわけにょ。
では、なぜ「Twitter疲れ」というものが発生してしまうのか・・・。
mixiの場合はマイミクの数が増えるとマイミク登録者が新しく書いた日記に対して
コメントをしないといけないという義務感が発生しそれによりコメント行いそして自分が
書いた日記に対しては今度はコメントを求めてしまうわけにょ。
これは7月4日に書いたように「読み逃げ」として実際に一部のmixiユーザーの中で起こって
いることにょ。
このように「疲れる」と感じるのは自分に対しても相手に対しても「義務を課している」
ということが最大の原因となっているにょ。
このことはTwitterにおいても当てはまるにょ。
Twitterはmixiと比べてより手軽とはいえフォローする人数が増えてしまえばどんどん
膨大な量になってくるからね。
すべてをフォローするのは無理だしフォロー返しをしようなんて考えていたら時間が
追いつかなくなってしまうにょ。
つまり、mixiと同じく自分に対しても相手に対しても義務を課しているような人だと
この時点で疲れてしまうことになるにょ。
さらにTwitterの場合は手軽であるが故に書き込みに対して気を配る必要があるという
ことにょ。(mixiも閉じたネットワークだからと言って犯罪行為を暴露するようなことを
書いて退学、免職になった例は過去にいくつもある)
気軽だからということで発言してはならないことを書いてしまうとそこから問題発生
することになりかねないにょ。
しかし、あまり難しく考えているとそれも疲れる元になるにょ。
それにフォロワーのことを考えてばかりいたらTwitterの手軽さは失われてしまうからね。
ある程度気楽に書き込むことは重要だし、かといって何を書いても良いというわけではない
というバランスは難しいといえば難しいけどそれが疲れる人はブログでもmixiでも
Twitterでも疲れるのでその人には向いてないということになるにょ。
疲れるけどやめられないという人は自分でルールを決めるのがいいにょ。
例えばゲームが好きな人の場合は毎日12時間やって生活に支障が出るレベルになったら
困るのでいくら好きでも「1日2時間」とか自分の中でルールを設定するというのと同じ
ようなものにょ。
これはゲームだけに限らず、Twitterでもmixiでも同じにょ。
疲れてまで、生活に支障が出るようになるまでやる必要は全くないわけだからね。
確かに自分をフォローする人数が増えるのは嬉しいことだろうけどどんどんハードルを
高めていってしまうと生活が破綻してしまうからね。
私はここで毎日書くので精一杯にょ。
私自身のルールは1日1回しか書き込まないということくらいにょ。
その代わりその1回には可能な限りのことはしているにょ。
それによって日によって大きくヒット数が異なるものの多い日は300ヒット近くにまで
達することがあるにょ。
駄文でも続けることに価値がある(検索エンジンに引っかかりやすくなる)というのが
大きいのかもしれないにょ。
あとは、ただの新製品情報サイトにはしないというのが大きいにょ。
情報だけなら他所でいくらでも手に入るわけだけど私の駄文が読める場所はここしかない
わけだからね。
駄文であってもある程度支持されている・・・とカウンターの動きを見て感じているにょ。
ただ、このように長文が書ける媒体と異なりTwitterは文字数制限が大きいにょ。
それ故、「○○なう」とかいう書き込みが多くなってしまうわけだけどフォローして
くれる人を増やそうと書き込み内容を工夫しようと考え四苦八苦していたらそれは疲れる
元となるにょ。
だから、私はTwitterで書き込もうとは思わないにょ。
「○○なう」というのは私が書きたいことではなく書きたいことを書こうとして140文字
以内に収めようとすると難しいため結局「今何をしている」「どこにいる」などの
どうでもいい情報しか書けなくなってしまうにょ。
有名人ならば「○○なう」という情報に価値があるかもしれないけど私のようなただの
一個人がどこに居ようがその情報に価値はないからね。
しかし、Twitterの情報収集も効果的に使えばかなり有用になるにょ。
情報収集目的としてのTwitterはブログやmixiなどで書くまでもないもの(まだ書いて
いないもの)を書いていることが多くより新鮮なものがあるわけだからね。
あとうっかり(というか確信犯的に?)情報を漏らしてしまう人もいるのでそれで話題と
なることもあるにょ。
だから自分で書き込む情報に価値がなくてもTwitterそのものの価値に関しては使う人
次第で大きく変わるにょ。
これはTwitterに限ったことではなくどんなサービスであっても使い方次第で有益か
どうかが大きく変わってしまうからね。
「自分に合った方法で無理をしない」ということが有効にそのサービスを活用できる
だけではなく「疲れる」ということも防ぐことが可能になるということにも繋がるにょ。
普及させるには「メリット>デメリット」でなければならない
昨日は2000円札が発行されてちょうど10周年だったにょ。
http://www.fnn-news.com/news/headlines/articles/CONN00180995.html
発行当初は私も結構使っていたもののいつの間にか手にする機会さえなくなったにょ。
それではあれだけあった2000円札は一体どこに消えたのか・・・?
2000円札は2003年をピークにどんどん流通量が減り現在は全紙幣の約1%の流通量になって
いるにょ。
発行過剰であるため今では発行をストップし日銀に在庫が山積み状態になっているために
ユーザーの手に渡る機会はほとんど無くなっているにょ。(後述のように使い勝手が
悪いためお釣りとして渡されても困るしね)
http://www.iza.ne.jp/news/newsarticle/economy/finance/411395/
では、2000円札のメリット、デメリットをまず最初に考えると下記のようになるにょ。
◎メリット
・支払い枚数が減る
◎デメリット
・使い勝手が悪い
2000円札の唯一にして最大のメリットはそれがあることで支払う紙幣の枚数が減るという
ことだけどどの程度の枚数に減るかということを検証してみるにょ。
2000円札無しの場合 有りの場合
1000円 1枚 1枚 ※これらは最小時の枚数でありATM等の支払いの
2000円 2枚 1枚 枚数とは異なる
3000円 3枚 2枚
4000円 4枚 2枚
5000円 1枚 1枚
6000円 2枚 2枚
7000円 3枚 2枚
8000円 4枚 3枚
9000円 5枚 3枚
平均 2.5枚 1.7枚
確かに十分な効果が得られているにょ。
ただし、これについては2000円札だけではなく2円玉、20円玉、200円玉であってもに同等の
ことがいえるにょ。
日本の貨幣・紙幣は1→5→10→50→100→500というように最上位の桁においては1、5を
繰り返しているけど1→5は5倍であり、5→1(正確には10)は2倍であるためその間を
埋めるものとして頭に2の付く貨幣や紙幣は有効ということがいえるというだけにょ。
2000円札だけではなく2円玉や20円玉や200円玉であっても同等のメリットがあるのだけど
2000円札のみの発行になったのは2000年の沖縄サミットを記念して作られたということが
最大の理由であり2000円である必要性があったということにょ。
2000円は20円や200円よりも利便性が高いという理由ではないにょ。
そのため2000円札が普及すれば20円玉200円玉の将来的な導入は十分考えられるかもしれ
ないにょ。
では、デメリットを見てみるにょ。
この使い勝手を悪くしている原因は下記の2つのものが理由となっているにょ。
(1)「2」の付く貨幣や紙幣に馴染みがない
(2)自販機などでは対応していない
(1)について考えてみると最初に書いたメリットがありながら今まで2の付く貨幣や紙幣が
日本で使われなかったわけではないにょ。
かつては2銭硬貨や20銭硬貨があったけど戦後はほとんど使われなくなったというだけにょ。
1→2→5というのが戦後1→5となった具体的理由については見つからなかったけど恐らく
戦後の資材不足が原因ではないかと思うにょ。
何にせよ2000円札が発行されるまでの戦後50年の間それで困ることは無かったために
それが普通になり「2」の付く紙幣に馴染みがなくなっているのは確かにょ。
しかし、海外では2の付く貨幣や紙幣が多く使われており、これはただの「慣れの問題」が
大きいことが分かるにょ。
それだけ多く使われてるということは多くのものでそれに合わせた生活習慣にもなって
いるということがいえるにょ。
例えば日本人の感覚だと25セント貨幣なんてすごく使い勝手が悪そうだけど海外では
クオーターという考えはポピュラーであり25セント単位で売られているものは多くある
からね。
自販機でも缶コーラが75セントとかで販売されており、25セント硬貨の出番は非常に多く
なっているにょ。
また2000円札に近い貨幣価値がある20ドル紙幣もかなり多く使われているにょ。
これは海外では偽札が多く高額紙幣は使えないということもあるため気軽に使えるのは
20ドル程度というのが影響しているにょ。
自販機で5000円や10000円に対応している日本とは生活スタイルが根本的に異なるため
海外で多く使われているから日本でも多く使われるだろうということは単純に言えないと
いうことにょ。
(2)の使い勝手について見てみるにょ。
2000札が増えるということで例えばレジでは1つ紙幣を入れるスペースが余分に増えるし
ATMでも余分にスペースが必要になるにょ。
これはどういうことかというと機材の買い換えが必要になるということになるにょ。
ずっと「2」の付く貨幣や紙幣が使われていた国であればこのような状態にはならない
けれどこれによって自販機や両替機において1000円札、5000円札、10000円札は使えるけど
2000円札だけは使えないという状況が発生してしまうにょ。
2000円札に対応するためだけに機械そのものを入れ替えるというのはコストの割りが
合わないにょ。
これが2000円札の流通量が増え、その需要が増えてしまえば順次2000円札に対応した
機械に切り替わっていくだろうけどその流通量は2003年をピークに右肩下がりという
ことで対応はろくに進んでない状況にょ。
ATMでも基本的には2000円札の預け入れはできても払い出しに2000円札は使われないわけ
だからね。
銀行での両替も2000円札で欲しいと言わない限りは2000円札を受け取ることはできない
状況にょ。
実際、自販機などの対応を考えても2000円札では困る状況というのは多数起こり得ること
だけどこれが1000円札2枚であれば困ることはまずないからね。
そうなると「卵が先か鶏が先か」ではないけど流通が少ないから機械が対応しない、
機械が対応しないから流通がしないという負のスパイラルに陥っているにょ。
もっとも「卵が先か鶏が先か」という人類が長年悩んでいた謎に関しては先日「鶏が先」
という結論が出たもののこれが正解とはいえないという反論も出ておりまだ謎は謎のまま
となっているにょ。
http://www.asahi.com/science/update/0720/TKY201007200106.html
2000円札が自販機で使うには不便といってもコンビニやスーパーで使う分には困らないので
2000円札という「選択肢が増える」ということだけに関していえば消費者にとっては
デメリットではないにょ。(実際枚数を減らせるというメリットがあるわけだし)
まぁ上記のようにレジに2000円札を入れるスペースがないためコンビニやスーパーの側と
してはデメリットになるけどね。
結局のところメリットとデメリットを天秤にかけた際にデメリットの方が大きいから
あまり使われなくなったというだけにょ。
これは2000円札に限った話ではなくどんなものにおいても自然淘汰は起こることだからね。
その自然淘汰が起こらないためにはメリットをより大きくするかデメリットをより小さく
するかということしかないにょ。
Canoe Lakeでネットブックが復活するか?
2008年に登場したネットブックは国内だけで約300万台、世界では数千万台も売れたものの
昨年後半からはその勢いはほとんどなくなってきているにょ。
ピーク時にはノートPCの3割の売上台数を誇っていたネットブックも1割まで落ちている
くらいだからね。
その影響が大きいのか私の地元の量販店では広く取られていたネットブックコーナーが
縮小もしくはコーナー自体が消滅してしまったくらいにょ。
この背景にあるのはここで幾度も書いたけどCULVノートの登場とタブレット端末(とは
いっても現状ではiPadのみ)のヒットが挙げられるにょ。
CULVノートが売れる理由はネットブックでは性能面では十分ではないということが挙げる
ことができるにょ。
XPであれば十分な性能を持つもののWin7では十分とはいえないからね。
しかし、ネットブックに提供されているULCPC XPの提供はWin7が発売されて1年となる今年の
10月をもって終了するにょ。
そういうことで昨年12月24日に書いたようにWin7が快適動作するCULVノートへ置き換えが
進むのではないかということにょ。(とはいえ、まだネットブック用にXPが提供されて
いるせいかCULVノートもそんなに売れているわけではない)
「安いPC」としてネットブックは多くの人に受け入れられたものの安さだけが購入の
ポイントとなってしまうと安さ合戦となりメーカー側としてもそれはただ体力を削る
だけの行為となるため極力避けたいにょ。
Eee PCが大ヒットしたAsusでさえ一時的に赤字転落するくらい薄利であるため少し生産量を
誤っただけで利益が出せなくなってしまうにょ。
そういう意味でもネットブックの低価格競争はどのメーカーも避けたいというのが本音
だと思うにょ。
あとタブレット端末に関しては現状ではヒットしているのはiPadだけとはいえ、iPadが
発表されて以来ネットブックの売り上げは大きくダウンしているのは事実でありiPadと
ネットブックは無関係であると言う方が難しくなっているにょ。
私は個人的には4月17日に書いたようにiPadとネットブックは直接競合するものではないと
考えているものの金銭的な面では競合してしまうのは確かにょ。
それに4月18日に書いたようにネットブックを持ち歩いている人は少ないためキーボード
無しというのがあまりネックにならないためiPadのようなタブレット端末で困るという
人も少ないためWindowsの必要性がある人を除けばキーボードが無くてもネットブックの
代わりとして使用が可能になるにょ。(自宅での使用がメインであれば他のPCを使えば
いいし、外付けキーボードを使うというのも大きな負担にならない)
さらにネットブックには制限があるというのが作る側からしては厄介になるにょ。
この制限によってネットブックは右へならえの仕様になっており、選択の基準がどうしても
価格優先になってしまいがちになっているにょ。
この制限によってIntelからはCPU、チップセットの価格を半値以下で提供してもらって
いるし、MSからは廉価なULCPC用のWindowsを提供してもらっているため制限を自ら外す
というのは得策ではないにょ。
ただでさえ、利益が少ないネットブックでCPUやOSを通常の価格で提供してもらったら
それでは安価にはできないからね。
このIntel側の制限においてはCPUをAtom NではなくAtom Zにすることで緩和が可能であり
それによって制限をくぐり抜けたネットブックもいくつか存在するにょ。
しかし、Atom Z+US15Wというのは本来はWindows PC用に提供されたものではないため
(ドライバの問題もあるけど)十分な描画性能が無かったり、ATAインターフェイスは
PATAのみでSATAに非対応というのもあるにょ。
そのためいくらネットブックの制限を超える解像度や液晶サイズであっても総合性能面で
満足いくものではなかったにょ。(同じCPUを採用したポケットサイズPCと同じ性能しか
ないわけだしね)
これらをまとめるとネットブックは利益があまりないためにメーカーからは低価格競争に
踏み切りたくはないけど性能面では制限があるし、ネットブックより少し高価で高性能な
CULVノートの登場によって高付加価値化も難しくなってしまったというわけにょ。
つまり、ネットブックがこれから生き残るためには昨年10月19日に書いたように差別化が
必要になるにょ。
CULVノートでは実現できないような重量やサイズであれば十分にCULVノートと差別化が
可能だからね。
それが実現可能になるのがネットブック用の次世代プラットフォームのCanoe Lakeにょ。
http://pc.watch.impress.co.jp/docs/column/hot/20100720_381849.html
このCanoe LakeによってデュアルコアAtom搭載で厚さ14mmというPCが安価に作ることが
可能になるにょ。
それに従来あったような制限が無くなっているとのことにょ。
ULCPC用のWindowsを提供するための条件には「Atomのような低速CPU」ということに加えて
「シングルコア」というものもあったからね。
Canoe LakeにデュアルコアAtomが採用されるということはAtomのようなCPUにおいては
シングルコアという条件が外されたということがいえそうにょ。
それならば価格面においては現状のネットブックと比べてそんなに高価にはならないにょ。
Atom搭載のネットブックは当初は7〜8.9インチの液晶サイズで1kg前後の重量だったけど
あまり持ち歩く人が少ないということと小さすぎて使いづらいということで大型化が
行われたにょ。
そのせいで大型化しただけではなく重量アップになったにょ。
重量に関してはバッテリのセル数を減らすことで軽量化したもののそれでも1.2kg程度が
ネットブックの主流となったにょ。
それに対してCULVノートはネットブックよりは重いものの両者には差別化ができるという
ほどの差はないにょ。(CULVノートは6セルモデルで1.5kg前後であるため同じセル数で
あれば重量差は100〜200g程度しかない)
サイズ面も両者には液晶サイズが10.1インチと11.6インチという差があるものの筐体
サイズ的にはインチ数分の差(1割程度のサイズ差)しかないため差別化できるレベルでは
ないにょ。
しかし、Canoe Lakeによって14mmという薄型化ができるのであればフットプリントで
大きな差はなくても見た目で大きな差となるにょ。(平均的なCULVノートは3〜4cmでなので
2倍の差となるため)
Canoe Lakeによってネットブックが盛り返すかどうかは今後の商品展開が大きく影響する
と思うにょ。
すでにネットブックを買った人の買い換え需要を望むのは難しいかもしれないけどCULV
ノートでは持ち歩きには大きすぎる(重すぎる)けど従来のネットブックではWin7を使う
には非力だから選択肢には入らないという人には良さそうな端末になるにょ。
もっともそれに当てはまる人がそれほど大勢いるとはいえないために少し前までのような
大きな需要はないかもしれないけどCanoe Lakeはタブレット端末にも採用される予定に
なっているにょ。
タブレット端末はネットブックとはまた別の需要として発生するので新たなユーザー層の
掘り起こしが可能となるため潜在的には大きな需要があると想定されているにょ。
タブレット端末においては6月8日に書いたようにOakTrailとのシェアの奪い合いとなるにょ。
OakTrailはAtom Z+US15Wの後継ということでAtom Nでは実現が困難な小型のPC用としては
期待が大きい(Atom Z+US15Wで不満があったGPU性能のアップとSATA対応が挙げられる)
けど低TDPということを生かして薄型・軽量のタブレット端末を作ることが可能になるにょ。
Atom NのCanoe Lakeでも14mmの厚さのネットブックが作れるということはそれよりも薄い
タブレット端末を作ることが可能になるということを意味するにょ。
CULVノートと差別化可能なネットブック、薄型、軽量なタブレット端末など様々な用途に
使えるためAtomはまだまだ大きな需要を秘めているといえそうにょ。
もっとも、実際に製品として形を表さないと「可能性」だけでは何の意味もないけどね。
位相差検出方式だから良いというわけではない
数年前ならばネオ一眼の領域だった光学10倍ズームのレンズも最近は一般的なサイズの
コンデジに搭載されているにょ。
これはレンズ設計技術の進歩もあるけど性能(具体的には表記しにくい画質)よりも数値
表現が容易なズーム比を重視しているのと望遠側のF値をある程度犠牲にすることで実現
可能になっているわけにょ。
コンデジである以上そこまで画質を気にする人も少ないし、ズーム比が上がることで
撮影カバーできる被写体が増える(デジタルズームを使うという手もあるけどデジタル
ズームはただのトリミング補間であるためズームとはいえない)というメリットがある
から一概には否定はできないにょ。
しかし、ズーム比が大きくなればなるほどコンデジの弱点が大きくなるにょ。
それはAFが遅いということにょ。
広角側では十分な速度でも望遠にしたら実用レベルではないとか、室内などの低照度の
環境下では極端にAFが遅くなる機種もあるからね。
その理由となってるのがAF方式にょ。
AF方式は一般的にはアクティブ方式とパッシブ方式に分かれているにょ。
アクティブ方式は赤外線や超音波などを被写体に照射してそれが跳ね返るまでの時間や
角度を計測することで距離を測定するものにょ。
この方式は銀塩時代のコンパクトカメラで多く使用されていたけど距離が遠いと反射する
赤外線が微弱になり測距しにくいという問題点があったにょ。
それに小型化がすすんでいるコンデジで外部に赤外線照射、受光するためのセンサーを
取り付けるのは難しくなっているからね。
そういうことでレンズから通った光を元に測距するパッシブ方式が現在のデジカメにおいて
主流になっているにょ。
パッシブ方式にはコントラスト検出方式と位相差検出方式があるけど速度面では圧倒的に
後者の方が有利にょ。
位相差検出方式はいわゆる三角測量の応用で瞬時に被写体までの距離が分かるために
後はその位置にレンズを駆動させるだけにょ。
この位相差検出方式は一眼レフで用いられているにょ。(AF方式自体はデジタルになっても
銀塩時代と変わらない)
それに対してコントラスト検出方式はレンズを少しずつ動かしていき最もはっきり見える
位置(つまりコントラストの高い位置)でストップさせるというものであるためその
性質上速度を上げることはできないにょ。
しかし、撮影センサー以外のものは不要であるため小型化が容易というメリットがあるにょ。
位相差検出方式では内部に測距用のセンサーが別に必要になるからね。(ゆえにこの
コントラスト検出方式はデジカメならではのものといえる)
しかも、そのセンサーに光を導くには内部にミラーが必要になってくるにょ。
つまり、位相差検出方式はミラーのないコンデジでは実現が困難なものといえるにょ。
ところが、この度位相差検出方式を用いたコンデジのFinePix F300EXRが発表されたにょ。
http://dc.watch.impress.co.jp/docs/news/20100721_381995.html
一体どうやってそれを実現しているのかというと原理は極めて単純だったにょ。
撮影センサー上に位相差検出方式の測距センサーを配置しているというだけにょ。
ミラーで別途用意された測距用のセンサーに光を導かなくてもレンズから通った光を
そのまま受光するだけで測距もできるため低コストかつ小型化ができてしまうにょ。
ここで問題となるのはそれで写真として成立するのかということにょ。
デジカメに広く用いられているベイヤー配列のセンサーの場合、センサーは格子状に
並んでおりそのいくつかが測距用のセンサーで使用されていたらその部分だけ写真に
映らないドット欠けの状態になるのではないかということにょ。(富士フイルムの場合は
ハニカム配列だけど基本的な面においてはベイヤーと変わらない)
そんな心配は無用にょ。
というのもベイヤー配列やハニカム配列では1つの画素でフルカラーを表現できるわけでは
ないからにょ。
単体ではR、G、B1つの色情報しか持たないため周囲の画素の情報を元に画素補間を行い
それでフルカラーを実現しているからにょ。
確かに参照情報が少なくなる分だけ劣化するということは十分考えられるけど1200万画素の
一部(数万個)が劣化したところでそれに気づく人は皆無だと思われるにょ。
というか、元々コンデジのレンズではすでにレンズ解像力よりセンサーの画素ピッチの
方が細かいためにピクセル単位で精密な描写は不可能だしね。
まさに画素数が十分なほど増え、画素ピッチが細かいコンデジだからこそ生まれた発想
だといえるにょ。
では、今後コンデジで位相差検出方式がメインになるのかというとそれはないと思うにょ。
というのもコントラスト検出方式も進化しており広角側ではその速度に大きな差はない
からにょ。
大きな差が出るのは望遠側だから高倍率ズーム機においては位相差検出方式がメインに
なるのかというとそうでもないにょ。
というのは動画と位相差検出方式の相性が悪いからにょ。
位相差検出方式は前述のように目的の箇所にいかに速くピントを合わせるかというもので
あるため静止画のためのAF方式だからね。
一気にレンズを動かし、動かし過ぎたら少し戻し・・・という感じでピントを合わせて
いくためこれを動画で見るとすごく見づらいものになるにょ。
デジタル一眼でも動画はコントラスト検出方式が用いられているからね。
これは動画撮影中(ライブビュー中)はミラーが使えないというのが大きいけど上記の
ように動画と位相差検出方式の相性が悪いというのも影響しているにょ。
もっとも、これは厳密には位相差検出方式だから動画と相性が悪いといよりもレンズの
駆動方法によって相性が悪くなっている(位相差検出方式の場合はレンズを少しずつ
動作させるという必要性がないため)というだけの話だから動画用にレンズ駆動用の
モーターに使用しているギアの多段階切り替えが可能であれば問題無くなるにょ。
したがって、このFinePix F300EXRも位相差検出方式だけではなくコントラスト検出方式も
搭載しているにょ。
恐らく静止画は位相差検出方式を用いて動画はコントラスト検出方式が用いられているの
ではないかと思われるにょ。
このようなハイブリッド方式であれば問題なくなるにょ。(コントラスト検出方式であれば
多点測距が容易だけど撮影センサー上に測距用のセンサーを配置しなくてはならないため
多点測距にするのは困難)
ただし、撮影センサー上に測距用のセンサーを搭載する関係上デジカメがセンサーを選んで
しまう(センサーの選択肢が無くなる)ということでこのような方式が主流になって
いかない限りは自前でセンサーを用意できるメーカーだけの特権になりそうな感じにょ。
キヤノンも撮影センサー上に位相差検出方式のAF測距用のセンサーを搭載の特許を取得
しているので近いうちに搭載製品が発売されそうにょ。
あとFinePix F300EXRは位相差検出方式のAF以外にもこのサイズで光学15倍ズームという
のも特長となっているにょ。
ただし、F200EXRの後継機種かというと微妙になるにょ。
F200EXRは1/1.6インチCCDというコンデジとしては大きめのセンサーを採用(F300EXRに
搭載の1/2インチCCDと比べて1.56倍の面積を持つセンサー)して画質を優先した5倍ズーム
となっているわけだからね。
もはや設計思想からして別モデルでありF300EXRは1/2インチCCD&10倍ズームF80EXRの後継
機種といった方が良さそうな感じにょ。
電子書籍は紙の書籍を超えられない!?
米国ではついに電子書籍がハードカバーを上回ったにょ。
http://www.jiji.com/jc/c?g=int_30&k=2010072200132
といっても、あくまで1四半期における販売タイトル数で上回ったというだけのことにょ。
ハードカバー100タイトルに対してKindle向けが143タイトルだからね。
しかし、これは大事件にょ。
紙の書籍として流通しない本が多く出てきたということになるわけだからね。
従来であれば、紙の書籍として販売された後に電子化というのが主流だったけどこれは
「電子書籍がメインになりつつある」ということを意味するにょ。
Kindleは値下げ効果もあってハードウェア自体が前年比で3倍売れているとのことだけど
その影響もあってKindle向けの電子書籍も前年比で3倍売れている模様にょ。
KindleだけでこれなんだからiPad向けも考慮すれば金額ベースで電子書籍が紙の書籍を
追い抜くこともそんなに遠くない将来にやってきそうにょ。
では、日本ではどうなのか・・・?
日本でも電子書籍用の端末は90年代からいくつも発売されているもののどれもヒットせず
現在に至っているにょ。
それゆえ、「日本では電子書籍は売れない」というイメージを持つ人もいるかもしれない
けどそれは正しくないにょ。
日本では電子書籍が売れてないというわけではないからにょ。
むしろ。昨年までならば金額ベースで日本の方が米国よりも電子書籍が売れているにょ。
http://www.webdbm.jp/2010/05/7-e8fe.html
上記リンク先の情報を見てのように2008年度実績で北米が約282億円なのに対して日本は
464億円だけどケータイ向けが402億円となっており、それ以外が62億円となっているにょ。
ケータイではそこそこ電子書籍は売れているけどそれ以外はほとんど売れてないという
のがこのデータから分かるにょ。
Kindleは2010年には前述のように前年比3倍の伸びを見せているのに対してケータイの方は
2003年以降徐々に増えてきたものであるため今後それほど大きな伸びは期待できないにょ。
そうなるとやはりケータイ以外(PCや専用端末)にもっとがんばってもらうしかないの
だけどそれは難しい問題にょ。
それでは、ケータイ以外ではほとんど売れないものがケータイで売れるという理由について
考えてみるにょ。
まず、ケータイにおいては2003年のパケット定額プランの開始が起点だと思われるにょ。
従量制であれば100KBであってもパケット料金が240円(当時の2Gケータイで標準的であった
1パケット0.3円で計算)かかってしまうからね。
あとは、性能向上が大きいにょ。
高速な描画性能も重要だけど液晶サイズも最低でもQVGAはないと実用にはならないからね。
初期の電子漫画では1コマごと表示していたけどそれでは限界があるにょ。(4コマ漫画で
あればそれでいいけど一般漫画では可読性を大きく損ねてしまうため)
◎日本で電子書籍が売れないのにケータイ向けなら売れる理由
(1)ケータイ以外のものを買う必要がない
(2)ケータイ以外のものを持ち歩く必要がない
(3)通信機能を内蔵している
(4)課金システムが確立している
(1)(2)はあまりに当然のことだけどユーザーにとっては大きなメリットとなっているにょ。
ケータイでゲームアプリを購入するのも多くの場合は暇つぶし用であるためケータイで
ゲームを買うくらいならゲーム機を持ち歩けばいいというのは正しくはないにょ。
やりたいゲームがあるからそれに対応したゲーム機を持ち歩くというのなら分かるけど
それであれば読みたい本があればその本を実際に買って持ち歩けば良いというだけの
話だからね。
日本では漫画文化が諸外国よりも一般に浸透している(諸外国では「漫画=子供のもの」
という考えが大半)とはいえ、公共の場で堂々と大人が漫画を読むというのはそれほど
良いイメージがあるとはいえないにょ。
それはゲーム機でも同じにょ。
日本においても「漫画やゲームは子供のもの」と考えている人は大勢いるからね。
ケータイを使えば人前を気にせず閲覧できるのが大きなメリットであるためケータイ向けの
電子書籍も漫画やグラビア系が良く売れているにょ。
(3)は電子書籍を販売する上で欠かせないにょ。
上記のように「暇つぶし」が主な理由であれば一旦PCでダウンロードした後に転送という
方法は一般には受け入れられないにょ。
それにPCに慣れている人ならば簡単なことだけどそれが難しいという人もいるわけだし
何より家族共用のPCしかない人であればそのような方式では難しいからね。
(4)は最も重要なものにょ。
他の電子書籍が成功しなかったのはコンテンツ不足もあるけど課金システムに問題が
あるからにょ。
クレジットカードで支払いをすれば問題ないという人もあるけどクレジットカードを
持つのが嫌な人、使うのが嫌な人もいるからね。(私もクレジットカードでしか支払えない
場合を除いてクレジットカードを使うことはない)
そういうことで、キャリアが支払い代行してくれるケータイ向けコンテンツは多くの
人に受け入れられたにょ。
ケータイ向けの電子書籍でクレジットカードが必須であったらここまでの伸びは見られ
無かったと私は思うにょ。
このようにケータイ1台あればいつでもどこでも気軽に読めるというのは電子書籍には
向いているかもしれないけどこれがメインになるとは思えないにょ。
というのもそのケータイでしか読めないからにょ。
◎ケータイ向け電子書籍が今後伸びない理由
(1)ケータイ以外でその電子書籍が読めない
(2)SIMロック解除によってそのシステムが維持できなくなる
(1)はキャリアがコンテンツを用意しているためにキャリアが専用の端末を用意しない
限りはそのケータイ以外では購入した電子書籍を読むことができないにょ。
Kindle用の書籍であればKindleで読んだあとその続きをPCで見るなんてこともできてしまう
(栞はサーバ上にあるためユーザーはどのページまで読んだのかということを意識する
必要がない)けれどケータイ向けの電子書籍ではそんなことはできないにょ。
それが難しいのは日本では書籍の著作権管理が米国よりも複雑であることが原因となって
いるにょ。
出版社ごとに提携を結んでいく必要があるけどあくまで契約を結んでいるのはその
キャリアであり、PCのようにキャリアから離れて使用が可能になるような端末では使用が
できなくなるにょ。
つまり、上記のように電子書籍専用端末をキャリアが出し、その端末でのみケータイで
ダウンロードしたものを共用可能になるということにょ。
(2)は(1)の問題をさらに拡大しているにょ。
7月7日に書いたように来年4月からドコモが自社端末のSIMロックを全機種解除するけど
恐らく他のキャリアも遠くない時期にこれに追従すると思われるにょ。
ただ、そこで書いたようにあくまでSIMロックが解除したところで使えるようになるのは
キャリアに依存しない部分のみにょ。
(1)のように現状の電子書籍は完全にキャリア依存となっているためSIMロックが解除
されたとしてもその書籍を読みたいのであれば端末やキャリアは移動はできないにょ。
つまり、キャリア主導の現在のケータイ向け電子書籍はキャリアが主導しているお陰で
現在のように広く多くの人に受け入れられているのだけどキャリアが主導しているのが
原因で今後大きな発展性は望めないということにょ。
したがって、日本において電子書籍が今後大きく伸びるかどうかはキャリアに依存しない
方法をメインにしていく必要があるということにょ。
そんな中、シャープが電子書籍事業へ参入すると発表したにょ。
http://k-tai.impress.co.jp/docs/news/20100720_381882.html
そして、そのサービスを利用するためのタブレット端末も参考出品されたけど5.5インチ
液晶搭載モデルと10.8インチ液晶搭載モデルの2種類が用意されているにょ。
このラインナップは悪くないにょ。
大きな画面の方が視認性が向上するため使いやすいと単純にはいえず、電子書籍用で
あれば6月2日に書いたように6〜7インチ程度の方が使いやすいからね。
新聞や週刊誌を流し読みするならば大きい液晶の方がいいけど決まったコンテンツを
閲覧するのであればある程度小さい方がいいにょ。
かといって、あまり小さいとかえって使いづらいしケータイと差別化もできないにょ。
人間の目は30cm離れた状態でカラーで300ppi、モノクロならば400ppi以上の分解能を
持つわけだけどそれはあくまで凝視した場合の話であり実用面からいえば小画面の場合に
おいては液晶サイズで情報量がほぼ決まってしまうにょ。
5インチであれば3.5インチの2倍の情報量があるというわけにょ。
一般的なケータイでは3.2〜3.5インチであるため5〜6インチあれば十分に差別化が可能に
なるにょ。
またこのクラスだと文庫本感覚で使えるし、重量面でも恐らく300g程度に抑えられる
ために何とか片手で持って読める程度の重さになるにょ。
ただ、端末ラインナップが2種類用意されているとはいえ問題はその端末をわざわざ買う
人がどれだけいるのかということにょ。
そして、その端末用にどれだけのコンテンツが用意できるのかということが重要になって
くるにょ。
ケータイのようにある程度普及している端末であれば出版社との契約もスムーズに進む
だろうけどこれから新規に参入というのであれば様子見をする出版社も多く存在する
だろうからね。
そうなるとコンテンツはあまり用意できず、端末も売れないという負のスパイラルが
生じてしまうにょ。
さらに課金システムの問題もあるからね。
それらのことを考えると日本でiBooksのサービスが開始されることが電子書籍成功への
近道といえるかもしれないにょ。
シャープはiBooksが開始される前に手を打っておきたい(開始されたらコンテンツ面や
端末の知名度の面において勝ち目がほとんどない)ということだろうけど現時点では
ケータイ向けのみ何とか成功といってもいいレベルであり、それ以外では売れてない
日本の電子書籍において成功へと導くのは並大抵のことではできないにょ。
iPadでさえそれができるか微妙なのにシャープに果たしてそれができるのか・・・・?
まだまだ問題点が多い(著作権管理システム複雑であることや出版社が保守的)日本に
おいては電子書籍が紙の書籍を超えるという時代は当分やってこないと思うにょ。
配信サービスを行うのは責任を負う
昨日は日本で電子書籍を普及させるのは難しいということを書いたにょ。
その中でシャープが参入しようとしているのだけど何もしなければいずれiBooksの
サービスが日本で開始され他のメーカーはかなり厳しい立場に立たされてしまうため
現時点で十分な準備が出来ていなくてもまずは先制攻撃をすることに意味はあるにょ。
それでは、シャープに求められるものは何なのか・・・?
http://pc.watch.impress.co.jp/docs/column/hot/20100723_382678.html
アップル社(iPhone、iPad)の最大の強みは垂直統合モデルにあるにょ。
ハードウェア/OS/アプリ・コンテンツを1社ですべてまかなえているということにょ。
しかも、それらがすべて高レベルで統合しているにょ。
それに対してそれ以外の例えばWindows PCなどは水平分業の典型例となるにょ。
PCといっても様々なPCメーカーが多くのものを作っているわけだし、その中では独占状態に
近いOSであるWindowsであっても他の選択肢がないわけではないにょ。
したがって、PC用のアプリがそのPCで動くようにするためにはそのPCメーカー、パーツを
作っているパーツメーカー、そしてOSを作っているOSメーカー(WindowsならばMS)が
それぞれ自社の責任を果たすことで実現しているにょ。
その点、垂直統合モデルであれば当然のことながらメーカーの組み合わせは1通りしかない
わけなのでその責任はすべてそのメーカーにあるにょ。
シャープが端末を作り、そしてコンテンツ配信まで手がけるというのであればそれだけの
責任を負う覚悟が必要になってくるというわけにょ。
確かにOS、アプリが一体となっている組み込み機器の場合、時代とともに陳腐化してくれば
機器ごと買い換えというのも選択肢の1つと割り切る必要もあるだろうけどなかなかそう
割り切れるものではないにょ。
機器のみ、もしくはコンテンツ配信のみ行うというのであればまた変わってくるにょ。
機器の販売であればシャープは電子手帳の時代からザウルス、NetWalkerと長年手がけて
きているためそれほどハードルが高いものではないにょ。
成功するという確証はないけどやり方を間違えなければそんなに失敗することはないと
私は思うにょ。
しかし、コンテンツ配信に関してはかなり懐疑的にょ。
機器の発売当初は力を入れているように見えているけどすぐに撤退もしくは凍結となって
しまうからね。
これは機器のアップデートとの関連性も非常に高いと思われるにょ。
例えばiPhoneにおいて機種毎に対応アプリがあるならばその市場はかなり小さいものに
なるけど実際は1世代前まではOSのバージョンアップで現役として使用が可能になっている
からね。(最新モデルしか対応していない機能を使ったアプリは除く)
確かに端末機器メーカーからすると新しいサービスを始める場合には新しい機器に変えて
もらう方がサポートコストを考えても有利になるのだけどどこまでユーザーが納得できる
のかということがポイントとなるにょ。
場合によってはソフトウェアのバージョンアップで十分に賄うことができるかもしれない
わけだしね。
ザウルスでその辺が特に痛感したにょ。
汎用OSであるubuntuを採用しているNetWalkerであってもシャープ独自カスタマイズに
よってユーザーの自由なバージョンアップが困難であるためその状態は変わらないと
思われるにょ。
では、コンテンツ配信のみに徹するのが良いのかというとそうともいえないにょ。
配信する側は端末をコントロールできないからね。
電子書籍ではフォーマットとしてのデファクトスタンダードな形式がないからね。
実際、すでに配信では成功を収めている音楽でもそんなものはないにょ。
MP3がデファクトスタンダードという認識が多いけどMP3はDRMに非対応であるためあくまで
個人利用(CDを買ってリッピングする場合)におけるデファクトスタンダードであり配信と
なると大きく分かれてiTunes StoreのAAC、その他配信サービスで主に使われているWMV、
着うたフルで使われているHE-AACがあるにょ。
それらはDRMによって一定回数のコピーもしくは電話番号による認証キーで著作権保護
されているにょ。
シャープがコンテンツ配信だけを行った場合にはその配信サービスが成功するかどうかは
その形式の書籍が読める端末がどれだけ出るのかというのが成功を大きく左右するにょ。
Kindleが現時点で米国である程度の成功を収めているのはコンテンツ配信する側と端末が
セットになった垂直統合モデルだからにょ。
昨日も書いたようにハードが売れることでコンテンツが売れるという相乗効果が期待できる
というわけにょ。
どっちかで仮に赤字だったとしてもトータルで黒字であればビジネスとしては成功といえる
のである程度戦略的な価格付けを行うことが可能になるにょ。
これが機器のみコンテンツ配信のみであればそれぞれ単体で利益が出せるような価格
付け(配信の方は著作権者への配分割合を含む)を行う必要があるにょ。
例えばコンシューマゲーム機があの価格で出せるのはハードでは赤字になってもソフトの
ライセンス収入(ここで言うコンテンツを配布する側の利益)を得ることでその赤字の
穴埋めが可能になっていると同時に当初は赤字であっても将来的に伸びることが予想
できるのであれば事業の継続にはそれほど支障を来すことはないにょ。(PS3のように
黒字化するまで数年かかるケースもあるため赤字に耐えうるだけの資本力は必要だけど)
つまり、価格面やサービス面では垂直統合モデル(ここでは厳密な垂直統合ではなく
機器とコンテンツの配信を1社で賄うというくらいのニュアンス)の方が有利になるという
のは明らかなのだけどそれは前述のように責任問題にも繋がってくるにょ。
他の会社と合弁事業を展開し、その責任負担を小さくするという方法もあるわけだけど
「船頭多くして船山に登る」とことわざにもあるように成功に導くには船頭はなるべく
少ない方が良いにょ。
しかし、シャープにアップルやアマゾンのようなサービスが出来る・出来ないを論じるのは
現時点では意味がないためもう少し様子をみる必要がありそうにょ。
タイムリミットまであと1年
地デジ完全移行まであと1年になったにょ。
http://av.watch.impress.co.jp/docs/news/20100724_383026.html
私は現時点ではまだ地デジ対応のTVや録画機器を導入していないにょ。
せいぜいワンセグ視聴環境があるくらいにょ。
ワンセグはPC用のUSBチューナー、ケータイ内蔵のもの、単体のワンセグTV(ワンセグ
機能のあるメディアプレイヤー)を持っているので困ることはないにょ。
さて、地デジに移行することでメリットとデメリットがあるにょ。
◎メリット
(a)画質に優れる
(b)来年以降も地上波放送を見れる
◎デメリット
(c)コスト面の問題
(d)コストをかけて見たいものがない
これらはあくまで私個人のメリットデメリットだけどそれらをもう少し詳しく書いていく
ことにするにょ。
(a)の画質面に関してはわざわざ語る必要はないと思うにょ。
画質を全く気にしないという人であればワンセグでも十分だからね。
QVGA、15fpsというのは現状のアナログ放送よりも劣るけど「見れればOK」というレベルで
あれば問題ないにょ。(後述のようにニュース番組ならばワンセグで問題ない)
とはいえ、いくら画質をそれほど気にしないという人でもワンセグでは不満があるという
人もいると思うにょ。
私も(高画質化のために買い換えが必要な場合であれば)それほど高画質を望んでいる
というわけではないけど同じ金額を払うならば画質がいいに越したことはないからね。
(b)に関して言うと、そもそも私の部屋にはTVがないにょ。
実際はあるのだけど25年前のTVでゲーム専用の15インチTV(チューナーは故障のため
ゲーム用としてしか使えない)で最近はそのTVを使ってゲームをすることもないので
部屋の中に埋もれている状態にょ。
自分の部屋でTVを見る場合はノートPCにUSB接続したアナログチューナーで受信している
けど画質はイマイチとはいえ、録画が必要なものは別途リビングに置いているDVD
レコーダーで録画しているので問題ないにょ。
リビングに置いてあるTVとDVDレコーダーはこちらもまだ地デジには対応しておらず
アナログ放送のみとなっているにょ。
やはり、大きいのは(c)のコストの問題にょ。
TVもレコーダーも買い換えたいところだけど生憎その予算はないにょ。
リビングに置くならば最低でも32インチクラスは欲しいし、どうせ買うならば720pでは
なくフルHD対応のものにしたいけどそうなると依然として高価だしね。
フルHDで安価に入手しようとするならばチューナー機能付き液晶モニタを買うのが一番
だけど安いのは22インチクラスでリビング用には小さいし、画質も専用TVと比べたら
大きく劣るので躊躇しているにょ。(自室用としてPC兼用で使うならば良い選択肢だけど
PC用のモニタは昨年フルHDのものに買い換えたばかりなので買い換え辛い)
コストに加えて(d)の問題があるにょ。
アナログ放送が終了してもTV放送が見れなくなるというわけではなく地上波放送が見れなく
なるというだけだからね。
現在私が録画しているTV番組の大半はアニメだけど私はアニメ過疎地に在住している
関係上録画している放送局はほとんどが隣県のものとなっているにょ。
アナログ放送であれば隣県の電波が受信できるもののデジタル放送ではそれができない
ということでデジタルに移行しても「見れないものが見れる」というわけでないにょ。
現在アナログ放送が受信できている放送局がすべてデジタルに移行しても受信できるので
あれば予算の都合が付き次第デジタルに移行したいと考えているけど残念ながらそういう
ふうにはいきそうにないからね。
区域外再送信も検討中だけどまだどうなるか分からないにょ。
地上波で見れなくても今はCS放送やネット配信で見ることもできるし、何度も繰り返して
見たい作品であればDVD(BD)で見ることでカバーできるからね。(現状でも録画しても
1回見た番組を後からまた見ることはほぼ無いし、見直したいというものはDVDを買っている
わけだから現状と変わらない)
コストをかけてまで得られるものはほとんどないにょ。
ローカルニュース程度ならばワンセグで十分だしね。(ニュース、天気予報の類も今は
ほとんどネットでしか見ていないし)
とりあえず、現状では「メリット<デメリット」であるため急いで導入する気にはなれない
ということでもう少し様子見という感じにょ。
気が向いたらPC用のUSB地デジチューナーを購入するかもしれないけど地デジ移行への対策は
その程度で済ませることになる可能性が高いにょ。
花火写真ノススメ
そろそろ全国的に花火大会の季節ではないかと思うにょ。。
私の地元でも10日後には花火大会が開催されるので天候さえ良ければ撮影しにいく予定に
しているにょ。
花火の撮影なんて難しそう・・・と思うかも知れないけどデジカメでは撮影難易度は
銀塩カメラよりも格段に低いので安心にょ。
花火撮影に重要なのは必要な機材を用意することと撮影に必要なの知識(といっても
難しいものではなく下記程度のもので十分)を持って撮影に望むことにょ。
主に必要な機材には下記のものがあるにょ。
(必須機材1) カメラ+レンズ
(必須機材2) 三脚
(推奨機材1) ライト
(推奨機材2) レーブルレリーズ
まずは必須機材1のカメラ+レンズを考えてみるにょ。
最初にカメラだけどベターなのはシャッター速度が自由に調整できる一眼レフにょ。
花火は数秒間シャッターを開けっ放しになるため一眼レフであればバルブモードで撮影
することになるにょ。
バルブで撮影する場合には花火が上がった瞬間にシャッターを押し、数発打ち終わった
時にシャッターと閉じたらいいにょ。(花火の音でシャッターを押し始めるのは見えて
から押したのではタイムラグの関係上花火の中心部分が写らなくなるため)
目安としてはシャッターを開けておく時間は4〜8秒程度となるにょ。
1画面に1発だと寂しいけど欲張ってシャッターを開けたままにすると花火同士が重なり
合って形が分からなくなってしまうためにかえって逆効果になるにょ。
その一眼に使うレンズはどのようなものを用意すれば良いかというと花火の規模や撮影
する構図によって大きく左右されるもののそんなに望遠レンズは要らないにょ。
最初にセットで買ったときに付いてきた標準ズームで十分にょ。
むしろ、足りないと感じるのは広角側だと思うにょ。
花火だけを撮るならば換算28mm程度で足りるけど風景を入れようとすると換算24mm以下の
超広角レンズがないと厳しいからね。
レンズの画角は標準ズームで足りるけど問題は絞りにょ。(AEでの撮影は適さない)
どの程度の絞りにするのかというのは風景との絡みや花火の明るさによって変わるため
一概には言えないもののF8〜F16くらいで調整するといいにょ。
ただし、APS-Cでは1000万画素であってもF16以上に絞ると回折限界に達するために小絞り
ぼけによってシャープに写らなくなってしまうにょ。
そのためNDフィルターがあると便利にょ。
NDフィルターは明るい場所で使うとは限らずシャッター速度や絞りの選択幅を広げる
ものとして常にカメラバッグの中に常備しておきたいにょ。
私もND4、ND8フィルターを持ち歩いているにょ。
花火を撮るなら昔だったら一眼レフが必要不可欠だったけど最近はコンデジでもシーン
モードで花火モードが選べるようになったのでそれを使うといいにょ。
少し古めの機種でも夜景モードがあれば花火は撮れなくはないにょ。
オートで撮影すると暗い場所だからフラッシュが発光してしまうこともあるけど花火
までは距離が遠いからその光が十分に届かないだけでなく、花火自体が発光体であるため
それを照らすという行為は全く無意味となるにょ。
オートで夜景や花火だと判断してくれる機種ならばオートでいいけどフラッシュが発光する
場合は確実に失敗写真となるためユーザーの手でシーンモードを設定する必要があるにょ。
さて、肝心のレンズだけど一眼レフのところで書いたように標準ズームで問題ないにょ。
「標準ズーム」という言葉がよく分からなければ3倍くらいのズームで問題ないと考えれば
いいにょ。
コンデジの場合はズーム比ではなく広角側の画角に問題がある場合が多いにょ。
最近は換算24〜28mm程度の広角をカバーしたレンズを搭載の機種が多いけど少し前までは
広角側も換算35〜38mm程度が主流だったからね。
この画角だと1尺玉のような大きな花火は画面内に収まらないにょ。
とはいえ、普通の花火なら十分撮れるので尺玉が連発するような状況下でない限りは大きな
問題はないと思うにょ。
次に必須機材2の三脚について書いていくことにするにょ。
三脚は数秒間シャッターを開けっ放しにするために必須となっているにょ。
数秒もの間1mmもカメラを動かさずに両手で保持できる人なんてどこにもいないからね。
手ぶれ補正機能があるから安心なんてことはなくこの手ぶれ補正は数分の1秒という
シャッター速度では有用な物だけど数秒という長時間シャッターを開けている場合には
全く役に立たないにょ。
むしろ、三脚に乗せている場合には手持ちとブレ方が異なるために三脚に乗せて撮影
する場合には手ぶれ補正機能は切って使う方がベターにょ。
さて、難しいのは三脚選びにょ。
すでに三脚を持っている人はそれを使えばいいけど人混みの中撮影することになるため
極力三脚は高さが高い方がいいし、転倒防止の対策をしておく必要があるにょ。
三脚は安定性重視のできるだけ重くて丈夫なものを選択したいけどこれは価格と可搬性
との兼ね合いがあるため難しいにょ。
高さが足りないから足を限界まで伸ばして、さらにエレベータをいっぱいまで伸ばして
使用するという人も見かけるけどこれは安定性を考えるとあまり良い使い方ではないにょ。
三脚の重量が軽く一眼レフを乗せたら三脚が倒れそう(揺れてしまう)という場合は
ストーンバッグをなどを用いて三脚の自重を増やすという方法があるにょ。
花火撮影をする場合にはこの三脚で失敗写真になるかどうかが決まる(いくら構図が絶妙
であってもブレブレ写真だと好印象はなくなる)ということでこの三脚選び、三脚の
使用方法に関しては注意を払いたいところにょ。
次は推奨機材1のライトについてにょ。
花火撮影は暗い場所で行うので当然のことながら暗い場所でセッティングや後かたづけを
する必要があるためそれを照らすためのライトが必要になるというだけの話にょ。
これは花火だけではなく夜間撮影をするすべての場合にいえることにょ。
このように本来は必須といってもいいようなものなのに推奨止まりなのはケータイにLED
ライトが付いているからにょ。
そのLEDライトで明るさや機能面で不満、ケータイのバッテリを使いたくないという人は
単体のライトを持って行くといいにょ。
最近はLEDライト搭載の懐中電灯も数100円で買えてしまうのでコンパクトサイズのものを
買っておいてカメラバッグの中に常備しておくと良いかもしれないにょ。
途中でレンズ交換を行う人であれば両手が使えるヘッドライト方式のライトの方が便利
かもしれないにょ。
ただし、花火撮影の場合は上記のように標準ズーム1本で何とかなるためにレンズの交換
必要性は薄いため作業が可能な程度のライトがあれば十分にょ。
推奨機材2のケーブルレリーズについて書いてみるにょ。
カメラを三脚にセットすればぶれない・・・なんてことはなく最大の問題はシャッターを
押す瞬間にあるにょ。
よほど慎重に押さない限りは確実に手ぶれを起こしてしまうにょ。
セルフタイマーを使えばそれはかなり軽減されるけどそれだと花火が上がる瞬間を狙って
シャッターを切ることはできないにょ。
そのために必要なのがケーブルレリーズにょ。
銀塩一眼ではこのケーブルレリーズは花火、星座写真を撮るのには必須だったけど
デジタル一眼ではシャッターボタンにケーブルレリーズを差し込める穴は開いてないにょ。
しかし、デジタル一眼の場合は電子制御できるため専用のケーブルレリーズを差し込む
コネクタがあれば問題ないにょ。
私が持っているK200Dではこのコネクタがあるために専用ケーブルレリーズを買ったにょ。
しかし、コンデジの場合はこのケーブルレリーズが使える機種は皆無だし、デジタル
一眼であっても入門機ではコネクタのない機種は結構あるにょ。
私が持っているD50はデジタル一眼とはいえ、ケーブルレリーズ用のコネクタは付いてない
からね。
そういう時に便利なのがリモコンにょ。
本来は遠隔操作用だけどケーブルレリーズのように三脚使用時の手ぶれ防止用としても
リモコンは有用にょ。
私のD50はリモコンには対応しているので専用リモコンを買ったにょ。
手元にあるコンデジでリモコンがオプションであり花火撮影のために購入するのが馬鹿
らしいという人や専用リモコンそのものが存在しないという人は最終手段としてブレない
ように慎重にシャッターを押すしかないにょ。
「三脚があるから手ぶれをしない」という認識だと後から確認した場合にはブレブレに
なるけど「気を付けないと三脚でも手ぶれをする」と認識しておけばブレは最小限に
抑えられるため慎重にシャッターを押していけば意外に手ぶれは起こさずに済むにょ。
この心がけ(認識)の違いというのはかなり大きいにょ。
また、必須、推奨機材には挙げてないけど予備のバッテリや記録メディアもあった方が
いいにょ。
バッテリは液晶画面をずっとONの状態で撮影した場合には通常時よりもバッテリ消費が
大きくなるからね。
メディアは連写をすることがないためそんなに大量は必要にないけど1カット10秒と
仮定すると1時間の花火大会では360カットとなるにょ。
JPEGで1枚5MBだと1.8GB、つまり2GB以上空きのあるメディアであればいいにょ。
これがRAWだと1枚20MBと仮定しても8GBで足りるにょ。
花火撮影は銀塩カメラでは撮影に有利な一眼レフでは撮影中に被写体が見えない
(シャッターを開けている時はファインダーが真っ黒になる)ということで撮影する
場合はカンや経験が必要だったにょ。
これがデジタルになって失敗かどうかはその場で確認できるようになり、コンデジや
ライブビュー対応のデジタル一眼であれば常時その様子を液晶モニタで確認が可能で
あるために失敗する確率が非常に下がりそのため撮影難易度は大幅に下がったにょ。
デジタルによって撮影難易度が下がったジャンルは多くあるけど花火に関しては
デジタルの恩恵が最もあるジャンルだと思うにょ。
それに花火はカメラ以外に必要なものは三脚だけで済むからね。
これがスポーツ写真であれば望遠レンズが必要だったり、高速なAF搭載のカメラが必要
だったりということで追加投資を覚悟しないといけないのだけど三脚は安いものであれば
3K円くらいで買えてしまうし、あれば何かと便利だから買って損はないにょ。(望遠
レンズは買っても使わない人も多いだろうし、安くても1〜2万円であるため必要ない
人にはおすすめしずらい)
さらに花火は被写体自体がキレイであるため失敗しない限りは撮った写真がキレイに
なるというのが大きいにょ。
これが風景写真であれば見たときと同じようなイメージの写真を撮影するにはかなりの
技術やセンスが必要になってくるにょ。(見たときにはキレイな景色も写真で見たら
平凡なものになりがち)
これは花火写真は奥が浅いというわけではなく一定レベルの基準に達するのが簡単で
あるということにょ。
したがって、初心者、未経験者であってもデジカメを持っていれば花火写真を撮ることを
オススメしたいにょ。
ビジネスモデルを変えるのは難しい
アニメのDVDを買ったことがある人であればその価格の高さに驚くと思うにょ。
TV放送されたものがDVD化されただけで3話入りで5800円〜7800円くらいするからね。
タイトルによって大きな差はあるものの深夜アニメの場合は概ね1話当たり2000円前後
となっているにょ。
なぜこんなに高価になるのかというとDVDを販売することで制作費を回収するビジネス
モデルとなっているからにょ。
深夜アニメの場合は1話当たりの制作コストは概ね1000万円程度となっているにょ。
この価格が高いかどうかというとまた微妙になるけど内訳を見ると動画の場合1枚約200円
程度でこれが1話あたり2000〜4000枚、原画(背景など)でも1枚2000円程度が相場と
なっているにょ。
声優の人件費は1人当たり最低1.5万円(その声優のランクによって大きく異なる)と
なっており、その他もろもろを合算すると1話あたり約1000万円になるということにょ。
アニメを見ていればそのスタッフロールの多さに気が付くと思うけど30分アニメの
場合一般的には3〜4週間かけて作られているにょ。(複数のチームに分かれたり、外注
したりで毎週の放送ができている)
それらの人件費を考えれば1000万円という費用は格安といってもいいにょ。
しかし、1000万円を回収しようとなると至難の業にょ。
1話当たりの販売価格を考えると定価の半分が製造料や流通コストで消えると考えた場合
にはDVD売上1万枚が損益分岐点になるにょ。
ただし、一説によるとオリコンの初動売上で3000本越えると一般的な深夜アニメは元が
取れるらしいにょ。
これはオリコンの売上は出荷数より小さめに出ている(メガヒットの場合は誤差は小さい
けれどマイナー作品は相対的に誤差が大きくなる)のと上記の「定価の半分」という
計算がアバウトであるのが原因だと思うにょ。
3000本くらいなら簡単に売れるのでは・・・?と思うかも知れないけど実際はそれに
達するのはせいぜい5作品に1本くらいにょ。
つまり、8割の作品が赤字を2割の作品の黒字でカバーする必要があるにょ。
タイトル数が増えるにしたがいこのような傾向が高まってきたのだけど実際売れる作品は
売れているため一部のヒット作で赤字分を回収することは可能となっているにょ。
ただし、2006年をピークにTVアニメの数は右肩下がりになっているにょ。
これは、上記のように大半の作品が赤字だからにょ。
ヒット作品を出せば今までの赤字が回収できるとしてもリスクが大きすぎるからにょ。
DVDを売ることで投資した分を回収するというビジネスモデルにはもう限界がきている
ということにょ。(一番おいしいのはヒット作品を抱えている出版社だけど昨今の
アニメ化作品の増大によって原作の枯渇化が見え始めている)
そもそもアニメというのは映像作品として売るために作るのではなくおもちゃを売る
ために作られたものだったにょ。
http://bizmakoto.jp/makoto/articles/1007/26/news010.html
そのためおもちゃメーカーがスポンサーとなってアニメに投資していたにょ。
それは昔は映像作品として売るというのが難しかったと言うのが一番の理由にょ。
80年代前半だとVHSデッキでさえ普及していなかったからね。
VHSが普及し始めた90年代、そして90年代末期のDVDの普及開始によって現在の多くの
深夜アニメで導入されているDVD(映像作品)として販売することによる投資を回収する
ビジネスモデルができあがったにょ。
深夜アニメの多くはこの映像コンテンツを売ることをメインとしたビジネスモデルと
なっているのだけど子供向け作品では今でも昔ながらのビジネスモデル(おもちゃの
宣伝をするためにアニメを作っている)となっているにょ。
これで成功したのは最近だと「ジュエルペットてぃんくる☆」が挙げられるにょ。
ジュエルペットはおもちゃを売るのが目的であるためDVDは通常のアニメでは考えられない
4話入りで1380円という破格値となったにょ。
深夜アニメはそれと同じように考えればDVDを売るためにTVで放送(宣伝)するという
ことをしているともいえるにょ。
実際TVで放送するというだけで知名度が段違いに高くなるからね。
ただし、放送したものが映像であるためTV版で満足してしまえばわざわざDVDを買うと
いうことも無くなるにょ。
TV放送したものをわざわざ買うなんて一部のアニメオタクに限られるからね。
アニメ好きの大人は数100万人はいると思うけどその中でDVDを買うとなるとかなり
限られてくるにょ。
TVアニメだと最大に見積もっても1巻当たり10万本程度の売上だからね。(出荷ベース
だと10万本を超えている作品もあるけど)
最近では化物語が1巻当たり7〜8万本というガンダムシリーズと同レベルの販売本数を
記録し話題になったにょ。
この春の新作であればAngel Beats!の1巻が初動3.4万本という売上を記録したにょ。
1巻あたり3万本というのは年間ではトップ3に入るくらいの作品であり1年間に100作品
以上作られていることを考えればそこまで売れることを前提に考える(売れることを
見越して宣伝費用をかけたりする)のは無理があるにょ。
やはりDVDだけでは限界があるので重要となるのが版権ビジネスにょ。
現在ほとんどのアニメが制作委員会システムを取っているにょ。
これは複数の企業で投資をすることでリスクを分散するものにょ。(得られた利益も
その出資割合によって分配される)
この方法によって小さなアニメ制作会社でもTVアニメを作ることが可能になっているにょ。
これによってリスクが分散されるというメリットがあるものの問題は考え方の異なる
複数の企業が出資することで作る側の自由度が減ってしまうということにょ。
スポンサーの指示には逆らえないためプリキュアやリルぷりなどの変身もののアニメでは
変身グッズを売るために毎回変身シーンを入れるという制約があるにょ。(ネギマ!?
では、TVに100枚のネオパクティオカードを登場させるようにプロデューサから指示が
あったのは有名な話)
それに近年表現規制が厳しくなっているせいで自由度が失われているというのも原因と
なっているにょ。
つまり、「作りたいものが作れない」ということにょ。
TVで放送するということで知名度が上がりDVD売上にも貢献できるけどTV放送するには
大きなコストがかかり、なおかつ上記のように制約も大きくなるという難点があるにょ。
かといって、制作委員会システムをとらず、宣伝も控えめにしてオリジナルのOVAとして
販売しても売れる見込みはほとんどないにょ。
最近話題になっており、(商業的に見て)ハズレ作品がない京都アニメーションでも
自社原作のOVAのMUNTOはさっぱり売れなかったからね。
映像作品を売るためにはそれなりの作品知名度がないと厳しいということにょ。
これが人気原作であれば原作ファンの支持があるために売上はそれなりに期待できるため
最初から原作ファン向けに作られてコミックスとセットで売られるOAD(※講談社命名)
というシステムも最近は多く取り入れられているにょ。
ネギまはTV版1期が平均1万本少々の売上だったのに対してOADでは8万本の売り上げと
なり、OADというシステムはが効果が大きいことは実証されているにょ。(ただし、
これは一定以上のコアなファンが付いている人気原作でないと効果が発揮できない)
映像で儲けるのは無理だから無料配布して版権収入だけで回収するというのが上記
リンク先の山本寛氏の考えにょ。
確かにアニメのDVDを買うというのはアニメファンの中のごく一部にすぎないから
その少ないパイの奪い合いでは勝者になるのは極めて難しいからね。
しかし、アニメのDVDだから売れないというわけではないにょ。
実際ジブリアニメはアニメDVDとしては破格の数100万本(「千と千尋の神隠し」は
DVDとVHSを合わせて500万本)売れているにょ。
これはアニメとして・・・ではなく映像作品として優れているから売れるというわけにょ。
ジブリアニメ以外が映像作品として劣っているとは私は思わないけどジブリアニメ
以外は「アニメだから」と敬遠する人が多いせいだと思うにょ。
さて、そのように考えると映像を無料配布することで幅広い層にその作品を知らしめる
ことが出来てもその関連商品を買うという版権ビジネスを非常に難しいことが言える
かもしれないにょ。
実際、世帯視聴率3%のアニメの場合単純計算で360万人の人が見ている計算になるにょ。
広いユーザーに認知させるのであれば少なくともそれを超えるレベルはできないと
話にならないにょ。
最低でも360万冊売れる雑誌(ちなみに最も売れている週刊少年ジャンプが現在の
発行部数は280万部)に無償配布しないと「少ないパイの奪い合いを避ける」という当初の
目的は達成ができないにょ。
360万枚も無料配布した場合にはDVDのプレス料金は少なめに見て1枚50円と計算しても
1.8億円かかる計算になるにょ。
TVアニメの場合はキー局で放送しても1話5000万円程度だからメディア配布の方が
かえってコストがかかってしまうにょ。
そもそも、その無償アニメを見てもグッズを買いたくなる層というのは結局コアな
アニメオタクに限られるため狭いパイの奪い合いから結局逃げることは出来ないにょ。
ジブリ並みの「アニメ」という枠から外れるくらいの認知度にならないと駄目という
ことにょ。
そのためには良質の作品を作り続けるだけではなく多業種と提携し認知度を上げるために
多くのコストが必要になるというわけにょ。
「面白い作品だから関連商品が売れる」という計算は単純には成立しないにょ。
かといって、今のアニメのようにどこかで見たことあるようなものばかりというのも
困りものだけどね。
ガラパゴスケータイのインセンティブを付けて販売するビジネスモデルと同じように
一旦普及したビジネスモデルは簡単に変えることはできないにょ。
これは電子書籍の流通に関してもいえるにょ。
変えることができても1社の力だけでは難しいにょ。
したがって、他の会社と連携をしてより変えられるような環境に少しずつ近づけていく
ということが必要になるにょ。
やはり高校野球はいい
久しぶりに高校野球を撮影してみたにょ。
前回撮影したのはまだ銀塩一眼を使っていた20年近く前のことにょ。
まず撮影するならば撮影ポジション確保が重要になるにょ。
球場の中を自由に歩いて撮影すれば良いとなるけどそれが可能なのは撮影許可を事前に
もらっている人(要するに報道関係者)だけに限られるにょ。
問題行動をする人が多いためにカメラを持ってうろうろするだけで不審者扱いされて
しまうハメになるので下手な疑いをかけられないためにも最初に決めた位置で固定して
撮影するというのが一番にょ。
では、どこが良いのかというと人それぞれだけど私はピッチャーとバッターをメインに
撮りたいのでピッチャーマウンドからホームベースを結んだ直線の垂直二等分線上にくる
場所で最もグランドに近い位置にしたにょ。
とはいえ、近い位置では金網が邪魔になるにょ。
コンデジであればレンズが小さいので金網にくっつけて撮影すれば金網を無効化できる
わけだし、一眼レフでも金網にぴったり合わせて絞りを開放にすれば大きくぼけるので
金網はほとんど無効化できるためそれほど問題はないにょ。
とはいえ、そんな金網に密着する方法で撮影するのは警備員に注意されてしまいかねない
ためやめておいた方がいいにょ。
したがって、多少離れても金網がフレームアウトするくらいの高さにくる座席で座って
撮影することになるにょ。
これならば誰にも迷惑がかからず無難に撮影ができるにょ。
さて、問題はレンズにょ。
どの選手をどんなふうに撮影したいかでレンズが変わってくるにょ。
選手をアップで撮影するにはかなりの望遠レンズが必要だけど選手ではなく球場の雰囲気
などを撮影したい場合は広角レンズが必要になるにょ。
球場全体を撮りたいならば換算20mm以下の超広角レンズや魚眼レンズが必要になってくる
わけだからね。
私は持っていく荷物を少なくしたいというのと選手を撮影するというのをメインにした
ために望遠ズーム1本にしたにょ。
私はデジタル一眼を2台(Nikon D50、PENTAX K200D)持っているけどどっちを持っていく
かで少し考えたにょ。
画質でいえばK200D>D50だけどAF性能や所持レンズの関係があるからね。
D50はK200Dより古い機種とはいえ、AF性能は上回るにょ。(特にAF-Cで動体撮影をする
場合にはK200Dは歩く程度の速度に追従するが厳しいくらいの遅さ)
しかし、ピッチャーやバッターがメインであればAF性能はそんなに必要ないにょ。
AFは遅くても置きピンで何とかなるからね。
そうなると問題になるのは画角にょ。
銀塩時代に別の球場で撮影したときには300mmのレンズでもピッチャーやバッターは
かなり小さめに写ったにょ。
1.5倍サイズにトリミングすればまぁまぁのサイズになったため400mm〜500mmくらいは
欲しいところにょ。
しかし、所持しているデジタル一眼がAPS-Cサイズのセンサーということで、換算焦点
距離は1.5倍になるため300mmのレンズは換算では450mm相当になるにょ。
これなら結構いけそうと事前に判断できるにょ。
しかし、300mmのレンズはD50用(ニコンFマウント用)しか持ってないにょ。
K200D用(ペンタックスKマウント用)では、200mmのレンズ(換算300mm)しかないため
望遠側が弱すぎるからね。(もっとも600万画素のD50よりも画素数が多い1000万画素
だからトリミングすれば良いということも考えられるけど)
それより、長いレンズとなると一気に400mm(換算600mm)となるにょ。
このレンズは6月の航空祭の時にも使ったけどMFということですばやいピント合わせは
できないにょ。
あとファインダーがペンタプリズムではなくペンタミラーであるためどうしてもMFでは
十分な精度でピント合わせができないからね。
それならばある程度絞って使うという方法があるにょ。
小絞りボケが許容できる限界のF16まで絞ると被写界深度が深くなるためそれなりに
撮影できるけど問題はシャッター速度にょ。
手ぶれ補正機能があるため換算600mmであっても1/125秒で何とか撮影できるけど動きの
ある被写体を止めるには最低でも1/500秒、できれば1/1000秒以上のシャッターを切りたい
からね。
それを行うためにはISO感度を上げる必要があるにょ。
ただし、高感度ノイズが多めのカメラであるためできればISO400までに止めておきたい
ということで結局持ち出したのはD50と70-300mmの望遠ズームにしたにょ。
1本に絞ったため広角がないのは不満だけどいざとなればコンデジ(TX1)で撮影すれば
いいかということで荷物を少しでも減らすためのトレードオフにょ。
どうせ、途中でレンズ交換なんてしないだろうしね。
そういうわけで撮影したのはこんな写真にょ。(1/500秒、F9)
http://www.42ch.net/UploaderSmall/source/1280287834.JPG
ノートリミング、無加工の写真にょ。
撮影技術はとりあえずおいといて、被写体(バッター)はまずまずの大きさで写っている
と思うにょ。
やはり、換算450mmくらいは必要という私の判断は間違ってなかったにょ。
ホントはバッターがボールを打つ決定的な瞬間を撮影したかったけどシャッター
タイムラグを完全に自分のものにしていないため無理だったにょ。
連写でカバーという方法もあるけどD50は秒3コマなので話にならないにょ。
打球が時速144kmだとしても秒速40mとなり秒3コマでは1つのコマで13mも打球が進んで
しまうわけだからね。
連写に頼るのではなくシャッタータイムラグを体得して打つ瞬間の一歩手前でシャッター
ボタンを押すのがより確実性が高いというのが分かると思うにょ。
それでも野球は(ピッチャーとバッターだけを撮影するならば)他のスポーツよりも
難易度は断然に低いのでスポーツ写真の初心者ならばまずは野球をすすめたいにょ。
高校野球は独特の雰囲気があるので球場内に居ただけでもすごい熱気が感じられるため
写真を撮らなくても生で観戦するだけでも楽しめるしね。
PCの性能はCPUだけで判断はできない
CULVノートはネットブックでは物足りないというユーザーにとっては非常に有力な選択肢
となるわけだけど思ったほど売れてないにょ。
それはいくら性能面ではネットブックより数倍上といっても価格差が1〜2万円というのは
小さくはない(低価格であるため相対的にはより大きな差といえる)というのに加えて
ネットブックよりも1周り大きく重いというのがあると思われるにょ。
サイズ的な面をいえばlibretto W100のフットプリントはAtom N搭載のどのネットブック
よりも小さいため決してCULVノートを小型化できないというわけではないにょ。
ただし、小型軽量化を行うとコストがかかる上に搭載するバッテリがどうしても小型に
なってしまうため駆動時間が短くなるという問題があるにょ。
最先端のモバイルノートを見てのようにコストをかければネットブックより大画面かつ
軽量化を行うことは容易(13.3インチの大画面でもネットブックの標準的な重さの1.2kgを
実現できる)とはいえ、CULVノートは中身こそはモバイルノート並だけど筐体そのものは
コストとのトレードオフがあるのでそこまで軽量化はできないにょ。
小型化はコストの問題があるけどネットブックが「最大10.2インチ」という液晶サイズの
縛りがあるためそれと競合しないように11.6〜13.3インチのものがCULVノートの主流に
なっているのだと思われるにょ。
問題は価格だけどこれはネットブックの方が有利なのは間違いないにょ。
というのもCPU、チップセットの価格はAtom(ネットブック)の方が安いわけだし、
ネットブックの大半はWSVGAだから液晶パネルコストも安価だし、そして何より大きいのが
OSにょ。
ネットブックにはULCPC版の廉価なWindows(7搭載ならば制限の多いStarter)が搭載されて
いるのに対してCULVノートには一般的なHome Premiumが搭載されているわけだからね。
価格に与えている影響が最も大きいのはこのOSだと推測されるにょ。
ULCPC用のWindowsが約30ドル、Home Premiumが約100ドルであるため価格差は70ドルに
なるからね。
CPU+チップセットの価格はAtom Nは(推定)約40ドル、CULVノートのセレロンは(推定)
約100ドルなのでいかにOSの差が大きいかが分かるにょ。
逆にいえばネットブックでHome Premiumを搭載すれば「低価格」というネットブックの
アドバンテージの多くが失われるということになるにょ。
さて、価格面でCULVノートを敬遠しているのであればオススメなのは型落ち品にょ。
日進月歩ならぬ秒進分歩とも言われるPCにおいて型落ち品はあまり強く薦められるもの
ではないのだけど価格重視となる低価格帯においては型落ち品の方がお買い得になる
ことは多々あるにょ。
これはCULVノートにもいえるにょ。
5月末に新世代のCULVノート用のCPUがIntelから発表されたにょ。
これによってPenryn(Core2)ベースからこの新世代のArrandale(Core i)ベースのもの
へとモデルチェンジを行った機種が多くあるのだけど言い換えれば型落ち品も多く生まれた
形になるにょ。
普通に考えれば「後から登場したCPUの方が高性能に決まっている」と思うかも知れない
けれど7月9日にも書いたようにArrandaleベースのCPUは動作クロックが下げられている
ためにクロック当たりの性能が多少上であってもトータルではあまり差がないために
相対的に旧機種(型落ち品)の方がお買い得度が高いという結論づけをしたにょ。
性能面で確実に旧機種を上回りたければTBとHTTが付いたCore i5以上を搭載の機種を選択
する必要があるけどこれはCULVノートでは上位モデルであるためコストパフォーマンスは
あまり良いものではないにょ。
では、CPU性能にあまり差がないから処分価格となっている「旧製品の方がお得」という
のは本当に間違いではないのかを考えてみるにょ。
PCを使うならば十分なメモリを搭載したいところにょ。
どれだけあれば十分かは人それぞれだけど標準で(ULCPCの制約により)1GB、最大でも
(チップセットの制限で)2GBしか搭載できないネットブックに対するアドバンテージを
得るにはやはり4GB以上は欲しいところにょ。
CULVノートは標準で2〜4GB搭載しているため買うならば4GBモジュールになるにょ。
モバイルノートでも4GBは決して多くないという状況下であるため最近は64ビット版の
Windowsが占める割合が増えているのだけどCULVノートであっても標準で64ビット版が
搭載されている機種はいくつかあるにょ。
そういう機種では積極的に4GB超のメモリを搭載していいと思うにょ。(32ビット版では
最大4GBしか認識されないためそれを超えた分はRAMディスクとしてしか使えない)
しかし、ここで異変が起きているにょ。
昨今のDDR2モジュールの値上がりによってDDR3との価格差が縮まったことと4GBのDDR3
モジュールの大きな値下がりにょ。
これによって4GBのメモリに関してはDDR2とDDR3は完全に価格が逆転してしまったにょ。
ショップによっては1GBや2GBのものに関してもDDR2とDDR3が逆転しているところもあるの
ではないかと思うにょ。
それ故、廉価なネットブックであっても先日DDR3に対応したAtom N475搭載の新機種が発表
されたくらいだからね。
旧世代のCULVノートに搭載のチップセットGS45はDDR2、DDR3を両サポートしているものの
メモリモジュール自体はソケット互換がないためDDR2、DDR3のどちらか片方にしか対応
しておらず、旧機種購入時はどちらに対応しているのかを事前に確認しておく必要が
あるにょ。
それに対してArrandale世代の新型CULVノートはすべてDDR3に対応となっているにょ。
半導体に限らず工業製品全般にいえることだけど量産すればするほど安くなるため
主流の製品が最もお買い得になるにょ。
現在DDR(DDR333やDDR400など)のメモリとDDR2のメモリでは容量単価では2〜3倍の差が
あるけどそれと同じことがDDR2とDDR3でも起こると思われるにょ。(Let'snoteの旧製品で
使われたMicroDIMMであれば1GBのモジュールはDDRが約3万円、DDR2は安いものならば4K円
ということでその差は7倍にもなっている)
標準搭載のメモリでそのまま使い続けるのであればメモリの価格についてはそれほど気に
する必要性はないけれど将来的にはDDR2とDDR3の差はかなり大きなものになると推測
されるため将来的にメモリを増設しようとした時の価格差を考えると必ずしも旧製品が
お得とも言い切れない状況にあるにょ。(旧機種でもDDR3対応ならば問題ないけど)
さて、DDR2とDDR3の差は価格だけではなく性能差にも表れるにょ。
スペック上の性能ではDDR3-1333はDDR2-800の1.66倍の性能だけどクロックが低いCULV用
CPUではそれだけの差が実際に出てくることはないにょ。
しかし、メモリ帯域が重要になるのはCPUだけではなくむしろGPUの方にょ。
GPUがチップセットに内蔵された統合型チップセットというものが登場し、PCの低価格化が
大きく進んだのだけどそれによってメモリ帯域の問題が露呈することになったにょ。
Intelの最初の統合型チップセットとなったi810は単体GPUであるIntel752をベースとした
ものを搭載したわけだけど使用メモリがPC66であったため2Dでさえ十分なパフォーマンスを
得ることができなかったにょ。(CPUと帯域をつぶし合うためにXGA24ビットカラーで使用
するとCPU性能は本来の性能の3〜5割減となってしまった)
しかし、これはDDR採用によって改善されたにょ。
実際、DDR266に対応した855GM、DDR333に対応した855GMEではXGAフルカラー程度では
2D性能に関して不満はなくなったからね。
DDR2に対応した915GMは大きなジャンプアップを果たし軽い3Dゲームならば十分にプレイ
できるレベルに達したもののそれ以降は大きな進化は無かったにょ。
シェーダ数が増えることでシェーダ性能がアップしているけどDirectX8.1世代の旧世代の
ゲームが軽々動作するのかというとそうではないからね。
PenM1.2GHz+915GMでもFF XIベンチ3のLOWで2000突破したのにCore2Duo 1.6GHz+GS45で
さえ2300程度しかでないにょ。(Core2Duoの方はFFベンチに不利なVistaであるため
1〜2割程度はダウンしていると考えてもXPならば2700〜2800程度のスコアとなりCPU
クロック差程度の上昇しかしてない)
ところが、VAIO YはCore i3-330(1.2GHz)搭載のCULVノートなのにFFベンチ3はLOWで5000を
超えているにょ。
http://plusd.itmedia.co.jp/pcuser/articles/1007/27/news079_3.html
これは、GPU自体の大幅な改善とDDR3搭載によるメモリ帯域の向上が理由ではないかと
思われるにょ。
FFベンチは動作させるためにはHW T&Lが必須だったけどver.3ではバーテックスシェーダに
対応しているためバーテックスシェーダ対応のGPUであれば動作が可能になったにょ。
しかし、Intelのチップセット内蔵GPUはピクセルシェーダはハードウェアで実装している
もののバーテックスシェーダはCPUによるエミュレーション動作によって実現していたにょ。
これは、ピクセルシェーダはCPUでのエミュレーションが困難だからにょ。
つまり、ピクセルシェーダ性能がアップしていてもCPUがボトルネックになってしまい
スコアが上昇しなかったけどArrandaleに内蔵のGPUはそれらがハードウェアで実行されて
いるためにスコアが大幅に伸びているのではないかと思われるにょ。
もちろん、それを実現するためにはメモリ帯域が必要になるためDDR3搭載がここでようやく
生きてくるにょ。(CPU性能を計測する場合にはDDR3とDDR2では性能差はほとんどない)
つまり、新世代のCULVノートはすべての機種がDDR3に対応しているため(DDR2にしか対応
していない旧世代CULVノートと比べて)将来的にメモリを増設する場合に大幅に有利になる
ということに加えてGPU性能の向上によってDDR3の性能を十分に生かせるようになっている
ということにょ。
あとDDR3とは関係ないけどGS45よりもHD動画再生支援機能が向上しているため動画再生
目的で購入するのであれば新世代の方がより有利になるにょ。
したがって、CPU性能だけを考えれば7月9日に書いたように在庫処分価格となった旧世代の
CULVノートを買う方がお買い得度が高いけどCPU以外の要素を見てみて価格差に似合うと
判断すれば新世代の方がお買い得になる場合があるということにょ。
わざわざLTEを待つ必要はない
ドコモの次世代通信方式となるLTEのブランド名は「Xi(クロッシィ)」になったにょ。
http://k-tai.impress.co.jp/docs/news/20100729_384147.html
LTEは3.9Gと呼ばれ2G(デジタル携帯、日本では主にPDC)、3G(主にW-CDMA)の後継となり
4Gのことではないにょ。
しかし、LTEは4Gの技術の一部が投入されスムーズに4Gへと移行できるようにするための
ものであり厳密には次世代ではないのだけどここでは他所と同じく「次世代」として扱う
ことにするにょ。
恐らく4Gでもこのブランドを継続使用することになるだろうからね。
FOMAがようやく普及したのにもう次世代とは早い・・・と感じるかも知れないけどFOMAが
正式サービスを開始して今年でもう10年目となるにょ。
決して次世代の登場が早いというわけではないにょ。
FOMAの前に広く普及したMOVAに関しては2012年の3月で終了するにょ。
MOVAのサービス開始はいつだったかというと・・・これがちょっと厄介にょ。
MOVAは第2世代(PDC)ではなく第1世代(アナログ携帯)から使用されているサービスの
ブランド名だからね。
すでに存在していた自動車電話やショルダーフォン(当時はこれを「携帯電話」と呼んで
いた)と区別するためにMOVAというブランド展開をしたにょ。
2003年から第2世代のデジタル携帯となりここでブランド名は「デジタルMOVA」となった
わけだけどアナログ携帯終了によって頭の「デジタル」が消え「MOVA」となったにょ。
したがって、今回は「MOVA」といえば第2世代を指すものとするにょ。
第2世代 MOVA 1993年 3月サービス開始 2012年3月サービス終了
第3世代 FOMA 2001年10月サービス開始 (サービス終了は未発表)
第3.9世代 Xi 2010年12月サービス開始 〃
これを見てのようにMOVAからFOMAまでは8年だったのでFOMAからXiまで9年というのが
決して短くないことが分かるにょ。
また、Xiのサービスが始まったらFOMAのサービスが終わることを心配する人がいるかも
しれないけどMOVAはFOMAのサービスが開始されて11年余りの間継続予定となっているため
あと10年くらいはFOMAは安泰かもしれないにょ。(LTEや4G携帯の普及速度にもよるけど
後述のようにLTEの普及速度はあまり早くない模様)
LTEで何が変わるのかというと目に見えて大きく変わる変化はないにょ。
ドコモではサービス開始当初は最大75Mbpsだけどこれは一部の場所に限られるため主要
エリアでは37.5Mbpsとなるからね。(もちろんこれはLTEのカバーエリア内の話)
現在広く使われているHSPAでは最大7.2〜14Mbpsが主流だけどイーモバイルは最大21Mbpsの
サービスを開始しており、技術的には最大40〜80Mbps程度までは可能であるため初期の
LTEは速度面では末期のHSPAに対して大きなアドバンテージはないにょ。
LTEにおける一番大きな変化というのは国内4キャリアがすべて採用の意向を示している
ということかもしれないにょ。
現在はドコモ、およびソフトバンクはW-CDMAとそれを発展させたHSDPA(HSUPA)を使って
いるけどauはそれとは全く互換性のないCDMA2000を採用しているにょ。
イーモバイルはドコモ等と同じW-CDMA方式を採用しているけど周波数帯が大きく異なって
いるにょ。
別にキャリア毎に通信方式が異なるのは問題ないとはいえそれが問題とならないのは端末に
SIMロックがかかっているからにょ。
しかし、7月7日に書いたようにドコモは来年の4月からSIMロックを解除すると発表したにょ。
他のキャリアも遠くない将来にドコモに追従すると思われるにょ。(一部機種のみか
全面的かはキャリアによって異なるけどSIMロック解除が主流になるのは間違いない)
そうなったとき通信方式や周波数帯の違いによってSIMロック解除でキャリアと端末が
自由に選択できるというわけではなく事実上ドコモのSIMカードでソフトバンクの端末が
使える(もしくはその逆)になるだけでしかないにょ。
LTEでは全キャリアが採用の意向を示しているためようやくSIMロック解除の意味が生きて
くるにょ。(ただし、すでに何度も書いているようにキャリア独自機能は使うことが
できないけど)
問題はキャリアによってLTE導入時期に大きなずれがあるということにょ。
http://businessnetwork.jp/tabid/65/artid/409/page/1/Default.aspx
ドコモ サービス開始 2010年12月
ソフトバンク サービス開始 2011年 7月
イーモバイル サービス開始 2010年 9月
au サービス開始 2012年12月
ただし、これは各キャリアが昨年総務省に提示した情報であり現時点では変わっている
可能性が高いにょ。
特にソフトバンクにおいては事実上白紙状態になっているとのことにょ。
これは上記のようにHSPA方式で現状より高速化が可能というのに加えて通信インフラが
不十分なソフトバンクの3G通信においてLTE用に帯域を割り振るのが困難というのもある
からね。
そういう面で他のキャリアより大きな遅れをとってしまう可能性が高いにょ。
率先して導入するドコモでさえ、サービス開始して4年余り先となる2014年度末にようやく
人口カバー率50%の予定となっているにょ。
東名阪で日本の人口の約半分を占めるため人口カバー率50%というのは東名阪、政令指定
都市レベルしかカバーしないということになるにょ。
FOMAは約3年で人口カバー率99%に達したということを考えるとこの普及速度はかなり遅い
といえるにょ。
恐らく長い間HSPAとのデュアルバンド端末となりそうにょ。
現在機種変を考えている人の中には「長く使える方が良い」ということでXiが開始される
のを待って対応端末を購入しようと考えている人もいるかもしれないけど上記のように
そのメリットはあまりないにょ。
各キャリアが導入し、エリアが広くなってからでも遅くはないからね。
サービス開始後の狭いエリアを克服するために従来との互換性を残したデュアルバンドが
必須となりLTE対応端末は端末価格も高価になり端末自体の選択肢も少ないだろうしね。
未だに初期のMOVAを使っており、同じ端末を確実10数年間使い続けるような人であれば
確かに「今更FOMA・・・」となってしまうけどそうでなければ無理にLTEを待つ必要性なんて
全くないにょ。(同じ端末を10数年使うということは事実上端末を通話にしか使ってない
人だろうから端末の機能は関係無い)
今、機種変してLTEが普及し始めるであろう2〜3年後にまた機種変すればいいだけの話
だからね。
機種変サイクルが5年くらいの人は今は微妙な時期だけどそれでもあえてLTEを待つような
必要性はないと思うにょ。
Xiよりもエリア展開が早かったFOMAでさえMOVAから主流を奪うのに4年くらいかかったわけ
だからね。(メインストリーム向けのFOMA端末である700iシリーズの登場や加入者割合が
50%に達したのが正式サービス開始して4〜5年後だった)
お久しぶりです・・・
あまりにも、みっともない書き込みをしたので、このサイトに近寄れませんでした。まだ相変わらずPC-E500を所持しています。参考になる、おちゃめ様の情報を、読んでみたいので・・・
TX9はTX1から大きく進化した!?
現在TX1を使っている私にとって新機種であるTX9は気になるところ・・・。
というわけで、レビューが掲載されているのでそれを見てみることにするにょ。
http://dc.watch.impress.co.jp/docs/review/newproduct/20100730_384236.html
TX9で気になる点に関しては7月9日に書いたような3点にょ。
(1)新開発の1220万画素裏面照射CMOSセンサー搭載
(2)スイングパノラマ機能が3Dに対応
(3)背景ぼかしモード機能を追加
このうち(2)に関しては発表と同時に各所で公開されどのようなものかということかは
よく分かったにょ。
撮った写真は3Dモニタでないと3Dでは見れないけどジャイロ搭載によってTX9本体を傾ける
ことで本体の液晶で立体的に鑑賞ができるにょ。
これはDSのゲームでいえば「アッタコレダ」に近い方式にょ。(このゲームはジャイロ
ではなくカメラによって顔の場所を認識していることで視点を変えているだけだけど)
そういうわけで上記レビューにおいて(1)と(3)について見てみることにするにょ。
では、(1)を見てみるにょ。
画素数が1000万画素から1200万画素に増えたというのはメリットではないにょ。
というのも、すでにレンズ性能が画素ピッチに全然足りてない状況であるために高画素に
しても細部が描写できないからにょ。
むしろ、1画素あたりの面積が狭くなるというデメリットの方が大きいにょ。
でも、センサーサイズが変わらないのならトータルでは変わらない・・・と思いがち
だけど配線部分の関係上同じセンサーサイズで仮に2倍に画素数が増えた場合には1画素
あたりの面積は半分ではなくそれを大きく下回るものになるにょ。
ただし、センサー性能は随時性能アップしているため新しいセンサーでは1画素当たりの
面積が小さくなっても感度やダイナミックレンジは向上するという場合が多いにょ。
そのため一概に画素数アップは悪ともいえないけどもう限界に近づいているため極小
センサー搭載のコンデジにおいては高画素化は無意味になってきているにょ。
その点、裏面照射センサーであれば6月25日に書いたように配線部分は逆の面にあるため
配線部分をすべて画素ピッチを広げるのに使えるため「画素数が増えた影響で実質的な
センサー面積が減る」なんてことはなくなるにょ。
とはいうものの、裏面照射センサーには「日中屋外での写真に解像感がない(ノイズの
発生が避けられないけどそれを除去すると解像感が失われる)」「色再現性が悪い」という
問題点があるにょ。
それがこの新型センサーでどれだけ克服されているかが見物にょ。
広角側
http://dc.watch.impress.co.jp/img/dcw/docs/384/236/html/p001.jpg.html
望遠側
http://dc.watch.impress.co.jp/img/dcw/docs/384/236/html/p002.jpg.html
やはり、思った通り解像感は乏しいにょ。
ただ、これは必ずしもセンサーだけの影響とはいえないにょ。
屈折光学系であるが故にレンズ性能は平均的なコンデジと比べて劣ってしまうからね。
私が使っているTX1も裏面照射センサーの初代モデルというだけではなくレンズ性能が
低い影響もあって解像感が全くないにょ。
そのため1000万画素のセンサーなのに300万画素を常用しているレベルだしね。
これは4月8日に書いたように実際に300万画素で撮影したものを1000万画素へと拡大した
場合でも1000万画素で撮影したものとほとんど差がないということでTX1で1000万画素で
撮影することがいかに無意味であるかを実証したにょ。
さて、私が持っているTX1は「裏面照射初代モデル」「レンズ性能の低い屈折光学系」
「個体差のせいか他所のレビューよりやや下の描画性能」ということで描写面では不満が
多いのだけどこれは後継機種のTX7でかなり改善されていたにょ。
それはやはり画像処理エンジンの影響が大きいと思われるにょ。
TX9はそれに加えてセンサーも第2世代になりより改善されるかと思っていたにょ。
発色はかなり改善されているけど解像感に乏しいのはレンズ性能だけの問題ではなく
やはり、未だに裏面照射センサーの問題点であるノイズが克服できてないためだと
撮影サンプルを見て感じたにょ。
しかし、等倍鑑賞で見て1000画素のTX7と同レベルのものが1200万画素で実現できている
というのならばトータルで見れば向上していると考えられなくはないにょ。
まだ、発展途上のセンサーのため長く見守る必要がありそうにょ。
暗所においては裏面照射センサーは相変わらずすごいしね。
http://dc.watch.impress.co.jp/img/dcw/docs/384/236/html/p014.jpg.html
手持ちでこれだけ低ノイズで撮影できるコンデジは裏面照射センサー搭載モデルを除けば
ほとんどないにょ。
私が日中屋外の描写は今ひとつということが分かっていたけどTX1を買ったのはコンパクト
サイズでありながら暗所性能に極めて優れているということだからね。(蛍光灯くらいの
明るさがあればノンフラッシュ手持ち撮影であっても日中屋外で撮影するのと同レベルの
画質を得ることができる)
さて次は(3)を見てみるにょ。
百聞は一見にしかずということでどんなものかを見るのが一番にょ。
背景ぼかし未使用
http://dc.watch.impress.co.jp/img/dcw/docs/384/236/html/p015.jpg.html
背景ぼかし使用
http://dc.watch.impress.co.jp/img/dcw/docs/384/236/html/p016.jpg.html
デジタル一眼で撮影したように大きくぼけるということはないけどナチュラルにぼかす
ことが出来ているにょ。
オリンパスのSP-590UZにも背景ぼかしモードは付いているもののド素人がレタッチしても
あれだけ酷くはならないという使い物にならないレベルだったけどこれならば普通に
使えそうな感じにょ。
ぼけの大きさに影響を与える被写界深度は換算焦点距離ではなく実焦点距離が影響する
ためセンサーサイズが小さなコンデジの場合はデジタル一眼のようにぼかすのは物理的に
無理だからね。
しかし、デジタルの場合はレタッチによっていくらでも可能になるにょ。
これは昨今広く使われているHDRにおいてもいえ、SONYのコンデジで使われている手持ち
夜景モード(他社でも同等の機能のものがある)のように複数カット連写してそれを
合成することで低ノイズを実現するというようなものもあるにょ。
あと、最近一部の機種に搭載されているミニチュアモードもあるにょ。
この背景ぼかしモードもそれらと同じ画像加工(レタッチ)の1つにすぎないにょ。
したがって、カメラ自体がそれらの機能を有して無くてもレタッチソフトを使えば人間の
手によって同等の画像を作り出すことはできるにょ。
とはいえ、高レベルの画像加工であるため同等のものを作り出すのは至難の業にょ。
それがカメラの1機能として自動的に行うことができることに意義があるにょ。
(2)の3D対応スイングパノラマも連写した画像をつなぎ合わせた画像加工にすぎないからね。
TX9はすごく大きな進化というのものはないけどTX1→TX7→TX9と地道な進化を感じるにょ。
写真機として考える(写真を撮ることに喜びを感じたり、高画質による感動を得たりする)
ならば決してTXシリーズはおすすめできるものではないけどコンパクトサイズでさまざまな
ことが自動でできるという手軽さを求めたいのであればTX9はかなり良いものに仕上がって
そうにょ。
@パーさんへ
>まだ相変わらずPC-E500を所持しています。
E500はプログラミングもお手軽に出来るし、電卓としては高性能なのでまだいろいろと
便利に使える用途があるからね。
>参考になる、おちゃめ様の情報を、読んでみたいので・・・
私が興味あることをダラダラ書いているだけなので参考になるかどうかは分からないけど
良かったら今後も読んでください。
TX1が私の日記帳
ここで私が毎日書いている雑記だけど見ての通りあくまで雑記であり日記ではないにょ。
基本的に私がネットサーフィンをしていて興味を惹く情報について私が感じたことや
思ったことをダラダラ書いていくという感じになっているけどたまに私が撮影に行った
場合のように私が実際に行ったことなどを元に書くこともあるにょ。
これは基本的にWeb上で書くということは(アクセス制限を加えてない限りは)全世界に
それを公開しているわけだからあまりプライベートな内容は書けないというのもあるにょ。
さて2000年以降Webが当たり前のように普及して日記サイトというものが急増したにょ。
日本においてはmixiがSNSとしては最大会員数を誇っているけどmixiに限らず多くの
サイトが存在するにょ。
そんな中、日記サイトではないけど最近注目を集めているのがtwitterにょ。
日記に書くまでもないような些細なことでも気軽に書けるために会員数は1000万人を
突破しついにmixiを超えたにょ。
海外ではtwitterのようにケータイでも気軽に書き込みができるサービスというのは
珍しかったけど国内では独自に発展したガラケーの影響でケータイ向けサービスという
ものが多種多様に存在し、twitterはそれほど優れた存在とは私は思わないにょ。
ただし、利用者数が増えてくれば情報量も増えその中には有益な情報も多く存在する
ためにさらに利用者が増えるという好循環があるにょ。
確かに情報収集という点に関しては最近はtwitterが必要不可欠になりつつあるにょ。
mixiは7月4日に書いたようにシステム上の問題からどうしても閉鎖的になってしまい
がちだからね。
ただ、twitterもそういう面では逆に厄介にょ。
7月19日に書いたように書く前に「書いて良いか悪いか」の判断が必要だし、不必要に
繋がりを気にするようになれば使うのが気軽ではなくなり「twitter疲れ」を起こして
しまうわけだからね。
私の場合は、どうせWeb上で情報発信するならば有益となるものを書こうとするし、そう
なれば140文字にまとめるというのが負担になるためtwitterに関してはほとんどROMって
ばかりいるにょ。
そうなると日記の類はローカルで保存しておくということになるけど私は人に見せない
文章でしかも特別でもない日常に関して書くようなマメな性格ではないにょ。
それでもWebがこれだけ普及している今も毎日紙の日記帳(もしくはPCやポメラ等を使って
ローカルに保存)をつけている人はたくさんいるだろうし買ったものを家計簿につけて
いる人もたくさんいると思うにょ。
そういう毎日きちんと日記をつけている人ならばそれが当然のように感じるだろうけど
それとは逆に「日記なんて特別何かあった日だけ付ければいい」と思っている人もいると
思うにょ。
しかし、「特別」というのは「普通」があるから「特別」なのであって「普通がない特別」
なんてないにょ。
それは相対評価で考えることが多いからにょ。
つまり、特別でない日も日記を書いてこそ特別な日がようやく意味のあるものになる
ということにょ。
ただ、本人が「特別ではない」と思っている以上はそれを日記として文章で残すのは難しい
といえるにょ。(特別なことであれば文章で書くのは容易)
ならば、文章に拘らず自分が残しやすい方法で残すのが良いにょ。
というわけで私が活用しているのが画像メモにょ。
要するにデジカメを使って写真で残すということにょ。
毎日食べたものをすべて写真に残し、もしくは買った物や行った場所を写真に残すことで
特別な日というのが相対的に現れてくるにょ。
そのためにもできるだけ毎日できるように手軽でないといけないにょ。
2001年にeggyを購入してからは確かにお手軽写真は増えたけどさすがに毎日使うのは
なかなかできなかったにょ。
しかし、昨年末に買ったTX1でようやくそれが実現可能になったにょ。
私はいつでも持ち歩けるようにコンデジは小型・薄型にこだわってきたにょ。
それ故、屈折光学系の機種ばかり買ってきたわけだけどTX1の選択のポイントは暗所
性能にあったにょ。(昨日書いたTX9も興味があるけどさすがに買い換えの予算はない)
何せ極小センサーを採用のコンデジでありながら(手持ち夜景モードを使用すれば)
ISO400まではほぼ無ノイズ、ISO1600でも十分使えるということで室内でノンフラッシュ
手持ち撮影が気兼ねなくできるようになったのが大きいにょ。
それまで使ってきたコンデジではISO400が限界だったし、ISO400ではノイズが酷いし、
手ぶれ補正機能もないためISO400ではノンフラッシュの手持ち撮影では厳しい場面も
多々あったにょ。
三脚を使えば手ぶれは防げるけど毎日続けるならセッティングだけでもかなりの手間と
なるため結局Webで公開する写真以外はあまり撮らなくなってしまったし、フラッシュを
使って撮影するにもかなりの工夫が必要になるため手間が増えてしまったにょ。
例えば買ったCDを真っ正面からフラッシュを使って撮影した場合には表面で反射して
しまいまともに写らないし、かといって斜めからだと変にパースが付いてしまう上に
汚い部屋の中の様子まで写ってしまうからね(笑)
その点TX1ならば構えて撮るだけで終了するにょ。
これは絶大な効果があるにょ。
食べようとしている料理があればそれを上から構えてパシャリ、映画を見に行ったら
映画館でチケットを片手にパシャリと用途や場所を選ばずに気軽に撮影できるからね。
これはノンフラッシュで手持ち撮影が普通にできるからこそにょ。
TX1は日中屋外の描写性能が低いせいもあり暗所での手持ち撮影も日中屋外での画質と
ほとんど変わらないレベルなのでフラッシュを使わないことによるデメリットは
全くないにょ。(むしろ、テスト発光以外でフラッシュを使ったことなど1度もない)
お手軽化によって「特別ではない」ものも写真として残すようになったにょ。
これができるようになったのはメモリーカードの容量が昔よりも大きくなったというのも
影響しているにょ。
カードが一杯になったらPCに移してPCで管理するという方法を取らなくてもカメラ本体で
撮った写真すべてが管理可能になったからね。
私が普段使っている300万画素モードでは8GBのMS Duoならば5000枚撮影可能にょ。
これならば1年は十分に持つにょ。(7ヶ月使った現在もまだ6割の容量が残っている)
しかも、TX1ならばカレンダーと同期しているため管理も非常にしやすくなったにょ。
http://ww5.tiki.ne.jp/~ochame/test/tx1-diary.jpg
まさに日記帳代わりになっているにょ。
これがテキストで同様のことをした場合には毎日続けるのは難しいけどお手軽な写真
(画像メモ)だからこそ毎日続けるのが可能になっているにょ。
上記のように日記の類は毎日続けることに意義があるわけだけどどんな手段でそれを行う
のがもっともお手軽に感じるかは人それぞれだと思うにょ。
twitterが一番という人もいるだろうし、私のように画像として残すのが一番という人も
いるだろうからね。
日記は日記帳(紙)で記すものという固定的なものではなくデジタル化やネットの普及に
よってその残し方は多種多様化しているといえるにょ。
DSは買い控えの時期に入ったのか・・・?
任天堂が赤字になった模様にょ。
http://mainichi.jp/select/biz/news/20100730k0000m020046000c.html
四半期ベースで赤字にならないようなゲーム企業は存在しないのだけど王者任天堂に
関しては常に黒字を維持してきたにょ。
それは、コンシューマゲーム機においてはロイヤリティの存在が非常に大きいからにょ。
ゲーム機本体を作っているメーカーはサードパーティソフトが売れるだけでその価格の
一定の割合で利益を得ることが可能にょ。
とはいうもののゲーム機本体には大きなリスクがあるにょ。
まずは開発コストが莫大にかかるということに加えてサードパーティの誘致にもコストが
かかるにょ。
さらにサードパーティからのロイヤリティを見越して本体の価格をギリギリまで下げる
という場合が多いけどサードパーティソフトが売れない場合は本体を売れば売るほど
赤字が拡大するというジレンマに陥ってしまうにょ。
実際プレステ3も製造原価より1〜2万円安い価格で販売(いわゆる「逆ざや」で販売)して
いたから赤字がふくらむ一方だったわけだしね。
そのプレステ3もパーツの統合と量産効果でコストが下がったために今ではようやく赤字
から脱出したにょ。
任天堂においては基本的に逆ざやで販売することはないにょ。
本体発売当初であっても原価ギリギリの価格設定で販売されるため本体が売れれば売れる
ほど赤字という事態が起こることはないのだけどそれならば今回のような赤字はなぜ
起きてしまうのかというと記事にあるように円高の影響が大きいにょ。
円高で大きな赤字を出したことに加え、本体およびソフトがあまり売れないため売上が
落ちたので円高による赤字を挽回出来なかったというのが理由にょ。(為替変動が
なければ多少売上が落ちても赤字になることはなかった)
さて、なぜ売上が落ちたのかというとDSは十分普及したので売上が本体の落ちても当然
ともいえるけどやはり3DSの存在が大きいと思うにょ。
DSと互換性のある3DSが発売されようとしているのだからそれを待って買うのがベターと
考える人が大勢いるのは当然にょ。
しかし、問題は3DSの価格も発売日も決まってないということにょ。
発売日は2010年度内なので2011年3月までには発売ということが分かっているものの
分かっているのはその程度のことにょ。
これに関しては9月29日に明らかになるという情報があるにょ。
http://japanese.engadget.com/2010/07/29/3ds-9-29/
これは9月29日に発売されるというのではなくその日に発売日や価格が発表されると
いうだけにすぎないにょ。
とはいえ、この情報が確かであればそれから遠くない時期である年内に発売が濃厚に
なるにょ。
恐らく10〜11月には発売されると考えられるにょ。
通常であれば「販売店からの発注→その発注を受けて生産→販売店へ納品」となるため
2ヶ月くらい前には発注の案内が販売店に届くにょ。
しかし、新発売の本体(もしくは人気ソフト)の場合はそのようなことはなく過去の
発注実績による配分制をとっているため発表から早い時期(発表から1ヶ月以内)での
発売は十分に考えられるにょ。
9月29日に価格が発表されるという情報が確実ならば最速では10月半ばに発売は十分に
あり得るということにょ。
未だに発売日や価格を発表してないのはライバルであるSCEの動向を伺っているという
のもあるだろうし(SCEがPSPの価格を発表したときの「空白の17分間」は有名な話)
3D液晶パネルなど新しいパーツを使用している関係上、歩留まりや量産価格がはっきり
しないというのも1つの原因かもしれないにょ。
いずれにせよ現在のDSiより安くなるということは100%ありえないのでDSのゲームを
プレイしたいのであればDSiを買う方が安く済むのは間違いないにょ。
3DS発売を見越してDSiは価格変更されたのだろうからね。
とはいえ、今DSiを買おうにも3DSの存在が大きいのは間違いないことであり、DSiとの
価格差がどれくらいになるのか発売される時期はいつなのかというのが重要になるにょ。
例えば価格差が5000円程度なら買おうと思っている人であれば仮に3DSの価格が25000円と
発表されていれば「3DSが安くなるまではDSiでいいや」ということでDSiを買う人も
いるかもしれないにょ。
またどうしてもプレイしたいソフトが9月に発売される場合、仮に12月に発売と発表
されていたら「早くプレイしたいからDSiでいいや」と思う人もいるかもしれないにょ。
つまり、多くのユーザーが想像しているものより「早い時期」「安い価格」で販売
されるので無ければ価格や発売日は事前に発表しておいた方が買い控えを防ぐという
面では有用になると思われるにょ。
私の予想の範囲内のベストケースである「2万円で10月発売」であるならば確かに多くの
人が買い控えそうだけど世間で予想されている中でのワーストケースである「29800円で
来年3月発売」というのであれば現在DSが必要としている人が買い控えをするような
レベルではないと思うにょ。
XPはどこまで現役でいられるのか・・・
Win7がついにVistaのシェアを抜いたにょ。
http://www.itmedia.co.jp/enterprise/articles/1008/02/news043.html
約3年間発売されていたVistaが1年足らずの7に台数ベースで抜かれるというのは
言い換えればVista搭載PCがいかに普及しなかったかということがいえるにょ。
これはWeb閲覧用として現役使用されているPCにおける台数なので発売後9年経つXPは7と
比べて大きな差があるもののこのまま7が普及していればいずれXPのシェアを抜くにょ。
この3月から7月までの4ヶ月の平均増減数と全く同じ速度で今後も増減が続いた場合の
ことを考えてみると単純計算では下記のようになるにょ。
2010年7月 2011年7月 2012年7月 2013年7月 2014年7月
WinXP 61.87% 54.10% 46.33% 38.56% 30.79%
Win7 14.46% 27.15% 39.84% 52.53% 65.22%
Vista 14.34% 9.33% 4.32% ー0.69% -5.70%
このペースでいくとWin7の普及率はXPの全盛時を超えるのも時間の問題だし、Vistaに
至ってはマイナスシェア(一体どういう状態なのやら・・・)になってしまうため
このような単純増減が長期間続くというのはあり得ないことが分かるにょ。
とはいえ、確実にいえるのは9年間現役(現在もネットブックでは現役OS)であるXPは
絶大なシェアを誇っているけどそれは今後大きく落ちるということVistaのシェアは
減ってもNT6ベース(もしくはその後継OS)のシェアがXPのシェアダウン分増えるという
ことにょ。(Linux系OSやMac OSが今後数年内に急成長する可能性は低い)
今年の10月でネットブック(ULCPC)用のXPの提供が終了するため上記シェア増減と
比べるとXPのシェアダウンは大きくなると予想できるにょ。
それから考えるとXPのシェアは来年の夏には50%を切ると思われるにょ。
そう考えると7の普及ペースは上記の単純計算よりも早いものになりそうにょ。
ただし、2012〜13年にはその後継OS(Windows8?)が発売されるだろうからそこで7の普及は
終わりシェアが過半数に達することはないと思われるにょ。
ピーク時にはシェアが80%に達していたXPが異常だった(XPが発売されてからVista
発売まで5年余りあったのに加えてVistaがあまり普及し無かったのが要因)というだけの
話にょ。
昨今のPCの買い換えサイクルは5年程度となっているにょ。
それから考えるとVistaが発売された2007年1月から5年後の2012年以降はXPのシェアが
ほとんど無くなることが予想できるにょ。(ネットブック用として発売されたものがある
からそこまで極端に落ちることはないだろうけど)
それは企業においては3年、もしくは5年リースということがあるのだけど個人においては
5年で買い換えする理由は何もないにょ。
強いて挙げるならば、PCに使われているパーツの寿命が5年程度(HDDは一般的な使い方
ではその程度で故障する可能性が高い)というのがあるにょ。
一般人からすればサイクルとか関係なしに故障するかそのPCでやりたいことができなく
なった時が買い換え時となると思われるにょ。
Web閲覧において現状でAtom1.6GHz程度が妥協できるボーダーラインと考えた場合に
これと同程度の性能を持つPen4 1.6GHzのノートPCが発売されたのが2002年であるため
パーツの寿命を考えなければ8年前のPCも(Webメインであれば)現役で使えるという
ことがいえるにょ。
モバイルノートであれば2003年にULV PenM搭載されたものが登場して以降と考えると
7年前のPCが現役といえるにょ。
もっとも、現在はWeb閲覧がメインといっても512MBでは心許ないので1GBはメモリが
欲しいところにょ。
2002〜2003年のメインストリームのノートPCは256MBが標準であったためメモリ増設は必須
といえるにょ。
今後も8年前のPCが現役で使える最低ラインであり続けると考えた場合には2007年1月の
Vista発売から8年後の2015年にXP搭載PCからの買い換えがほとんど終了するのではないか
と予想できるにょ。
確かに現在もWin95、98搭載のPCを使っている人もいるために発売後10数年というPCが
全く使えないというわけではないけどほとんど無視できるシェアに落ちるというのが
予想できるにょ。
これは上記単純計算による将来予想よりは早い落ち込みといえるにょ。
大して重い処理をしないから古いPCで十分といってもWebを利用するならばセキュリティー
問題があるにょ。
7月14日に書いたようにすでにWin2Kはサポートが終了し、今後はセキュリティーの更新が
行われなくなったけどXPも2014年4月にはサポートが完全に終了するにょ。
またアンチウイルスソフトもMSがサポートしてないようなOSはサポートを打ち切る可能性が
高いからね。(サポートコストもバカにならないため古いOSはどんどんサポートを打ち
切る必要がある)
Web閲覧であればWebブラウザも重要になるにょ。
Win2KはIE6までしかサポートしてないもののIE6は今年3月にはYouTubeでサポートが終了
したにょ。
イラストに特化したSNSであるpixivも先月IE6のサポートを終了したにょ。(「サポートが
終了した=動作保証がない」というレベルではなく実際に試してもらえば分かるように
レイアウトが崩れてまともに閲覧できるような状態ではない)
つまり、IE6ではWeb閲覧にはかなり支障がある状態になってしまったということにょ。
とはいえ、WebブラウザはIEだけではなく他のものもあるにょ。
FireFoxであれば最新の3.6でもまだ2Kをサポートしているにょ。
しかし、登場が新しいGoogle chromeは当初よりXP以降しかサポートしてないにょ。
Webブラウザもアプリである以上はサポートコストを考えるとシェアの低いOSはサポート
しにくいにょ。
XPはまだ十分に高いシェアがあるからそう簡単にWebブラウザがXP非対応になることは
ありえないけどPC買い換えの予想から考えるとXPは2015年にはシェアはかなり小さいもの
となっており、サポートは終了すると予想できるにょ。
7月15日にはダウングレード権を延長によって新規PCにXPをインストールするということが
10年後の2020年まで可能になると書いたわけだけどこれはどうしても現行のアプリを
使用しなくてはならないという極めて限定された用途以外ではほとんど使い物にならない
ものになっていると思われるにょ。
恐らく現状でWin98+IE4を使用するようなレベルではないかと予想するにょ。
それを考えるとやはり、XPが現役で居られるのは延長サポートが終了する2014年4月
くらいが限界だと思われるにょ。
12.1インチはモバイルノートにとってベストなのか?
モバイルノートは液晶サイズ(≒筐体のフットプリント)でそのクラスが決まるにょ。
自宅専用PC(つまり、定点固定のPC)であれば数インチの差は気にならず設置が可能か
どうかということですべて決まるわけだけどモバイルノートの場合はモバイルするという
時点で大きな影響を与えるにょ。
ネットブックにおいても8.9インチと10.1インチは1.2インチ差だけどもはや別ものと
いっていい感じだからね。
そんな中、dynabook RX3は前モデルまでの12.1インチから1.2インチ大きい13.3インチ
液晶を採用したにょ。
上記の考えからすると12.1インチと13.3インチは別クラスのPCとなるわけだけど開発者
側からするとコンセプトが変わったわけではないということにょ。
http://pc.watch.impress.co.jp/docs/column/mobile/20100803_385112.html
モバイルノートというと主流が12.1インチだけどなぜ12.1インチかということに関しては
3つの理由があると思われるにょ。
(1)常用可能なキーボードを搭載可能な最小サイズ
(2)常用可能な最小のモニタサイズ
(3)据え置き型ノートPCと明確に差別化できるサイズ
まず(1)について考えてみるにょ。
昨今は16:9(もしくは16:10)のワイド液晶がが主流になっているわけだけどそうなる
前の4:3のスクエア液晶の時代から12.1インチはモバイルノートの主流だったにょ。
12.1インチスクエア液晶のノートPCの横幅は概ね25〜26cmにょ。
これだと変形キーボードでなくてもキーピッチ17mm前後のキーボードが搭載可能になって
いるにょ。
これは無理なくタッチタイピングができる最小サイズといってもいいかもしれないにょ。
次に(2)について考えてみるにょ。
やはり、常用するなら最低でもXGAくらいの解像度が欲しいところにょ。
Win98の頃はアプリの主流はVGAであり、一部のアプリのみSVGA以上を要求していたの
だけどXPではOSがSVGA以上を要求しているし、アプリの標準がXGAになってしまった
からね。
12.1インチモバイルノートが主流になった頃(90年代末)に時代を遡ってみてみると
その頃の主流といえばデスクトップPCは17インチCRTでSXGA表示だったにょ。
17インチCRTの実表示エリアを16インチと仮定するとそのCRTは102ppiとなるにょ。
それに対して12.1インチXGAは106ppiとなりデスクトップPCとほぼ同レベルのドット
ピッチが確保されているにょ。
つまり、12.1インチXGAは無理なく使える最小サイズということがいえるにょ。
(3)について考えてみるにょ。
12.1インチスクエア液晶が主流になった時代には据え置き型ノートの主流は14.1インチ
だったにょ。
液晶サイズが2インチ異なるだけではなく重量も据え置き型ノートが光学ドライブ内蔵で
2.5〜3kgなのに対して12.1インチのモバイルノートは1kg台半ばだったにょ。
この重量差とサイズ差であれば十分に別物といえるにょ。
上記(1)〜(3)は12.1インチスクエア液晶の時代の考えであり、ワイド液晶が主流の今
となってはこの考えが正しいとは限らないので改めて考え直してみるにょ。
現在主流の12.1インチワイド液晶のノートPCの横幅は概ね28〜30cmにょ。
これだとフルサイズ(19mm)のキーボードも搭載可能になっているにょ。
筐体サイズの大型化は気になるけどキーボードはワイド化で使いやすくなっていると
言いたいところだけどワイド化によって縦方向のサイズが縮小されたためタッチパッド
搭載の関係上縦方向に短くなる横長キートップの機種が目立つようになったにょ。
さらに、液晶に関しては12.1インチWXGAは125ppiとなっており、デスクトップPCで主流と
なっている22インチフルHDの100ppiと比べるとドットピッチが小さいにょ。
人間の目の分解能から考えると画面からの距離を約60cmと想定すれば150ppi前後が実用
限界となり、個人的には120〜130ppi程度が常用限界と感じるため125ppiは常用の範囲内
ということで問題はないけどデスクトップPCとの剥離が大きいということには間違いが
ないにょ。
この辺はOSのppi設定を変えれば良いだけの話だけどそんなことを考えつくのはある程度
PCの知識のある人間に限られるにょ。
というわけで、ワイド時代のビジネスモバイルノートとしては12.1インチよりも一回り
サイズが大きい13.3インチが適しているだろうということを想定して作ったのがこのRX3
となっているわけにょ。
13.3インチであれば113ppiなので125ppiの12.1インチよりはかなり見やすくなっている
からね。
また、据え置き型ノートも今は15〜16インチが主流なので13.3インチであれば据え置き
ノートとの差別化は十分できるにょ。
重量も最軽量モデルならば1.2kg前後であるため重量的な面からも据え置きノートとの
差別化が可能になっているにょ。
このように大型化したのにはそれなりの理由があるわけだけどもう実は1つ大きな理由が
あるにょ。
それはCULVノートの存在にょ。
CULVノートはネットブックよりワンランク上の廉価ノートだけど問題はCULVノートに
使われているCPUは従来モバイルノートでよく使われていたULVのCPUであるということが
問題となるにょ。
ULV CPUはCrusoeに対抗するためにIntelが作ったものであり、要するに動作電圧が低い
から低消費電力(=長時間駆動)が可能になるというものにょ。
ただし、動作電圧が低いせいで高クロック化は難しく一定以上のクロックで動作する
ものはかなりの選別品(歩留まりが高くないもの)だったにょ。
それ故高価であり、高コストがかけられるモバイルノートでしか採用されることは
なかったにょ。
しかし、微細化が進んだことで1GHz程度の低クロックなものであれば高い歩留まりで製造
可能になった(つまり、低コスト化が可能になった)ということでCULVノートに廉価
供給可能になったにょ。
しかし、高価なモバイルノートが廉価なCULVノートと同じCPUを使うとなるとCPUでのみ
PCの性能を判断している消費者相手では不利になるにょ。
そのためモバイルノートでもULVではなく通常電圧版CPUを採用するモバイルノートが
増えてきているにょ。
性能よりも駆動時間重視だったLet'snoteでさえ昨年登場したN8、S8は通常電圧版の
CPUを採用したくらいだからね。
駆動時間を伸ばすために作られたULVのCPUだけど最近のCPUは動的に駆動電圧を変える
ことで消費電力を軽減しているためアイドル時の消費電力はULVのCPUも通常電圧版の
CPUもほとんど差がなくなってきているにょ。
もっとも、負荷が高い場合は通常電圧版の方がクロックが高い分だけ消費電力が大きく
なるわけだけどその分、作業も速く終了するためアイドル時の時間が長くなるので
トータルで見ればそれほど差はない(むしろ通常電圧版の方がトータル消費電力は小さく
なる場合もある)からね。
つまり、ULVか通常電圧版かは熱設計の問題だけとなっているわけにょ。
しかし、この熱設計が厄介にょ。
従来であればCPUとチップセットという2つの熱源があったわけであり、Arrandale世代
からはこれが1つに統合されたため合計TDPには差はないのだけど一極集中することで
廃熱が難しくなったからね。
そういう面ではフットプリントが大きい方が有利になるにょ。
Arrandaleを採用してなおかつ薄型化しようとするならば12.1インチよりも13.3インチの
方が熱設計の面でも優位性が高いということがいえるわけにょ。
また13.3インチにすることで11.6インチのCULVノートと比べてサイズの面でも差別化が
可能になるからね。
しかし、「モバイル」という面では大きくなることはデメリットであるため「大きく
なったから優れている」とはいえないにょ。
私は個人的には12.1インチでさえ大きく感じるため13.3インチのノートPCなんて持ち
歩く気にはならないにょ。(11.3インチのLet'snote、12.1インチと13.3インチのFMVを
持っているけどどれも大きすぎる)
個人的にはB5用紙サイズが限界だけどこれを満たせる現行モバイルノートはLet'snote
Rシリーズしかなくなったにょ。(Atom Z搭載機であれば選択肢はたくさんあるけどAtom N
搭載機だと今はほとんど選択肢が無くなってしまった)
結局どの程度のサイズまでならモバイルできるか、どの程度の頻度でモバイルするのか
ということが様々であるため人によって最適なものは大きく異なるにょ。
駆動時間やフットプリントを重視するならばLet'snoteだけど厚いから嫌という人もいる
からね。(もちろん価格面の問題もあるだろうけど)
RX3はRX2とはニーズは異なるけど薄型・軽量というコンセプトは変わらないためそれを
重要視している人にとっては悪くない選択だと思うにょ。
3Dは「ウリ」にはならない・・・!?
ビデオカメラはフルHDが当たり前となって久しいのだけどデジカメにおいてもHD動画
対応機種はここ数年で急増したにょ。
当初は720pが主流だったけどここ最近はフルHD動画対応デジカメも少なくないにょ。
今となってはデジカメにおいてはHD動画(720pを含める)が撮れるというのは当たり前の
機能となっているために「HD動画が撮れる」というのはウリとしては弱くなっているにょ。
次のウリとなるのはやはり3Dかもしれいにょ。
http://camera.itmedia.co.jp/dc/articles/1008/03/news016.html
3Dが普及するためには3つの条件を満たす必要があるにょ。
(1)3D動画 制作環境
(2)3D動画 鑑賞環境
(3)3D動画 発表環境
(1)を考えてみると制作環境というのは撮影環境(機材)となるにょ。
十分に3Dコンテンツがあり、自分で作る必要がないというレベルに達すればそれで十分
という人もいるだろうけど現状ではまったくその域には達してないにょ。
Blu-ray 3Dも規格がようやく定まってようやくこれからという感じだからね。
そうなると最も3Dコンテンツとして数や質で優れているのはプレステ3用のゲームかも
しれないにょ。
3Dゲームと3D液晶との相性はいいからね。
とはいうもののやはり普及を考えると自分でコンテンツを作るということが必要となる
と思われるにょ。
そのために必要なのが3D動画に対応したカメラにょ。
先日Panasonicが家庭用としては世界初の3Dビデオカメラを発表したにょ。
http://camera.itmedia.co.jp/dc/articles/1007/28/news031.html
この3Dビデオカメラは実質コンバージョンレンズを付けたようなものだけどこれはデジタル
だからこそ可能になっているし、低価格化にも貢献しているにょ。
「ビデオカメラは必要ないけど動画を撮りたい」という人ならばデジカメの動画機能が
有用にょ。
今となっては動画機能が付いてないデジカメ(コンデジ)なんてないわけだし、一部の
エントリーモデルを除けばHD動画対応となっているからね。
本格的に動画を撮りたいという人でなければデジカメの動画機能で十分かもしれないにょ。
3D撮影が可能なデジカメといえば昨年富士フイルムがFinePix REAL 3D W1があるけど
やはり難点は価格にょ。
レンズやセンサーを2つ搭載するためになかなか安価にできないからね。
とはいえ、トイデジカメが数千円で発売されている現在、そこまで画質に拘らなければ
いくらでも安価にできるにょ。
ということでレッツが29800円の3Dデジカメを発表したにょ。
http://dc.watch.impress.co.jp/docs/news/20100729_384201.html
使っているレンズやセンサーはトイデジカメで使用されているものと大差ないものと
いうことでコストダウンによってこの価格が実現されているにょ。
今となってはHD撮影可能なデジカメ(カムコーダ)も1万円程度で入手可能ということを
考えると決して安いというわけではないけど「3D」に対する需要が増えればデジカメ
1.5台分くらいの価格(2台分かかるのはレンズとセンサーのみであり後は共用できる
ため2台分の価格になることはあり得ない)で販売は可能になるだろうから2万円を切る
ことは十分可能になると思われるにょ。
さらに安価にするならばコンバージョンレンズを使用するという方法もあるにょ。
これは銀塩カメラの頃から3D撮影用のものは各社から発売されているにょ。
PENTAXの場合はメーカー純正品も存在するにょ。
http://dc.watch.impress.co.jp/cda/item/2006/03/28/3437.html
原理は簡単で1枚の画像の上に右目用と左目用の画像を生成するというだけにょ。
このままだとプリントしたもの(もしくはPC画面で表示したもの)を平行法で見るという
必要性があるけどデジタル処理が可能なデジカメにおいてはカメラ自体を3D用の
コンバージョンレンズに対応させれば片目用のデータをトリミングしてフル画面として
鑑賞も可能になるにょ。
それを片方ずつ交互に表示していけば3D写真の完成にょ。
平行法(交差法)による鑑賞と3D液晶による鑑賞はその鑑賞方法の違いがあるというだけ
であって本質的な違いはないからね。
ただし、このようなコンバージョンレンズを使用する場合には、広角に対応しにくい
という点とどうしても大きくなってしまうという点の2つの問題があるにょ。
小型化するならばシャープがスマートフォン向けに作ったカメラモジュールを使用する
という方法もあるにょ。
http://k-tai.impress.co.jp/docs/news/20100512_366411.html
現在は3Dカメラを作るには2つのレンズとセンサーが必要になるけどこのようなモジュール
式になれば2つ用意するよりは安上がりになるため今後の普及次第では価格ダウンする
ことも考えられるにょ。(ただし、モジュール式であるが故にカメラの自由度はかなり
減ってしまう)
静止画3DならばソニーのTX9やWX5やNEXに採用されている3Dスイングパノラマを使用する
という方法もあるにょ。
これならば追加コストゼロで3Dが可能になるにょ。
ただし、この方法では動画を3Dに対応させることはできず、3D動画対応のデジカメは
まだまだコスト増を考えると普及には時間がかかりそうにょ。
(2)を考えてみるにょ。
(1)でいくら3D対応の動画がどんどん増えていってもそれを見る環境がないと話に
ならないからね。
3D対応の液晶TVはここ最近大きく普及してきたにょ。
とはいえ、3D液晶TVの最大のネックは本体の価格だけではなくメガネの価格にょ。
3D動画を見るためだけに1〜2万円追加投資ができる人は限られるからね。
あと、せっかく撮った動画も他の人に見せたいという場合があると思うにょ。
昨今はスマートフォンでも720pの動画が再生できるようになったのだけど3D動画に対応
した機種は存在しないにょ。
自宅であれば大画面3DTV+メガネで鑑賞という方法もありだけど小型端末だと裸眼鑑賞が
望ましいにょ。
しかし、昨今は裸眼対応の3D液晶は急激な性能向上をしており今後は搭載する機種も
増えるのではないかと予想されるにょ。
裸眼3Dといえばニンテンドー3DSが挙げられるけどこちらが個人で作った3D動画の再生が
可能であるならばモバイル用の3D動画鑑賞端末として大きな普及が見込めそうにょ。
3D映画の予告編等は3DS用に配信する予定にはなっているもののそれは独自形式のみに
対応しているのか、汎用形式に対応しているのかというのでは大きな差があるにょ。
(3)について考えるにょ。
自分で楽しんだり、身内や知人の間で楽しむのであれば再生環境が重要となるけど不特定
多数の人向けに公開するならばこれが重要になるにょ。
YouTubeの知名度アップによって個人制作の動画が気軽に発表できる環境が整ったわけ
だしね。
とはいえ、YouTubeではすでに3Dに対応しているため3D液晶モニタ+メガネを用意すれば
いつでも3Dで鑑賞可能にょ。
したがって、3Dが普及してくればYouTube以外にも3Dに対応した動画サイトは登場すると
思われるにょ。
最初に掲げた普及のための3つの要因である「制作環境」「鑑賞環境」「発表環境」だけど
これは「3D」ではなく「HD」に置き換えても全く同じことがいえるにょ。
HDを普及させるならばHDに対応したモニタやTVが必要というのは当然だし、HD動画対応
カメラも必要だからね。
ただ、異なるのはHD対応は必然的な流れとして普及に至ったのに対して3Dはあくまで
付加価値でしかないということにょ。
これはどういうことかというとHD動画は単純に解像度を高めただけであり再生に要求
するスペックが上がっただけで普通のPCで鑑賞できるわけだし、TVも地デジに切り替わる
関係上HDTVに買い換えするユーザーが増えたわけだからね。
つまり、HDは贅沢品ではなく普通のものといえるレベルになってきているということにょ。
カラーTVは登場時には白黒TVと比べて贅沢品となっていたけどそれはすぐに(といっても
数年かかっているけど)カラーTVがスタンダードとなり贅沢品ではなくなったのと似て
いるにょ。
ところが、3Dがスタンダードになるという見込みは当分ないにょ。
TV放送が標準が3Dになったり、Blu-rayも標準が3Dになったりとかいうことになれば
モノクロ→カラーやSD→HDと同じような状況になるのだけどそうなる予定は今のところ
ないにょ。
したがって、普及のための条件では(1)の制作環境が重要と書いたけどやはりコンテンツ
不足では(2)の再生環境が普及しないと考えられるため結果として(1)の制作環境(3D
動画対応カメラ)の普及も難しいと考えられるにょ。
HDような普及の相乗効果は今のところ3Dには見られない(当分起こりそうにない)ため
HDが当たり前となった後のウリとして期待される3Dも今ひとつウリとしては弱いものに
なりそうにょ。
法律は何のためにある・・・?
Winnyで流行っている「タコイカウイルス」の作者が逮捕されたにょ。
http://www.itmedia.co.jp/news/articles/1008/04/news030.html
しかし、日本ではコンピュータウイルスを取り締まる法律がないので「器物損壊」の
容疑になっているにょ。
とはいえ、日本がコンピュータウイルスに関しては法的に全く何の対策もしていないと
いうわけではないにょ。
実際業務用コンピュータであれば刑法の「電子計算機損壊等業務妨害罪」が適用される
からね。
ただし、個人のPCの動作に支障を来すような場合には他の現行法で適用するしかない
状態にょ。
不正指令電磁的記録作成法(ウイルス作成法)はまだ施行されてないからね。
それが、今回「器物損壊罪」が適用された経緯となっているにょ。
実はこの「タコイカウイルス」の作者は2年前に「原田ウイルス」の作成で逮捕されたにょ。
その時は器物損壊は見送られたにょ。
というのもシステムを入れ直せば元通りになるPCにおいて器物損壊は不適切だと判断
されたからにょ。
では、「原田ウイルス」は何の罪に問われたかというと「著作権法違反」にょ。(第23条の
「公衆送信権」に抵触)
原田ウイルスの亜種で画面上にTVアニメ「CLANNAD」の画像を使っていたために同法が
適用されたわけだけど著作権法というのは親告罪であるため著作権者から訴えがないと
罪に問うことはできないにょ。
著作権者に無断で本編丸ごとネット上で配信する行為は法的に黒なのは明白だけどキャプ
画像1枚を元に著作権法違反で逮捕されるのかとなるとまた微妙にょ。
というのも、昨今はTVアニメの感想を書いたブログ等でキャプ画像は良く使われる
ためにょ。
キャプ画像そのものが黒ならばその感想ブログもすべて逮捕対象になるにょ。
しかし、著作権法には「引用」について書いた条文(第32条)があるにょ。
「報道、批評、研究その他の引用の目的上正当な範囲内」であれば引用として見なす
ことができるためそのようなブログであれば法律上は問題ないにょ。
とはいうものの「正当な範囲内」かどうかを判断するのは著作権者であり、過剰な引用は
引用の範囲を超えていると見なされ法的に問われる可能性もあるにょ。
原田ウイルスの場合は、引用には相当しないためただのキャプ画であっても著作権法違反
として罪に問われてしまったわけにょ。
内容(キャプ画配信)ではなく目的が重視されたということにょ。
したがって、今回のタコイカウイルスは作者自らが考案した画像を使っているにょ。
これであれば著作権法違反に問われる心配はないにょ。
ところが、今回は器物破損罪が適用されてしまったにょ。
前回の原田ウイルスの場合は器物損壊罪が適用されず著作権法違反に問われたけれど
法律の解釈は100%固定的なものではなく流動的なものであるため「他所でこうだったから
今回もこうだろう」という安易なものではないにょ。
もっとも、裁判においては判例(つまり、過去の実績)が重視される場合もあるけど
それはあくまで判例であり罪状とは異なるにょ。
この作者は、P2Pによる違法ダウンロードしている連中を懲らしめるためにこのウイルスを
作ったみたいだけどそれで自分自身が逮捕されてしまっては何の意味もないにょ。
前回の原田ウイルスでは自らが著作権法違反となってしまったことを反省し、オリジナル
画像にしたのだけど今度は上記のように器物損壊が適用されてしまったからね。
一部の人はP2P(Winny等)は違法性が高いと判断しているけどP2Pそのものには違法性が
なくユーザーが違法性の高い使用方法をしているのにすぎないにょ。
例えるならば包丁は料理に使うものだけど人を殺すためのものにも使用できるため
包丁は殺人の道具と解釈するようなものにょ。
Winnyは暗号化により匿名性が高いのだけどその暗号解読が可能になってきているため
すでに逮捕者は多数出ているにょ。
バケツリレーのような感じでデータ転送が行われるP2Pにおいてはアップロード、ダウン
ロードという明確な概念はないけど共有フォルダに自らが著作権を持ってない動画や
音楽(つまり、市販の音楽やDVD等)を入れておくとアップロードと見なされ著作権法
第23条の公衆送信権に抵触するおそれがあるにょ。
では、ダウンロード専用として使うのならば何の罪にも問われないのかというとそう
ではないにょ。
今年1月1日より著作権法が改正され違法にアップロードされた音楽や動画をダウンロード
するだけでも違法となったからにょ。
http://internet.watch.impress.co.jp/docs/special/20100108_340934.html
それまではダウンロードは私的使用のための複製の範囲内と解釈されていたために
法律的に問われることはなかったにょ。
「タコイカウイルス」は違法動画、音楽に偽装されたウイルスであるためWinnyを使って
それに感染するということは違法ダウンロードをしたということになるにょ。
今回感染報告があった37歳、男性のPCのフォルダを見てみると明らかに違法ダウンロード
したものと思われるファイルがいくつも入っていたにょ。
つまり、「悪い奴がいるから逮捕してくれ」と言った本人が法を犯しているということに
なるにょ。
しかし、この明らかに違法行為を行っている37歳、男性は今のところ何の罪にも問われて
いないにょ。
これは、著作権法は上記のように親告罪であるということに加えてダウンロードが違法化
しても事実上罰則がないことが理由となるにょ。
つまり、目の前で罪を犯しているのが分かっていても著作権者からこの男性への訴えが
ないため逮捕できないというわけにょ。
「罰則がないなら逮捕されようがないから心配いらない」というわけでもないにょ。
もしも、この男性への何らかの訴えがあり逮捕令状が出ていればその証拠品が見つかる
ことはなくても別件逮捕という形で可能にはなるにょ。
一般的に逮捕されるのは見せしめ的なものが多いために量が必要になることが多いにょ。
見せしめ的な意味合いは無くても多くの音楽や動画を違法アップロードしている人は
著作権者の目に止まる機会も多いだろうしね。
しかし、先日わいせつ画像を2枚投稿しただけで逮捕された事件があったにょ。
http://news.kanaloco.jp/localnews/article/1007280036/
1年前に2枚投稿しただけで逮捕されるということは現実的には考えにくく「別件逮捕では
ないのか」という見方をしている人も多いにょ。
児童ポルノ法における「単純所持禁止」というのも別件逮捕には格好の餌になるにょ。
私は前回の「原田ウイルス」にしろ今回の「タコイカウイルス」にしろこのような別件
逮捕とあまり変わらないと思うにょ。
実際にコンピュータウイルスそのものを取り締まる法律がない以上は他の法律を適用
するしかないわけだから別件逮捕的なものになってしまうのはどうしようもないのだけど
これはあえて言うならば「逮捕したい人を逮捕するために適用しているようなもの」と
いえるにょ。
今回警察の目の前で自らの違法行為の証拠を見せても何の罪に問われない37歳、男性を
見ると余計にそう感じてしまうにょ。
犯罪を犯しても「逮捕したければ強引に理由をつけてでも逮捕」「逮捕する気がなければ
黙認」というのが現状だと思うにょ。
私も「警察の目の前で犯罪行為が黙認された」のを実際に目の当たりにしたことがある
だけに余計そう思うにょ。
デスクトップPCでタッチパッドを使う意味
Macbookのポインティングデバイスと同等のものが単体の「Magic Trackpad」として
製品化されたにょ。
http://pc.watch.impress.co.jp/docs/column/nishikawa/20100806_385661.html
http://pc.watch.impress.co.jp/docs/column/mobile/20100806_385658.html
わざわざノートPC用のポインティングデバイスとなるタッチパッドをデスクトップPCで
使いたいのか・・・という疑問を抱いている人もいるかと思うにょ。
まずPCのポインティングデバイスについて考えると圧倒的にマウスが主流となるにょ。
これはWindowsやMacが登場した20数年前と全く変わってないにょ。
主流になっているのはそれが使い勝手が良いからと考えるのが妥当なのだろうけど必ず
しもそうとは限らないにょ。
デスクトップPCにおいてマウスが主流なのはそれを超える汎用性を持つデバイスがない
というだけの話だからね。
「従来できたことができなくなる」というのでは普及は難しいにょ。
Windows7からはタブレット機能が強化されタッチパネル搭載機が増えてきたものの
デスクトップPCではタッチパネルはメインとしては使えないにょ。
それは、キーボードとマウスが前提となっているWindowsのUIはタッチパネルと相性が
悪いというのが最大の理由にょ。
それにビューアメインであればタッチパネル付きモニタで十分使えるけどキーボードも
使う場合には不便になるにょ。
ノートPCにおいてもそれがいえ、タッチパネルはピュアタブレット型(キーボード搭載で
あればスライド式やコンバーチブル採用によってピュアタブレット型にすることが可能な
もの)であるからこそ生きてくるものになるにょ。
したがって、ノートPCにおいてはタッチパッドが主流になっているにょ。
ThinkPadのトラックポイントのようなスティック型のデバイスを支持しているユーザーも
多いけどタッチパッドが主流になっている理由は「低コスト」「メイテナンスフリー」
「低い習熟度で使える」というのが大きいにょ。
マウスカーソルの移動させるのだけを見てもスティック型のデバイスではその角度の
微調整には経験が必要だけどタッチパッドであればマウスと同様に指先をたくさん移動
させればカーソルもたくさん移動可能になるため感覚的にも分かりやすいにょ。
トラックポイント愛好家の中には「タッチパッドはすばやくカーソルを移動できない」と
考えている人もいるけど実際はすばやく動かすことで一瞬で画面の端から端までカーソル
移動ができてしまうにょ。
また「細かい作業ができない」という人もいるかもしれないにょ。
トラックポイントは相当慣れれば細かい作業もできるけどそれにはかなりの習熟度が
必要になるにょ。
しかし、タッチパッドでは指先をゆっくり動かせばマウスと同様に1ドット単位の
緻密な動作も可能になるにょ。
とはいえ、これはあくまで原理上(スペック上の読み取りカウント数から単純に考えた
場合)できるというだけにょ。
実際の製品では細かい動作が困難であるものも少なくはないにょ。
例えばWindows標準の「ペイント」を使い画面の上から下まで1ドットのずれもない
1本の直線をフリーハンドで引くという場合、ゆっくり動かしてもカーソルがぶれてしまい
直線にならないこともあるにょ。(静電容量式のタッチパッドの場合ドット単位の移動を
するための精度が出せない製品も多い)
またゆっくり動かすと途中でどうしてもタッチパッド上の上下移動では足りず、再び
上に指を持ってきて移動させる必要があるけどその際に確実にずれてしまうにょ。
これがずれずにできたのは手元のノートPCではLet'snoteだけにょ。(私はR5を画像処理にも
使っているけどドット単位の移動が可能であるためタッチパッドだけでも何とか使える
レベルにある)
これがマウスであれば高精度のマウスと大きめのマウスパッドを使うことで克服可能にょ。
タッチパッドは言うならば指先で移動させる平面マウスでしかないためマウスを超えたり
置き換えるような存在ではないにょ。
トラックポイントは慣れが必要であるもののキーボードのホームポジションから移動せず
使えるという点においてはマウスを超える存在ともいえるにょ。
ただし、この「慣れ」の問題が大きいし、デスクトップPCで使う場合にはキーボードの
選択肢がほとんどない(ThinkPad風のキーボードは発売されているけどそれを使うしか
ない)というのが問題となるにょ。
最初の「Magic Trackpad」に話を戻すと結局タッチパッドと同じく簡易マウス(平面
マウス)でしかないためマウスを完全に置き換えることができる製品ではないにょ。
しかし、デスクトップのMacでノートのMac(Macbook)と同じ操作性が得られるという
のはメリットになるにょ。
私はMacbookは店頭でしか使ったことがないけど大型のタッチパッドに加えてマルチタッチ
対応によってピンチイン、ピンチアウトをはじめさまざまな動作がパッドだけで可能に
なるというのは触っていて非常に気持ちよかったにょ。
マウスを完全に置き換えられなくてもトラックポイントのようにマウスでは実現できない
メリットがあるわけだから単体製品として使う価値は十分にあるにょ。
とはいえ、これはWindowsでは使えないにょ。
ドライバそのものが用意されてないのが原因だけどそれは「Magic Trackpad」の機能に
Windowsが対応していないというのが理由だと思われるにょ。
しかし、Windows7ではマルチタッチに対応しており、「Magic Trackpad」の主要機能は
十分使えそうな気がするにょ。
だから、7専用でいいのでドライバでも用意してもらえたら私が7に環境を整えた際には
ぜひ使ってみたいところにょ。
「どうしてもWindowsでマルチタッチを使いたい」という人はワコムから発売されている
Bamboo touchを使うという方法もあるにょ。
http://pc.watch.impress.co.jp/docs/column/kaimono/20091203_332437.html
どちらが優れているかは分からないけど現状では「Magic Trackpad」がWindowsではまともに
使えない以上は選択の対象にはならないためこちらを使うしかないと思うにょ。
単純にポインティングデバイスとして考えるならば精度の問題でマウスを超えるような
(マウスを完全に置き換えられるような)製品ではないけどマルチタッチを積極的に使い
たいのであればマウスではどうしようもできないからこのようなマルチタッチ対応の
タッチパッドの存在は非常に大きいにょ。
失敗は成功のもと
地元で開催された花火大会に行ってきたにょ。
鑑賞もだけど撮影を行うために事前に持っていく機材を選定したにょ。
花火写真に必要な主な機材や知識は7月26日に書いたのでそちらを参考にして欲しいにょ。
私が用意したのはデジタル一眼(PENTAX K200D)にょ。
そして、そのカメラ用の標準ズーム(18-55mm)にょ。
バッグの中には常時エネループが4本入っているので単三駆動のK200Dはこれを予備電池
として使用することができるにょ。
何せフル充電であれば(液晶OFFで使用した場合)1000枚近く撮影できるからね。
あと念には念を入れて予備のデジタル一眼(Nikon D50)と望遠系標準ズームのAF-S
18-135mmも持っていくことにしたにょ。
あと三脚も必需品なので普段はあまり使用しない大型(といっても安物)の三脚を
持っていくことにしたにょ。
持っていく機材は準備できているということで安心したのであとは場所の確保にょ。
これに関しては花火大会30分くらい前に会場に到着することで何とかなるだろうと思って
いたら所用のせいや渋滞もあって会場に到着したときにはすでに花火大会が始まって
いたにょ。
まぁこの程度は想定の範囲内ということで暗闇の中、三脚が立てられるようなスペースを
見つけ何とか設置準備をしたにょ。
ライトを持ってくるのを忘れていたらこの時点でアウトだったにょ。
さて、いよいよ撮影開始・・・。
数枚撮影した後に念のため写真をチェックしてみるとあまりに露出オーバーなことに気が
付いたにょ。
これは前回ISO1600で撮影したのをそのままの設定にしておいてためにょ。
慌てて感度をISO100に設定しなおして再び気を取りなおしてシャッターを押すと・・・
シャッターが降りないにょ。
「ケーブルレリーズの接触不良か」と思って何度か抜き差ししてみるけど改善されない
ので直接本体のシャッターボタンを押してもシャッターが降りないにょ。
「もしかして故障か!?」とどうやらバッテリ切れのようだったにょ。
ファインダー内の情報も普通に表示されているので全く気が付かなかったけどバッテリが
少なくなったらバルブモードは使えないみたいにょ。
しかし、こんなこともあろうかと思って持ってきた予備のエネループがあるにょ。
それを早速セットしたけどバッテリ切れ状態にょ。
エネループがこんなに自然放電するはずがない・・・と思ったけどよく考えたら先日USB
充電用のモバイルブースター用に2本使ったのを思い出したにょ。
さすがに2本が使えないとなると電圧不足なのは当然か・・・?
単三駆動であるためその辺のコンビニでアルカリ電池を買えば当面は何とかなるのだけど
今からコンビニに行っていたら花火大会は終了してしまうにょ。
そこで役に立ったのが予備として持ってきたデジタル一眼(D50)にょ。
まさか本当に出番があるとは全く想定してなかったにょ(笑)
ということで、再びセッティング開始にょ。
無事に三脚にセット完了したときにはすでに花火大会のスケジュールは半分以上終了
していたにょ。
ここで、問題が・・・。
K200DではケーブルレリーズがあるけどD50では使えないにょ。
D50用のオプションであるリモコンは持っているけどまさかD50の出番があるとは思って
なかったので持ってきてないにょ。
そういうことで、直接本体のシャッターボタンを押すことにしたにょ。
バルブモードで撮影するため押した瞬間だけでなく押している間ずっと微動だにできない
状態・・・だけど緊張してからだがぶるぶる震えているにょ。(別にアル中ではない)
できあがった写真を見るまでもなく失敗しそうな予感がしていたにょ。
撮れた写真はこんな感じにょ。(D50、AF-S18-135mm、F16、3秒)
http://www.42ch.net/UploaderSmall/source/1281239854.JPG
mixiで公開しているようにQVGAくらいに縮小してみれば分からないけど原寸大(完全
無加工な写真)だととてつもないほどのぶれているのが分かると思うにょ。
これがまともな部類といえばその他の写真の出来がどれだけ酷いのかが分かるにょ。
7月26日には(一定レベルまでなら)花火写真を撮るのは簡単と書いていたのにこれでは
話にならないにょ(笑)
これならばまだコンデジで撮影した方が手ぶれがないだけマシかもしれないにょ。
TX1の手持ち夜景モードであれば手ぶれがあまりないレベルのシャッター速度で撮影
できるからね。
三脚を使うならばコンデジの夜景モード(花火モード)の方がまだキレイに撮れそうにょ。
実際のところバルブではなく4秒くらいのシャッター速度固定で撮っていればここまで
酷い写真を量産することは無かっただろうと後になって思ってしまったにょ。
バルブモードで写真を撮る際に本体のシャッターボタンを押していたらぶれまくって
しまうということが分かるいい経験になったにょ。
私は銀塩一眼で初めて花火の写真を撮ったときからずっとケーブルレリーズを使用して
いたからね。(ケーブルレリーズの効果が絶大であることが分かった)
三脚やケーブルレリーズがないと花火は撮れないかというとそうではなく上記のように
手持ちでも撮れなくはないけど流れる様子は数秒間の長時間露出でないと表現できない
ため手持ちでは不可能にょ。
ただし、それは静止画の場合にょ。
動画であれば手持ちでも十分撮れるにょ。
普段私が持ち歩いているコンデジ(TX1)を用いて実際に撮影してみたものがこちらにょ。
http://www.youtube.com/watch?v=1tOjUX6VqE0
動画であれば昨今のコンデジであればこれくらいは余裕で撮れてしまうにょ。
花火撮影で難しい難しいシャッターチャンスに関しても動画であれば問題ないしね。
さて、今回の花火撮影は近年希に見る失敗に終わってしまったわけだけど失敗は今後の
いい経験になるにょ。
「予備バッテリがあるから安心」という過信も打ち破ってくれたし、「バルブであっても
シャッターボタン手押しで何とかなるだろう」という自信も打ち破ってくれたからね。
「失敗は成功のもと」とことわざであるように失敗の原因が何かということを知りそれを
次へと繋げていくことが重要となるにょ。(だから、考えもなしにやって失敗しまくる
ことが良いことでもない)
見れない
昼からpcで お茶目クラブと全貧連の掲示板が見れないよ
他のteacup掲示板は 普通にみれるよ
iPhoneは垂直統合によって勝利し敗北する
アンテナ問題を抱えつつもiPhone4は売れまくっているにょ。
http://plusd.itmedia.co.jp/mobile/articles/1008/06/news074.html
確かにその問題が無ければさらに売れたのかもしれないと考えると「さすがiPhone」と
しか言いようがないにょ。
何せ7月6日に書いたように本体外周にあるデッドスポット(アンテナの継ぎ目)に触れた
だけで感度が100分の1までダウンしてしまうわけだからね。
これはバンパーの無償配布で一応は解決したけど根本の解決にはなってないにょ。
とはいえ、その間アップル社がしていたことは他社のスマートフォンのアンテナ問題指摘
(他社の製品も持ち方によって感度が変わる)だったにょ。
他社のスマートフォンでも持ち方によっては感度を下げることが可能というのを
サイト上で公表してもそれによってiPhone 4のアンテナ設計の問題が改善されるわけでは
ないにょ。
むしろ、他社製品はそこまで持ち方を工夫しない限り感度が落ちないということを考えると
普通に持っただけで大幅に感度が落ちるiPhone4の商品価値を下げる結果に繋がるのでは
ないかと私は考えていたにょ。
しばらくして、他社製品の比較は公式サイトから消されそしてiPhoneのアンテナ設計の
責任者が退社してしまったにょ。(理由は公表されてないけどアンテナ問題の責任を
取らされたという考えをする人が多いと思う)
http://headlines.yahoo.co.jp/hl?a=20100808-00000001-jijc-biz
iPhoneのライバルとなるのはやはりAndroid搭載のスマートフォンだと思うにょ。
Android OS搭載機は2012年にはiOS搭載機を超えるという予想がされているにょ。
http://www.itmedia.co.jp/news/articles/1008/06/news057.html
確かにこれは十分考えられることにょ。
iPhoneの最大の強みは垂直統合モデルにあるのだけどそれがシェアという面においては
大きな足かせになっていると考えられるにょ。
まずは垂直統合モデルのメリットとデメリットについて考えるにょ。
《 メリット 》
(a-1)ニーズに合ったものを作りやすい
(a-2)情報漏洩を防ぎやすい
(a-3)低コスト化が可能
《 デメリット 》
(b-1)初期投資が大きい
(b-2)需要低下によるダメージが大きい
(b-3)生産の効率性が低い
メリットから考えてみるにょ。
(a-1)に関してはIT機器ではなく料理で考えてみると最高の料理を作るのに最高の素材が
必要と考えた場合にはその材料を入手するために材料の栽培(つまり、畑作)も自らの
手によって行うことで可能になるにょ。
それはiPhoneでもいえるにょ。
iPhoneに必要なOS、それを動作させるためのハードウェア(CPU等)を自社で設計する
ことでより適したものを作ることができるということにょ。
これこそが垂直統合の最大のメリットといえるにょ。
(a-2)は1社だけで行う垂直統合だから当然のことにょ。
多くの会社によって成立している水平分業だとどうしてもどこからか情報が漏れてしまう
からね。
人(会社)が多く関われば関わるほど漏れてしまう可能性は高くなるということで
アップル社は電波状態を確認するためにフィールドテストではなく専用ルームで行っている
模様にょ。
これならば限られた人しかテストに参加することもできないので情報漏洩の心配はほぼ
ないにょ。
それでも社外に持ち出す人が居てそれがたまたま(?)他人に拾われたりして情報漏洩
してしまったこともあるけどね。
(a-3)は自社で賄うため当然のことながら安価で済ますことが可能になるにょ。
OSの入手も他社から買う場合は一定の金額かかるわけだけど自社製品を使えばかかる費用は
そのOSの開発費を端末出荷数で割ったものだけで済むからね。
これが、水平分業ということでOSの他者にライセンス販売する形となる水平分業であれば
異なるスペックの端末は当然出てくるわけであり、そうなると特定ハードがあることを
前提としたアプリを作ることはできないにょ。
垂直統合でスペックが統一だからこそそのハードを100%生かすことができアプリを作る面
でも有利に働いているにょ。
次にデメリットについて考えてみるにょ。
(b-1)はOSにしろ、CPUにしろ開発には非常に大きな初期コストがかかってしまうにょ。
よほどの台数売上見込みがない限りは他社製のライセンスを受けた方が安く済んでしまう
からね。
これはiPhoneの場合はiPodという下地があったことが大きなアドバンテージになっていた
と思われるにょ。
アプリ販売面に関してもすでにiTunes Storeによるネット配信システムが構築済みだった
からね。
これを一から作るとなると非常に大変だったけどすでにあるものを有効活用可能という
ことが初期コストを抑える効果やある程度の販売台数を事前に見込める結果になったと
いえるにょ。
(b-2)はその商品が売れている間はいいけど需要が減ってしまったときに垂直統合の
場合は末端まですべて影響が出てしまうにょ。
垂直統合はリスクが大きく水平分業はリスク分散型といえるにょ。
PCでいえば水平分業といえば一般的なWindows PCが当てはまるにょ。
国内(NEC)の独自規格であったPC-98はかつては独自規格のハードウェア、独自に
カスタマイズされたMS-DOS、そしてそのDOS上で動作する独自ソフトということで
垂直統合に近いものがあったけどPC-98の衰退で独自を貫くことは難しくなっていった
からね。(末期にはPC-98もBIOSを除きほぼPC-AT互換となった)
一般的なPCであればWindowsが衰退したとしてもその時の主流OSを搭載すれば済むという
だけの問題にょ。
(b-3)は垂直統合の最も厳しい面にょ。
垂直統合は1社によるものだから設計は自由に行うことが可能だけど1社であるが故に
多くのニーズに合わせて多くの種類の端末を用意することが困難になるにょ。
コンシューマゲーム機はほぼ垂直統合モデルであるにも関わらず1つの機種(もしくは
数機種)でまかなえているのだけどこれは自社だけが垂直統合ではなく他社も条件が同じ
だからにょ。
だからこそDSがコンシューマ携帯ゲーム機市場で約7割のシェアを獲得することが可能に
なってくるにょ。
現行のiPhoneとiPadで需要をすべてカバーするなんてことは無理にょ。
それはデザイン面、スペック(サイズ、性能)面、価格面、キャリア面において求めて
いるものがユーザーによって大きく異なるからにょ。
もちろん1社だけだと生産能力の限界もあるしね。(必要以上に量産できる体制を整えて
しまうとコストだけが多くかかってしまうし、かつての「たまごっち」のようにバカ売れ
したにも関わらず最終赤字になってしまうようなハメになりかねない)
どうやら、「9.7インチでは大きすぎる」という一部のユーザーの間の不満点を解消
すべく7インチのiPadが登場するという噂があるにょ。
http://journal.mycom.co.jp/news/2010/08/05/048/
約10インチの液晶を搭載ということでサイズの割りには軽い(モデルによって異なるけど
700g前後)とはいえ、手に持って使う端末としては重すぎるというのがあるため7インチで
500gを切れば需要はそれなりにありそうにょ。
これがAndroid搭載機であればWindows PCのように「需要がある」と判断すればどこかの
メーカーが作ると思うけど垂直統合であればiPhone/iPadを作れるのはアップル社だけで
あるためアップル社が作らなければどうしようもないにょ。
ただ、Androidの場合は各社、各端末で性能差が大きいためアプリ面においてはかなり
厳しいものがあるにょ。
PC用のアプリであれば要求動作スペックがパッケージに記されているけどそれと同じような
ことが今後Android用アプリには必要になってきそうにょ。
Android搭載機は高価なハイエンドモデルから安価なロースペックモデルまでさまざま
用意されているのは確かに良いことだけど問題はOSにょ。
PCの世界だと例えば9年前にXP搭載機を買った人は今もSP3にアップデートすることで
そのまま使えているし、XPの要求スペックを満たしていれば98/Me/2000搭載機でもXPを
導入することは可能にょ。(それが性能面で実用的かは別問題だけど)
またXPは8月3日に書いたようにあと3、4年は現役として使うことができそうなので
XPのトータルの寿命は10数年に渡るといえるにょ。
Android搭載機は現状では標準的な2.2とローエンド機に搭載されている1.6があるけど
この1.6のサポートがどこまで続くのかとか、主要アプリの動作サポートがどこまで
続くのかということを考えるとXPと比べて遙かに短期間で終了すると思われるにょ。
PCとPDA、スマートフォンを比較するのも・・・・という人もいるかもしれないけど
価格的には安価なPCよりも標準的なスマートフォンの方が高価(「実質価格」ではなく
一括払いで購入可能な価格)になってきているから短くても問題ないという言い訳は
通用しないにょ。(昔のように2、3年使用すれば縛りなしで0〜2万円で最新機種を買う
ことができたというのとは状況が異なる)
ネイティブアプリが使えるということがスマートフォンの一般的なケータイ(ガラケー)に
対するアドバンテージなわけだからね。
とはいえ、垂直統合のiPhoneはその心配はないのかというとそうではなく基本的に
1世代前まではOSのアップデートをサポートしているのにすぎないし、世代数が増えれば
(つまり、数世代旧機種になれば)動作対象外となるアプリも激増すると思うにょ。
したがって、スマートフォンにおいてはWindows PCのように長期間サポートされるもの
という考えは捨てるしかなさそうにょ。
PCとは異なり2、3年で買い換える人が多いスマートフォンにおいてはWindowsのような
長期サポートは必要ないと判断されてもやむを得ないのかもしれないにょ。
あと、問題はAndroidは後継となる3.0に関しては要求スペックが飛躍的に高くなっている
ということにょ。
ローエンドを切り捨てる(というか現行だと「ハイエンドのみに絞る」と書いた方が
適切か)ということでハイスペックを生かしたアプリの登場が期待できる反面、(現行の
2.2搭載からアップデートした場合に)動作保証のある端末はごく限られてしまうという
問題があるにょ。
水平分業であるため安価なものまでバリエーション豊富に用意できるというのがAndroid
搭載機のメリットなのにそれができなくなるのは問題・・・ということでしばらくの間
2.2は継続される予定となっているにょ。
とはいえ、そんなに長期間2.2がサポートされるとは思えないにょ。
これも2、3年で買い換えるということを考えれば大した問題ではないのかもしれないにょ。
結局のところPCとは異なりスマートフォンの場合は購入スパンが短いためOSのサポートが
短くなる傾向になり結果として古いOSのサポートはされにくくなっているにょ。
これにより、PCよりも世代交代やシェア争いの変動が大きいものになっていると考える
ことができるにょ。
今であればiOS搭載機(iPhone/iPad)は高いシェアを持っているけど垂直統合という
ことで広いユーザーニーズを確保したり、絶対数量を伸ばすことが困難であるため
シェアにおいては2014年には上記予想のようにAndroid搭載端末に負けてしまうという
ことは十分に考えられるというわけにょ。
とはいえ、シェアで負けたから駄目かというとそうではなく十分な数量売れていれば
アプリ面の心配はする必要もないし、シェアよりも自分に合うかどうかがが重要にょ。
現状でいくら売れているとはいえ、iPhoneを使ってみて自分に合わないというのであれば
「(自分にとって)iPhoneは良い端末」とはいえないわけだからね。
アニメ業界、ゲーム業界でもこれは同じで人気があるから必ずしも自分で観て(プレイ
して)楽しいというわけではないので売れ行きは全く気にする必要はないにょ。
しかし、ある程度売れなければ続編が期待できないからより多く売れるということもことも
やはり重要になってくるにょ。(良いものだから売れて欲しいという願望もあるだろうし
続編を期待するならば違法ダウンロードするのではなくその対価を支払って欲しい)
5年前にはiOSもAndroidも無かったわけだから5年後や10年後のことは予測が困難とはいえ
アップル社のブランド力が続いていれば続編(後継機種)が出ないほど落ち込むという
心配はしなくてもいいかもしれないにょ。
マリモーマさんへ
>昼からpcで お茶目クラブと全貧連の掲示板が見れないよ
PC、携帯両方で見れないのなら鯖落ちかと思ったけど私はPCでも見れてるということを
考えるとアクセス規制でもかけられているにょ!?
私はそんな設定をした覚えがないので板単位ではなく鯖単位で規制がされているのかも
しれないにょ。
間違い発見
トップから掲示板に飛ぶとエラーが出るよ
下のURLだと両方見れるよ
http://6407.teacup.com/ochame/bbs
http://6519.teacup.com/ochame/bbs
時間があったら トップページのリンクを治してね
僕も規制とか ウイルスバスターなどで見れないのか いろいろ調べたよ
携帯で見れるから そのURLで開いたら ちゃんと見れたよ
http://liv0.com
「昔は良かった・・・」というのは果たして本当なのか?
昨晩よりNHK-BS2で5日間に渡って放送される銀河鉄道999を見たにょ。
http://www.nhk.or.jp/g999/
銀河鉄道999は私はリアルタイムで見ていたけれど録画機器もなく再放送でも見たことが
ないため本放送を見てから30年ぶりの視聴となるにょ。
銀河鉄道999は宇宙戦艦ヤマト、(初代)機動戦士ガンダムなどとともに一世風靡した
アニメだけど現在放送中のアニメで30年後も多くの人々の心に残るような名作アニメ
と言うものは無いような気がするにょ。
1つの理由としては7月27日に書いたようなビジネスモデルが影響しているにょ。
現在アニメファン向けに作られている作品はほとんど深夜アニメとして放送されている
わけだけど深夜アニメはDVD(もしくはBlu-ray)という映像コンテンツを売ることで
成立しているビジネスモデルとなっているにょ。
放送枠を長期間確保するのが難しいのと薄利多売(多くの作品に出資することで1作品
あたりのリスクを減らす)により1クール単位での制作が基本となっているにょ。
制作本数が多いとその中で埋もれてしまいがちだけどそれはターゲットをある程度
絞ることで回避しているにょ。
ただし、ターゲットを絞るということは作品が視聴者を選んでしまうということにも
繋がってしまうにょ。
たとえば、ここ1、2年の深夜アニメの中でもトップレベルの人気である「けいおん」を
例に挙げてみるにょ。
けいおんは昨年4月〜6月の1クール放送された後に今年は4月〜9月の2クール放送される
予定になっているにょ。(というか現在放送中)
オリコンでOPとEDのCDが1位、2位を独占したり、作中で使われたギターやヘッドホンが
高価にも関わらずバカ売れしたり、舞台となる桜高校のモデルとなった豊郷小学校
(旧校舎)には大勢のファンが押し寄せたりと話題を欠かすことはなかったにょ。
深夜アニメは上記のようにDVD販売のための宣伝のようなものであるため4〜10局程度と
いう極めて少ない放送局(つまり、低コスト)で放送するのが普通だけど1期での人気が
あったためか2期では深夜アニメでは異例となる28局での放送となったにょ。
そして、9月でのアニメ放送と同時に原作の方も終了することが分かりそれはYahooの
トップページに掲載されたにょ。
http://headlines.yahoo.co.jp/hl?a=20100809-00000002-mantan-ent
そこまでの作品ならさぞかし多くの人が見ていることだろう・・・と思いきややはり
深夜アニメということで視聴率は2〜4%程度だからね。
深夜アニメは数が多いため時間帯が重なってしまい見れないという場合もあるので
録画視聴を考えてもアニメファンならほとんどの人が見ているというレベルには至って
ないにょ。
当然のことながら「深夜アニメをあまり見ない」という人ならば作品名こそ知っていても
1話も実際に見たことがないという人も多いのではないかと思うにょ。
これは現状のアニメを考えると仕方がないことにょ。
ここで「作品の質が昔の方が良かった」からと考えてしまうのはただの懐古主義にょ。
昔は作品数が少ないことに加えて作品が商品ではなかったことや録画環境がなくリアル
タイムでの視聴を余儀なくされたのが大きいと思うにょ。
それだけ心に残る要素があり、視聴率の面でも今では考えられないレベルであるため
より多くの人の心に残っているのは当然にょ。
PCにしろゲームにしろ昔と比べて最近は面白みに欠けるという人もいるのではないかと
思うにょ。
これは上記のような懐古主義に他ならないにょ。
確かにすべてを掌握できるという面においてはシンプルな8ビットパソコンのメリットは
あるけどそれは便利さを考えていくと必ずしもそうではないにょ。
もしも手元に1台だけPC(パソコン)のみを許された場合Windowsが動作するPCと名機と
呼ばれる8ビットパソコンでは前者を選択する人が大半ではないかと思うにょ。
それは便利さを知っているからにょ。
結局のところ「普遍的なもの」というものはなく同じ個人においてであろうと価値観は
変化しているということにょ。
それ故、多くの人に受け入れられるためには変化することが必要となるにょ。
そうなると現在多くの人に受け入れられるものが30年後に受け入れられることは非常に
難しいといえるにょ。
ただ、「面白さ」というのは「便利さ」とは異なりある程度普遍的なものがあるのは
事実にょ。
しかし、その場合においてもその当時を知っているからこそ感じる面白さ(言い換えれば
その作品に対する「思い入れ」)というものがあるからね。
今年5月22日、23日の2日限定でGoogleのトップページにプレイ可能なパックマンが
公開されたけどそれを楽しむことができるのはやはりパックマンを実際にプレイしていた
人だけだと思うにょ。
昔のゲームは結構美化されている場合が多く実際に今ファミコンゲームをやってみると
「これで昔は夢中になっていたのか・・・・」と思わせる作品も少なくないにょ。
それを考えると「面白さ」というのも必ずしも普遍的ではないと思ってしまうにょ。
やはり、「思い入れ」というのはかなり大きな影響を与えているということにょ。
したがって、アニメにしろゲームにしろ昔と今で正当な比較を下すというのは極めて
困難なものといえるにょ。
確かに、「30年後に世代を越えて語り継がれるようなアニメが今あるのか」と聞かれたら
「ない」と答えるだろうけどそれだから最近のアニメは昔のアニメより質が低いのか
と言われたらそうではないにょ。
やはり、「思い入れ」という面において消費型の現在のアニメは不利になっているという
だけに過ぎないからね。
マリモーマさんへ
>トップから掲示板に飛ぶとエラーが出るよ
報告どうもにょ。
間違いではなく旧URLが使用できなくなったためだと思うにょ。
私はいつも掲示板に直接入っているので気が付かなかったにょ(笑)
というかヒット数から考えてもトップページが1日約20ヒット、掲示板が約150ヒットで
あるため掲示板に直接入っている人が圧倒的に多いだろうからね。
リンク修正乙
おちゃめくらぶの方の掲示板リンクは 治ってるね
全貧連は まだ そのままみたいだね
http://liv0.com
大は小を兼ねる・・・とは限らない
デジカメの画素数増加は止まることがないにょ。
700万画素あたりから「これ以上増えてもあまり意味がない」と思っていたコンデジも
今年に入ってから1400万画素が普通になってきたからね。
ケータイのカメラも1200〜1300万画素のものが登場しているにょ。
個人的には「高画素=高画質」ではないと思っているものの依然として多くのユーザーの
間で高画素信奉が続いているのは確かだし、用途によって画素数設定を変えるのは面倒と
いうことで「最大画素数モード し か 使わないという人も少なくないだろう」と思って
いたにょ。
そこに興味深いアンケート結果があるのでそれを見てみることにするにょ。
http://dc.watch.impress.co.jp/docs/enquete/20100810_386645.html
これを見る限り、常に最大画素数で撮影している人は約8割もいることが分かるにょ。
ある程度多いことは予想されたけどここまで多いとは思わなかったにょ。
ただし、これは普段使用しているのがコンデジかデジタル一眼かでも変わってくるし
また機種(そのカメラの画素数)によっても変わってくるため絶対的な結果ではないにょ。
ユーザーのアンケート結果をまとめると下記のようになるにょ。
◎最大画素数で撮影することによるメリット
(a-1)画質が高くなる
(a-2)大伸ばしに有利
(a-3)設定を変えなくてよい
◎最大画素数以外で撮影するメリット
(b-1)データが軽くなる
(b-2)その画質で満足している
(b-3)用途によって使い分けるのが合理的
それぞれを私の意見を交えて解説してみるにょ。
(a-1)は確かに「高画素=高画質」とはいえなくても同じカメラであれば画素数が低い
モードよりも画素数が高いモードの方が画質(というか、解像感)の面で有利に働くのは
紛れもない事実にょ。
しかし、それによるメリットがどの程度ありデメリットがどの程度あるのかということを
知っておくことが重要になるにょ。
私は手元のコンデジのTX1で撮影してみたところ4月8日に書いたように1000万画素モードで
撮影したものと300万画素で撮影して1000万画素相当に拡大したものでは有為的な差は
感じられなかったにょ。
その画素数に似合うレンズを搭載していたり、最大画素数が200〜300万画素の機種を
使用している人ならば最大画素数で撮影することに十分な意味があるけどそうでない
場合はプラシーボ効果によって「高画素の方が高画質」と感じている可能性があるにょ。
(a-2)は高画素撮影する最大のメリットにょ。
とはいえ、どの程度のサイズならばどの程度の画素数が必要になるというのは自分の
体で覚えるしかないにょ。
人間の目の分解能やプリンタの性能を考えると300dpiを大きく越えるということは無意味
だけどね。
私は昨年3月16日に実際に印刷dpiが異なるL版プリントした写真をシャッフルして並べ
その画質比較をすることで300dpiを越えると有為的な差がないことを体感したにょ。
(ブラインドテストをしないとプラシーボ効果によって高dpiの方が上に感じてしまうので
テストそのものが成立しなくなる)
大伸ばしであれば間近で鑑賞ということはほぼ無くなるため200〜250dpiで十分なレベルに
なるにょ。
600万画素あればA4サイズに250dpiでプリントできるため1000万画素超を生かすには
A3以上にプリントする必要があるにょ。
だから、コンデジやケータイの1200万画素や1400万画素で最大画素数で撮影するという
ことが本当に必要な人はほとんど居ないと思われるにょ。(家庭用プリンタの大半はA4
サイズまでだし、A3プリンタでのプリントを考えている人がケータイで撮影するとは
到底思えない)
トリミングでは画素数が多ければトリミング後でもある程度の画素数を得ることが
可能になるため有利になるにょ。
1200万画素では縦横半分の大きさにトリミングしても300万画素になるためそれを2L
サイズにプリントしても約300dpiとなるため十分なレベルになるにょ。
しかし、レンズ性能に優れたデジタル一眼ならまだしも、コンデジではトリミングに
耐えうるだけのレンズ性能がないため結局少ない画素数を300万画素に拡大したものと
あまり変わらないものになってしまうにょ。
また私はデジタル一眼で撮影時でもトリミングが要らないように構図を考えて撮影する
ことを心掛けているにょ。
確かに航空写真や鳥のように絶対的な望遠側の焦点距離が足りない場合はトリミングを
前提となる場合があるけどそれはあくまで例外であり、基本的にはトリミングをしなくて
済むようにしているにょ。
そういったものを考えて撮影するのと考えないで撮影するのとでは写真に大きく影響
してくると私は考えているにょ。(トリミング前提だと失敗写真が失敗ではなくなる
場合が多々出てくるため何が良いのかというものが分からなくなってしまう)
(a-3)は面倒臭がりの私は良く分かるにょ。
面倒というだけではなく失敗写真を産んでしまうことにもなるからね。
Web写真用に35万画素モードを使っていてそのまま普通に写真を撮っていて後から唖然と
したとが実際にあるにょ。
だから、これだけあれば普段は困らないだろうというラインを設定したにょ。
それがコンデジだと300万画素、デジタル一眼だと600万画素でありそれ以上画素数を
落として撮影することはないにょ。
次は最大画素数で撮影しないメリットについて考えてみるにょ。
(b-1)はメディア容量が少なかった昔であれば痛感していると思うにょ。
スマートメディアや旧メモステのように最大128MBのメディアの場合は末期となった
300〜400万画素のカメラ(最高画質で1枚あたり1MB少々)で使うには明らかに容量不足
だったからね。
100枚近く撮れるから十分という見方もあるけどフィルムのように気軽に買える金額
ではなかったので予備メディアを確保するのが難しかったし、金銭的な面で最大容量と
なる128MBのメディアを買うこともできなかった人もいることだと思うにょ。
したがって、昔は画素数を落として使わざるを得ない場合も多々あったにょ。
しかし、現在となっては8GBのSDHCなんて2K円程度で買えてしまうにょ。
8GBあれば1400万画素、JPEG最高画質で撮っても1000枚以上記録できるにょ。
2泊3日程度の旅行なら8GBのメディア1枚で大抵は足りるだろうけどそれでも不足ならば
32GBのSDHCを買うという方法もあるにょ。(安価な8GB程度のメディアを予備として複数
持つというのもリスク軽減としては十分にあり)
それを考えると昨今はメディアの容量不足を理由に画素数を落とす人はかなり少なく
なってきているのではないかと思うにょ。
データが軽くなるというのは容量の問題だけではないにょ。
画像を記録するのにも画素数が多ければ多いほど時間がかかるからね。
私がかつて使用していた200万画素のデジカメを搭載したケータイ(V601SH)では
200万画素モードでは記録に15秒くらいかかるけど35万画素モードでは2秒くらいで済んだ
ために200万画素モードはよほどのことがない限りは使用することがなかったにょ。
昨今のケータイは高速になっているためここまで極端な差はなくても高画素化によって
処理に時間がかかる機種も少なくないにょ。(私のTX1に使用しているメモステは
シーケンシャルライトで2MB/sにも満たないため1000万画素モードでは記録に3秒くらい
かかってしまう)
あと連写する場合にはメディアの速度が遅い場合は高画素モードでは連写ができない
場合もあるにょ。
また画素数は画像を開く速度にも大きな影響を与えるにょ。
画像転送速度の問題、JPEG展開速度の問題の両方を考慮しなくてはならないけど単純に
考えれば画素数が3倍に増えれば画像を開くのにかかる時間(サムネイルを作るのに
かかる時間)は約3倍になるにょ。
これは3倍速いPC、3倍速いメディアを使うことで解決可能だけどコストがかかるし
そんなPCで少ない画素数であればさらに快適であるため根本的な問題解決ではないにょ。
つまり、どこまで許容できるかということが重要になるということにょ。
その許容ラインと高画素で記録することによる画質向上を天秤にかけてそれでなおかつ
高画素のメリットが大きいと感じるならば常に最高解像度で撮影するということに関して
何の問題もないにょ。
(b-2)は完全に個人の用途次第だからどれだけ必要なのか、どれだけなら満足できるのか
ということは人によって大きく異なるにょ。
PC鑑賞のみという人であれば200〜300万画素あれば十分にょ。(300万画素あればフルHD
モニタであっても横一杯に等倍表示をしても溢れるくらいのサイズとなる)
等倍鑑賞するから多くの画素数を求めるという人もたまに見かけるけど等倍鑑賞だから
こそむやみに画素数が多いと粗だけが見えてしまうため最大画素数での記録は逆効果に
なるにょ。
現在使われているセンサーはベイヤー配列が大半ということを考えれば最大画素数の
半分〜3分の1の画素数で記録するのがベターといえるにょ。
もっとも、最大画素数で記録して、3分の1画素数相当で閲覧という方法もあるけどその
場合はアプリの縮小補間方式に大きく影響されてしまうにょ。(私が使っている
Irfanviewの鑑賞時の縮小補間は速度優先のためか単純な画素間引き方式であるため中途
半端な縮小はあまりキレイではない)
余裕があれば最大画素数で記録したものとそれをPC鑑賞用にリサイズしたものを用意
するという方法があるけどそれだとかえって手間が増えてしまうにょ。
特にデジタル一眼でRAW記録しているならばそれが最高画質となるためRAW+JPEGで
記録する場合にはJPEGは最大解像度に拘る必要は全くないと私は思ってしまうにょ。
JPEGはあくまでPC鑑賞専用で高画質でプリントする必要があるときはRAW現像して行えば
良いというだけの話だからね。
(b-3)は(a-3)と対極となるものにょ。
画素数を固定するというのは失敗回避において利便性があるし、用途によって画素数を
変えるというのは効率の面で最も合理的にょ。
私はその辺は上記のように普段使用するのに必要な画素数をあらかじめ決めて基本的に
それで固定(変動させる場合はそれより下の画素数は使わない)ということで解決して
いるにょ。
私の場合はコンデジのTX1は8月1日に書いたように主に日記代わり(記録用写真)として
使っているということもあり、それほど多くの画素数は求めていないにょ。(せいぜいWebで
使ったりL版印刷ができれば十分なレベル)
したがって、300万画素モードを基本として使っているわけにょ。
画質が必要な場合はそれより上げる場合がある(といっても上記のようにTX1はレンズ
性能がボトルネックとなり1000万画素でも300万画素と比べて有為的な画質向上がない
というのは悲しいところ)けれどそれよりは下げないことで失敗のリスクを減らして
いるにょ。
上記(a-3)で書いたように私は画素数をWeb用に落として失敗してしまった経験が実際に
あるからね。
私の意見は上記のようなものだけど最初に書いたようにコンデジかデジタル一眼かで
大きく変わってくるにょ。(デジタル一眼は普及価格帯のAPS-Cサイズセンサーであっても
1500〜1800万画素で十分解像しているけどコンデジで1000万画素で解像しているものは
ほぼ皆無)
あとは、個人の感覚と許容ラインがすべてにょ。
どの程度まで許容できるかは人それぞれだからね。
大伸ばしであっても250dpiで妥協なんてできず、350dpiは欲しいという人もいること
だろうからね。
その場合でも元データが解像してないと画素数だけ多くても何の意味がないにょ。
だからそういう人は最大画素数そのものに拘るのではなくカメラ(レンズ含む)に拘る
必要があるにょ。
A3プリントプリントをするから1200万画素は最低必要といっても1200万画素のケータイで
撮影していては「1200万画素」ということに何の意味もないことが分かると思うにょ。
本当に重要なのは「画素数」ではないことは実際に比較するまでもないからね。
(a-1)で書いたようにプラシーボでもいいから高画質を望むという人でない限りは・・・。
マリモーマさんへ
>全貧連は まだ そのままみたいだね
全貧連もだけどおちゃめくらぶの方でも修正したのはトップページだけにょ。
多くのページから掲示板へリンクしているのでそれを直すのはかなり面倒にょ(笑)
3D液晶TVは不要なのか・・・?
8月5日にはビデオカメラにおいて現状では「3D」はあまりウリにはならないということを
書いたにょ。
それは、3D動画を普及させるためには制作環境、鑑賞環境、発表環境のすべての面に置いて
普及させる必要があるけどまだ鑑賞環境(つまり、3D液晶TV)が普及に至ってないため
3Dビデオカメラの恩恵を得られる人がごくわずかしかいないからにょ。
そのわずかの恩恵しかない人の一部が買うだけに止まるため普及はどうしても鈍くなって
しまうにょ。
では、3D液晶TVはどうなのかというと現状では不要に感じている人が多いみたいにょ。
http://av.watch.impress.co.jp/docs/series/avt/20100810_386682.html
3D液晶TVは6月17日に書いたように将来は当たり前のようなものになると思っているにょ。
それが現状で今ひとつな理由を改めて整理して書いてみるにょ。
3D液晶TVが普及のための条件はというと3Dビデオカメラと比べると単純明快にょ。(3D
カメラの時にも本来は価格も条件に入れるべきだったけど価格を入れる以前の問題である
ためにあえて価格は条件に加えなかった)
(1)3Dコンテンツの普及
(2)視聴環境の改善
(3)価格
(1)について考えてみるとコンテンツといってもTV放送によるものとBlu-rayなどのメディア
供給によって行われるものの2通りあるにょ。
当面はTV放送が3D化される予定はないにょ。
現行の地デジは3Dが考慮されてないために非3DのTVで見た場合に二重像になってしまい
鑑賞そのものができなくなってしまうからね。
そうなると現在3D液晶TVはBlu-ray 3D目的ということになるにょ。
ところが、Blu-ray 3Dは昨年末にようやく正式な規格が策定されてようやくこれから
スタートという感じにょ。
そういうわけで現状で3Dコンテンツといえば一部のBS、CS放送による3D放送と3Dビデオ
カメラで撮影したものだけに限られるにょ。
これでは買い換え促進としてはあまりに弱すぎるにょ。
個人的には3Dは白黒TVがカラーTVになったくらいの変化に感じているけど1970年代に入り
カラー放送が増えてきてようやくカラーTVのアドバンテージが大きくなったにょ。
しかし、カラー放送とは異なりTV放送の主流が3D化することは当分ない(というか
地上波では無理)ということで今後登場するであろう数少ないBlu-ray 3Dの映画の役割が
非常に大きくなることが分かるにょ。
逆に言えばそれに興味がなければ3D液晶TVを導入する価値の大半が失われるということ
にもなるにょ。
(2)は確かに普及の障害になっているのは確かにょ。
しかし、「TV放送の主流が3Dになることはない」ということを前提に考えた場合には
「Blu-ray 3Dを鑑賞するときだけ専用メガネを付ければ良い」ということになりこれだと
許容できる人は多いのではないかと思うにょ。
個人的にもTV放送を鑑賞するのに専用メガネをかけるなんてことをしたくないけど
3Dそのものには興味があるからね。
将来的にはTV放送が完全3D化された時には3D映像、2D映像(右目用、もしくは左目用)を
切り替え式になるのではないかと思われるにょ。
3Dで観たい放送に関しては3Dモードにして鑑賞という形がベターにょ。
裸眼による3Dであればその煩わしさは無くなるとはいえ、視差バリア方式だと真っ正面
からしか3Dにならないからね。
裸眼3Dは現在飛躍的に改善しているものの視野角を考えると大画面TVでは専用メガネを
付ける方式をとるのがベターといえそうにょ。
それでも原理的には3Dとしてうまく認識されるためには距離の制約があるし、縦ずれは
大きな目の疲れを産むために顔(というか目)は画面に対して水平にまっすぐする
必要があるし、寝っ転がって観るなんて厳禁にょ。
そうなると視聴する上でも3Dはユーザーを選んでしまうにょ。
しかし、ニンテンドー3DSのような携帯型ゲーム機であれば距離がほぼ一定に保たれるし
寝っ転がってプレイしても液晶画面の角度を顔と同じ角度にすれば良いだけなのであまり
問題ではなくなるにょ。
(3)の価格に関しては確かに現状では3D液晶TVが高価なのは否めないにょ。
しかし、それは高価な価格帯のものしか用意されてない(ミドルクラス以上しか対応
していない)ために起こっていることにょ。
それは現状で3Dを求めているユーザー層を考えれば当然のことであり、低価格ブランドの
製品が3D対応になることで3D非対応の液晶TVとの価格差はどんどん縮まっていくと考え
られるにょ。
ただ、問題は買い換えのタイミングにょ。
ケータイは2、3年、PCは5年くらいで買い換える人が多いけどTVをそのスパンで買い換える
という人はほとんど居ないと思うにょ。(しかも、PCとは違いTVは普及率がほぼ100%で
あるため新規購入ではなく買い換えが大半になる)
一般家電と同じく壊れてから買い換えるという人が大半だろうからね。
確かにPCもそういう人が居ないわけではないけどPCの場合はスペックの問題でアプリが
快適動作しないとかOSが古くなって最新アプリ、機器が対応されてないため買い換えを
余儀なくさせられるということが少なくないからね。
その点TVの場合はスペック不足というものがほとんどない(細かい画質などに拘る人
ならば買い換え要因にはなるけど普通の人は多少発色や画質が良くなった程度で現在
普通に使えているTVを新しいTVに買い換えることはない)からね。
しかし、その普通に使えているTVの買い換えとなるタイミングとなりうるのが来年7月24日
に訪れるアナログ放送終了にょ。
それに加えてエコポイントにより現在TVは買い換え特需となっているにょ。
そんな中で3D対応の液晶TVを選択しないと次に買い換えるのはそのTVが壊れた時となる
ために当分先になるにょ。
この買い換え特需前にBlu-ray 3Dのラインナップが用意できなかったのは少々辛いにょ。
どうせ買い換えるならBlu-ray 3Dなどの3Dコンテンツの中にどうしても観たいものが
含まれているならば3D対応の液晶TVを選択するというユーザーも多いことだろうけど将来
観たいものが出るかもしれないからということで割高となる製品を買う人は限られて
くるにょ。
Blu-rayに興味がなく特にやりたいゲームがないけどプレステ3を買う人がどれだけいるか
ということを考えれば「将来に期待する投資」ができる人は限られるということが分かる
のではないかと思うにょ。
大画面の3D液晶TVはプレステ3よりも高価であるため観たいコンテンツがあるからと
いってもすぐに買い換え、買い増しはできないため買い換えるタイミングで観たいものが
あるかどうかが重要になってくるにょ。
しかし、3D鑑賞時の様々な制約があるし、現状でまともに訴求できる3Dコンテンツといえ
そうなものといえばBlu-ray 3Dくらいしかないため映画ファンがメインになるだろうと
推測されるにょ。
そうなると恒常的に多くの作品を鑑賞するだろうから今現在で特に観たい作品が無くても
近いうちには確実現れるためそれに期待して3D液晶TVを買うということは考えられるにょ。
これは、ゲームが好きでプレステ3に参入しているサードパーティの中に自分の好きな
メーカーがあるから自分好みのゲームが将来出る(もしくは自分が好きな作品の続編が
出る)ということに期待して現時点で特にやりたいゲームがないけどプレステ3を買う
というのと同じようなものにょ。
そうなるとやはり現状では3Dコンテンツ目的で3D液晶TVを買う人は極めて限られるという
ことがいえそうにょ。
とはいえ、「どうせ買い換えるならば良いものを買う」ということで地デジ対応の液晶TVに
買い換える際に3D対応のものを買うという人(3Dが目的ではないけど良いものを買ったら
結果として3D対応だったという人)は少なくないために3Dコンテンツ目的で買う人を
合わせたら普及台数はそれなりの規模に達すると思われるにょ。
とはいえ、本格的な普及はTV放送が3Dを標準化した後だと思われるにょ。
現在の地デジでマルチチャンネル化(3Dと非3Dの同時放送)は難しいために3D放送が
標準化するタイミングはスーパーハイビジョン導入後になりそうにょ。
現在はミドルクラス以上の高級品に止まっている3D対応の液晶TVはローエンドまで降りて
くるのは時間の問題であるため将来的には市場に出回っている大半のHDTVが3Dに対応と
なると考えられるにょ。(液晶パネル自体が高速なものというだけであってメガネは
当然別途必要となる)
とはいえ、そこまで来てもやはりTV放送は地上波では3Dで放送されず一部のBS、CS放送
のみであり、それ以外ではBlu-ray 3Dと3Dカメラで撮影したものを鑑賞するのに止まるため
「3D鑑賞が普通」というレベルには達することがないと思われるにょ。
したがって、現状では3Dは「必要or不要」という二択になっているものの近い将来(数年
後)には3Dは「観るor観ない」という二択になりそうにょ。
ここまで高くて 高性能なグラフィックカードは いらないな
現時点で最速のグラフィックスカード、Asus ARES
AsusのグラフィックスカードARES/2DIS/4GD5が今月発売されるそうだ
本製品のGPUにはATI Radeon HD 5870が2基、
グラフィックメモリにはHynix Semiconductor のGDDR5 (4GB)が搭載されており、
現時点で恐らく史上最速のグラフィックスカードであると言って間違いないだろう。
ベンチマークテストではRadeon HD 5970やNVIDIA GeForce GTX 480を容易に抜いており、
更に2枚挿しでCrossFire環境を構築することも可能とのことだ。
日本での予想価格は14万円前後となるようだ。
なお、詳細スペックやベンチマークについては4Gamer.netが詳しい。
http://slashdot.jp/it/article.pl?sid=10/07/12/0617229
http://www.unitycorp.co.jp/asus/vga/ati/pciex/ares_2dis_4gd5/ares_2dis_4gd5.html
http://www.4gamer.net/games/047/G004755/20100709069/
http://liv0.com
コミケは参加することに意義がある
今日から明後日までの3日間は2010年夏コミ(コミックマーケット78)が開催されるにょ。
http://headlines.yahoo.co.jp/hl?a=20100813-00000009-mantan-ent
今年も徹夜で並んでいる人が大勢いた模様にょ。
とはいっても会場での徹夜行為は禁止されているけどね。
ニコニコ生放送やtwitterによって現地から直接レポートする人はかなり大勢いるために
会場に居なくてもどんな状態かは粗方分かるようになってきているにょ。
私はというとコミケに行き始めたのは97年からで2度サークル参加を果たしたにょ。
http://ww5.tiki.ne.jp/~ochame/CLUB/C58REPO.HTM
しかし、2000年の夏コミ(C58)を最後にコミケへの参加は滞っているにょ。
それは、金銭面の問題が大きいけど仕事の都合で時間が取れないというのもあるにょ。
日帰りは不可能な場所に住んでいるために連休をとらないとまず参加できないからね。
そこまでしてコミケに参加する意味は何なのか・・・?
主なサークルの同人誌(同人ソフト)に関してはショップへの委託販売があるため別に
コミケで無くても買うことはいくらでもできるにょ。
また、会場限定グッズ、委託を行わない同人誌に関してもプレミアム価格さえ許せば
主なものはヤフオクなどで入手可能にょ。
多少割高になったところで私の場合はコミケに参加すれば往復の電車賃(新幹線代)
だけで4万円になるため特定のグッズが欲しいためだけならば大変な思いをして行く
よりもトータルで考えれば割安になる可能性も十分にあるにょ。
やはり、コミケの一番の魅力は一般参加者と作り手(「売り手」となるサークル参加者)
との垣根が小さいということにょ。
誰でも売り手に回ることができるわけだからね。
そして、それによる人と人との繋がりにょ。
売り手との距離が近いために人と人との繋がりも強くなってくるにょ。
私が、かつてコミケに行っていたのはそこで買いたいものがあるということだけでは
なくそこに行けば会える人がいるということが大きかったにょ。
普段はネット上でしか会うことができない人とリアルで接する機会というのはなかなか
無いわけだし、参加者が多いコミケだからこそより多くの人と直に会うことができるにょ。
そういう観点からいうとコミケは一種の「オフ会」ともいえるにょ。
私が初めて参加したオフ会は96年のPJ-Rフェスタにょ。
PJ(ポケコンジャーナル)読者の集まりということで厳密な意味でのオフ会ではない
もののそれでも普段会えない人に会う機会というのは私にはすごく感動的に思えたにょ。
それが私がコミケに参加するようになった最大の要因だからね。(2000年代に入りコミケ
まで足を運ぶのが難しくなってからは毎年「大阪オフ」と称してかえるさんと会っていた)
とはいえ、儲けるためにコミケに参加するというサークルも少なくないにょ。
実際「壁サークル」(≒大手サークル)の中には1回のコミケで数100万円、もしくは
それ以上の金額を稼いでいるものもあるからね。
もっともそんなサークルはごく一部でありほとんどのサークルは良くてトントン(参加
するための交通費等が出れば良い程度)であり、私のように零細サークルは利益を出そう
とするのはまず不可能にょ。
私もまたサークル参加をしてみたいけど金銭面、時間面に加えて体力面で厳しくなって
いるために難しそうにょ。
夏コミの場合は暑さや熱中症対策を万全に行わないと非常に危険なレベルだからね。
行ったことない人には冗談に聞こえそうだけどホントのことにょ。
コミケ会場付近のコンビニの売場を見ればどんなものかが想像できると思うにょ。
http://twitpic.com/2dye3w
私自身10年前と比べて体力面が相当落ちているためにコミケに参加するような体力は
もうないかもしれないにょ。
それでも、死ぬまでにはあと1回はサークル参加をしてみたいにょ。
やっぱり、参加するとすればポケコンサークルか・・・?(今回の夏コミでポケコン
サークルは参加しているのだろうか)
今(今回の夏コミ)だったら「けいおん」で参加するかも・・・。
前回サークル参加をしてときはポケコンで参加したものの上記レポートを見てのように
それ以外のものが大半だったからね(笑)
何はともあれコミケに参加している人(参加予定の人)は事故や熱中症で倒れたり
しないように十分気を付けてにょ。
マリモーマさんへ
>ここまで高くて 高性能なグラフィックカードは いらないな
私も欲しくないにょ。
買うお金がないといえばそれまでだけど買ってもその消費電力による発熱、冷却の
ための騒音を考えるとまともに使えないにょ。
最大消費電力で200W少々の私の自作PCでさえ、最近は暑いからほとんど電源を入れてない
くらいだからね。
便利なサービスほど危ない
先日mixiが3日に渡る大規模なシステム障害になったにょ。
http://www.itmedia.co.jp/news/articles/1008/12/news021.html
mixiは国内最大の加入者を誇るSNSであるためその影響はかなり大きかったにょ。
とはいえ、実際に個人的に何か問題あったのかというと別に大したことはないにょ。
それは私がmixiに頼った生活をしてないためにょ。
これがmixiに依存しているかどうかで変わってくると思われるにょ。
この障害を見て先日TVでも放送された映画「サマーウォーズ」(2009年劇場公開)を思い
出してしまったにょ。
「サマーウォーズ」ではネット世界でのシステム障害によって大きな問題が起きてしまった
からね。
というのも劇中では1つのネットサービスであるOZ(オズ)に全世界で10億人以上(劇中では
これは全世界の携帯電話の普及率とほぼ同等と表現された)が加入していて人々はOZに依存
した生活を送っているためにょ。
ただのコミュニケーションサービスだけではなく電気、水道、交通機関などのライフライン
までがOZに依存されているくらいにょ。
それで障害が起きれば影響がないわけがないにょ。
さすがにOZのように極端なものは現実には存在しないにょ。
とはいえ、様々なことができる便利なサービスであれば加入者はどんどん増えていくため
システム障害が起きたときのリスクも大きくなってしまうにょ。
ただの情報サイトであればそこを使用しないという選択肢があるけど例えばメールや
スケジュールなどを一括管理しているのであればシステム障害の間はそれが使用できない
ことになりかなり不自由となってしまうにょ。
そうならないためにメール、スケジュール管理は分散して行うという方法もあるけど
そうすると使い勝手が悪くなってしまう(管理が面倒になる)という問題もあるにょ。
OZは劇中描写から考えて1人1アカウントしか取得できない(利用制限のある仮アカウントは
複数取得可能)、数億人が同時にアクセスしても全く問題ないサーバと回線、そして、
2056桁の世界最高のセキュリティーシステムを誇っているためそれがライフラインと
密着しているのであれば利用者が増えるのは当然のことだと思われるにょ。(その暗号を
人間の手によって簡単に解いてしまったというのはさすがに無理があるけどこれは深く
考えないようにする)
OZは極端であるとはいえ、便利なサービスであればあばあるほど(そのサービスに問題が
無ければ)どんどん利用者が増えていくと思われるし、そうなった際にはセキュリティー
問題として万一の際の個人情報流出も考えないといけないにょ。
複数のサービスに分散してシステム障害が起きたときのリスクを減らそうとしてもそれが
かえって個人情報流出のリスクを高めるという結果になりかねないにょ。
世界最高のセキュリティーシステムだろうと内部からだとあっさり突破されてしまうからね。
Webというのは黎明期には情報発信、情報閲覧のためのものだったけど今は様々な用途に
活用されているにょ。
昨今、聞く機会が多い「クラウドコンピューティング」に関しても徐々に生活にとけ込んで
来ておりそれを意識して使っているという人はあまり居ないのではないかと思われるにょ。
特にケータイ向けサービスはすべてクラウドコンピューティングによるものと言っても
過言ではないからね。
しかし、便利なサービスがあるからそれに依存するかそれとも複数のサービスを併用
するかというのは難しい問題にょ。
あまり一極集中してそれに依存しすぎるというのは障害が発生したときのリスクを考えると
良いことだとは個人的には思えないにょ。
新しいアプリ
便利かどうか分からないけど 携帯に世界カメラzoomというのを入れたよ
http://plusd.itmedia.co.jp/mobile/articles/1003/30/news027.html
http://trendy.nikkeibp.co.jp/article/column/20100705/1032285/
ツィツターが見れたり 写真撮影とかできるけど
結構重くて使いにくいかも
http://liv0.com
幽霊サイトはどうあるべき・・・?
おちゃめくらぶのWebサイトも誕生して昨年で満10年を迎えたけどこれもいつまで更新が
続けられるか分からないにょ。(サイト自体はきまぐれ更新だけどここの雑記の方は今の
ところほぼ毎日書いてる・・・とはいえこれも時間の都合次第で変わると思う)
ネット上には更新が数年間行われていないWebサイトやブログなどもかなり存在するけど
それらはユーザーによって見放された(時間等の都合で更新できない)というだけでは
なくユーザー自体がすでに亡くなっているという場合もあるにょ。
今は多くの人がSNSを利用しているけどユーザーが亡くなった場合はどうなるのか・・・?
http://slashdot.jp/article.pl?sid=10/08/14/0149212
私もmixiを含めSNSにはいくつか登録しているけどやはりこの点は気になるにょ。
単純に遺族が退会手続きを行うという方法もあるけど先日Twitterはユーザーが
亡くなった場合の対応ポリシーを発表したにょ。
http://www.itmedia.co.jp/news/articles/1008/11/news071.html
しかし、死亡証明を行う必要があるというのはハードルが高いにょ。
とはいえ、遺族がどのSNSに登録しているなんてことをすべて把握しているとは思えず
自動ログインでなければパスワードやアカウントを知っておく必要があるから退会手続きを
行うということもできないにょ。
亡くなったユーザーの情報をSNSの管理側が得ることは困難であるため亡くなったユーザーの
アカウント削除というのは難しいにょ。
確かに対策としては一定期間ログインしなければ自動的に削除という方法もあるにょ。
亡くなった人がログインすることはないためこれは確かに有用にょ。
ただし、ログインしなかっただけで勝手に消されるというのはあまり歓迎すべきことでは
ないと考えている人もいるにょ。
「1年で削除」という規定ならばその1ヶ月くらい前に通知メールを出すというように
いきなり削除ではなくワンクッション入れるという方法は必須だと思うけどそもそも
そのメールアドレス自体が生きている保証はないからね。
そもそも消すのが良いともいえないにょ。
おちゃめくらぶもポケコン情報を求めてやってくる人のためにいきなり削除なんてことは
極力避けたいからね。
自分が死んだあと消されることを望まないユーザーもいるということにょ。
一番いいのはドナーカードのようにユーザーが亡くなった後に削除するかそのまま残すか
という設定ができればいいのだけどそもそも上記のようにその死亡を管理側に通達する
方法が確立されてない時点でその方法は使えないにょ。
現状では「亡くなった後に消す」という方法は困難であるため亡くなった場合には更新
されずずっと放置状態になる場合がほとんどにょ。
「長期間放置されているサイト(ブログ、SNS)=ユーザーが亡くなった」というわけでは
ないけどやはり頻繁に更新が続いていたのが急に止まったらそう感じてしまうにょ。
第三者からすれば単に忙しくて更新できないのか亡くなってしまったのかというのは
判断ができないからね。
パスワード紛失などによってそのまま放置されたという場合もあるだろうしね。
仮に私が亡くなった場合はおちゃめくらぶは年間契約をしているプロバイダのサーバに
あるために年に1回の代金の支払いが滞れば自動的に削除されるかもしれないにょ。
掲示板の方は今のところそんなことはない(数年間書き込みのないTeaCup掲示板はたまに
見かける)ということで書き込みが一切無くなっても消える心配は無さそうにょ。
生きている時から死んだ後のことを考えても仕方がないけど人の命は儚いものであり
私が明日死なないという保証は誰にもできないにょ。
SNSの利用ユーザー数が増えるにつれてこのようにユーザー死亡後の対応が迫られる機会は
多くなってくると思われるにょ。
トチローが死亡した際に鉄郎がスイッチを入れハーロックに伝えたように死亡した際には
スイッチ1つでそれを伝える仕組みができればいいんだけどね。
マリモーマさんへ
>便利かどうか分からないけど 携帯に世界カメラzoomというのを入れたよ
最近はARが流行っているからね。
その中でもやはりセカイカメラが一番人気にょ。
面白そうだけど私のケータイでは対応してないにょ。
ARは「次元」を越える技術か・・・
近年AR(拡張現実)が急速に注目を集めているにょ。
ARは現実空間にCGなどの仮想空間の情報を重ね合わせる技術のことだけど現実世界を
ベースにしているという点においてはCGをベースに構成されているバーチャルリアリティ
(仮想現実)とは根本的に異なる点といえるにょ。
ARというのは特別目新しいものというわけではなく古くからアニメや映画の中では
活用される場面が多く存在するにょ。
ARをフルに使ったものといえばやはりTVアニメ「電脳コイル」が挙げられるにょ。
「電脳メガネ」と呼ばれるヘッドマウントモニタ一体型の小型PCが広く普及しており
それを使って電脳空間のものを現実空間と重ね合わせて見ることができるにょ。
ペットもそのメガネを使ってしか見えない(もちろん物理的な干渉はできない)電脳
ペットが多く飼われており人々の生活の間にAR技術がとけ込んでいるにょ。
ARにはカメラが必要不可欠にょ。
ノートPCであれば大半のものにカメラが内蔵されているし、デスクトップPCであっても
USB接続で別途用意することもいくらでも可能なのだけどそうなるとARを活用できる場所が
限定されてしまうにょ。
そういうことで2年前に登場した初期の一般向けARソフトは自宅で楽しめる電脳フィギュア
だったにょ。
http://www.geishatokyo.com/jp/ar-figure/figure.html
ただ、内容から言ってもこれによってARが広く普及するとはいえなかったにょ。
ARがここ最近になって急速に注目を集めた原因としてはスマートフォンの普及が挙げられる
と思うにょ。
スマートフォンは持ち歩いた状態で使用できるしカメラを内蔵しネイティブアプリが動作
するためにARアプリを作ること気軽に使用することが可能になったにょ。
もちろん、スマートフォン自体の性能向上もあるし、アルゴリズムの改善によって低
スペックでも実用レベルの動作が可能になったというのもあると思われるにょ。
スマートフォンでARを普及させるきっかけとなったのはやはりセカイカメラにょ。
http://sekaicamera.com/ja/
スマートフォンに内蔵されたGPSや電子コンパスと連動によって電脳空間の情報となる
エアタグを現実空間(カメラで映し出された映像)とリンクすることで幅広い活用方法を
見いだすことが可能になったからね。
このセカイカメラはAndroid用だけではなくiOS(iPhone/iPad)用も用意され、ガラケー
ではドコモのPrimeを中心に使用可能となっているにょ。
機種が限定されるのはRawImageCaptureという機能を使用しているのでそれに対応している
機種でしか使用できないためにょ。
したがって、スマートフォンのように後からJAVAアプリとして自由に追加できるような
ものではないにょ。
対するauはBREW4.0対応の端末であればアプリとして追加できるにょ。
この辺はBREWが他のJAVAアプリで動作するガラケーとの設計思想の違いが影響していると
思われるにょ。
ARは秋葉原に等身大マジンガーZを出現させたり、ゲームの中に登場するカノジョを
実際の背景をバックに撮影したりとかいう単純なものだけではなく様々な用途に使用可能
となっているにょ。
http://plusd.itmedia.co.jp/lifestyle/articles/1008/06/news099.html
http://game.watch.impress.co.jp/docs/news/20100712_380170.html
ARは医療機関、交通機関では多く使われているけどやはり人々の間に浸透するとなると
日常生活に必要なものやエンターテイメント方面だと思うにょ。
携帯ゲーム機にもカメラが搭載されるようになりここ1年でARを体験できるソフトが多く
発売もしくは発表されたにょ。
ゲームは2Dのドット絵から3Dのポリゴンへ主流が移り変わったにょ。
そして最近は平面から3D表示(立体視)へと変革をしようとしているにょ。
それとは別の変化がARにょ。
仮想空間はどれだけ進化しても仮想空間でしかないからね。
http://www.itmedia.co.jp/promobile/articles/1008/13/news024.html
現実世界とリンクするというのは「リアルな仮想空間」とは別の意味での「リアルな空間」
といえるにょ。
三次元(現実空間)から二次元(仮想空間)へと行くことはできないけどARによって
(擬似的に)移動が可能になるというのは非常に大きいにょ。
将来的には「電脳コイル」の世界のように生活にARがとけ込むような時代がやってくる
可能性はあると思うけどそれを牽引するのはこのようなエンターテイメント方面だと
思うにょ。
気軽だからこそモラルが重要になる
Twitterの利用者が増えていったため中には7月19日に書いたような「Twitter疲れ」を
感じている人が出てきているにょ。
ただのつぶやき(独り言)でいいのだから細かいことを気にせずじゃんじゃん書き込んで
しまえばいいのに・・・と思うかも知れないけどそれが必ずしも正しいとはいえないにょ。
それは気軽に書き込めるからよく考えないで書き込みをするからにょ。
そういったトラブルは頻繁に発生しているけど昨日実際にあった週刊少年ジャンプに
連載中の「ブリーチ」の作者である久保先生とその読者とのやりとりを例に挙げてみるにょ。
http://blog.livedoor.jp/insidears/archives/52357491.html
ブリーチの話の展開(およびキャラ)が気に入らない一部のファンからさまざまな無茶な
要求(「○○を殺せ」など)をされてから久保先生がツイートしたのを転載してみるにょ。
>時々勘違いしてる子がいるから言っとこうかな。
>読者にあるのは作品の話を変える権利じゃない。
>その作品を読むか読まないかを選択する権利だ。
>気に食わなければ読むのをやめればいい。
http://twitter.com/tite_kubo/status/21290369175
>もしBLEACHよりも面白いものが描ける才能があるなら、すぐに漫画家になるべきだ。
>面白ければ必ずBLEACHより成功する。絵が描けないと言うのなら、
>努力して編集者になって漫画家にアドバイスすべきだ。本当に能力があれば、
>どこへ行っても歓迎される。
http://twitter.com/tite_kubo/status/21290675930
>才能も無く、努力もせず、そのくせ与えられるものに不平を言って、
>努力する人間の足しか引っ張れないような奴は、目を瞑ってどっか隅っこに挟まって、
>口だけ開けて雨と埃だけ食って辛うじて生きてろ。
http://twitter.com/tite_kubo/status/21291085113
久保先生が言っていることが正しいか間違っているかというのの受け止め方は人それぞれ
だと思うにょ。
この久保先生のツイートを見て「面白い漫画が描けなければ批判してはいけない」と
言っているように感じている人も中にはいるにょ。
それならば下記(2chのレスから抜粋したもの)のようになってしまうにょ。
A「オマエはBLEACHよりおもしろい漫画が描けるんだな?描けないのに批判するな!」
B「漫画描いてみたよ、ほら」
A「なんだこれ、糞つまんねー」
B「ちょっと待て、俺の漫画を批判するのは俺よりおもしろい漫画を描いてからだ」
A「描いたぞ」
B「どっちがおもしろいか第三者に聞いてみないとな」
A「よし、Cに聞いてみよう」
B「ちょっと待て、それはCがおもしろい漫画を描いてからだ」
確かにこれは変なので「久保先生の言っていることはおかしい」と思う人も中には
いるかもしれないけど久保先生のツイートをちゃんと読んでいればこれは明らかに
ミスリードということが分かると思うにょ。
私は読者にはその能力の有無に関わらず批判をすること自体には問題がないと思うにょ。
ただ、ほとんどの批判(否定意見)は意見として成立してないにょ。
「自分が気に入らないから駄目」というのは意見でも何でもないからね。
さらに「駄目だから○○しろ」というのは助言ではなくただの命令や指図にょ。
指図というのは要するに上から目線であり、これは「お客様は神様です」ならぬ
「読者様は神様です」と言わんばかりの行為といえるにょ。
おちゃめくらぶのスタンス(=私のスタンス)として「否定意見は意見ではない」と
いうことを4月22日に書いたけどこれは否定意見は肯定意見とは比べ者にならないほど
難しいものであり、多くの場合は意見として成立してないからにょ。
否定意見そのものは意見ではなく「これは駄目(これは違う)」という感情論にすぎず
その否定するための正当な理由があってようやく意見として成立するにょ。
もっとも「独り言」であれば意見として成立させる必要性は全くないんだけどね。
だから普通にTwitterでつぶやいたり、自分のサイト、ブログ、mixiなどでただの不満、
不平(≠意見)を書くのは問題ないにょ。
つまり、意見になってない批判を行うこと自体に問題はないにょ。
個人的な中傷行為でなければ言論の自由が保障されているからね。(日本国憲法第21条)
批判をしている個人サイトに原作者自らが現れて「そんな文句を言うな!」というのなら
久保先生が言っているようにその漫画を読む・読まないの権利があるようにそのサイトの
内容を読む・読まないという権利があるため読まなければ良い(そんなサイトに
行かなければ良い)というだけの話にょ。
ただ、「言論の自由」というのは「どこで何を言ってもいい」というのとは違うにょ。
Twitterにおいて返信をするということはその人に直接言っているのと変わらないにょ。
道を歩いていて見ず知らずの人に文句を言われても気にしないなんていう人はほとんど
いないと思うにょ。
いや、こちらから向こうの顔が見えないために自宅にいて見ず知らずの人に電話で文句を
言われるという方が正しいかもしれないにょ。
ここまで来れば「言論の自由」を主張するのがおかしいことに気が付くと思うにょ。
確かに「間違っていることをしている」というのであれば隠れて行う批判ではなく直接
本人に伝えるということが必要になると思うにょ。
しかし、漫画の展開なんて表現の自由を逸脱してない限りは作者の自由にょ。
久保先生も自らが最善と思って描いていると言っているのにそれで文句を言われては
たまったものではないにょ。(独りよがりな作品にならないためにはファンの意見を
参考にすることも時として必要となるけど今回の件とは別の話)
私も「これがベストな方法だろう」と思ってやっていることに対して「これは駄目だ」と
感情論で否定されたらさすがに「はいそうですね」とは言えないにょ。(仕事上で上司
などから言われたのであればまた変わってくるけど)
Twitterは気軽に書き込めるため急速に普及したサービスにょ。
その気軽さ故に気軽に自分の感情を相手に押しつける結果になることにもなりかねない
というのが今回の例で分かると思うにょ。
この辺は確かに「気軽さ」がマイナスに働いているともいえるけど本質的にはモラルの
ない人(マナー不足の人)に問題があるわけであってTwitterに問題があるわけでは
ないにょ。
これは違法ダウンロードをしている人に問題があるわけであってP2Pソフト(Winny等)に
問題があるということではないのと同じにょ。
3Dデジカメは普及するのか・・・?
3Dデジカメ「FinePix REAL 3D W3」が発表されたにょ。
http://dc.watch.impress.co.jp/docs/news/20100817_387565.html
これは昨年発売になった世界初の民生用3Dデジカメ「FinePix REAL 3D W1」の後継機種
となっているにょ。
主な改善ポイントは下記の3つにょ。
(1)HD動画(720p)に対応
(2)液晶パネルが23万画素(QVGA相当)から115万画素(WVGA相当)に
(3)HDMI mini出力対応
(1)に関して書くとW1が640x480だったのがW3が1280x720(720p)のHD動画に対応したの
だけど現在のデジカメにおいてHD動画はプレミアム性のあるものではなくスタンダードな
ものとなってきているにょ。(エントリーモデル以外の大半の機種でHD動画撮影が可能に
なっている)
そのためコンデジで実売6万円という最高級レベルの価格な割りにHD動画も撮れなかった
W1がやや辛いものだったけどW3になってようやく標準レベルになったというだけの話にょ。
とはいえ、PC画面やHDTVで見るならば480pと720pの差は大きいため大きな改善といって
良いと思われるにょ。
(2)に関して書くと現状では後述のように3D鑑賞が可能な環境があまり普及していないと
いうことを考えれば本体の液晶の解像度アップは必須項目といっても良いと思われるにょ。
せっかく高精細な動画が撮れてもそれが鑑賞できる環境がカメラ本体しかないという
ことは動画の解像度はカメラの液晶解像度依存した形(液晶パネルがボトルネック)に
なるからね。
4:3のスクエア液晶からワイド液晶へと変わったことでパネルサイズもそれに合わせて
2.8インチから3.5インチへと拡大したのも良いことにょ。
ワイドパネルの場合は同一インチ数だとどうしてもパネル面積が小さくなってしまう
ために「インチ数が同じ」だと「小さい」と感じるし、横が大きくなっても縦が小さく
なるためにインチ数で1割程度アップしても同レベルとしか感じないにょ。(ウチの
リビング用のTVは12年前に買い替えたけど25インチから28インチワイドということで1割
以上アップしているのに同レベルかやや小さくなったというイメージになった)
そうなると2.8インチから「大きくなった」と体感できるためには3.5インチ(インチ数で
25%アップ)くらいが必要だと思われるにょ。
また、サイズ、解像度だけではなくパネルの品質そのものも高まっている模様にょ。
特に裸眼3Dに関しては急速な進化をしているため1年前の製品はすでに旧世代といっても
いいレベルだからね。
すでに完成されてる普通の液晶パネルならば1年程度で大きく変わることはないけれど
まだ完成の域には達していない裸眼3Dは最新のものが望ましいにょ。
そのため後述(3)のように今は3Dは要らないけど将来は必要になるかもしれないと思って
いる人は今の時点で3Dデジカメに手を出す必要はなく必要になってから手を出すのが良い
ということもいえるにょ。
(3)のHDMI出力というのはあるのとないのとでは非常に大きな差があるにょ。
普通の(3Dではない)デジカメで撮影した動画はメディアに記録した動画をPCで読み込む
ことでどんな形式だろうと再生できるし、AVCHDで記録してあるならば家電としては
デファクトスタンダードな形式であるため各種Blu-rayプレイヤーやプレステ3などで
再生可能になるにょ。
しかし、3Dに関してはそう簡単にはいかないにょ。
それはデファクトスタンダードな形式のものがない上に8月12日に書いたように3D対応TVは
まだ普及にはほど遠いし普及の速度も極めて遅いものになっているからにょ。
頼みの綱であるPCにおいても3D液晶パネルが標準搭載のPCはまだほんの一部に過ぎないし
デジカメで撮影した3D動画のためだけに別途3Dモニタを買おうとする人はほとんど
居ないからにょ。
W1ではそういうこともあったのかHDMI出力は考慮されていなかったにょ。
どうしても大きな画面で鑑賞したければ専用の3Dフォトフレームを買うしかなかったにょ。
しかし、ここ数ヶ月でわずかながら3D液晶TVの普及率が上がってきているため3D対応TVで
鑑賞したいというニーズがあったのかW1が発売されて半年余り経った後に別途専用
プレイヤーが用意されたにょ。
http://dc.watch.impress.co.jp/docs/news/20100422_362943.html
さて、W3で気になるのは価格だと思うにょ。
3Dデジカメはレンズとセンサーのパーツに関していうとデジカメ2台分のコストがかかって
しまうためどうしても割高になってしまうからね。
W1は発売当初の実売予想価格が約6万円だったのに対してW3の実売予想は4.8万円となって
いるにょ。
安くなったというのはパーツ自体のコストダウンの影響もあるだろうけどやはり最初の
モデルは開発費が多くかかるということと販売数量が読みにくいという点があるため割高の
価格設定にせざるを得なかったというのが理由だと思われるにょ。
要するにW3は開発コストが下がった分に加えてW1の販売実績からある程度の量産を見込んで
いるために機能アップしたにも関わらず約2割の低価格化が実現できたということにょ。
ただし、これでもまだ3D機能を除いた場合に同クラスのデジカメと比較して割高感は
否めないにょ。
レンズやセンサーは2台分必要な時点で非3Dのデジカメと同価格を実現するなんて不可能
なのだけどこれは量産によって徐々に差は縮まっていくと考えられるにょ。
W3は価格は頑張っていると思う(とはいえ、価格がこなれたW1と比べれば高価になって
いるけどこれは1年前の機種だから仕方がない)けれど3D以外の面でやや不利になって
いる部分があるにょ。
それはサイズとバッテリ駆動時間にょ。
サイズは3Dデジカメ(デジカメ2台分)として考えればコンパクトだけど光学3倍ズームの
コンデジとして考えるならばセンサーサイズやレンズの明るさの割りに大柄であり、しかも
バッテリ駆動時間は公称(CIPA測定値)で150枚というのは近年のデジカメでは最低クラス
となっているにょ。
これは何度も書いているように「2台分だから仕方がない」と考えれば納得はできる
もののユーザー視点では「3Dが絶対に必要」という人を除けば選択対象外になって
しまいかねないものにょ。
現状では3D撮影ができるデジカメではオンリーワンといってもいい状態(WX5やTX9では
静止画の3D撮影はできるもののこれはスイングパノラマモードに限定される)だから
多少デメリットがあっても現状で3Dが必要という人にとっては心強いものになるにょ。
しかし、現在3D鑑賞環境を所持しておらず将来3Dで撮りたくなるかもしれないという
レベルであればおすすめしがたいにょ。
それはTVであれば10年間同じ機種を使う人は少なくないけどデジカメを10年間同じ
機種を使うという人はほとんど居ないからにょ。
確かに黎明期から発展期にかけて(90年代〜2000年代初頭)のような急速な進化はない
ため使おうと思えば10年間使えないほどではないとはいえ、3Dを使いたければ本当に
必要になった時に買うのがベストだと思われるにょ。
機能面やバッテリ駆動時間や多少の割高感が許容でき3D→2Dへの変換を手間だと感じない
人であれば将来のために3D写真、3D動画を撮り溜めておくというのはありだけど私は
気軽にPCなどで鑑賞できることがデジカメの最大の魅力と感じているためそれを
スポイルしてしまうような使い方はさすがにできないからね。(今は2Dしか使わないから
そんな手間を考える必要ないというのならばなおのことこの機種を選択する意味はない)
それを考えると3Dカメラはすでに3D対応TVを買っている人(もしくは近いうちに購入
予定の人)だけが買うべきものだと感じるにょ。
3D機能を使わなけばW3は特に魅力を感じるようなデジカメではないからね。(価格が
高価ということもあり、絞り優先やマニュアル露出機能がついているというのはやや
魅力だけどそれでこの機種を選択するようなレベルではない)
W3がヒットすれば他のメーカーも追従するだろうけど上記理由によってある程度の需要こそ
あれ、そこまでヒットするとは思えないのでほとんどのメーカーは現状では様子見だと
思われるにょ。
やはり、8月12日に書いたけど3D対応TVさえ普及していない現状では3Dは大きな「ウリ」には
なりにくいというのが最大の要因にょ。
U3400搭載CULVノートは待つだけの価値はあったのか・・・?
セレロンU3400を搭載のCULVノート「UL20FT」が発売されるにょ。
http://plusd.itmedia.co.jp/pcuser/articles/1008/18/news029.html
CULVノートはモバイルノートを買うには予算的には足りないけどAtom搭載のネットブック
では性能面で物足りないという人にはおすすめの製品となっているにょ。
実際CULVノートに搭載のCPUはモバイルノート用のCPUと同じだからね。(同クロックの
場合において)
軽量化などにコストをかけてないために安価となっているわけにょ。
CULVノート向けのCPUは5月末にいくつかラインナップが発表されこの夏には多くの機種が
モデルチェンジをしたにょ。
Core2(Penryn)ベースのCPUからCore i(Arrandale)ベースのCPUへとモデルチェンジ
したわけだけどこれは新しい方が速いとは一概には言えないにょ。
それは7月8日にも書いたように新しいArrandaleベースのCPUの方がクロックが低いため
アーキテクチャの変更などを考慮しても速くなるとはいえないからにょ。
したがって、CPU性能で従来のPenrynベースのCULVノートより速いものが欲しければ
ターボブーストやHTTがあるCore i5以上を搭載した機種を選択すべきとなるわけにょ。
ただし、ターボブーストは廃熱が十分でないと機能しないためそれを過信するのも
あまり良くないにょ。
コスト優先でCULVノートを買うのであればやはり安価なセレロンモデルを買うのが最も
コストパフォーマンスで優れるにょ。
セレロンは性能がイマイチで省電力機能もないためにバッテリ駆動時間が短いという
問題点があったけど5月26日に書いたようにセレロンM以降は性能面の低さはほとんど
無くなりCULV用のセレロンSU2300ではセレロンとしては初めてSpeedStep機能が搭載
されたためにバッテリ駆動時間の短さも克服されたにょ。(SpeedStepはCore2と比べると
簡易的なものなので過信は駄目だけどそれでもあるのとないのとでは大きな違いがある)
したがって、コストを優先する場合セレロンSU2300搭載のCULVノートを買うというのは
「安かろう悪かろう」ではなく賢い買い方の1つといえるわけにょ。(実際にCULVノートで
最も売れたのはSU2300搭載モデルだと思う)
さて、そんなセレロンSU2300はArrandaleベースのセレロンU3400にモデルチェンジした
わけだけどSU2300が非常に優秀だっただけにその期待は高いにょ。
とはいえ、7月8日に書いたようにすでにCore i3のベンチ結果が分かっているために
U3400の結果はCPUコアは同じであることから予想はできているけどね。
それでもSU2300とU3400の比較レビューは今回が初めてだと思うのでじっくり見てみる
ことにするにょ。
UL20A UL20FT UL20FT(Turbo33)
SU2300 U3400 U3400+33%OC
PC Mark05
CPU 3096 2577 3435
Memory 3181 3025 4084
Graphics 1329 1673 1730
HDD 4496 4980 5021
UL20FT(Turbo33)について書いておくにょ。
UL20AはセレロンSU2300(1.2GHz)なのに対してUL20FTはセレロンU3400(1.06GHz)で
UL20FTには独自に33%CPUのクロックを上げる(オーバークロック機能)が用意されて
いるにょ。
これはCPUに搭載されている機能ではなくソフトウェア的に行っているOCであるため
廃熱さえ十分であればフリーウェアによって他のノートPCでも実現は可能な機能であり
あくまで参考掲載とするにょ。
さて、この結果を見るとやはりCPUスコアは動作クロックがかなり影響していることが
分かるにょ。
SU2300とU3400の動作クロックは13%差でCPUスコアは20%差ということでクロックあたりの
性能ではU3400の方がやや低いといえるにょ。
測定誤差を考慮した場合でも良くてクロック当たりの性能は同レベルとなりそうにょ。
したがって、クロックが低いU3400はSU2300よりも性能が低いといえるかもしれないにょ。
もちろん、CPUによって得手不得手があるからあくまでPCMarkにおける場合だけど
下記のFFベンチでもそれが当てはまったためPCMark05が例外というわけではないと
思われるにょ。
ただし、UL20FTには上記のように33%のOCをするモードが用意されているにょ。
これはスライダー1つで使用可能になるため非常に簡単に使える(ただし、廃熱面には十分
気を付ける必要がありそう)けれどCPUスコアはこれによって33%アップとなりクロック
上昇に比例したスコアとなっているにょ。
これによってUL20FT(Turbo33使用)はSU2300の性能を超えているにょ。
CPU性能的にはU3400はSU2300より下といってほぼ間違いないけどUL20FTはそれを克服
しているため一概にU3400搭載機は性能が低いとはいえないにょ。
あと気を付けないといけないのはPCの性能はCPUだけでは決まらないということにょ。
7月29日にも書いたようにGPU性能も重要になってくるからね。
Core i3搭載のCULVノートは従来のPenrynベースのCULVノートより高い3D性能を持つと
いうことがベンチ結果から言えたにょ。(ただ、VAIO Yのベンチ結果は不自然なくらい
性能アップになっていたのが疑問だけど)
これはCPU性能が互角であるということを考えた場合であり、CPU性能が劣っている
SU2300とU3400ではまた結果が変わってくる可能性があるので見てみるにょ。
UL20A UL20FT UL20FT(Turbo33)
SU2300 U3400 U3400+33%OC
3DMark06 727 1070 1044
FFXI Bench3
LOW 1841 1668 2256
HIGH 1285 1148 1456
FFベンチの方を見ると上記のCPUスコアと同じようにUL20FT<UL20A<UL20FT(Turbo33)
となっているけどこれはFFベンチのスコアがCPU性能に大きく影響されてしまうためにょ。
CPU性能の影響をあまり受けない3DMark06の方を見てみるとUL20FTはUL20Aよりも明かな
性能アップが見られるのが分かると思うにょ。
これはU3400に内蔵のIntel HD GraphicsがSU2300のチップセット(GS45)に内蔵の
GMA4500よりも性能が高いということを意味しているにょ。
とはいえ、これはあくまで「比較した場合に高い性能がある」というだけであって
昨今の3Dゲームをするにはやはり性能不足は否めないにょ。(Aeroくらいなら十分に
快適動作する)
あと33%のOCをしたTurbo33使用時はスコアが下がっているけどこれは測定誤差という
可能性があるにょ。
もっともリンク先のレビューでの考察に書いてあるように廃熱が追いついていないため
クロックが上がってないということも考えられるけどね。
そういうわけでCULVノートのメインとなっていたセレロンSU2300搭載機は今後U3400搭載
へとモデルチェンジすることになるけどこれによって性能は下記のように変化するという
ことがいえるにょ。
CPU性能 SU2300>>U3400
GPU性能 SU2300<<<<<U3400 (※SU2300はチップセット内のGPU)
(※不等号が1つあたり概ね1割の性能差)
次世代のCULVノート(ArrandaleベースのCPUを搭載の新機種)をわざわざ待って買うまでも
ないと5月26日に書いたのだけど今回ようやくCULVノートのメインとなるU3400のレビューが
出てきたことによってその考えは間違いではないと言えることになったにょ。
低価格で「少しでも高いGPU性能」を求めるのであればSU2300搭載機ではなくU3400搭載機が
発売されるのを待って買うという選択肢は間違いではないといえるけどそうでなければ
U3400搭載機は発売を待つだけの価値がないと今回の比較レビューで多くの人が感じたこと
だと思うにょ。
Nikon D3100は最強のエントリー向けデジイチか!?
コンデジではHD動画が当たり前の機能になって久しいにょ。
ローエンドモデル(エントリーモデル)ではHD動画に対応した機種は皆無なのだけど
5年前から急速に普及しており今では搭載されているのが当たり前となる機能である
光学式手ぶれ補正さえ搭載していないのだからHD動画機能を搭載していなくても驚く
ことではないにょ。(エントリー向けの手ぶれ補正機能はほぼすべて電子式となっている)
これはコスト面もあるけど差別化のために実装していない可能性が高いからね。
それよりもむしろ驚くことはハイエンドなコンデジにHD動画が搭載されていない機種が
多いということだと思うにょ。
ローエンドならばコスト面の問題は確かにあるけどハイエンドではコスト面の問題は
少ないのに・・・。
これはハイエンドなコンデジを買う人は動画をあまり重視していないということもある
ためメーカー側もあえて実装していない可能性もあるにょ。
しかし、HD動画を求める声は徐々に増えているせいか、PowerShot S90の後継機種である
S95はHD動画機能が導入されたにょ。
http://dc.watch.impress.co.jp/docs/news/20100819_387759.html
コンデジではこのようにHD動画機能が当たり前になったのはここ2、3年のことだけど
動画機能そのものは90年代初頭から当たり前の機能になっているにょ。(当時は160x120で
音声無しとかいう非常に貧弱なものが多かったけど)
デジタル一眼では2年前に発売されたNikon D90によってようやく実現されたにょ。
デジタル一眼はセンサーサイズが大きく読み出し時間がかかる上に熱問題が大きい上に
撮影中はファインダーが真っ暗になるためライブビュー機能が必須だし、動画とは相性が
悪い位相差検出方式であるため動画を撮影するのに向いていないというのがD90まで
動画撮影可能な機種が登場しなかった理由だと思われるにょ。
しかし、ここ1、2年で動画撮影機能を搭載のデジタル一眼は急速に増えたにょ。
そのセンサーサイズの大きさを活かした動画は業務用の大型カメラで撮影したのと同じ
ような効果が得られるためハイアマチュアや一部のプロに受け入れられデジタル一眼で
撮影されたTV番組や劇場用映画も増えつつあるにょ。
http://dc.watch.impress.co.jp/docs/news/20100816_387085.html
世界初の動画撮影機能搭載のデジタル一眼D90を送り出したニコンだけどそれ以降大きな
改善はなく、今では追従したキヤノンの方が圧倒的に動画機能で勝っているにょ。
ハイアマチュア向けの中級機であればまだ動画なんて要らないという人もいることだろう
けれど入門機の場合はコンデジからステップアップした人も少なくないため動画が撮れる
かどうかを重視している人も多いにょ。
キヤノンの方はEOS Kiss X4は入門機としては最強の動画機能を持っているのに対して
ニコンの方は入門機下位のD3000は動画機能無し、上位のD5000も前年発売のD90と大差ない
動画機能だから動画でデジタル一眼を選ぶのであればニコンは対象外という状況だったにょ。
しかし、今回ニコン初のフルHD動画対応デジタル一眼レフ「D3100」を発表したにょ。
http://dc.watch.impress.co.jp/docs/news/20100819_387845.html
フルHDのH.264コーデックの動画が撮れるだけではなくビデオカメラのようにフルタイム
AFで撮影できるため撮影のハードルもかなり低くなったにょ。
動画を撮るならニコンは対象外という状況もこれで克服されそうにょ。
このD3100は型番的にはD3000の後継となると思われるにょ。
D3000は発売当初からボディ単体で5万円台の低価格だったけど発売されて1年近く経つ今では
3万円台まで下落しており動画が要らないのならば今回のD3100で旧機種になるとはいえ
依然としてお買い得感は高いにょ。
すでに1年経って価格下落している製品との単純比較はあまり意味がないけど発売当初の
価格でさえ1万円アップとなったのは少々辛いし、液晶が23万画素で据え置きというのも
いくら入門機といえ物足りない面もあるにょ。
動画は格段に従来機より高性能化しているけどやはりデジタル一眼ならば静止画が重要
だと思うにょ。
センサー性能自体はD3000、D5000は悪くないけどEOS Kiss X4を見た後では世代の違いを
感じてしまうにょ。(キヤノンは比較的ノイズの誤魔化し方が上手いのもあるけど)
D3100に搭載されているのは恐らくNEX-3/NEX-5に搭載されているものと同じものだと
思われるにょ。
NEX-5については5月21日に書いたけど描写性能に関しては大きな不満を持ったにょ。
とはいえ、これは無理に小型化したレンズの性能がボトルネックになっているというだけ
であって、センサー性能自体はEOS Kiss X4よりも上であると感じたにょ。
1400万画素のD3100であれば1800万画素のEOS Kiss X4よりもレンズに対する要求スペックが
低いためにレンズがボトルネックになりにくいというのは画素数が少ないことが逆に
場合でもアドバンテージといえるかもしれないにょ。
EOS Kiss X4の完成度があまりに高いのでD3100でようやくまともに戦えるようになった
というレベルにすぎないにょ。
今は(2年前に登場であるため)価格下落によって入門機並の価格帯になったD90がX4の
実質的なライバルであり、D3000は価格重視の人向けだったわけだけどようやくX4と同価格
帯でまともに戦える入門機が登場したということにょ。(D5000は価格面、性能面で
中途半端な感じ)
とはいえ、逆に言えば同社のD90とシェアを奪い合うハメになりかねないにょ。
私もD3100は少し欲しいかなと感じるけど買うとすれば多少の古さを考えてもペンタ
プリズムフィンダーを搭載の中級機であるD90にするかもしれないにょ。
D90もその後継機種(D95?)の登場が噂されているため価格面では入門機レベルではなく
なるけれどそうなると今度は価格が下落しているD300sとぶつかってしまうため中級機は
まとめて新機種へとモデルチェンジの必要性がありそうにょ。(D300sの後継機は年内には
登場しないらしいけど)
ソニーが8月24日、オリンパスが25日、キャノンが26日に新製品発表会を開く予定となって
いるにょ。
ソニーはα33、α55、オリンパスはE-P3、キャノンは中級機であるEOS 60Dを発表すると
噂されているにょ。
興味を惹く機種に関してはまたここで書くことにするにょ。
紙の書籍だけでは生き残れない
7月23日には米国では条件付きながら電子書籍が紙の書籍を売上を超えたということを
書いたにょ。
日本においてはケータイ向けに雑誌や漫画やグラビアなどを配信しているもののまだ
本格的には書籍のネット配信サービスは開始されてないにょ。
電子書籍が紙の書籍を超えることなどできないから問題ない・・・という考えもあるけど
それは紙の書籍だけで商売が成り立っている間だけの話にょ。
今後5年で日本の書籍市場全体の売上は現在の3割減になるという試算が出ているにょ。
http://pc.watch.impress.co.jp/docs/column/mobile/20100820_388236.html
売上減が直接影響するのは販売店(書店)にょ。
ただし、書籍には再販制度と委託販売制度(返本制度)が導入されているにょ。
その2点をそれぞれ見ていくにょ。
まず、再販制度だけどこれは定価販売を強制する制度であり、著作物の一部が対象と
なっているにょ。
その一部というのが書籍、雑誌、新聞、音楽CDにょ。
この再販制度によって全国どこの書店に行っても同じ価格で書籍を購入することが可能に
なるだけではなく値崩れというものがないため古い製品も比較的買いやすくなって
いるにょ。
もしも再販制度が無ければ競争力は上がるだけどうけどその反面書店の店頭は売れ筋
以外は置かれなくなってしまうかもしれないにょ。
再販制度に関しては賛否両論あるけれど海外では再販制度を導入しているところは
徐々に減ってきているにょ。
また、再販制度にも時限制を導入している国も多いにょ。
日本においても音楽CDは再販制度の効力は1年の時限制となっているにょ。
ただし、後述の委託販売制度により値引きされずに返品されてしまうことが多いにょ。
書籍も時限制の再販制度になれば効力が切れた古い書籍はどんどん返本され古い書籍が
店頭から消えてしまう可能性が高いにょ。
次にあるのは委託販売制度、つまり、返本制度にょ。
書籍は出版社から取次店に出荷され、そして書店に出荷されるにょ。
出版社はその本が売れなくても取次店に出荷した時点で代金を受け取るのだけど書店は
返本が可能であるため一定期間をすぎたら返本するにょ。(週刊誌の場合は、当然
発売から1週間で返本となる)
返本された分に関しては出版社が代金を返す必要があるにょ。
ただし、その全額を負担するわけではないにょ。
というのも新しい書籍は随時販売されているためそれと相殺で計算されるためにょ。
ある程度は返本対策の予算をプールしておく必要はあるけどね。
かといって、すべての書籍に対して返本制度が導入されているわけではなく一部の書籍は
対象外となっているにょ。
それには受注生産となるOVA付きのコミックス等やハリーポッターなどがあるにょ。
ハリーポッターの日本語版を出版している静山社はハリーポッター以外に大きく売れる
出版物がないため上記のように返本代金を新たな出版物で相殺ができないにょ。
そのため返本不可にしているにょ。(その代わり卸値を下げている)
あとお客から特注の本に関しても同様に返本不可となっているにょ。
ここまで書くと書店、取次、出版社の役割分担が分かると思うにょ。
出版社にとって書店はお客へと販売するための大事な窓口であり、(出版社にとって)
取次は代金の支払いをしてくれる顧客であり、書店への配本を調整する役割も担って
いるにょ。
では、ここで売上が3割減になり書店が閉鎖した場合のことを考えてみるにょ。
ある程度の返本に対しては新規発行分で対応できるため問題ないけど閉鎖によって
大量返本があった場合は出版社が連鎖倒産してしまう可能性があるにょ。
もっとも上記のような小さな出版社の静山社のようなものでない限りはそれなりには
プールしているためよほどの数がない限りは大丈夫だろうけどね。
売上がどんどん減っていけば徐々に返本による影響が大きくなるためかなり厳しい状態に
なってしまうにょ。
さて、国内の音楽市場を考えてみるとCDの売上は2000年頃をピークに年々売上は減り続けて
いるにょ。
http://www.riaj.or.jp/data/cd_all/cd_all_m.html
2000年 5239億円 41405万枚
2005年 3598億円 30126万枚
2009年 2460億円 21006万枚
しかし、CDを買う人が減っただけであってiPodの爆発的な普及、ケータイの着うたの
ダウンロードなどで音楽を聴く人自体はそれほど減っているわけではないと思うにょ。
ネット配信に関しては2005年以降の資料しかないけどそれを見てみるにょ。
http://www.riaj.or.jp/data/download/index.html
2005年 343億円
2009年 853億円
2005年と2009年において音楽CDとネット配信の合算を行うとこのようになるにょ。
2005年 3941億円
2009年 3313億円
確かに4年間では減っているもののネット配信があることでかなり救われているにょ。
ネット配信が無かったらCDを買っていたというユーザーもあるから単純に音楽配信分
だけ増えたとは言い難いけれどそれでも確実にプラスに働いていると思うにょ。
CDの売上が減ったのは違法ダウンロードによる影響を重要視する見方が多いけどそれが
正しいとすれば公式にネット配信をすることで違法ダウンロードユーザーの増加を抑制
しているということがこの結果から見えてくるにょ。
では、書籍はどうなのか・・・?
上記リンク先の試算では書籍のみで5年間で2700億円くらい売上が減ると予想されて
いるにょ。
また、これに雑誌の売上減も加えるとさらに大きくなるにょ。(国内の電子書籍&雑誌の
昨年度の全体売上は464億円)
書籍よりも雑誌の方が近年落ち込みが厳しくなっているからね。
これはWeb普及によって情報の多くがネットで入手可能になったため雑誌の相対的な
価値が落ちてしまったというのもあるにょ。
ぴあ(関西版)も10月発売号をもって休刊となるにょ。
http://www.asahi.com/national/update/0730/OSK201007300075.html
一部の雑誌では付録によって売上を大きく伸ばしているためやはりネットの影響が
大きいということがいえそうにょ。(現在の技術では立体物はダウンロード不可能)
http://blog.livedoor.jp/geek/archives/51047802.html
そうなると早めに手を打たないと本当に手遅れになってしまう可能性があるにょ。
書店が倒産してもアマゾン等のネット通販が生き残るもののそれだけで需要を十分に
満たすのは難しいにょ。
ネット配信サービスというのは店頭販売があって初めて生きてくるからね。
雑誌も定期購読しているものでなければ書店で立ち読みして気に入ったものを買うと
いう人も少なくないだろうから書店が無くなれば販売機会を失うことになるにょ。
現状で出版社が電子書籍に対してあまり本腰を入れないのはそういった書店保護という
考えはできるものの本質的なものはそこにはないにょ。
日本においては書籍の著作権管理が欧米よりも複雑だというのもあるけどやはり電子
書籍には紙の書籍にある再販制度が適用されないというのもありそうにょ。
再販制度が適用されないということは価格の拘束力がないわけなので書籍に対する
絶対的な価値(=額面価格)というものが無くなるにょ。
例えば紙の書籍で1000円の本が電子書籍で500円だったらその本の価値は500円程度と
ユーザーは感じてしまうにょ。
音楽もネット配信によってCDの価値が下がったことによる売上低下は否定できないにょ。
上記結果ではCD売上が下がっても配信が伸びているため問題ないと考えられるけど
書籍で同じようにできる保証はないにょ。
かといって電子書籍に再販制度を導入するのはナンセンスにょ。
紙の書籍で1000円の本を電子書籍として1000円で買いたいかというとほとんどの人が
そうは思わないだろうからね。
最初から自炊(=自分でスキャンしてデジタルデータにする人)目的で買う人ならばその
手間が無くなるため電子書籍の方が良いと感じるだろうけど・・・。
電子書籍が現時点でまともにネット配信されてなくても現時点でも自炊した人のデジタル
データがネット上に不正に流通しているため音楽配信のように公式配信がないと売上は
落ちる一方にょ。
音楽も配信の方が主流になりつつあるけどコレクターの人はやはり現物を買う(デジタル
データではなくパッケージ品を買う)ということもあるので完全には廃れないにょ。
紙の書籍も同じように「現物を買う」という人がいるため完全に廃れるような時代は当分
やってこないだろうけどそれまで何もしなければ出版社も生き残ることはできないにょ。
上記の続き
(3)がやはり非常に大きいにょ。
中古を扱っているチェーン店は人気作品の配分数が少なめになってしまうと(2)に書いた
わけだし、そもそも新品ソフトで利益を出すこと自体が難しいにょ。
そうなると中古ソフトに頼らざるを得なくなるにょ。
スーファミ時代まではゲームソフトがROMカートリッジということもあり一旦新品の在庫が
無くなると数ヶ月後の再生産までユーザーは新品ソフトの入手はできなかったため
中古の意味合いは非常に大きかったにょ。
これはゲームの主流がCD-ROMに代わり最小ロットが小さくなっただけではなく生産までに
かかる時間が短くなったにょ。
昔は金曜発売がメインだったゲームソフトの発売日が木曜発売がメインとなったのは
発売日に売り切れや品薄になったソフトをすぐに発注をかけることでその週のうちに
入荷を可能にするためにょ。
それによってゲームソフトの販売は専門店から量販店がメインに変わっていったにょ。
量販店であれば品揃え、在庫量ともに豊富だからね。
これはすぐに生産が可能なCD-ROMだからこそできることであり、新品のみを扱うことで
優先的にメーカーから製品提供してもらっているお陰にょ。
中古には新品よりは安い(ただし、人気ソフトは新品中古の差はほとんど無いだけでは
なく異なるショップでの比較であれば新品、中古の価格逆転現象を引き起こしている
ことは良くある)、生産終了ソフトも入手可能、飽きたゲームやつまらないゲームを
買い取ってもらって新しいソフトの足しにするというユーザー側のメリットがあるにょ。
しかし、大手量販店での購入割合が増えたことや廉価版(ベスト版)の継続的投入などに
より新品ソフトの割合が増えているのは事実にょ。
中古ソフトはショップにとっては品揃えのため(人気ソフトは入荷が難しく、古いソフトは
コスト面を考えるとあえて新品を入荷するのが難しいため)だけではなく利益確保のため
でもあるにょ。
新品ソフトはワゴンセール(特価セール)になること無しに全品完売したと仮定しても
5%程度の利益しかないのに対して中古ソフトは20〜80%程度の利益があるからね。
つまり、回転率の高い人気ソフトは中古売価の80%程度の価格で買い取りして(超品薄
商品に関しては90%程度になることもある)、回転率の低い商品は中古売価の50%から
20%程度で買取をしているということにょ。(例えば中古売価3980円のソフトを半値の
2000円で買取して、そのソフトがしばらくして2480円に値下がりしたら利益率は約19%
となる)
それにゲームソフトは実際にプレイしてみないと自分にとって面白いかどうかは分から
ないため気に入らなければ中古ショップの存在を重要視している人もいると思うにょ。
しかし、最近は体験版の配信を行うゲームもあり、そのような状況は失われつつあるにょ。
新規作品はユーザーが敬遠して売上が伸びずヒット作品の続編ばかりになってきている
昨今のゲーム業界においてPSPの「ゴッドイーター」は体験版のダウンロード数が100万を
超えその影響で販売数もPSPの新規タイトルとしてはほとんどない販売数50万本突破を
記録したにょ。
このような体験版配信が増えれば(買ったものの自分に合わないため)発売直後に中古
ショップに流れるという事態はかなり回避できるのではないかと思うにょ。
また、WiiのVC(バーチャルコンソール)のようなネット配信も中古を扱うショップに
与える影響は大きいと思うにょ。
ネット配信自体は現時点ではパッケージ品と棲み分けができていると思うにょ。
ネット配信でパッケージ品と同じゲームが買えるPSPもgoの不振を考えるとあくまで
ネット配信はパッケージ品を補うだけの存在しかないと思われるからね。
VCはパッケージ品とはほとんど競合しないにょ。(プレイ時間を奪われるという面に
関してのみ競合となるけど)
影響があるとすればレトロ商材(生産終了した古いゲーム機用ソフト)を扱う中古
ショップにょ。
現行ゲーム機に関しては上記のように中古市場がかなり厳しくなっているために専門店の
唯一の生き残り策としてレトロ商材が人気を集めているけどその市場もネット配信に
よってかなり厳しくなってきているにょ。(現物をどうしても手に入れたいという需要は
確かにあるもののショップの運営費用を天秤にかけると存続は厳しい)
このように売上と利益率の双方でダウンしてしまった専門店はよほどライバル店が少ない
地域以外はどこも厳しい状況になっているにょ。
それらの要因が重なり合いここ10年でゲーム専門店は激減してしまったにょ。
恐らく今後も減り続けると思われるにょ。
とはいえ、このような専門店が無くなってもメーカーにとっては全く問題がないにょ。
昨日書いた書籍市場においては書店が閉鎖したりすればユーザーの目に触れる機会が
減るために売上が落ちるという出版社側のデメリットがあるもののゲーム専門店が
無くなったところでゲームを扱うショップ自体は無くなるというわけではない・・・と
いうかここ数年の流れでゲームの販売量は量販店などのゲーム売場を併設している
ショップの方が専門店よりも多くなっているくらいだからね。
これはメーカーによる新品ソフトの出荷コントロールの影響もあるし、中古ソフトは
予算の面や生産終了などの理由で現行ハード用の新品ソフトが買えないユーザー向けでしか
なくなっているというのも絡んでいるにょ。
スーファミ時代のような中古バブルはもう来ないにょ。
ちなみに今回書いた内容の一部のについては私が発行した「おちゃめ通信」の第8号、
第9号にさらに詳しく書いているにょ。(ともに99年発行)
第8号の内容はこんな感じになっているにょ。
第8号 表面左 表面右 裏面左 裏面右
文字が小さくて読みにくい部分もあるけどサーバの空きの問題でこれが限界だったにょ。
空きがないため次に別のファイルをアップロードしたら消す予定にょ。
もしも、大きな字で読みたいとか別の号を読みたいという要望があれば適当なサーバを
借りてそこにアップロードしてみるにょ。
ゲーム専門店はもう生き残れない
ゲームショップ「TVパニック」や「wanpaku(わんぱくこぞう)」を運営する業界No.1の
チェーン店を展開しているネステージが先日民事再生法の適用を申請したにょ。
簡単に言えば倒産したということにょ。(正しく言えば倒産直前だけど)
http://www.asahi.com/business/update/0812/OSK201008120138.html
ファミコンブームによって80年代後半からゲーム専門店が各所に多く作られ全国チェーン
展開する企業も多く現れたけどプレステが全盛時の90年代後半になって雲行きが怪しく
なり、1999年には「ブルート」が倒産したにょ。
それ以降、大型チェーン店の倒産が相次いだにょ。(97年には「カメレオンクラブ」を
運営する上昇が倒産したのが有名)
直営店に関しては別のチェーン店を運営する企業によって支援されたりということで
民事再生法によってすべてのチェーン店が閉鎖という自体にはなってない(今回の
ネステージもゲオの支援があるためいきなり全店閉鎖というわけではない)ものの厳しい
立場にあるのは確かにょ。
昨日は書籍売上に書いたけどゲーム市場に関して言えばここ数年ではオンラインゲームの
伸びが大きく、ここ1年ではソーシャルゲームの伸びが非常に大きいにょ。
http://www.8ing.co.jp/market/index.html
http://japan.internet.com/wmnews/20100628/2.html
肝心のコンシューマゲームに関してはほぼ横ばいといった感じにょ。
これはケータイなどに食われてなくて棲み分けができていることを意味しているにょ。
任天堂が新規ユーザーを開拓してようやく横ばいということは普通にコンシューマゲームが
進化していたら今はかなり減少していたという可能性もあるわけだけどね。
それもあくまでここ数年の話にょ。
もう少し遡ってみれば90年代半ばと比べると今は3分の2程度に落ち込んでいるにょ。
http://www.famitsu.com/game/news/2005/07/14/103,1121342453,41325,0,0.html
コンシューマゲーム機の場合はほぼ5年ごとにモデルチェンジが行われそれによって
市場規模が変わってくるにょ。
発売直後は新ハードの影響はあまりなく旧ハードのゲームの落ち込みを相殺できない
けれど発売して1、2年経つと新ハードが普及し、それによってソフトの売上が伸びていき
また4、5年経つとその伸びが落ちてくるというパターンを繰り返しているにょ。
90年代半ばはスーファミスーファミ黄金時代の最期であり、プレステとサターンが熾烈を
争う戦いを繰り広げられていた時期にょ。
旧世代のハードの市場が落ち込む前に新ハードで盛り上がっていたという希有な時期で
あるためこれは特例的なものだといえるにょ。
それを元に考えるとここ10年余りでゲームショップの閉鎖が相次いでいる理由は見えて
くるにょ。
主な理由は下記の3つにょ。
(1)ショップ数が増えすぎた
(2)流通の変化
(3)中古ビジネスの崩壊
まず(1)から書いていくにょ。
ファミコン以前はゲームはおもちゃ屋の一角でのみ販売されていたけどファミコンブーム
によってゲーム単独でも商売として成立するようになったにょ。
それは任天堂がサードパーティ制を取り入れたために多くのメーカーがファミコン用の
ソフトを制作したというのが大きいにょ。
ソフトが多く発売されることで中古ゲームビジネスも成立するようになったにょ。
これによって「ファミコンゲームは儲かる」という認識が強まりゲームショップを
運営するオーナーは一気に増えたにょ。
それによって全国チェーン展開をするショップも出てきたにょ。
儲かるのが分かっていても商品供給の問題やノウハウの問題があり脱サラしてゲーム
ショップを始めるというのはハードルが高いものだったにょ。
そこで有用なのはフランチャイズ加入にょ。
これはゲームショップに限ったものではなくコンビニなど他の業種でも言えることだけど
直営店とFC(フランチャイズ店)があるにょ。
FCのメリットとしては上記のような商品供給とノウハウの提供(商品情報や商品管理の
システムの提供を含む)だけではなくチェーン店に加入するというメリットがあるにょ。
例えばコンビニでも初めて行くならば個人経営の名前の知らない店よりもセブンイレブンの
方が安心して店に入れるからね。
大手チェーンだと品揃えも安心できるからね。
ではチェーン店に加入することがプラスになるかというと一概にはそうとはいえないにょ。
例えば上記のwanpakuを例に挙げると加入するためには加盟金が100万円、補償金が
200万円必要になるにょ。(アパートでいえば補償金が敷金、加盟金が礼金に相当)
そして、開店するために必要な什器や商品も強制的に購入させられてしまうにょ。
確かにショップをオープンしたけど売るものがありませんとかでは話にならないので
チェーン店として相応しいレベルにしておかなくてはならないため仕方がないけどね。
あとオープン後は毎月12万円のロイヤリティと4.2万円のPOSレジ貸与料を支払う必要が
あるにょ。
チェーン店に加入するメリット、デメリットはあるものの金銭的負担が大きくても
90年代はゲームが売れている時期だったので十分に回収できる見込みがあったにょ。
また後述の(2)の流通の問題もチェーン店に加入することが重要となったからね。
これによりゲーム専門店は90年代に急速に増えていったもののコンシューマゲーム市場
そのものが90年代半ばと比べると3割減であるため需要に対して店舗数が増えすぎた
ために淘汰されていったということにょ。(市場規模3割減でショップ数が大幅増では
耐えられるはずがない)
フランチャイズ店がどんどん加入するうちは補償金がどんどん入ってくるためチェーン
展開をする本部も運営資金に余裕があるけど売上が低迷し、脱会すれば預かっている
補償金をFCのオーナーに返却する必要があるため資金面でどんどん厳しくなり今回の倒産に
至る最大の要因になったと思われるにょ。(実際wanpakuも1年以上前には補償金が返却
されないという内部トラブルが発生していた)
さらに大きいのは(2)の流通問題にょ。
ゲームというのはかつてはすべてが「メーカー→問屋→ショップ」という流れで出荷
してたにょ。(チェーン店の場合はチェーン店の本部が問屋も兼ねていた)
スーファミ初期〜中期は定価の63%〜68%くらいで問屋からショップに納品されていたにょ。
ただし、この納品掛け率は問屋やゲームタイトルによって大きく変わったにょ。
ドラクエ級になると定価の90%程度ということも少なくなかったにょ。
そこでゲーム業界に革新を起こしたのがソニーにょ。
プレステによってメーカー直送というのが実現されるようになったにょ。
つまり、商品の流れが「メーカー→ショップ」になったということにょ。
プレステは全商品一律定価の75%で納品だったということでショップにおいては良いこと
(スーファミ末期や64の時代は定価を下げるために78〜80%で納品されていた)とはいえ
問題はその流通のあり方にあったにょ。
中古ソフトを扱うショップには納品はかなりコントロールされたにょ。
当時はまだ中古裁判を争っていた時期であるためメーカーにとっては「中古=悪」で
あるためプレステソフトを扱うためには中古ソフトを扱わないことが条件だったにょ。
中古裁判で販売店側が勝利して久しい今でさえ中古を扱っているというだけで公然の
差別行為が行われているにょ。
例えば品薄時の本体やドラクエ、FFのような人気ソフトは自由発注ができず、配分制と
なっているにょ。
配分は基本的に実績配分となるため過去の発注数(発注金額)によって入荷数が決まる
けれど中古を扱っているというだけで扱ってないショップの半分以下の納品数となる
ということはザラにょ。
確かにいくら品薄でも仕入れる方法がゼロということはないにょ。
二次問屋には大抵揃っているからね。
二次問屋には一次問屋からの納品に加えてショップからの納品もあるため当然のこと
ながら普通にショップに卸す金額よりも高くなるにょ。
プレステのソフトであれば80〜85%が基本だからね。
品薄時のニンテンドーDS Liteも二次問屋で扱っていたけど納品の段階で定価16800円に
対して2万円近い価格(1.8〜1.9万円)となっていたにょ。(問屋の買取金額が17000〜
17500円だったから定価を超えるのは当然だけど)
「定価16800円のDS Liteを2万円で販売するのはボッタクリ」という見方をする人も確かに
否定はできないけど「多少高価であっても欲しい」というニーズに応えるために高価な
二次問屋経由で入荷したのならば必ずしもボッタクリとは言えないということにょ。
このようにメーカーが流通にまで介入することでショップに対して優位性を持つように
なったのだけどそれ故、それ以降独自流通を行うメーカーも増えたにょ。
コナミ、コーエー、セガなどは自社流通を持っているにょ。
自社流通を持っていないメーカーはPSP、PS3のサードパーティならばSCE一択という
わけではなく条件によっては自社流通を持っているメーカーに委託する場合もあるにょ。
納品掛け率は流通によって異なるけど現在では75〜80%となっているにょ。
ゲームソフトは書籍や音楽CDとは異なり再販制度や返品制度は導入されてないにょ。
したがって、自由に競争できる反面、売れ残ったら原価割れで売ることも珍しく
ないにょ。(ただし、SCEはゲームソフトには再販制度が適用されてないにも関わらず
一時期定価販売を義務付けていた)
メーカーが流通に介入して市場(ショップ)をコントロールするという方法もあるけど
実績配分ではなく分納によってコントロールするという場合もあるにょ。
注文数量を1回で出荷するのではなく分けて出荷することで商品のダブつきを抑えるという
役割があるにょ。
ただし、この分納は時としては逆にマイナスに働くことがあるにょ。
例えばニンテンドー64ソフト「ヨッシーストーリー」はクリスマス前のベストな時期に
発売されたももの初回入荷数は実績配分数の8%でしかないにょ。
つまり、100本納品予定ならば8本しか入荷しないというわけにょ。
残りの大半はクリスマス後、年明け以降に納品されたにょ。
需要のピークをすぎて大量入荷されたために本来であれば売れたであろうソフトなのに
一気にワゴンセール行きとなったにょ。
ゲームソフトは自由競争であるが故にギリギリまで価格を下げて売ることも珍しくなく
そのためにそのような売れ残り商品があると他の製品での利益が吹き飛んでしまうにょ。
仮に78%で納品した商品を定価から15%値引きして販売して5%のポイント還元をした
場合には利益率3%もないにょ。
会員に加入してない人、ポイントカードを紛失する人が合計で半分を占めていると仮定
しても利益率は5%程度にょ。(ちなみにゲーム機の本体は定価で販売しても5%程度の
利益しかないためポイントを付けたら利益はほぼゼロになる)
利益率5%の場合、新品ソフトを100万円売ったら5万円の利益があるかといえばそうでは
なくて返品ができないため20本仕入れた商品のうち1本が売れ残ったらそれで19本分の
利益が相殺されることを意味するにょ。
だからワゴンセールでも何でも売り切るということが重要になってくるわけにょ。
ダブついているソフトをそのままの価格で放置していても価値は下がる一方だからね。
さて、ここまでは大手チェーン店に属するゲームショップの話にょ。
仮に大手のFCからハズれて独自経営する場合には流通経路から確保しないといけないにょ。
スーファミ時代までは普通に問屋から納品だったけど今はメーカー直送となっている
からね。
高い補償金を払えば契約は可能だけど各流通に補償金を支払いなおかつそれぞれに提示
されている条件を満たすとなると個人経営の無所属ショップでは厳しいにょ。
そうなると二次問屋から納品することになるけどただでさえ新品は利益を確保するのは
難しいのに高価な二次問屋からでは新品だけでは難しいため無所属ではほとんどの場合
中古専門となっているにょ。
後述(3)で中古ソフトがかなり厳しい状態になっているため経営状態が芳しくないから
少しでも経費削減のためチェーン店を脱会するというのはこのような流通の変化によって
命取りになりかねない状態になっているわけにょ。
(下記へ続く)
OPASのすべて!
久々にポケコンコーナーを更新したにょ。
更新したのはOPAS応用編の後編にょ。
http://ww5.tiki.ne.jp/~ochame/E500/TECH/opas_2.htm
前回(6月20日)には前編としてOPASで多ライン同時スクロールをする方法を書いたけど
今回はそれをさらに応用したものとなっているにょ。
このアニメーションとスクロールを同時使用することでドット単位でスクロールさせ
ながらアニメーション表示をする(画面上にあるオブジェクトを動かすなど)という
だけではなくアニメーションを使うことで64文字(384バイト)の制限を克服することも
可能になっているにょ。
また、縦方向に1ドットずつずらしたデータをアニメーションさせることで縦スクロールも
可能になっているにょ。
これを使えばドット単位で横スクロールするマリオタイプのゲームもBASICで十分な速度で
動作可能になるにょ。(リンク先に記しているようにOPASは表示オブジェクト数がどれだけ
増えても表示速度が落ちないため)
OPASは今から15年前(1995年)に私が命名したにょ。
OPASの元になっていたフォント書き換えはすでにPJ読者ならば常識的なテクニックに
なっていたにょ。
私はフォント書き換えでドット単位で動作させる方法を思いついていたのでそれを
使っておもしろいことはできないかと模索していたらPOKEで書き換えるフォント格納
参照アドレスを1変えることで表示が1ドットずれていることに気づきメインルーチン内で
そのアドレスを随時書き換えていけばドット単位でスクロールできるということに気が
付いたにょ。
そのアドレスを表示分だけ一気に変えたらアニメーションも高速に行えたにょ。
それがOPASにょ。
まだインターネットを利用していなかった当時、PJにもベーマガにもまだ発表されてない
ために勝手に私がOPASと命名したものを誌上で発表する機会を伺っていたにょ。
ただ、問題はOPASの威力が分かるゲームを作ろうとするとどうしてもメモリが多く必要に
なってしまいグラフィックを描くのも面倒なのでなかなか発表には至らなかったにょ。
そんな中PJ95年8月号に掲載されたたかじょゆうき。氏の「So Nervous」を見て無理に
1枚1枚アニメーションを描いていかなくてもパターン表示でやれば簡単だし、このような
アニメーション主体のゲームならばOPASの得意技だから分かりやすいということに気が
ついたにょ。
そういうわけでフォント書き換えの64文字(384バイト)制限の限界に挑戦されていた
この「So Nervous」を早速OPAS対応版として移植したところ約5倍の速さになったにょ。
当然のことながらそれをすぐに投稿はさすがにできなかったにょ。(同じプログラムを
同機種用に作り直したものを投稿して掲載されるはずがない)
というわけで再びOPASの威力を発揮できるゲームを考案する作業に戻ったにょ。
年は変わり1996年1月某日PJ編集部からPJ本誌で原稿を書いてくれないかという依頼の
電話があったにょ。
良い機会なので私が持っている高速化テクニックに加えてOPASを発表しようと考えたにょ。
単体投稿はできなかったけどOPASのサンプルゲームとしてであれば「So Nervous」の
OPAS対応版は問題ないだろうということでOPASのサンプルはこれですぐに決定したにょ。
そのままというのも何なのでPJ掲載版はオリジナルにない完成時の見本アニメを同時表示
することにしたにょ。(後にこのゲームのルールを変えた「パネルQ」を発表)
見本を表示することでゲーム自体がプレイしやくなった上に描画負荷が2倍になっている
にも関わらずオリジナルの約3倍速を実現できたにょ。
このOPASを発表したPJ96年5月号はPJ最終号となったにょ。
しかも、肝心のOPASを使ったプログラムのリストには誤植が多かったけど最終号であった
ために訂正しようがなかったにょ。
それ以降は自力でOPASを広めるべくOPASを活かしたゲームをどんどん作っていったにょ。
96年11月に作った「シュプール」では今回発表したアニメーションとスクロールの
同時使用のテクニックを用いているにょ。
この「シュプール」は97年に私が発行した「PJ増刊96」用に作ったけど後にベーマガに
投稿して採用されたにょ。
OPASはその後私が発行していたメルマガ「おちゃめ〜る」で詳細発表し、その記事は
後に立ち上げたWebサイト「おちゃめくらぶ」で正式コンテンツとしていつでも誰でも
見れる状態になったにょ。
これでOPASを使う人が増えるか・・・と思っていたら実はサイト上で発表されていた
サンプルプログラムに誤植(というかタイプミス)があることに7年経って発覚したにょ。
http://6502.teacup.com/ochame/bbs/133 (現在は修正済み)
これで、OPASがようやく誰もが使えるものになったけどもうポケコン(PC-E500系)を
使う人は激減していたにょ。
要望があれば「応用編を書くよ!」とサイト上に書いていたものの需要は無し・・・。
OPASを使ったゲームを発表してくれた鈴原透氏、上野雅博氏はすでにポケコン界から
去ってしまったようなのでなおさら難しいか・・・。
昨年10周年を迎え私が持っているBASIC高速化テクニックを(ほぼ)すべて発表したけど
OPAS関連だけはまだ心残りがあるという状態なのが個人的に気になったため今年になって
OPASの応用編を書くことを決意したにょ。
まずは今年の5月にはOPASを使った2LINEゲームである「2LINE UFO GAME」を発表したにょ。
OPASの理解を深めるにはシンプルなサンプルゲームが必要だからね。
今回のOPAS応用編で作ったサンプルプログラムも2LINE UFO GAMEのリストが部分的に
かなり活用されているにょ。
やはり、ただのサンプルというよりそれを使ったらこういうゲームができるという
具体的なものがある方が興味を惹きやすいしね。
さて、前回、今回の2回に分けたOPAS応用編を持ってOPASの使用テクニックに関しては
すべて公開となったにょ。
これによりOPASをフルに使ったゲームを作ることが可能になるにょ。
それだけではなくOPASの活用範囲が広がるためより多くの用途にOPASを使用できると
いうことにも繋がるにょ。
これで心残りなくこの世を去れる・・・ってことはないけど一安心できたにょ。
とはいえ、テクニックなんて覚えるだけでは意味が無く活用できなければ意味がないにょ。
活用範囲が広がってもどのように活用するかというのは実践経験を積まないと難しい
からね。
そういうわけでOPASを用いた実践的テクニックは今後も随時公開予定にょ。
実は、今回はあともう1つポケコンコーナーを更新したにょ。
みっぴゅ氏によるワンポイントテクニックの投稿にょ。(OPASの応用編と一緒に更新
しようと考えていたらすっかり遅くなってしまった)
http://ww5.tiki.ne.jp/~ochame/E500/TECH/TECH031.HTM
ワンポイントテクニックは随時募集しているたPC-E500のBASICで使用できるテクニックが
あれば要綱を見て投稿してほしいにょ。
DDR4は必要なのか・・・?
PC用のメモリはDDR2からDDR3へ世代交代をしたにょ。
コストを優先するネットブックでさえDDR3に対応したAtom N455、N475搭載機によって
DDR3に対応したくたいだからね。
DDR2ではなくDDR3を使うメリットは下記のようなものが挙げられるにょ。
(1)コストダウンのため
(2)統合型チップセットの性能アップのため
(3)CPUに必要な帯域を十分に確保するため
(1)に関して書くと工業製品は量産化によってコストダウンすることが可能であるため
主流のものを使った方が安くなるにょ。
技術がこなれた旧世代の方が安くできそうだけど半導体の場合はそうではないにょ。
それはダイサイズが価格に直結するからにょ。
最新のプロセスルールは昨今ではフラッシュメモリの製造に使われることが多いけど
これはダイサイズを小さくすることでコストダウンをしているにょ。(同じダイサイズで
あればより大きな容量になる)
旧世代のプロセスルールを使用していたフラッシュメモリが最新のプロセスルールを
使用したために価格は一気に下落したにょ。(あとSLCからMLCへの移行による影響もある)
現在はDDR2とDDR3は大抵の場合は同じ製造プロセスで作られているにょ。
しかし、今後DDR3が主流になれば新しい製造プロセスでDDR2のメモリが作られることは
ほぼ無くなるためDDR3の価格は下がり、DDR2の価格は据え置かれるということで価格の
逆転現象が起きてしまうにょ。
製造量が極端に少なくなれば量産効果とは逆にコストアップに繋がるため価格アップの
可能性さえあるにょ。
登場時は生産量が少なくDDR2と比べて高価だったDDR3もすでに4GBのモジュールに関しては
DDR2とDDR3は価格が逆転しているにょ。
すべての容量のモジュールにおいて(といっても市販されているPC用のDDR3メモリは
1GB以上しかないけど)価格が逆転するのは時間の問題にょ。
(2)については7月29日に統合型チップセットとメモリの関係について書いたのを見て
もらえたらいいけどそれをまとめると旧世代のPC66の頃は2D描画でさえ不十分だったのが
DDRによって2Dなら不満のないレベルになったし、DDR2によって3D性能のアップにも貢献
できるようになったにょ。
DDR3の最大メモリ帯域はDDR2の2倍(主流となっているDDR2-800とDDR3-1600を比較した
場合)ということはメモリ帯域がボトルネックになりがちなGPUにおいてそのボトルネックが
緩和されることを意味するにょ。
ただし、GPUコア性能(統合されたGPUの性能)が不十分だといくらメモリ帯域が向上しても
性能アップには繋がらないにょ。
(3)に関しては難しいところにょ。
というのも広いメモリ帯域であれば性能アップに直結するGPUとは異なりメモリ帯域は
必ずしもCPUの性能アップに繋がらないからにょ。
とはいえ、マルチコアが当たり前となってきている昨今のPCにおいてはシングルコア全盛
だった頃とは比較にならないくらい必要メモリ帯域は増えているのも事実にょ。
しかし、4コア、6コアをフルに使うハイエンドな使用方法でないとその恩恵はないにょ。
とはいえ、CPUだけではほとんどの場合は十分とはいってもGPUが使うメモリ帯域を考えると
必ずしもそうとはいえないにょ。
PC66であれば普通に使っていてもメモリ帯域が大幅なボトルネックになっていたにょ。
これはXGAフルカラーの表示(リフレッシュレート60Hzであっても単純計算で135MB/sの
帯域が必要)でPC66のメモリ帯域(理論上で533MB/s)の大半が消費されているからにょ。
実際にi810を採用したPCでスーパーπを動作させればそれは明確だけどXGAフルカラーと
VGA16色では3割以上の速度差が発生するにょ。
今時2D描画でそこまで落ちることはないけど3Dであれば(2)で書いたように多くのメモリ
帯域が必要であるためCPU性能が十分に発揮できないことは十分に考えられるにょ。
もっともハイエンドなCPUで統合型チップセットを使って3Dゲームをプレイするという
ような状況はほとんどないだろうけどね。(CPUのコア数が多いほどクロックが高いほど
影響が大きくなるためCULVのように低クロックであればあまり影響はないと予想できる)
さて、PCの主流はDDR2からDDR3へと変わりつつあるけどDDR4もすでにその仕様が策定
されているにょ。
http://pc.watch.impress.co.jp/docs/column/kaigai/20100823_388253.html
製品として登場するのはあと2、3年後とはいえメモリの規格が定まらないとPCが設計でき
ないから策定は急ぐ必要があるにょ。
特に昨今はメモリコントローラをCPUに内蔵しているからね。
従来であればAMD(Athlon64など)を除きメモリコントローラはチップセット側にあった
ためメモリの仕様変更があっても柔軟に対応できたけど今はメモリの変更があった場合は
CPUそのものを作り直す必要があるにょ。
AtomでもPineViewからはCPUにメモリコントローラを内蔵しているためN450、N470のDDR3
対応版であるN455、N475を別途用意したくらいだしね。
DDR2からDDR3へと問題なく移行できたけどDDR4も・・・というとそうではないにょ。
それはメモリスロット数が1チャンネル当たり1本になるからにょ。
現在のPCの主流はデュアルチャンネルであるためメモリスロットは2本しか確保できない
ということにょ。
ノートPCであれば一般的な製品はメモリスロットが2本しかないため問題ないけどデスク
トップPCであればこれはかなり辛いにょ。
現在は1チャンネル当たり2本であるためデュアルチャンネルのCPUであれば4本(Core i7の
ハイエンドモデルにある3チャンネルのCPUであれば6本)メモリが搭載できるからね。
これによって4GBのメモリモジュールを使えば4GB×4=16GBのメモリを実装することが
できるようになるにょ。
今はまだ32bitOSのWindowsが主流になっているため4GB以上のメモリを搭載してもRAM
ディスク程度にしか使用できないけど徐々に64bit対応のアプリは増えつつありハイエンド
ユーザーは64bitOSに移行しているにょ。
現時点では高画素化の進んだデジタル一眼のRAW現像を大量に行う人やフルHDの動画
編集をする人のようにその恩恵がある使い方というものは限られているものの4GBの
メモリモジュールが現実的な価格(1本1万円以下)となっているため8GB以上搭載する
ことは珍しいことではなくなっているにょ。
実際安価なCULVノートでさえ64bit版Win7が搭載されている機種もあるくらいだしね。
しかし、DDR4世代ではメモリスロット数が半減してしまうため最大搭載量も半減するにょ。
現在のDRAMチップの主流は1Gbitから2Gbitに移行しつつあるにょ。
2Gbitのチップだとそれを16個使うことで4GBのメモリモジュールになるにょ。
ここ最近4GBのメモリモジュールの急激な価格低下はDRAMチップが2Gbitの急激な増産の
影響が大きいにょ。
ムーアの法則通りに約24ヶ月でプロセスルールが進むと仮定すれば2年おきにメモリは
倍増するかというとそういう単純なものではないにょ。
CPUとは異なりハーフノード単位で作られるためにプロセスルールが変わったからといって
必ずしも容量アップになる(2Gbitだったのが4Gbitになる)というわけではないにょ。
2倍の容量のメモリが急に必要になるということはないためプロセスルールの進化は
ダイサイズ縮小によるDRAMのコストダウンへと転化されることが大半にょ。
DDR4が市場に登場する頃はDRAMチップはようやく2Gbitから4Gbitへと移行しようとする
時期だと推測されるため安価で済ませるなら4GB×2=8GB、多くのコストを支払っても
最大で8GB×2=16GBになると予想することができるにょ。
XPでは試作品レベル、Vistaでようやく完成品レベル、7でようやく選択する価値がでて
きた64bit版Windowsだけど次の世代ではいよいよ64bitがメインとなると思われるにょ。
その64bit版がメインとなる次世代Windowsが発売されているであろう時期にそのメモリ
搭載量ではさすがに辛いにょ。
これはチップを積層化するという手段があるにょ。
実際フラッシュメモリはその方法によって大容量化しているからね。
32GbitのNANDフラッシュを8層×2によって64GBのSDXCカードは作られているにょ。
現在NANDフラッシュで量産化されているのは32Gbitであるため単純に考えると4GBの
SDHCカード、USBメモリしか作れないけど積層化によってその制限は緩和されていると
いうことにょ。(逆に言えば32Gbitが主流になることでSDカードは1GB、2GBと比べて
4GBはコスト的に大きな差は無くなっているともいえる)
確かに積層DRAMが量産化されれば最大搭載量の問題も改善されるけど問題はメモリ
コントローラがそれに対応する必要があるしレイテンシ増大も懸念されるにょ。
レイテンシの増大はメモリが速くなればなるほど大きくなる傾向があるからね。
PC100のCL2とPC133のCL3はあまり変わらない性能だったけどそれと同じようにDDR400と
DDR2-533は後者の方がメモリ帯域が増えているにも関わらず実効性能に有為的な差は
見られなかったにょ。
これはメモリ帯域の増大があってもレイテンシが増大しているためそれがボトルネックに
なっているためにょ。
恐らくDDR3からDDR4へと移行するときもこの問題があるためレイテンシの大きなチップや
クロックの低いチップではDDR4とはいえDDR3と比べてアドバンテージがあるとは言えない
と思われるにょ。
つまり、DDR4は速く無ければ意味がないということにょ。
DDR3もDDR4と同じように1チャンネル当たりメモリスロット1本という案が出ていたにょ。
それは製品では1本では高速なものも使用できるけど2本使用時には速度制限を課すことで
1チャンネル当たり2本までのメモリに対応したにょ。(1チャンネル2本使用時にはDDR3-
1333までしか対応しない等)
DDR4はDDR3の最高クロックと同じ2133Mbpsが最低速度(最初に用意されているチップの
速度)となっており今後はさらにその倍速まで上がる予定になっているにょ。
したがって、DDR3のように高速メモリを使用時は1チャンネル当たり1本だけど低速メモリ
使用時には2本使えるという裏技的な方法は使用できないにょ。
実際のところ8コア、16コアのCPUが主流になったり、CPUに統合されているGPUの性能が
飛躍的に向上しない限りはDDR3でも十分だけどマルチコア化はともかくとしてGPU性能は
今後大幅な性能アップが予定されているにょ。
AMDは現在のローエンドGPUを超える性能となるSP数400程度のGPUをCPUに内蔵するという
噂もあるくらいだからね。
そうなると速さを取るか容量を取るかでしばらくDDR3とDDR4が共存するという可能性が
高そうにょ。
DRAMチップが8Gbitになれば容量的に考えてDDR3のアドバンテージが無くなるためその頃には
DDR4が主流になると思われるにょ。
速さだけがウリではない
デジタル一眼の新機種発表ラッシュの中、面白い機種が登場したにょ。
http://dc.watch.impress.co.jp/docs/news/20100824_388902.html
このα33、α55は「デジタル一眼レフ」だけどGH1のようにEVFを搭載し半透過型ミラーを
採用しているにょ。
一眼レフというのはミラーがあることでレンズから入った光(つまり撮影する被写体)を
ファインダーで見ることもできるし、フィルム(センサー)で捕らえることもできる
ようになっているにょ。
ミラーで反射された光はファインダーに導かれているのだけどシャッターボタンを押した
瞬間にミラーが跳ね上がり遮るものが無くなったためにセンサーに直接光が届くように
なり、そしてシャッターが閉じられたら自動的にミラーが元の場所に戻ることで再び
ファインダーで被写体を撮影できるようになるにょ。
ミラーの動く様子は実際に手元に一眼レフがあれば確かめてもらえれば一目瞭然だし、
ミラーが動作することで一瞬ブラックアウトになるというのも一眼レフユーザーならば
普通に体験していることなので今更書くようなことではないんだけどね。
しかし、このα33、α55は半透過型ミラーを採用しているためにミラーを動作させる
必要性がなくなっているにょ。
普通のミラーではなく半透過型ミラーを採用することによるメリットは下記の3つにょ。
(1)シャッタータイムラグが短い
(2)高速連写可能
(3)常時AFが可能
(1)半透過型ミラーを採用した一眼レフは古くから存在するにょ。
銀塩時代に登場したEOS RTは半透過型ミラー(ペリクルミラー)を採用によってシャッター
タイムラグ8m秒を実現したにょ。
上記のように一眼レフは複雑な動作をするミラーがあるためにシャッターボタンを押して
撮影可能になるまで多くの時間(といっても一瞬だけど)がかかってしまうにょ。
プロ機であっても20〜40m秒かかってしまうわけだし、入門機だと100m秒を超える機種も
少なくないにょ。
それを考えると8m秒というシャッタータイムラグの小ささはすごいといえるにょ。
野球を撮影する場合、時速144kmで投げられた(打たれた)ボールは秒速40mであるため
100m秒の間に4mも進んでしまうにょ。
天才的な反射神経の持ち主で打球がバットに当たる瞬間にシャッターボタンを押しても
4mも飛んでしまうためにバッターをアップで撮影したらボールが捕らえられないにょ。
これが8m秒であれば32cmで済むにょ。
つまり、シャッタータイムラグが小さいということは動体撮影において大きなプラスに
なるということにょ。
(2)連写についてもそれはいえるにょ。
ミラーの動きは高速かつ複雑であるため高速な連写に耐えられるようにするためには
非常に多くのコストがかかってしまうにょ。
そのため入門機では3コマ/秒程度、中級機で5〜7コマ/秒程度、プロ機で8〜10コマ/秒
程度となっているにょ。
しかし、連写の際にボトルネックになるミラーの動作が必要が無ければ連写性能は飛躍的に
アップするにょ。
今はセンサーがCMOSになっているため読み出し速度面では全く問題がなく唯一ボトル
ネックになるとすればシャッターの動作くらいだからね。
(3)一眼レフではミラーによってファインダーへ光を導いているだけではなく現在主流で
ある位相差検出方式だと測距用のセンサーにも導かれているにょ。
そのためシャッターボタンを押してミラーが上がってしまったらそれらに光が導かれ
なくなりAFも動作しないにょ。
動く被写体にピントを合わせてもそれはミラーが動作する前の段階でのピントであるため
シャッタータイムラグによってピントのずれが発生してしまうにょ。
しかし、それは銀塩時代に登場したα7700iから多くの機種で採用されている「予測駆動
フォーカス」によって緩和されたにょ。
それは被写体の動作速度からタイムラグ中にどの程度移動するのかを予測してその場所に
ピントを合わせるというものにょ。
半透過型ミラーは多くのメリットがあるのに採用例がほとんどないのはなぜなのか・・・?
確かにミラーが特殊であるためコストアップになるからというよりも暗所に弱くなったり
余分な光学系を通すために画質に与える影響が払拭できないからにょ。
ミラーによってフィルム(センサー)とファインダーに光を分断するため光を半々に
分けた場合にはファインダーが1段分暗くなってしまいセンサーに届く光も1段分弱くなって
しまうにょ。(1段分暗所に弱くなる)
透過率を上げれば暗所性能の問題は減るけど今度はファインダーが暗くなるという問題を
抱えているにょ。
やはり、半透過型ミラー採用機は普通に使うにはデメリットとなる部分が大きいため
それを使うメリットが大きい機種でないと採用しにくいというのが実情だと思うにょ。
しかし、それは銀塩一眼における場合でありデジタル一眼では必ずしもそうとはいえない
と思われるにょ。
α55では極めて透過率の高い薄型のミラーによって画質に与える影響はほとんど無くなって
そうにょ。(それでも100%の透過率ではなく1/3段程度は暗くなるという判断をしている
人もいるけど昨今の高感度に強いセンサーだと1/3段暗所に弱くなっても誤差の範疇だと
思われる)
そうなるとファインダーへはほとんど光が届かない(常時NDフィルターを使っている
ような状態)という問題があるにょ。
これはEVFでカバーできるにょ。
EVFならばセンサーが受光している被写体データを直接見ることができるからね。
それではミラーは何のために使われているのかというと位相差検出方式のセンサー用と
なっているにょ。
デジタル一眼も最近の機種はほとんどがライブビューに対応しているけどミラーがある
ため通常時はセンサーへの光は遮断されるのでライブビューを使用するためにはミラー
アップが必要不可欠となるにょ。
ミラーアップをするためにファインダーは当然ながら真っ暗で位相差検出方式が使えず
コントラストAFとなっているにょ。
昨今はコントラストAFも速くなったとはいえ、速度面では位相差検出AFには及ばないし
レンズ側がコントラストAFに最適化していないと十分な速度が出ないという問題がある
ために位相差検出AFがメインの一般的なデジタル一眼ではかなり不利な状況になって
いるにょ。
Panasonicのミラーレスカメラ(GH1、GF1などのマイクロフォーサーズ)がコントラスト
AFの割に高速なのもすべての交換レンズがコントラストAFに最適化しているというのが
大きいからね。
このα55は上記のように常時測距センサーへと光を導いているため常時ライブビューで
撮影しているにも関わらず位相差検出AFも常時使用可能になっているにょ。
とはいえ、この方法はミラーを使わず撮影センサー上に測距センサーを配置することでも
可能となるにょ。
7月22日に書いたFinePix F300EXRはミラーなんてないコンデジにもかかわらずその特殊な
センサーによって位相差検出AFが可能になっているにょ。
とはいえ、これはコンデジだからこそ許されることにょ。
F300EXRでも数万画素が測距センサー用として使われているけどこれがデジタル一眼ならば
さらに多くのセンサーを割く必要があるだろうからね。
それにすでにセンサーの画素ピッチがレンズの解像力を超えているコンデジであればその
画素欠損状態(測距センサーのある場所は撮影用に使えないため)なのは大した影響は
ないけどデジタル一眼の場合は解像力の高いレンズを使用時には画素ピッチ<分解能で
あるため画素欠損による明確な画質劣化が起きてしまうにょ。
元々ベイヤー配列ということで画素単位でRGBフルカラーの情報を持たず周囲の画素情報で
フルカラー画像を生成しているだけとはいえ、その影響は少なくないにょ。
α55は常時位相差検出AFが使えるというだけではなくミラーアップによるファインダーの
ブラックアウトもないためファインダーを覗いたまま撮影できるというメリットがあるにょ。
これは普通のデジタル一眼であればライブビュー使用時は背面の液晶モニタを見ながらで
ないと撮影できないという問題があるためライブビューを使用する場面は極めて限られて
いたにょ。
これが非常に有用なのは動画撮影にょ。
8月20日にも書いたようにデジタル一眼においても動画撮影機能の重要性は近年非常に
高まってきているにょ。
しかし、デジタル一眼で動画を撮るためにはライブビュー(ミラーを上げてコントラスト
AFを使用)の状態にする必要があるにょ。
それがこのα55であれば背面液晶もファインダーも使えるし上記のように位相差検出方式の
AFが常時使えるというメリットがあるにょ。
ここで問題なのはEVFそのものの性能にょ。
ファインダーは確かに光学式が最高なのには違いないけどそれにも優劣があるにょ。
一般的にはセンサーサイズによる影響で「フルサイズ>APS-C」だし、光学的な仕組みから
考えて「ペンタプリズム>ペンタミラー」となっているにょ。
入門機で用いられているAPS-Cセンサーでペンタミラー採用の光学ファインダーは構図を
確認する程度ならいいけど細かい部分を確認したり微妙なピントの確認を確認するには
あまり適しているとは言い難いにょ。
EVFも良いものと悪いものでは大きな差があるけどα55に採用されている144万画素のEVFは
現在市販されているデジカメ用としては最高クラス(GH1と同レベル)であるため下手な
入門機のデジタル一眼に採用されている光学ファインダーよりもピントの確認という観点
から見た場合はマシかもしれないにょ。
EVFは反応速度の面がネックだったけど近年はかなり改良されているし、拡大表示ができ
たり絞りや各種フィルターなどの設定による影響もファインダーに反映可能であるため
光学ファインダーよりも優れている面もあるにょ。
確かに画像処理をする分だけ遅延の発生があるからいくら良くなったとはいえ動体撮影
メインだと厳しいものがあるけど入門機に求めているレベルであればすでに達成ができて
いるのではないかと思われるにょ。
さすがに平均的なネオ一眼などに使用されているレベルのEVFだとさすがに一眼レフ用と
しては画素数の面でも速度の面でも使い物にならないけどね。
こうしてみるとα55、α33はかなり良いデジタル一眼に見えるけどそれは実際のレビューを
見るまでは分からないにょ。
いくら速いといってもあくまでは中身は入門機レベルだからね。
10コマ/秒の撮影ができるといってもAFの追従性がそこまで良いわけではないだろうし
透過型ミラーを採用によりEOS RTのようなものにシャッタータイムラグが短くなるかと
いえば入門機であるためそんなことはないだろうからね。
野球の打撃シーンのようにピントは定位置であれば10コマ/秒の高速シャッターが生きて
くるけど入門機であるためバッファ容量が小さそうなのですぐにバッファフルになって
しまう可能性があるにょ。
結局のところ入門機で速さだけが与えられても全体スペックを上げないとどこかで
破綻がくるということにょ。
これは実際に使ってみないと「使えるレベル」かどうか判断が難しいところだけどね。
また、ミラーレスカメラはミラーやファインダーがない分だけコストダウンになっている
けどこのようなミラー+EVFでは単純にEVFの分だけコストアップになっているにょ。
ペンタミラーによる光学ファインダーがない分だけ一般的な入門機のデジタル一眼より
コストダウンできている面もあるとはいえ、コストは「高性能EVF>ペンタプリズムに
よる光学ファインダー」だと思われるためコストアップは否めないにょ。
それが価格にも出ているにょ。
上位モデルのα55は本体だけで実売9万円台、α33は本体だけで7万円台の予定になって
いるからね。
せっかくの光学ファインダーも動画撮影時には使えない、コントラストAFは遅いという
一般的なデジタル一眼の問題点が克服されているためにコンデジからステップアップ
する人には入門機として考えた場合には多少割高(とはいえ連写性能を考えれば破格の
安さ)とはいえ最適な1台だと思われるにょ。
Atomに過度な期待をしないでください
ネットブック向けのデュアルコアAtom「Atom N550」の出荷が発表されたにょ。
http://pc.watch.impress.co.jp/docs/news/20100824_388936.html
N550の存在は半年前から噂になっていて6月にはすでに出荷可能な状態になっていたにも
関わらず今になってようやく出荷開始されたというのはやはりネットブック・・・というか
ULCPCの制約のためだと思われるにょ。
ここで幾度も書いたようにネットブックはIntel側、MS側が制約を設けていてそれを満たす
ことでIntelはCPUおよびチップセットを安価に提供し、MSは安価なWindows(ULCPC版の
Windows)を提供しているにょ。
ネットブックは「安さ」が最大の価値であるため安くするためにその条件を満たした機種を
各社が作っているにょ。
それゆえ、仕様が各社でほとんど横並びになってしまうのだけどそれはやむを得ない
ことにょ。(小型PCでタスクマネージャが4本というのは非常に萌えるのでこのN550を
使ってギリギリまで小さくしたネットブックは見てみたい)
さて、MS側の制約だけど最大の難点だったのがULCPCの条件としてCPUはシングルコアのみ
となっていたにょ。
しかし、いつでも出荷準備OKだったネットブック向けのデュアルコアAtomが今頃になって
出荷開始されたのはやはりその条件が緩和されたのではないかと予測できるにょ。
Atomのような低速(低TDP)のCPUに限りデュアルコアでもOKとなったのだろうけどもしも
ULCPCとして認められず通常のWindowsであれば低価格が最大の魅力となっているネット
ブックの最大の魅力がスポイルされてしまうにょ。
Windowsの価格はULCPC版が30ドル、通常版(Home Edition)が100ドル程度であるため
価格差が販売価格にそのまま転化された場合には70ドル差となるにょ。(すでに1台
あたりの利益が非常に少ないネットブックではその差を吸収するのは不可能であり本体の
価格アップは必至となる)
実売300ドル程度の価格のものが主流となっているネットブックにおいてはこの差は非常に
大きいにょ。
70ドルアップとなればいきなり価格が2割増しとなるわけだからね。
ULCPCの条件というのは固定的なものではなく変動的なものであり、XPと7とではまた
基準が変わるためデュアルコアAtomがULCPCとして認められたとしてもWin7のみとなる
可能性が高いにょ。
ULCPC版のWindowsはXPは普通のHome Editionと機能面の差異は無かったけど7のULCPC版と
なるStarterは明確な差別化をしているにょ。
この差は気にならない人にとっては大した差ではないけどやはりXPでは機能面での制約が
無かったことを考えると気になる人はいると思うにょ。
この差が生まれた背景にはXPにおいてはASUSの取引(初代Eee PCのヒットによる影響で
Windows離れが懸念された)のために急遽用意する必要があったというのもあるけど
XPはすでに発売から年数が経過しており減価償却が終わったOSだから差別化をする必要が
無かったというのもあるからね。(別SKUのXPを用意する方が逆にコストがかかってしまう)
しかし、7は最新OSでありこれから開発費を回収しなくてはならないため「無茶な安売り」
なんてできないためあえて機能を制限したStarterを用意したということにょ。
デュアルコアAtom N550を搭載したネットブックは年内にも各社から発売予定になっている
けれどULCPC版のWin7(Starter)が搭載されるのであれば現行のAtom N475を搭載した
モデルとあまり価格差はないと思われるにょ。
ただ、問題は性能にょ。
4月23日に書いたようにN550は1.5GHzとクロックが低いために1.83GHzのAtom N475と
比べて性能アップになるとは限らないからね。
これは動作させるアプリによっても左右されるもののマルチスレッド(4スレッド)に
最適化してあるものでない限りはN475の方が性能面で上回るという可能性もあるにょ。
シングルコアとデュアルコアではベンチだけでは計れない差があるのだけどデュアルコアと
クアッドコアではそこまで大きな差はないにょ。
シングルコアAtomは論理デュアルコア(1コア2スレッドCPU)であるためそれが物理
デュアルコア(2コア4スレッドCPU)になった場合には「シングルコア→デュアルコア」の
場合のような明確な差は生まれにくくなってしまいそうにょ。
重いアプリを動作させそれと同時に別にアプリを動作させるという場合は確かに物理
デュアルコアが効いてくるけどAtom搭載のネットブックでそんなことを行う機会はかなり
限られると思うにょ。
実際にどの程度の性能になるかは製品が発売されてレビューが行われれば一目瞭然だけど
クロックを1.5GHzに落としたというのはTDPの問題もあるし、CULVとの差別化もあると
思われるにょ。
セレロンU3400が思ったほど(というか予想通り?)大した性能ではなかったため
1.83GHzのデュアルコアAtomであればその差はほとんど無くなるだろうからね。
現状ではHD動画の支援機能の有無という非常に大きな差がU3400とN550にはあるためそれ
だけで差別化はできているとは言えなくはないけどネットブック向けのAtomも来年登場する
次の世代のものからはHD動画の再生支援機能を内蔵してくるためそれは明確な差ではなく
なってくるにょ。
Atomは当初からのようにローエンドの下に新たに設けられた低価格を実現するためのもの
であるためローエンドを性能面で追い越すことは今後もないと思われるにょ。
デュアルコアAtomのクロックが2GHzくらいになり、セレロンU3400を脅かす頃にはCULV用の
CPUはさらなる高性能化しているということにょ。
もっとも、Atom N270(1.6GHz)でも十分に感じている人はいるわけだからローエンドより
下といっても侮ることはできない(人によっては十分に実用的に使える)というのは
決して間違いではないにょ。
昔とは異なりPCの使い方も多様化しているためローエンドより下であっても十分に使う
ことができるからね。(ノートPC用だけを考えても昔は同じ世代ではハイエンドとロー
エンドは2倍程度しか性能差がなかったけど今はハイエンドのCore i7 940XMとAtom N455
では5倍以上の性能差がある)
後出しで勝てなかったら意味がない!?
さて、今月、来月はデジタル一眼の新製品ラッシュにょ。
基本的に入門機は年に1回、中級機は2年に1回の頻度でモデルチェンジがあるけどこの
時期に多くの機種が発表されるのは9月にドイツで開催されるフォトキナの影響もあると
思われるにょ。
ここ1週間に発表されたものを見るとニコンは大幅な改良が施された入門機のD3100、
ソニーは大胆な仕様の入門機のα55、α33が挙げられるにょ。(個人的にはD3100は
ちょっと欲しい機種、α55は買わないけど一度使ってみたい機種であり、本命はやはり
D90の後継機か)
やはり、そうなると世界最大シェアを持つキヤノンの動向が気になるところにょ。
この度、2年前に発売された中級機EOS 50Dの後継となるEOS 60Dが発表されたにょ。
http://dc.watch.impress.co.jp/docs/news/20100826_389278.html
この60Dは数ヶ月前までは出ないという噂さえあった製品にょ。
というのも中級機はすでにEOS 7Dがあるし、入門機は他社比べても十分高い性能を持つ
EOS Kiss X4があるからにょ。
この間に位置するであろう50Dの後継機というのは非常にニッチな需要になりそうだ
という意見も少なくなかったにょ。
しかし、D90に対抗するカメラは必要ということで出すことになったのだと思われるにょ。
D90は脱入門機の人を対象に売れているからね。(小型軽量を活かしてサブ機として
使うハイアマチュアやプロもいる)
◎クラス別に見たニコンとキヤノンのデジタル一眼の一覧
ニコン キヤノン ペンタックス(参考)
プロ機上位 D3X EOS 1Ds MarkIII 645D(中判デジタル)
プロ機下位 D3s EOS 1D MarkIV
フルサイズ下位 D700 EOS 5D MarkII
中級機上位 D300s EOS 7D
中級機下位 D90 EOS 50D → 60D K-7
入門機上位 D5000 EOS Kiss X4
入門機下位 D3100 EOS Kiss X3 K-x
シェアが小さいために多くの機種をラインナップできないペンタックスであれば1つの機種で
複数のクラスの相手をしなくてはならないけどニコンにできてシェアナンバーワンの
キヤノンにできないはずがないからね。(EOS 7DではD90の相手をするのはさすがに
無理がある)
さて、上記記事で仕様を確認してもらえたら分かるように60Dは単純に7DとKISS X4の間の
スペックと言っても間違いではないにょ。
唯一60Dの独自性があるのはバリアングル液晶とカメラ内RAW現像くらいにょ。(というか
他社製品では普通にできていたのに今までEOSではカメラ内RAW現像ができなかったのが
不思議なレベル)
では、肝心の50Dから見ると動画機能の追加と画素数が1500万から1800万へと増えたのが
主な違いにょ。(この2点に関しては60Dと同じくX4と7Dも対応している)
画素数が増えたことは賛否両論だけど解像力のあるレンズを使用すれば1800万画素の
性能は生かせるわけだし、画素数が増えたことによる暗所ノイズの増加はX4を見る限り
上手く処理されているので問題ないにょ。
ただ、50Dより画素数が増えたことで連写速度が6.3/秒から5.3コマ/秒へとダウンして
しまったにょ。
これは画像処理エンジンのDIGIC4がボトルネックになっていると思われるにょ。
EOS 7Dは8コマ/秒を実現するためにDIGIC4を2つ搭載しているくらいだからね。
60DでDIGIC4を2つ使わなかったのはやはりコストダウンのためだと思われるにょ。
さて、X4と7Dの間の性能で間の価格というのならばそれに合った人にとっては価値が
あると思われるにょ。
X4の発売当初の予価は本体9万円、7Dは本体19万円に対して60Dは本体13万円となっている
わけだから単純に価格で選ぶのもありとなるにょ。
しかし、X4は発売から半年余り、7Dも1年近く経つために価格下落しているにょ。
価格com最安値を見てみると今日現在はX4が59655円、7Dが113790円に対して60Dは現在
予定されている最安値は113990円でありこれは7Dの価格とほぼ同じにょ。
つまり性能は、X4<60D<7Dなのに価格はX4<<60D=7Dになっているということにょ。
後から発売された新製品が既存の旧製品より割高に感じることはPCなどにおいてもいえる
ことであり別に珍しいことではないにょ。
ただ、今回の場合は先に発売されただけというだけであるためPCの型落ち品のように
旧製品という考え方は正しくないにょ。
X4も7Dもそのランクにおける最新の製品だからね。
多くの場合は後出し製品は割高になってもその分先行発売よりも高性能にすることで
割高感を払拭していったにょ。
例えば先日発表されたニコンのD3100は入門機だけどどのニコン製品よりもすぐれた
動画撮影性能も持っているにょ。
これは後発のメリットにょ。
60Dには後発のメリットがないにょ。
正しくはカメラ内RAW現像などがあるためほとんどないというべきかもしれないにょ。
もしも60DにD3100のように後発の大きなメリットがあればX4や7Dではなく60Dを選択する
という人もいるだろうけどそれがほとんどない以上は価格面で7Dの実売価格よりも
明らかに安い価格になるように60Dは設定すべきだったにょ。
しかし、60Dの価格設定が間違っているというわけではなく7Dの価格下落が大きいと
いうだけの話にょ。
7Dの性能で実売11万円台というのは破格だからね。
7Dの価格が下がったのはX4の影響が大きいと思われるにょ。
X4を入門機の割りに高スペックにしたばかりに60Dの居場所がなくなってしまったと
いうことになるにょ。
60Dをあえて選択するというならばバリアン液晶やカメラ内RAW現像が目的ではなく
恐らく入門機は嫌だけど中級機の7Dは大きく重いから嫌という人の方が多そうにょ。
50Dまでのマグネシウムボディではなくプラスティックボディへと変わってしまった
けれどこれは小型軽量を望んでいるユーザーが少なくないというのかもしれないにょ。
実際中級機の割りに小型軽量のニコンD90は高い人気を集めているからね。
このことが理由となり記録媒体もCFカードからSD系カードへと変わったと思われるにょ。
60Dは居場所(実売価格で考えたポジション)は微妙であり、その存在自体を疑問視して
いる人は少なくないけれどサイズ、重量、スペックのバランスが良いために価格さえ
こなれてくればおすすめできそうな機種になりそうにょ。
ただし、現時点であればキヤノンのデジタル一眼は普通の人ならばX4がオススメだし、
スペック重視であれば7Dであり、60Dはコストパフォーマンスよりバランスを重視すると
いう極めて限られた人にしかオススメできない感じにょ。
実用性を求める人にとっては微妙な機種だけど・・・
東芝のノートPC25周年記念として発表されたlibretto W100だけど6月24日に書いたように
私はコンセプトは明瞭だけど時代が追いついてないという感想を持ったにょ。
確かに興味深い機種ではあるもののバッテリ駆動時間や操作性の面の問題点があるため
ただのミニノートPCとして買うと失敗してしまう可能性も高いにょ。
W100がどの程度使えるものなのかはようやくレビューが公開されたのでそれを見て判断する
ことにするにょ。
(レビュー前編) http://plusd.itmedia.co.jp/pcuser/articles/1008/25/news020.html
(レビュー後編) http://plusd.itmedia.co.jp/pcuser/articles/1008/26/news025.html
やはり、真っ先に気になるのは操作性だと思うにょ。
http://plusd.itmedia.co.jp/pcuser/articles/1008/25/news020_2.html
折りたたみ式の2画面液晶は今まで発売されたPCには存在しなかったためにイメージで
語るしかないのだけどやはり現時点ではこのスタイルに最適化されたアプリがないため
イメージでしか語ることができないにょ。
センサーによって自動的に縦横切り替えが行われるみたいだけどそれが敏感で少しだけ
傾けても切り替えが発生し、その切り替えに数秒かかるというのはあまり良い感じが
しないにょ。(縦横を固定できる設定はあるのか?)
次にキーボードを見てみるにょ。
http://plusd.itmedia.co.jp/pcuser/articles/1008/25/news020_3.html
6月26日に書いたようにキーボードは必ずしも必要不可欠なものとはいえないにょ。
文字入力を頻繁にかつ大量に行うのであればハードウェアのキーボードは必須だけど
そういう人はそういう機種を買うかキーボードを別途持ち歩けば済むという問題であって
このようなキーボードレスの端末の存在を否定するというのは正しくはないからね。
しかし、そんなに大量に文字入力をしない人であってもまともに使えるレベルなのか
それとも外付けキーボード無しでは使えないレベルかというのはやはり大きな差だと
思われるにょ。
こればかりはレビューを見ても判断に苦しむため実際に店頭などで試してみるしかない
と思われるにょ。
ソフトウェアキーボードは自分好みの配列を選択できるというメリットがあるため
デフォのものを1つ試しただけでは判断はできないのが難点にょ。(ユーザーの手によって
追加可能なのであれば今後さらに使いやすいキーボードが登場する可能性もある)
あと難点はポインティングデバイスにょ。
タッチパッドもキーボードと同じくソフトウェアで実現しているけどこちらもキーボード
と同じく超えられない壁が存在するにょ。
立体的なキーボードであれば平面でしかないソフトウェアでは大きく劣るというのは
イメージ的に分かるだろうけど元々平面のタッチパッドであればソフトウェアで実現
したとしてもそれほど劣ることはないと考えている人がいるのではないかと思われるにょ。
タッチパッドに関しては8月7日に書いたようにアバウトな操作(画面の端から端まで
一気に移動)と細かい操作(1ドット単位での操作)を両立できるというメリットがある
もののソフトウェアタッチパッドでは液晶のdpiを超えるような操作はできないにょ。
正しくは液晶パネルとタッチパネルは独立したものだからタッチパネルの分解能を大幅に
高めておけば実現が可能なのだろうけどそこまでの精度も分解能もW100のタッチパネルに
ないために上記レビューのような評価に至ったのだと思われるにょ。
キーボードはこのようなタブレット型のPCを買う人だと使用頻度が低いだろうけど
ポインティングデバイスはWindowsを使用する限りは必要不可欠であるためポインティング
デバイスこそハードウェアで実装すべきだったと思われるにょ。(タッチパネルがある
から十分だと割り切れる人にとっては問題ないことだけど)
やはり気になるのは性能面にょ。
使用しているのはArrandale世代のPentiumということで同世代のセレロンであるU3400を
搭載したCULVノートよりも高スペックとなるにょ。
セレロンU3400に関しては8月19日に書いたようにクロックが従来のセレロンSU2300よりも
下がっている分だけ性能がダウンしているという残念なものだったけどW100はU3400の
1.06GHzよりもクロックが高いPentium U5400(1.2GHz)を搭載しているため従来のCULV
ノート並のCPU性能はあるにょ。
SU2300(1.2GHz)も低スペックなセレロンとはいえ、Atom N270(1.6GHz)と比べて
2〜2.5倍くらいの性能はあるため一般的なネットブックとは別格の性能といえるにょ。
まして、このW100クラスのサイズのネットブックは存在せずAtom Zを搭載のUMPCしか
ないためAtom Z530(1.33GHz)あたりと比べると3倍近い性能差になるにょ。
さらに大きいのがGPU性能にょ。
8月19日でもU3400はSU2300よりもCPU性能が下という結論を出したもののGPU性能に関しては
SU2300を搭載したCULVノートに使われているGS45に内蔵のGMA X4500よりもU3400に内蔵
されているIntel HD Graphicsの方が1.5倍くらい性能が上だったからね。
ベンチによって大きく左右されるけど大ざっぱにGPU性能を比較すると下記のようになるにょ。
US15W 945GSE PineView GS45 Arrandale
GMA500<<GMA950<GMA3000<GMA X4500<Intel HD Graphics
(※不等号1つで1.5倍くらいの性能差)
UMPC(Atom Z)のチップセットUS15Wに内蔵のGMA500は軽めのオンラインゲームでさえ
動作させるのが厳しいレベル(というかAeroでさえ動作が重いレベル)なのに対して
Intel HD Graphicsは決して高性能とは言えないものの軽めのゲームならば十分に動作
させることができるくらいの性能があるにょ。(両者は1桁異なるくらいの性能差がある)
つまり、同クラスのサイズ、重量のPCと比較すればダントツのCPU、GPU性能を持っている
ということになるにょ。
常駐ソフトが多い関係上ここまでしないと快適には使えないためこのようなスペックに
なったのだと思われるにょ。
さて、ハイスペックの弊害となっているのがバッテリ駆動時間にょ。
http://plusd.itmedia.co.jp/pcuser/articles/1008/26/news025_2.html
何せ、BBenchで測定した場合でさえ標準バッテリで1時間22分、大容量バッテリで2時間48分
しか動作しないという結果だからね。
最大で1時間程度しか使用しない人ならば標準バッテリで十分だし、最大2時間程度の使用
という人ならば大容量バッテリで十分まかなえるとはいえ、多くの人が不十分と感じる
駆動時間だと思われるにょ。(私自身は実駆動3時間を最低ボーダーラインに設定して
いるため大容量バッテリ使用時でやや不足のレベル)
昨今のPCでここまで駆動時間が短いものはWILLCOM D4以来見たことがないにょ。
バッテリ駆動時間が短いのは軽量化のためであり、重くなっても6セルのバッテリが用意
されていれば標準バッテリの3倍くらいは駆動可能になると思われるけどそれでも2画面
というのがボトルネックになっているのかバッテリ容量当たりの駆動時間で考えても
一般的なモバイルノートよりもやや短めに感じるにょ。
あとハイスペックの弊害は音と熱に現れるにょ。
Atom Z530+US15WであればTDP4.5WだけどPentium U5400+QS57ではTDP21.4Wに達する
からね。
「TDP=発熱」ではないけどそれだけ熱設計が難しいことを意味するにょ。
強力な廃熱を行うためにファンを高回転で回したらそれは大きな音に繋がるし、ファンを
低速回転したら十分な廃熱ができず本体筐体から熱が放出されるため筐体温度の増加に
繋がるにょ。
一定の熱量を発する以上は静音と低発熱の両方を優先することなんてできないにょ。
まして、無理な小型化を実現するためにそれは非常に困難なものとなっているにょ。
実際、W100のレビューを見てもアイドル時で39db、高負荷時で47dbというのはお世辞にも
静音とは言い難いにょ。
レビューから想定した音の大きさ音質から考えると仮に使用している本人が許容できても
周囲の人は許容してくれないかもしれないというレベルだろうからね。(だから私は
モバイルに特化した端末は可能な限りファンレスを求めている)
また室温27度の環境下で動作時の筐体温度が最低の場所(下画面左)でも32度、最高の
場所(天面左)だと50度というのはファン付きのノートPCとして考えるとかなり高めと
いえるにょ。(ファンレスであればこれくらいに達する機種は確かにある)
手に触れる部分に関してはあまり温度が上がらないように廃熱の流れを工夫している
というのが唯一の良い部分だと思われるにょ。
これが温度が高くなる場所が普通に持って触れる部分であれば同じ温度であっても問題が
大きくなるにょ。(iPhone 4のアンテナ問題も普通に持って触れる場所にデッドスポットが
あったからこそあのように大きな問題へと発展してしまったわけだし)
やはり、タッチパネルを前提にして作られた非Windowsのタブレット端末(iPad等)と
比べてWindows7がいくらタブレット機能を強化していようがWindowsそのものがキーボードと
マウスを前提としたUIとなっているためやはり使い勝手はイマイチのようにょ。
それに何度も書いているように2画面タッチパネルは先進性が高いとはいえそれを生かせる
アプリがないために現状では折りたためるということしかメリットがないにょ。
確かに折りたたんだときの状態はほぼVAIO Pに匹敵する小ささであり、スペックを考えた
場合には非常に優秀とはいえその分だけ失うものも大きいにょ。
それらのデメリットとこのW100を使うことによるメリットを天秤にかけそれでもプラスに
なると考えた人でないと買ってから不平・不満が出ることが必至の端末といえるにょ。
サイズとスペックを考えれば決して高価でははないけどね。
また資金に余裕があり、コレクター目的で買える人であればこのようなPCは当分登場しない
ために買って損はないと思われるにょ。(そんな人がどれだけ居るのかは知らないけど)
紙(アナログ)からデジタルへの移行はできるのか?
私が今使っているケータイ(Softbank 905SH)は購入して約4年になるにょ。
これは今まで私が使ってきたケータイで最も長期間の使用となっているにょ。
905SHは4台目のケータイだけど最初はデジタルツーカー、2台目はJ-PHONE、3台目は
vodafone、4台目はSoftbankとすべて社名こそ違うけどキャリア変更をしたことは1度も
ないにょ。
たまたま親会社が変更になったというだけの話だからね。
その流れからするとSoftbankから別の社名に変わった時が機種変のタイミング・・・と
思ってしまうけどさすがに今のところそんな様子はないにょ。
905SHのバッテリは死にかけていてバッテリがフルでないと数時間しか持たないという
実用レベルではない状態だったために4月に新しいバッテリを購入したにょ。
そのお陰で今のところは普通に使えるけどさすがにこのバッテリが駄目になるまでには
機種変更をしたいところにょ。
とはいえ、ガラケーで特に欲しい機種がないのがネックにょ。
そうなるとやはりスマートフォンか・・・?
http://plusd.itmedia.co.jp/mobile/articles/1008/27/news012.html
確かにここ1年でスマートフォンは急増したにょ。
特にドコモはスマートフォンに力を入れているにょ。
iPhoneを獲得できなかったというのもあるだろうけどね。
スマートフォンは維持費が高くキャリア独自機能などもほとんど搭載されていないため
国内では数年前までは一部のコアユーザーのみだったけど機種が増えることによって
選択の余地が出てきたのがやはり大きいにょ。
W-ZERO3を除けば事実上iPhone一択だった国内のスマートフォン市場においてもAndroidが
大躍進したのがその理由だと思われるにょ。
8月9日に書いたように世界市場で見れば2012年にはiOS搭載機(iPhone、iPad)をAndroid
搭載機が台数ベースで追い越すという予想も出ているくらいだからね。
しかしながら、国内では好んでスマートフォンを使う人もいれば逆にスマートフォンは
使いたくないという人もいるにょ。
それは価格面などの問題ではなくキャリア独自サービスが使えないということが
挙げられるにょ。(今はスマートフォンのパケット定額料金もケータイでフルブラウザを
使用時と同等まで下がったため1台のみの維持費はスマートフォンとガラケーはほとんど
変わらない)
ドコモは7月16日に書いたようにスマートフォンでspモードのサービスを開始したにょ。
要するにスマートフォン向けのキャリア独自サービスだけどdocomo.ne.jpのキャリア
メールが使えるようになるというのも大きいにょ。
ケータイ向けサービスは数多くあるけどメアドのドメイン名でケータイでの使用と
判断しているサービスもあるからね。(ケータイ用のメアドに登録用のメールを送り
それで登録することでそのサービスが使用可能になるという感じ)
また、スマートフォンはワンセグやおサイフケータイといったガラケーでは当然と
いえる機能にもほとんど対応されてないにょ。
これは現在のスマートフォンが元々海外で作られたものだからにょ。
ワンセグやおサイフケータイというのは国内の独自進化の段階で生まれたものであるため
それがガラケーのガラケーたる所以の1つともいえるにょ。
しかし、スマートフォンがより多くの人に受け入れられるためには国内産のガラケー的な
スマートフォン(国内のニーズにマッチしたスマートフォン)も必要になると思われるにょ。
このような理由によりスマートフォンは2台目持ち用として購入する人も少なくないにょ。
2台目用であれば通話のしやすさはそこまで要求されないし、国内向けの独自機能も
1台目のガラケーでまかなえば問題ないからね。
とはいえ、さすがに2台分の料金を支払うのはコスト面の負担が大きすぎるにょ。
私がスマートフォンを欲する理由はやはりネイティブアプリの使用が可能ということと
一般的なガラケーよりも遙かに快適なWeb閲覧が可能になるからということにょ。
ガラケーも初期のiモードのように1ページ2KBまでで画像はGIFのみといった著しい制限が
あった頃とは異なり今となってはかなり高性能化されているし、フルブラウザ登場に
よって一般的なPCサイトも閲覧することが可能になったというのも大きいにょ。
ここ数年はケータイの液晶画面はFWVGAが主流となっており、解像度の面においても一般
サイトを閲覧するのに大きな不満は無くなったしね。
とはいえ、解像度の制約が無くなれば逆にフルブラウザがサポートしている機能の貧弱さが
目立つ結果となったにょ。
所詮はフルブラウザもJAVAアプリにすぎないからね。
その点、スマートフォンであればかつてのPDAのように好きなアプリを導入可能になる
というのは大きいにょ。(iPhone用に関してはWebブラウザはアップル社の規定によって
作ることができないけど)
これはかつてのPDAのようなものにょ。
PDAは事実上姿を消したわけだけどこのようにスマートフォンに形を変えて今も尚、生き
ながらえているということにょ。
私は80年代より電子メモ(シャープのカナメモ)→電子手帳(PA)→PDA(PI、MIザウルス、
CLIE等)と使ってきたけどリナザウ(SL-C750)を最後に新しいPDAは買ってないにょ。
それはPDAは上記のようにスマートフォンへと姿を変えたためにPDAとしての選択肢が無く
なったというものもあるけどPDAの活用方法や認識の変化もあるかもしれないにょ。
当初はあくまで電話番号や住所やスケジュールを書いたいわゆるPIM用として活用して
いたものの徐々に音楽再生、動画再生、Web閲覧などのPC的な使い方のウェイトが大きく
なってしまったからにょ。(96年に購入したPI-6500によって紙の手帳を使うことが
無くなった)
仕事でも使えるからということでA5ファイルサイズのノートPCであるFMV6300MC(中古)を
買ってからはリナザウの出番はかなり減ったにょ。
それは座って使用できる場所では(当時としてもスペックが低かったFMVだけど)PCの方が
圧倒的に快適だからにょ。
しかし、そうなると立った状態でもPCが使えたら便利だろうということで買ったのが
VAIO UX(中古)にょ。
UXを買ってリナザウを持ち歩くことは無くなったのだけどそこで困ったのはメモを取る
という作業ができないことにょ。
普段持ち歩いているノートPCのR5は常時サスペンドであるため4秒くらいで起動するけど
UXはバッテリ駆動時間が短いので常時休止状態で使用しており起動まで40秒くらいかかる
ためにょ。
メモを取るのに40秒も待てないにょ。
自分が待つならまだしも電話越しに今から40秒+α(検索の時間)待ってくれなんて
とても言えないにょ。そういうことで昨年4月26日、今年の2月12日に書いたように再び
紙の手帳が活躍するようになってしまったにょ。
では、スマートフォンを買えば再びデジタルへと戻ることができるのか・・・?
確かにPDA的な使用ができるならばその可能性は高いにょ。
PCとは比べ者にならないくらい起動が速いし、Web閲覧だけを比較してもリナザウに搭載の
Webブラウザ(NetFront3.0)よりは圧倒的に快適だろうからね。
WindowsやIEに依存したようなWebサイトやマシンスペックを要求するようなWebサイトで
あればスマートフォンでは厳しいだろうけどAndroidもFlash10.1に対応したために
多くのサイトで問題なく閲覧ができそうにょ。
Flashに対応していないiPhoneなどはそういった面では厳しいけどYouTubeなどの動画
サイトは専用プレイヤーをで快適に閲覧できるしWebの主流がHTML5に移行すればFlash
非対応というのもそれほど問題ではなくなるにょ。
ニコニコ動画も9月末にHTML5に対応し、Flashに非対応のSafariでも普通に閲覧やコメント
入力が可能になる模様にょ。
http://www.itmedia.co.jp/news/articles/1008/27/news064.html
ただ、やはり手帳代わりにするならば電話機(ケータイ)とは物理的に分離していた
方が都合が良い場面も多いにょ。
そうなると結局ガラケーとスマートフォンの2台持ちという形がベストという結論になって
しまうにょ。
しかし、それは私の場合は資金面の都合で難しいにょ。
では、現状のガラケー+紙の手帳という状態を維持するのが良いのかというば、そういう
わけではないにょ。
要は通話機能の付いてないAndroid OSやiOS搭載機を買えば良いというだけにょ。
これならば月額料金は不要にょ。
通信に関してはPCで使う関係上Pocket WiFiがあるため無線LANさえ搭載していればいい
からね。
そこで私が最も注目しているのが、iPod touchにょ。(スマートフォンと差別化のためか
中途半端に大きなものが多い中、iPod touchだけが小型で高性能を維持している)
来月発表予定の新型はiPhone 4の網膜ディスプレイを搭載した機種になるだろうし、
iOS4が搭載されるだろうからマルチタスクに対応するため私が感じていた不満点はほぼ
解消されることになるにょ。(残りの不満点はFlashに対応していないという点だけど
これは上記のように今となってはそれほど致命的な問題ではない)
ただ、私はiOSを店頭以外でまともに使ったことがないため手帳の代わりになるレベルかは
実際に使ってみないと分からないということにょ。(せめてかつてのPI、MIザウルス並の
使い勝手があれば何とかなるだろうけど)
紙(アナログ)からデジタルへと再び移行できるかどうか判断するのはもう少し後に
なりそうにょ。
USB3.0が普及するための課題
USB3.0もインターフェイスカードおよび対応機器の登場から数ヶ月経ちPCに実際に導入して
いる人も結構いることだと思われるにょ。
すでに高速バスといえばeSATAがあるのだけどUSB3.0のアドバンテージはやはりPCにおいて
デファクトスタンダードといっても良いUSB2.0/1.1と互換性があることだと思うにょ。
「USB3.0の普及は進むか?」というのは論じるまでもなく将来的には現在のUSB2.0が
USB3.0へと置き換わるというだけの話にょ。
そのレベルに達するためにはOSでの標準対応とUSB3.0ホストコントローラがチップセットに
統合されるのは必須といえるにょ。
USB1.1はWin98、USB2.0はWin2K SP4、XP SP1でようやく標準対応したわけだけどUSB3.0は
Win7 SP1から標準対応となるにょ。
ホストコントローラがチップセットに統合されるのはAMDは来年、Intelは再来年以降の
予定となっているにょ。
つまり、本格普及は再来年以降(2012年以降)となるというわえにょ。
したがって、現時点でUSB3.0は「気が付いていたらPCに搭載されていた」という形では
なく「USB3.0を意識的に導入する」という形がメインになるにょ。
PCによってはUSB3.0ホストコントローラを別途組み込むことでUSB3.0対応を謳っている
機種もすでに多く存在しているけどホストコントローラの価格を考えるとローエンドまで
普及するにはチップセットへの統合は不可欠といえるにょ。
さて、ここでUSB3.0に関して一部問題が発生しているにょ。
USB3.0は上記のように「下位互換性(USB2.0/1.1との互換性)がある」ということが
メリットであったけど下位互換のないインターフェイスカードが市場に出回っている
らしいにょ。
http://monoist.atmarkit.co.jp/feledev/articles/fline/02/fline02a.html
現時点での主流となっているUSB3.0のホストコントローラはルネサスエレクトロニクス社
(旧社名:NECエレクトロニクス)のチップだけどそれ以外の台湾ベンダーのチップでは
下位互換のないものが多く存在するため注意が必要になるにょ。
もっとも下位互換がないというだけで「USB3.0専用」として使うのであればそれらの
チップを搭載のインターフェイスカードでも問題はないにょ。
現時点ではUSB2.0インターフェイスを持たないPCは存在しないためUSB3.0専用として使う
のには大きな問題は発生しないにょ。(実際問題のチップを搭載したPCはすでに出回って
いるけどUSB2.0ホストコントローラはチップセットに統合されているものを使用されて
いるのでUSB3.0用とUSB2.0/1.1用と物理的に分かれているため問題ない)
さすがにチップセットに統合される段階でそれはまずいけどね。
「USB3.0専用コネクタなのでUSB2.0/1.1対応の機器は動作しません」なんていうPCが
ユーザーに受け入れられるとは思えないにょ。
現時点だとeSATAは付いているけどUSBインターフェイスは搭載されてないPCが普通に
使えるかどうかを考えれば予想はできると思うにょ。(再来年の時点でほとんどのUSB機器が
3.0専用になるなんてあり得ない話)
USB3.0ホストコントローラのチップセットへの統合は元々は来年に登場するSandy Bridge
世代で行われる予定だったにょ。
http://pc.watch.impress.co.jp/docs/column/interface/20100805_385435.html
それが1世代遅れる予定(まだそれさえも確定ではない)になったのはUSBの下位互換性を
持たせた複雑な転送モードをサポートするために手間がかかっているのではないかと想像
できるにょ。
昨年11月21日には私は「USB3.0はUSB2.0よりも普及が遅い」と予想したにょ。
これは2.0で大きな不満がないのが当時は理由として挙げていたのだけどチップセットの
対応の面からもUSB2.0と比べてUSB3.0の普及の遅れがあるといえるにょ。
USB2.0は規格上の上限速度は1.1の40倍、USB3.0は2.0の10倍と猛烈な勢いで速度が増して
いるけどPC用のインターフェイスの速度でここまで速度が急激に増しているものはあまり
例がないにょ。
1世代で1桁速度が上がっているのはEthernetくらいにょ。
http://pc.watch.impress.co.jp/docs/column/interface/20100819_387760.html
USBやEthernetは幅広く使われ、対応製品を提供するベンダー数が極めて多いために
頻繁に変えられないということで結局1世代で大きくジャンプアップする必要があると
いうわけにょ。
幅広く使われるからこそ互換性を維持するのが大変ともいえるにょ。
現時点では下位互換を重視するならばルネサスエレクトロニクス社製のホストコントローラ
チップ搭載のものを選んで買うしか自衛方法はあるけどまだ初心者が安心してUSB3.0を
導入できる環境下ではないといえそうにょ。(デスクトップPCであればインターフェイス
カードを挿すのに分解が必要であるため初心者が導入するとは思えないけどノートPCで
あればExpressCardスロットに挿すだけなので導入はそんなに難しくない)
「USBポートに正しく挿しているのに使えない」ということが発生してしまうからね。
今後ルネサスエレクトロニクス社以外にも下位互換性のあるホストコントローラチップを
製造するメーカーが現れても下位互換性のないホストコントローラチップは残り続ける
だろうから結局のところチップセットに統合されるまでは初心者でも安心して使える
とは言い難い状況になりそうにょ。
ウォークマンはiPodを超えた!?
8月の国内販売台数はついにウォークマンがiPodを超える見通しが立った模様にょ。
http://www.itmedia.co.jp/news/articles/1008/30/news032.html
カセットテープ時代、MD時代は携帯音楽プレイヤーとして不動の首位ったウォークマンも
MP3プレイヤーの普及とともにその地位が絶対的なものではなくなってきたにょ。
MDプレイヤーもデジタルプレイヤーではあるもののデジタルであるためデータに劣化が
ないということ以外はメリットがなくカセットテープと比べて最大のアドバンテージは
曲の頭出しが楽になったということくらいだからね。
その点、MP3プレイヤーならばMDという物理的なサイズ面、容量的なサイズ面での制約が
なく自由にどんどん入れることができるようになり使い勝手の面で大きく変わったにょ。
確かに初期のMP3プレイヤーはフラッシュメモリが高価ということで容量的な面からも
カセットテープやMDを超えるような存在ではなかったにょ。
私も9年前からMP3プレイヤーを使っているけど当時はザウルスで使用していた予備のCFを
使用していたため30MBしかなく128Kbpsで7曲程度しか入れることができなかったにょ。
このようなフラッシュメモリの容量的な問題点をHDDでまかなったのが初期のiPodにょ。
5〜10GBという容量によってのは当時はフラッシュメモリで実現するのは現実的では
なかったからね。
これによって聴きたい曲をチョイスして入れるというものではなくライブラリ全体を
持ち歩くという革新的な進化が訪れたにょ。
これは初代ウォークマンが音楽を持ち歩くということを実現したのと同レベルのことにょ。
これを後押ししているのが楽曲管理ソフトのiTunesの存在が大きいし、さらにiTunes
Music Storeで本格的なダウンロード販売のシステムを導入したのも大きいにょ。
これらによって他の追従を許さないシステムが構築されて現在に至っているにょ。
この垂直統合のシステムは他社も実現したけどほとんどが上手くいかなかったのでいかに
難しいかということが分かるにょ。
iPodの大躍進によってウォークマンは超えられない2番手の座となってしまったにょ。
ピーク時には市場シェアの80%を獲得していたiPodを抜き去り今回ウォークマンが首位に
なった理由として考えられるのは以下の3つの理由が挙げられるにょ。
(1)9月に新型iPodが発売されるため買い控え
(2)iPhoneが好調であるため
(3)ウォークマンは高音質かつ安価であるため
(1)単純に考えた場合はこれが最大の理由だと思われるにょ。
リンク先のグラフを見てのように昨年9月もiPodが圧倒的なシェアとなっているのは例年
9月に新機種が出るためにょ。
そのため8月はiPodのシェアが最も下がる月なのだけどそれでも今までずっと首位を
保っていたのが保てなくなったというのは別の理由があるためにょ。
(2)iPhoneはiPod touchが持っている機能はすべて持っているにょ。
そのためiPhoneユーザーがiPod touchを買うということは考えにくいにょ。(iPhoneの
割賦金が残っているけど最新の機能を使いたいために新型iPod touchを買うということは
十分に考えられるけどそれはあくまで例外)
容量的なアドバンテージがあるClassicならば買う人(iPhoneの内蔵フラッシュでは自前の
楽曲データがすべて入りきらない人)はいるだろうけどそれは限られるためiPhoneが
好調であることがiPodの売上増加を阻んでいると思われるにょ。
(3)は意外に重要な点にょ。
ウォークマンはiPodと比べて高音質というのは多くの人が感じていることだろうけど
価格面に関してはそうではないという人もいると思うにょ。
実際にライバル同士といえるiPod nanoとウォークマンSを比べてみるとiPod nanoの現行
モデルは価格com最安値で16GBが14696円、8GBが12789円なのに対してウォークマンは
16GB(S645)が11330円、8GB(S644)が9280円となっているにょ。
同一容量のモデルを比較した際にiPodの方が安かったということもかつてはあったけど
近年はウォークマンの価格低下によって実売ベースではここまでの差になっているにょ。
これによってウォークマンがiPodのシェアを奪っているとは一概には言えないけど台湾、
韓国メーカーのプレイヤーのシェアを奪っているのは十分に考えられるにょ。
かつては、iPod&ウォークマン&国内家電メーカー&台湾、韓国メーカーというような
感じで店頭での売場シェア争いが行われていたけど最近は台湾、韓国メーカーの機種は
地方都市ではほとんど店頭で見かけることが無くなったにょ。
これはウォークマンの価格低下によって価格的なアドバンテージが薄れてきたというのも
あるし、ウォークマンがD&D転送に対応したというのもあると思われるにょ。
iTunesを使用している人もD&Dに対応したお陰で楽曲転送できるようになったからね。
つまり、iPodはシェアを伸ばすのは難しい状況になってきているのに対してウォークマンは
どんどんシェアを伸ばしているというのが今回の逆転の最大の理由といえるにょ。
それに8月がiPodのシェアが最も下がる月だからというのが重なったというだけの話にょ。
このままの勢いが続けば8月以外の月もウォークマンが首位に立つことは十分に考え
られると思うにょ。
ハイエンドよりもローエンドよりもミドルクラスの方が安価!?
最近は昔とは異なり自作PCのメリットは減っていると思われるにょ。
昔(90年代)だったら自作すればメーカー製PCより圧倒的な低コストで組めたり高性能な
PCを組めたりしたのだけど最近は一から組むなら直販で買ったのと大して変わらない
金額だったり、保証がない分だけ不利になっているとさえ言えるにょ。
使い回しが効くというのも自作PCの低コストの要因となってきていたのだけどそれも最近は
難しくなってきているにょ。
CPUはソケット規格がどんどん代わりCPUだけの換装は出来にくくなっているし、VGAカード
(ビデオカード)を替えようとすると消費電力アップのため電源交換が必要な場合もある
からね。
自作PCで高コストとなっていたOS(Windows)も使い回しが効かせるためにはFDDと一緒に
購入というパターンが多かったけどすでにFD自体が入手困難になりつつあり、マザー
ボードもFDDに対応しないものが増えているためそれもできないにょ。(USB FDDは
DSPライセンスの対象外)
それでも自作するのは「できるだけ安くしたい(=余分なものは不要)」「できるだけ長く
使いたい(=少しでも使い回せるものは使いたい)」という思いがあるからだと思うにょ。
「安物買いの銭失い」ということわざがあるけどそれならば高価なパーツを使えば
結果として得になるかというとそれも違うにょ。
自作PC用の高価なパーツ(=ハイエンドパーツ)はただ、多少性能がいいというだけの
話だからね。(粗悪品を買わない限りは壊れやすさは価格とはあまり関係ない)
しかも、ハイエンドパーツは価格変動も大きいにょ。
先日もそれまで5万円台で販売されていたCPUである「Core i7-950」がいきなり2万円台に
なったくらいだからね。
http://akiba-pc.watch.impress.co.jp/hotline/20100828/etc_intel.html
なぜいきなり半額近くまで価格が下落したかというとこれはIntelの卸値が562ドルから
294ドルに変更されたからにょ。(秋葉原のような激戦区では価格改定があってから
すぐに変更されるけど地方のPCショップでは高価な時に仕入れた分に関してはそれが
売れるまでは価格を変えないという場合もある)
これが1ドル=100円であれば294ドルのCPUは35000円前後になるだろうけど1ドル=80円台
という円高であるため2万円台となったと思われるにょ。
そもそも562ドルのCPUがいきなり294ドルになる自体がおかしい(徐々に値下げするのが
普通)と思うかもしれないけどこれはIntelのCPUがランクごとに価格を定めている
せいにょ。
このランクごとの価格について少し説明しておくにょ。
分かりやすく説明するために2万円、3万円、6万円の3種類のCPUしかないと考えるにょ。
それぞれが2.6GHz、2.8GHz、3GHzと仮定するにょ。
ここで新たに3.2GHzという従来のものより1ランククロックが高いCPUが販売開始
された場合には6万円よりさらに上・・・ではなくその3.2GHzのものが6万円で販売
されることになるにょ。
つまり、それぞれ1ランクダウンの価格で販売されるということにょ。
《 CPU大幅価格変更の理由 》
6万円のCPU 3 GHz ここで 3.2GHz 新登場
3万円のCPU 2.8GHz 3.2GHz登場 3 GHz ↓1ランクダウン(3万円ダウン)
2万円のCPU 2.6GHz →→→ 2.8GHz ↓1ランクダウン(1万円ダウン)
2.6GHz → ディスコン
この例に挙げた3GHzのCPU(旧価格6万円のCPU)は6万円→3万円と一気に下がっているのに
対して、2.8GHzのCPU(旧価格3万円のCPU)は3万円→2万円の下落に止まっているにょ。
これはあくまで説明のために用意した例とはいえ、実際にハイエンドになればなるほど
1ランクの違いによる価格差は大きくなるので本質的な考えに差異はないにょ。(Core i7
においても562ドルの1ランク下が294ドルであるためi7-950が急激な値下がりをした
わけだし)
わずか半年の間に11万円→6万円→3万円と価格が変動したCore2Quad Q6600の前例を
考えれば今回のCore i7-950の3万円近い価格変動は大したことはないとはいえ、それが
大きいと考える人はハイエンドパーツを買うべきではないにょ。
ハイエンドパーツを買うというのは長く使うためではなく高コストでも「それが必要な人」
もしくは「自己満足」のためだからね。(コストパフォーマンスを重視する人には
ハイエンドはとてもオススメできない)
実際はCore i7だけ見ても「6コアのCPU」「4コア(LGA1366)」「4コア(LGA1156)」の
3つがありその中で各レンジごとに価格が定められているからハイエンドのCPUがミドル
以下の価格まで下りてくることは無くなってきているにょ。
数年前までのようにハイエンドからローエンドまで(シングルコアしかなかったため)
コア数やCPUソケットが同じという状態だったら10万円のCPUが時間が経てば2、3万円で
売られるということもあったけどね。
CPUはこのように四半期もしくは半年ごとに高クロックのものが登場し、これによって
1ランク価格ダウンしているのだけど新CPUというのはIntelの場合は2年サイクル(1年
ごとに「新アーキテクチャの導入→1世代製造プロセスを進める」というのを繰り返して
いる)で投入されているにょ。
そのため価格変動に関してはそれなりに情報を入手していれば事前に察知可能なことと
いえるにょ。
ただ、それだと待てば待つほど安くなるというのが分かるだけであって結果的に余計買い
にくくなるという人もいるかもしれないにょ。
300ドル弱というi7-950の価格帯は半年前ならばi7-860が該当したにょ。
そのため半年前であればi7-860が総予算10万円程度で新規に組む人にとって最もオススメの
CPUだったにょ。
では、i7-860を買うくらいであれば半年待ってi7-950を買うのがお得かというとそうでは
ないと思うにょ。
5万円台のi7-950が2万円台になることによってすごくお買い得感があるように見えるけど
実際は半年待つことによって得られるものは同じ価格で0.26GHzのクロック上昇(i7-860と
i7-950の比較)でしかないわけだからね。
その差は率にしてわずが8%程度でありベンチを実行してようやく分かる程度の差でしか
ないにょ。
ただ、それだけのために半年間待つくらいなら半年前に組んで半年間使い込む方が遙かに
有意義といえるにょ。
いつ組んでも数ヶ月先には確実に値下がりがある(もしくは1ランク上のCPUが同じ価格で
買えるようになる)わけだから「今は買うな時期が悪い」と言い出したらずっと買うことが
できなくなるにょ。
私は現在使っている自作PCは2年前(2008年6月)に組んだにょ。
数ヶ月後にはCore i7が登場するという時期だったのでそれを待って組むという手もあった
けれどCore i7は当初はハイエンドから投入ということだったので予算的に難しいという
のが理由にょ。
ミドルクラスのCore i7であるLynfieldが登場予定なのはさらに翌年だったためさすがに
そこまでは待てないというわけでヘタに待つくらいならさっさと組んだ方が得策という
ことで予算の許せる範囲内で最もコストパフォーマンスに優れたCore2Duo E8400(3GHz)を
購入したにょ。
ハイエンドパーツは価格変動も大きくコストパフォーマンスも悪いということで個人的
には2〜3万円のミドルクラスがオススメだけど1万円前後のローエンドはどうなのかと
いうとこれは良いか悪いかはその人次第といえるにょ。
ミドルクラスでは性能にお釣りがくるくらいでローエンドで余裕という人であれば問題ない
といえるのだけどそうでないならばトータルのコストや手間で考えないといけないにょ。
昔であればCPUは同じアーキテクチャのもの(同じ世代のローエンドとミドルクラスの比較)
であればクロックとL2搭載量だけを比較すれば良かったけど今はそれに加えてコア数
(実行スレッド数)が重要になってきているにょ。
現在のローエンドCPUは2コア2スレッドが主流であり、ミドルクラスは4コア8スレッドが
主流になっているにょ。
そのためクロックが同程度でも実効性能が2倍くらい異なる場合もあるにょ。
これは上記のi7-860とi7-950の比較のように体感できないレベルではなくしっかりと
体感できるレベルの差といえるにょ。
大ざっぱに比較すれば概ねこんな感じにょ。
価格 ローエンド<<ミドルクラス<<<<<<ハイエンド
性能 ローエンド<<<<<<ミドルクラス<<ハイエンド
ローエンドで組んで不満を感じたらこまめに組み直すという方法もあり(これも自作の
醍醐味の1つ)それを考えるとミドルクラスのCPUを買う予算でローエンドCPUは2〜4個
買えるためそれを変えることでトータル的にミドルレンジより安くすることは可能になる
かもしれないにょ。
とはいえ、昨今は冒頭に書いたように規格変動が大きいためマザーボードごと交換する
機会も多くその場合にはローエンドCPUを選択するコスト面のメリットは一気に失われて
しまうにょ。
それに加えて組み直す手間やその間はそのPCが使えないということも考慮しないといけない
と思うにょ。(ローエンドであっても新しいパーツ購入でわくわく感を感じる人や単に組む
という作業に楽しさを感じるレベルの人にとってはデメリットにはならないけど)
PCに必要としているスペックが年々上昇していることを考えると結果としてミドルクラスの
ものの方がローエンドよりも長く使えるため1年当たりのコストを計算するとミドルクラスが
最も安くなるにょ。
そうなると今後数年間は「性能面においてローエンドで十分」という人、もしくは
「予算面でローエンド以外はあり得ない」という人でない限りはミドルクラスが長期的に
トータルで考えたコストにおいてローエンドよりも優れており、コストパフォーマンスを
考えるとハイエンドよりも優れているにょ。
新型iPod発表
日本時間本日未明にiPodの新機種が発表されたにょ。
まずはshuffleを見てみるにょ。
http://av.watch.impress.co.jp/docs/news/20100902_391089.html
こちらは元々シンプルな機種だけに機能の追加なんてものはないけどホイールボタンの
大型化などの操作性の向上が図られているにょ。
積極的に音楽を聴くというユーザーではなく通勤やランニングなどでBGM代わりに聴くと
いう使い方がメインだろうからこれはこれで完成されているしこれ以上容量を増加
させるよりは価格を抑える方がいいのでこれはこれで悪くない製品にょ。
今回最も大きな変貌を遂げたのがnanoにょ。
http://av.watch.impress.co.jp/docs/news/20100902_391085.html
筐体の大幅な小型化によってホイールパッドの省略が行われその代わりタッチパネルが
採用されたにょ。
操作性は全くの別物ということで賛否両論ありそうにょ。
それに前モデルで搭載されていたカメラ機能や動画再生機能も無くなっているからね。
大幅な小型化でクリップ式の筐体というのを見ると「リッチなshuffle」というような
イメージを受けるにょ。
これをnanoと思うから微妙に感じるからであって従来のnanoとshuffleの間を埋める
ような機種と思えば好感が持てるにょ。
shuffleはあまりに機能制限されすぎていてDAPとしては使えないというユーザーにとっては
最適の1台になりそうにょ。
個人的にはDAPはできるだけコンパクトなものが望ましいのでこの新型nanoは歓迎したい
ところにょ。(とはいえブラインド操作できないのは難点であるため購入はしないけど)
しかし、ウォークマンSシリーズがいきなり、Eシリーズと統合されるようなものであり
従来型を求めていた人から不満が出てもおかしくはないにょ。
これが480x480のモニタを搭載し、iPhone用アプリが動作する「iPod touch nano」という
べきような製品であれば一部のコアユーザーからかなり注目されるだろうけどコスト的に
無理だったのかもしれないにょ。
さて、やはり今回の発表会で個人的に最も注目していたのはtouchにょ。
http://av.watch.impress.co.jp/docs/news/20100902_391086.html
高性能A4チップ搭載、960x640の高精細の網膜ディスプレイ搭載、HD動画撮影搭載など
従来のtouchと比べて大幅な機能、性能の向上が図られているにょ。
まさに「3Gを非搭載のiPhone」といっても過言ではない内容にょ。
従来であればiPhoneとの差別化を行うためカメラ機能は省略されていたのだけど今回の
モデルは搭載されているわけだからね。(強いてiPhoneから削られた部分はGPSくらいか)
これによって無線LAN経由でのTV電話である「FaceTime」にも対応しているにょ。
確かに細かい部分を見ればiPhone4よりも機能ダウンや省略されている部分はあるけど
それがどうしても気になるという人であればiPhone4を一括購入し、Wi-Fi専用として使用
すればいいだけの話にょ。
機能的な差の分だけ安いというのもiPod touchの魅力だからね。
米国では8GBで229ドル、32GBで299ドル、64GBで399ドルということで日本のアップル
ストア価格だと従来基準であれば22800円、29800円、39800円になるところだけど円高の
影響か20800円、27800円、36800円となっているにょ。
米国では同一容量では従来機と価格維持となっていたけど日本では事実上値下げと
なったにょ。(これはフラッシュメモリの価格がここ1年ほとんど値下がりしていない
というのが原因なので今後大幅な値下げがない限りは来年のモデルでもメモリ搭載量は
現状維持になりそう)
iPhone 4の32GBは一括購入時は57600円であるためtouchはその半値となるにょ。
これならば多少iPhone 4から省かれた機能があっても十分に許容ができるにょ。
touchは登場時はDAPとして考えた場合には高価でデカイとあまり良い印象ではなかった
けれどiPhoneの登場によってアプリが急速に増えてその魅力は大きく増したにょ。
確かにDAPとして考えれば大きいけどこれは昔ザウルス等のPDAを使って音楽を聴いていた
ことを考えれば十分許容できる(むしろザウルスよりも圧倒的に小型軽量)と思うにょ。
それでも気になるのならばnanoを併用するという方法もあるからね。
恐らくnanoの今回の大幅なモデルチェンジはtouchを完全にメインに据えているからだと
思われるにょ。
8月31日にはiPhoneの普及がiPodの売上増加を阻んでいると書いたのだけどここまでnanoを
小型化すればサブ用、音楽専用として別途持ち歩く人がいるだろうからね。
だからこそiPod touchは音楽を重視したアピールをしなくても良くなるということにょ。
32GB版の27800円はPDA(小型なモバイル端末)として考えれば決して高価ではないにょ。
むしろここまでの機能、性能を考慮すれば安いとさえ感じるにょ。
そういうことでiPod touchといえばやはりアプリにょ。
iOS4.1搭載によってマルチタスクに対応したためにその価値はさらに高まるにょ。
各種PIMアプリを導入すればPDAとして使えるしね。
8月29日にスマートフォンは欲しいけど2台持ちになるとコストがかかるため導入には
踏み切れないということで通信などの専用端末が欲しいという私の要望にぴったり合った
端末ともいえるにょ。
touch+3G対応モバイルルータがあれば3G通信ができる場所であればどこでも通信が可能に
なるためtouchの活用範囲はさらに広がるにょ。
そのために私は4月にPocket Wi-Fiを導入したからね。
さて、問題は買うなら8GB、32GB、64GBのどれにするのか・・・ということだけどやはり
アプリを積極活用するとなれば8Gは論外にょ。
最小限のアプリだけ導入してPDA的に活用するのであれば8GBあれば十分使えるけど
ゲームとかもやってみたいとなると最低でも32GBは欲しいからね。
何せアプリは最大で2GBまで対応しているわけだから大容量アプリを導入したら8GBなんて
あっという間で埋まってしまうし、アプリは使わなくても音楽だけでも8GBくらいは
使用する人は多いだろうし、動画再生を行うとなれば厳しいにょ。
64GBと32GBの価格差は9000円であるため容量の差を考えるとこれは好みの問題にょ。
64GBは決して高価ではないからね。
とはいえ、ユーザーの手によるバッテリは交換不可(メーカー修理扱いで交換可能)と
いうことを考えると32GBで足らなくなりかもしれないという人で無ければ無理に64GB
モデルを買うまでもないにょ。
「バッテリの寿命=本体の寿命」というくらいの認識である必要があるためバッテリが
劣化したら買い換えるのがベストとなるからにょ。(それまでに32GBが埋まってしまう
と考えてしまう人は64GBを買うのがベター)
旧機種をわざわざメーカーにバッテリ交換を出してもコストの割りが合わないというだけ
ではなくその間は使えないという問題もあるからね。
iPod touchは上記のように金銭的な面でiPhone4を使えないという人に有用(softbank
だからiPhoneは使いたくないというのが理由であればモバイルルータを使うということが
許容できない人だろうから機能削減されたtouchを購入する理由は何もない)ということで
潜在的なユーザー数は多いと思われるにょ。
57600円払って通話機能の全くないiPhone4を手に入れたいという人はそれほど多くはない
と思うからね。
やはり、iPod touchの潜在的需要はかなり多いと思われるにょ。(8月29日にはiPhoneが
売れればtouchが売れなくなると書いたけどコスト面を考えれば需要が多くてもiPhoneを
導入しない人は多いため現実的にはiPod touchの需要増加の方が多いくらいだと思う)
そうなるとiPod touchは発売時には生産が需要に追いつけず争奪戦は必至となりそうにょ。
nanoは主役ではなくなった・・・なの
今回発表されたiPodで最も変化が大きいものはnanoだけど今回の発表された内容を見る
限りは主役はtouch(iOS搭載機)に感じたにょ。
昨日も書いたようにnanoの大きな変化はtouchを引き立てるものとなっているわけだしね。
「nanoを買うかtouchを買うか」という選択はユーザーにとっては悩みの種だったけど
新型nanoではUIをtouchと同じくマルチタッチ対応のタッチパネルによるものに変わった
ため「両方を買う」という選択肢が従来より濃くなったと感じるにょ。
その理由を書いてみるにょ。
iPodはその革新的なコンセプトによって多くのユーザーの支持を得ており、それはシェア
にも現れているのだけど8月31日に書いたように8月の国内シェアは久々にウォークマンに
負ける結果となったにょ。
これは8月というiPodにとって新製品発表前の不利な時期というのを差し引いてもiPod
よりもウォークマンを支持している人が増えたということは事実だと思うにょ。
それはウォークマンがDAPとして優れているということを意味するにょ。
iPodを支えてきたものの1つとしては「操作性の良さ」が挙げられるけどこれはクリック
ホイールによる独自操作によるものが大きいにょ。
このアナログ操作による曲選択の快適さはカーソル操作によるデジタル操作では得ることは
できないものがあるからね。
しかし、新型nanoではそれを捨ててしまったにょ。
確かにタッチパネルにはタッチパネルの良さがあるけど指で操作した際に画面の大半が
隠れるような小さな液晶画面ではそれを活かすことはできないにょ。
私の体感だと指で操作するならば2.5インチ程度がまともに使用できる限界に感じるにょ。
タッチパネル搭載のPCを持っているならば1.5インチ程度のWindowsを作りその中にアイコン
表示をした場合に快適に操作可能か自分自身で確かめてみるといいにょ。
4.5インチWSVGA液晶(264ppi)のVAIO UXならば286ピクセル四方の領域がnanoと同じく
1.54インチに相当するにょ。(実際に試したけどとても満足行くようなレベルではない)
またDAPとして使うならば再生、停止、早送りなどはブラインド操作できるものが望ましい
けれどそれはタッチパネルで操作する以上はそれは無理になるにょ。
大きな支持を得ていたクリックホイールをやめてタッチパネル主体の操作に変えるという
ことはnanoを主力商品と考えていたらできないことにょ。(Classicもタッチパネル主体の
操作にするべきかとなるとあれは従来の方式を好んでいる人のためのものなのでありえない
わけだし、1.8インチHDDがボトルネックになるため全面液晶にしたら大きくて重いtouchに
なってしまう)
多くの人はnanoを大きすぎるとは考えてないし、小さくすることで筐体サイズで見た分類
ではshuffleと被ってしまう形になるにょ。
個人的にはDAPは「小さい方が望ましい」と考えているけどそれはある程度快適な操作性が
実現できた上での話にょ。
せめて、nanoも再生、停止、早送り、ホールドボタンをハードウェアとして実装していた
ならば評価が大きく変わっただろうけどこの第6世代nanoを見る限りかなり無理な小型化
と思えて仕方がないにょ。
では、それでもタッチパネル主体の操作になっているのはtouchと操作性を合わせている
ということにょ。
touchに慣れている人であればクリックホイールも良いとは言えないわけだし(多少は
慣れが必要であるため)そこまでハードウェアのボタンに拘る人も少ないと思われるにょ。
そこまでtouchを中心に考えるほど売れているのか実際のランキングで見てみるにょ。
8月の携帯オーディオプレイヤー(BCNランキング)
http://bcnranking.jp/category/subcategory_0004_month.html
1位 iPod touch 32GB
2位 iPod nano 8GB ピンク
3位 iPod touch 8GB
4位 ウォークマンS ホワイト
5位 ウォークマンS ピンク
(以下略)
確かに1位と3位(前月は1位、2位)ということで売れているというのには間違いない
けれどBCNランキングは色別に出ているため色違いがないtouchはランキング的には有利に
働くためこれだけでは何とも言えないにょ。
しかし、touchだけではなくiPhoneを加えると話は変わるにょ。
touchはiPhoneから3G通信などの機能を無くして安くしたものと考えられるため(順番から
いえばtouchの方が先だからtouchに3G通信その他を付けてスマートフォンとして売り出した
ものという方が正しいのだけどDAP視点ではこのようになる)事実上両者は同一ジャンルの
商品(iOS搭載の小型機)として考える必要があるからね。
touchはiPhoneが無かったらもっと売れているのは確実だろうけどiPhoneがあったからこそ
touchに注目が集まりだしたともいえるため両者は相乗効果で伸びているとも言えるにょ。
nanoはライバルであるウォークマンSがあまりに強いため端末だけで見るとかなり苦戦を
強いられているにょ。
「クリックホイールがあるからウォークマンSではなくiPod nanoを選んだ」という人は
かなり限られるのではないかと思うにょ。
やはり、ブランド力だけではなくiTSによる音楽配信などを理由に挙げる人の方が多いの
ではないかと思うにょ。
iPodの中から選択する場合、音楽しか聴かないからtouchの機能、性能は要らないし、
shuffleはあまりに機能が制限されすぎているということで消去法でnanoを選んでいる人も
最近は多いだろうからね。
そういう消極的な選択を行う人の場合はiPhoneを買ったらnanoを買うことはないにょ。
だからこそiPhoneを買ってさらにもう1台という形で違和感のないサイズ、操作性という
ことで考えられたのが今回の第6世代のnanoだと思うにょ。
ただ、それが良いかどうかは現時点では仕様だけから判断すると「微妙」としかいえず、
これが結果として良いか悪いかは発売後に実際に購入したユーザーからの反応や売上を
元に判断するしかないにょ。
タブレット端末は本当に普及するのか?
さて、先日は新型iPodの発表があったのだけどこの度各社からiPad対抗となるような製品が
発表されたにょ。
東芝「FOLIO 100」
http://www.itmedia.co.jp/news/articles/1009/03/news029.html
サムスン「GALAXY Tab」
http://www.itmedia.co.jp/news/articles/1009/03/news026.html
写真だけでは分かりにくいけどすでに実際に使用している動画が公開されているので
それを見てサイズや動作の快適さを実感してみるといいにょ。
http://www.itmedia.co.jp/news/articles/1009/03/news083.html
さて、このようなタブレット型の端末は今後非常に多くの種類が発表、発売予定となって
いるにょ。
それらの多くは液晶サイズは7〜10インチ程度となっているにょ。
その理由となるのがタブレット端末は手に持って使う機会が多いため軽量なものが望ましい
ということに加えてあまり小型になりすぎるとスマートフォンとの棲み分けができない
という問題点があるからにょ。
実際スマートフォンはここ最近急増していて2015年には国内の携帯契約の半分近くを
スマートフォンが占めるという予想が出ているにょ。
http://www.itmedia.co.jp/promobile/articles/1009/01/news092.html
では、タブレット端末がスマートフォンと棲み分けをするといっても実際にどのように
行うかとうことが問題となってくるにょ。
すでに、タブレット端末として発売されており、唯一のヒット製品といっていいiPadだけど
価格comがiPadユーザーに対してアンケート調査をしてみたところ「7割弱(66.4%)が
自宅で使う」という結果になった模様にょ。
http://www.itmedia.co.jp/promobile/articles/1009/03/news080.html
これは自宅に居るときにノートPCなどの代わりにネット用の端末として主に活用している
ということがいえるにょ。
私を含め「自宅にいるならPCを使った方が便利」という意見の人も多そうにょ。
しかし、多くの人がPCがあるにも関わらずiPadを活用しているというのは「自宅に居ても
自分用のPCがない」という場合や「PCだと起動するのに時間がかかる」というのが
ありそうにょ。
前者においてはその役割はネットブックが担っていたにょ。
ネットブックがヒットすることで前者の意見の人はかなり減ったと思われるけどその
反面浮上してきたのが後者の意見だと思うにょ。
一般的に言ってPCは使うときに立ち上げ、使い終わったらシャットダウンという使い方が
メインとなっているからね。
さすがに常にコールドブートしていたら気軽に使うということはさすがにできないため
どうしても必要な時だけ使用するということになってしまいがちにょ。
Vista以降はスリープモードを搭載によってシャットダウンをするという人は減ったと
思われるけどネットブックにおいて主に使用されているOSはXPでありスリープモードは搭載
されてないにょ。
XPでもスタンバイ(サスペンド)を活用すればいいというだけの話とはいえ、実際常時
サスペンドでネットブックを活用している人はほとんどいないと思われるにょ。
私はLet'snote R5において常時スタンバイで運用しているけどこれはバッテリがフル
充電であれば10日〜2週間はメモリ保持ができるためであり、ここまでできるような
ネットブックは存在しないにょ。(R5をサスペンド状態で放置して試してみたら24時間
あたり8%のバッテリ消費となったため単純計算ではフル充電で約300時間となる)
XPのスタンバイはVistaのハイブリッドスリープとは異なりバッテリ切れでメモリ保持が
できなくなったら終わりだからね。
つまり、PCを常にコールドブートしているようなユーザーにとってタブレット端末は
高速起動の夢の端末になってしまうということにょ。
その上、1〜1.2kgもあるネットブックと比べ圧倒的に軽いし、バッテリ駆動時間も長い
ということで家庭内モバイルだけを見てもネットブックより多くの場所で活用が可能に
なるということがいえるにょ。
個人的にはiPadとネットブックが直接競合するわけではないと思ってはいるものの
iPad発売後はネットブックの売り上げが大幅ダウンしているということを考えるとやはり
ネットブックの代わりにiPadを使っているという人が多いといえるにょ。
タブレット端末は高性能スマートフォンと大して性能差はないとはいえ、自宅で使うのが
メインとなると画面サイズが大きなタブレット端末が有利になるにょ。
実際上記アンケート調査でもiPadユーザーはiPadを持ってない人と比べてiPhone所有率が
高くこれは言い換えるとiPhoneを持っていてもiPadを活用しているということになり
iPhoneがあるからiPadは不必要と単純に言えるものではないということにょ。
スマートフォンの多くは画面サイズが4インチ前後でWVGAの液晶モニタを備えているにょ。
それに対して現在発表されているタブレット端末の多くは7〜10インチでWSVGAの液晶
モニタを備えているにょ。
できること自体に大差がないといってもどちらが快適かというとそれは言うまでもない
ことだと思うにょ。
問題はタブレット端末はPCを持ってない人が買うべき端末ではないということにょ。
確かに「Windowsでないとできないこと」というのは近年減っているとはいえまだまだ
Windows PCが必要になる機会も多いからね。
実際iPadを最初に使う際にはアクティべーションが必要なのでPCは必需品といえるにょ。
これはタブレット端末の中でもiPadが例外といえることだけど実際に売れている端末の
大半がiPadであるため無視はできないにょ。
結局(非Windowsの)タブレット端末はPCを持っている人が買うべき製品ということにょ。
そうなるとネットブックがヒットしたということがタブレット端末の追い風になっている
ともいえるにょ。
さて、さらに問題となるのははその金額を投資するに値するような製品かどうかという
ことにょ。
自宅でしか使わないのなら別にタブレット端末は要らないという人も多いのではないか
と思うにょ。
実際、ネットブックの重量で家庭内モバイルで困る機会も少ないだろうしバッテリ駆動
時間が多少短くてもすぐに電源確保できるるからいざとなればACに挿して使えばいいと
いうだけの話だからね。
とはいえ、さすがにモバイルするとなると変わってくるにょ。
ネットブックのサイズ、重量でも持ち歩くのには不適と感じている人が多いのではないか
と思われるにょ。(というか、持ち歩く人が少ないからより使いやすいサイズに大型化
されてしまったわけだし)
その点、タブレット端末は重量面、サイズ面でネットブックより有利なものが多いにょ。
iPadは画面が大きいということがメリットだったけどその反面約700gという重量に不満を
持つ人が多かったにょ。(これもWindows PCの感覚でいえば画面サイズの割りに軽量なの
だけどアンケートでは移動中に使用すると答えた人は8.9%しかいない)
5月17日にも書いたように例え1kgであっても「実際に使うかどうか分からないようなPC」を
常にバッグに入れておくなんてなかなかできないからね。
しかし、上記のサムスン「GALAXY Tab」は7インチで380gという軽量化なものになって
いるにょ。
このサイズ、重量ではネットブックの持ち歩きに躊躇していた人にとっても有効活用
可能になるにょ。
iPadも来年には7インチ液晶搭載の小型軽量モデルが登場するという噂もあるからね。
持ち歩いて使えるというのであればPCを持っていても十分買う価値はあるだろうから
ヒットに繋がる可能性はあるにょ。
「ネットブックよりも小型軽量」であり「手に持った状態で使える」ため電車などでも
気軽に取り出して使うことができるというのはネットブックに対して大きなアドバンテージ
であり、スマートフォンに対しては「画面サイズや解像度で優れている」という
アドバンテージがあるわけだしね。
ただ、現時点では安価な端末はほとんど3G通信は内蔵されておらず無線LANのみ搭載と
なっているにょ。(3G通信が内蔵されても別途料金がかかるとなると微妙だけど)
そのためモバイルルータを別に買うか無線LANが使える場所で使わざるを得ない状況に
なっているにょ。
そのためモバイル時の通信ではスマートフォンの方が有利であるといえるにょ。
したがって、タブレット端末が普及するには通信インフラとそれを利用するためのコストが
重要となるにょ。
新型iPod touchは私が求めていたPDAなのか・・・?
私は過去に8台のDAP(PDAの音楽再生機能は除く)を使ってきたにょ。
その経験から導き出された私がDAPに求めているものは4月24日に書いたような8つの項目が
あるにょ。
(1)最低8GB、できれば16GBの容量
(2)実駆動で最低10時間、できれば20時間以上
(3)小型・軽量
(4)曲名やアルバム名が確認できるくらいの画面解像度
(5)エクスプローラからD&Dで転送可能
(6)フォルダ管理が可能
(7)ストレスを感じさせない操作性
(8)予算は最大で2万円(できれば1万円以内)
先日発表された新型iPad nanoは一昨日書いたように操作性を疑問視しているため残念ながら
(7)を満たせないので私が求めているようなDAPではないにょ。(ただし、(5)、(6)は妥協
した場合)
旧nanoは(5)、(6)さえ妥協すれば残りの条件を満たすことができたにょ。(現時点で
すべての項目を満たせるのは普通に店頭入手可能な製品の中ではウォークマンSくらい
なので次にDAPを買うならば現時点ではウォークマンSが最有力候補となっている)
ではtouchはどうなのかというと(3)(7)(8)を満たせないにょ。
よって、touchはDAPとして考えた場合には私の理想には全然達しないにょ。
しかし、これがPDAとして考えた場合にはまた変わってくるにょ。
では、私がPDAに求めるものは何なのか・・・?
今から5年前の2005年8月9日〜11日の3日間に渡って書いたときは下記のようなもの
だったにょ。
◎ハード面
(a)小型軽量(概ね5インチ×4インチ×1インチ、1ポンド程度)
(b)長時間駆動可能(実駆動時間8時間以上)
(c)それなりに使えるキーボード(PC-E500程度の使いやすさは欲しい)
(d)解像度VGA以上の液晶
◎ソフト面
(e)Webブラウザ(タブ機能必須、出来ればFlash対応)
(f)PIM(MI、PIザウルス並の使いやすいもの)
(g)テキストエディタ
(h)音楽、動画再生機能(出来ればSD-VIDEO再生可能なもの)
しかし、これは普遍のものではなく時代や環境によって変化しており、現時点では下記の
ようなものになっているにょ。
5年前だとPCで動画再生するならPen3 1GHzくらいあれば十分だったけど今はそれでは
全く足りないわけだからスペック1つをとっても普遍であるはずがないということが分かる
と思うにょ。
というわけで、私がPDAに求めているものを改めて書いてみるにょ。
《 私がPDAに求めるもの 》 ver.2010
(1)無線LANによる通信が可能
(2)WVGA以上の解像度の液晶画面
(3)小型・軽量(モバイルランクAに相当するレベル)
(4)実駆動8時間以上
(5)それなりに快適にテキスト入力が行える
(6)まともに使えるWebブラウザがある
(7)使いやすいPIMアプリがある
(8)安価(3万円以下)
(1)〜(5)がハードウェアに関するもの(5)〜(7)がソフトウェアに関するもの(8)はそれ以外
となっているにょ。
というわけで、以下はそれぞれの具体的な説明となるにょ。
(1)これは説明するまでもなく今は通信をするのに必要不可欠となるにょ。
必需品であるため「内蔵されていないもの」は自動的に対象外となるにょ。
とはいえ、今時の端末で内蔵されてないようなものはないだろうけど・・・。
(2)今時はケータイでもWVGAは当たり前といっていい状況なので少なくともそれくらいは
ないとPDAとしてケータイ以外のものを持ち歩く(ケータイと棲み分けをする)メリットが
全くないからね。
これはWeb閲覧などビューア目的で使用するためであり、PIM専用と割り切れるのであれば
QVGAでも問題ないにょ。
ただし、それならばカラー液晶である必要さえなく、反射型モノクロ液晶で十分となって
しまうにょ。
PIM専用の超安価なモノクロPDAなんてものがあればいいけどそれならば旧世代のPDAを
中古で買えばいいという話になってしまうにょ。(旧世代のPDAでも乾電池式であれば
PCとのシンクロを考えない場合PIM用途なら十分現役として使えるため)
(3)これはどの程度かという具体的な数値を持ち出さないと分かりにくいと思うにょ。
5年前に書いた「概ね5インチ×4インチ×1インチ、1ポンド程度」(ほぼリナザウサイズ)
というのが1つの基準となるにょ。
ここで問題となるのは当時はA5ファイルサイズのモバイルノートとの棲み分けとして
そのサイズを考えていたというのが大きいけど今ならばポケットに何とか収まる程度の
小型のWindows PC(PMやBXなど)が安価で入手可能だからね。
それにポケットサイズPCといえば私は現在VAIO UXを使っているにょ。
それらと棲み分けを行えるくらいの小型軽量なものを求めているということにょ。
私はモバイル機器にはサイズや使用頻度によってモバイルランクを定めているけど
ケータイはランクA、ポケットサイズPCはランクBとなり、もしも新しいPDAを買う場合は
限りなくランクAに近いB、もしくはランクAになるようなものにしたいということにょ。
UXを買ってからポケットサイズPCをPDA代わりに使うというのは幻想であることに気づいた
からね。
だから、ポケットサイズPCには良さがあるもののそれを持っていることを前提(それらとの
棲み分けが行える)PDAを考えた場合にはWindows PCでは実現不可能なサイズになるにょ。
ランクA並となるとモバイル機器ではないものの普段使っている手帳の外寸サイズは
10.5×8×0.8cm程度であり、最大でもこれと同レベルのサイズが求められるからね。
(4)Windows PCであっても今後はチップの統合によってさらに小型化が可能になれば(3)を
満たせるようになるだろうけどその場合であってもバッテリ容量を削る必要があるため
(4)を満たすのは難しいにょ。
現在もAtom Z搭載のWindows PCであってもARM搭載の端末の数倍の容量のバッテリを搭載
すれば同一レベルの駆動時間は実現可能になるにょ。
これは5月8日に書いたように実駆動2倍程度の消費電力の差があるからね。
それ以上に問題なのは動作時の消費電力ではなくサスペンド時の消費電力にょ。
昨日はノートPCを持っていても自宅でiPadを使用している人が多い理由として起動時間が
短いということが挙げられたけどこれは端末をコールドブートしているのではなく単に
サスペンドから復帰しているだけにすぎないからにょ。
Windows PCであってもサスペンドからの復帰であれば数秒で起動するけどWindows PCだと
サスペンド中の消費電力もバカにはならないにょ。
昨年12月7日に「私がポケットサイズPCに求めるもの」ということでサスペンド時の
メモリ保持1週間(24時間×7=168時間)可能なものというのを理想としてあげたけど
これができるようなポケットサイズPCはほぼないにょ。(Viliv S5くらい)
VAIO UXでもたったの40時間程度だからね。
サスペンド時のメモリ保持時間が50時間のPCを2日に1回充電する場合、実駆動8時間で
あっても実際に使える時間はゼロに等しいものになるにょ。(残量0%まで使えるとした
場合に単純計算で実駆動8時間駆動のPCが実駆動20分になってしまう)
OakTrailでこれは大幅改善されるだろうけど現時点で製品がない以上は比較対象に挙げる
ことはできないにょ。
(5)はソフトウェアとハードウェアの両方を意味しているにょ。
ハードウェアとしてキーボードを備えているのがベストだけどソフトウェア入力でも
十分に妥協できるレベルならばそれでも許容できるというわけにょ。
そもそも今となってはPDAはただのメモ書きやPIMの入力程度であるためそれさえこなせる
レベルであれば問題ないので「(ここで書いているレベルの)長文を入力する」なんて
ことは求めてないにょ。
したがって、6月11日に書いたようにハードウェアのキーボードがあるにこしたことはない
けれどそれがないことで薄型、軽量が実現できるのであれば「キーボードがない」という
選択肢を積極的に求めていきたいにょ。
(6)「まともに使えるWebブラウザ」とは何ぞや・・・という意見のある人がいるだろうけど
一般的にPC用として多く使われているレベル(IE8、chrome、Firefoxなど)であれば
十分ということにょ。
リナザウに搭載のWebブラウザ(NetFront 3.0)は今となってはお世辞にも「十分」とは
言えないレベルにょ。(今ならばFlash10.1、Ajaxなどに対応してないと・・・)
ケータイのフルブラウザの方がマシと思えるシーンさえあるからね。
ケータイの場合はPC用サイトが見れないとしてもケータイ向けのモバイルサイトを利用する
という方法もあるけどケータイではないPDAであればそのようなサイトは利用できない
場合もあるにょ。
Web閲覧なんてWin95+IE3.0で十分というような人であればPDAにそんな高性能なWeb
ブラウザは不要だろうけどケータイのフルブラウザ以下であればWeb利用としてPDAを
使用する意味はほとんどなくなってしまうにょ。(それこそモノクロPDAで十分となる)
Webの利用という観点だけをみれば「ケータイ<PDA<PC」のような感覚でありケータイと
PCは持ち歩いているということを前提に考えてPDAですべてのサイトが完璧に見れる必要は
ないけどあまり不満なく見れるということが重要になってくるわけにょ。
(7)「使いやすい」というのは主観が入るためどうしても難しくなってしまうにょ。
そのため実際に自分である程度使ってみないと使いやすいかどうかは分からないにょ。
「慣れの問題」か「自分に合わない」かというのは少し使っただけでは判断が難しい
場合があるからね。
そのため、この項目に関しては具体的にこうすべきというものはあえて挙げないように
するにょ。
個人的にはPI、MIザウルスのPIMは比較的使いやすかったにょ。
(8)なんといっても価格は重要にょ。
ただ、価格の基準は時代によってかなり変わってくるにょ。
実際PCの価格も昔と今では変わっているわけだしね。
PDAに関しては10年前は7万円、5年前は5万円が1つの基準だったけど今ならばそれは
3万円にょ。
5万円出せばポケットサイズのWindows PCが手に入る以上はそれよりも低コストで作れる
品に対して5万円以上を払う気にはなれないからね。(実際はPMは特売では3万円程度で
販売されていたわけだし)
つまり、3万円というのは無茶な要求ではなく現実的な要求であるといえるにょ。
「小さい方が高いのが当たり前」というのがかつてのモバイルPCでの一般論だったけど
これはネットブックが低コスト、大量生産によって安価に作れることが実証されたわけ
だからね。
Atom Nよりコスト面で不利だし、ネットブックほどの量産化がされてないAtom Zを用いた
ポケットサイズPCでも5万円程度となるとよほどコストをかけた小型化、軽量化でない
限りは高価になるという理由にはならないにょ。(モバイルノートが今も尚高価である
のは軽量化にコストがかかっているというのもある)
現状でAtom Zを用いたリナザウサイズ、重量のWindows PCを作れば高密度基板が必要
だし、メモリも高価でも高容量のものを使用することになるため結果として高コストに
なってしまうにょ。(安価で済ますならばPMのサイズとなるだけでありあれが今の技術の
限界というわけではない)
その点、ARM搭載端末であれば小型化においてWindows PCよりも容易にょ。
(1)〜(7)は実際のところ最新のハイエンドスマートフォンを買えばほぼ解決出来るレベル
であり決して難しいものではないにょ。
だから設けたのが(8)のラインにょ。
例えばiPhoneが欲しいと考えた場合、現在使っているガラケーと併用した場合には
「維持費がかかる」とか「回線がsoftbankだから」という理由で買わない人もいること
だと思うにょ。
ただし、PDAとして使う場合(つまり、通信回線は無線LAN経由でのみ使用する場合)
それらはネックにはならないにょ。
iPhoneを一括で購入し、回線契約を解約すれば済むという問題だからね。
昔は、端末代金は月々の使用料金を考慮した価格(簡単に言うとインセンティブの含まれた
価格)となっていたために新規即解はモラルに反するという認識も強かったけれど今は
少なくともsoftbankは一括購入時はインセが含まれない価格となっているため即解は
問題のあることではないにょ。(端末販売だけでも利益が出せる価格となっている)
iPhone4(32GB)を一括購入すると57600円となるにょ。
つまり、これだけ払えば無線LAN専用のPDAとしてiPhone4が手に入るわけにょ。(実際は
新規契約と初回分の月額使用料が必要)
つまり、PDAに5万円以上出せるという人であればスマートフォン全盛の今となっては
選択肢がいくらでもあるということにょ。
ただし、PDAとして使用する場合には使えない3G通信部分やその他のものに余分なコストを
支払うことになるにょ。
金はあるからそんなのは気にしないという人であればいいけど残念ながら私はそんなに
裕福ではない貧乏性なので使えないものに投資はできないにょ。
要するに私がPDAに感じている価値がその程度(3万円程度)だといえるわけにょ。
あと5年前に書いたような動画、音楽再生機能は要らないのか?というとそうではなく
「必要不可欠なもの」から「あれば利用する」という程度に変わっただけにょ。
というか、現在のAndroid、iOS端末でそれらが再生できないという端末もないしね。
それから、そういった動画や音楽の利用だけではなくアプリの積極的な利用を考えると
ストレージは最低でも16GBは欲しいにょ。
micro SDHCに対応しているならばそれでいいけど内蔵メモリだけであれば最低でも16GB
以上搭載されたものを望みたいにょ。
以上を元に考えるとiPod touchはほとんどの項目を満たすことが出来ていると思うにょ。
WebブラウザはFlashに対応していないという問題があるし、PIMアプリは本当に使い
やすいものがあるのか実際に使わないと分からないという不安要素もあるけどね。
しかし、定価27800円と従来モデルより2000円値下げされただけでなく液晶画面の解像度も
960×640へと大幅強化されたしね。
それにiOS4.1搭載でマルチタスクに対応したのも大きいにょ。
サイズ面も111×58.9×7.2mm、101gであるためWVGA以上の液晶を備えたPDA(ネイティブ
アプリが動作するWeb端末)の中では最小の部類になるにょ。
iPhone4との差別化のためGPSこそ内蔵してないけど各種センサーは同様に搭載しているし
カメラやマイクも備えているためそれらに対応したアプリも利用することが可能になった
というのは大きいにょ。(カメラ自体はiPhone 4より貧弱だけど搭載されているだけマシ)
従来のtouchでは内蔵されてないため「iOS搭載だけど使えないアプリ」というものが
結構あったのが無くなるということだけでもかなり良いことだと思うにょ。
現時点で唯一感じている難点といえば、脱獄しない限りはアップル認証のアプリしか導入
できないということかもしれないにょ。
新しいデジカメを買った理由
新しいデジカメを買ったにょ。
買った機種はPanasonicのLUMIX FX66にょ。
http://dc.watch.impress.co.jp/docs/review/newproduct/20100408_359720.html
といっても4週間後の妹の誕生日プレゼント用だけどね。(保護フィルタとSDHCもセットで
プレゼント)
近所のキタムラで14400円の破格値だったにょ。(ちなみに色はピンク)
半年前の発売当初の価格は3.5万円くらいの機種なのでお買い得感は非常に高いにょ。
ここ10年くらいは毎年デジタル関係の品ばかりプレゼントしているけど今年の候補に
挙げたのはデジカメ、プリンタ、デジタルフォトフレームだったにょ。
昨年は写真加工用としてペンタブレット+2GBのDDR2メモリをプレゼントしたけどやはり
そうなると加工したもの飾りたくなるのではないかと考えたからにょ。
とはいえ、プリンタは4年前にプレゼントしたL版、ハガキサイズ用のものがあるため
それより大きなものにプリントしたいと思うかが重要にょ。
そうなるとまず大きなプリントをしたいと思わせるには元となる写真がキレイに撮れる
必要があるのではないかと考えたにょ。
妹が現在使っているデジカメは500万画素のFX7にょ。
さすがに6年前の機種ということで現在のものと比べるとかなり劣るとはいえ、普通に
使うのは十分なのでよほど理由がないと買い換えの必要性を感じないかもしれないにょ。
一応古い機種とはいえ光学式手ぶれ補正機能が付いているからね。
光学式手ぶれ補正機能は2005年くらいから採用機種が増えて今ではほぼすべての機種に
搭載されているもののエントリークラスの機種には電子式手ぶれ補正機能しか搭載されて
ない場合が多いから安くても「初心者向け」とは言い難いにょ。
そういうことで、デジカメをプレゼントしようと考えたけど実売1万円台のコンデジは
かなり多くの機種がある中でFX66を選んだのは下記のような理由があるからにょ。
(1)超解像に対応した1400万画素
(2)広角25mm(相当)からの5倍ズーム搭載
(3)SDXC対応
(4)クラス最速AF
(5)コスメティックモード搭載
(1)「高画素=高画質」ではないということはここで何度も書いたけどやはり画素数は
少ないよりも多いと考える人が多いからね。
1/2.3インチセンサーでは1000万画素以上ではまともに解像している機種は皆無とは
いえこの機種以降のPanasonicのデジカメは超解像モードが搭載されているにょ。
動画において超解像は非常に有用なのだけどそれは前後フレームのデータを利用できる
というのが大きいにょ。
静止画においてはその画像だけでは情報量不足で解像していないものを解像するという
のは不可能にょ。
したがって、超解像というのはシャープネスの一種にすぎないにょ。
とはいえ、一旦JPEGとして生成されたものにシャープネスをかけるというのとは異なり
内部で画像解析を行い部分的にシャープネスの度合いを変えるという仕組みのため
一般的なフォトレタッチソフトを用いて均一にシャープネスを高めるよりは遙かに効果的と
なっているにょ。(後からレタッチするのではなく一般的なデジカメでシャープネスを高め
撮影した場合でも線が太くなり、不自然な描写になってしまうことが多い)
解像してないものを解像するほどの効果はないけどぼやけて形が見えないものが何となく
見えるレベルにはなるため非常に有用にょ。
ただし、4月11日に書いたように1/2.33インチ、1400万画素センサーの場合はF2.7で回折
限界に達するにょ。
FX66の場合は広角側はF2.8でギリギリラインとなるけど望遠側はF5.9であり回折限界を
大きく超えているため超解像をONにしてもほとんど効果がないにょ。
(2)少し前までのコンデジは換算35mm付近からの3倍光学ズームというのが主流だったにょ。
しかし、ここ最近は広角対応の機種が急激に増えたにょ。
FX66は換算25mmからの広角ズームということで35mmよりは明らかに広い範囲を写すことが
可能になるにょ。
35mmでは撮れないような風景を撮ったり、狭い室内での集合写真を撮ったりなど広角に
対応しているというメリットは大きいにょ。
ただし、一般的には望遠側も良く使われるにょ。
35mmからの3倍ズームだと望遠側は105mmだけど25mmからの5倍ズームだと望遠は125mmと
なるため望遠側も劣ってないため非常に有用にょ。
(3)2006年以前の機種はSDカードのみ対応(SDHC非対応)だったにょ。
2006年からは一部の機種、2007年からはほぼすべての機種がSDHC対応(ファームアップ
可能な機種であれば2006年より旧機種でもSDHCに対応可能になっているものはある)と
いうことで現在も十分現役として使えるけど最大2GBのSDカードにしか対応していない
機種はさすがに厳しいにょ。
とはいえ、当時だと500〜700万画素ということで1000万画素が当たり前の時代となって
いる今よりは1枚当たりの容量は少ないけどね。
あと静止画だけならいいけど動画を撮るとなると2GBでは全然足りず昔はQVGAでしか
撮れない機種が大半だったにょ。
これは容量だけの問題ではなくビデオカメラとの棲み分けのためだろうけどね。
ビデオカメラ部門のないカシオやサンヨーはMPEG4採用によって積極的に動画をアピール
してきたけどビデオカメラにも力を入れている家電系メーカーや元々カメラを作っている
ため動画には力を入れてないカメラメーカー(ニコンなど)はQVGAの時代が長かったにょ。
しかし、最近のHD化の波によってここ2、3年に発売された機種は大半がHD動画撮影可能と
なっているにょ。(エントリーモデルとハイエンドモデルを除けばほとんどが対応)
今年発売になったFX66は当然のことながらHD動画対応にょ。(ただし、Motion JPEG)
SDHCならば32GBまで対応しているということでそれほど容量的には困らなくなったとは
いえ、SDXCならば規格上は2TBまで対応しているのでほとんど無制限というレベルまで
撮れるようになるにょ。
もっとも現時点では64GBまでのSDXCしかないし、それが4万円もするということでSDXCは
必須とはいえないけど今後5、6年使い続けるつもりならば価格的なデメリットがほぼない
SDXC対応の機種を選ぶ方がいいからね。
(4)AFが遅いというのが多くのコンデジの弱点だったけどFX66は0.25秒(広角時)という
コンデジとしては最速レベルのAF速度を実現しているにょ。
これを完全に超える速度となると位相差検出方式を採用したFinePix300EXRなどしかない
わけだからね。
(5)これはFX66以降のLUMIXに搭載されたモードにょ。
要するに肌をキレイに撮るものにょ。
具体的には画像解析をしてシワ、シミを目立たなくしてマツゲなどはシャープにした上で
肌の色も3段階に設定可能になるというものにょ。
これもフォトレタッチ技術のある人であれば後からでもいくらでも可能とはいえ、
カメラ任せのオートでできるということで搭載されていることを喜ぶ女性は多いのでは
ないかと思うにょ。
あとFX66に限らず最近のコンデジの特長として高感度に非常に強くなったということが
挙げられるにょ。
5、6年前のコンデジは最大感度がISO400までだったにょ。
デジタルの場合はゲインアップでISO1600や3200でもいくらでも可能とはいえ無理に上げた
としても使い物にならないからね。
当時はまともに使えるのはISO100までで最大のISO400ではすでに塗り絵状態になっていた
ためとても使えたものではなかったにょ。
しかし、昨今では1/2.3インチクラスのコンデジでもISO400がそこそこ使えるレベルに
なっているにょ。
裏面照射センサー採用や1/1.7インチクラスの大型センサー採用機ならばISO800でも
そこそこ使えるにょ。
私は昨年末に常時持ち歩き用のコンデジをCOOLPIX S1からCybetshot TX1に買い換えた
けれどこの高感度時の描写性能はかなり感動したからね。
センサーおよび画像処理エンジンの世代の進歩だけで上記のような非常に大きな差(私の
感覚的には2〜4倍くらいの差)があるのに加えて裏面照射で2倍効果、ノイズ低減効果の
ある手持ち夜景モードで撮影時にはさらに2〜4倍の効果があるからね。(S1のISO400は
使えないレベルだけどTX1の手持ち夜景で撮影したISO3200は使えるレベルの描写力)
というわけでFX7からFX66に変えることであらゆる状況下において確実に描写力アップに
繋がると想定できるにょ。
同じメーカー(同じ系列機種)であるため操作性にあまり差がないため違和感なく使える
というのもあるしね。
裏面照射センサー採用機は高感度には強いけど日中描写力ではまだ他のセンサー採用機
よりは劣るし、屈折光学系の機種だと使用時にもスリムで私は好きだけど構造上レンズ
性能を上げられないために場合によっては画素数が増えてもFX7の描写力より劣る可能性
さえあるにょ。(それに屈折光学系はレンズが飛び出さないため指で隠れていても分かり
にくく構え方に気を付ける必要がある)
これで、キレイな写真がたくさん撮れるようになったら来年はプリンタかな・・・?
そもそもでっかくプリントするというようなことをしないかもしれないけどね。
私もA4プリントでさえ年に数枚というレベルであるためプリンタは非常にコスト
パフォーマンスが悪いにょ。
スマートフォン版
掲示板管理者へ連絡
無料レンタル掲示板