レス数が1スレッドの最大レス数(1000件)を超えています。残念ながら投稿することができません。
おちゃめくらぶ掲示板
現在大阪オフ中にょ
現在大阪オフにょ。
昼食を12時に済ませ現在3時のおやつ休憩にょ。
昼ご飯を食べてから現在までいろいろ買い物をしたけどもう3万円くらい使っているにょ。
めぼしいものは大体買えたけどそろそろ資金が尽きるにょ。
マリモーマさんへ
>今日は 大阪オフだけど 関西は 雨が降ってたよ
さっきは結構降っていたにょ。
また詳しくは明日書くにょ。
3Dデジカメは普及するのか・・・?
3Dデジカメ「FinePix REAL 3D W3」が発表されたにょ。
http://dc.watch.impress.co.jp/docs/news/20100817_387565.html
これは昨年発売になった世界初の民生用3Dデジカメ「FinePix REAL 3D W1」の後継機種
となっているにょ。
主な改善ポイントは下記の3つにょ。
(1)HD動画(720p)に対応
(2)液晶パネルが23万画素(QVGA相当)から115万画素(WVGA相当)に
(3)HDMI mini出力対応
(1)に関して書くとW1が640x480だったのがW3が1280x720(720p)のHD動画に対応したの
だけど現在のデジカメにおいてHD動画はプレミアム性のあるものではなくスタンダードな
ものとなってきているにょ。(エントリーモデル以外の大半の機種でHD動画撮影が可能に
なっている)
そのためコンデジで実売6万円という最高級レベルの価格な割りにHD動画も撮れなかった
W1がやや辛いものだったけどW3になってようやく標準レベルになったというだけの話にょ。
とはいえ、PC画面やHDTVで見るならば480pと720pの差は大きいため大きな改善といって
良いと思われるにょ。
(2)に関して書くと現状では後述のように3D鑑賞が可能な環境があまり普及していないと
いうことを考えれば本体の液晶の解像度アップは必須項目といっても良いと思われるにょ。
せっかく高精細な動画が撮れてもそれが鑑賞できる環境がカメラ本体しかないという
ことは動画の解像度はカメラの液晶解像度依存した形(液晶パネルがボトルネック)に
なるからね。
4:3のスクエア液晶からワイド液晶へと変わったことでパネルサイズもそれに合わせて
2.8インチから3.5インチへと拡大したのも良いことにょ。
ワイドパネルの場合は同一インチ数だとどうしてもパネル面積が小さくなってしまう
ために「インチ数が同じ」だと「小さい」と感じるし、横が大きくなっても縦が小さく
なるためにインチ数で1割程度アップしても同レベルとしか感じないにょ。(ウチの
リビング用のTVは12年前に買い替えたけど25インチから28インチワイドということで1割
以上アップしているのに同レベルかやや小さくなったというイメージになった)
そうなると2.8インチから「大きくなった」と体感できるためには3.5インチ(インチ数で
25%アップ)くらいが必要だと思われるにょ。
また、サイズ、解像度だけではなくパネルの品質そのものも高まっている模様にょ。
特に裸眼3Dに関しては急速な進化をしているため1年前の製品はすでに旧世代といっても
いいレベルだからね。
すでに完成されてる普通の液晶パネルならば1年程度で大きく変わることはないけれど
まだ完成の域には達していない裸眼3Dは最新のものが望ましいにょ。
そのため後述(3)のように今は3Dは要らないけど将来は必要になるかもしれないと思って
いる人は今の時点で3Dデジカメに手を出す必要はなく必要になってから手を出すのが良い
ということもいえるにょ。
(3)のHDMI出力というのはあるのとないのとでは非常に大きな差があるにょ。
普通の(3Dではない)デジカメで撮影した動画はメディアに記録した動画をPCで読み込む
ことでどんな形式だろうと再生できるし、AVCHDで記録してあるならば家電としては
デファクトスタンダードな形式であるため各種Blu-rayプレイヤーやプレステ3などで
再生可能になるにょ。
しかし、3Dに関してはそう簡単にはいかないにょ。
それはデファクトスタンダードな形式のものがない上に8月12日に書いたように3D対応TVは
まだ普及にはほど遠いし普及の速度も極めて遅いものになっているからにょ。
頼みの綱であるPCにおいても3D液晶パネルが標準搭載のPCはまだほんの一部に過ぎないし
デジカメで撮影した3D動画のためだけに別途3Dモニタを買おうとする人はほとんど
居ないからにょ。
W1ではそういうこともあったのかHDMI出力は考慮されていなかったにょ。
どうしても大きな画面で鑑賞したければ専用の3Dフォトフレームを買うしかなかったにょ。
しかし、ここ数ヶ月でわずかながら3D液晶TVの普及率が上がってきているため3D対応TVで
鑑賞したいというニーズがあったのかW1が発売されて半年余り経った後に別途専用
プレイヤーが用意されたにょ。
http://dc.watch.impress.co.jp/docs/news/20100422_362943.html
さて、W3で気になるのは価格だと思うにょ。
3Dデジカメはレンズとセンサーのパーツに関していうとデジカメ2台分のコストがかかって
しまうためどうしても割高になってしまうからね。
W1は発売当初の実売予想価格が約6万円だったのに対してW3の実売予想は4.8万円となって
いるにょ。
安くなったというのはパーツ自体のコストダウンの影響もあるだろうけどやはり最初の
モデルは開発費が多くかかるということと販売数量が読みにくいという点があるため割高の
価格設定にせざるを得なかったというのが理由だと思われるにょ。
要するにW3は開発コストが下がった分に加えてW1の販売実績からある程度の量産を見込んで
いるために機能アップしたにも関わらず約2割の低価格化が実現できたということにょ。
ただし、これでもまだ3D機能を除いた場合に同クラスのデジカメと比較して割高感は
否めないにょ。
レンズやセンサーは2台分必要な時点で非3Dのデジカメと同価格を実現するなんて不可能
なのだけどこれは量産によって徐々に差は縮まっていくと考えられるにょ。
W3は価格は頑張っていると思う(とはいえ、価格がこなれたW1と比べれば高価になって
いるけどこれは1年前の機種だから仕方がない)けれど3D以外の面でやや不利になって
いる部分があるにょ。
それはサイズとバッテリ駆動時間にょ。
サイズは3Dデジカメ(デジカメ2台分)として考えればコンパクトだけど光学3倍ズームの
コンデジとして考えるならばセンサーサイズやレンズの明るさの割りに大柄であり、しかも
バッテリ駆動時間は公称(CIPA測定値)で150枚というのは近年のデジカメでは最低クラス
となっているにょ。
これは何度も書いているように「2台分だから仕方がない」と考えれば納得はできる
もののユーザー視点では「3Dが絶対に必要」という人を除けば選択対象外になって
しまいかねないものにょ。
現状では3D撮影ができるデジカメではオンリーワンといってもいい状態(WX5やTX9では
静止画の3D撮影はできるもののこれはスイングパノラマモードに限定される)だから
多少デメリットがあっても現状で3Dが必要という人にとっては心強いものになるにょ。
しかし、現在3D鑑賞環境を所持しておらず将来3Dで撮りたくなるかもしれないという
レベルであればおすすめしがたいにょ。
それはTVであれば10年間同じ機種を使う人は少なくないけどデジカメを10年間同じ
機種を使うという人はほとんど居ないからにょ。
確かに黎明期から発展期にかけて(90年代〜2000年代初頭)のような急速な進化はない
ため使おうと思えば10年間使えないほどではないとはいえ、3Dを使いたければ本当に
必要になった時に買うのがベストだと思われるにょ。
機能面やバッテリ駆動時間や多少の割高感が許容でき3D→2Dへの変換を手間だと感じない
人であれば将来のために3D写真、3D動画を撮り溜めておくというのはありだけど私は
気軽にPCなどで鑑賞できることがデジカメの最大の魅力と感じているためそれを
スポイルしてしまうような使い方はさすがにできないからね。(今は2Dしか使わないから
そんな手間を考える必要ないというのならばなおのことこの機種を選択する意味はない)
それを考えると3Dカメラはすでに3D対応TVを買っている人(もしくは近いうちに購入
予定の人)だけが買うべきものだと感じるにょ。
3D機能を使わなけばW3は特に魅力を感じるようなデジカメではないからね。(価格が
高価ということもあり、絞り優先やマニュアル露出機能がついているというのはやや
魅力だけどそれでこの機種を選択するようなレベルではない)
W3がヒットすれば他のメーカーも追従するだろうけど上記理由によってある程度の需要こそ
あれ、そこまでヒットするとは思えないのでほとんどのメーカーは現状では様子見だと
思われるにょ。
やはり、8月12日に書いたけど3D対応TVさえ普及していない現状では3Dは大きな「ウリ」には
なりにくいというのが最大の要因にょ。
U3400搭載CULVノートは待つだけの価値はあったのか・・・?
セレロンU3400を搭載のCULVノート「UL20FT」が発売されるにょ。
http://plusd.itmedia.co.jp/pcuser/articles/1008/18/news029.html
CULVノートはモバイルノートを買うには予算的には足りないけどAtom搭載のネットブック
では性能面で物足りないという人にはおすすめの製品となっているにょ。
実際CULVノートに搭載のCPUはモバイルノート用のCPUと同じだからね。(同クロックの
場合において)
軽量化などにコストをかけてないために安価となっているわけにょ。
CULVノート向けのCPUは5月末にいくつかラインナップが発表されこの夏には多くの機種が
モデルチェンジをしたにょ。
Core2(Penryn)ベースのCPUからCore i(Arrandale)ベースのCPUへとモデルチェンジ
したわけだけどこれは新しい方が速いとは一概には言えないにょ。
それは7月8日にも書いたように新しいArrandaleベースのCPUの方がクロックが低いため
アーキテクチャの変更などを考慮しても速くなるとはいえないからにょ。
したがって、CPU性能で従来のPenrynベースのCULVノートより速いものが欲しければ
ターボブーストやHTTがあるCore i5以上を搭載した機種を選択すべきとなるわけにょ。
ただし、ターボブーストは廃熱が十分でないと機能しないためそれを過信するのも
あまり良くないにょ。
コスト優先でCULVノートを買うのであればやはり安価なセレロンモデルを買うのが最も
コストパフォーマンスで優れるにょ。
セレロンは性能がイマイチで省電力機能もないためにバッテリ駆動時間が短いという
問題点があったけど5月26日に書いたようにセレロンM以降は性能面の低さはほとんど
無くなりCULV用のセレロンSU2300ではセレロンとしては初めてSpeedStep機能が搭載
されたためにバッテリ駆動時間の短さも克服されたにょ。(SpeedStepはCore2と比べると
簡易的なものなので過信は駄目だけどそれでもあるのとないのとでは大きな違いがある)
したがって、コストを優先する場合セレロンSU2300搭載のCULVノートを買うというのは
「安かろう悪かろう」ではなく賢い買い方の1つといえるわけにょ。(実際にCULVノートで
最も売れたのはSU2300搭載モデルだと思う)
さて、そんなセレロンSU2300はArrandaleベースのセレロンU3400にモデルチェンジした
わけだけどSU2300が非常に優秀だっただけにその期待は高いにょ。
とはいえ、7月8日に書いたようにすでにCore i3のベンチ結果が分かっているために
U3400の結果はCPUコアは同じであることから予想はできているけどね。
それでもSU2300とU3400の比較レビューは今回が初めてだと思うのでじっくり見てみる
ことにするにょ。
UL20A UL20FT UL20FT(Turbo33)
SU2300 U3400 U3400+33%OC
PC Mark05
CPU 3096 2577 3435
Memory 3181 3025 4084
Graphics 1329 1673 1730
HDD 4496 4980 5021
UL20FT(Turbo33)について書いておくにょ。
UL20AはセレロンSU2300(1.2GHz)なのに対してUL20FTはセレロンU3400(1.06GHz)で
UL20FTには独自に33%CPUのクロックを上げる(オーバークロック機能)が用意されて
いるにょ。
これはCPUに搭載されている機能ではなくソフトウェア的に行っているOCであるため
廃熱さえ十分であればフリーウェアによって他のノートPCでも実現は可能な機能であり
あくまで参考掲載とするにょ。
さて、この結果を見るとやはりCPUスコアは動作クロックがかなり影響していることが
分かるにょ。
SU2300とU3400の動作クロックは13%差でCPUスコアは20%差ということでクロックあたりの
性能ではU3400の方がやや低いといえるにょ。
測定誤差を考慮した場合でも良くてクロック当たりの性能は同レベルとなりそうにょ。
したがって、クロックが低いU3400はSU2300よりも性能が低いといえるかもしれないにょ。
もちろん、CPUによって得手不得手があるからあくまでPCMarkにおける場合だけど
下記のFFベンチでもそれが当てはまったためPCMark05が例外というわけではないと
思われるにょ。
ただし、UL20FTには上記のように33%のOCをするモードが用意されているにょ。
これはスライダー1つで使用可能になるため非常に簡単に使える(ただし、廃熱面には十分
気を付ける必要がありそう)けれどCPUスコアはこれによって33%アップとなりクロック
上昇に比例したスコアとなっているにょ。
これによってUL20FT(Turbo33使用)はSU2300の性能を超えているにょ。
CPU性能的にはU3400はSU2300より下といってほぼ間違いないけどUL20FTはそれを克服
しているため一概にU3400搭載機は性能が低いとはいえないにょ。
あと気を付けないといけないのはPCの性能はCPUだけでは決まらないということにょ。
7月29日にも書いたようにGPU性能も重要になってくるからね。
Core i3搭載のCULVノートは従来のPenrynベースのCULVノートより高い3D性能を持つと
いうことがベンチ結果から言えたにょ。(ただ、VAIO Yのベンチ結果は不自然なくらい
性能アップになっていたのが疑問だけど)
これはCPU性能が互角であるということを考えた場合であり、CPU性能が劣っている
SU2300とU3400ではまた結果が変わってくる可能性があるので見てみるにょ。
UL20A UL20FT UL20FT(Turbo33)
SU2300 U3400 U3400+33%OC
3DMark06 727 1070 1044
FFXI Bench3
LOW 1841 1668 2256
HIGH 1285 1148 1456
FFベンチの方を見ると上記のCPUスコアと同じようにUL20FT<UL20A<UL20FT(Turbo33)
となっているけどこれはFFベンチのスコアがCPU性能に大きく影響されてしまうためにょ。
CPU性能の影響をあまり受けない3DMark06の方を見てみるとUL20FTはUL20Aよりも明かな
性能アップが見られるのが分かると思うにょ。
これはU3400に内蔵のIntel HD GraphicsがSU2300のチップセット(GS45)に内蔵の
GMA4500よりも性能が高いということを意味しているにょ。
とはいえ、これはあくまで「比較した場合に高い性能がある」というだけであって
昨今の3Dゲームをするにはやはり性能不足は否めないにょ。(Aeroくらいなら十分に
快適動作する)
あと33%のOCをしたTurbo33使用時はスコアが下がっているけどこれは測定誤差という
可能性があるにょ。
もっともリンク先のレビューでの考察に書いてあるように廃熱が追いついていないため
クロックが上がってないということも考えられるけどね。
そういうわけでCULVノートのメインとなっていたセレロンSU2300搭載機は今後U3400搭載
へとモデルチェンジすることになるけどこれによって性能は下記のように変化するという
ことがいえるにょ。
CPU性能 SU2300>>U3400
GPU性能 SU2300<<<<<U3400 (※SU2300はチップセット内のGPU)
(※不等号が1つあたり概ね1割の性能差)
次世代のCULVノート(ArrandaleベースのCPUを搭載の新機種)をわざわざ待って買うまでも
ないと5月26日に書いたのだけど今回ようやくCULVノートのメインとなるU3400のレビューが
出てきたことによってその考えは間違いではないと言えることになったにょ。
低価格で「少しでも高いGPU性能」を求めるのであればSU2300搭載機ではなくU3400搭載機が
発売されるのを待って買うという選択肢は間違いではないといえるけどそうでなければ
U3400搭載機は発売を待つだけの価値がないと今回の比較レビューで多くの人が感じたこと
だと思うにょ。
Nikon D3100は最強のエントリー向けデジイチか!?
コンデジではHD動画が当たり前の機能になって久しいにょ。
ローエンドモデル(エントリーモデル)ではHD動画に対応した機種は皆無なのだけど
5年前から急速に普及しており今では搭載されているのが当たり前となる機能である
光学式手ぶれ補正さえ搭載していないのだからHD動画機能を搭載していなくても驚く
ことではないにょ。(エントリー向けの手ぶれ補正機能はほぼすべて電子式となっている)
これはコスト面もあるけど差別化のために実装していない可能性が高いからね。
それよりもむしろ驚くことはハイエンドなコンデジにHD動画が搭載されていない機種が
多いということだと思うにょ。
ローエンドならばコスト面の問題は確かにあるけどハイエンドではコスト面の問題は
少ないのに・・・。
これはハイエンドなコンデジを買う人は動画をあまり重視していないということもある
ためメーカー側もあえて実装していない可能性もあるにょ。
しかし、HD動画を求める声は徐々に増えているせいか、PowerShot S90の後継機種である
S95はHD動画機能が導入されたにょ。
http://dc.watch.impress.co.jp/docs/news/20100819_387759.html
コンデジではこのようにHD動画機能が当たり前になったのはここ2、3年のことだけど
動画機能そのものは90年代初頭から当たり前の機能になっているにょ。(当時は160x120で
音声無しとかいう非常に貧弱なものが多かったけど)
デジタル一眼では2年前に発売されたNikon D90によってようやく実現されたにょ。
デジタル一眼はセンサーサイズが大きく読み出し時間がかかる上に熱問題が大きい上に
撮影中はファインダーが真っ暗になるためライブビュー機能が必須だし、動画とは相性が
悪い位相差検出方式であるため動画を撮影するのに向いていないというのがD90まで
動画撮影可能な機種が登場しなかった理由だと思われるにょ。
しかし、ここ1、2年で動画撮影機能を搭載のデジタル一眼は急速に増えたにょ。
そのセンサーサイズの大きさを活かした動画は業務用の大型カメラで撮影したのと同じ
ような効果が得られるためハイアマチュアや一部のプロに受け入れられデジタル一眼で
撮影されたTV番組や劇場用映画も増えつつあるにょ。
http://dc.watch.impress.co.jp/docs/news/20100816_387085.html
世界初の動画撮影機能搭載のデジタル一眼D90を送り出したニコンだけどそれ以降大きな
改善はなく、今では追従したキヤノンの方が圧倒的に動画機能で勝っているにょ。
ハイアマチュア向けの中級機であればまだ動画なんて要らないという人もいることだろう
けれど入門機の場合はコンデジからステップアップした人も少なくないため動画が撮れる
かどうかを重視している人も多いにょ。
キヤノンの方はEOS Kiss X4は入門機としては最強の動画機能を持っているのに対して
ニコンの方は入門機下位のD3000は動画機能無し、上位のD5000も前年発売のD90と大差ない
動画機能だから動画でデジタル一眼を選ぶのであればニコンは対象外という状況だったにょ。
しかし、今回ニコン初のフルHD動画対応デジタル一眼レフ「D3100」を発表したにょ。
http://dc.watch.impress.co.jp/docs/news/20100819_387845.html
フルHDのH.264コーデックの動画が撮れるだけではなくビデオカメラのようにフルタイム
AFで撮影できるため撮影のハードルもかなり低くなったにょ。
動画を撮るならニコンは対象外という状況もこれで克服されそうにょ。
このD3100は型番的にはD3000の後継となると思われるにょ。
D3000は発売当初からボディ単体で5万円台の低価格だったけど発売されて1年近く経つ今では
3万円台まで下落しており動画が要らないのならば今回のD3100で旧機種になるとはいえ
依然としてお買い得感は高いにょ。
すでに1年経って価格下落している製品との単純比較はあまり意味がないけど発売当初の
価格でさえ1万円アップとなったのは少々辛いし、液晶が23万画素で据え置きというのも
いくら入門機といえ物足りない面もあるにょ。
動画は格段に従来機より高性能化しているけどやはりデジタル一眼ならば静止画が重要
だと思うにょ。
センサー性能自体はD3000、D5000は悪くないけどEOS Kiss X4を見た後では世代の違いを
感じてしまうにょ。(キヤノンは比較的ノイズの誤魔化し方が上手いのもあるけど)
D3100に搭載されているのは恐らくNEX-3/NEX-5に搭載されているものと同じものだと
思われるにょ。
NEX-5については5月21日に書いたけど描写性能に関しては大きな不満を持ったにょ。
とはいえ、これは無理に小型化したレンズの性能がボトルネックになっているというだけ
であって、センサー性能自体はEOS Kiss X4よりも上であると感じたにょ。
1400万画素のD3100であれば1800万画素のEOS Kiss X4よりもレンズに対する要求スペックが
低いためにレンズがボトルネックになりにくいというのは画素数が少ないことが逆に
場合でもアドバンテージといえるかもしれないにょ。
EOS Kiss X4の完成度があまりに高いのでD3100でようやくまともに戦えるようになった
というレベルにすぎないにょ。
今は(2年前に登場であるため)価格下落によって入門機並の価格帯になったD90がX4の
実質的なライバルであり、D3000は価格重視の人向けだったわけだけどようやくX4と同価格
帯でまともに戦える入門機が登場したということにょ。(D5000は価格面、性能面で
中途半端な感じ)
とはいえ、逆に言えば同社のD90とシェアを奪い合うハメになりかねないにょ。
私もD3100は少し欲しいかなと感じるけど買うとすれば多少の古さを考えてもペンタ
プリズムフィンダーを搭載の中級機であるD90にするかもしれないにょ。
D90もその後継機種(D95?)の登場が噂されているため価格面では入門機レベルではなく
なるけれどそうなると今度は価格が下落しているD300sとぶつかってしまうため中級機は
まとめて新機種へとモデルチェンジの必要性がありそうにょ。(D300sの後継機は年内には
登場しないらしいけど)
ソニーが8月24日、オリンパスが25日、キャノンが26日に新製品発表会を開く予定となって
いるにょ。
ソニーはα33、α55、オリンパスはE-P3、キャノンは中級機であるEOS 60Dを発表すると
噂されているにょ。
興味を惹く機種に関してはまたここで書くことにするにょ。
紙の書籍だけでは生き残れない
7月23日には米国では条件付きながら電子書籍が紙の書籍を売上を超えたということを
書いたにょ。
日本においてはケータイ向けに雑誌や漫画やグラビアなどを配信しているもののまだ
本格的には書籍のネット配信サービスは開始されてないにょ。
電子書籍が紙の書籍を超えることなどできないから問題ない・・・という考えもあるけど
それは紙の書籍だけで商売が成り立っている間だけの話にょ。
今後5年で日本の書籍市場全体の売上は現在の3割減になるという試算が出ているにょ。
http://pc.watch.impress.co.jp/docs/column/mobile/20100820_388236.html
売上減が直接影響するのは販売店(書店)にょ。
ただし、書籍には再販制度と委託販売制度(返本制度)が導入されているにょ。
その2点をそれぞれ見ていくにょ。
まず、再販制度だけどこれは定価販売を強制する制度であり、著作物の一部が対象と
なっているにょ。
その一部というのが書籍、雑誌、新聞、音楽CDにょ。
この再販制度によって全国どこの書店に行っても同じ価格で書籍を購入することが可能に
なるだけではなく値崩れというものがないため古い製品も比較的買いやすくなって
いるにょ。
もしも再販制度が無ければ競争力は上がるだけどうけどその反面書店の店頭は売れ筋
以外は置かれなくなってしまうかもしれないにょ。
再販制度に関しては賛否両論あるけれど海外では再販制度を導入しているところは
徐々に減ってきているにょ。
また、再販制度にも時限制を導入している国も多いにょ。
日本においても音楽CDは再販制度の効力は1年の時限制となっているにょ。
ただし、後述の委託販売制度により値引きされずに返品されてしまうことが多いにょ。
書籍も時限制の再販制度になれば効力が切れた古い書籍はどんどん返本され古い書籍が
店頭から消えてしまう可能性が高いにょ。
次にあるのは委託販売制度、つまり、返本制度にょ。
書籍は出版社から取次店に出荷され、そして書店に出荷されるにょ。
出版社はその本が売れなくても取次店に出荷した時点で代金を受け取るのだけど書店は
返本が可能であるため一定期間をすぎたら返本するにょ。(週刊誌の場合は、当然
発売から1週間で返本となる)
返本された分に関しては出版社が代金を返す必要があるにょ。
ただし、その全額を負担するわけではないにょ。
というのも新しい書籍は随時販売されているためそれと相殺で計算されるためにょ。
ある程度は返本対策の予算をプールしておく必要はあるけどね。
かといって、すべての書籍に対して返本制度が導入されているわけではなく一部の書籍は
対象外となっているにょ。
それには受注生産となるOVA付きのコミックス等やハリーポッターなどがあるにょ。
ハリーポッターの日本語版を出版している静山社はハリーポッター以外に大きく売れる
出版物がないため上記のように返本代金を新たな出版物で相殺ができないにょ。
そのため返本不可にしているにょ。(その代わり卸値を下げている)
あとお客から特注の本に関しても同様に返本不可となっているにょ。
ここまで書くと書店、取次、出版社の役割分担が分かると思うにょ。
出版社にとって書店はお客へと販売するための大事な窓口であり、(出版社にとって)
取次は代金の支払いをしてくれる顧客であり、書店への配本を調整する役割も担って
いるにょ。
では、ここで売上が3割減になり書店が閉鎖した場合のことを考えてみるにょ。
ある程度の返本に対しては新規発行分で対応できるため問題ないけど閉鎖によって
大量返本があった場合は出版社が連鎖倒産してしまう可能性があるにょ。
もっとも上記のような小さな出版社の静山社のようなものでない限りはそれなりには
プールしているためよほどの数がない限りは大丈夫だろうけどね。
売上がどんどん減っていけば徐々に返本による影響が大きくなるためかなり厳しい状態に
なってしまうにょ。
さて、国内の音楽市場を考えてみるとCDの売上は2000年頃をピークに年々売上は減り続けて
いるにょ。
http://www.riaj.or.jp/data/cd_all/cd_all_m.html
2000年 5239億円 41405万枚
2005年 3598億円 30126万枚
2009年 2460億円 21006万枚
しかし、CDを買う人が減っただけであってiPodの爆発的な普及、ケータイの着うたの
ダウンロードなどで音楽を聴く人自体はそれほど減っているわけではないと思うにょ。
ネット配信に関しては2005年以降の資料しかないけどそれを見てみるにょ。
http://www.riaj.or.jp/data/download/index.html
2005年 343億円
2009年 853億円
2005年と2009年において音楽CDとネット配信の合算を行うとこのようになるにょ。
2005年 3941億円
2009年 3313億円
確かに4年間では減っているもののネット配信があることでかなり救われているにょ。
ネット配信が無かったらCDを買っていたというユーザーもあるから単純に音楽配信分
だけ増えたとは言い難いけれどそれでも確実にプラスに働いていると思うにょ。
CDの売上が減ったのは違法ダウンロードによる影響を重要視する見方が多いけどそれが
正しいとすれば公式にネット配信をすることで違法ダウンロードユーザーの増加を抑制
しているということがこの結果から見えてくるにょ。
では、書籍はどうなのか・・・?
上記リンク先の試算では書籍のみで5年間で2700億円くらい売上が減ると予想されて
いるにょ。
また、これに雑誌の売上減も加えるとさらに大きくなるにょ。(国内の電子書籍&雑誌の
昨年度の全体売上は464億円)
書籍よりも雑誌の方が近年落ち込みが厳しくなっているからね。
これはWeb普及によって情報の多くがネットで入手可能になったため雑誌の相対的な
価値が落ちてしまったというのもあるにょ。
ぴあ(関西版)も10月発売号をもって休刊となるにょ。
http://www.asahi.com/national/update/0730/OSK201007300075.html
一部の雑誌では付録によって売上を大きく伸ばしているためやはりネットの影響が
大きいということがいえそうにょ。(現在の技術では立体物はダウンロード不可能)
http://blog.livedoor.jp/geek/archives/51047802.html
そうなると早めに手を打たないと本当に手遅れになってしまう可能性があるにょ。
書店が倒産してもアマゾン等のネット通販が生き残るもののそれだけで需要を十分に
満たすのは難しいにょ。
ネット配信サービスというのは店頭販売があって初めて生きてくるからね。
雑誌も定期購読しているものでなければ書店で立ち読みして気に入ったものを買うと
いう人も少なくないだろうから書店が無くなれば販売機会を失うことになるにょ。
現状で出版社が電子書籍に対してあまり本腰を入れないのはそういった書店保護という
考えはできるものの本質的なものはそこにはないにょ。
日本においては書籍の著作権管理が欧米よりも複雑だというのもあるけどやはり電子
書籍には紙の書籍にある再販制度が適用されないというのもありそうにょ。
再販制度が適用されないということは価格の拘束力がないわけなので書籍に対する
絶対的な価値(=額面価格)というものが無くなるにょ。
例えば紙の書籍で1000円の本が電子書籍で500円だったらその本の価値は500円程度と
ユーザーは感じてしまうにょ。
音楽もネット配信によってCDの価値が下がったことによる売上低下は否定できないにょ。
上記結果ではCD売上が下がっても配信が伸びているため問題ないと考えられるけど
書籍で同じようにできる保証はないにょ。
かといって電子書籍に再販制度を導入するのはナンセンスにょ。
紙の書籍で1000円の本を電子書籍として1000円で買いたいかというとほとんどの人が
そうは思わないだろうからね。
最初から自炊(=自分でスキャンしてデジタルデータにする人)目的で買う人ならばその
手間が無くなるため電子書籍の方が良いと感じるだろうけど・・・。
電子書籍が現時点でまともにネット配信されてなくても現時点でも自炊した人のデジタル
データがネット上に不正に流通しているため音楽配信のように公式配信がないと売上は
落ちる一方にょ。
音楽も配信の方が主流になりつつあるけどコレクターの人はやはり現物を買う(デジタル
データではなくパッケージ品を買う)ということもあるので完全には廃れないにょ。
紙の書籍も同じように「現物を買う」という人がいるため完全に廃れるような時代は当分
やってこないだろうけどそれまで何もしなければ出版社も生き残ることはできないにょ。
上記の続き
(3)がやはり非常に大きいにょ。
中古を扱っているチェーン店は人気作品の配分数が少なめになってしまうと(2)に書いた
わけだし、そもそも新品ソフトで利益を出すこと自体が難しいにょ。
そうなると中古ソフトに頼らざるを得なくなるにょ。
スーファミ時代まではゲームソフトがROMカートリッジということもあり一旦新品の在庫が
無くなると数ヶ月後の再生産までユーザーは新品ソフトの入手はできなかったため
中古の意味合いは非常に大きかったにょ。
これはゲームの主流がCD-ROMに代わり最小ロットが小さくなっただけではなく生産までに
かかる時間が短くなったにょ。
昔は金曜発売がメインだったゲームソフトの発売日が木曜発売がメインとなったのは
発売日に売り切れや品薄になったソフトをすぐに発注をかけることでその週のうちに
入荷を可能にするためにょ。
それによってゲームソフトの販売は専門店から量販店がメインに変わっていったにょ。
量販店であれば品揃え、在庫量ともに豊富だからね。
これはすぐに生産が可能なCD-ROMだからこそできることであり、新品のみを扱うことで
優先的にメーカーから製品提供してもらっているお陰にょ。
中古には新品よりは安い(ただし、人気ソフトは新品中古の差はほとんど無いだけでは
なく異なるショップでの比較であれば新品、中古の価格逆転現象を引き起こしている
ことは良くある)、生産終了ソフトも入手可能、飽きたゲームやつまらないゲームを
買い取ってもらって新しいソフトの足しにするというユーザー側のメリットがあるにょ。
しかし、大手量販店での購入割合が増えたことや廉価版(ベスト版)の継続的投入などに
より新品ソフトの割合が増えているのは事実にょ。
中古ソフトはショップにとっては品揃えのため(人気ソフトは入荷が難しく、古いソフトは
コスト面を考えるとあえて新品を入荷するのが難しいため)だけではなく利益確保のため
でもあるにょ。
新品ソフトはワゴンセール(特価セール)になること無しに全品完売したと仮定しても
5%程度の利益しかないのに対して中古ソフトは20〜80%程度の利益があるからね。
つまり、回転率の高い人気ソフトは中古売価の80%程度の価格で買い取りして(超品薄
商品に関しては90%程度になることもある)、回転率の低い商品は中古売価の50%から
20%程度で買取をしているということにょ。(例えば中古売価3980円のソフトを半値の
2000円で買取して、そのソフトがしばらくして2480円に値下がりしたら利益率は約19%
となる)
それにゲームソフトは実際にプレイしてみないと自分にとって面白いかどうかは分から
ないため気に入らなければ中古ショップの存在を重要視している人もいると思うにょ。
しかし、最近は体験版の配信を行うゲームもあり、そのような状況は失われつつあるにょ。
新規作品はユーザーが敬遠して売上が伸びずヒット作品の続編ばかりになってきている
昨今のゲーム業界においてPSPの「ゴッドイーター」は体験版のダウンロード数が100万を
超えその影響で販売数もPSPの新規タイトルとしてはほとんどない販売数50万本突破を
記録したにょ。
このような体験版配信が増えれば(買ったものの自分に合わないため)発売直後に中古
ショップに流れるという事態はかなり回避できるのではないかと思うにょ。
また、WiiのVC(バーチャルコンソール)のようなネット配信も中古を扱うショップに
与える影響は大きいと思うにょ。
ネット配信自体は現時点ではパッケージ品と棲み分けができていると思うにょ。
ネット配信でパッケージ品と同じゲームが買えるPSPもgoの不振を考えるとあくまで
ネット配信はパッケージ品を補うだけの存在しかないと思われるからね。
VCはパッケージ品とはほとんど競合しないにょ。(プレイ時間を奪われるという面に
関してのみ競合となるけど)
影響があるとすればレトロ商材(生産終了した古いゲーム機用ソフト)を扱う中古
ショップにょ。
現行ゲーム機に関しては上記のように中古市場がかなり厳しくなっているために専門店の
唯一の生き残り策としてレトロ商材が人気を集めているけどその市場もネット配信に
よってかなり厳しくなってきているにょ。(現物をどうしても手に入れたいという需要は
確かにあるもののショップの運営費用を天秤にかけると存続は厳しい)
このように売上と利益率の双方でダウンしてしまった専門店はよほどライバル店が少ない
地域以外はどこも厳しい状況になっているにょ。
それらの要因が重なり合いここ10年でゲーム専門店は激減してしまったにょ。
恐らく今後も減り続けると思われるにょ。
とはいえ、このような専門店が無くなってもメーカーにとっては全く問題がないにょ。
昨日書いた書籍市場においては書店が閉鎖したりすればユーザーの目に触れる機会が
減るために売上が落ちるという出版社側のデメリットがあるもののゲーム専門店が
無くなったところでゲームを扱うショップ自体は無くなるというわけではない・・・と
いうかここ数年の流れでゲームの販売量は量販店などのゲーム売場を併設している
ショップの方が専門店よりも多くなっているくらいだからね。
これはメーカーによる新品ソフトの出荷コントロールの影響もあるし、中古ソフトは
予算の面や生産終了などの理由で現行ハード用の新品ソフトが買えないユーザー向けでしか
なくなっているというのも絡んでいるにょ。
スーファミ時代のような中古バブルはもう来ないにょ。
ちなみに今回書いた内容の一部のについては私が発行した「おちゃめ通信」の第8号、
第9号にさらに詳しく書いているにょ。(ともに99年発行)
第8号の内容はこんな感じになっているにょ。
第8号 表面左 表面右 裏面左 裏面右
文字が小さくて読みにくい部分もあるけどサーバの空きの問題でこれが限界だったにょ。
空きがないため次に別のファイルをアップロードしたら消す予定にょ。
もしも、大きな字で読みたいとか別の号を読みたいという要望があれば適当なサーバを
借りてそこにアップロードしてみるにょ。
ゲーム専門店はもう生き残れない
ゲームショップ「TVパニック」や「wanpaku(わんぱくこぞう)」を運営する業界No.1の
チェーン店を展開しているネステージが先日民事再生法の適用を申請したにょ。
簡単に言えば倒産したということにょ。(正しく言えば倒産直前だけど)
http://www.asahi.com/business/update/0812/OSK201008120138.html
ファミコンブームによって80年代後半からゲーム専門店が各所に多く作られ全国チェーン
展開する企業も多く現れたけどプレステが全盛時の90年代後半になって雲行きが怪しく
なり、1999年には「ブルート」が倒産したにょ。
それ以降、大型チェーン店の倒産が相次いだにょ。(97年には「カメレオンクラブ」を
運営する上昇が倒産したのが有名)
直営店に関しては別のチェーン店を運営する企業によって支援されたりということで
民事再生法によってすべてのチェーン店が閉鎖という自体にはなってない(今回の
ネステージもゲオの支援があるためいきなり全店閉鎖というわけではない)ものの厳しい
立場にあるのは確かにょ。
昨日は書籍売上に書いたけどゲーム市場に関して言えばここ数年ではオンラインゲームの
伸びが大きく、ここ1年ではソーシャルゲームの伸びが非常に大きいにょ。
http://www.8ing.co.jp/market/index.html
http://japan.internet.com/wmnews/20100628/2.html
肝心のコンシューマゲームに関してはほぼ横ばいといった感じにょ。
これはケータイなどに食われてなくて棲み分けができていることを意味しているにょ。
任天堂が新規ユーザーを開拓してようやく横ばいということは普通にコンシューマゲームが
進化していたら今はかなり減少していたという可能性もあるわけだけどね。
それもあくまでここ数年の話にょ。
もう少し遡ってみれば90年代半ばと比べると今は3分の2程度に落ち込んでいるにょ。
http://www.famitsu.com/game/news/2005/07/14/103,1121342453,41325,0,0.html
コンシューマゲーム機の場合はほぼ5年ごとにモデルチェンジが行われそれによって
市場規模が変わってくるにょ。
発売直後は新ハードの影響はあまりなく旧ハードのゲームの落ち込みを相殺できない
けれど発売して1、2年経つと新ハードが普及し、それによってソフトの売上が伸びていき
また4、5年経つとその伸びが落ちてくるというパターンを繰り返しているにょ。
90年代半ばはスーファミスーファミ黄金時代の最期であり、プレステとサターンが熾烈を
争う戦いを繰り広げられていた時期にょ。
旧世代のハードの市場が落ち込む前に新ハードで盛り上がっていたという希有な時期で
あるためこれは特例的なものだといえるにょ。
それを元に考えるとここ10年余りでゲームショップの閉鎖が相次いでいる理由は見えて
くるにょ。
主な理由は下記の3つにょ。
(1)ショップ数が増えすぎた
(2)流通の変化
(3)中古ビジネスの崩壊
まず(1)から書いていくにょ。
ファミコン以前はゲームはおもちゃ屋の一角でのみ販売されていたけどファミコンブーム
によってゲーム単独でも商売として成立するようになったにょ。
それは任天堂がサードパーティ制を取り入れたために多くのメーカーがファミコン用の
ソフトを制作したというのが大きいにょ。
ソフトが多く発売されることで中古ゲームビジネスも成立するようになったにょ。
これによって「ファミコンゲームは儲かる」という認識が強まりゲームショップを
運営するオーナーは一気に増えたにょ。
それによって全国チェーン展開をするショップも出てきたにょ。
儲かるのが分かっていても商品供給の問題やノウハウの問題があり脱サラしてゲーム
ショップを始めるというのはハードルが高いものだったにょ。
そこで有用なのはフランチャイズ加入にょ。
これはゲームショップに限ったものではなくコンビニなど他の業種でも言えることだけど
直営店とFC(フランチャイズ店)があるにょ。
FCのメリットとしては上記のような商品供給とノウハウの提供(商品情報や商品管理の
システムの提供を含む)だけではなくチェーン店に加入するというメリットがあるにょ。
例えばコンビニでも初めて行くならば個人経営の名前の知らない店よりもセブンイレブンの
方が安心して店に入れるからね。
大手チェーンだと品揃えも安心できるからね。
ではチェーン店に加入することがプラスになるかというと一概にはそうとはいえないにょ。
例えば上記のwanpakuを例に挙げると加入するためには加盟金が100万円、補償金が
200万円必要になるにょ。(アパートでいえば補償金が敷金、加盟金が礼金に相当)
そして、開店するために必要な什器や商品も強制的に購入させられてしまうにょ。
確かにショップをオープンしたけど売るものがありませんとかでは話にならないので
チェーン店として相応しいレベルにしておかなくてはならないため仕方がないけどね。
あとオープン後は毎月12万円のロイヤリティと4.2万円のPOSレジ貸与料を支払う必要が
あるにょ。
チェーン店に加入するメリット、デメリットはあるものの金銭的負担が大きくても
90年代はゲームが売れている時期だったので十分に回収できる見込みがあったにょ。
また後述の(2)の流通の問題もチェーン店に加入することが重要となったからね。
これによりゲーム専門店は90年代に急速に増えていったもののコンシューマゲーム市場
そのものが90年代半ばと比べると3割減であるため需要に対して店舗数が増えすぎた
ために淘汰されていったということにょ。(市場規模3割減でショップ数が大幅増では
耐えられるはずがない)
フランチャイズ店がどんどん加入するうちは補償金がどんどん入ってくるためチェーン
展開をする本部も運営資金に余裕があるけど売上が低迷し、脱会すれば預かっている
補償金をFCのオーナーに返却する必要があるため資金面でどんどん厳しくなり今回の倒産に
至る最大の要因になったと思われるにょ。(実際wanpakuも1年以上前には補償金が返却
されないという内部トラブルが発生していた)
さらに大きいのは(2)の流通問題にょ。
ゲームというのはかつてはすべてが「メーカー→問屋→ショップ」という流れで出荷
してたにょ。(チェーン店の場合はチェーン店の本部が問屋も兼ねていた)
スーファミ初期〜中期は定価の63%〜68%くらいで問屋からショップに納品されていたにょ。
ただし、この納品掛け率は問屋やゲームタイトルによって大きく変わったにょ。
ドラクエ級になると定価の90%程度ということも少なくなかったにょ。
そこでゲーム業界に革新を起こしたのがソニーにょ。
プレステによってメーカー直送というのが実現されるようになったにょ。
つまり、商品の流れが「メーカー→ショップ」になったということにょ。
プレステは全商品一律定価の75%で納品だったということでショップにおいては良いこと
(スーファミ末期や64の時代は定価を下げるために78〜80%で納品されていた)とはいえ
問題はその流通のあり方にあったにょ。
中古ソフトを扱うショップには納品はかなりコントロールされたにょ。
当時はまだ中古裁判を争っていた時期であるためメーカーにとっては「中古=悪」で
あるためプレステソフトを扱うためには中古ソフトを扱わないことが条件だったにょ。
中古裁判で販売店側が勝利して久しい今でさえ中古を扱っているというだけで公然の
差別行為が行われているにょ。
例えば品薄時の本体やドラクエ、FFのような人気ソフトは自由発注ができず、配分制と
なっているにょ。
配分は基本的に実績配分となるため過去の発注数(発注金額)によって入荷数が決まる
けれど中古を扱っているというだけで扱ってないショップの半分以下の納品数となる
ということはザラにょ。
確かにいくら品薄でも仕入れる方法がゼロということはないにょ。
二次問屋には大抵揃っているからね。
二次問屋には一次問屋からの納品に加えてショップからの納品もあるため当然のこと
ながら普通にショップに卸す金額よりも高くなるにょ。
プレステのソフトであれば80〜85%が基本だからね。
品薄時のニンテンドーDS Liteも二次問屋で扱っていたけど納品の段階で定価16800円に
対して2万円近い価格(1.8〜1.9万円)となっていたにょ。(問屋の買取金額が17000〜
17500円だったから定価を超えるのは当然だけど)
「定価16800円のDS Liteを2万円で販売するのはボッタクリ」という見方をする人も確かに
否定はできないけど「多少高価であっても欲しい」というニーズに応えるために高価な
二次問屋経由で入荷したのならば必ずしもボッタクリとは言えないということにょ。
このようにメーカーが流通にまで介入することでショップに対して優位性を持つように
なったのだけどそれ故、それ以降独自流通を行うメーカーも増えたにょ。
コナミ、コーエー、セガなどは自社流通を持っているにょ。
自社流通を持っていないメーカーはPSP、PS3のサードパーティならばSCE一択という
わけではなく条件によっては自社流通を持っているメーカーに委託する場合もあるにょ。
納品掛け率は流通によって異なるけど現在では75〜80%となっているにょ。
ゲームソフトは書籍や音楽CDとは異なり再販制度や返品制度は導入されてないにょ。
したがって、自由に競争できる反面、売れ残ったら原価割れで売ることも珍しく
ないにょ。(ただし、SCEはゲームソフトには再販制度が適用されてないにも関わらず
一時期定価販売を義務付けていた)
メーカーが流通に介入して市場(ショップ)をコントロールするという方法もあるけど
実績配分ではなく分納によってコントロールするという場合もあるにょ。
注文数量を1回で出荷するのではなく分けて出荷することで商品のダブつきを抑えるという
役割があるにょ。
ただし、この分納は時としては逆にマイナスに働くことがあるにょ。
例えばニンテンドー64ソフト「ヨッシーストーリー」はクリスマス前のベストな時期に
発売されたももの初回入荷数は実績配分数の8%でしかないにょ。
つまり、100本納品予定ならば8本しか入荷しないというわけにょ。
残りの大半はクリスマス後、年明け以降に納品されたにょ。
需要のピークをすぎて大量入荷されたために本来であれば売れたであろうソフトなのに
一気にワゴンセール行きとなったにょ。
ゲームソフトは自由競争であるが故にギリギリまで価格を下げて売ることも珍しくなく
そのためにそのような売れ残り商品があると他の製品での利益が吹き飛んでしまうにょ。
仮に78%で納品した商品を定価から15%値引きして販売して5%のポイント還元をした
場合には利益率3%もないにょ。
会員に加入してない人、ポイントカードを紛失する人が合計で半分を占めていると仮定
しても利益率は5%程度にょ。(ちなみにゲーム機の本体は定価で販売しても5%程度の
利益しかないためポイントを付けたら利益はほぼゼロになる)
利益率5%の場合、新品ソフトを100万円売ったら5万円の利益があるかといえばそうでは
なくて返品ができないため20本仕入れた商品のうち1本が売れ残ったらそれで19本分の
利益が相殺されることを意味するにょ。
だからワゴンセールでも何でも売り切るということが重要になってくるわけにょ。
ダブついているソフトをそのままの価格で放置していても価値は下がる一方だからね。
さて、ここまでは大手チェーン店に属するゲームショップの話にょ。
仮に大手のFCからハズれて独自経営する場合には流通経路から確保しないといけないにょ。
スーファミ時代までは普通に問屋から納品だったけど今はメーカー直送となっている
からね。
高い補償金を払えば契約は可能だけど各流通に補償金を支払いなおかつそれぞれに提示
されている条件を満たすとなると個人経営の無所属ショップでは厳しいにょ。
そうなると二次問屋から納品することになるけどただでさえ新品は利益を確保するのは
難しいのに高価な二次問屋からでは新品だけでは難しいため無所属ではほとんどの場合
中古専門となっているにょ。
後述(3)で中古ソフトがかなり厳しい状態になっているため経営状態が芳しくないから
少しでも経費削減のためチェーン店を脱会するというのはこのような流通の変化によって
命取りになりかねない状態になっているわけにょ。
(下記へ続く)
OPASのすべて!
久々にポケコンコーナーを更新したにょ。
更新したのはOPAS応用編の後編にょ。
http://ww5.tiki.ne.jp/~ochame/E500/TECH/opas_2.htm
前回(6月20日)には前編としてOPASで多ライン同時スクロールをする方法を書いたけど
今回はそれをさらに応用したものとなっているにょ。
このアニメーションとスクロールを同時使用することでドット単位でスクロールさせ
ながらアニメーション表示をする(画面上にあるオブジェクトを動かすなど)という
だけではなくアニメーションを使うことで64文字(384バイト)の制限を克服することも
可能になっているにょ。
また、縦方向に1ドットずつずらしたデータをアニメーションさせることで縦スクロールも
可能になっているにょ。
これを使えばドット単位で横スクロールするマリオタイプのゲームもBASICで十分な速度で
動作可能になるにょ。(リンク先に記しているようにOPASは表示オブジェクト数がどれだけ
増えても表示速度が落ちないため)
OPASは今から15年前(1995年)に私が命名したにょ。
OPASの元になっていたフォント書き換えはすでにPJ読者ならば常識的なテクニックに
なっていたにょ。
私はフォント書き換えでドット単位で動作させる方法を思いついていたのでそれを
使っておもしろいことはできないかと模索していたらPOKEで書き換えるフォント格納
参照アドレスを1変えることで表示が1ドットずれていることに気づきメインルーチン内で
そのアドレスを随時書き換えていけばドット単位でスクロールできるということに気が
付いたにょ。
そのアドレスを表示分だけ一気に変えたらアニメーションも高速に行えたにょ。
それがOPASにょ。
まだインターネットを利用していなかった当時、PJにもベーマガにもまだ発表されてない
ために勝手に私がOPASと命名したものを誌上で発表する機会を伺っていたにょ。
ただ、問題はOPASの威力が分かるゲームを作ろうとするとどうしてもメモリが多く必要に
なってしまいグラフィックを描くのも面倒なのでなかなか発表には至らなかったにょ。
そんな中PJ95年8月号に掲載されたたかじょゆうき。氏の「So Nervous」を見て無理に
1枚1枚アニメーションを描いていかなくてもパターン表示でやれば簡単だし、このような
アニメーション主体のゲームならばOPASの得意技だから分かりやすいということに気が
ついたにょ。
そういうわけでフォント書き換えの64文字(384バイト)制限の限界に挑戦されていた
この「So Nervous」を早速OPAS対応版として移植したところ約5倍の速さになったにょ。
当然のことながらそれをすぐに投稿はさすがにできなかったにょ。(同じプログラムを
同機種用に作り直したものを投稿して掲載されるはずがない)
というわけで再びOPASの威力を発揮できるゲームを考案する作業に戻ったにょ。
年は変わり1996年1月某日PJ編集部からPJ本誌で原稿を書いてくれないかという依頼の
電話があったにょ。
良い機会なので私が持っている高速化テクニックに加えてOPASを発表しようと考えたにょ。
単体投稿はできなかったけどOPASのサンプルゲームとしてであれば「So Nervous」の
OPAS対応版は問題ないだろうということでOPASのサンプルはこれですぐに決定したにょ。
そのままというのも何なのでPJ掲載版はオリジナルにない完成時の見本アニメを同時表示
することにしたにょ。(後にこのゲームのルールを変えた「パネルQ」を発表)
見本を表示することでゲーム自体がプレイしやくなった上に描画負荷が2倍になっている
にも関わらずオリジナルの約3倍速を実現できたにょ。
このOPASを発表したPJ96年5月号はPJ最終号となったにょ。
しかも、肝心のOPASを使ったプログラムのリストには誤植が多かったけど最終号であった
ために訂正しようがなかったにょ。
それ以降は自力でOPASを広めるべくOPASを活かしたゲームをどんどん作っていったにょ。
96年11月に作った「シュプール」では今回発表したアニメーションとスクロールの
同時使用のテクニックを用いているにょ。
この「シュプール」は97年に私が発行した「PJ増刊96」用に作ったけど後にベーマガに
投稿して採用されたにょ。
OPASはその後私が発行していたメルマガ「おちゃめ〜る」で詳細発表し、その記事は
後に立ち上げたWebサイト「おちゃめくらぶ」で正式コンテンツとしていつでも誰でも
見れる状態になったにょ。
これでOPASを使う人が増えるか・・・と思っていたら実はサイト上で発表されていた
サンプルプログラムに誤植(というかタイプミス)があることに7年経って発覚したにょ。
http://6502.teacup.com/ochame/bbs/133 (現在は修正済み)
これで、OPASがようやく誰もが使えるものになったけどもうポケコン(PC-E500系)を
使う人は激減していたにょ。
要望があれば「応用編を書くよ!」とサイト上に書いていたものの需要は無し・・・。
OPASを使ったゲームを発表してくれた鈴原透氏、上野雅博氏はすでにポケコン界から
去ってしまったようなのでなおさら難しいか・・・。
昨年10周年を迎え私が持っているBASIC高速化テクニックを(ほぼ)すべて発表したけど
OPAS関連だけはまだ心残りがあるという状態なのが個人的に気になったため今年になって
OPASの応用編を書くことを決意したにょ。
まずは今年の5月にはOPASを使った2LINEゲームである「2LINE UFO GAME」を発表したにょ。
OPASの理解を深めるにはシンプルなサンプルゲームが必要だからね。
今回のOPAS応用編で作ったサンプルプログラムも2LINE UFO GAMEのリストが部分的に
かなり活用されているにょ。
やはり、ただのサンプルというよりそれを使ったらこういうゲームができるという
具体的なものがある方が興味を惹きやすいしね。
さて、前回、今回の2回に分けたOPAS応用編を持ってOPASの使用テクニックに関しては
すべて公開となったにょ。
これによりOPASをフルに使ったゲームを作ることが可能になるにょ。
それだけではなくOPASの活用範囲が広がるためより多くの用途にOPASを使用できると
いうことにも繋がるにょ。
これで心残りなくこの世を去れる・・・ってことはないけど一安心できたにょ。
とはいえ、テクニックなんて覚えるだけでは意味が無く活用できなければ意味がないにょ。
活用範囲が広がってもどのように活用するかというのは実践経験を積まないと難しい
からね。
そういうわけでOPASを用いた実践的テクニックは今後も随時公開予定にょ。
実は、今回はあともう1つポケコンコーナーを更新したにょ。
みっぴゅ氏によるワンポイントテクニックの投稿にょ。(OPASの応用編と一緒に更新
しようと考えていたらすっかり遅くなってしまった)
http://ww5.tiki.ne.jp/~ochame/E500/TECH/TECH031.HTM
ワンポイントテクニックは随時募集しているたPC-E500のBASICで使用できるテクニックが
あれば要綱を見て投稿してほしいにょ。
DDR4は必要なのか・・・?
PC用のメモリはDDR2からDDR3へ世代交代をしたにょ。
コストを優先するネットブックでさえDDR3に対応したAtom N455、N475搭載機によって
DDR3に対応したくたいだからね。
DDR2ではなくDDR3を使うメリットは下記のようなものが挙げられるにょ。
(1)コストダウンのため
(2)統合型チップセットの性能アップのため
(3)CPUに必要な帯域を十分に確保するため
(1)に関して書くと工業製品は量産化によってコストダウンすることが可能であるため
主流のものを使った方が安くなるにょ。
技術がこなれた旧世代の方が安くできそうだけど半導体の場合はそうではないにょ。
それはダイサイズが価格に直結するからにょ。
最新のプロセスルールは昨今ではフラッシュメモリの製造に使われることが多いけど
これはダイサイズを小さくすることでコストダウンをしているにょ。(同じダイサイズで
あればより大きな容量になる)
旧世代のプロセスルールを使用していたフラッシュメモリが最新のプロセスルールを
使用したために価格は一気に下落したにょ。(あとSLCからMLCへの移行による影響もある)
現在はDDR2とDDR3は大抵の場合は同じ製造プロセスで作られているにょ。
しかし、今後DDR3が主流になれば新しい製造プロセスでDDR2のメモリが作られることは
ほぼ無くなるためDDR3の価格は下がり、DDR2の価格は据え置かれるということで価格の
逆転現象が起きてしまうにょ。
製造量が極端に少なくなれば量産効果とは逆にコストアップに繋がるため価格アップの
可能性さえあるにょ。
登場時は生産量が少なくDDR2と比べて高価だったDDR3もすでに4GBのモジュールに関しては
DDR2とDDR3は価格が逆転しているにょ。
すべての容量のモジュールにおいて(といっても市販されているPC用のDDR3メモリは
1GB以上しかないけど)価格が逆転するのは時間の問題にょ。
(2)については7月29日に統合型チップセットとメモリの関係について書いたのを見て
もらえたらいいけどそれをまとめると旧世代のPC66の頃は2D描画でさえ不十分だったのが
DDRによって2Dなら不満のないレベルになったし、DDR2によって3D性能のアップにも貢献
できるようになったにょ。
DDR3の最大メモリ帯域はDDR2の2倍(主流となっているDDR2-800とDDR3-1600を比較した
場合)ということはメモリ帯域がボトルネックになりがちなGPUにおいてそのボトルネックが
緩和されることを意味するにょ。
ただし、GPUコア性能(統合されたGPUの性能)が不十分だといくらメモリ帯域が向上しても
性能アップには繋がらないにょ。
(3)に関しては難しいところにょ。
というのも広いメモリ帯域であれば性能アップに直結するGPUとは異なりメモリ帯域は
必ずしもCPUの性能アップに繋がらないからにょ。
とはいえ、マルチコアが当たり前となってきている昨今のPCにおいてはシングルコア全盛
だった頃とは比較にならないくらい必要メモリ帯域は増えているのも事実にょ。
しかし、4コア、6コアをフルに使うハイエンドな使用方法でないとその恩恵はないにょ。
とはいえ、CPUだけではほとんどの場合は十分とはいってもGPUが使うメモリ帯域を考えると
必ずしもそうとはいえないにょ。
PC66であれば普通に使っていてもメモリ帯域が大幅なボトルネックになっていたにょ。
これはXGAフルカラーの表示(リフレッシュレート60Hzであっても単純計算で135MB/sの
帯域が必要)でPC66のメモリ帯域(理論上で533MB/s)の大半が消費されているからにょ。
実際にi810を採用したPCでスーパーπを動作させればそれは明確だけどXGAフルカラーと
VGA16色では3割以上の速度差が発生するにょ。
今時2D描画でそこまで落ちることはないけど3Dであれば(2)で書いたように多くのメモリ
帯域が必要であるためCPU性能が十分に発揮できないことは十分に考えられるにょ。
もっともハイエンドなCPUで統合型チップセットを使って3Dゲームをプレイするという
ような状況はほとんどないだろうけどね。(CPUのコア数が多いほどクロックが高いほど
影響が大きくなるためCULVのように低クロックであればあまり影響はないと予想できる)
さて、PCの主流はDDR2からDDR3へと変わりつつあるけどDDR4もすでにその仕様が策定
されているにょ。
http://pc.watch.impress.co.jp/docs/column/kaigai/20100823_388253.html
製品として登場するのはあと2、3年後とはいえメモリの規格が定まらないとPCが設計でき
ないから策定は急ぐ必要があるにょ。
特に昨今はメモリコントローラをCPUに内蔵しているからね。
従来であればAMD(Athlon64など)を除きメモリコントローラはチップセット側にあった
ためメモリの仕様変更があっても柔軟に対応できたけど今はメモリの変更があった場合は
CPUそのものを作り直す必要があるにょ。
AtomでもPineViewからはCPUにメモリコントローラを内蔵しているためN450、N470のDDR3
対応版であるN455、N475を別途用意したくらいだしね。
DDR2からDDR3へと問題なく移行できたけどDDR4も・・・というとそうではないにょ。
それはメモリスロット数が1チャンネル当たり1本になるからにょ。
現在のPCの主流はデュアルチャンネルであるためメモリスロットは2本しか確保できない
ということにょ。
ノートPCであれば一般的な製品はメモリスロットが2本しかないため問題ないけどデスク
トップPCであればこれはかなり辛いにょ。
現在は1チャンネル当たり2本であるためデュアルチャンネルのCPUであれば4本(Core i7の
ハイエンドモデルにある3チャンネルのCPUであれば6本)メモリが搭載できるからね。
これによって4GBのメモリモジュールを使えば4GB×4=16GBのメモリを実装することが
できるようになるにょ。
今はまだ32bitOSのWindowsが主流になっているため4GB以上のメモリを搭載してもRAM
ディスク程度にしか使用できないけど徐々に64bit対応のアプリは増えつつありハイエンド
ユーザーは64bitOSに移行しているにょ。
現時点では高画素化の進んだデジタル一眼のRAW現像を大量に行う人やフルHDの動画
編集をする人のようにその恩恵がある使い方というものは限られているものの4GBの
メモリモジュールが現実的な価格(1本1万円以下)となっているため8GB以上搭載する
ことは珍しいことではなくなっているにょ。
実際安価なCULVノートでさえ64bit版Win7が搭載されている機種もあるくらいだしね。
しかし、DDR4世代ではメモリスロット数が半減してしまうため最大搭載量も半減するにょ。
現在のDRAMチップの主流は1Gbitから2Gbitに移行しつつあるにょ。
2Gbitのチップだとそれを16個使うことで4GBのメモリモジュールになるにょ。
ここ最近4GBのメモリモジュールの急激な価格低下はDRAMチップが2Gbitの急激な増産の
影響が大きいにょ。
ムーアの法則通りに約24ヶ月でプロセスルールが進むと仮定すれば2年おきにメモリは
倍増するかというとそういう単純なものではないにょ。
CPUとは異なりハーフノード単位で作られるためにプロセスルールが変わったからといって
必ずしも容量アップになる(2Gbitだったのが4Gbitになる)というわけではないにょ。
2倍の容量のメモリが急に必要になるということはないためプロセスルールの進化は
ダイサイズ縮小によるDRAMのコストダウンへと転化されることが大半にょ。
DDR4が市場に登場する頃はDRAMチップはようやく2Gbitから4Gbitへと移行しようとする
時期だと推測されるため安価で済ませるなら4GB×2=8GB、多くのコストを支払っても
最大で8GB×2=16GBになると予想することができるにょ。
XPでは試作品レベル、Vistaでようやく完成品レベル、7でようやく選択する価値がでて
きた64bit版Windowsだけど次の世代ではいよいよ64bitがメインとなると思われるにょ。
その64bit版がメインとなる次世代Windowsが発売されているであろう時期にそのメモリ
搭載量ではさすがに辛いにょ。
これはチップを積層化するという手段があるにょ。
実際フラッシュメモリはその方法によって大容量化しているからね。
32GbitのNANDフラッシュを8層×2によって64GBのSDXCカードは作られているにょ。
現在NANDフラッシュで量産化されているのは32Gbitであるため単純に考えると4GBの
SDHCカード、USBメモリしか作れないけど積層化によってその制限は緩和されていると
いうことにょ。(逆に言えば32Gbitが主流になることでSDカードは1GB、2GBと比べて
4GBはコスト的に大きな差は無くなっているともいえる)
確かに積層DRAMが量産化されれば最大搭載量の問題も改善されるけど問題はメモリ
コントローラがそれに対応する必要があるしレイテンシ増大も懸念されるにょ。
レイテンシの増大はメモリが速くなればなるほど大きくなる傾向があるからね。
PC100のCL2とPC133のCL3はあまり変わらない性能だったけどそれと同じようにDDR400と
DDR2-533は後者の方がメモリ帯域が増えているにも関わらず実効性能に有為的な差は
見られなかったにょ。
これはメモリ帯域の増大があってもレイテンシが増大しているためそれがボトルネックに
なっているためにょ。
恐らくDDR3からDDR4へと移行するときもこの問題があるためレイテンシの大きなチップや
クロックの低いチップではDDR4とはいえDDR3と比べてアドバンテージがあるとは言えない
と思われるにょ。
つまり、DDR4は速く無ければ意味がないということにょ。
DDR3もDDR4と同じように1チャンネル当たりメモリスロット1本という案が出ていたにょ。
それは製品では1本では高速なものも使用できるけど2本使用時には速度制限を課すことで
1チャンネル当たり2本までのメモリに対応したにょ。(1チャンネル2本使用時にはDDR3-
1333までしか対応しない等)
DDR4はDDR3の最高クロックと同じ2133Mbpsが最低速度(最初に用意されているチップの
速度)となっており今後はさらにその倍速まで上がる予定になっているにょ。
したがって、DDR3のように高速メモリを使用時は1チャンネル当たり1本だけど低速メモリ
使用時には2本使えるという裏技的な方法は使用できないにょ。
実際のところ8コア、16コアのCPUが主流になったり、CPUに統合されているGPUの性能が
飛躍的に向上しない限りはDDR3でも十分だけどマルチコア化はともかくとしてGPU性能は
今後大幅な性能アップが予定されているにょ。
AMDは現在のローエンドGPUを超える性能となるSP数400程度のGPUをCPUに内蔵するという
噂もあるくらいだからね。
そうなると速さを取るか容量を取るかでしばらくDDR3とDDR4が共存するという可能性が
高そうにょ。
DRAMチップが8Gbitになれば容量的に考えてDDR3のアドバンテージが無くなるためその頃には
DDR4が主流になると思われるにょ。
速さだけがウリではない
デジタル一眼の新機種発表ラッシュの中、面白い機種が登場したにょ。
http://dc.watch.impress.co.jp/docs/news/20100824_388902.html
このα33、α55は「デジタル一眼レフ」だけどGH1のようにEVFを搭載し半透過型ミラーを
採用しているにょ。
一眼レフというのはミラーがあることでレンズから入った光(つまり撮影する被写体)を
ファインダーで見ることもできるし、フィルム(センサー)で捕らえることもできる
ようになっているにょ。
ミラーで反射された光はファインダーに導かれているのだけどシャッターボタンを押した
瞬間にミラーが跳ね上がり遮るものが無くなったためにセンサーに直接光が届くように
なり、そしてシャッターが閉じられたら自動的にミラーが元の場所に戻ることで再び
ファインダーで被写体を撮影できるようになるにょ。
ミラーの動く様子は実際に手元に一眼レフがあれば確かめてもらえれば一目瞭然だし、
ミラーが動作することで一瞬ブラックアウトになるというのも一眼レフユーザーならば
普通に体験していることなので今更書くようなことではないんだけどね。
しかし、このα33、α55は半透過型ミラーを採用しているためにミラーを動作させる
必要性がなくなっているにょ。
普通のミラーではなく半透過型ミラーを採用することによるメリットは下記の3つにょ。
(1)シャッタータイムラグが短い
(2)高速連写可能
(3)常時AFが可能
(1)半透過型ミラーを採用した一眼レフは古くから存在するにょ。
銀塩時代に登場したEOS RTは半透過型ミラー(ペリクルミラー)を採用によってシャッター
タイムラグ8m秒を実現したにょ。
上記のように一眼レフは複雑な動作をするミラーがあるためにシャッターボタンを押して
撮影可能になるまで多くの時間(といっても一瞬だけど)がかかってしまうにょ。
プロ機であっても20〜40m秒かかってしまうわけだし、入門機だと100m秒を超える機種も
少なくないにょ。
それを考えると8m秒というシャッタータイムラグの小ささはすごいといえるにょ。
野球を撮影する場合、時速144kmで投げられた(打たれた)ボールは秒速40mであるため
100m秒の間に4mも進んでしまうにょ。
天才的な反射神経の持ち主で打球がバットに当たる瞬間にシャッターボタンを押しても
4mも飛んでしまうためにバッターをアップで撮影したらボールが捕らえられないにょ。
これが8m秒であれば32cmで済むにょ。
つまり、シャッタータイムラグが小さいということは動体撮影において大きなプラスに
なるということにょ。
(2)連写についてもそれはいえるにょ。
ミラーの動きは高速かつ複雑であるため高速な連写に耐えられるようにするためには
非常に多くのコストがかかってしまうにょ。
そのため入門機では3コマ/秒程度、中級機で5〜7コマ/秒程度、プロ機で8〜10コマ/秒
程度となっているにょ。
しかし、連写の際にボトルネックになるミラーの動作が必要が無ければ連写性能は飛躍的に
アップするにょ。
今はセンサーがCMOSになっているため読み出し速度面では全く問題がなく唯一ボトル
ネックになるとすればシャッターの動作くらいだからね。
(3)一眼レフではミラーによってファインダーへ光を導いているだけではなく現在主流で
ある位相差検出方式だと測距用のセンサーにも導かれているにょ。
そのためシャッターボタンを押してミラーが上がってしまったらそれらに光が導かれ
なくなりAFも動作しないにょ。
動く被写体にピントを合わせてもそれはミラーが動作する前の段階でのピントであるため
シャッタータイムラグによってピントのずれが発生してしまうにょ。
しかし、それは銀塩時代に登場したα7700iから多くの機種で採用されている「予測駆動
フォーカス」によって緩和されたにょ。
それは被写体の動作速度からタイムラグ中にどの程度移動するのかを予測してその場所に
ピントを合わせるというものにょ。
半透過型ミラーは多くのメリットがあるのに採用例がほとんどないのはなぜなのか・・・?
確かにミラーが特殊であるためコストアップになるからというよりも暗所に弱くなったり
余分な光学系を通すために画質に与える影響が払拭できないからにょ。
ミラーによってフィルム(センサー)とファインダーに光を分断するため光を半々に
分けた場合にはファインダーが1段分暗くなってしまいセンサーに届く光も1段分弱くなって
しまうにょ。(1段分暗所に弱くなる)
透過率を上げれば暗所性能の問題は減るけど今度はファインダーが暗くなるという問題を
抱えているにょ。
やはり、半透過型ミラー採用機は普通に使うにはデメリットとなる部分が大きいため
それを使うメリットが大きい機種でないと採用しにくいというのが実情だと思うにょ。
しかし、それは銀塩一眼における場合でありデジタル一眼では必ずしもそうとはいえない
と思われるにょ。
α55では極めて透過率の高い薄型のミラーによって画質に与える影響はほとんど無くなって
そうにょ。(それでも100%の透過率ではなく1/3段程度は暗くなるという判断をしている
人もいるけど昨今の高感度に強いセンサーだと1/3段暗所に弱くなっても誤差の範疇だと
思われる)
そうなるとファインダーへはほとんど光が届かない(常時NDフィルターを使っている
ような状態)という問題があるにょ。
これはEVFでカバーできるにょ。
EVFならばセンサーが受光している被写体データを直接見ることができるからね。
それではミラーは何のために使われているのかというと位相差検出方式のセンサー用と
なっているにょ。
デジタル一眼も最近の機種はほとんどがライブビューに対応しているけどミラーがある
ため通常時はセンサーへの光は遮断されるのでライブビューを使用するためにはミラー
アップが必要不可欠となるにょ。
ミラーアップをするためにファインダーは当然ながら真っ暗で位相差検出方式が使えず
コントラストAFとなっているにょ。
昨今はコントラストAFも速くなったとはいえ、速度面では位相差検出AFには及ばないし
レンズ側がコントラストAFに最適化していないと十分な速度が出ないという問題がある
ために位相差検出AFがメインの一般的なデジタル一眼ではかなり不利な状況になって
いるにょ。
Panasonicのミラーレスカメラ(GH1、GF1などのマイクロフォーサーズ)がコントラスト
AFの割に高速なのもすべての交換レンズがコントラストAFに最適化しているというのが
大きいからね。
このα55は上記のように常時測距センサーへと光を導いているため常時ライブビューで
撮影しているにも関わらず位相差検出AFも常時使用可能になっているにょ。
とはいえ、この方法はミラーを使わず撮影センサー上に測距センサーを配置することでも
可能となるにょ。
7月22日に書いたFinePix F300EXRはミラーなんてないコンデジにもかかわらずその特殊な
センサーによって位相差検出AFが可能になっているにょ。
とはいえ、これはコンデジだからこそ許されることにょ。
F300EXRでも数万画素が測距センサー用として使われているけどこれがデジタル一眼ならば
さらに多くのセンサーを割く必要があるだろうからね。
それにすでにセンサーの画素ピッチがレンズの解像力を超えているコンデジであればその
画素欠損状態(測距センサーのある場所は撮影用に使えないため)なのは大した影響は
ないけどデジタル一眼の場合は解像力の高いレンズを使用時には画素ピッチ<分解能で
あるため画素欠損による明確な画質劣化が起きてしまうにょ。
元々ベイヤー配列ということで画素単位でRGBフルカラーの情報を持たず周囲の画素情報で
フルカラー画像を生成しているだけとはいえ、その影響は少なくないにょ。
α55は常時位相差検出AFが使えるというだけではなくミラーアップによるファインダーの
ブラックアウトもないためファインダーを覗いたまま撮影できるというメリットがあるにょ。
これは普通のデジタル一眼であればライブビュー使用時は背面の液晶モニタを見ながらで
ないと撮影できないという問題があるためライブビューを使用する場面は極めて限られて
いたにょ。
これが非常に有用なのは動画撮影にょ。
8月20日にも書いたようにデジタル一眼においても動画撮影機能の重要性は近年非常に
高まってきているにょ。
しかし、デジタル一眼で動画を撮るためにはライブビュー(ミラーを上げてコントラスト
AFを使用)の状態にする必要があるにょ。
それがこのα55であれば背面液晶もファインダーも使えるし上記のように位相差検出方式の
AFが常時使えるというメリットがあるにょ。
ここで問題なのはEVFそのものの性能にょ。
ファインダーは確かに光学式が最高なのには違いないけどそれにも優劣があるにょ。
一般的にはセンサーサイズによる影響で「フルサイズ>APS-C」だし、光学的な仕組みから
考えて「ペンタプリズム>ペンタミラー」となっているにょ。
入門機で用いられているAPS-Cセンサーでペンタミラー採用の光学ファインダーは構図を
確認する程度ならいいけど細かい部分を確認したり微妙なピントの確認を確認するには
あまり適しているとは言い難いにょ。
EVFも良いものと悪いものでは大きな差があるけどα55に採用されている144万画素のEVFは
現在市販されているデジカメ用としては最高クラス(GH1と同レベル)であるため下手な
入門機のデジタル一眼に採用されている光学ファインダーよりもピントの確認という観点
から見た場合はマシかもしれないにょ。
EVFは反応速度の面がネックだったけど近年はかなり改良されているし、拡大表示ができ
たり絞りや各種フィルターなどの設定による影響もファインダーに反映可能であるため
光学ファインダーよりも優れている面もあるにょ。
確かに画像処理をする分だけ遅延の発生があるからいくら良くなったとはいえ動体撮影
メインだと厳しいものがあるけど入門機に求めているレベルであればすでに達成ができて
いるのではないかと思われるにょ。
さすがに平均的なネオ一眼などに使用されているレベルのEVFだとさすがに一眼レフ用と
しては画素数の面でも速度の面でも使い物にならないけどね。
こうしてみるとα55、α33はかなり良いデジタル一眼に見えるけどそれは実際のレビューを
見るまでは分からないにょ。
いくら速いといってもあくまでは中身は入門機レベルだからね。
10コマ/秒の撮影ができるといってもAFの追従性がそこまで良いわけではないだろうし
透過型ミラーを採用によりEOS RTのようなものにシャッタータイムラグが短くなるかと
いえば入門機であるためそんなことはないだろうからね。
野球の打撃シーンのようにピントは定位置であれば10コマ/秒の高速シャッターが生きて
くるけど入門機であるためバッファ容量が小さそうなのですぐにバッファフルになって
しまう可能性があるにょ。
結局のところ入門機で速さだけが与えられても全体スペックを上げないとどこかで
破綻がくるということにょ。
これは実際に使ってみないと「使えるレベル」かどうか判断が難しいところだけどね。
また、ミラーレスカメラはミラーやファインダーがない分だけコストダウンになっている
けどこのようなミラー+EVFでは単純にEVFの分だけコストアップになっているにょ。
ペンタミラーによる光学ファインダーがない分だけ一般的な入門機のデジタル一眼より
コストダウンできている面もあるとはいえ、コストは「高性能EVF>ペンタプリズムに
よる光学ファインダー」だと思われるためコストアップは否めないにょ。
それが価格にも出ているにょ。
上位モデルのα55は本体だけで実売9万円台、α33は本体だけで7万円台の予定になって
いるからね。
せっかくの光学ファインダーも動画撮影時には使えない、コントラストAFは遅いという
一般的なデジタル一眼の問題点が克服されているためにコンデジからステップアップ
する人には入門機として考えた場合には多少割高(とはいえ連写性能を考えれば破格の
安さ)とはいえ最適な1台だと思われるにょ。
Atomに過度な期待をしないでください
ネットブック向けのデュアルコアAtom「Atom N550」の出荷が発表されたにょ。
http://pc.watch.impress.co.jp/docs/news/20100824_388936.html
N550の存在は半年前から噂になっていて6月にはすでに出荷可能な状態になっていたにも
関わらず今になってようやく出荷開始されたというのはやはりネットブック・・・というか
ULCPCの制約のためだと思われるにょ。
ここで幾度も書いたようにネットブックはIntel側、MS側が制約を設けていてそれを満たす
ことでIntelはCPUおよびチップセットを安価に提供し、MSは安価なWindows(ULCPC版の
Windows)を提供しているにょ。
ネットブックは「安さ」が最大の価値であるため安くするためにその条件を満たした機種を
各社が作っているにょ。
それゆえ、仕様が各社でほとんど横並びになってしまうのだけどそれはやむを得ない
ことにょ。(小型PCでタスクマネージャが4本というのは非常に萌えるのでこのN550を
使ってギリギリまで小さくしたネットブックは見てみたい)
さて、MS側の制約だけど最大の難点だったのがULCPCの条件としてCPUはシングルコアのみ
となっていたにょ。
しかし、いつでも出荷準備OKだったネットブック向けのデュアルコアAtomが今頃になって
出荷開始されたのはやはりその条件が緩和されたのではないかと予測できるにょ。
Atomのような低速(低TDP)のCPUに限りデュアルコアでもOKとなったのだろうけどもしも
ULCPCとして認められず通常のWindowsであれば低価格が最大の魅力となっているネット
ブックの最大の魅力がスポイルされてしまうにょ。
Windowsの価格はULCPC版が30ドル、通常版(Home Edition)が100ドル程度であるため
価格差が販売価格にそのまま転化された場合には70ドル差となるにょ。(すでに1台
あたりの利益が非常に少ないネットブックではその差を吸収するのは不可能であり本体の
価格アップは必至となる)
実売300ドル程度の価格のものが主流となっているネットブックにおいてはこの差は非常に
大きいにょ。
70ドルアップとなればいきなり価格が2割増しとなるわけだからね。
ULCPCの条件というのは固定的なものではなく変動的なものであり、XPと7とではまた
基準が変わるためデュアルコアAtomがULCPCとして認められたとしてもWin7のみとなる
可能性が高いにょ。
ULCPC版のWindowsはXPは普通のHome Editionと機能面の差異は無かったけど7のULCPC版と
なるStarterは明確な差別化をしているにょ。
この差は気にならない人にとっては大した差ではないけどやはりXPでは機能面での制約が
無かったことを考えると気になる人はいると思うにょ。
この差が生まれた背景にはXPにおいてはASUSの取引(初代Eee PCのヒットによる影響で
Windows離れが懸念された)のために急遽用意する必要があったというのもあるけど
XPはすでに発売から年数が経過しており減価償却が終わったOSだから差別化をする必要が
無かったというのもあるからね。(別SKUのXPを用意する方が逆にコストがかかってしまう)
しかし、7は最新OSでありこれから開発費を回収しなくてはならないため「無茶な安売り」
なんてできないためあえて機能を制限したStarterを用意したということにょ。
デュアルコアAtom N550を搭載したネットブックは年内にも各社から発売予定になっている
けれどULCPC版のWin7(Starter)が搭載されるのであれば現行のAtom N475を搭載した
モデルとあまり価格差はないと思われるにょ。
ただ、問題は性能にょ。
4月23日に書いたようにN550は1.5GHzとクロックが低いために1.83GHzのAtom N475と
比べて性能アップになるとは限らないからね。
これは動作させるアプリによっても左右されるもののマルチスレッド(4スレッド)に
最適化してあるものでない限りはN475の方が性能面で上回るという可能性もあるにょ。
シングルコアとデュアルコアではベンチだけでは計れない差があるのだけどデュアルコアと
クアッドコアではそこまで大きな差はないにょ。
シングルコアAtomは論理デュアルコア(1コア2スレッドCPU)であるためそれが物理
デュアルコア(2コア4スレッドCPU)になった場合には「シングルコア→デュアルコア」の
場合のような明確な差は生まれにくくなってしまいそうにょ。
重いアプリを動作させそれと同時に別にアプリを動作させるという場合は確かに物理
デュアルコアが効いてくるけどAtom搭載のネットブックでそんなことを行う機会はかなり
限られると思うにょ。
実際にどの程度の性能になるかは製品が発売されてレビューが行われれば一目瞭然だけど
クロックを1.5GHzに落としたというのはTDPの問題もあるし、CULVとの差別化もあると
思われるにょ。
セレロンU3400が思ったほど(というか予想通り?)大した性能ではなかったため
1.83GHzのデュアルコアAtomであればその差はほとんど無くなるだろうからね。
現状ではHD動画の支援機能の有無という非常に大きな差がU3400とN550にはあるためそれ
だけで差別化はできているとは言えなくはないけどネットブック向けのAtomも来年登場する
次の世代のものからはHD動画の再生支援機能を内蔵してくるためそれは明確な差ではなく
なってくるにょ。
Atomは当初からのようにローエンドの下に新たに設けられた低価格を実現するためのもの
であるためローエンドを性能面で追い越すことは今後もないと思われるにょ。
デュアルコアAtomのクロックが2GHzくらいになり、セレロンU3400を脅かす頃にはCULV用の
CPUはさらなる高性能化しているということにょ。
もっとも、Atom N270(1.6GHz)でも十分に感じている人はいるわけだからローエンドより
下といっても侮ることはできない(人によっては十分に実用的に使える)というのは
決して間違いではないにょ。
昔とは異なりPCの使い方も多様化しているためローエンドより下であっても十分に使う
ことができるからね。(ノートPC用だけを考えても昔は同じ世代ではハイエンドとロー
エンドは2倍程度しか性能差がなかったけど今はハイエンドのCore i7 940XMとAtom N455
では5倍以上の性能差がある)
後出しで勝てなかったら意味がない!?
さて、今月、来月はデジタル一眼の新製品ラッシュにょ。
基本的に入門機は年に1回、中級機は2年に1回の頻度でモデルチェンジがあるけどこの
時期に多くの機種が発表されるのは9月にドイツで開催されるフォトキナの影響もあると
思われるにょ。
ここ1週間に発表されたものを見るとニコンは大幅な改良が施された入門機のD3100、
ソニーは大胆な仕様の入門機のα55、α33が挙げられるにょ。(個人的にはD3100は
ちょっと欲しい機種、α55は買わないけど一度使ってみたい機種であり、本命はやはり
D90の後継機か)
やはり、そうなると世界最大シェアを持つキヤノンの動向が気になるところにょ。
この度、2年前に発売された中級機EOS 50Dの後継となるEOS 60Dが発表されたにょ。
http://dc.watch.impress.co.jp/docs/news/20100826_389278.html
この60Dは数ヶ月前までは出ないという噂さえあった製品にょ。
というのも中級機はすでにEOS 7Dがあるし、入門機は他社比べても十分高い性能を持つ
EOS Kiss X4があるからにょ。
この間に位置するであろう50Dの後継機というのは非常にニッチな需要になりそうだ
という意見も少なくなかったにょ。
しかし、D90に対抗するカメラは必要ということで出すことになったのだと思われるにょ。
D90は脱入門機の人を対象に売れているからね。(小型軽量を活かしてサブ機として
使うハイアマチュアやプロもいる)
◎クラス別に見たニコンとキヤノンのデジタル一眼の一覧
ニコン キヤノン ペンタックス(参考)
プロ機上位 D3X EOS 1Ds MarkIII 645D(中判デジタル)
プロ機下位 D3s EOS 1D MarkIV
フルサイズ下位 D700 EOS 5D MarkII
中級機上位 D300s EOS 7D
中級機下位 D90 EOS 50D → 60D K-7
入門機上位 D5000 EOS Kiss X4
入門機下位 D3100 EOS Kiss X3 K-x
シェアが小さいために多くの機種をラインナップできないペンタックスであれば1つの機種で
複数のクラスの相手をしなくてはならないけどニコンにできてシェアナンバーワンの
キヤノンにできないはずがないからね。(EOS 7DではD90の相手をするのはさすがに
無理がある)
さて、上記記事で仕様を確認してもらえたら分かるように60Dは単純に7DとKISS X4の間の
スペックと言っても間違いではないにょ。
唯一60Dの独自性があるのはバリアングル液晶とカメラ内RAW現像くらいにょ。(というか
他社製品では普通にできていたのに今までEOSではカメラ内RAW現像ができなかったのが
不思議なレベル)
では、肝心の50Dから見ると動画機能の追加と画素数が1500万から1800万へと増えたのが
主な違いにょ。(この2点に関しては60Dと同じくX4と7Dも対応している)
画素数が増えたことは賛否両論だけど解像力のあるレンズを使用すれば1800万画素の
性能は生かせるわけだし、画素数が増えたことによる暗所ノイズの増加はX4を見る限り
上手く処理されているので問題ないにょ。
ただ、50Dより画素数が増えたことで連写速度が6.3/秒から5.3コマ/秒へとダウンして
しまったにょ。
これは画像処理エンジンのDIGIC4がボトルネックになっていると思われるにょ。
EOS 7Dは8コマ/秒を実現するためにDIGIC4を2つ搭載しているくらいだからね。
60DでDIGIC4を2つ使わなかったのはやはりコストダウンのためだと思われるにょ。
さて、X4と7Dの間の性能で間の価格というのならばそれに合った人にとっては価値が
あると思われるにょ。
X4の発売当初の予価は本体9万円、7Dは本体19万円に対して60Dは本体13万円となっている
わけだから単純に価格で選ぶのもありとなるにょ。
しかし、X4は発売から半年余り、7Dも1年近く経つために価格下落しているにょ。
価格com最安値を見てみると今日現在はX4が59655円、7Dが113790円に対して60Dは現在
予定されている最安値は113990円でありこれは7Dの価格とほぼ同じにょ。
つまり性能は、X4<60D<7Dなのに価格はX4<<60D=7Dになっているということにょ。
後から発売された新製品が既存の旧製品より割高に感じることはPCなどにおいてもいえる
ことであり別に珍しいことではないにょ。
ただ、今回の場合は先に発売されただけというだけであるためPCの型落ち品のように
旧製品という考え方は正しくないにょ。
X4も7Dもそのランクにおける最新の製品だからね。
多くの場合は後出し製品は割高になってもその分先行発売よりも高性能にすることで
割高感を払拭していったにょ。
例えば先日発表されたニコンのD3100は入門機だけどどのニコン製品よりもすぐれた
動画撮影性能も持っているにょ。
これは後発のメリットにょ。
60Dには後発のメリットがないにょ。
正しくはカメラ内RAW現像などがあるためほとんどないというべきかもしれないにょ。
もしも60DにD3100のように後発の大きなメリットがあればX4や7Dではなく60Dを選択する
という人もいるだろうけどそれがほとんどない以上は価格面で7Dの実売価格よりも
明らかに安い価格になるように60Dは設定すべきだったにょ。
しかし、60Dの価格設定が間違っているというわけではなく7Dの価格下落が大きいと
いうだけの話にょ。
7Dの性能で実売11万円台というのは破格だからね。
7Dの価格が下がったのはX4の影響が大きいと思われるにょ。
X4を入門機の割りに高スペックにしたばかりに60Dの居場所がなくなってしまったと
いうことになるにょ。
60Dをあえて選択するというならばバリアン液晶やカメラ内RAW現像が目的ではなく
恐らく入門機は嫌だけど中級機の7Dは大きく重いから嫌という人の方が多そうにょ。
50Dまでのマグネシウムボディではなくプラスティックボディへと変わってしまった
けれどこれは小型軽量を望んでいるユーザーが少なくないというのかもしれないにょ。
実際中級機の割りに小型軽量のニコンD90は高い人気を集めているからね。
このことが理由となり記録媒体もCFカードからSD系カードへと変わったと思われるにょ。
60Dは居場所(実売価格で考えたポジション)は微妙であり、その存在自体を疑問視して
いる人は少なくないけれどサイズ、重量、スペックのバランスが良いために価格さえ
こなれてくればおすすめできそうな機種になりそうにょ。
ただし、現時点であればキヤノンのデジタル一眼は普通の人ならばX4がオススメだし、
スペック重視であれば7Dであり、60Dはコストパフォーマンスよりバランスを重視すると
いう極めて限られた人にしかオススメできない感じにょ。
実用性を求める人にとっては微妙な機種だけど・・・
東芝のノートPC25周年記念として発表されたlibretto W100だけど6月24日に書いたように
私はコンセプトは明瞭だけど時代が追いついてないという感想を持ったにょ。
確かに興味深い機種ではあるもののバッテリ駆動時間や操作性の面の問題点があるため
ただのミニノートPCとして買うと失敗してしまう可能性も高いにょ。
W100がどの程度使えるものなのかはようやくレビューが公開されたのでそれを見て判断する
ことにするにょ。
(レビュー前編) http://plusd.itmedia.co.jp/pcuser/articles/1008/25/news020.html
(レビュー後編) http://plusd.itmedia.co.jp/pcuser/articles/1008/26/news025.html
やはり、真っ先に気になるのは操作性だと思うにょ。
http://plusd.itmedia.co.jp/pcuser/articles/1008/25/news020_2.html
折りたたみ式の2画面液晶は今まで発売されたPCには存在しなかったためにイメージで
語るしかないのだけどやはり現時点ではこのスタイルに最適化されたアプリがないため
イメージでしか語ることができないにょ。
センサーによって自動的に縦横切り替えが行われるみたいだけどそれが敏感で少しだけ
傾けても切り替えが発生し、その切り替えに数秒かかるというのはあまり良い感じが
しないにょ。(縦横を固定できる設定はあるのか?)
次にキーボードを見てみるにょ。
http://plusd.itmedia.co.jp/pcuser/articles/1008/25/news020_3.html
6月26日に書いたようにキーボードは必ずしも必要不可欠なものとはいえないにょ。
文字入力を頻繁にかつ大量に行うのであればハードウェアのキーボードは必須だけど
そういう人はそういう機種を買うかキーボードを別途持ち歩けば済むという問題であって
このようなキーボードレスの端末の存在を否定するというのは正しくはないからね。
しかし、そんなに大量に文字入力をしない人であってもまともに使えるレベルなのか
それとも外付けキーボード無しでは使えないレベルかというのはやはり大きな差だと
思われるにょ。
こればかりはレビューを見ても判断に苦しむため実際に店頭などで試してみるしかない
と思われるにょ。
ソフトウェアキーボードは自分好みの配列を選択できるというメリットがあるため
デフォのものを1つ試しただけでは判断はできないのが難点にょ。(ユーザーの手によって
追加可能なのであれば今後さらに使いやすいキーボードが登場する可能性もある)
あと難点はポインティングデバイスにょ。
タッチパッドもキーボードと同じくソフトウェアで実現しているけどこちらもキーボード
と同じく超えられない壁が存在するにょ。
立体的なキーボードであれば平面でしかないソフトウェアでは大きく劣るというのは
イメージ的に分かるだろうけど元々平面のタッチパッドであればソフトウェアで実現
したとしてもそれほど劣ることはないと考えている人がいるのではないかと思われるにょ。
タッチパッドに関しては8月7日に書いたようにアバウトな操作(画面の端から端まで
一気に移動)と細かい操作(1ドット単位での操作)を両立できるというメリットがある
もののソフトウェアタッチパッドでは液晶のdpiを超えるような操作はできないにょ。
正しくは液晶パネルとタッチパネルは独立したものだからタッチパネルの分解能を大幅に
高めておけば実現が可能なのだろうけどそこまでの精度も分解能もW100のタッチパネルに
ないために上記レビューのような評価に至ったのだと思われるにょ。
キーボードはこのようなタブレット型のPCを買う人だと使用頻度が低いだろうけど
ポインティングデバイスはWindowsを使用する限りは必要不可欠であるためポインティング
デバイスこそハードウェアで実装すべきだったと思われるにょ。(タッチパネルがある
から十分だと割り切れる人にとっては問題ないことだけど)
やはり気になるのは性能面にょ。
使用しているのはArrandale世代のPentiumということで同世代のセレロンであるU3400を
搭載したCULVノートよりも高スペックとなるにょ。
セレロンU3400に関しては8月19日に書いたようにクロックが従来のセレロンSU2300よりも
下がっている分だけ性能がダウンしているという残念なものだったけどW100はU3400の
1.06GHzよりもクロックが高いPentium U5400(1.2GHz)を搭載しているため従来のCULV
ノート並のCPU性能はあるにょ。
SU2300(1.2GHz)も低スペックなセレロンとはいえ、Atom N270(1.6GHz)と比べて
2〜2.5倍くらいの性能はあるため一般的なネットブックとは別格の性能といえるにょ。
まして、このW100クラスのサイズのネットブックは存在せずAtom Zを搭載のUMPCしか
ないためAtom Z530(1.33GHz)あたりと比べると3倍近い性能差になるにょ。
さらに大きいのがGPU性能にょ。
8月19日でもU3400はSU2300よりもCPU性能が下という結論を出したもののGPU性能に関しては
SU2300を搭載したCULVノートに使われているGS45に内蔵のGMA X4500よりもU3400に内蔵
されているIntel HD Graphicsの方が1.5倍くらい性能が上だったからね。
ベンチによって大きく左右されるけど大ざっぱにGPU性能を比較すると下記のようになるにょ。
US15W 945GSE PineView GS45 Arrandale
GMA500<<GMA950<GMA3000<GMA X4500<Intel HD Graphics
(※不等号1つで1.5倍くらいの性能差)
UMPC(Atom Z)のチップセットUS15Wに内蔵のGMA500は軽めのオンラインゲームでさえ
動作させるのが厳しいレベル(というかAeroでさえ動作が重いレベル)なのに対して
Intel HD Graphicsは決して高性能とは言えないものの軽めのゲームならば十分に動作
させることができるくらいの性能があるにょ。(両者は1桁異なるくらいの性能差がある)
つまり、同クラスのサイズ、重量のPCと比較すればダントツのCPU、GPU性能を持っている
ということになるにょ。
常駐ソフトが多い関係上ここまでしないと快適には使えないためこのようなスペックに
なったのだと思われるにょ。
さて、ハイスペックの弊害となっているのがバッテリ駆動時間にょ。
http://plusd.itmedia.co.jp/pcuser/articles/1008/26/news025_2.html
何せ、BBenchで測定した場合でさえ標準バッテリで1時間22分、大容量バッテリで2時間48分
しか動作しないという結果だからね。
最大で1時間程度しか使用しない人ならば標準バッテリで十分だし、最大2時間程度の使用
という人ならば大容量バッテリで十分まかなえるとはいえ、多くの人が不十分と感じる
駆動時間だと思われるにょ。(私自身は実駆動3時間を最低ボーダーラインに設定して
いるため大容量バッテリ使用時でやや不足のレベル)
昨今のPCでここまで駆動時間が短いものはWILLCOM D4以来見たことがないにょ。
バッテリ駆動時間が短いのは軽量化のためであり、重くなっても6セルのバッテリが用意
されていれば標準バッテリの3倍くらいは駆動可能になると思われるけどそれでも2画面
というのがボトルネックになっているのかバッテリ容量当たりの駆動時間で考えても
一般的なモバイルノートよりもやや短めに感じるにょ。
あとハイスペックの弊害は音と熱に現れるにょ。
Atom Z530+US15WであればTDP4.5WだけどPentium U5400+QS57ではTDP21.4Wに達する
からね。
「TDP=発熱」ではないけどそれだけ熱設計が難しいことを意味するにょ。
強力な廃熱を行うためにファンを高回転で回したらそれは大きな音に繋がるし、ファンを
低速回転したら十分な廃熱ができず本体筐体から熱が放出されるため筐体温度の増加に
繋がるにょ。
一定の熱量を発する以上は静音と低発熱の両方を優先することなんてできないにょ。
まして、無理な小型化を実現するためにそれは非常に困難なものとなっているにょ。
実際、W100のレビューを見てもアイドル時で39db、高負荷時で47dbというのはお世辞にも
静音とは言い難いにょ。
レビューから想定した音の大きさ音質から考えると仮に使用している本人が許容できても
周囲の人は許容してくれないかもしれないというレベルだろうからね。(だから私は
モバイルに特化した端末は可能な限りファンレスを求めている)
また室温27度の環境下で動作時の筐体温度が最低の場所(下画面左)でも32度、最高の
場所(天面左)だと50度というのはファン付きのノートPCとして考えるとかなり高めと
いえるにょ。(ファンレスであればこれくらいに達する機種は確かにある)
手に触れる部分に関してはあまり温度が上がらないように廃熱の流れを工夫している
というのが唯一の良い部分だと思われるにょ。
これが温度が高くなる場所が普通に持って触れる部分であれば同じ温度であっても問題が
大きくなるにょ。(iPhone 4のアンテナ問題も普通に持って触れる場所にデッドスポットが
あったからこそあのように大きな問題へと発展してしまったわけだし)
やはり、タッチパネルを前提にして作られた非Windowsのタブレット端末(iPad等)と
比べてWindows7がいくらタブレット機能を強化していようがWindowsそのものがキーボードと
マウスを前提としたUIとなっているためやはり使い勝手はイマイチのようにょ。
それに何度も書いているように2画面タッチパネルは先進性が高いとはいえそれを生かせる
アプリがないために現状では折りたためるということしかメリットがないにょ。
確かに折りたたんだときの状態はほぼVAIO Pに匹敵する小ささであり、スペックを考えた
場合には非常に優秀とはいえその分だけ失うものも大きいにょ。
それらのデメリットとこのW100を使うことによるメリットを天秤にかけそれでもプラスに
なると考えた人でないと買ってから不平・不満が出ることが必至の端末といえるにょ。
サイズとスペックを考えれば決して高価でははないけどね。
また資金に余裕があり、コレクター目的で買える人であればこのようなPCは当分登場しない
ために買って損はないと思われるにょ。(そんな人がどれだけ居るのかは知らないけど)
紙(アナログ)からデジタルへの移行はできるのか?
私が今使っているケータイ(Softbank 905SH)は購入して約4年になるにょ。
これは今まで私が使ってきたケータイで最も長期間の使用となっているにょ。
905SHは4台目のケータイだけど最初はデジタルツーカー、2台目はJ-PHONE、3台目は
vodafone、4台目はSoftbankとすべて社名こそ違うけどキャリア変更をしたことは1度も
ないにょ。
たまたま親会社が変更になったというだけの話だからね。
その流れからするとSoftbankから別の社名に変わった時が機種変のタイミング・・・と
思ってしまうけどさすがに今のところそんな様子はないにょ。
905SHのバッテリは死にかけていてバッテリがフルでないと数時間しか持たないという
実用レベルではない状態だったために4月に新しいバッテリを購入したにょ。
そのお陰で今のところは普通に使えるけどさすがにこのバッテリが駄目になるまでには
機種変更をしたいところにょ。
とはいえ、ガラケーで特に欲しい機種がないのがネックにょ。
そうなるとやはりスマートフォンか・・・?
http://plusd.itmedia.co.jp/mobile/articles/1008/27/news012.html
確かにここ1年でスマートフォンは急増したにょ。
特にドコモはスマートフォンに力を入れているにょ。
iPhoneを獲得できなかったというのもあるだろうけどね。
スマートフォンは維持費が高くキャリア独自機能などもほとんど搭載されていないため
国内では数年前までは一部のコアユーザーのみだったけど機種が増えることによって
選択の余地が出てきたのがやはり大きいにょ。
W-ZERO3を除けば事実上iPhone一択だった国内のスマートフォン市場においてもAndroidが
大躍進したのがその理由だと思われるにょ。
8月9日に書いたように世界市場で見れば2012年にはiOS搭載機(iPhone、iPad)をAndroid
搭載機が台数ベースで追い越すという予想も出ているくらいだからね。
しかしながら、国内では好んでスマートフォンを使う人もいれば逆にスマートフォンは
使いたくないという人もいるにょ。
それは価格面などの問題ではなくキャリア独自サービスが使えないということが
挙げられるにょ。(今はスマートフォンのパケット定額料金もケータイでフルブラウザを
使用時と同等まで下がったため1台のみの維持費はスマートフォンとガラケーはほとんど
変わらない)
ドコモは7月16日に書いたようにスマートフォンでspモードのサービスを開始したにょ。
要するにスマートフォン向けのキャリア独自サービスだけどdocomo.ne.jpのキャリア
メールが使えるようになるというのも大きいにょ。
ケータイ向けサービスは数多くあるけどメアドのドメイン名でケータイでの使用と
判断しているサービスもあるからね。(ケータイ用のメアドに登録用のメールを送り
それで登録することでそのサービスが使用可能になるという感じ)
また、スマートフォンはワンセグやおサイフケータイといったガラケーでは当然と
いえる機能にもほとんど対応されてないにょ。
これは現在のスマートフォンが元々海外で作られたものだからにょ。
ワンセグやおサイフケータイというのは国内の独自進化の段階で生まれたものであるため
それがガラケーのガラケーたる所以の1つともいえるにょ。
しかし、スマートフォンがより多くの人に受け入れられるためには国内産のガラケー的な
スマートフォン(国内のニーズにマッチしたスマートフォン)も必要になると思われるにょ。
このような理由によりスマートフォンは2台目持ち用として購入する人も少なくないにょ。
2台目用であれば通話のしやすさはそこまで要求されないし、国内向けの独自機能も
1台目のガラケーでまかなえば問題ないからね。
とはいえ、さすがに2台分の料金を支払うのはコスト面の負担が大きすぎるにょ。
私がスマートフォンを欲する理由はやはりネイティブアプリの使用が可能ということと
一般的なガラケーよりも遙かに快適なWeb閲覧が可能になるからということにょ。
ガラケーも初期のiモードのように1ページ2KBまでで画像はGIFのみといった著しい制限が
あった頃とは異なり今となってはかなり高性能化されているし、フルブラウザ登場に
よって一般的なPCサイトも閲覧することが可能になったというのも大きいにょ。
ここ数年はケータイの液晶画面はFWVGAが主流となっており、解像度の面においても一般
サイトを閲覧するのに大きな不満は無くなったしね。
とはいえ、解像度の制約が無くなれば逆にフルブラウザがサポートしている機能の貧弱さが
目立つ結果となったにょ。
所詮はフルブラウザもJAVAアプリにすぎないからね。
その点、スマートフォンであればかつてのPDAのように好きなアプリを導入可能になる
というのは大きいにょ。(iPhone用に関してはWebブラウザはアップル社の規定によって
作ることができないけど)
これはかつてのPDAのようなものにょ。
PDAは事実上姿を消したわけだけどこのようにスマートフォンに形を変えて今も尚、生き
ながらえているということにょ。
私は80年代より電子メモ(シャープのカナメモ)→電子手帳(PA)→PDA(PI、MIザウルス、
CLIE等)と使ってきたけどリナザウ(SL-C750)を最後に新しいPDAは買ってないにょ。
それはPDAは上記のようにスマートフォンへと姿を変えたためにPDAとしての選択肢が無く
なったというものもあるけどPDAの活用方法や認識の変化もあるかもしれないにょ。
当初はあくまで電話番号や住所やスケジュールを書いたいわゆるPIM用として活用して
いたものの徐々に音楽再生、動画再生、Web閲覧などのPC的な使い方のウェイトが大きく
なってしまったからにょ。(96年に購入したPI-6500によって紙の手帳を使うことが
無くなった)
仕事でも使えるからということでA5ファイルサイズのノートPCであるFMV6300MC(中古)を
買ってからはリナザウの出番はかなり減ったにょ。
それは座って使用できる場所では(当時としてもスペックが低かったFMVだけど)PCの方が
圧倒的に快適だからにょ。
しかし、そうなると立った状態でもPCが使えたら便利だろうということで買ったのが
VAIO UX(中古)にょ。
UXを買ってリナザウを持ち歩くことは無くなったのだけどそこで困ったのはメモを取る
という作業ができないことにょ。
普段持ち歩いているノートPCのR5は常時サスペンドであるため4秒くらいで起動するけど
UXはバッテリ駆動時間が短いので常時休止状態で使用しており起動まで40秒くらいかかる
ためにょ。
メモを取るのに40秒も待てないにょ。
自分が待つならまだしも電話越しに今から40秒+α(検索の時間)待ってくれなんて
とても言えないにょ。そういうことで昨年4月26日、今年の2月12日に書いたように再び
紙の手帳が活躍するようになってしまったにょ。
では、スマートフォンを買えば再びデジタルへと戻ることができるのか・・・?
確かにPDA的な使用ができるならばその可能性は高いにょ。
PCとは比べ者にならないくらい起動が速いし、Web閲覧だけを比較してもリナザウに搭載の
Webブラウザ(NetFront3.0)よりは圧倒的に快適だろうからね。
WindowsやIEに依存したようなWebサイトやマシンスペックを要求するようなWebサイトで
あればスマートフォンでは厳しいだろうけどAndroidもFlash10.1に対応したために
多くのサイトで問題なく閲覧ができそうにょ。
Flashに対応していないiPhoneなどはそういった面では厳しいけどYouTubeなどの動画
サイトは専用プレイヤーをで快適に閲覧できるしWebの主流がHTML5に移行すればFlash
非対応というのもそれほど問題ではなくなるにょ。
ニコニコ動画も9月末にHTML5に対応し、Flashに非対応のSafariでも普通に閲覧やコメント
入力が可能になる模様にょ。
http://www.itmedia.co.jp/news/articles/1008/27/news064.html
ただ、やはり手帳代わりにするならば電話機(ケータイ)とは物理的に分離していた
方が都合が良い場面も多いにょ。
そうなると結局ガラケーとスマートフォンの2台持ちという形がベストという結論になって
しまうにょ。
しかし、それは私の場合は資金面の都合で難しいにょ。
では、現状のガラケー+紙の手帳という状態を維持するのが良いのかというば、そういう
わけではないにょ。
要は通話機能の付いてないAndroid OSやiOS搭載機を買えば良いというだけにょ。
これならば月額料金は不要にょ。
通信に関してはPCで使う関係上Pocket WiFiがあるため無線LANさえ搭載していればいい
からね。
そこで私が最も注目しているのが、iPod touchにょ。(スマートフォンと差別化のためか
中途半端に大きなものが多い中、iPod touchだけが小型で高性能を維持している)
来月発表予定の新型はiPhone 4の網膜ディスプレイを搭載した機種になるだろうし、
iOS4が搭載されるだろうからマルチタスクに対応するため私が感じていた不満点はほぼ
解消されることになるにょ。(残りの不満点はFlashに対応していないという点だけど
これは上記のように今となってはそれほど致命的な問題ではない)
ただ、私はiOSを店頭以外でまともに使ったことがないため手帳の代わりになるレベルかは
実際に使ってみないと分からないということにょ。(せめてかつてのPI、MIザウルス並の
使い勝手があれば何とかなるだろうけど)
紙(アナログ)からデジタルへと再び移行できるかどうか判断するのはもう少し後に
なりそうにょ。
USB3.0が普及するための課題
USB3.0もインターフェイスカードおよび対応機器の登場から数ヶ月経ちPCに実際に導入して
いる人も結構いることだと思われるにょ。
すでに高速バスといえばeSATAがあるのだけどUSB3.0のアドバンテージはやはりPCにおいて
デファクトスタンダードといっても良いUSB2.0/1.1と互換性があることだと思うにょ。
「USB3.0の普及は進むか?」というのは論じるまでもなく将来的には現在のUSB2.0が
USB3.0へと置き換わるというだけの話にょ。
そのレベルに達するためにはOSでの標準対応とUSB3.0ホストコントローラがチップセットに
統合されるのは必須といえるにょ。
USB1.1はWin98、USB2.0はWin2K SP4、XP SP1でようやく標準対応したわけだけどUSB3.0は
Win7 SP1から標準対応となるにょ。
ホストコントローラがチップセットに統合されるのはAMDは来年、Intelは再来年以降の
予定となっているにょ。
つまり、本格普及は再来年以降(2012年以降)となるというわえにょ。
したがって、現時点でUSB3.0は「気が付いていたらPCに搭載されていた」という形では
なく「USB3.0を意識的に導入する」という形がメインになるにょ。
PCによってはUSB3.0ホストコントローラを別途組み込むことでUSB3.0対応を謳っている
機種もすでに多く存在しているけどホストコントローラの価格を考えるとローエンドまで
普及するにはチップセットへの統合は不可欠といえるにょ。
さて、ここでUSB3.0に関して一部問題が発生しているにょ。
USB3.0は上記のように「下位互換性(USB2.0/1.1との互換性)がある」ということが
メリットであったけど下位互換のないインターフェイスカードが市場に出回っている
らしいにょ。
http://monoist.atmarkit.co.jp/feledev/articles/fline/02/fline02a.html
現時点での主流となっているUSB3.0のホストコントローラはルネサスエレクトロニクス社
(旧社名:NECエレクトロニクス)のチップだけどそれ以外の台湾ベンダーのチップでは
下位互換のないものが多く存在するため注意が必要になるにょ。
もっとも下位互換がないというだけで「USB3.0専用」として使うのであればそれらの
チップを搭載のインターフェイスカードでも問題はないにょ。
現時点ではUSB2.0インターフェイスを持たないPCは存在しないためUSB3.0専用として使う
のには大きな問題は発生しないにょ。(実際問題のチップを搭載したPCはすでに出回って
いるけどUSB2.0ホストコントローラはチップセットに統合されているものを使用されて
いるのでUSB3.0用とUSB2.0/1.1用と物理的に分かれているため問題ない)
さすがにチップセットに統合される段階でそれはまずいけどね。
「USB3.0専用コネクタなのでUSB2.0/1.1対応の機器は動作しません」なんていうPCが
ユーザーに受け入れられるとは思えないにょ。
現時点だとeSATAは付いているけどUSBインターフェイスは搭載されてないPCが普通に
使えるかどうかを考えれば予想はできると思うにょ。(再来年の時点でほとんどのUSB機器が
3.0専用になるなんてあり得ない話)
USB3.0ホストコントローラのチップセットへの統合は元々は来年に登場するSandy Bridge
世代で行われる予定だったにょ。
http://pc.watch.impress.co.jp/docs/column/interface/20100805_385435.html
それが1世代遅れる予定(まだそれさえも確定ではない)になったのはUSBの下位互換性を
持たせた複雑な転送モードをサポートするために手間がかかっているのではないかと想像
できるにょ。
昨年11月21日には私は「USB3.0はUSB2.0よりも普及が遅い」と予想したにょ。
これは2.0で大きな不満がないのが当時は理由として挙げていたのだけどチップセットの
対応の面からもUSB2.0と比べてUSB3.0の普及の遅れがあるといえるにょ。
USB2.0は規格上の上限速度は1.1の40倍、USB3.0は2.0の10倍と猛烈な勢いで速度が増して
いるけどPC用のインターフェイスの速度でここまで速度が急激に増しているものはあまり
例がないにょ。
1世代で1桁速度が上がっているのはEthernetくらいにょ。
http://pc.watch.impress.co.jp/docs/column/interface/20100819_387760.html
USBやEthernetは幅広く使われ、対応製品を提供するベンダー数が極めて多いために
頻繁に変えられないということで結局1世代で大きくジャンプアップする必要があると
いうわけにょ。
幅広く使われるからこそ互換性を維持するのが大変ともいえるにょ。
現時点では下位互換を重視するならばルネサスエレクトロニクス社製のホストコントローラ
チップ搭載のものを選んで買うしか自衛方法はあるけどまだ初心者が安心してUSB3.0を
導入できる環境下ではないといえそうにょ。(デスクトップPCであればインターフェイス
カードを挿すのに分解が必要であるため初心者が導入するとは思えないけどノートPCで
あればExpressCardスロットに挿すだけなので導入はそんなに難しくない)
「USBポートに正しく挿しているのに使えない」ということが発生してしまうからね。
今後ルネサスエレクトロニクス社以外にも下位互換性のあるホストコントローラチップを
製造するメーカーが現れても下位互換性のないホストコントローラチップは残り続ける
だろうから結局のところチップセットに統合されるまでは初心者でも安心して使える
とは言い難い状況になりそうにょ。
ウォークマンはiPodを超えた!?
8月の国内販売台数はついにウォークマンがiPodを超える見通しが立った模様にょ。
http://www.itmedia.co.jp/news/articles/1008/30/news032.html
カセットテープ時代、MD時代は携帯音楽プレイヤーとして不動の首位ったウォークマンも
MP3プレイヤーの普及とともにその地位が絶対的なものではなくなってきたにょ。
MDプレイヤーもデジタルプレイヤーではあるもののデジタルであるためデータに劣化が
ないということ以外はメリットがなくカセットテープと比べて最大のアドバンテージは
曲の頭出しが楽になったということくらいだからね。
その点、MP3プレイヤーならばMDという物理的なサイズ面、容量的なサイズ面での制約が
なく自由にどんどん入れることができるようになり使い勝手の面で大きく変わったにょ。
確かに初期のMP3プレイヤーはフラッシュメモリが高価ということで容量的な面からも
カセットテープやMDを超えるような存在ではなかったにょ。
私も9年前からMP3プレイヤーを使っているけど当時はザウルスで使用していた予備のCFを
使用していたため30MBしかなく128Kbpsで7曲程度しか入れることができなかったにょ。
このようなフラッシュメモリの容量的な問題点をHDDでまかなったのが初期のiPodにょ。
5〜10GBという容量によってのは当時はフラッシュメモリで実現するのは現実的では
なかったからね。
これによって聴きたい曲をチョイスして入れるというものではなくライブラリ全体を
持ち歩くという革新的な進化が訪れたにょ。
これは初代ウォークマンが音楽を持ち歩くということを実現したのと同レベルのことにょ。
これを後押ししているのが楽曲管理ソフトのiTunesの存在が大きいし、さらにiTunes
Music Storeで本格的なダウンロード販売のシステムを導入したのも大きいにょ。
これらによって他の追従を許さないシステムが構築されて現在に至っているにょ。
この垂直統合のシステムは他社も実現したけどほとんどが上手くいかなかったのでいかに
難しいかということが分かるにょ。
iPodの大躍進によってウォークマンは超えられない2番手の座となってしまったにょ。
ピーク時には市場シェアの80%を獲得していたiPodを抜き去り今回ウォークマンが首位に
なった理由として考えられるのは以下の3つの理由が挙げられるにょ。
(1)9月に新型iPodが発売されるため買い控え
(2)iPhoneが好調であるため
(3)ウォークマンは高音質かつ安価であるため
(1)単純に考えた場合はこれが最大の理由だと思われるにょ。
リンク先のグラフを見てのように昨年9月もiPodが圧倒的なシェアとなっているのは例年
9月に新機種が出るためにょ。
そのため8月はiPodのシェアが最も下がる月なのだけどそれでも今までずっと首位を
保っていたのが保てなくなったというのは別の理由があるためにょ。
(2)iPhoneはiPod touchが持っている機能はすべて持っているにょ。
そのためiPhoneユーザーがiPod touchを買うということは考えにくいにょ。(iPhoneの
割賦金が残っているけど最新の機能を使いたいために新型iPod touchを買うということは
十分に考えられるけどそれはあくまで例外)
容量的なアドバンテージがあるClassicならば買う人(iPhoneの内蔵フラッシュでは自前の
楽曲データがすべて入りきらない人)はいるだろうけどそれは限られるためiPhoneが
好調であることがiPodの売上増加を阻んでいると思われるにょ。
(3)は意外に重要な点にょ。
ウォークマンはiPodと比べて高音質というのは多くの人が感じていることだろうけど
価格面に関してはそうではないという人もいると思うにょ。
実際にライバル同士といえるiPod nanoとウォークマンSを比べてみるとiPod nanoの現行
モデルは価格com最安値で16GBが14696円、8GBが12789円なのに対してウォークマンは
16GB(S645)が11330円、8GB(S644)が9280円となっているにょ。
同一容量のモデルを比較した際にiPodの方が安かったということもかつてはあったけど
近年はウォークマンの価格低下によって実売ベースではここまでの差になっているにょ。
これによってウォークマンがiPodのシェアを奪っているとは一概には言えないけど台湾、
韓国メーカーのプレイヤーのシェアを奪っているのは十分に考えられるにょ。
かつては、iPod&ウォークマン&国内家電メーカー&台湾、韓国メーカーというような
感じで店頭での売場シェア争いが行われていたけど最近は台湾、韓国メーカーの機種は
地方都市ではほとんど店頭で見かけることが無くなったにょ。
これはウォークマンの価格低下によって価格的なアドバンテージが薄れてきたというのも
あるし、ウォークマンがD&D転送に対応したというのもあると思われるにょ。
iTunesを使用している人もD&Dに対応したお陰で楽曲転送できるようになったからね。
つまり、iPodはシェアを伸ばすのは難しい状況になってきているのに対してウォークマンは
どんどんシェアを伸ばしているというのが今回の逆転の最大の理由といえるにょ。
それに8月がiPodのシェアが最も下がる月だからというのが重なったというだけの話にょ。
このままの勢いが続けば8月以外の月もウォークマンが首位に立つことは十分に考え
られると思うにょ。
ハイエンドよりもローエンドよりもミドルクラスの方が安価!?
最近は昔とは異なり自作PCのメリットは減っていると思われるにょ。
昔(90年代)だったら自作すればメーカー製PCより圧倒的な低コストで組めたり高性能な
PCを組めたりしたのだけど最近は一から組むなら直販で買ったのと大して変わらない
金額だったり、保証がない分だけ不利になっているとさえ言えるにょ。
使い回しが効くというのも自作PCの低コストの要因となってきていたのだけどそれも最近は
難しくなってきているにょ。
CPUはソケット規格がどんどん代わりCPUだけの換装は出来にくくなっているし、VGAカード
(ビデオカード)を替えようとすると消費電力アップのため電源交換が必要な場合もある
からね。
自作PCで高コストとなっていたOS(Windows)も使い回しが効かせるためにはFDDと一緒に
購入というパターンが多かったけどすでにFD自体が入手困難になりつつあり、マザー
ボードもFDDに対応しないものが増えているためそれもできないにょ。(USB FDDは
DSPライセンスの対象外)
それでも自作するのは「できるだけ安くしたい(=余分なものは不要)」「できるだけ長く
使いたい(=少しでも使い回せるものは使いたい)」という思いがあるからだと思うにょ。
「安物買いの銭失い」ということわざがあるけどそれならば高価なパーツを使えば
結果として得になるかというとそれも違うにょ。
自作PC用の高価なパーツ(=ハイエンドパーツ)はただ、多少性能がいいというだけの
話だからね。(粗悪品を買わない限りは壊れやすさは価格とはあまり関係ない)
しかも、ハイエンドパーツは価格変動も大きいにょ。
先日もそれまで5万円台で販売されていたCPUである「Core i7-950」がいきなり2万円台に
なったくらいだからね。
http://akiba-pc.watch.impress.co.jp/hotline/20100828/etc_intel.html
なぜいきなり半額近くまで価格が下落したかというとこれはIntelの卸値が562ドルから
294ドルに変更されたからにょ。(秋葉原のような激戦区では価格改定があってから
すぐに変更されるけど地方のPCショップでは高価な時に仕入れた分に関してはそれが
売れるまでは価格を変えないという場合もある)
これが1ドル=100円であれば294ドルのCPUは35000円前後になるだろうけど1ドル=80円台
という円高であるため2万円台となったと思われるにょ。
そもそも562ドルのCPUがいきなり294ドルになる自体がおかしい(徐々に値下げするのが
普通)と思うかもしれないけどこれはIntelのCPUがランクごとに価格を定めている
せいにょ。
このランクごとの価格について少し説明しておくにょ。
分かりやすく説明するために2万円、3万円、6万円の3種類のCPUしかないと考えるにょ。
それぞれが2.6GHz、2.8GHz、3GHzと仮定するにょ。
ここで新たに3.2GHzという従来のものより1ランククロックが高いCPUが販売開始
された場合には6万円よりさらに上・・・ではなくその3.2GHzのものが6万円で販売
されることになるにょ。
つまり、それぞれ1ランクダウンの価格で販売されるということにょ。
《 CPU大幅価格変更の理由 》
6万円のCPU 3 GHz ここで 3.2GHz 新登場
3万円のCPU 2.8GHz 3.2GHz登場 3 GHz ↓1ランクダウン(3万円ダウン)
2万円のCPU 2.6GHz →→→ 2.8GHz ↓1ランクダウン(1万円ダウン)
2.6GHz → ディスコン
この例に挙げた3GHzのCPU(旧価格6万円のCPU)は6万円→3万円と一気に下がっているのに
対して、2.8GHzのCPU(旧価格3万円のCPU)は3万円→2万円の下落に止まっているにょ。
これはあくまで説明のために用意した例とはいえ、実際にハイエンドになればなるほど
1ランクの違いによる価格差は大きくなるので本質的な考えに差異はないにょ。(Core i7
においても562ドルの1ランク下が294ドルであるためi7-950が急激な値下がりをした
わけだし)
わずか半年の間に11万円→6万円→3万円と価格が変動したCore2Quad Q6600の前例を
考えれば今回のCore i7-950の3万円近い価格変動は大したことはないとはいえ、それが
大きいと考える人はハイエンドパーツを買うべきではないにょ。
ハイエンドパーツを買うというのは長く使うためではなく高コストでも「それが必要な人」
もしくは「自己満足」のためだからね。(コストパフォーマンスを重視する人には
ハイエンドはとてもオススメできない)
実際はCore i7だけ見ても「6コアのCPU」「4コア(LGA1366)」「4コア(LGA1156)」の
3つがありその中で各レンジごとに価格が定められているからハイエンドのCPUがミドル
以下の価格まで下りてくることは無くなってきているにょ。
数年前までのようにハイエンドからローエンドまで(シングルコアしかなかったため)
コア数やCPUソケットが同じという状態だったら10万円のCPUが時間が経てば2、3万円で
売られるということもあったけどね。
CPUはこのように四半期もしくは半年ごとに高クロックのものが登場し、これによって
1ランク価格ダウンしているのだけど新CPUというのはIntelの場合は2年サイクル(1年
ごとに「新アーキテクチャの導入→1世代製造プロセスを進める」というのを繰り返して
いる)で投入されているにょ。
そのため価格変動に関してはそれなりに情報を入手していれば事前に察知可能なことと
いえるにょ。
ただ、それだと待てば待つほど安くなるというのが分かるだけであって結果的に余計買い
にくくなるという人もいるかもしれないにょ。
300ドル弱というi7-950の価格帯は半年前ならばi7-860が該当したにょ。
そのため半年前であればi7-860が総予算10万円程度で新規に組む人にとって最もオススメの
CPUだったにょ。
では、i7-860を買うくらいであれば半年待ってi7-950を買うのがお得かというとそうでは
ないと思うにょ。
5万円台のi7-950が2万円台になることによってすごくお買い得感があるように見えるけど
実際は半年待つことによって得られるものは同じ価格で0.26GHzのクロック上昇(i7-860と
i7-950の比較)でしかないわけだからね。
その差は率にしてわずが8%程度でありベンチを実行してようやく分かる程度の差でしか
ないにょ。
ただ、それだけのために半年間待つくらいなら半年前に組んで半年間使い込む方が遙かに
有意義といえるにょ。
いつ組んでも数ヶ月先には確実に値下がりがある(もしくは1ランク上のCPUが同じ価格で
買えるようになる)わけだから「今は買うな時期が悪い」と言い出したらずっと買うことが
できなくなるにょ。
私は現在使っている自作PCは2年前(2008年6月)に組んだにょ。
数ヶ月後にはCore i7が登場するという時期だったのでそれを待って組むという手もあった
けれどCore i7は当初はハイエンドから投入ということだったので予算的に難しいという
のが理由にょ。
ミドルクラスのCore i7であるLynfieldが登場予定なのはさらに翌年だったためさすがに
そこまでは待てないというわけでヘタに待つくらいならさっさと組んだ方が得策という
ことで予算の許せる範囲内で最もコストパフォーマンスに優れたCore2Duo E8400(3GHz)を
購入したにょ。
ハイエンドパーツは価格変動も大きくコストパフォーマンスも悪いということで個人的
には2〜3万円のミドルクラスがオススメだけど1万円前後のローエンドはどうなのかと
いうとこれは良いか悪いかはその人次第といえるにょ。
ミドルクラスでは性能にお釣りがくるくらいでローエンドで余裕という人であれば問題ない
といえるのだけどそうでないならばトータルのコストや手間で考えないといけないにょ。
昔であればCPUは同じアーキテクチャのもの(同じ世代のローエンドとミドルクラスの比較)
であればクロックとL2搭載量だけを比較すれば良かったけど今はそれに加えてコア数
(実行スレッド数)が重要になってきているにょ。
現在のローエンドCPUは2コア2スレッドが主流であり、ミドルクラスは4コア8スレッドが
主流になっているにょ。
そのためクロックが同程度でも実効性能が2倍くらい異なる場合もあるにょ。
これは上記のi7-860とi7-950の比較のように体感できないレベルではなくしっかりと
体感できるレベルの差といえるにょ。
大ざっぱに比較すれば概ねこんな感じにょ。
価格 ローエンド<<ミドルクラス<<<<<<ハイエンド
性能 ローエンド<<<<<<ミドルクラス<<ハイエンド
ローエンドで組んで不満を感じたらこまめに組み直すという方法もあり(これも自作の
醍醐味の1つ)それを考えるとミドルクラスのCPUを買う予算でローエンドCPUは2〜4個
買えるためそれを変えることでトータル的にミドルレンジより安くすることは可能になる
かもしれないにょ。
とはいえ、昨今は冒頭に書いたように規格変動が大きいためマザーボードごと交換する
機会も多くその場合にはローエンドCPUを選択するコスト面のメリットは一気に失われて
しまうにょ。
それに加えて組み直す手間やその間はそのPCが使えないということも考慮しないといけない
と思うにょ。(ローエンドであっても新しいパーツ購入でわくわく感を感じる人や単に組む
という作業に楽しさを感じるレベルの人にとってはデメリットにはならないけど)
PCに必要としているスペックが年々上昇していることを考えると結果としてミドルクラスの
ものの方がローエンドよりも長く使えるため1年当たりのコストを計算するとミドルクラスが
最も安くなるにょ。
そうなると今後数年間は「性能面においてローエンドで十分」という人、もしくは
「予算面でローエンド以外はあり得ない」という人でない限りはミドルクラスが長期的に
トータルで考えたコストにおいてローエンドよりも優れており、コストパフォーマンスを
考えるとハイエンドよりも優れているにょ。
新型iPod発表
日本時間本日未明にiPodの新機種が発表されたにょ。
まずはshuffleを見てみるにょ。
http://av.watch.impress.co.jp/docs/news/20100902_391089.html
こちらは元々シンプルな機種だけに機能の追加なんてものはないけどホイールボタンの
大型化などの操作性の向上が図られているにょ。
積極的に音楽を聴くというユーザーではなく通勤やランニングなどでBGM代わりに聴くと
いう使い方がメインだろうからこれはこれで完成されているしこれ以上容量を増加
させるよりは価格を抑える方がいいのでこれはこれで悪くない製品にょ。
今回最も大きな変貌を遂げたのがnanoにょ。
http://av.watch.impress.co.jp/docs/news/20100902_391085.html
筐体の大幅な小型化によってホイールパッドの省略が行われその代わりタッチパネルが
採用されたにょ。
操作性は全くの別物ということで賛否両論ありそうにょ。
それに前モデルで搭載されていたカメラ機能や動画再生機能も無くなっているからね。
大幅な小型化でクリップ式の筐体というのを見ると「リッチなshuffle」というような
イメージを受けるにょ。
これをnanoと思うから微妙に感じるからであって従来のnanoとshuffleの間を埋める
ような機種と思えば好感が持てるにょ。
shuffleはあまりに機能制限されすぎていてDAPとしては使えないというユーザーにとっては
最適の1台になりそうにょ。
個人的にはDAPはできるだけコンパクトなものが望ましいのでこの新型nanoは歓迎したい
ところにょ。(とはいえブラインド操作できないのは難点であるため購入はしないけど)
しかし、ウォークマンSシリーズがいきなり、Eシリーズと統合されるようなものであり
従来型を求めていた人から不満が出てもおかしくはないにょ。
これが480x480のモニタを搭載し、iPhone用アプリが動作する「iPod touch nano」という
べきような製品であれば一部のコアユーザーからかなり注目されるだろうけどコスト的に
無理だったのかもしれないにょ。
さて、やはり今回の発表会で個人的に最も注目していたのはtouchにょ。
http://av.watch.impress.co.jp/docs/news/20100902_391086.html
高性能A4チップ搭載、960x640の高精細の網膜ディスプレイ搭載、HD動画撮影搭載など
従来のtouchと比べて大幅な機能、性能の向上が図られているにょ。
まさに「3Gを非搭載のiPhone」といっても過言ではない内容にょ。
従来であればiPhoneとの差別化を行うためカメラ機能は省略されていたのだけど今回の
モデルは搭載されているわけだからね。(強いてiPhoneから削られた部分はGPSくらいか)
これによって無線LAN経由でのTV電話である「FaceTime」にも対応しているにょ。
確かに細かい部分を見ればiPhone4よりも機能ダウンや省略されている部分はあるけど
それがどうしても気になるという人であればiPhone4を一括購入し、Wi-Fi専用として使用
すればいいだけの話にょ。
機能的な差の分だけ安いというのもiPod touchの魅力だからね。
米国では8GBで229ドル、32GBで299ドル、64GBで399ドルということで日本のアップル
ストア価格だと従来基準であれば22800円、29800円、39800円になるところだけど円高の
影響か20800円、27800円、36800円となっているにょ。
米国では同一容量では従来機と価格維持となっていたけど日本では事実上値下げと
なったにょ。(これはフラッシュメモリの価格がここ1年ほとんど値下がりしていない
というのが原因なので今後大幅な値下げがない限りは来年のモデルでもメモリ搭載量は
現状維持になりそう)
iPhone 4の32GBは一括購入時は57600円であるためtouchはその半値となるにょ。
これならば多少iPhone 4から省かれた機能があっても十分に許容ができるにょ。
touchは登場時はDAPとして考えた場合には高価でデカイとあまり良い印象ではなかった
けれどiPhoneの登場によってアプリが急速に増えてその魅力は大きく増したにょ。
確かにDAPとして考えれば大きいけどこれは昔ザウルス等のPDAを使って音楽を聴いていた
ことを考えれば十分許容できる(むしろザウルスよりも圧倒的に小型軽量)と思うにょ。
それでも気になるのならばnanoを併用するという方法もあるからね。
恐らくnanoの今回の大幅なモデルチェンジはtouchを完全にメインに据えているからだと
思われるにょ。
8月31日にはiPhoneの普及がiPodの売上増加を阻んでいると書いたのだけどここまでnanoを
小型化すればサブ用、音楽専用として別途持ち歩く人がいるだろうからね。
だからこそiPod touchは音楽を重視したアピールをしなくても良くなるということにょ。
32GB版の27800円はPDA(小型なモバイル端末)として考えれば決して高価ではないにょ。
むしろここまでの機能、性能を考慮すれば安いとさえ感じるにょ。
そういうことでiPod touchといえばやはりアプリにょ。
iOS4.1搭載によってマルチタスクに対応したためにその価値はさらに高まるにょ。
各種PIMアプリを導入すればPDAとして使えるしね。
8月29日にスマートフォンは欲しいけど2台持ちになるとコストがかかるため導入には
踏み切れないということで通信などの専用端末が欲しいという私の要望にぴったり合った
端末ともいえるにょ。
touch+3G対応モバイルルータがあれば3G通信ができる場所であればどこでも通信が可能に
なるためtouchの活用範囲はさらに広がるにょ。
そのために私は4月にPocket Wi-Fiを導入したからね。
さて、問題は買うなら8GB、32GB、64GBのどれにするのか・・・ということだけどやはり
アプリを積極活用するとなれば8Gは論外にょ。
最小限のアプリだけ導入してPDA的に活用するのであれば8GBあれば十分使えるけど
ゲームとかもやってみたいとなると最低でも32GBは欲しいからね。
何せアプリは最大で2GBまで対応しているわけだから大容量アプリを導入したら8GBなんて
あっという間で埋まってしまうし、アプリは使わなくても音楽だけでも8GBくらいは
使用する人は多いだろうし、動画再生を行うとなれば厳しいにょ。
64GBと32GBの価格差は9000円であるため容量の差を考えるとこれは好みの問題にょ。
64GBは決して高価ではないからね。
とはいえ、ユーザーの手によるバッテリは交換不可(メーカー修理扱いで交換可能)と
いうことを考えると32GBで足らなくなりかもしれないという人で無ければ無理に64GB
モデルを買うまでもないにょ。
「バッテリの寿命=本体の寿命」というくらいの認識である必要があるためバッテリが
劣化したら買い換えるのがベストとなるからにょ。(それまでに32GBが埋まってしまう
と考えてしまう人は64GBを買うのがベター)
旧機種をわざわざメーカーにバッテリ交換を出してもコストの割りが合わないというだけ
ではなくその間は使えないという問題もあるからね。
iPod touchは上記のように金銭的な面でiPhone4を使えないという人に有用(softbank
だからiPhoneは使いたくないというのが理由であればモバイルルータを使うということが
許容できない人だろうから機能削減されたtouchを購入する理由は何もない)ということで
潜在的なユーザー数は多いと思われるにょ。
57600円払って通話機能の全くないiPhone4を手に入れたいという人はそれほど多くはない
と思うからね。
やはり、iPod touchの潜在的需要はかなり多いと思われるにょ。(8月29日にはiPhoneが
売れればtouchが売れなくなると書いたけどコスト面を考えれば需要が多くてもiPhoneを
導入しない人は多いため現実的にはiPod touchの需要増加の方が多いくらいだと思う)
そうなるとiPod touchは発売時には生産が需要に追いつけず争奪戦は必至となりそうにょ。
nanoは主役ではなくなった・・・なの
今回発表されたiPodで最も変化が大きいものはnanoだけど今回の発表された内容を見る
限りは主役はtouch(iOS搭載機)に感じたにょ。
昨日も書いたようにnanoの大きな変化はtouchを引き立てるものとなっているわけだしね。
「nanoを買うかtouchを買うか」という選択はユーザーにとっては悩みの種だったけど
新型nanoではUIをtouchと同じくマルチタッチ対応のタッチパネルによるものに変わった
ため「両方を買う」という選択肢が従来より濃くなったと感じるにょ。
その理由を書いてみるにょ。
iPodはその革新的なコンセプトによって多くのユーザーの支持を得ており、それはシェア
にも現れているのだけど8月31日に書いたように8月の国内シェアは久々にウォークマンに
負ける結果となったにょ。
これは8月というiPodにとって新製品発表前の不利な時期というのを差し引いてもiPod
よりもウォークマンを支持している人が増えたということは事実だと思うにょ。
それはウォークマンがDAPとして優れているということを意味するにょ。
iPodを支えてきたものの1つとしては「操作性の良さ」が挙げられるけどこれはクリック
ホイールによる独自操作によるものが大きいにょ。
このアナログ操作による曲選択の快適さはカーソル操作によるデジタル操作では得ることは
できないものがあるからね。
しかし、新型nanoではそれを捨ててしまったにょ。
確かにタッチパネルにはタッチパネルの良さがあるけど指で操作した際に画面の大半が
隠れるような小さな液晶画面ではそれを活かすことはできないにょ。
私の体感だと指で操作するならば2.5インチ程度がまともに使用できる限界に感じるにょ。
タッチパネル搭載のPCを持っているならば1.5インチ程度のWindowsを作りその中にアイコン
表示をした場合に快適に操作可能か自分自身で確かめてみるといいにょ。
4.5インチWSVGA液晶(264ppi)のVAIO UXならば286ピクセル四方の領域がnanoと同じく
1.54インチに相当するにょ。(実際に試したけどとても満足行くようなレベルではない)
またDAPとして使うならば再生、停止、早送りなどはブラインド操作できるものが望ましい
けれどそれはタッチパネルで操作する以上はそれは無理になるにょ。
大きな支持を得ていたクリックホイールをやめてタッチパネル主体の操作に変えるという
ことはnanoを主力商品と考えていたらできないことにょ。(Classicもタッチパネル主体の
操作にするべきかとなるとあれは従来の方式を好んでいる人のためのものなのでありえない
わけだし、1.8インチHDDがボトルネックになるため全面液晶にしたら大きくて重いtouchに
なってしまう)
多くの人はnanoを大きすぎるとは考えてないし、小さくすることで筐体サイズで見た分類
ではshuffleと被ってしまう形になるにょ。
個人的にはDAPは「小さい方が望ましい」と考えているけどそれはある程度快適な操作性が
実現できた上での話にょ。
せめて、nanoも再生、停止、早送り、ホールドボタンをハードウェアとして実装していた
ならば評価が大きく変わっただろうけどこの第6世代nanoを見る限りかなり無理な小型化
と思えて仕方がないにょ。
では、それでもタッチパネル主体の操作になっているのはtouchと操作性を合わせている
ということにょ。
touchに慣れている人であればクリックホイールも良いとは言えないわけだし(多少は
慣れが必要であるため)そこまでハードウェアのボタンに拘る人も少ないと思われるにょ。
そこまでtouchを中心に考えるほど売れているのか実際のランキングで見てみるにょ。
8月の携帯オーディオプレイヤー(BCNランキング)
http://bcnranking.jp/category/subcategory_0004_month.html
1位 iPod touch 32GB
2位 iPod nano 8GB ピンク
3位 iPod touch 8GB
4位 ウォークマンS ホワイト
5位 ウォークマンS ピンク
(以下略)
確かに1位と3位(前月は1位、2位)ということで売れているというのには間違いない
けれどBCNランキングは色別に出ているため色違いがないtouchはランキング的には有利に
働くためこれだけでは何とも言えないにょ。
しかし、touchだけではなくiPhoneを加えると話は変わるにょ。
touchはiPhoneから3G通信などの機能を無くして安くしたものと考えられるため(順番から
いえばtouchの方が先だからtouchに3G通信その他を付けてスマートフォンとして売り出した
ものという方が正しいのだけどDAP視点ではこのようになる)事実上両者は同一ジャンルの
商品(iOS搭載の小型機)として考える必要があるからね。
touchはiPhoneが無かったらもっと売れているのは確実だろうけどiPhoneがあったからこそ
touchに注目が集まりだしたともいえるため両者は相乗効果で伸びているとも言えるにょ。
nanoはライバルであるウォークマンSがあまりに強いため端末だけで見るとかなり苦戦を
強いられているにょ。
「クリックホイールがあるからウォークマンSではなくiPod nanoを選んだ」という人は
かなり限られるのではないかと思うにょ。
やはり、ブランド力だけではなくiTSによる音楽配信などを理由に挙げる人の方が多いの
ではないかと思うにょ。
iPodの中から選択する場合、音楽しか聴かないからtouchの機能、性能は要らないし、
shuffleはあまりに機能が制限されすぎているということで消去法でnanoを選んでいる人も
最近は多いだろうからね。
そういう消極的な選択を行う人の場合はiPhoneを買ったらnanoを買うことはないにょ。
だからこそiPhoneを買ってさらにもう1台という形で違和感のないサイズ、操作性という
ことで考えられたのが今回の第6世代のnanoだと思うにょ。
ただ、それが良いかどうかは現時点では仕様だけから判断すると「微妙」としかいえず、
これが結果として良いか悪いかは発売後に実際に購入したユーザーからの反応や売上を
元に判断するしかないにょ。
タブレット端末は本当に普及するのか?
さて、先日は新型iPodの発表があったのだけどこの度各社からiPad対抗となるような製品が
発表されたにょ。
東芝「FOLIO 100」
http://www.itmedia.co.jp/news/articles/1009/03/news029.html
サムスン「GALAXY Tab」
http://www.itmedia.co.jp/news/articles/1009/03/news026.html
写真だけでは分かりにくいけどすでに実際に使用している動画が公開されているので
それを見てサイズや動作の快適さを実感してみるといいにょ。
http://www.itmedia.co.jp/news/articles/1009/03/news083.html
さて、このようなタブレット型の端末は今後非常に多くの種類が発表、発売予定となって
いるにょ。
それらの多くは液晶サイズは7〜10インチ程度となっているにょ。
その理由となるのがタブレット端末は手に持って使う機会が多いため軽量なものが望ましい
ということに加えてあまり小型になりすぎるとスマートフォンとの棲み分けができない
という問題点があるからにょ。
実際スマートフォンはここ最近急増していて2015年には国内の携帯契約の半分近くを
スマートフォンが占めるという予想が出ているにょ。
http://www.itmedia.co.jp/promobile/articles/1009/01/news092.html
では、タブレット端末がスマートフォンと棲み分けをするといっても実際にどのように
行うかとうことが問題となってくるにょ。
すでに、タブレット端末として発売されており、唯一のヒット製品といっていいiPadだけど
価格comがiPadユーザーに対してアンケート調査をしてみたところ「7割弱(66.4%)が
自宅で使う」という結果になった模様にょ。
http://www.itmedia.co.jp/promobile/articles/1009/03/news080.html
これは自宅に居るときにノートPCなどの代わりにネット用の端末として主に活用している
ということがいえるにょ。
私を含め「自宅にいるならPCを使った方が便利」という意見の人も多そうにょ。
しかし、多くの人がPCがあるにも関わらずiPadを活用しているというのは「自宅に居ても
自分用のPCがない」という場合や「PCだと起動するのに時間がかかる」というのが
ありそうにょ。
前者においてはその役割はネットブックが担っていたにょ。
ネットブックがヒットすることで前者の意見の人はかなり減ったと思われるけどその
反面浮上してきたのが後者の意見だと思うにょ。
一般的に言ってPCは使うときに立ち上げ、使い終わったらシャットダウンという使い方が
メインとなっているからね。
さすがに常にコールドブートしていたら気軽に使うということはさすがにできないため
どうしても必要な時だけ使用するということになってしまいがちにょ。
Vista以降はスリープモードを搭載によってシャットダウンをするという人は減ったと
思われるけどネットブックにおいて主に使用されているOSはXPでありスリープモードは搭載
されてないにょ。
XPでもスタンバイ(サスペンド)を活用すればいいというだけの話とはいえ、実際常時
サスペンドでネットブックを活用している人はほとんどいないと思われるにょ。
私はLet'snote R5において常時スタンバイで運用しているけどこれはバッテリがフル
充電であれば10日〜2週間はメモリ保持ができるためであり、ここまでできるような
ネットブックは存在しないにょ。(R5をサスペンド状態で放置して試してみたら24時間
あたり8%のバッテリ消費となったため単純計算ではフル充電で約300時間となる)
XPのスタンバイはVistaのハイブリッドスリープとは異なりバッテリ切れでメモリ保持が
できなくなったら終わりだからね。
つまり、PCを常にコールドブートしているようなユーザーにとってタブレット端末は
高速起動の夢の端末になってしまうということにょ。
その上、1〜1.2kgもあるネットブックと比べ圧倒的に軽いし、バッテリ駆動時間も長い
ということで家庭内モバイルだけを見てもネットブックより多くの場所で活用が可能に
なるということがいえるにょ。
個人的にはiPadとネットブックが直接競合するわけではないと思ってはいるものの
iPad発売後はネットブックの売り上げが大幅ダウンしているということを考えるとやはり
ネットブックの代わりにiPadを使っているという人が多いといえるにょ。
タブレット端末は高性能スマートフォンと大して性能差はないとはいえ、自宅で使うのが
メインとなると画面サイズが大きなタブレット端末が有利になるにょ。
実際上記アンケート調査でもiPadユーザーはiPadを持ってない人と比べてiPhone所有率が
高くこれは言い換えるとiPhoneを持っていてもiPadを活用しているということになり
iPhoneがあるからiPadは不必要と単純に言えるものではないということにょ。
スマートフォンの多くは画面サイズが4インチ前後でWVGAの液晶モニタを備えているにょ。
それに対して現在発表されているタブレット端末の多くは7〜10インチでWSVGAの液晶
モニタを備えているにょ。
できること自体に大差がないといってもどちらが快適かというとそれは言うまでもない
ことだと思うにょ。
問題はタブレット端末はPCを持ってない人が買うべき端末ではないということにょ。
確かに「Windowsでないとできないこと」というのは近年減っているとはいえまだまだ
Windows PCが必要になる機会も多いからね。
実際iPadを最初に使う際にはアクティべーションが必要なのでPCは必需品といえるにょ。
これはタブレット端末の中でもiPadが例外といえることだけど実際に売れている端末の
大半がiPadであるため無視はできないにょ。
結局(非Windowsの)タブレット端末はPCを持っている人が買うべき製品ということにょ。
そうなるとネットブックがヒットしたということがタブレット端末の追い風になっている
ともいえるにょ。
さて、さらに問題となるのははその金額を投資するに値するような製品かどうかという
ことにょ。
自宅でしか使わないのなら別にタブレット端末は要らないという人も多いのではないか
と思うにょ。
実際、ネットブックの重量で家庭内モバイルで困る機会も少ないだろうしバッテリ駆動
時間が多少短くてもすぐに電源確保できるるからいざとなればACに挿して使えばいいと
いうだけの話だからね。
とはいえ、さすがにモバイルするとなると変わってくるにょ。
ネットブックのサイズ、重量でも持ち歩くのには不適と感じている人が多いのではないか
と思われるにょ。(というか、持ち歩く人が少ないからより使いやすいサイズに大型化
されてしまったわけだし)
その点、タブレット端末は重量面、サイズ面でネットブックより有利なものが多いにょ。
iPadは画面が大きいということがメリットだったけどその反面約700gという重量に不満を
持つ人が多かったにょ。(これもWindows PCの感覚でいえば画面サイズの割りに軽量なの
だけどアンケートでは移動中に使用すると答えた人は8.9%しかいない)
5月17日にも書いたように例え1kgであっても「実際に使うかどうか分からないようなPC」を
常にバッグに入れておくなんてなかなかできないからね。
しかし、上記のサムスン「GALAXY Tab」は7インチで380gという軽量化なものになって
いるにょ。
このサイズ、重量ではネットブックの持ち歩きに躊躇していた人にとっても有効活用
可能になるにょ。
iPadも来年には7インチ液晶搭載の小型軽量モデルが登場するという噂もあるからね。
持ち歩いて使えるというのであればPCを持っていても十分買う価値はあるだろうから
ヒットに繋がる可能性はあるにょ。
「ネットブックよりも小型軽量」であり「手に持った状態で使える」ため電車などでも
気軽に取り出して使うことができるというのはネットブックに対して大きなアドバンテージ
であり、スマートフォンに対しては「画面サイズや解像度で優れている」という
アドバンテージがあるわけだしね。
ただ、現時点では安価な端末はほとんど3G通信は内蔵されておらず無線LANのみ搭載と
なっているにょ。(3G通信が内蔵されても別途料金がかかるとなると微妙だけど)
そのためモバイルルータを別に買うか無線LANが使える場所で使わざるを得ない状況に
なっているにょ。
そのためモバイル時の通信ではスマートフォンの方が有利であるといえるにょ。
したがって、タブレット端末が普及するには通信インフラとそれを利用するためのコストが
重要となるにょ。
新型iPod touchは私が求めていたPDAなのか・・・?
私は過去に8台のDAP(PDAの音楽再生機能は除く)を使ってきたにょ。
その経験から導き出された私がDAPに求めているものは4月24日に書いたような8つの項目が
あるにょ。
(1)最低8GB、できれば16GBの容量
(2)実駆動で最低10時間、できれば20時間以上
(3)小型・軽量
(4)曲名やアルバム名が確認できるくらいの画面解像度
(5)エクスプローラからD&Dで転送可能
(6)フォルダ管理が可能
(7)ストレスを感じさせない操作性
(8)予算は最大で2万円(できれば1万円以内)
先日発表された新型iPad nanoは一昨日書いたように操作性を疑問視しているため残念ながら
(7)を満たせないので私が求めているようなDAPではないにょ。(ただし、(5)、(6)は妥協
した場合)
旧nanoは(5)、(6)さえ妥協すれば残りの条件を満たすことができたにょ。(現時点で
すべての項目を満たせるのは普通に店頭入手可能な製品の中ではウォークマンSくらい
なので次にDAPを買うならば現時点ではウォークマンSが最有力候補となっている)
ではtouchはどうなのかというと(3)(7)(8)を満たせないにょ。
よって、touchはDAPとして考えた場合には私の理想には全然達しないにょ。
しかし、これがPDAとして考えた場合にはまた変わってくるにょ。
では、私がPDAに求めるものは何なのか・・・?
今から5年前の2005年8月9日〜11日の3日間に渡って書いたときは下記のようなもの
だったにょ。
◎ハード面
(a)小型軽量(概ね5インチ×4インチ×1インチ、1ポンド程度)
(b)長時間駆動可能(実駆動時間8時間以上)
(c)それなりに使えるキーボード(PC-E500程度の使いやすさは欲しい)
(d)解像度VGA以上の液晶
◎ソフト面
(e)Webブラウザ(タブ機能必須、出来ればFlash対応)
(f)PIM(MI、PIザウルス並の使いやすいもの)
(g)テキストエディタ
(h)音楽、動画再生機能(出来ればSD-VIDEO再生可能なもの)
しかし、これは普遍のものではなく時代や環境によって変化しており、現時点では下記の
ようなものになっているにょ。
5年前だとPCで動画再生するならPen3 1GHzくらいあれば十分だったけど今はそれでは
全く足りないわけだからスペック1つをとっても普遍であるはずがないということが分かる
と思うにょ。
というわけで、私がPDAに求めているものを改めて書いてみるにょ。
《 私がPDAに求めるもの 》 ver.2010
(1)無線LANによる通信が可能
(2)WVGA以上の解像度の液晶画面
(3)小型・軽量(モバイルランクAに相当するレベル)
(4)実駆動8時間以上
(5)それなりに快適にテキスト入力が行える
(6)まともに使えるWebブラウザがある
(7)使いやすいPIMアプリがある
(8)安価(3万円以下)
(1)〜(5)がハードウェアに関するもの(5)〜(7)がソフトウェアに関するもの(8)はそれ以外
となっているにょ。
というわけで、以下はそれぞれの具体的な説明となるにょ。
(1)これは説明するまでもなく今は通信をするのに必要不可欠となるにょ。
必需品であるため「内蔵されていないもの」は自動的に対象外となるにょ。
とはいえ、今時の端末で内蔵されてないようなものはないだろうけど・・・。
(2)今時はケータイでもWVGAは当たり前といっていい状況なので少なくともそれくらいは
ないとPDAとしてケータイ以外のものを持ち歩く(ケータイと棲み分けをする)メリットが
全くないからね。
これはWeb閲覧などビューア目的で使用するためであり、PIM専用と割り切れるのであれば
QVGAでも問題ないにょ。
ただし、それならばカラー液晶である必要さえなく、反射型モノクロ液晶で十分となって
しまうにょ。
PIM専用の超安価なモノクロPDAなんてものがあればいいけどそれならば旧世代のPDAを
中古で買えばいいという話になってしまうにょ。(旧世代のPDAでも乾電池式であれば
PCとのシンクロを考えない場合PIM用途なら十分現役として使えるため)
(3)これはどの程度かという具体的な数値を持ち出さないと分かりにくいと思うにょ。
5年前に書いた「概ね5インチ×4インチ×1インチ、1ポンド程度」(ほぼリナザウサイズ)
というのが1つの基準となるにょ。
ここで問題となるのは当時はA5ファイルサイズのモバイルノートとの棲み分けとして
そのサイズを考えていたというのが大きいけど今ならばポケットに何とか収まる程度の
小型のWindows PC(PMやBXなど)が安価で入手可能だからね。
それにポケットサイズPCといえば私は現在VAIO UXを使っているにょ。
それらと棲み分けを行えるくらいの小型軽量なものを求めているということにょ。
私はモバイル機器にはサイズや使用頻度によってモバイルランクを定めているけど
ケータイはランクA、ポケットサイズPCはランクBとなり、もしも新しいPDAを買う場合は
限りなくランクAに近いB、もしくはランクAになるようなものにしたいということにょ。
UXを買ってからポケットサイズPCをPDA代わりに使うというのは幻想であることに気づいた
からね。
だから、ポケットサイズPCには良さがあるもののそれを持っていることを前提(それらとの
棲み分けが行える)PDAを考えた場合にはWindows PCでは実現不可能なサイズになるにょ。
ランクA並となるとモバイル機器ではないものの普段使っている手帳の外寸サイズは
10.5×8×0.8cm程度であり、最大でもこれと同レベルのサイズが求められるからね。
(4)Windows PCであっても今後はチップの統合によってさらに小型化が可能になれば(3)を
満たせるようになるだろうけどその場合であってもバッテリ容量を削る必要があるため
(4)を満たすのは難しいにょ。
現在もAtom Z搭載のWindows PCであってもARM搭載の端末の数倍の容量のバッテリを搭載
すれば同一レベルの駆動時間は実現可能になるにょ。
これは5月8日に書いたように実駆動2倍程度の消費電力の差があるからね。
それ以上に問題なのは動作時の消費電力ではなくサスペンド時の消費電力にょ。
昨日はノートPCを持っていても自宅でiPadを使用している人が多い理由として起動時間が
短いということが挙げられたけどこれは端末をコールドブートしているのではなく単に
サスペンドから復帰しているだけにすぎないからにょ。
Windows PCであってもサスペンドからの復帰であれば数秒で起動するけどWindows PCだと
サスペンド中の消費電力もバカにはならないにょ。
昨年12月7日に「私がポケットサイズPCに求めるもの」ということでサスペンド時の
メモリ保持1週間(24時間×7=168時間)可能なものというのを理想としてあげたけど
これができるようなポケットサイズPCはほぼないにょ。(Viliv S5くらい)
VAIO UXでもたったの40時間程度だからね。
サスペンド時のメモリ保持時間が50時間のPCを2日に1回充電する場合、実駆動8時間で
あっても実際に使える時間はゼロに等しいものになるにょ。(残量0%まで使えるとした
場合に単純計算で実駆動8時間駆動のPCが実駆動20分になってしまう)
OakTrailでこれは大幅改善されるだろうけど現時点で製品がない以上は比較対象に挙げる
ことはできないにょ。
(5)はソフトウェアとハードウェアの両方を意味しているにょ。
ハードウェアとしてキーボードを備えているのがベストだけどソフトウェア入力でも
十分に妥協できるレベルならばそれでも許容できるというわけにょ。
そもそも今となってはPDAはただのメモ書きやPIMの入力程度であるためそれさえこなせる
レベルであれば問題ないので「(ここで書いているレベルの)長文を入力する」なんて
ことは求めてないにょ。
したがって、6月11日に書いたようにハードウェアのキーボードがあるにこしたことはない
けれどそれがないことで薄型、軽量が実現できるのであれば「キーボードがない」という
選択肢を積極的に求めていきたいにょ。
(6)「まともに使えるWebブラウザ」とは何ぞや・・・という意見のある人がいるだろうけど
一般的にPC用として多く使われているレベル(IE8、chrome、Firefoxなど)であれば
十分ということにょ。
リナザウに搭載のWebブラウザ(NetFront 3.0)は今となってはお世辞にも「十分」とは
言えないレベルにょ。(今ならばFlash10.1、Ajaxなどに対応してないと・・・)
ケータイのフルブラウザの方がマシと思えるシーンさえあるからね。
ケータイの場合はPC用サイトが見れないとしてもケータイ向けのモバイルサイトを利用する
という方法もあるけどケータイではないPDAであればそのようなサイトは利用できない
場合もあるにょ。
Web閲覧なんてWin95+IE3.0で十分というような人であればPDAにそんな高性能なWeb
ブラウザは不要だろうけどケータイのフルブラウザ以下であればWeb利用としてPDAを
使用する意味はほとんどなくなってしまうにょ。(それこそモノクロPDAで十分となる)
Webの利用という観点だけをみれば「ケータイ<PDA<PC」のような感覚でありケータイと
PCは持ち歩いているということを前提に考えてPDAですべてのサイトが完璧に見れる必要は
ないけどあまり不満なく見れるということが重要になってくるわけにょ。
(7)「使いやすい」というのは主観が入るためどうしても難しくなってしまうにょ。
そのため実際に自分である程度使ってみないと使いやすいかどうかは分からないにょ。
「慣れの問題」か「自分に合わない」かというのは少し使っただけでは判断が難しい
場合があるからね。
そのため、この項目に関しては具体的にこうすべきというものはあえて挙げないように
するにょ。
個人的にはPI、MIザウルスのPIMは比較的使いやすかったにょ。
(8)なんといっても価格は重要にょ。
ただ、価格の基準は時代によってかなり変わってくるにょ。
実際PCの価格も昔と今では変わっているわけだしね。
PDAに関しては10年前は7万円、5年前は5万円が1つの基準だったけど今ならばそれは
3万円にょ。
5万円出せばポケットサイズのWindows PCが手に入る以上はそれよりも低コストで作れる
品に対して5万円以上を払う気にはなれないからね。(実際はPMは特売では3万円程度で
販売されていたわけだし)
つまり、3万円というのは無茶な要求ではなく現実的な要求であるといえるにょ。
「小さい方が高いのが当たり前」というのがかつてのモバイルPCでの一般論だったけど
これはネットブックが低コスト、大量生産によって安価に作れることが実証されたわけ
だからね。
Atom Nよりコスト面で不利だし、ネットブックほどの量産化がされてないAtom Zを用いた
ポケットサイズPCでも5万円程度となるとよほどコストをかけた小型化、軽量化でない
限りは高価になるという理由にはならないにょ。(モバイルノートが今も尚高価である
のは軽量化にコストがかかっているというのもある)
現状でAtom Zを用いたリナザウサイズ、重量のWindows PCを作れば高密度基板が必要
だし、メモリも高価でも高容量のものを使用することになるため結果として高コストに
なってしまうにょ。(安価で済ますならばPMのサイズとなるだけでありあれが今の技術の
限界というわけではない)
その点、ARM搭載端末であれば小型化においてWindows PCよりも容易にょ。
(1)〜(7)は実際のところ最新のハイエンドスマートフォンを買えばほぼ解決出来るレベル
であり決して難しいものではないにょ。
だから設けたのが(8)のラインにょ。
例えばiPhoneが欲しいと考えた場合、現在使っているガラケーと併用した場合には
「維持費がかかる」とか「回線がsoftbankだから」という理由で買わない人もいること
だと思うにょ。
ただし、PDAとして使う場合(つまり、通信回線は無線LAN経由でのみ使用する場合)
それらはネックにはならないにょ。
iPhoneを一括で購入し、回線契約を解約すれば済むという問題だからね。
昔は、端末代金は月々の使用料金を考慮した価格(簡単に言うとインセンティブの含まれた
価格)となっていたために新規即解はモラルに反するという認識も強かったけれど今は
少なくともsoftbankは一括購入時はインセが含まれない価格となっているため即解は
問題のあることではないにょ。(端末販売だけでも利益が出せる価格となっている)
iPhone4(32GB)を一括購入すると57600円となるにょ。
つまり、これだけ払えば無線LAN専用のPDAとしてiPhone4が手に入るわけにょ。(実際は
新規契約と初回分の月額使用料が必要)
つまり、PDAに5万円以上出せるという人であればスマートフォン全盛の今となっては
選択肢がいくらでもあるということにょ。
ただし、PDAとして使用する場合には使えない3G通信部分やその他のものに余分なコストを
支払うことになるにょ。
金はあるからそんなのは気にしないという人であればいいけど残念ながら私はそんなに
裕福ではない貧乏性なので使えないものに投資はできないにょ。
要するに私がPDAに感じている価値がその程度(3万円程度)だといえるわけにょ。
あと5年前に書いたような動画、音楽再生機能は要らないのか?というとそうではなく
「必要不可欠なもの」から「あれば利用する」という程度に変わっただけにょ。
というか、現在のAndroid、iOS端末でそれらが再生できないという端末もないしね。
それから、そういった動画や音楽の利用だけではなくアプリの積極的な利用を考えると
ストレージは最低でも16GBは欲しいにょ。
micro SDHCに対応しているならばそれでいいけど内蔵メモリだけであれば最低でも16GB
以上搭載されたものを望みたいにょ。
以上を元に考えるとiPod touchはほとんどの項目を満たすことが出来ていると思うにょ。
WebブラウザはFlashに対応していないという問題があるし、PIMアプリは本当に使い
やすいものがあるのか実際に使わないと分からないという不安要素もあるけどね。
しかし、定価27800円と従来モデルより2000円値下げされただけでなく液晶画面の解像度も
960×640へと大幅強化されたしね。
それにiOS4.1搭載でマルチタスクに対応したのも大きいにょ。
サイズ面も111×58.9×7.2mm、101gであるためWVGA以上の液晶を備えたPDA(ネイティブ
アプリが動作するWeb端末)の中では最小の部類になるにょ。
iPhone4との差別化のためGPSこそ内蔵してないけど各種センサーは同様に搭載しているし
カメラやマイクも備えているためそれらに対応したアプリも利用することが可能になった
というのは大きいにょ。(カメラ自体はiPhone 4より貧弱だけど搭載されているだけマシ)
従来のtouchでは内蔵されてないため「iOS搭載だけど使えないアプリ」というものが
結構あったのが無くなるということだけでもかなり良いことだと思うにょ。
現時点で唯一感じている難点といえば、脱獄しない限りはアップル認証のアプリしか導入
できないということかもしれないにょ。
新しいデジカメを買った理由
新しいデジカメを買ったにょ。
買った機種はPanasonicのLUMIX FX66にょ。
http://dc.watch.impress.co.jp/docs/review/newproduct/20100408_359720.html
といっても4週間後の妹の誕生日プレゼント用だけどね。(保護フィルタとSDHCもセットで
プレゼント)
近所のキタムラで14400円の破格値だったにょ。(ちなみに色はピンク)
半年前の発売当初の価格は3.5万円くらいの機種なのでお買い得感は非常に高いにょ。
ここ10年くらいは毎年デジタル関係の品ばかりプレゼントしているけど今年の候補に
挙げたのはデジカメ、プリンタ、デジタルフォトフレームだったにょ。
昨年は写真加工用としてペンタブレット+2GBのDDR2メモリをプレゼントしたけどやはり
そうなると加工したもの飾りたくなるのではないかと考えたからにょ。
とはいえ、プリンタは4年前にプレゼントしたL版、ハガキサイズ用のものがあるため
それより大きなものにプリントしたいと思うかが重要にょ。
そうなるとまず大きなプリントをしたいと思わせるには元となる写真がキレイに撮れる
必要があるのではないかと考えたにょ。
妹が現在使っているデジカメは500万画素のFX7にょ。
さすがに6年前の機種ということで現在のものと比べるとかなり劣るとはいえ、普通に
使うのは十分なのでよほど理由がないと買い換えの必要性を感じないかもしれないにょ。
一応古い機種とはいえ光学式手ぶれ補正機能が付いているからね。
光学式手ぶれ補正機能は2005年くらいから採用機種が増えて今ではほぼすべての機種に
搭載されているもののエントリークラスの機種には電子式手ぶれ補正機能しか搭載されて
ない場合が多いから安くても「初心者向け」とは言い難いにょ。
そういうことで、デジカメをプレゼントしようと考えたけど実売1万円台のコンデジは
かなり多くの機種がある中でFX66を選んだのは下記のような理由があるからにょ。
(1)超解像に対応した1400万画素
(2)広角25mm(相当)からの5倍ズーム搭載
(3)SDXC対応
(4)クラス最速AF
(5)コスメティックモード搭載
(1)「高画素=高画質」ではないということはここで何度も書いたけどやはり画素数は
少ないよりも多いと考える人が多いからね。
1/2.3インチセンサーでは1000万画素以上ではまともに解像している機種は皆無とは
いえこの機種以降のPanasonicのデジカメは超解像モードが搭載されているにょ。
動画において超解像は非常に有用なのだけどそれは前後フレームのデータを利用できる
というのが大きいにょ。
静止画においてはその画像だけでは情報量不足で解像していないものを解像するという
のは不可能にょ。
したがって、超解像というのはシャープネスの一種にすぎないにょ。
とはいえ、一旦JPEGとして生成されたものにシャープネスをかけるというのとは異なり
内部で画像解析を行い部分的にシャープネスの度合いを変えるという仕組みのため
一般的なフォトレタッチソフトを用いて均一にシャープネスを高めるよりは遙かに効果的と
なっているにょ。(後からレタッチするのではなく一般的なデジカメでシャープネスを高め
撮影した場合でも線が太くなり、不自然な描写になってしまうことが多い)
解像してないものを解像するほどの効果はないけどぼやけて形が見えないものが何となく
見えるレベルにはなるため非常に有用にょ。
ただし、4月11日に書いたように1/2.33インチ、1400万画素センサーの場合はF2.7で回折
限界に達するにょ。
FX66の場合は広角側はF2.8でギリギリラインとなるけど望遠側はF5.9であり回折限界を
大きく超えているため超解像をONにしてもほとんど効果がないにょ。
(2)少し前までのコンデジは換算35mm付近からの3倍光学ズームというのが主流だったにょ。
しかし、ここ最近は広角対応の機種が急激に増えたにょ。
FX66は換算25mmからの広角ズームということで35mmよりは明らかに広い範囲を写すことが
可能になるにょ。
35mmでは撮れないような風景を撮ったり、狭い室内での集合写真を撮ったりなど広角に
対応しているというメリットは大きいにょ。
ただし、一般的には望遠側も良く使われるにょ。
35mmからの3倍ズームだと望遠側は105mmだけど25mmからの5倍ズームだと望遠は125mmと
なるため望遠側も劣ってないため非常に有用にょ。
(3)2006年以前の機種はSDカードのみ対応(SDHC非対応)だったにょ。
2006年からは一部の機種、2007年からはほぼすべての機種がSDHC対応(ファームアップ
可能な機種であれば2006年より旧機種でもSDHCに対応可能になっているものはある)と
いうことで現在も十分現役として使えるけど最大2GBのSDカードにしか対応していない
機種はさすがに厳しいにょ。
とはいえ、当時だと500〜700万画素ということで1000万画素が当たり前の時代となって
いる今よりは1枚当たりの容量は少ないけどね。
あと静止画だけならいいけど動画を撮るとなると2GBでは全然足りず昔はQVGAでしか
撮れない機種が大半だったにょ。
これは容量だけの問題ではなくビデオカメラとの棲み分けのためだろうけどね。
ビデオカメラ部門のないカシオやサンヨーはMPEG4採用によって積極的に動画をアピール
してきたけどビデオカメラにも力を入れている家電系メーカーや元々カメラを作っている
ため動画には力を入れてないカメラメーカー(ニコンなど)はQVGAの時代が長かったにょ。
しかし、最近のHD化の波によってここ2、3年に発売された機種は大半がHD動画撮影可能と
なっているにょ。(エントリーモデルとハイエンドモデルを除けばほとんどが対応)
今年発売になったFX66は当然のことながらHD動画対応にょ。(ただし、Motion JPEG)
SDHCならば32GBまで対応しているということでそれほど容量的には困らなくなったとは
いえ、SDXCならば規格上は2TBまで対応しているのでほとんど無制限というレベルまで
撮れるようになるにょ。
もっとも現時点では64GBまでのSDXCしかないし、それが4万円もするということでSDXCは
必須とはいえないけど今後5、6年使い続けるつもりならば価格的なデメリットがほぼない
SDXC対応の機種を選ぶ方がいいからね。
(4)AFが遅いというのが多くのコンデジの弱点だったけどFX66は0.25秒(広角時)という
コンデジとしては最速レベルのAF速度を実現しているにょ。
これを完全に超える速度となると位相差検出方式を採用したFinePix300EXRなどしかない
わけだからね。
(5)これはFX66以降のLUMIXに搭載されたモードにょ。
要するに肌をキレイに撮るものにょ。
具体的には画像解析をしてシワ、シミを目立たなくしてマツゲなどはシャープにした上で
肌の色も3段階に設定可能になるというものにょ。
これもフォトレタッチ技術のある人であれば後からでもいくらでも可能とはいえ、
カメラ任せのオートでできるということで搭載されていることを喜ぶ女性は多いのでは
ないかと思うにょ。
あとFX66に限らず最近のコンデジの特長として高感度に非常に強くなったということが
挙げられるにょ。
5、6年前のコンデジは最大感度がISO400までだったにょ。
デジタルの場合はゲインアップでISO1600や3200でもいくらでも可能とはいえ無理に上げた
としても使い物にならないからね。
当時はまともに使えるのはISO100までで最大のISO400ではすでに塗り絵状態になっていた
ためとても使えたものではなかったにょ。
しかし、昨今では1/2.3インチクラスのコンデジでもISO400がそこそこ使えるレベルに
なっているにょ。
裏面照射センサー採用や1/1.7インチクラスの大型センサー採用機ならばISO800でも
そこそこ使えるにょ。
私は昨年末に常時持ち歩き用のコンデジをCOOLPIX S1からCybetshot TX1に買い換えた
けれどこの高感度時の描写性能はかなり感動したからね。
センサーおよび画像処理エンジンの世代の進歩だけで上記のような非常に大きな差(私の
感覚的には2〜4倍くらいの差)があるのに加えて裏面照射で2倍効果、ノイズ低減効果の
ある手持ち夜景モードで撮影時にはさらに2〜4倍の効果があるからね。(S1のISO400は
使えないレベルだけどTX1の手持ち夜景で撮影したISO3200は使えるレベルの描写力)
というわけでFX7からFX66に変えることであらゆる状況下において確実に描写力アップに
繋がると想定できるにょ。
同じメーカー(同じ系列機種)であるため操作性にあまり差がないため違和感なく使える
というのもあるしね。
裏面照射センサー採用機は高感度には強いけど日中描写力ではまだ他のセンサー採用機
よりは劣るし、屈折光学系の機種だと使用時にもスリムで私は好きだけど構造上レンズ
性能を上げられないために場合によっては画素数が増えてもFX7の描写力より劣る可能性
さえあるにょ。(それに屈折光学系はレンズが飛び出さないため指で隠れていても分かり
にくく構え方に気を付ける必要がある)
これで、キレイな写真がたくさん撮れるようになったら来年はプリンタかな・・・?
そもそもでっかくプリントするというようなことをしないかもしれないけどね。
私もA4プリントでさえ年に数枚というレベルであるためプリンタは非常にコスト
パフォーマンスが悪いにょ。
超解像がコンデジの新しいトレンドになる?
昨日はFX66について書いたわけだけど1/2.33インチ、1400万画素という極小ピッチ(画素
ピッチ1.35μm)のセンサーであるが故にレンズ性能が画素ピッチに追いついておらず
等倍鑑賞はかなり厳しいのだけど超解像技術によってそれはかなり緩和することは可能と
なっているにょ。(1400万画素で撮影して500万画素くらいにリサイズすればいい感じに
なるため画素数が多いということは必ずしも悪いことというわけではない)
この超解像モードはPanasonicのコンデジ(2010年発売モデル)にしか搭載されてなかった
けれどカシオのEXILIMも最新モデルでは搭載されているにょ。
というわけで、改めて超解像とはどんなものか、また、カシオの超解像技術はどの程度
なのかをこのEXILIM EX-S200のレビューを元に考えてみることにするにょ。
http://dc.watch.impress.co.jp/docs/review/newproduct/20100906_390981.html
◎光学端
超解像OFF http://dc.watch.impress.co.jp/img/dcw/docs/390/981/31.jpg
超解像ON http://dc.watch.impress.co.jp/img/dcw/docs/390/981/33.jpg
◎望遠端
超解像OFF http://dc.watch.impress.co.jp/img/dcw/docs/390/981/32.jpg
超解像ON http://dc.watch.impress.co.jp/img/dcw/docs/390/981/34.jpg
このS200はスタイリッシュな薄型モデルということでレンズ性能がそれほど高くなく
ただでさえ極小ピッチであるため広角端、超解像OFFだと等倍鑑賞はやや厳しい感じと
なっているにょ。
しかし、同じく広角端でも超解像ONのものを見てみると明らかに変わっているにょ。
両者において明確に異なる部分といえば背景にあるビルにょ。
超解像ONでは輪郭線がはっきり出ているということは両者を見ればひと目で分かると
思うにょ。
蓮の葉を見てもビルほどではないけど輪郭線がはっきり出ているようになっていると
思うにょ。(手前の葉が特に効果が大きい)
望遠端を見てみると広角端では絶大な効果があったビルの輪郭線は一応の効果はある
もののそこまで極端に効果はないにょ。
これはレンズ性能の問題(解像力と回折限界の問題)によって大きく解像感が不足して
いるために超解像では補正が間に合わないためだと推測できるにょ。(ピントが合って
ない部分なのか単に解像しきれてない部分なのかの判断が難しいため)
超解像というのは昨日書いたように画面均一にかかるシャープネス処理とは異なり画像
解析を行い部分ごとに処理を変えることで実現しているにょ。
それ故、効果が大きい部分と小さい部分がどうしても出てしまうにょ。
シャープネスは全体にかかるため輪郭線を強調するとノイズまで増えてしまうという
厄介な問題があるにょ。
それでは超解像はどうなのか・・・。
◎ISO50
超解像OFF http://dc.watch.impress.co.jp/img/dcw/docs/390/981/44.jpg
超解像ON http://dc.watch.impress.co.jp/img/dcw/docs/390/981/51.jpg
◎ISO400
超解像OFF http://dc.watch.impress.co.jp/img/dcw/docs/390/981/47.jpg
超解像ON http://dc.watch.impress.co.jp/img/dcw/docs/390/981/54.jpg
◎ISO3200
超解像OFF http://dc.watch.impress.co.jp/img/dcw/docs/390/981/50.jpg
超解像ON http://dc.watch.impress.co.jp/img/dcw/docs/390/981/57.jpg
ISO50の作例を見てみると無ノイズだけど等倍鑑賞では極小ピッチということを考えれば
こんなもんだろうという感じだったのが超解像ONにすることで明確な変化が出てきたにょ。
このように建物のようなエッジがはっきりしたものに関しては超解像の効果が極めて
大きいものであることが分かるにょ。
ISO400になるとノイズが増えそれを低減するために塗り絵チックになりつつあるにょ。
超解像をONにしてもISO50の時と比べたら輪郭線ははっきりでないものの十分な効果は
ある感じにょ。
しかも、ノイズが増加しているようには見えないにょ。
ISO3200はさすがに相当無理があるため超解像をONにしても目に見えて分かるような効果は
得られないにょ。
とはいえ、ISO800〜1600では高感度ノイズ低減によるディティール損失が大きいけど
超解像を使えば輪郭線がはっきり出るのでかなり有用といえるにょ。
このように超解像はシャープネスのように画面均一にかける処理ではないため効果は
部分を強調するために他所が犠牲になるということがなく超解像をONにすることによる
ことでノイズが増加するという問題もなさそうにょ。
超解像はズームにも活用されているにょ。
ズームには光学ズームとデジタルズームの2種類があるけど前者は無劣化なのに対して
後者はただのトリミングしたものを拡大補間するだけであり画質面では大きく劣るにょ。
例えば1200万画素のデジカメにおいて4倍デジタルズームを使うと1200万画素の4分の1の
300万画素を拡大するというイメージがあるかもしれないけど4倍ズームは縦横4倍である
ため画素数では16倍になるため75万画素となるにょ。(1200万画素のデジカメで4倍
デジタルズームを使用するということは75万画素で撮影したものを1200万画素に拡大補間
して記録しているということ)
1200万画素(光学4倍ズーム)と75万画素(4倍デジタルズーム)ではさすがに誰が見ても
その違いは歴然にょ。
S200は光学4倍ズームを搭載した1400万画素のデジカメであるため4倍デジタルズームを
使用時には16倍相当のズームになり、画素数は87万画素を拡大補間した1400万画素と
なるにょ。
http://dc.watch.impress.co.jp/img/dcw/docs/390/981/36.jpg
さすがに87万画素を16倍の画素数に拡大補間しただけなので等倍では見るに耐えない
感じにょ。
ならば等倍で使用せず縮小前提と考えればいいけどそれならばこんな画素数で記録する
必要はないし、拡大補間の時点で劣化しているのにそれをさらに縮小するという劣化の
繰り返しをするというのはあまり好ましくないにょ。
最大画素数で記録する必要がないのならばPanasonicのEXズームやソニーのスマート
ズームのようにセンサーの一部のみを使ったただのトリミングによるズームの方が
このような一般的なデジタルズームよりは遙かに有用にょ。
しかし、超解像を用いれば少しだけ解像力不足ならば十分補えるということは上記の
作例を見ても分かると思うにょ。
これを使ったデジタルズーム+超解像というものがあるにょ。
これはカシオは「超解像ズーム」と呼んでいるにょ。(Panasonicは「iAズーム」と
呼んでいる)
デジタルズームは最大4倍まで可能なのだけどこれを1.5倍まで(Panasonicは1.3倍まで)
と抑えることで超解像で解像力不足を補えるというわけにょ。
ただ、1.5倍ズームといっても画素数でいえば2.25倍にょ。
S200の場合は620万画素を1400万画素に拡大補間している状態にょ。
http://dc.watch.impress.co.jp/img/dcw/docs/390/981/35.jpg
これが実用になるかどうかは人によるけどさすがに超解像を用いても現時点のアルゴリズム
では1.5倍デジタルズーム(4倍光学ズームと合わせて6倍ズーム)はやや厳しいような
感じがするにょ。
超解像ズームの実用性はともかく超解像そのものはONにすることで特にデメリットとなる
部分はないと思われるにょ。
しかし、全くデメリットがないというわけではなく現時点では超解像は処理に時間が
かかるというデメリットがあるにょ。
S200でも1枚撮影後に3秒くらい処理に時間がかかるみたいだしね。
とはいえ、効果を考えれば妥協は可能だと思われるにょ。(私が普段使っているTX1の
「手持ち夜景モード」も処理に3、4秒かかるけど1〜2段分のノイズ低減効果は非常に有用に
感じている)
それにプロセッサ性能は年々向上しているので大きな問題でもないにょ。
今は当たり前のように搭載されている顔認識でも最初は1人の顔を追いかけるのが精一杯
だったけど今は16人でも余裕だからね。
これもプロセッサ性能の向上の賜にょ。
性能が向上すれば処理時間が短くなるだけではなくより高度なアルゴリズムを用いて
さらに効果的な超解像処理を行うことが可能になるにょ。
これは画素ピッチが小さなコンデジでは非常に有用になるにょ。
現時点では画素ピッチの面では余裕があるデジタル一眼でも画素数が増えていけば将来的
には超解像対応のRAW現像ソフトが登場するかもしれないにょ。
スマートフォンとポケットサイズPCは棲み分け可能なのか?
9月5日には新型iPod touchはポケットサイズのWindows PCと棲み分けができるということを
前提に書いていったにょ。
ポケットサイズPCはWindows搭載であるが故にAndroid OSやiOSでは出来ないことも可能に
なるからそれ自体に間違いはないにょ。
ただ、AndroidやiOSがWindowsを駆逐するというわけではなく現実的な利用面において
「棲み分け」というほど明確な活用方法の違いを果たして見いだすことができるのか?
ポケットサイズPCでいえば、現時点で最も完成度が高いものはViliv N5だと私は感じて
いるにょ。
N5が先行していたPMやBXと比べて大きなアドバンテージとなったのは5月28日に書いた
ようにメモリを1GB搭載していることやSSDが交換可能なことにょ。
「スマートフォン時代」が訪れようとしている中、このN5が本当に実用的になるのか
モバイルに詳しい戸田氏のレビューを見てみることにするにょ。
http://trendy.nikkeibp.co.jp/article/column/20100903/1032829/
最初に書いておかなくてはならないのはリンク先レビューではN5は「ミニノート」と
記されているけどここでは「ポケットサイズPC」としていることにょ。
ミニノートに明確な定義はないけどLibrettoが発祥となった小型のノートPC全般を示す
ことが多いため私はポケットに入るくらい小型のPCに関しては「ポケットサイズPC」と
呼んでいるにょ。
呼び方に差異はあるものの戸田氏が言うミニノートと感覚的な違いがあるわけではないと
思われるにょ。(すでに小型のネットブックより「ミニ」であるというニュアンスで
用いていると思われるため)
まずは本体のサイズに関してにょ。
http://trendy.nikkeibp.co.jp/article/column/20100903/1032829/?P=2
388gというN5は非常に軽量で昔のPDA並といえるにょ。
実際パワーザウルスは本体だけで320gあったからね。
http://www.watch.impress.co.jp/pc/docs/article/970623/sharp.htm
私はカメラユニットを付けて持ち歩いていたけどこの時のサイズや重量はN5の方が小型、
軽量ではないかと思ってしまうくらいにょ。
いくらN5がPCとしては小型、軽量の部類とはいえポケットに入れて持ち歩くには無理がある
と思われるにょ。
ポケットに入るか否かということであれば昨年12月7日に書いたように私は自らの実験に
よって「奥行き+厚さ」が14cm以下であればほとんどのポケットに収まるためこれを
ポケットサイズPCの定義として採用したにょ。(手持ちのVAIO UXは合計13.9cmとなって
おり実際にポケットに突っ込んだらギリギリ入るサイズとなっている)
富士通はLOOX Uを発売するにあたって事前調査から「13cmがポケットサイズ」基準になった
ため私の「ポケットサイズPCにおける定義の14cm」はあくまで私の環境においてという
だけであってこれが必ずしも絶対的なものとはいえないということにょ。
そもそも「ギリギリ入る」というのと「余裕を持って入る」(普通に出し入れ可能)という
のとでもサイズの基準が異なってくるわけだしね。
次は液晶に関してにょ。
http://trendy.nikkeibp.co.jp/article/column/20100903/1032829/?P=3
ポケットサイズPCの多くは5インチ弱のWSVGA液晶が採用されているにょ。(N5、PM、BXは
4.8インチ、VAIO UXは4.5インチ)
解像度の面では多くのスマートフォンに採用されているWSVGAより一回り大きく、画面
サイズも一回り大きいにょ。
「文字が小さすぎて見にくいから使えない」と思うかも知れないけど4.8インチ、WSVGAの
N5は247ppiとなるためドコモのXperia(4インチ、FWVGA)の245ppiと大して変わらない
ためそれほど問題ないにょ。
iPhone 4に至っては(3.5インチ、960×640)326ppiとなっているためかなり厳しいと
思われるにょ。
また単純に「文字の大きさ」といってもシステムフォントの大きさが異なるために両者
(スマートフォンとポケットサイズPC)では単純比較はできないにょ。
確かにメニューなどに使われているシステムフォントの大きさはポケットサイズPCの
方がかなり小さいだろうけどね。
システムフォントの大きさ(表示dpi設定)はWindowsの場合はサイズ調整ができるため
それを変更すれば問題はないにょ。
文字の小ささが懸念材料となっているポケットサイズPCでは標準の96dpiではなく120dpiに
設定済みで出荷した方が良いと思うにょ。
VIAO UXではワンタッチ拡大ボタンがあるけどこれと同じようなボタンは他のポケット
サイズPCにもあっても良さそうにょ。
いくらdpi設定を変えてもすべてのアプリでその設定が反映されるわけではないからね。
またタッチパネルにおいても両者には静電容量方式と感圧式という違いがあるにょ。
スマートフォンは基本的に指で操作するものであるため静電容量方式が用いていることが
多いけどポケットサイズPCはほぼすべてが感圧式となっているにょ。
ポケットサイズPCでも静電容量方式を使えば指で軽く撫でただけでも反応可能になるけど
それを行わないのはポケットサイズPCの液晶パネルを指だけでポインティングするという
ことは事実上困難だからにょ。
Windowsはキーボードとマウスがあることを前提に作られているにょ。
つまり、マウスのような正確なポインティング操作ができなければWindowsは使うことが
できないということにょ。
スタイラスを使っても「容易ではない」と感じる人がいるのにそれを指で行うなんて
とても出来ることではないにょ。
キーボードに関してはN5はサイズの割りには優秀とこのことにょ。
http://trendy.nikkeibp.co.jp/article/column/20100903/1032829/?P=4
PMはキーがふにゃふにゃであり私はに少し店頭で使っただけなのに良いものには思えな
かったのでN5も早く一般店頭で売られるようになることに期待しているにょ。
とはいえ、ブラインドタッチは相当の熟練を要するため基本的には両手で持って親指
タイプという形になるにょ。
これだとサイズ的にも丁度いい感じだしね。
ただし、親指タイプであれば速度面でキーボード付きのスマートフォンと比べてあまり
アドバンテージがないにょ。
私はリナザウやポケコンはテーブルの上において3本指入力を行えば毎分300文字程度の
打鍵速度でタイプ可能だけど親指入力ならば速度が半減してしまうからね。
最後は動作速度の面にょ。
http://trendy.nikkeibp.co.jp/article/column/20100903/1032829/?P=5
N5に搭載のAtom Z520(1.33GHz)はポケットサイズPCの中では遅い部類ではなくPMの
Z510(1.1GHz)やBXのZ515(1.2GHz)と比べれば十分速いにょ。(Z510にはHTTがない
ためPMと比べるとクロック差以上の性能差がある)
それでもやはりWin7を動作させるには十分とはいえないにょ。
PMやBXはやはりXP搭載というのが大きかったからね。
N5はそれらと比べてメモリ1GB搭載というのがアドバンテージになっていたもののやはり
XPよりは多くのメモリが必要になる7において1GBでは十分とはいえないにょ。
N5にもXP搭載モデルがあるためそれを買うという方法もあるにょ。
しかし、XPにはSSD16GBモデルしか用意されてないにょ。
16GBではシステムに使われている領域、リカバリ領域を除くとユーザーが自由に使える
領域は半分もないにょ。
これが32GBモデルであれば空き領域が多くなるのだけど残念ながら32GBモデルにはXPは
用意されてないにょ。
また、XPは現在はULCPC版のみがOEM向けに提供されているもののこれはWin7が発売から1年後
となる今年の10月で終了するにょ。
つまり、今後はXPモデルは現在の流通在庫以外は入手が困難になり(proのダウングレード
によって搭載可能だけど価格が跳ね上がってしまう)今後は7が中心となるにょ。
9月4日にノートPCの代わりにiPadを使用する人の理由として「PC(Windows)は起動に
時間がかかる」ということが挙げられたけどこれはサスペンドを常用することで回避
可能になるにょ。
ただし、9月5日に書いたようにサスペンド中のバッテリ消費もバカにならないにょ。
その点に関してはN5は公称150時間のサスペンド時のバッテリ保持となっているため安心
して使用できるにょ。
実際の消費電力においても週刊アスキー9/21号で計測されているけどN5のサスペンド中の
消費電力は150mWとなっているにょ。
バッテリ容量から逆算して約105時間となるけどこれはACアダプタのAC→DC変換効率は
考慮されてないので変換効率が70%と仮定すると公称値の150時間に達するにょ。
ちなみにBXが270mWで逆算約70時間、LOOX Uが340mWで逆算約38時間、VAIO Pが270mWで
逆算70時間となっておりN5のサスペンド中の消費電力の小ささがよく分かると思うにょ。
以上を踏まえて考えてみるとポケットサイズPCとスマートフォンがとても競合するようには
思えないにょ。
しかし、いくらポケットサイズPCがPCとしては小型、軽量であっても別途持ち歩くので
あればそれに似合うだけのメリットがあるかどうかが重要になってくるにょ。
「どうしてもWindowsを使う必要がある」というであれば一般的なノートPCと比べて
快適さでは大きく劣るものの使う価値は十分にあるにょ。(一般的なモバイルノートが
1kg前後なのに対して400g程度というのは別格の軽さだし、筐体サイズが小さいことで
持ち歩きも容易になる)
しかし、現時点では7を快適に動作させるためのマシンパワーがないため非力なマシンでも
快適に動作するスマートフォンと比べるといくら性能で勝っていても体感速度では負けて
しまうという可能性があるにょ。
つまり、(動作速度の面で)快適性を求めたいからスマートフォンではなくポケット
サイズPCを選択するというのは正しい選択ではないということにょ。
スマートフォンはかつてのPDAの役割も担っているけど昨今は「Windowsでないと困ること」
というものがかなり減っているにょ。
これは多くのことがWeb中心となっているのに加えてスマートフォンに搭載されている
WebブラウザはPC向けのWebブラウザと比べて大きく見劣りすることが無くなったという
こともあるにょ。
何せAndroidでもFlash10.1がサポートされているわけだしね。(昔だったらPDA用には
サブセット版であるFlash Liteがサポートされるのがせいぜいだった)
私はモバイル機器に関してはモバイルランクを設定しているけど普通のモバイルノートが
ランクCなのに対してポケットサイズPCはランクBに設定しているにょ。
これは本体サイズが小さいことでポケットに収まるということと両手に持った状態で
使えるということが差別化の要因となっているにょ。
ランクBの機器は常時ポケットに入れて持ち運ぶわけではないけどいざというときに
ポケットに入れられるというのはメリットになるからね。
これは、「バッグが不要になる」というのではなく「バッグの使用頻度が低くなる」と
いうことを意味するにょ。
普通のモバイルノートPCであれば一旦使用する用事が済んだらバッグにしまうのだけど
それからちょっと使いたいというときに再びバッグから出したりとか使っている途中で
急に両手をフリーにする必要がある(電車やバスを降りなければならないなど)という
場合に「必ずバッグにしまわなくてはならない」かつ「必ずバッグから取り出さなければ
ならない」というのはやはり使用頻度を下げる要因にもなっているにょ。
ケータイをバッグに入れて持ち運んでいる人は電車に乗ってわざわざ用もないのに
バッグからケータイを取り出すという人はあまりいないだろうけどポケットやポーチ
などに入れている人であればすぐに取り出せるためちょっとした機会にすぐに取り出す
ことができると思うにょ。
また、ポケットサイズPCは両手に持って使えるというのがモバイルノートと比べて
大きなアドバンテージになっているにょ。
満員電車の中ではさすがに無理があるけど立ったままで使えるというときは歩いていて
さっと取り出して使うことができるということにょ。
店頭に欲しい商品があった場合にそれが本当に有用なのかをネットで調べたりという
ことがその場でできるからね。(モバイルノートだと座れる必要があるし、地べたに
座ってノートPCで何かをしていたらいかにも怪しい人に思われてしまう)
ただし、それはあくまでモバイルノートに対するアドバンテージにょ。
実際にその程度のことはほとんどスマートフォンでできてしまうからね。
立った状態でWindows用アプリを使う必要がある人、立った状態でアプリ開発を行う
必要がある人などのごく一部な例外を除けば少なくとも「立った状態で行うことで
Windowsで無ければならないこと」というのはほとんどないのではないかと思われるにょ。
そういうことを考えるとスマートフォンとポケットサイズPCの棲み分けというよりも
ポケットサイズPCがどのように活用するのかということになってしまうにょ。
スマートフォンを持っていなければ確かにポケットサイズPCの活用場面は非常に多い
けれどスマートフォンを持っていれば「どうしてもWindowsで無ければならない」と
いう場合以外にポケットサイズPCが登場することはほとんど無くなるだろうからね。
確かにキーボードレスのスマートフォンと比べれば一応は打てるレベルのキーボードを
持つポケットサイズPCは文字入力の面においてメリットがあるからそういう面では
活用する場面は多いと思うにょ。
それでも、それだけの文字数を立った状態で入力するという場面は私はごく希にしか
ないにょ。
大半は立った状態で行うことといえばビューアがメインであり文字入力といえば適当な
メモ書きや検索エンジンへの文字入力が大半にょ。
私の場合はランクB(ポケットサイズPC)に相当するVAIO UXに加えてランクCに相当する
Let'snote R5もほとんど毎日持ち歩いているにょ。
このため多くの文字入力をするという機会がある場合はUXを使わずに最初からR5を
取り出して使用するにょ。
しかし、モバイルノートを毎日持ち歩いている人というのはそれほど多くはないと
思われるにょ。
「少しでもまともに打てるキーボードが欲しい」とか「どうしてもWindowsを使う必要が
ある」という人であれば確かにポケットサイズPCは有効活用できる場面があるのだけど
そうでなければほとんどの場合はスマートフォンで間に合うにょ。
実際棲み分け以前にそのようなポケットサイズPCに4〜6万円払えるという人は限られて
いるだろうし、ポケットサイズPCはスマートフォンとは異なり単体で通信ができないため
別途3G通信アダプタ(もしくはモバイルルータ)を契約して持ち歩くか、無線LANが
使える場所へと移動して使う必要があるにょ。
これは9月4日に書いたスマートフォンに対するタブレット端末の問題と同様のものにょ。
投資コストに似合うかどうか、通信をどのように確保するかが重要であって棲み分け
以前の問題となっているにょ。
したがって、ポケットサイズPCはどうしても仕事上必要な人(モバイルノートは大き
すぎて持ち歩けないけどこのサイズであれば持ち歩ける人)を除けば小型ガジェット
好きのモバイルオタクだけが購入するに止まっていると思われるにょ。
要するにこのサイズでWindowsが動作するということに魅力を感じているという人で
なければ棲み分け(使い分け)というものは最初から存在しないということにょ。
なぜ新型iPod touchは大幅に機能強化されたのか・・・?
昨日は急速に普及が進んでいるスマートフォンによってポケットサイズのWindows PCは
活躍する場面が無くなるため売れなくなるという予想に対して「結局欲しい人が買っている
だけ」という現状からあまり変わらないという結論を下したにょ。
スマートフォンは確かに便利だけどガラケーも捨てがたい・・・でも、2台持ちはコスト
面の問題が・・・という人のためのものといえばやはり何度も書いているようにiPod
touchの出番にょ。
スマートフォンがPDAから発展したものなのに対してtouchは元々はDAPから発展したもの
であり、ショップの売場においてもDAPコーナーで販売されているにょ。
8月にはiPodが久々にウォークマンにシェア1位を譲るという(8月は特別な月ということを
考慮しても)数年前までのような状況とは異なるというのは確かにょ。
実際iPodは低価格製品はウォークマンに苦戦しているけど高価格(1.5万円以上)では
依然として高いシェアを保っているにょ。
http://www.itmedia.co.jp/news/articles/1009/09/news015.html
高いシェアの要因となっているのは言うまでもなくtouchの存在にょ。
ソニーにはこれに対抗する製品はないからね。
それによって、9月3日に書いたようにnanoはtouchを基準に大幅な仕様変更が行われた
と推測しているにょ。
さて、touchといえば冒頭に書いたようにランニングコストがかからないスマートフォン
として(要するにPDAとして)使用するという人も多いのではないかと思われるにょ。
今回の新型では大幅に仕様強化されるためにその役割は更に高まっているけどそうなると
iPhone4との違いも気にしている人が多いのではないかと思うにょ。
iPhone4(32GB)を一括払いで買って解約して57600円(+諸費用)、iPod touch(32GB)は
定価27800円であるためiPhone4を「無線LAN専用」としてランニングコストゼロで使用する
場合でも端末コストは2倍になるわけだからね。
すでに旧touchを持っている人はそれから乗り換えするに値するものなのかということも
気になるところだと思うにょ。
サイズは表面積に関しては同じ3.5インチ液晶ということで新型iPod touchもiPhone 4も
それほど差はないにょ。
http://plusd.itmedia.co.jp/lifestyle/articles/1009/08/news021_3.html
ただし、厚さに関しては明確な差があるにょ。
iPhone 4は3GSより薄型化され9.3mmになったものの7.2mmだからね。
しかも、重量はiPhone 4が137gなのに対してtouchは101gということで一回り小型、軽量
といっても過言ではないにょ。(3割差あれば実際に持って体感できると思う)
動作速度の面を見ると新型touchは旧touchと比べて4倍の解像度になっているにも関わらず
描画速度は向上している模様にょ。
それはGPU性能の向上によるものが大きいけどCPUだけ見ても新型は旧型と比べて35%も
高速になっているにょ。(整数演算 旧227→新299、浮動小数点演算 旧281→新373)
ただし、メモリ搭載量に関してはiPhone4では従来から倍増となる512MB搭載されたのに
対して新型touchは旧型から据え置きに256MBとなっているにょ。
現状では256MBで動作が厳しいアプリはないためマルチタスク対応によって多くのアプリを
同時に起動するか否かが評価ポイントになると思われるにょ。
スペック表には記載されてないもののiPhone 4との大きな違いとなっているのはカメラ
機能にょ。
動画は両者とも1280x720のHD動画が撮影できるけど静止画に関してはiPhone 4が500万画素
(2560×1920)で撮影できるのに対して新型touchは960×720に止まっているにょ。
さらにカメラの機能としてもiPhone 4がAF対応なのに対してtouchはパンフォーカス
(使い捨てカメラやトイデジカメのようにピントが固定された状態)だからね。
これはコスト低減のためこうなったのだと思われるにょ。
液晶モニタも解像度こそiPhone 4と新型touchは同じだけどその違いは比べれば歴然にょ。
http://plusd.itmedia.co.jp/lifestyle/articles/1009/08/news021_4.html
iPhone 4はIPS液晶が搭載されているのだけどこの写真を見る限りでは新型touchは
TN液晶ではないかと思われるにょ。
この厳しいコスト低減はやはりiPhoneよりも利益率が低いからだと思われるにょ。
iPhone 4(16GB)の部品コスト(開発費、組み立てコスト、流通コストは除く)は
188ドルと推測されているからね。
http://www.itmedia.co.jp/news/articles/1006/29/news020.html
16GBのフラッシュメモリが27ドルなので32GBモデルは215ドルと推測されるにょ。
AT&TによるiPhone 4の一括払いの価格は699ドルであるため部品コストが価格に占める
割合は3割程度となっているにょ。
上記のコスト計算から新型iPod touch(32GB)のコストを計算してみるにょ。
3G通信関係非搭載、メモリは搭載量が半分なので価格半分、iPhone 4より品質が劣る
カメラと液晶はコストは半分と仮定して計算すると162.62ドルとなったにょ。
iPod touch(32GB)は299ドルであるため54%となるにょ。
すでに相場が下がっているパーツや(適当に半額と仮定したため)計算の誤差があると
想定すれば定価の5割程度が部品コストとなりそうにょ。
iPhoneと比べたら利益率が低い製品であるということが分かると思うにょ。
もしも、touchでiPhoneと同レベルの利益率を確保するためには540ドルくらいの価格設定を
する必要があり日本国内での販売価格は5万円弱になりそうにょ。
それが27800円で買えるわけだからiPod touchはバーゲンプライスといえるにょ。
まぁ部品コストが定価に近いというヘタをすれば売れば売るほど(本体だけで見れば)
赤字が大きくなる場合さえあるコンシューマゲーム機と比べれば売れば売るほど黒字に
なるため別に何の問題もないけどね。(コンシューマゲームはソフトによって回収する
ビジネスモデルとなっているためそれで問題はない)
しかし、そこまで厳しいコスト削減をしているのに各種センサー(3Gユニットに含まれて
いるGPSを除く)はiPhone 4と同様に搭載されているにょ。
旧touchはカメラさえ搭載してなかったのが新touchは搭載されているけどこれによって
iPhone用として作られたアプリのほぼすべてが動作するというメリットがあるにょ。
カメラやセンサーに依存したアプリというのも相当数あるからね。
つまり、「アプリを利用する」という点だけでいえば新touchは旧touchと比べて大きく
改善されており、iPhone4と比べてもほとんど遜色ないものといえるにょ。
新touchでアプリに拘ったというのはOSごとのシェア争いも大きいからにょ。
今年は世界で見ても前年比55%の増加を見せているスマートフォンだけどそのOSのシェア
争いは激化しているにょ。
http://www.itmedia.co.jp/news/articles/1009/09/news013.html
この業界では新入りとなっているAndroidとiOSだけどAndroidは2014年には現状の16.3%
から24.6%へと大幅なシェア増加が予想されているのに対してiOSは現状の14.7%から
10.9%へとシェア低下が予想されているにょ。
これは8月9日に書いたようにiPhoneが垂直統合のビジネスモデルとなっているからにょ。
iOS搭載機は一社からしか発売されないわけだからいくら現状より売れても市場全体が
大きくなった場合には大きなシェアを獲得するのが難しいということにょ。
これをカバーする存在となるのがiPod touchとなるにょ。
スマートフォンはキャリアとの契約が必要になるため新規購入や買い換えのハードルが
どうしても高くなってしまうにょ。
それに2年契約による「実質価格」では安価だけど一括購入すれば金銭的負担も大きい
からね。(2年契約の場合は2年間毎月支払う金額を考えると全然安価ではない)
したがって、コスト面を考えると現状使っているケータイから置き換えを迫られてくる
ことになるにょ。
しかし、キャリアとは無関係のiPod touchではそんな心配は要らないにょ。
Windows Mobileも元々はPDAなどの小型機器専用のOSとして作られスマートフォン用では
なかったのだけど今では製品のほとんどがスマートフォンでありかつてのようなPDAは
皆無となっているにょ。
それはPDAが高価で売れないからにょ。
PDAに3G通信機能を搭載したスマートフォンはコスト的には数10ドルの違いでしかない
けどそれが高価であってもどんどん売れている状態だから売れないPDAなんて作りたがら
ないというのがあるのかもしれないにょ。
ケータイにWebブラウザが搭載されていなかった90年代〜2000年台初頭だとPDAは高価で
あっても売れたけどこれも時代の流れにょ。
しかし、touchにはアップルブランド(iPodブランド)があるにょ。
PDAとしては興味がないけど単体通信(無線LAN搭載)のできる大容量のiPodを買ったら
iPhone用アプリも使えたのでハマったという人も大勢居るのではないかと思うにょ。
売れるから安くできるわけであり、安くできるから売れるというのが大きいにょ。
実際、touchはiPhoneと同レベルの台数売れているわけであり、ワールドワイドでは年間
1000万台を大きく超える売上となっているにょ。
1機種でそんなに売れるのはPDAとして考えれば驚異的なことにょ。(DSなどのコンシューマ
ゲーム機に匹敵するレベル)
スマートフォン市場の拡大によってiPhoneにしか搭載されてないiOSはシェア低下が予想
されているけどそれと同レベル売れているtouchがあるということは事実上iOS搭載機と
いうくくりで考えるとその2倍売れているということが言えるにょ。(これはスマート
フォン向けに提供されているOS搭載機としてはトップレベルのシェアになる)
確かに利益からするとiPhoneの方が大きいかもしれないけどシェアの拡大、そしてそれに
よるアプリやその他コンテンツの売上拡大を考えるとtouchの存在は無視できないことが
分かるにょ。(コンテンツ売上の影響力が大きいのは垂直統合のお陰)
それを考えると今回の新型touchの機能強化(コスト面の制約が大きいのに各種センサーや
カメラを省略しなかったこと)はすべて説明がつくにょ。
ペンタックスK-rは最強の入門用デジタル一眼!?
ペンタックスがK-xの後継となる入門用デジタル一眼レフ「K-r」を発表したにょ。
http://dc.watch.impress.co.jp/docs/news/20100909_392090.html
K-xと比べて主に下記の点が改善されているにょ。
(1)スーパーインポーズ搭載
(2)6コマ/秒の連写速度
(3)AF補助光搭載
(4)専用電池が使用可能
(1)K-xの悲願だったのがこれにょ。
近年はAFの多点測距は当たり前のように搭載されているもののK-xではファインダー内で
どの部分にピントが合っているかは確認できなかったにょ。
一般的にはどの部分にピントが合わされているのかということをスーパーインポーズ機能
として測距ポイントの表示を行うことで解決されていたけどK-xにはそれが無かった
からにょ。
確かに一眼レフだからピントが合っているかどうかはファインダー内で確認可能なこと
だけど入門機のファインダーでは細かいピントを瞬時に確認するなんて無理だし、
そもそもピントが合っているかということとどこにピントを合わせているかということは
別問題だからね。
「カメラ任せのオートでしか撮影しない」という人であれば問題がないことだけど
少なくともデジタル一眼レフではこれは致命的な問題だったにょ。
したがって、せっかくの11点測距なのに事実上1点測距以外は使いにくいものがあり、
これだけの理由でK-xを敬遠していた人も少なくなかったにょ。
ようやくペンタックス(HOYA)にもこのことが伝わったのか、K-rではペンタックスの
入門機としては私が現在使っているK200D以来のスーパーインポーズが復活となったにょ。
(2)ペンタックスといえば連写に弱いというのがファンの間でも当たり前の認識だった
けれどK-rは何と6コマ/秒の連写速度を実現しているにょ。
同じ入門機でもα55が10コマ/秒を達成していることを考えると単純にスペックだけを
見れば最強とはいえないけどα55の場合は固定された半透過型ミラーを使ってようやく
実現できた速度だからね。
通常のクイックリターン式ミラー採用機で見ると入門機では最速にょ。
中級機までくくりを広げてもニコンD90(4.5コマ/秒)やキヤノンEOS 60D(5.3コマ/秒)を
超える連写速度となっているにょ。
私が使っているK200Dはバッファメモリが少ないため2.8コマ/秒で4コマまで(JPEGでもRAW
でも)という極めて貧弱なものであり事実上オートブラケット用としてしか使えない
感じだったけどK-rではJPEG25枚、RAW12枚まで連写可能であるためスポーツなどの
動く被写体にも対応できそうにょ。
とはいえ、動く被写体に対応できるかはAF速度に依存するにょ。
α55でも10コマ/秒はAFを使用しない時の速度であり、AFが追従するのは6コマ/秒まで
だからね。
動く被写体を撮る時はコンティニュアスAF(AF-C)で撮影することになるけど
ペンタックスの場合はAF-Cはレリーズ優先ではなくピント優先なので厄介にょ。
ただでさえAFは遅い(超音波モーター内蔵レンズを使用すればそこまで遅くはないけど
多くのレンズはボディ内蔵のモーターによってピントを合わせるため)ということで
動く被写体にピントが合わないとシャッターが切れないので高速で動作するものを撮影
するということはほぼ不可能になるにょ。
実際私が使っているK200Dも人がゆっくり歩く程度の速度であればAFが追従できるけど
それより速い速度になるともう追従が困難になるからね。
しかし、レリーズ優先の設定ができるK-rであればそれは解決にょ。
とりあえず、「シャッターが切れない」ということだけはなくなるからね。
とはいえ、AF速度が大きく改善されているとは思えない(キヤノンのAFが速いのはEOS用
レンズには基本的にモーターを内蔵しており、レンズごとに最適なモーターを搭載可能
ということが影響しているからね。(レンズに依存しない測距性能自体もペンタックスは
あまり速くはないけどこれは速度よりも精度を優先している影響だと思われる)
(3)ペンタックスのデジタル一眼レフの弱点ともいえるAF速度だけど暗い室内では特に
それが顕著になるにょ。
ヘタをすると一般的なコンデジの方がAFが速いとも思わせる速度だからね。
位相差検出方式は明るい場所では速いけど暗くなると精度や速度が大きく劣るという
問題があるにょ。
それを解決する1つの手段がAF補助光にょ。
しかし、ペンタックスの場合はAF補助光を使用するためにはフラッシュを光らせる必要が
あったにょ。
せっかくボディ内に手ぶれ補正機能があるため暗所でフラッシュを使いたくないという
場合にはAFが使えない(ほとんど役に立たない)ということもよくあったにょ。
私が持っているデジタル一眼では5年前に発売されたニコンD50でもAF補助光は搭載して
おり、これは価格が問題というよりもメーカーの開発思想の問題にょ。
この度、K-rではAF補助光が内蔵されたことは非常に喜ばしいにょ。
(4)「K-xは単三だから買わない」という人もいたからね。
個人的には単三電池が使えるということにメリットを感じているけどこれは使い回しが
効くというメリットがあるからにょ。
専用電池(リチウムイオンバッテリ)だと基本的にその機種専用となるからね。
安価なものでないため予備バッテリを買うのも躊躇してしまうにょ。
しかし、単三であれば他の機器で使えるため安心して買えるにょ。(それに安いし)
旅行に出かける際にも単三で統一していればどの機器でバッテリが切れても使い回しが
効くわけだし、アルカリ電池に対応していればいざというときにコンビニで入手可能
というメリットは大きいにょ。
とはいえ、単三は汎用性が高い反面デメリットもあるにょ。
まず1つ目は充電管理の問題にょ。
アルカリ電池は残量を把握するというのは容易ではない(乾電池の場合は徐々に出力
電圧が落ちているのでそれを元に把握するしかない)エネループでも1%単位での細かい
残量は把握できないにょ。
その点、専用電池であれば正確な残量を把握することが可能にょ。(ユーザーにそれを
知らせる時点で機器側が数段階にしているだけであって内部では正確な残量が把握されて
いる)
これによって、充電する必要があるか否かというのが分かるにょ。(エネループにも
対応しているK200Dの残量はアバウトであるため残量メーターがあまりあてにならない)
またパワフルかつ小型というのも専用電池のメリットとなるにょ。
6コマ/秒という連写速度は単三ではかなり厳しいからね。(単三を8本使うか、4本ならば
消費電力を無視して昇圧して使うかしかしないと難しい)
K-xは本体だけなら515gだったけど単三アルカリ電池を使用時には615gとなり入門機の
中では重い部類だったにょ。
それがK-rでは本体のみで544gと重くなったものの専用電池のお陰で使用時の重量は
598gへと軽量化されたにょ。
私のような単三愛好家へはオプションの単三電池ホルダーを使うことで単三電池が
使えるため「専用電池が使える」というメリットが生きてくるにょ。
肝心のセンサーだけど1200万画素に画素数は据え置かれたことによって高感度性能は
上がってそうにょ。
確かに画素数が1800万画素に増えてもEOS KissX4は高い高感度性能を誇っていたけれど
いい変えれば画素数をそこまで増やさなければさらに高感度性能が上がる可能性がある
ということも言えるからね。
K-xはすでにクラス最高レベル(KissX4が出るまではトップ)だったためそれより高く
なるということ再びトップに立つ可能性があるにょ。
K200Dの頃はセンサーそのものが高感度に強くなかったため同時期の他のメーカーの
機種と比べて高感度性能は大きく劣っていたからね。
それに1200万画素であるが故にレンズ性能もそこまで高いものが要求されなくて済むと
いうメリットがあるので扱いやすいかもしれないにょ。
また、K-rで話題になっているのは120通りのカラーバリエーションにょ。
K-xの100通りからさらに増えたけどこの度発売になるDA35mmF2.4は10色のカラバリとなって
いるためにそれと組み合わせると何と1200通りのカラバリとなるにょ。
個人的には一眼レフを買う際にはスペックやレンズが重要であるため色は気にしないの
だけどこれだけ組み合わせがあるといろいろ試してみたくなるにょ。
http://www.camera-pentax.jp/k-r/simulator.php
このシミュレーションでいろいろ試してみるだけでも面白いかもしれないにょ。
某所で見かけた組み合わせでちょっと面白かったのがこれにょ。
http://www.camera-pentax.jp/k-r/simulator.php #040108
「すごくドムです・・・」
このように遊び心溢れた一眼レフだけどそれが斜め上にいってついにゲーム機能まで
搭載されたにょ。
バーコードバトラーのようにExifデータを元にパラメータを決めてそれを戦わせる
というものだけどK-rユーザーがこのゲームをプレイするようなことが果たしてやって
くるのか・・・?
まぁこれによってコストが上がっているとは考えにくいので要らなければ使わないという
だけの話だけどね。
遊び心に溢れても中身はしっかりしている良い入門機だと思うにょ。(とはいえ、
ペンタックスのシェアが低いが故にレンズを置いている店が少ないのが難点だけどこれは
レンズセットを買って終わりの入門者なら問題にはならない)
このレベルを維持してくれたら中級機であるK-7の後継機と予想されているK-5が楽しみに
なってくるにょ。
高価だと売れない・・・負のスパイラル
先日Xbox360用のKinectの国内での販売価格が14800円に決定したけどやはりこの価格では
普及は難しそうにょ。
http://pc.watch.impress.co.jp/docs/column/kaigai/20100910_392597.html
Kinectというのが何なのかということをまず書いておくと開発コード「Project Natal」
という名称で作られた画像認識による入力デバイスにょ。
このKinectに近い入力デバイスといえば真っ先に思い浮かぶのがプレステ2用のEyeToyにょ。
EyeToyはコンシューマゲームの新しい方向性の1つを示したものの「精度が低い」「使用
するだけでCPUパワーの大半が奪われてしまう」という問題によって単純なゲームしか
作ることができず、メインの入力デバイスになることは無かったにょ。
それから数年・・・コンシューマゲーム機の世代も代わりSCEからではなくMSから満を
持して発売することになったのがKinectだけどその際に最も大きな壁になるのは価格の
問題にょ。
リンク先に書いているように100ドルを切ることが普及のためには必要だけど精度を高く
してなおかつCPUパワーを奪われないようにカメラ側に専用チップを使用しているため
149ドルの価格になってしまったからにょ。
「99ドルが普及のためのボーダーライン」というのならば無理をしてその価格で売れば
いいと考える人もいるかもしれないにょ。
実際、コンシューマゲーム機本体はそのような売り方をしている場合もあるにょ。
しかし、本体と周辺機器では考え方が異なるにょ。
ゲーム機本体は製造原価割れで販売したとしてもサードパーティのソフトから得られる
ライセンス収入で補填ができるためある程度の赤字であれば十分にビジネスとして成立
するにょ。
それに、ゲーム機の場合は発売当初は部品構成数が多くても製造プロセスの微細化など
によってチップが統合されコストダウンも可能なので「本体が普及してソフト販売数が
増える」ということに加えて「量産効果や効率化による大幅なコストダウン」も見込む
ことができるにょ。
しかし、周辺機器の場合は発売当初からそれで赤字にならないような価格設定をする
必要があるにょ。
ここで問題となるのは赤字になるかどうか(採算が取れるかどうか)というのは部品
コストだけの問題ではなく開発費や宣伝費なども重要になってくるにょ。
ゲーム機本体は決して赤字販売をしないという任天堂でさえ、Wiiに関しては宣伝費を
込みだと発売当初は赤字になっていたらしいだからね。
それに納入掛け率の問題もあるにょ。
本体の場合は定価の95%程度で販売店に卸されるため定価を安くすることが可能になる
けれど周辺機器の場合は概ね75〜80%で卸されるためメーカーからしてみれば同じ価格
であっても定価ベースで考えると高価になってしまうということにょ。(サードパーティ
製の周辺機器の場合はメーカーによって変わるものの60〜70%程度)
卸値9500円の製品があった場合、それがゲーム機本体であれば定価が1万円、周辺機器
ならば定価1.2万円くらい(サードパーティ製ならば定価1.5万円くらい)となるからね。
あとゲーム機本体の場合は大量生産を前提にした価格設定となることが大半だけど周辺
機器の場合はそこまでの大量生産を前提にしていない価格設定となっている場合も多い
ということが使用されている部品コストの割りに周辺機器が割高な理由となっているにょ。
高価な周辺機器は売れなくても需要に合わせた価格設定をしているならばメーカーに
とってはあまり問題はない(あまり売れなくても赤字にはならない)といえるかもしれない
けど問題はそこではないにょ。
その機器が売れなければ「その機器があることを前提にしたゲーム」というものに力を
入れるサードパーティはいなくなってしまうにょ。
ゲームソフトが売れるかどうかは内容や宣伝力によるものが大きいけどパイの大きさと
いうサードパーティの手の施しようがない差はどうにもならないにょ。
どんなに優れたゲームソフトであってもそのハードを持っている人が全員買うという状況
にはならないためゲームビジネスを成功させるには500万台くらい売れている必要がある
と思うにょ。
過去の歴代ゲーム機で(国内で)500万台程度の販売となるとニンテンドー64(550万台)や
セガサターン(560万台)が相当するにょ。
それらは「大ヒットした」というイメージや「こけた」というイメージではなく
「そこそこのヒット」というイメージを持っている人が大半ではないかと思うにょ。
しかし、それはあくまで本体の話にょ。
周辺機器でいえば恐らくファミコン用のディスクシステム(450万台)がトップではない
かと思うにょ。(※1万円を超える周辺機器において)
つまり、最低でもディスクシステム程度の普及台数に達しない限りはサードパーティが
力を入れてKinect用のソフトを開発するのは難しいということにょ。
キラーソフトの影響はかなり大きいためソフトによって販売台数を増やす(つまりパイの
大きさ自体を大きくする)ということは可能だけどそのようなキラーソフトはごく一部に
止まり、サードパーティは売れている本体だからソフトを開発する、ユーザーはソフトが
豊富にそろっているからその本体、その周辺機器を買うということになると思うにょ。
したがって、高価で売れない周辺機器はサードパーティも敬遠するため「あまりソフトが
揃わない→ソフトがあまりないからその機器を買わない」という負のスパイラルに陥る
危険性があるというわけにょ。
それを回避する最善策は本体と一緒に強制的にユーザーにその機器を買わせるという
ものにょ。
本体と同数売れるためにその機器も本体と同じく量産前提の価格設定が可能になるため
別々で販売するよりは安価にできるからね。
それによりサードパーティの対応も大きく進むと思われるにょ。
例えば、かつてプレステでSCPH-7000以降の本体にアナログコントローラを同梱するこで
一気にアナログ対応のゲームが進んだからね。
本体と強制的にセット販売されるということは普及期の本体においてソフト対応の面では
極めて大きな影響があるといえるにょ。
Wiiはリモコンとヌンチャクを標準装備にすることでそれに対応したソフトが売れたからね。
もしも、標準がノーマルコントローラーでリモコンととヌンチャクがオプション扱いで
あったらリモコン対応のゲームは一部に止まると思われるにょ。
といっても絶大なる勢力を持つ任天堂のゲームは対応するだろうからWiiに関してはその
「一部」がかなり大きいものになるけどリモコンでないと面白さが伝わらないゲームと
いうものが多いためオプションを使えばより楽しめるというものになってしまいそれでは
楽しさというものは伝わらないにょ。
Kinectも普通のコントローラでもプレイできるけどKinectを使用すればより楽しめる
という程度のゲームであればKinectを生かし切ったゲームを作るのは難しいし、普通の
コントローラでも普通にプレイできるのであればあえてKinectを買う人もかなり減って
しまうことになるにょ。
しかし、本体を買った時からKinectが付いていたとなればそのソフトの面白さを十分に
体験可能になるにょ。
Wiiについてもう少し書いておくとコンシューマゲームは1世代ごとに1桁性能が上がって
いるのに対してWiiはGC(ゲームキューブ)と比べて2倍の性能差もなかったにょ。
そのためWii用ゲームのほとんどのものが画面表現的にはGCで実現可能なレベルにょ。
つまり、GCのオプションとしてリモコン、ヌンチャク、本体装着用ユニット(BT受信機と
フラッシュメモリ、SDカードスロット、無線LANを内蔵したもの)をセットで15000円
くらいで売り出せばWii用と同レベルのゲームは十分に作ることができたということにょ。
それをしなかったのはそれだとパイの大きさ(GCの販売台数)から考えて厳しいからにょ。
「新世代のゲーム機」ということで新たに仕切直すことでパイの大きさを一から変える
ことが可能にしたわけにょ。
それが結果として大ヒットに繋がったにょ。
それではKinectはどうなのか・・・?
現在の価格でも興味がある人は買うだろうけど対応ゲームソフト1本買えば2万円という
価格は非常に辛いにょ。
それでもキラーソフトがあればそれなりには売れると思われるにょ。
MSもKinectには力を入れているみたいであり、本体セットも発売されるにょ。(上記の
ように本体にセットにした場合は安価に設定可能であるため別途買えば14800円なのに
1万円アップの価格設定となっている)
これならば普及のためのボーダーライン価格ギリギリになるにょ。
とはいえ、この価格はあくまでこれから本体を買う人に限られるにょ。
やはり、高価な機器は当初より本体とセットで販売するか新たな仕切直しをしないと
普及を見込むのは難しそうにょ。
スマートフォンの普及にはガラケー化が必須か!?
国内でもいよいよスマートフォン時代が到来しようとしているにょ。
W-ZERO3で国内でも広くの人に知れ渡ったスマートフォンはiPhoneの登場で(PDAやデジタル
ガジェットに今まで興味が無かった)一般人までが購入し、Androidの大躍進によって
ガラケーがスマートフォンに置き換えられるかのような感じさえするけどそんなに簡単に
いくものではないにょ。
それは、私の主観で考えれば下記のような3つの問題があるからにょ。
(1)電話機としての使い勝手
(2)キャリア独自サービス
(3)ガラケー独自進化
(1)電話機として見るとやはり一般的な形状のケータイの方が形状的に使いやすいという
のは間違いないと思うけどこれは筐体サイズがそんなに大きく無ければ致命的という
ものではないにょ。
ガラケーは折りたたみ式のものが多くスマートフォンはフラットな1枚板のものが多い
けれどそれだけしかないというわけでもないしね。
問題となるのは電話がかけやすいかどうかというものだけではなく着信問題もあるにょ。
着信といえば、昔は電話機に内蔵された固定着メロだけだったのが、着メロのダウンロード
機能が追加され、今は着うたがどのケータイでもサポートされているにょ。
着信相手によって着メロ(着うた)を変えるというのもできるし、もちろん着信音の
音量調節もできるし、あと必須といっていいマナーモード(バイブレーションモード)も
ワンタッチでできるにょ。
私はマナーモードのオン、オフを多用しているためこのマナーモード設定がハードウェア
ボタンで行える一般的なガラケーは非常に便利に感じるにょ。
あと着信があったことをイルミネーションで伝えるというのもガラケーでは当然の機能と
して備わっているにょ。
もっともスマートフォンでも画面を見ればそんなことは一目瞭然だけど自分が通信、通話を
しようとするとき以外に画面を見るという機会なんてないにょ。
その点、イルミネーションが光っていれば嫌でも目に入るからね。
(2)キャリア独自サービスの最大のポイントはキャリアメール(docomo.ne.jpなど)だと
思うにょ。
では、スマートフォンでキャリアメールを必要としているのがどの程度いるのかという
とアンケートでは以下のようになっているにょ。
http://k-tai.impress.co.jp/docs/readers/odaibeya/20100910_392672.html
絶対必要・・・・・・・48.6%
あってもいい・・・・・29.9%
要らない・・・・・・・21.5%
キャリアメールが使えないと利用できないモバイルサイトもあるし、メアドの変更自体が
嫌というのがやはり大きな理由になっているにょ。
とはいえ、キャリアは固定ではなく変えることが多いためG-mailなどの方が便利と考える
人もいるもは事実にょ。
G-mailもiPhoneでプッシュ受信が可能になったからね。
http://www.itmedia.co.jp/enterprise/articles/0909/23/news004.html
それに、キャリアメールが必要なモバイルサイトなんてスマートフォンを使用していれば
利用することはないと考える人もいるため絶対必要という人は半数に止まっているわけ
だけどこのようなアンケートに答えるという(平均レベルよりは)コアなユーザーで
あっても絶対必要と答えている人が約半数いるということに注目にょ。
ライトなユーザーであればメアドが変わるとか、使えないサービスが出てくるという
だけで嫌ってしまう人もいるのではないかと思うにょ。
もっともそこまでライトなユーザーだと何が出来て何が出来ないかということさえ
知らないでスマートフォンはカッコイイから(すごそうだから)スマートフォンにすると
いう人もいるかもしれないけどね。
また、キャリア独自サービスといえばコンテンツにょ。
これは開始当初は低機能なi-modeが成功した1つの要因となっていたにょ。
有料コンテンツの請求がキャリア一括で行われるというためユーザーは全く支払いの
手間がかからないからね。
便利なサイトは有料だったけど有料サイトの利用者は多かったにょ。
その決済代行の代金として利用料金の一部がキャリアにも入ってくるためキャリアに
とっては有料コンテンツの利用というのは非常にありがたい話にょ。
フルブラウザ搭載で有料サイトを利用する人は減ったと思われるけどJAVAアプリの
販売や着うた、電子書籍の販売などで大きくコンテンツ売上を伸ばしていったにょ。
従来はパケットが従量制であったことがそういうコンテンツを利用するための足かせ
となっていた(J-PHONEではアプリサイズは最大で256KBあったけど通常契約だとその
アプリを落とすだけでパケット代金が600円以上かかっていた)けれどパケット定額が
どのキャリアでも選択できるようになってからはサイズを気にせず利用する人も
どんどん増えたからね。
スマートフォンで一番売れている機種であるiPhoneはiTunes storeからアプリなどの
コンテンツはダウンロードできるけどこれはキャリアは無関係となっているにょ。
iPhoneだけではなくスマートフォンはネイティブアプリが動作するためにそのOSに
適用するアプリであれば自由に使えるというメリットがあるにょ。(とはいえ、iPhoneに
関しては脱獄しない限りはアップル社が認証したアプリ以外を使うことはできないけど)
それがお手軽さを逆に無くしているにょ。(iPhoneの場合は融通が利かないデメリットは
あるけどアプリが一カ所に集結しているし、決済もプリペイドカードで行えるため
有料アプリの利用しやすさは上かもしれない)
このようなキャリア独自サービスをスマートフォン上で行うためにドコモは7月16日にも
書いたように今月よりspモードを開始したにょ。
要するにスマートフォンでキャリアメールが使え、スマートフォン用のコンテンツの
決済ができるサービスだけどこれによってスマートフォンを利用する上での問題点が
かなり緩和されたにょ。
問題が多かった着信面に関しても先日のアップデートで大幅改善されたしね。
http://plusd.itmedia.co.jp/mobile/articles/1009/10/news099.html
このspモードの影響からかドコモのXperiaが先週の売上ではiPhone4(16GB)を抜き2位に
なったにょ。
http://plusd.itmedia.co.jp/mobile/articles/1009/10/news078.html
何せ発売以来iPhone4(32GB)、iPhone4(16GB)のワンツーフィニッシュ状態が続いて
いたからね。
(3)ガラケーといえば日本独自進化をする上で出来たものだけど人によってはこれは
海外メーカーの参入を拒んでいるため「悪」と捉えている場合があるにょ。
2G時代に日本独自のPDC方式を用いた時点で海外メーカーが参入しずらくなったために
そのようにガラケーを捉えている人がいるというだけであってそれがガラケーの本質
ではないにょ。
日本の場合はキャリアが端末メーカーにケータイを作らせているというのが海外と根本的に
異なる点だと思うにょ。
要するにキャリアの収益性が上がるような端末を作ったらガラケーになったということが
いえるにょ。(高価な端末を安価でユーザーに販売するためにインセをだし、そのために
SIMロックがかけられたけどこれにはコンテンツ利用促進効果も含まれている)
したがって、(3)だけがガラケーではなく(2)もガラケーとしては重要なものとなっている
というわけにょ。(ただし、今回は端末機能とキャリアサービスは分けることによって
分かりやすくするため(2)、(3)は分離した)
海外ではショートメールしか利用できないような時代に日本ではi-modeで簡易的とはいえ
Webブラウザを搭載し、すべてのケータイでインターネット機能(Web閲覧とEメールの
使用)が可能になったにょ。
海外では低機能な端末と高性能なスマートフォンに二極化してくことになったけど
日本では上下差はあるもののすべての端末が独自の高性能化を進めていったにょ。
その際に出来たのが上記のキャリア決済代行によるコンテンツにょ。
これらによって日本ではケータイによるWebの利用や有料コンテンツ利用のハードルは
かなり低くなったにょ。(ハードルが低くなったことにより小中学生の利用において
問題も多く発生しているけどこれはまた別の問題)
あと日本独自進化部分といえば、おサイフケータイやワンセグなどが挙げられるにょ。
これはメアド以上に必要・不必要がはっきりでるため人によって大きく意見が分かれる
部分だと思うにょ。
必要な人は絶対に必要、要らない人には不要となると思うにょ。
私はワンセグは週に数回使っているため無いとさすがに不便に感じるにょ。
ワンセグ機能の端末はケータイとは別に持っているし、PC向けのワンセグチューナーは
あるけどケータイは常に手元にあるというのが最大のメリットだからね。
要するにガラケーというのは幕の内弁当的な進化ということができるにょ。
「幕の内弁当のおかずは自由に選べないから駄目」というならば自分で弁当を作る
しかないにょ。
それがスマートフォンだと思うにょ。
自分好みにできる反面どうしてもハードルが高くなってしまうし、必ずしもおいしい
ものになるわけではないからね。
幕の内弁当があるからこそ自作のメリットやデメリットが分かるのと同じくガラケーが
あるからこそスマートフォンのメリットやデメリットが分かってきているということは
言えると思うにょ。
結局のところ幕の内弁当が多くの日本人に合うように作っているようにガラケーも
多くの日本人に合うように作られているにょ。
これがガラケーの独自進化部分であり、ガラケーのガラケーたる所以だと思うにょ。
したがって、ガラケーの独自進化を否定するということは日本人好みにするという部分
まで否定することになりかねないにょ。
スマートフォンは確かに今後は今よりも売れるのは確実であり携帯契約者数に占める
割合は増えていくと予想できるにょ。
しかし、それは今のままだと一定ラインでストップすることになるにょ。
やはり、スマートフォンに対する不満を抱いている人は少なくないからね。(上記の
アンケートでも半数の人がキャリアメールが使えることが必要と答えている)
2台目用としてみれば現状のスマートフォンでも特に不満はないけどそれは1台目に
ガラケーを使っているという2台持ちをした場合に限られるにょ。
さすがにそこまでコストをかけてスマートフォンを使用する人は多くはいないと思うにょ。
スマートフォンが今後大きく普及するためには1つはガラケー的な日本人好みに合わせた
進化することであり、もう1つはネット環境がPC、ケータイの区別が無くなることにょ。
前者は国内メーカー発案のスマートフォンが増えることで改善されていくだろうけど
後者を改善することは容易ではないにょ。
日本ではガラケーによるネット接続者が多いため企業側もPC向け、ケータイ向けの
サイトを両方作っているのをやめるなんてなかなかできないし、個人ではPCメールは
着信拒否しているような人も少なくないにょ。
スマートフォンのガラケー的な進化が進まない限りは日本でスマートフォンが当たり前の
時代は訪れないと思われるにょ。
「フリーの法則」が通用しなくなった無料ホームページサービス
すでに知っている人も多いことかもしれないけど楽天が運営する無料ホームページ用の
レンタルサーバであるinfoseek iswebが10月31日をもって終了するにょ。
http://plaza.rakuten.co.jp/usersupport/diary/201008250000/
無料ホームページ用のサービスといえば草分け的存在となったGeocitiesは米国では
昨年にサービスを終了したにょ。(日本では終了はまだアナウンスされていない)
95年に登場したWindows95は標準でインターネットに必要なTCP/IPプロコトルを選択でき
Webブラウザソフトを導入するだけで簡単にインターネット接続ができるようになり
インターネットの世界を身近にしたにょ。
Win98では標準でWebブラウザソフトであるIE4.0が組み込まれているためさらにその
ハードルが低くなったにょ。
これによって90年代後半はインターネットは個人が全世界に向けて情報発信できるもの
として多くの注目を集め個人サイトがどんどん作られていったにょ。
その個人サイトを作る上で必要になるのが設置するサーバにょ。
プロバイダから与えられている容量は限られているし、家族共用で使用しているPCや
プロバイダであればプロバイダ提供のもの以外で使いたいという人が大勢いたために
それに応えるためホームページ用のレンタルサーバ提供サービスを行う企業はどんどん
増えていったにょ。
さて、ここで問題なのはどうやってそれを賄うのかということにょ。
企業が奉仕で行うわけがなく利益が望めるから行うわけだからね。
多くのWeb上の無料サービスは広告収入によって賄われているにょ。
あと最小限の機能を持つ無料サービスに加えてリッチな有料サービスを用意し、無料
サービスを利用しているユーザーを有料サービスに引き入れることで収益アップを
図っているにょ。
これは「フリーの法則」とも呼ばれているにょ。
無料ユーザーが95%であっても5%の有料ユーザーから収益を上げれば全体として
ビジネスとして成立するというものにょ。
このフリーの法則でいえば、まずは無料で「誰もが利用してみたい」と思えるような
サービス展開をし、さらにそのうちの5%が有料でもより便利に使いたいと思えるように
しなくてはならないということにょ。(これが5%ではなく20%や30%になるとその
無料サービスが魅力的ではないということが言えてしまう)
最近ではこのフリーの法則で成功したものといえばニコニコ動画が挙げられるにょ。
コストばかりかかって収益を上げるのが難しい動画配信サイトだけど2010年第2四半期に
四半期ベースとしては初の黒字化を達成したからね。
http://internet.watch.impress.co.jp/docs/news/20100514_367041.html
4月現在の全会員数1670万人に対して有料会員は77.2万人となっておりその割合は4.6%で
「5%」というフリーの法則の理想にかなり近いものとなっているにょ。(これで黒字化
できないのならば有料会員の料金設定そのものに問題があるといるかもしれない)
では、なぜiswebがサービス終了を行うことになったのか・・・。
それには2つの理由が考えられるにょ。
(1)広告収入が減り無料サービスを維持できなくなった
(2)有料会員が減り、無料サービスの分を維持できなくなった。
この辺の数字は発表されてないたいえ推測に止まるけど広告収入は時代の流れで減少して
いるのに加えてiswebではCGIが使えるためアップローダなどで活用されるケースも多く
無料サービスからの広告収入はほとんど得ることができないということが原因ではないか
と思われるにょ。(CGIが使えることで負荷が高くなりより多くのコストがかかって
しまうため無料を維持するには有料サービスからの収益に頼るしかなくなっている)
有料サービスの方を見てみると今となってはギガバイト単位でのレンタルサーバが格安に
なっている今、本格的にサイト運営しようという人にとっては物足りないものになって
いるのではないかと思われるにょ。(フリーの法則でいう5%を大きく下回っているのでは
ないかと予想できる)
確かに90年代は情報発信をするならば「個人サイトを作る」ということがベストな選択肢
だったけど今は情報発信をするだけならばサイトをわざわざ作る必要はないにょ。
mixiのようなSNSやブログを利用すればサイト制作に必要なHTMLなんて覚える必要もない
(もしくはホームページ作成ソフトを使う必要もない)わけだし、さらにお手軽な情報
発信手段としてはtwitterのようなものまであるからね。
つまり、ライトユーザーが無料ホームページ用のサーバを利用する機会が激減したし
コアユーザーは有料サービスを利用するならばより便利で応用性の高いレンタルサーバを
活用するか、自前でWebサーバを用意すると思われるにょ。
それを考えると今回のiswebの終了はただこれが終了したというだけではなく無料サービス
全体に関わってくる問題になってくると言えそうにょ。
かつては、プロバイダ提供のサービスだとプロバイダを変えた時点でサイト移転しなく
てはならないから無料サービスを活用するのがベストと思われていたけどその無料サービス
というのがどれも終了の危機に瀕している可能性があるといえる時代になってきている
ということにょ。
「おちゃめくらぶ」は現在プロバイダ提供の場所を活用しているけどここが10MBという
今となっては信じられないような狭さだから何度も移転を検討したけど今回の件を元に
考えると移転をしても無料サービスならばいつ無くなるか分からないという問題が浮上
してきたにょ。
もっとも企業が倒産なんて考えれば有料サービス利用だろうと同じことだといえるわけ
だけど今回のiswebの対応を見ても真っ先に切られるのが無料サービスの方だからね。
時代の流れ(他のサービスの登場)や広告収入の減少化というのもあるけど無料ホーム
ページサービスというものに関して言えばフリーの法則が通用しなくなってきているのが
今回の件においては最大の理由だと思われるにょ。
デュアルコアでも高価になるなら意味がない
先日Intelより発表されたネットブック用のデュアルコアAtom(Atom N550)だけど早くも
国内メーカーから搭載機種が登場したにょ。
N550を搭載しているのはNECから登場の「LaVie Light BL550/CS」であり、その下位機種
となる「BL350/CW」にはシングルコアのAtom N475が搭載されているにょ。
http://pc.watch.impress.co.jp/docs/news/20100913_392962.html
肝心の価格はというとオープンプライスながら実売予定は約8.5万円となっているにょ。
量販店ではこれより幾分安くなるとはいえこの価格はネットブックとしては驚異的に
高価といえるにょ。
それもそのはず、OSがULCPC用の7StarterではなくHome Premiumが採用されていることで
1万円程度は高価になっているわけだし、MS Officeの製品版(2年版ではなく永続使用
可能な製品)が搭載されていることで2万円程度高価になっているからにょ。
それらが無ければ5.5万円程度の価格は実現できるにょ。
基本スペックだけを見ても一般のネットブックよりも多いメモリ2GB(ULCPCの上限は1GB)、
HDD320GB(ULCPCの上限は250GB)に加えてモニタがWSVGAではなくWXGAであるためその
プレミアム性を価格に反映しているならば納得が出来るレベルの価格といえるにょ。
では、肝心のAtom N550の性能を見てみるにょ。
http://pc.watch.impress.co.jp/docs/column/hothot/20100914_393530.html
Atom Nは元々HTT搭載によって2スレッド同時に動作可能であるためデュアルコア化で何と
4スレッド同時に動作可能になるにょ。
そのタスクマネージャでもCPU使用率を示すグラフは4つ表示されるにょ。
http://pc.watch.impress.co.jp/img/pcw/docs/393/530/html/02.jpg.html
別に大したことではないけどクアッド気分を味わえるのは悪くないにょ。
問題はデュアルコアで性能がどの程度上がるかということだけどデュアルコアCPUという
ものはここで何度も書いたように「性能アップのため」ではなく「遅くなりにくくなる」
というのが主要なメリットとなるにょ。
昨今はマルチスレッド対応アプリが増えたためそのようなアプリでは性能向上に貢献
できるもののそうではない(マルチスレッド非対応アプリ)も未だに多く存在するわけ
だからね。
そういう場合でもWindowsがマルチタスクOSである以上は複数のアプリを同時に使用する
機会はいくらでもあるわけだからそういう場合にはデュアルコアCPUが有用になってくる
というわけでベンチ結果が必ずしも快適性を表しているわけではない・・・けれど
やはり気になるので見てみるにょ。
LaVie Light BL550/C Eee PC T101MT
Atom N550 (1.50GHz) Atom N450 (1.66GHz)
Win7 Home Premium Win7 Home Premium
◎PCMark05
PCMark Score 1767 1617
CPU Score 1665 1420
Memory Score 2174 2419
Graphics Score 542 528
HDD Score 3630 4933
◎FINAL FANTASY XI Bench 3
LOW 1074 1250
◎Windowsエクスペリエンスインデックス
プロセッサ 3.1 2.3
メモリ 4.7 4.4
グラフィックス 2.9 3.1
ゲーム用グラフィックス 3.0 3.0
プライマリHDD 5.4 5.7
では、まずPCMark05のCPUスコアを見てみるにょ。
N550を搭載したLaVieはN450を搭載したEee PCと比べてCPUクロックは10%劣っているにも
関わらずベンチスコアは17%上回っているにょ。
これはクロック当たりでいえば30%もの性能差となっているにょ。
これはPCMark05に用いられているテスト内容がマルチスレッドに対応しているためだと
想定されるにょ。(エクスペリエンスインデックスのCPUスコアはさらに大きな差に
なっているけどこちらはただの単純演算を元にしたものであるためHDBenchなどと同じ
ようにコア数増加が如実に表れているため)
つまり、一般的なマルチスレッド対応アプリではN550はN450と比べて10〜20%高速に
動作するといえそうにょ。
では、マルチスレッド非対応アプリではどうなのかというとFF XIベンチを見れば予想が
つくにょ。
FF XIベンチはゲームベンチだけどある程度のGPUを搭載していればCPUのシングルスレッド
性能でスコアが左右されるからね。
ベンチスコアはN550が1074なのに対してN450は1250であり14%劣っているにょ。
CPUクロック差が10%なのに14%劣っているのは同じGPUとはいえドライバのバージョンの
違いや常駐アプリの差もあるし、FFベンチの場合は測定誤差も2、3%程度あるというのが
影響しているにょ。
だから、シングルスレッド性能はその動作クロックに応じたレベルしかないと思って
いれば問題ないにょ。
ちなみにFFベンチを比較する場合には7、Vista(NT6系)よりもXP(NT5系)の方が
スコアが大きくなる傾向があるため単純比較はできないにょ。(上記の比較は両者とも
Win7だったから問題なく比較可能)
レビューに記載されているもう1機種(Eee PC 1005HA)を見てみると1世代古いAtom N280、
945GSEにも関わらずXPであるためFFベンチは1537となっているにょ。
CPUコアはN280とN450は同等とはいえ、GPU性能は945GSE(GMA950)<GMA 3150であるため
何ともいえないけどこのスコアではGPUがボトルネックになっているわけではない(GMA950
より低い性能であるGMA900搭載のPenM1.2GHzのノートPCでもFFベンチは2000を超える)と
いうことでこの差はOSによるものといえるにょ。
N550のCPU性能を見るのが今回の目的だったけどとりあえず他の項目も見てみるにょ。
GPU性能はN450とN550は同等であるため唯一の違いとなるとやはりメモリにょ。
N550はN455、N475と同じくDDR3に対応しているからね。
メモリ性能を見てみるとPCMark05ではDDR3(PC3-8500)を搭載したN550の方がDDR2(PC2-
5300)よりもスコアで劣っているにょ。
これはたまたまPCMarkではこうなったというだけであってエクスペリエンスインデックス
の方を見てみると順当にN550の方が上になっているにょ。
この辺はDDR3の方が順次読み出しでは速くなっていてもレイテンシが大きくなっている
ためベンチによってDDR2よりもスコアで劣ることは十分考えられるため1つのテスト
だけで優劣は判断できないということにょ。
もっとも、このクラスのCPU性能においてはこのメモリの差が影響することはほとんど
ないけどね。
ネットブックがDDR3に対応したのは高性能化が目的ではなくDDR3の供給量が増えたため
安価に入手可能になったので対応したというだけの話にょ。
今回はデュアルコアAtomであるN550の性能を見てきたけどやはり4月23日に書いた予想
そのまんまだったにょ。(コアが同じでシングルコアからデュアルコアになるだけだから
誰でもあのような予想になるだろうけど)
PCMark05のCPUスコアを見てのようにマルチスレッド対応アプリであればクロック当たりの
性能はシングルコアAtomの3割り増しの性能とはいえクロックは低めの1.5GHzであるため
Atom 1.95GHz相当の性能でしかないにょ。
シングルコアAtomでは厳しいWebブラウザ上でのYouTube720pの動画再生はデュアルコアの
Atom N550ならば・・・と期待している人もいるだろうけど1.83GHzのN475でも厳しい
ものが(マルチスレッド対応ということを考慮して)1.95GHz相当のN550で再生できる
ようになるかというと難しいのではないかと思われるにょ。
結局のところN550はN450に対しては性能の優位性はあるけどN475に対してはほとんど
優位性はないと思われるにょ。
それは、N550が得意とするマルチスレッド対応アプリでも1割差にも満たないレベルの
小さな速度差(ほとんど互角のレベル)であるためほとんど体感できないからね。
逆にシングルスレッド性能で2割劣るN550はマルチスレッド非対応のゲームなどではN475
と比べて体感できるほどの遅さになると思われるにょ。
つまり、「アプリの動作が高速になる」という理由でN550搭載機を選ぶのは正しくないと
いうことがいえるにょ。(N475相手ならN550の方が遅くなることの方が多いと思われる)
とはいえ、最初に書いたようにデュアルコアCPUいうのは「遅くなりにくい」というのが
最大のメリットといえるにょ。
アプリの実行速度が問題ではなく複数のアプリを同時に使用時の体感速度に問題がある
というのであればデュアルコアは非常に有用といえるにょ。
この辺は使用方法にもよるためどっちが優れているかということは言いにくいけどそう
いった体感に関しては数値では表せないため実際に使ってみるしか方法はないにょ。
そういうことでN550はN475搭載機とあまり価格差がないのであれば十分に選択する価値は
あると思うにょ。
そういう面で考えるとLaVie Light BL550/Cは微妙にょ。
高価になる要素がたくさんあるためそれらを考慮していけば一概に高価とはいえないものの
ネットブックは「安いこと」が最大のメリットだからね。
付加価値によって高価になったネットブックはそのメリットを失うことになるにょ。
それらが必要不可欠なものであるならばまだいいけどそうでないならばなおさらにょ。
そもそもネットブックは安価にできた理由はOSが安価ということがあるにょ。
MSのULCPCの基準を超えないようにすることで安価なULCPC向けのWindowsの提供を受ける
ことができたからね。
安価な部品の寄せ集めであるネットブックにおいて最も高価であったWindowsが安価に
なるということは非常に大きくそれが価格に大きな影響をもたらしたにょ。
このことから、Intelはネットブック用のデュアルコアAtomはいつでも出荷できる状態に
あったにも関わらず最近になってようやく出荷を始めた理由として8月26日に書いたように
従来はULCPC用として認められなかったデュアルコアもAtomに関しては認められるように
なったのではないかと予想したにょ。
しかし、今回のBL550/Cを始めすでに発表されている他のメーカーの機種は軒並みULCPC用
となるStarterではなくHome Premiumを採用しているにょ。
そのために価格の高騰が起きているにょ。(Starter採用ならばOSの価格差だけを考えて
みても1万円程度安くできる)
この辺はMSからULCPCの基準緩和がされてないためなのか、メーカー側がネットブック
とはいえ上位モデルを安く売りたくないためHome Premiumを採用しているかは判断に
苦しむけど恐らく前者の方が正解ではないかと思われるにょ。
もちろん、ネットブックを2モデル以上ラインナップしているメーカーであれば後者の
ニュアンスも含まれていると思うにょ。
確かにデュアルコア化によってシングルコアモデルよりも高付加価値を付けて売り出す
というのは間違いではないけどそうなるとさらに上位となるCULVノートとの価格差も
失われることになるにょ。
ネットブックとCULVノートとの価格差はCPUの価格差3000円程度の差(CULV用の最下位
モデルとの差)しかなくなるからね。
もっともこれは部品コストの話だから売価ではその2倍程度にはなるだろうけどそれでも
性能差はそれよりも大きいからね。
セレロンSU2300であってもYouTube720pをWebブラウザ上でコマ落ちなく再生できる程度の
CPU性能はあるし、GS45に内蔵されている再生支援機能を用いることで1080pの再生も
可能になるにょ。
ネットブックであっても一旦ローカルに保存した後で軽量なプレイヤーで再生するならば
720pの動画は十分再生できるけどネットブック用Atomでは最も性能が低いN270(1.6GHzの
シングルコア)であっても720pは十分再生できるため「ローカルに保存したファイルを
再生するからN550で十分でCULVの性能は不要」というのであれば「N270でも十分」という
ことも同時に言えてしまうにょ。(実際はN270とSU2300はCPU性能だけを見ても2〜2.5倍
程度の差があるけどそのような理由によってN270とSU2300の有為的な差はないと主張する
人は実際に存在する)
それならばN550ではなく中古のN270搭載機を買うのが一番だし、中古が嫌というので
あれば新品で安価なN450搭載機を買うのが一番となるにょ。
要するにAtom N550搭載機において現状で価格に似合った(CPUだけではなく)処理性能が
あるかと聞かれたらないということにょ。
高性能もしくは高コストパフォーマンスは求めないけど適度に安価で快適に使いたいし、
持ち運びたいから一般的なCULVノートのサイズは論外で普通のネットブックサイズが良い
という人にはAtom N550搭載ネットブックは最適といえるけどそれらの条件を満たせない人に
とってはかなり微妙な存在であることがいえるにょ。
N550はクロックが低い分だけN475よりアプリの動作速度は期待できないけど(数値には
現れない)体感では上回るというだけの話でありCULVノートであればそれと比較して
明らかに高速動作かつ快適動作が可能ということを考えればあえてN550を選ぶという
メリットは極めて小さいと思われるにょ。
確かに一般的なネットブックとCULVノートとのサイズ差、重量差は小さいものではない
とはいえ、ネットブックは持ち歩き用ではなく家庭内モバイルがメインとなっている
現状においてはそのサイズ差はそれほど目立ったものではないにょ。
4月18日に書いたようにネットブックを所有している人のうち持ち歩いている人は5%程度
しかいないからね。
これはアンケート結果が古いということもあり、iPad登場などによってさらに減っている
と推測されるにょ。
その中で、ネットブックのサイズであれば持ち歩けるけどCULVノートのサイズになると
持ち歩けないという人はごくわずかだと思われるにょ。
全体からすると1%いるかいないかといレベルではないかと思うにょ。
しかし、価格はすべてのユーザーに影響してくるにょ。
したがって、「安さ」という最大の武器を捨てたネットブックには存在意義をあまり
感じることはできないにょ。
Sandy Bridgeが出るのを待つのがベターなのか・・・?
Intelが次世代CPU「Sandy Bridge(開発コード名)」の詳細を明らかにしたにょ。
http://pc.watch.impress.co.jp/docs/news/event/20100914_393660.html
登場は来年1月初頭の見込みにょ。
Sandy Bridgeの主なポイントを挙げると下記の2つになるにょ。
(1)GPUダイをCPUダイと統合することによる高性能化&省電力化
(2)AVX命令を搭載
(1)GPU統合なんて別にめずらしいことではないと思っている人は多そうにょ。
ARMだと際限なく存在するのでx86CPUという条件を加えても97年に登場のMediaGX以来
多数あるわけだからね。
さらにIntelという条件を加えると今年の初頭に登場したPineView以来ということで
これでも「初」というわけではないにょ。
とはいえ、どれも低価格化や低TDPを狙いとしたローエンドや組み込み向けのx86CPU
であり、メインストリームとなるCPUではなかったにょ。(Atomは数量こそ出荷されて
いるもののローエンド以下の市場でしかない)
そういうわけでSandy BridgeはPCのメインストリーム向けCPUとしては初のGPU統合と
なるわけにょ。
現行のClarkdale(Arrandale)もメインストリームCPUも同一パッケージ内にGPUダイを
内蔵したとはいえやはり別ダイということが消費電力的にも性能的にも足かせになって
いるにょ。
メモリアクセスにおいてはメモコンをCPUコアに内蔵したCore i7(Bloomfield)は確かに
Core2と比べて性能向上に貢献したけどそれが32nm世代のClarkdale(Arrandale)では
再びCPUコアから分離したため性能面のアドバンテージは薄れることになったにょ。
しかし、Sandy Bridgeでは再びCPUコアと同一ダイに搭載されることになり性能アップに
貢献できるようになるにょ。
メモリレイテンシが短くなるというだけではなく従来はノースブリッジはCPUと比べると
1〜2世代遅れた製造プロセスで作られていた(ArrandaleもCPUは32nmなのに対して
ノースブリッジは45nm)けれどそれが同一世代になるということにょ。
つまり、1〜2世代分一気に進むわけだけどそれによって得られるものは省電力化もしくは
高性能化にょ。
1世代分進むと単純計算で搭載可能なトランジスタ数は倍増するにょ。
CPUの場合はトランジスタ数を増加させても性能向上はその平方根分でしかないという
ポラックの法則が影響するにょ。(トランジスタ数が4倍になっても性能は2倍にしか
ならない)
ポラックの法則は経験則なのだけどこれはCPUの命令の並列性がそこまで高くない(命令の
同時発行数や演算機を倍増しても性能が倍増するわけではない)というのが原因となって
いるにょ。
それに対してGPUは並列性が高くSP数に割くトランジスタ数が倍増する(要するに同一
アーキテクチャならばSP数が単純に2倍になる)ならば性能はほぼ2倍になるにょ。
したがって、製造プロセスの進化はGPU性能に如実に影響してくるにょ。
ここで出てくるのがムーアの法則にょ。
これも同じく経験則が元になっているけどIntelの場合はほぼ2年で1世代CPUの製造
プロセスを進めているにょ。(つまり、ダイサイズが同じであれば2年ごとに倍増して
行く計算になる)
CPUに関しては最新の製造プロセスを使用していたけどチップセットに関しては旧世代の
製造プロセスを使用していた関係上ここ最近だけを見ると1年ごとに1世代の性能アップに
なっているにょ。
http://pc.watch.impress.co.jp/img/pcw/docs/393/660/html/09.jpg.html
これは年々倍々ゲームでGPU性能が上がっていることを意味するにょ。
それで、CPUに内蔵されるSandy BridgeではついにCPUと同じ製造プロセスを使用する
ことになるわけだけどSandy Bridgeでは前年の2倍ではなく4倍の性能アップになる
(2006年比で10倍ではなく25倍)ということを上記のグラフではアピールしているにょ。
実際にそんなことができるのかということが問題になるわけだけどCPUと同一ダイに
GPUあることで高速なCPUキャッシュをGPUが使用できるということがやはり性能アップに
貢献している模様にょ。
そもそも統合型チップセットのGPUというのは世代的には完全に遅れたものが搭載されて
おり、865G(855GM)に内蔵されているIEG2はDirectXの機能的には6〜7の世代に相当
するわけだけど登場時にはすでにDirectX9が主流になりつつあったにょ。
しかし、その後継である915G(915GM)に内蔵のGMA900でそれは変わったにょ。
バーテックスシェーダこそCPUによるエミュレーションだけどピクセルシェーダは
ハードウェアとして搭載しておりDirectX9世代のGPUになっているからね。
それ以降の性能アップは上記のグラフを見ての通りにょ。
どれも登場時のローエンドにも劣るとはいえ、最新のゲームでも軽いものならば十分に
プレイ可能なレベルであり統合型チップセットのGPUは「それなりに使えるレベル」に
なったにょ。(ただし、IntelのGPUの場合はCPUによるエミュレーション部分が多いため
性能を発揮するためにはそれなりのCPU性能も必要になる)
十分に高速なCPUを搭載していればClarkdale(Arrandale)に内蔵のGPUであるIntel HD
Graphicsは2005年頃の単体ミドルクラスGPUであるRADEON X700(Mobility X700)に近い
性能を発揮するにょ。
X700はSM2.0世代であるためSM4.0世代であるIntel HD Graphicsの方が有利に働く場面
さえあると思われるにょ。
そこからさらに4倍の性能となるSandy Bridgeに内蔵のGPUは相当の高性能になりそうにょ。
最新の単体ローエンドGPUをも超える性能になるかもしれないにょ。(もっともこれは
ピーク性能だろうから実効性能で単体ローエンドGPUを超えるものになるとは思えない)
GPUに力を入れるのはGPUがゲームに使用されるだけではなくIE9でもレンダリングを行う際に
GPUが使用されるようにGPUが重要になる場面が今後は多くなるためにょ。
http://plusd.itmedia.co.jp/pcuser/articles/1003/18/news048.html
AMDもLlano(開発コード名)でGPUダイをCPUダイに統合する予定になっているにょ。
このLlanoは現在はまだ詳細は明らかになってないけどSP数は400〜480に達するという
見方もあり、もしもこれが実現されるのであれば現行のミドルロークラス(RADEON HD5570
クラス)の性能に達し、単体ローエンドGPUを超える性能になるにょ。
重量級ゲームをプレイしないのであればもはや単体GPUは不要になってくるにょ。
(2)このAVX命令こそSandy Bridgeの目玉となる新機能にょ。
Pen3に搭載されたSSEは当初は対応ソフトがないと効果が発揮できず、Pen3は同一クロックの
PenIIと比べて大きな優位性を発揮できなかったわけだけど徐々にSSE対応のアプリが
増えていくことでその考えは一変したにょ。
SSEは新設された128ビットレジスタを使い32ビット演算(単精度浮動小数点演算)で
あれば一度に4つ計算可能になるためCPUに内蔵されたFPUを大きく超える演算性能を
発揮できるようになったにょ。
SSEはPen4/PenMに内蔵されたSSE2で新命令が追加され、SSE3、SSE4と今日に至っている
わけだけどそれがSandy Bridgeでは256ビットのAVXが搭載されるにょ。
これはPen3に搭載されたSSE以来の大きな改革といえるにょ。
SSEと同じくそれを活用することで飛躍的な性能向上が期待できるにょ。
最も有用なのはエンコ用途にょ。
HD動画のエンコは6コア12スレッドのCore i7のフラッグシップモデルであってもまだ
十分といえるレベルには達してないからね。
これはGPGPUで徐々に改善されつつあるとはいえ、まだGPGPUは十分に活用できてない
ためCPUに頼る必要があるにょ。
http://pc.watch.impress.co.jp/docs/news/event/20100915_393755.html
このリンク先にSandy Bridgeと現行のCore i7/i5/i3などとの比較動画があるのでAVXを
使用時の高速性についてはそれを参考にするといいにょ。
現行のClarkdale(Arrandale)より省電力&高性能化がされるということがこれで分かる
と思うけど問題は価格やラインナップにょ。
とはいえ、価格帯においては9月1日に書いたようにIntelの場合はある程度固定化されて
いるためほぼ現行よりワンランク上の製品が同一価格で買えるのではないかと予想
できるにょ。
現在の予想ではこのようなラインナップとなっているにょ。
http://pc.watch.impress.co.jp/docs/column/ubiq/20100915_393886.html
相変わらず、SKUが複雑でCore i7/i5/i3の明確な違いというのが分からないというのが
最大の難点かも・・・。
さて、私は自作PCに関して言えば2年少々前に組んだCore2Duo E8400(3GHz)で特に不満を
感じてないのでSandy Bridgeで組むことは無さそうにょ。
とはいえ、今から組もうと考えている人で一回組んだらある程度長期間(3年以上)組み
直すことがないという人であれば今は「Sandy Bridge待ち」の方がいいかもしれないにょ。
「自作PCだからCPUだけ交換すればよい」という考えもありそうだけどSandy Bridgeでは
ソケットが変わるため今組んだら「CPUを変える=マザーボードも変える」という必要が
あるからにょ。(長期間使い続けることでAVX対応アプリが増えその恩恵が出てくる)
もちろん「ハイエンドしか興味がない」とか「自作PCは毎年組み替える」とかいう人で
あれば待つ必要なんて全くないにょ。
欲しい時に組むのが一番にょ。(といっても9月1日に書いたような大幅値段変更があるため
価格を気にする人はこまめにチェックする必要はあるけど)
上記の続き
(9)記録メディアに関しては「記録媒体そのもの」よりも「容量」と「速度」が重要になって
くるにょ。(もちろんその記録メディアの入手性や価格も重要だけど)
SDカードのみ対応(SDHC非対応)であれば最大2GBということで今時は静止画だけの撮影
といっても十分ではない(RAW+JPEGであれば1カット20MB近くに達するため1枚で100カット
程度しか撮れないため)とはいえ、SDHCに対応していれば静止画であれば全く問題ない
といっても良いと思われるにょ。
動画であれば確かに容量が大きい方がいいのだけど容量の問題ではなく速度の問題で
SDXC対応のメリットがあるにょ。
SDXCは現行規格(UHS-I)でも規格上の最大転送速度は104MB/sに達しているにょ。
SDカードはその規格上SDでもSDHCでも25MB/sが上限(SandiskのExtreamは独自対応で
30MB/sに達したけど専用カードと専用リーダが必須となる)となっているけどRAWで
連写をした場合にはバッファフルとなった後に書き込み待ち時間がかなり長く発生して
しまうにょ。
高画素化が進めば進むほど連写速度が上がれば上がるほどより高速なカードが求められる
けれどSD(SDHC)は規格上満足いくようなものではないためプロ機やハイアマチュア向け
ではSD系のカードは採用されずCFが採用され続けているにょ。
しかし、中級機も画素数が増え、連写速度もかつてのハイアマチュア向けモデルと
同等以上になってきている今となってはSDHCでは力不足にょ。
高速なSDXCカードが安価に手に入るようになればそれ一本に絞られるだろうけど現状では
SDダブルスロットが速度面の要求に応える最善の方法かもしれないにょ。
もっともそこまでやるなら最初からCFにしておけという話もあるだろうけど高速なCF
カードは価格面で非常に手を出しづらいし、コンデジからステップアップする人に
CF採用機はハードルが高いためコンデジと同じSD系がベターだからね。
(10)重量に関しては唯一D7000がD90と比べて負けている部分だけどこれはエンプラボディ
だったのが部分的とはいえマグネシウム合金ボディとなったためやむを得ないにょ。
防塵防滴など重量増の要素がありここまでスペックアップしてなおかつ70gしか重くなって
ないというのは評価できるポイントだと思うにょ。
上位モデルとなるD300sと比べるとこれでも120g軽量となるため差別化は可能だと思うにょ。
さて、以上の10点においてD7000を見てきたけどやはりD90との大きなスペックアップは
非常に魅力となるにょ。
私自身K200D、D50の2台のデジタル一眼を使用しているため次に買うならばD90かK-7の
後継機種と考えていたけどD7000のスペックならば何の不満もないにょ。
D90は底値に近づいているためD7000が発表された今であってもお買い得感があるけど
さすがに古さを感じていている(支払うコスト分だけD50やK200Dより明確なメリットが
あるかと言われたら微妙)からね。
D90ではなくD300sを買えば作りそのものが別物だから十分買う価値はあるとはいえ、
やはり、価格面と重量面がネックだからね。(D300sは重いとはいえ、手にしっくりくる
ボディ、APS-Cの中では最高レベルのファインダー、気持ちのいいシャッター音に
加えてプロ機と遜色ない剛性など今でもその価格に似合うだけの価値はある)
大幅なスペックアップが図られたD7000と比べるとライバルであるキヤノンEOS 60Dと
方向性が逆であることが分かるにょ。
EOS 60DではEOS 50Dでマグネシウム合金ボディだったのを7Dとの差別化を図るため軽量化を
行う際に全面エンプラボディにしてしまったにょ。
これは「差別化」という面ではありだけど従来のD90が入門機やコンデジを卒業した人
向けの入門用中級機(?)だったのにD7000ではそのターゲットがハイアマチュアまで
広がったからね。(D300sの後継となるD400は一体どんなスペックになるのか!?)
逆にEOS 50DはハイアマチュアまでがターゲットとなっていたけどこれはEOS 7D登場で
その座を譲ってしまったのか従来のD90のターゲットと同じような入門用中級機に
格下げされたイメージがあるにょ。
D7000はその噂が出たときにはD5000とD90の間を埋める上位入門機という感じだったため
ボディにはAF駆動用モーターが内蔵されず現在(というかD40以降の)入門機と同じく
モーター非内蔵のレンズはAFで使用できなくなるのではという話になっていたにょ。
ところがどっこい実際に出てきたD7000はD90を完全に凌ぐ仕様だったにょ。
ニコンFマウントは50年の歴史があるためAF用モーター内蔵・非内蔵という前にMFレンズ
対応の問題もあったにょ。
今年の3月13日に書いたようにマウントを維持しながら50年間使い続けていたために
Fマウントは複雑怪奇になり、その互換性のため廉価な入門機では古いレンズとの互換性を
排除しているにょ。
しかし、D7000ではD90で搭載されていたAF駆動用モーターだけではなくD90には搭載されて
いなかったMFレンズ用のAE連動ピンまで搭載したにょ。
D90ではMFレンズは一部のCPU内蔵レンズ(レンズ情報が埋め込まれたチップを搭載した
もの)だけに使用が限られていたけどD7000ではAiニッコールレンズすべてが使用可能に
なったにょ。
これは現行機あればプロ機であるD3系を除くとハイアマチュア向けであり、DX(APS-C)
フラッグシップとなるD300sのみしか搭載されてなかったにょ。
古いレンズとの互換性が切られていく中、逆に古いレンズとの互換性を強化するという
ことは明らかに狙っているユーザー層が変わっているということがこの1点だけ見ても
分かるにょ。(あとダイヤルに「撮影シーン」を示す絵文字が排除されたことからも
入門機ではないということが分かる)
個人的にここまではパーフェクトといってもいい感じだけど問題は価格にょ。
発売時の予価14万円(ボディのみ)となっているからね。
D90の発売当初の価格より約2万円高価となるにょ。
確かに性能を考えれば安いくらいだけどさすがに本体に10万円以上払うのは金銭的に
厳しいため少なくとも私はD7000は10万円を切るまでは買うことがないと思うにょ。
あとはK-rのスペックを見るとK-7の後継となるK-5のスペックも楽しみになってくるため
「K-5とD7000のどっちを買ったらいいんだ!?」という嬉しい悲鳴を上げることになる
かもしれないにょ。
ついに本命「D7000」登場
ニコンが中級機となるデジタル一眼「D7000」を発表したにょ。
http://dc.watch.impress.co.jp/docs/news/20100915_393756.html
私も待ち望んでいたD90の後継となる機種にょ。
メーカー発表の位置づけからするとD90よりも上でD300sよりも下に位置するけど現在
価格が大きく下がってきているD90はもはや在庫限りとなるためD90はD7000へと取って
代わる時期は遠くないと思われるにょ。
さて、肝心のスペックを見てみると2年前に発売されたD90からだとこのように変化して
いるにょ。
D90 D7000
(1)画素数 1230万画素 → 1620万画素
(2)ISO感度 ISO100〜6400 → ISO100〜25600
(3)防塵防滴 無し → あり
(4)動画機能 720p(MF) → 1080p(AF)
(5)ファインダー視野率 96% → 100%
(6)AFポイント 11点 → 39点
(7)最高シャッター速度 1/4000(X 1/200) → 1/8000(X 1/250)
(8)連写速度 4.5コマ/秒 → 6コマ/秒
(9)記録メディア SD/SDHC → SD/SDHC/SDXC(ダブルスロット)
(10)重量 620g → 690g
では、それぞれについて書いていくにょ。
(1)画素数に関してはコンデジにおいては何度も書いているように「高画素=高画質」
ではないにょ。
しかし、これがコンデジよりも1桁大きなセンサーサイズを持つデジタル一眼ならば
まだそれは変わってくるにょ。
画素数を見てのようにコンデジ(1/2.33インチセンサー搭載機)でさえすでに1400万画素に
達しているけどそれよりも13倍くらいのセンサーサイズであるAPS-Cのデジタル一眼が
それとあまり変わらない(1200〜1600万画素)画素数なわけだからね。
とはいえ、レンズ一体型によってすべて専用設計にできるコンデジと汎用性の高い
デジタル一眼ではコンデジの方が有利な面もあるにょ。
したがって、センサーサイズが13倍だから画素数も13倍まではOKという単純なものには
ならないにょ。
それに一眼レフでコンデジと同レベルの高感度性能や等倍鑑賞時の画質では一眼レフを
使う意味もかなり失われているからね。
高感度性能に関してはセンサーと画像処理エンジンの影響が大きいため適正な画素数と
いうものは時代によって変わってくるにょ。
とはいえ、画素数が増えれば配線幅によって実質的なセンサー1画素当たりの大きさ
(つまり搭載可能なマイクロレンズの大きさ)が画素数に反比例したものよりもさらに
小さくなってくるにょ。
特にこれはコンデジにおいては顕著であり、センサーの受光側を配線のある裏側に
設置した裏面照射型センサーが非常に有用になってくるにょ。
コンデジより1桁大きなセンサーを搭載のデジタル一眼の場合はまだそこまで配線幅が
与える影響は大きくないため現在のセンサー性能と画像処理エンジンの性能をもって
すれば「1600万画素は多すぎる」ということはないにょ。
あとは、レンズ性能の影響にょ。
画素数が多くなればなるほど要求されるレンズ性能(解像力)は高くなるにょ。
確かに絞れば実効解像力はアップする(これは実効解像力であり、収差の全くない理想的な
レンズであれば絞れば絞るほど解像力はダウンする)とはいえ、問題は回折限界があると
いうことにょ。
多くのズームレンズレンズはF11程度でピークになるように設計されているにょ。
これは開放F値がF5.6のレンズが主流であり、開放から2段程度絞ることでようやく各種
収差が減りそれが解像力アップに貢献しているというだけの話なのだけど画素数が
増えればこれが厄介になるにょ。
例えば現在APS-Cサイズでは最大画素数となるEOS 7D/60D/Kiss X4の1800万画素で考えると
画素ピッチが4.3μmであるためF8.6で回折限界を迎えるにょ。
そのためF8まででピークが来るようなレンズでないと1800万画素の性能を発揮することが
できないにょ。
当然のことながらレンズセットに付いているキットレンズしか使わないような人であれば
1800万画素はほとんど無意味にょ。
しかし、中級機となると高性能な単焦点レンズを使用する人も増えるだろうから必ず
しも画素数が多いから駄目と言えるものでもないにょ。
それでも「気兼ねなくF8で使える」ということを考えるとやはり1800万画素あたりが
APS-Cの限界になると思われるにょ。
(2)設定可能感度から高感度性能は分からないにょ。
D90も発表された当時は非常に高感度性能に優れた機種だったとはいえさすがにこの業界で
2年前といえば完全に過去の機種にょ。
確かにまだ第一線で活躍できる性能(高感度性能)を持っているとはいえ、高い性能が
あると言われていたのがボーダーライン上にあるというレベルまで下がってきているのは
否めない事実だと思うにょ。
この2年間でセンサー性能と画像処理エンジン性能は大きく改善されたにょ。
その結果がEOS Kiss X4で1800万画素という画素数にも関わらず高感度性能はAPS-Cの中で
トップレベルになったわけだしね。
D7000に搭載されているセンサーの詳細は不明だけど恐らくソニー製のセンサーだろうから
α55と共通(もしくはニコン用にチューニングされたもの)だと推測されるにょ。
すでにα55の撮影サンプルは各所で公開されているし、国内大手サイトでレビュー記事が
掲載されたらここでも採り上げようと思っているけど高感度性能に関してはX4に負けて
いないにょ。
ニコンの画像処理エンジン次第ではX4以上のものになるかもしれないにょ。
ISO25600はあくまで非常用だろうけどISO3200までなら常用(A4で問題なく使えるレベル)
であり、ISO6400でも人によっては十分使えるのではないかと思われるにょ。
D90の場合は常用可能だったのがISO1600まででISO3200ではやや厳しくなり、ISO6400では
カラーノイズが盛大に出るのでL版や2L版でないと厳しいレベルになっていたからそれと
比べると確実に1段分以上は向上しているのではないかと推測されるにょ。
(3)防塵防滴は人によって必要・不要があるだろうけどやはり中級機であるならば必要
ではないかと思われるにょ。
入門機であればコストの方が優先されるし、「防塵防滴機能があるからこれくらいならば
大丈夫」という判断はある程度の経験がないと難しいからね。(防水ではないため
完全に水没してしまったらアウトになる)
私が使っているK200Dは入門機としては極めて珍しい防塵防滴機能を搭載にょ。
とはいえ、防塵防滴機能は本体にだけあっても意味がないにょ。
レンズの方にもないと結局は雨の日は別途対策を行う必要があるからね。
そうなると本体だけではなくレンズの方にも防塵防滴機能を搭載する必要があるのだけど
ニコンの場合はまだまだレンズ側の対応の方が不十分にょ。
この点ではペンタックスやオリンパスの方が上だと思われるにょ。
(4)世界初の動画撮影機能が搭載されたD90だったけどさすがに事実上フルマニュアルで
撮影することになるためとても素人が手を出せる代物ではなかったにょ。
しかし、8月20日に書いたようにHD動画に対応した入門機であるD3100が登場し、今と
なっては動画でAF、AEが当たり前のように使えるようになりおまけ程度の動画から完全に
脱却しつつあるにょ。
動画を快適に撮影するならばフルタイムAFに対応したα55の方が確実に有利だろうけど
D7000も「素人お断り」と言わんばかりのD90よりは圧倒的に使いやすいものになっている
と思われるにょ。
他社が動画機能に力を入れているのに「ウチ(ニコン)はやりません」というのは
なかなかできないので「動画なんて要らないから安くしてくれ」というのも難しいかも
しれないにょ。(H.264エンコードチップなんて今は格安になっているので動画機能を
外したところで価格は1000円単位でしか変わらないと思う)
(5)中級機の証といえばペンタプリズムファインダーにょ。
入門機に採用されておりピントの山が掴みづらいペンタミラーファインダーとは異なり
MFでのピント合わせは抜群に優れているからね。(とはいえ、MFを使用すること自体が
入門機を使用する人にはほぼ想定外であるため入門機には価格面で有利になるペンタ
ミラーが搭載されている)
ここで、問題なのはその視野率にょ。
銀塩時代はネガフィルムであればプリント時にどうせ切られるから視野率100%なんて
無意味でありリバーサルフィルムを使わないとその意味はあまりなかったけど今は撮った
写真をPC鑑賞する場合はリバーサルと同じく写真の隅から隅まで鑑賞可能になるため
100%が無意味ではないにょ。
センサーに入った映像を液晶モニタ上で見ているコンデジであれば視野率は実質約100%
なのだから視野率100%(見えている範囲がそのまま撮影される)というのが常識に
なりつつあるにょ。
しかし、視野率約100%を謳っているEOS 7Dも実際に測定したら96〜97%しかなかったと
いう話もあるにょ。
高々3、4%は誤差の範囲内と言ってしまえばそれまでだけどファインダーに見えなかった
ものが3、4%余分に写っているというのを気にする人は多いにょ。
デジタルなんだから最初からトリミング前提と考えればいいけどそれならば28mmで撮った
写真は24mmをトリミングしても同じとかいうことにまで発展してしまいかねないにょ。
画角の重要性、写真は引き算であるということを考えれば視野率100%がベストなのは
確実にょ。
とはいえ、視野率100%を確保するには精度の高さが要求されるにょ。
そのため視野率100%はフラッグシップ機(もしくはプロ機)にしか採用されることは
ほとんどないにょ。
ペンタックスK-7は独自の「センサーが浮いている構造」なのを活かしてファインダー側に
高い精度を求めることなくセンサーの位置を微調整するだけでほぼ100%の実効視野率を
達成したにょ。
D7000の実効視野率は製品登場後に明らかになるけどほぼ100%(99%〜100%)が実現
できているのならばこれはフラッグシップ機といっていいレベルの機種になるにょ。
(6)AFポイントが多ければいいというものではないけどカバーできるエリアが広い方が
良いに越したことがないにょ。
D300の51点の測距エリアはファインダーのほぼ全域をカバーするというすさまじいもの
であり、画面上のどこに被写体があっても問題なくAFでピント合わせが可能だったにょ。
D7000の39点はそれと比べれば劣っているとはいえ、D90の11点と比べるとその差は歴然
となるにょ。
D90の場合は11点のうちクロスセンサー(縦線にも横線にも対応できるセンサー)は
中央1点のみだったけどD7000は39点中で9点がクロスセンサーになったにょ。
ライバルになるであろうEOS 60Dは9点の全点クロスであるため測距ポイントだけを見ると
完全にライバルを上回っているにょ。
ちなみに私が使っているニコンD50(2005年発売)は5点測距でそれほど不満はないとは
いえさすがにフレーミングの自由度はあまり高くないにょ。
それに対してK200D(2008年発売)は11点測距離(全点クロス)は大幅にそれが緩和されて
いるから39点測距のD7000はK200Dと比べてもかなり快適に撮影できそうにょ。
もっとも静物メインであるため私は測距点選択を手動で行うためあまり測距点が多いのは
かえって不便になるけどそれはD300と同様に39点すべてではなく必要に応じて減らせる
ために多いことがデメリットにはならないにょ。
(7)シャッター速度の最高速を見てみるとやはり1/8000秒にまで対応したのがうれしいにょ。
F1.4のレンズを使用していると日中は1/4000でも開放では撮れないことがあるからね。
すでに入門機でもK-rで1/6000秒まで対応している今となっては中級機で1/4000秒まで
というのはやや不満が残っていたにょ。
それとX接点(フラッシュ同調速度)が1/250秒になったのはうれしい仕様にょ。
フォーカルプレーンシャッターはスリット幅を狭くすればいくらでもシャッター速度が
上げられる(ただし、幅を狭くすればするほど高い精度が要求される)けれどフラッシュ
使用時にはスリットが全開である必要があるためシャッター幕の速さが要求され高級
モデルにしかX接点1/250秒は採用されなかったにょ。
X接点が速いと日中シンクロが容易にできるなどフラッシュを使用時の撮影の幅が大きく
広がるにょ。
暗所で「暗いからフラッシュを使う」というのであればX接点1/60秒であっても何ら
問題はないにょ。
フラッシュそのものは数千〜数万分の1秒しか発光しないため被写体ブレやカメラぶれ
(手ぶれ)を防ぐのに十分な効果が発揮できるからね。
ちなみにD50はX接点1/500秒という現在のプロ機を超える仕様となっているにょ。
これはCCD電子シャッターであるから実現可能になっているにょ。
あとはFP発光によってシャッター全速でシンクロ可能にするという方法もあるけどこれは
それに対応したフラッシュが必要になるにょ。(ただし、高速シャッターを使えば使う
ほど実効光量は低下するため注意が必要)
(8)連写速度に関しては数字ではっきり区別できる中級機の入門機に対するアドバンテージ
ではないかと思われるにょ。
入門機は3コマ/秒前後という機種が多く存在するにょ。
中級機はそれらと明確な差別化を行うために5〜7コマ/秒という速度を実現している機種が
大半になっているにょ。
それはここ最近の話であり、少し前は異なっていたにょ。
ニコンの場合を見てみるとプロ機であるD1、D2に加えてハイアマチュア向けとなる
D100が登場したとはいえ、まだまだデジタル一眼は価格的なハードルが高かったにょ。
そこで登場したのがD70にょ。
10万円そこそこで買える廉価なデジタル一眼としてヒット商品になった(レンズキット
としてレンズセットで安く買えるようになったのはD70が初めて)けれどデジタル一眼が
徐々に普及したことでそこから枝分かれが出来たにょ。
D70の下位機種となるD50の登場とD70の上位機種(実質後継機種)であるD80の登場にょ。
事実上の入門機の座はD50が譲り受け、入門機では物足りないけどハイアマチュア向けの
D3桁シリーズ(当時はD200)では予算的な面などで厳しいという人向けのカメラとして
登場したのがD80にょ。
D90はそのD80の後継として登場したのだけど下位である入門機の性能が向上しているため
その上位となるD90は中級機であるためスペックの向上を行ったにょ。
さて、ここで気になるのは入門機と中級機との線引きにょ。
どこまでが入門機でどこからが中級機かというのは明確な線引きはないにょ。
一般的には価格で見る方法もあるけどデジタル製品であるが故に価格は時代によって
大きく変わるためやはり「ペンタプリズムファインダー搭載」「サブ液晶搭載」「2ダイヤル
採用」というのが入門機と中級機の境目ではないかと思われるにょ。
ただし、スペックの向上をさせるとハイアマチュア向け(D90の時代ではD300が相当する)
と差別化も考えなくてはならないにょ。
その両者との板挟みの結果実現されたのがD90では4.5コマ/秒だったということだと
思われるにょ。
しかし、その後登場したD300sによりボディだけで7コマ/秒(グリップ搭載で8コマ/秒)
まで達したためD7000ではD90の4.5コマ/秒を大きく超える6コマ/秒になったにょ。
入門機であるα55では半透過型ミラー採用で10コマ/秒、ペンタックスK-rは入門機で
ありながら普通に6コマ/秒であることを考えるとD7000の6コマ/秒というスペックは
大したことはないけどライバルであるキヤノン60Dが従来機よりも遅くなったとはいえ
5.3コマ/秒ということを考えるとD7000はD90から据え置きで4.5コマ/秒ではさすがに
厳しいということがいえそうにょ。
(下記へ続く)
iPodはウォークマンのライバルではなかった!?
新型ウォークマンが発表されたにょ。
http://av.watch.impress.co.jp/docs/news/20100915_393610.html
個人的には買うとすれば本体サイズ、記録容量、予算の関係でウォークマンSの16GBモデルが
第1候補となるにょ。
従来のウォークマンSはどうもデザイン(というか色)が気に入ったものがなくこれが
いいと感じたのはソニスタ限定の8GBモデルだったにょ。
今回のモデルはこのライトピンクがなかなかいい感じにょ。
http://av.watch.impress.co.jp/img/avw/docs/393/610/html/sony1_20.jpg.html
買うならば間違いなくこの色にするにょ(笑)
さて、ウォークマンといえば近年iPodに押されっぱなしでDAP(携帯音楽プレイヤー)市場
ではずっと2位に甘んじていたけど先月は久々の国内シェア第1位を獲得したにょ。
理由として考えられるものは8月31日に書いたようなものがあるにょ。
(1)9月に新型iPodが発売されるため買い控え
(2)iPhoneが好調であるため
(3)ウォークマンは高音質かつ安価であるため
これらに関しては「たまたま8月だからシェアが逆転した」ということだけではなくやはり
iPodではなくウォークマン自体に注目が集まっているからだと思われるにょ。
価格comのページビューでもiPod発表時は圧倒的な注目を集めているけど時間が経てば
拮抗しているからね。
http://www.itmedia.co.jp/news/articles/1009/17/news013.html
これから考えてもシェアを逆転したのは(1)が理由でたまたま起きたというわけではない
ということが予想できると思われるにょ。
もちろんアップル社もそんなことは分かっていると思うにょ。
シェアを伸ばすには一般的に2つの方法があるにょ。
(1)弱点を克服する
(2)強い部分をさらに強化する
iPodの弱点といえば「アップルのサポート」「修理代が高価」「耐久性が微妙」「使用する
ためにはiTunesが必須」「そのiTunesが元で問題が起こる」などが挙げられるにょ。
それらは徐々に改善に向かいつつあるものも含まれているけど今回の新モデルではやはり
(2)が顕著だったにょ。
最大の強みはiOSとそのOS上で動くアプリにょ。
iPod touchはそれによってワールドワイドで年間1000万台超の売上を記録したにょ。
同一のOSが動作するiPhoneもtouchと同レベルの台数売れているわけだからiOS搭載機と
いうのが莫大な勢いで増えていることが分かるにょ。
それによってアプリ市場も猛烈な勢いで拡大しているにょ。
玉石混淆状態なのは個人制作のアプリが多いためやむを得ないのだけど急速に増えている
アプリに対してアップル社はついにガイドラインを公開したにょ。
http://japanese.engadget.com/2010/09/10/app-store/
今までガイドラインが公開されて無かったということ自体が不思議なくらいだけどこれを
見ると相当厳しいものであることが分かるにょ。
2.9 「ベータ」「デモ」「トライアル」「テスト」バージョンは却下。
2.11 すでにApp Store にあるアプリと(機能が) 同じアプリは却下される可能性がある。
フリーウェア制作者なら経験あることだけどいきなり完成版(ver.1.00)をWebで発表する
ことはあまりないにょ。
多くの場合は少しずつ完成させながらWebでユーザーの意見をフィードバック(および
バグ取り)しながら完成へと近づけていくことだと思われるにょ。
しかし、これはApp Storeではアウトになってしまったにょ。
有料アプリを作っているユーザーは機能を制限した無料版を公開しようと考えても
それもアウトにょ。
それだけでなくすでにあるものと似たようなアプリはアウトになる可能性さえあると
いうことにょ。
これが「App Storeで公開できないだけ」というのならば仕方がないけどiOS搭載機の
場合は基本的に「App Storeで公開できない=そのアプリは一般公開できない」という
ことだからね。
意訳すれば「ゴミのようなアプリ(売上に貢献できないアプリ)はノーサンキュー」と
いうことかもしれないにょ。
もっとも、これは「これだけの制約をしても十分に勝てるほど強い」という強気の現れ
だと思われるにょ。
新型nanoはタッチパネルを搭載しただけではなくこのiOS用アプリが動作するのであれば
iPod touch nanoというべき一部コアユーザーから支持を得そうなものになったはずだけど
実際はtouch(iOS)のUIを真似て作られただけの全くの別物にょ。
それでもUIが似ているというだけでtouchユーザーであればあまり違和感なく使えそう
ともいえるけど従来のnanoユーザー(かつtouchやiPhoneを所持してないユーザー)から
考えるとこれは大きなマイナス要素にょ。
この辺については9月3日に書いたのだけどやはりDAPとして購入するならばブラインド操作
できないということはデメリット以外の何者でもないからね。
しかし、nanoもシャッフル再生専用機として考えるとまた考えが変わってくるにょ。
聴きたい曲を選択するのではなくBGM代わりにシャッフル再生を行うのであればブラインド
操作の重要性はかなり下がるからね。
これはshuffleの役目そのものにょ。
つまり、iPod nanoは名称に「nano」と付いているけど「iPod shuffle deluxe」とでも
言うべき製品になっているということにょ。
これは上記リンク先の価格comのページビューを見ても明らかでshuffleの注目度は低く
それは「nanoがshuffleを食ってしまった」と考えると理由が説明できるにょ。
実際超軽量、クリップ式のスタイルの新型nanoはshuffleと同等の使い方ができるわけ
だからね。
いや、同等ではなく必要ならばタッチパネルによって好きな曲を選択することさえできる
ということはshuffleにない大きなアドバンテージといえるにょ。
価格面でshuffleより高価だけどタッチパネル付き液晶モニタやフラッシュメモリの容量が
多いなどのメリットがあるためshuffleの代わりにnanoを買うという人も大勢現れそうな
予感がするにょ。
液晶モニタが付いているということはこんな使い方もできるしね(笑)
http://japanese.engadget.com/2010/09/10/ipod-nano-ilovehandles/
9月9日に書いたように新型touchのスペック強化はアプリの強化に繋がっており、nanoは
touchがメインになった影響でtouchのサブ機として使いやすいものに変えられてしまった
と考えていたにょ。
しかし、nanoがshuffleの弱点補強のために路線変更をしたというのであればまた変わって
くるにょ。
touchによって高価格DAPでは不動のシェアを獲得したけどその反面廉価DAPでは売れ筋の
ウォークマンSに対抗できる製品が無くなってくるにょ。
nanoがshuffleを含む廉価DAPを食っていくのであればこれはまた異なるものになるにょ。
ただし、現実的にはnanoの価格ではそれは厳しそうにょ。
廉価なshuffleやウォークマンEを購入候補に挙げている人にnanoを買わせるのは価格的に
厳しいからね。
それを考えるとやはり弱点補強というよりも「強みを強化しただけ」という当初の考えの
方が正しいかもしれないにょ。
新型nanoはshuffleユーザーの乗り換え先ではなくtouchユーザーを増やすための布石と
考えた方がいいだろうからね。
そうなるとライバルとして考えられているウォークマンとiPodだけど実はライバルでも
何でもなく「今回の新型では棲み分けが強化されただけ」に思われてしまうにょ。
なぜiPod touchは売れているのか?
9月3日に書いたようにアップル社はiPod touchにかなり力を入れているにょ。
touchがこんなに売れるということは私は(touchが発売された当初には)想像して
いなかったことだけどこれは私が当初はtouchをただの「高価格な多機能DAP」として
捉えていたからにょ。
その考えはiPhoneの状況を見て徐々に薄れていったにょ。
touchは本体価格はDAPとして考えれば高価だけどiPhoneなどのスマートフォンよりは
安価(ただし、スマートフォンの場合は2年契約、2年分割払いによって端末の見かけ上の
実質価格はそれほど高価というわけではない)、そしてキャリアに左右されないという
メリットがあるにょ。(要するにただのPDAとして使える)
ここ最近touchの売上が伸びているのは下記の2点が大きいと思われるにょ。
(1)アプリの充実
(2)通信環境の改善
(1)においては昨日も書いたようにアップル社は「質の低いアプリ、目新しさがない
アプリは要らない(←意訳)」と言っているくらいだからね。(それくらいすでに十分な
ラインナップがあるということ)
確かにApp Storeに登録のアプリは急増しており「端末が売れる→アプリが増える→
端末が売れる」という好循環をそのまま反映している形となっているにょ。
それによってtouchが売れるというのは良いことだけど従来のtouchにはカメラ等が搭載
されておらずそういったアプリを利用することができないという問題があったにょ。
そのため新型touchではカメラ搭載によって利用できないアプリというものはかなり
減り、アプリ制作者もより多くの人が使えるために特定ハードに対応させないと遠慮
する必要性も減ったにょ。(touchしかもって無くてもカメラ対応アプリが作れるように
なった)
これは様々な機種が存在するAndroid端末では非常に難しいことにょ。
特定ハード(加速度センサーなど)に対応したアプリを作るとそのハードを搭載している
機種でしか動作しなくなるからね。
Android端末は急速に伸びているものの特定ハードに対応したアプリを作ると単一仕様で
1000万台単位で販売されているiOS搭載機よりもそのアプリを利用できる人はかなり
減ってしまうにょ。
(2)touchで通信を行うには無線LAN経由である必要があるにょ。
近年は都心部を中心に無線LANスポットがどんどん増えているものの5月24日に書いた
ように地方と都会では無線LANスポットには大きなギャップがあるにょ。
地方では「利用者が少ない→無線LANスポットが増えない→利用者が増えない」という負の
スパイラルに陥っていると思われるためこれが今後大幅改善されるのは難しそうにょ。
その救世主となるのがモバイルルータにょ。
私も今年の4月にイーモバのPocket WiFiを購入したにょ。
モバイルルータは2年前にはPHS300くらいしかなかったのが現在は国内で入手可能な
製品だけでこれだけの種類があるにょ。
http://k-tai.impress.co.jp/docs/special/sp_cata/20100917_394268.html
これだけあると自分に適したキャリアの製品があるし、SIMフリー端末もあるのでそれを
使えばキャリアも自由に選べるにょ。(とはいえ、SIMフリーといってもソフトバンクが
データ通信が青天井であるため実質ドコモ専用となっている状態だけど)
つまり、touchに対するユーザーの評価の変動はtouchそのもののスペックアップにもある
けどアプリや通信といった本体以外の改善点が非常に大きいということが分かると
思うにょ。
確かにモバイルルータを買えばtouchの通信が非常に便利になってくるのだけど結局
「毎月維持費がかかる」という現実から避けることはできないにょ。
モバイルルータはtouchのみで使うならば割安とはいえず、他の機器と共用して初めて
そのメリットがあるわけだからね。
とはいえ、最近は無線LAN対応(Wi-Fi)機器なんて非常に多く存在するにょ。
むしろtouchユーザーでtouchしか無線LAN対応機器を持ってないという方が非常に珍しい
のではないかと思われるにょ。
PCを持ち歩いている人であればUSB接続の通信端末で十分だろうと考えるだろうし、
私もCF型のPHS通信端末から乗り換える際は一時はUSB接続の端末にしようかとも考えた
けれど他の機器と共用を考えるとモバイルルータの利便性は大きいということで4月29日に
書いたようにPocket WiFiを購入するに至ったにょ。
モバイルルータは確かに様々な無線LAN対応機器で共用できるというメリットがある
ものの5月27日に書いたような駆動時間の問題もあるにょ。
ケータイよりも待ち受け時間が圧倒的に短いためこまめにON、OFFを使い分ける必要が
あるからね。
いざとなればUSB給電もできるためUSB給電に対応した予備バッテリを持ち歩くという
方法もあるけどそれを面倒に感じる人もいるかもしれないにょ。
「touchしか持ち歩かないのに別途モバイルルータを持ち歩くなんて煩わしい」「touch
にはないGPSなどの機能を使いたい」「通信だけではなく通話(IP電話不可)にも使用
したい」となると選択肢はtouchではなくiPhoneになってしまうにょ。
でも、ソフトバンクでは電波が弱くて・・・と思っている人も多くいることだと思うにょ。
単にtouchでは機能面で物足りなくてデータ通信しかしないというのであればiPhoneを
一括購入して解約してモバイルルータを使うという方法もあるけどモバイルルータを
別途持ち歩くのは面倒とか通話用としても(つまりスマートフォンとして)使いたい
というのであれば最終選択肢はSIMフリー版iPhoneとなるにょ。
ただし、SIMフリー版iPhoneは一部の国でしか売られておらず入手するにはかなり大変な
個人輸入を行うか、ごく一部のショップで少数売られている高値の輸入版に頼るしか
方法は無かったにょ。
しかし、この度iPhone用のmicro SIMも販売している日本通信が輸入代行店eXpansysと
提携したためにその入手性はアップしそうにょ。
http://k-tai.impress.co.jp/docs/news/20100917_394601.html
国内版のiPhoneを一括購入するよりもかなり割高になるとはいえ、入手のしやすさは
アップすると思われるため「どうしてもiPhoneを使いたいけどソフトバンクは嫌」と
いう人はこういう方法を活用すると良いと思われるにょ。
ただ、今回の新型touchの機能アップで「すべて1台でまかないたい」という人を除けば
touchで十分と感じることだと思うにょ。
特にすでにモバイルルータを持っている人であれば余分な通信費用がかからないという
ことは非常に大きなメリットとなるにょ。
確かに今からモバイルルータを買ってまでtouchを使うというのは微妙だけど上記の
ように無線LAN対応機器は多数あるためtouch専用と考える必要はないので決して高価
というわけではないにょ。
もっとも無線LANスポットが多数ある都市部在住であればそれを活用することでモバイル
ルータが無くても十分快適な通信を行うことができるけどね。
このようなアプリ&通信の変化が絡み合ってtouchの売上が伸びたと思われるにょ。
それにより、昨日も書いたようにアップル社はtouchを主軸におきnanoをサブになるような
形にしたのだろうからね。
雑誌は「有料」、Webは「無料」・・・って正しいのか?
雑誌「週刊アスキー」800号(記念号)を買ったにょ。
創刊から21年か・・・。
「週刊アスキー」という誌名になったのは13年前からだけどPC雑誌で週刊化して大丈夫
かと当時は思っていただけにこれだけ長く続くとは予想してなかったにょ。
私は今となっては週刊アスキーは興味深い記事が掲載されている号しか購入してない
けどその前身となった「EYECOM」の頃は毎号買っていたにょ。(週刊化されてから
しばらくしてから毎号買うのをやめた)
EYECOMを買っていた当時は「ベーマガ」「PJ」「Oh!PC」「98Magazine」「Hello!PC」
なども買っていたにょ。
さらに遡ると(EYECOM創刊前)PioやI/Oやプログラムポシェットなども買っていたにょ。
しかし、12年前(1988年)に引っ越したとき95年以前のPC系雑誌はベーマガとPJを除き
ほとんど処分してしまったにょ。
さて、PC雑誌って本当に必要なのか・・・となると今となっては微妙にょ。
ベーマガやPJのような投稿プログラムを掲載している雑誌は昔は貴重な存在だったにょ。
投稿によって小遣い程度(税金込みでPJが1ページ5000円、ベーマガが1回1万円)とは
いえお金がもらえるのはうれしかったし、市販の雑誌に自分が作ったものが掲載
されているということ自体に喜びを感じるというのもあるけど結局のところ不特定
多数の人に向けて公開するのは「雑誌」という媒体を使うしかなかったということが
1つの理由といえるにょ。
PJが96年に休刊したのは単に個人でポケコンを使う人が減っただけ(つまり、雑誌
製作かかるコストがペイできなくなった)だけどベーマガの場合はやはり大きいのは
Webの存在にょ。
個人サイトを作れば自由に作ったものを公開できるからね。
ただし、2000年代初頭はWebサーバ容量の都合もあるし、まだダイヤルアップがメイン
ということもありWebで公開されているアプリも1MB(もしくはそれ以下)を超えるような
のアプリを公開するのは難しかったけどすでにVectorのようにフリーウェアを扱う
サイトがあったのでそこで公開するという方法もあるにょ。(シェアレジ導入でシェア
ウェアも気軽に公開可能になった)
読者投稿型のPC雑誌はWebの普及で厳しくなたけどそれならば情報系のPC雑誌はどうか
といえばさらに厳しいと思われるにょ。
今は情報はWebでリアルタイムで入手可能だからね。
雑誌になった時点ですでに過去の情報となっているためWeb上で情報をチェックして
いる人ならば雑誌の情報はほとんど価値のないものといえるにょ。
いくらそれが週刊誌になったところで大きく変わるものではないにょ。
それでも週刊アスキーが休刊せずに今に至っているということはPC系のニュースサイトを
じっくり読んでいるようなコア層ではなくライト層をターゲットにしているからだと推測
されるにょ。
とはいえ、雑誌を買う場合はお金がかかるのに対してWebの情報は基本的には無料と
いうことで雑誌がWebに勝つ(書店で買ってもらう)ことは容易ではないにょ。
雑誌として生き残る方法には下記のようなものがあるにょ。
(1)Webでは読めないディープな内容
(2)紙媒体であることを生かした内容
(3)付録で売る
(1)Webではハイパーリンクがあることによって1つ1つの記事は単純なものになりがちと
なっているにょ。
これはWebのメリットではあるけど逆に言えばWebで長文は読む人のが大変という配慮にも
なっているにょ。
とはいえ、ここは内容の割には無駄に長文になっているわけだけど(笑)
やはり、それにはPC画面上で長文を読むのが大変と感じている人が多いというのも
1つの理由になっているにょ。
それは日本語が普段は縦書きだけどWeb上では横書きになっているというのもあるし
PCの画面では一覧性に乏しいというのもあるにょ。
新聞、書籍を読み慣れている人であれば横書きの長文は確かに読みづらいというのは
否めないにょ。
それにPC画面ではIEの文字サイズ「中」であればせいぜい横40〜60文字程度(フルHDに
特化したようなWebサイトはほぼないため)、縦はPCの解像度やWebブラウザにもよるけど
WXGAならば25〜30文字程度にょ。
つまり、Webサイトの文字はぎちぎちに詰まった状態で1画面で1000文字少々しかない
ということにょ。
これは新聞や雑誌の1ページに収まる文字数と比べると圧倒的に少ないにょ。
では、Webメインになってから読む文章量は減ってしまったのか・・・?
「活字離れ」という言葉が聞かされるようになって久しいけどWeb全盛の今は昔(Webが
普及する前)と比べて文字(あえて「文章」とは言わない)に接する機会が増えている
と私は感じているにょ。
Webサイトだけではなく多数のメールもあるわけだしね。
1つ1つの量は少なくてもトータルでは決して少なくはないということにょ。
「活字離れ」というのはあくまで印刷物(新聞や本)に限定しているためその言葉
自体は誤りではないにょ。
8月21日に書いたように書籍売り上げはどんどん落ちているわけだしね。
(2)紙媒体ならではとなるとやはりWebで読むには抵抗のある文字数のもの・・・となる
けどそれだと(1)と被ってしまうため別のニュアンスでいくにょ。
ジャンルが変わり、PC雑誌ではなくアニメ雑誌においても雑誌の生き残りは熾烈なもの
となっているけどアニメ雑誌の場合は最新情報という観点だけではなくグラビア的な
ものも重要になってくるにょ。
最新アニメの情報だけが欲しければWebサイトで十分だけどアニメ雑誌に求めているものは
それだけではないからね。
それを顕著に表しているのが「メガミマガジン」や「娘タイプ」などのグラビア系の
アニメ雑誌にょ。
その雑誌のために書き下ろしたキャラのピンナップを全面に打ち出した雑誌はそのため
だけに購入する人が多くいるからね。
となると(1)は文字メイン、(2)は絵がメインと考えることができるにょ。
(3)やはり最近増えたのがこれにょ。
雑誌の付録というと古くからポピュラーなものであり、学研の「科学」と「学習」を
はじめ現在でも子供向け雑誌では多く取り入れられているにょ。
雑誌付録に関しては「素材についての規制」「コストについての規制」があったけど
それらが緩和されたため従来では考えられなかったものも多く導入されているにょ。
付録で成功した例は電撃G'sマガジンの2010年8月号だけど付録目的でその号を買った人が
非常に多かったけどそれでユーザー自体が増えたわけではないためその後の号は以前と
変わらないような状況となっているにょ(8月号は発売日にほぼ完売したけどそれ以降は
以前と同じく翌号が出る時期まで在庫が残っている)
以上のようにWebと雑誌の棲み分けができるというのが私の考えだけど発行部数が減った
場合はそうは言っていられないにょ。
実際、雑誌は広告費があるからあの価格で販売できるわけだけど発行部数が減った場合は
広告代も下げざるを得ないし、広告そのものが減ってしまうと雑誌の維持に必要な広告費
さえも減ってしまうために雑誌の維持が難しくなるにょ。
そもそも雑誌は書店に足を運んでお金を出して購入する必要があるのにWebならば
基本的に無料というのが厳しい理由となっているにょ。
上記の方法によって棲み分けができるといっても情報をウリとしている雑誌はそれに
よって危機的な状況にあるにょ。
ではなぜ雑誌は有料でWebは無料なのか・・・?
それは媒体による違いが大きいにょ。
印刷というのはコストがかかるし、流通コストもバカにはならないからね。
しかし、雑誌とWebで記載情報にそれほど差異がないならばユーザーはそのようなコスト
問題は考慮してくれないにょ。
ただ、Webの情報も個人が趣味でやっているようなサイトを除きコストがかかってない
なんてことはないにょ。
実際は多くのコストがかかっているけどそれは広告費で何とか運営できているという
だけの話にょ。
ただ、広告費でまかなうためには多くのPV(ページビュー)が必要になるにょ。
そのためPVを稼ぐため記事は長文ではなく細かく分けてかけられるにょ。
したがって、Web上の記事の1ページ当たりの情報量が少ないというのはユーザーへの
配慮もあるけどそのような理由もあるということにょ。
9月13日に書いたようにiswebの無料ホームページサービスが終了するのは個人サイト
ではPVが少ないものが大半であるために広告費だけでは維持できないためにょ。
完全無料化(広告費のみで運営)が難しければ最終的にとる手段は有料化しかないにょ。
ニューヨークタイムズのオンライン記事も2011年から有料化になると今年の1月に発表
されたにょ。
http://japan.cnet.com/news/media/story/0,2000056023,20407060,00.htm
雑誌ではコストが大きいからWebならば・・・ということでWebに力を入れる企業も
少なくないけど今はWeb上でも競争が激化しているため広告費ですべてをまかなうという
ことは難しくなってきているためニューヨークタイムズだけに限ったことではなく
今後は多くのWebサイトで導入される可能性があるにょ。
「Webの情報は無料」という認識が当たり前の時代に終わりが来る日はそれほど遠くない
かもしれないにょ。
iPhoneはゲーム用として最適なのか・・・?
9月16日〜19日に開催された「東京ゲームショウ2010」は来場者が20万人を超えて過去最高
となったにょ。
http://game.watch.impress.co.jp/docs/news/20100920_395254.html
コンシューマゲームは5、6年ごとに世代交代するため本来であれば世代交代の時期を迎えて
いるような時期になっていると思われるにょ。
しかし、実際に次世代機を発表しているのは任天堂の携帯ゲーム機「ニンテンドー3DS」
だけに止まっているにょ。(任天堂は東京ゲームショウには出展しないため3DSの詳細は
9月29日開催の「任天堂カンファレンス2010」で発表されると思われる)
これは開発コストの増大でプラットフォームの寿命が延びた(伸ばさざるを得ない)と
いうのもあるし、それを見越してSCEは「PS Move」、MSは「Kinect」のような新しい
インターフェイスを導入しようとしているわけだからね。(世代交代が間近なゲーム機
ならば多くの開発費や宣伝費をかけてそんなことはできない)
一時期流行った言い方をすれば「プレステ3 ver.2.0」「Xbox 360 ver.2.0」になったと
いうことになるにょ。
そういうことで今はコンシューマゲーム機にとっては世代交代前の衰退期ではなく成熟期
であると言えそうにょ。
ゲーム市場全体で言えば衰退どころか拡大傾向さえあるけどそれを支えているのが
ソーシャルゲーム市場とスマートフォン用アプリ市場にょ。
特にソーシャルゲームは前年比7.5倍ということで非常に大きな伸びを見せているけど
ここではスマートフォン用アプリについて書いてみるにょ。
スマートフォン用アプリだとiPhone(iOS搭載機)がやはり最も優れているのではないか
と思うにょ。
TGS2010でもiPhone用アプリとして単独ステージが設けられているくらいだしね。
http://game.watch.impress.co.jp/docs/news/20100919_395238.html
国内大手ゲームベンダーもiPhone用アプリに力を入れているというのが分かるにょ。
さて、iPhone(iOS搭載機)がAndroidをはじめとする他のスマートフォンよりも優れて
いるかというと下記の2つの点が大きいと思われるにょ。
(1)プラットフォームの安定性
(2)App Storeによる流通
(1)確かにスマートフォンにおいてAndroid OS搭載機は最近非常に増えておりアナリストも
2012年にはシェアがiPhoneを超えると予測されているけど問題はシェアが大きくてもパイが
大きいといとは限らないということにょ。
それはPCで考えてみると分かりやすいにょ。
2009年のPC出荷台数は国内だけでも約1300万台、世界では約3億台となっているにょ。
それならPC向けのゲームを作れば国内1300万台、世界3億台がパイの大きさ(というか
前年までに出荷されている数を合わせるとその数倍)となるかといえばそうではないと
いうことが分かるにょ。
すべてのPCがゲーム用として使われるわけではないというのもあるけどそれ以前の問題
としてその中で FF14が快適に動作するPCが一体どれだけあるかということを考えた場合
「ゲームプラットフォームとしてのPC」のパイの大きさはそれほど大きくはないという
ことが分かると思うにょ。
そのような観点からAndroid OS搭載機を見てみると確かに多くの機種が発売されており
トータルの台数でiPhoneを抜くとしても機種毎の仕様の違いが大きいという問題がある
ためゲーム用プラットフォームと考えた場合には成功しにくいにょ。
一定以上のスペックを求めるとPC向けのFF14のように動作可能機種が減るためにいくら
そのOSを搭載した機種が多く出荷されていてもパイはそれほど大きくはないにょ。
それならば低スペックに合わせるという方法もあるにょ。
それはPCでいえばネットブック専用ゲーム(ネットブックに最適化されたゲーム)を
作るというのと同じようなものにょ。
ネットブックの場合は仕様がほぼ統一されているので動作確認の心配は要らないという点に
おいては3月16日にも書いたように「ネットブック専用」とすることで売りやすくなるけど
それでビジネスとして成功するかというと別問題にょ。
それなのにその仕様さえ異なる低スペックAndroid OS搭載機ではネットブック専用ゲーム
よりもさらに成功は難しいにょ。
それに低スペック端末用ゲームではハイスペックな端末においてはせっかくのスペックを
活かすことが出来ないばかりかそれに搭載のハードウェア(各種センサーなど)の機能も
活かすことが出来ないという問題があるし、さらに言うと動作確認も非常に大変になって
くるにょ。
PCであれば無数に存在するため「動作スペックを満たしているすべての機種で動作確認」
ということは不可能だけどスマートフォン用アプリで数種類の機種で動作確認を済ませる
だけというのもさすがに問題となるにょ。
そのためパイを広げようとする(より多くの機種で動作するようなアプリを作ろうとする)
ならば動作確認の手間(コスト)だけでも非常に大きなものとなってしまうわけにょ。
ケータイアプリにおいてもiアプリは基本的に世代ごとで大きな仕様変更はあるというのは
分かると思うけど端末毎にも仕様の違いが大きく同じ世代の機種でありながら同じアプリで
動作する機種としない機種が存在するにょ。
それは国内の限られたベンダーしか出荷してないから「動作の可否」というのは簡単に
分かることだけどワールドワイドで多数存在するAndroid端末でそれはベンダー側で把握
するというのは上記のように非常に難しいものとなっているにょ。
もっともOSのバージョン、CPU、GPUの種類、メモリ搭載量の違いで粗方動作するかどうかは
分かるため必ずしもすべての機種で動作確認をする必要性はないのだけどPCのように単純に
スペックで動作の可否を購入前にユーザーに知らせるという方法はスマートフォンでは
難しいにょ。
PCとは異なりそのスマートフォンに搭載されているCPU、GPU、メモリなどは知る方法は
ないし、知ったところでPCのように拡張する方法もないからね。(PCでも普通にできる
拡張はメモリ程度であり、GPUははデスクトップPCでのみ可能)
これがフリーウェアならばあきらめがつくけど有料アプリで買ったけどまともに動作
しないというのではさすがにユーザーも納得がいかないためAndroid搭載機はゲーム
ベンダー視点からゲーム用プラットフォームとしてみると魅力を感じないのではないか
と思われるにょ。
それではiPhoneはどうかというとiPhoneは同じ世代であれば仕様は1つしか存在しない
からね。(フラッシュメモリ搭載量の違いがアプリの動作に与える影響は皆無であるため
ここでは同一機種と見なす)
そんな同一機種が年間1000万台単位で出荷されているにょ。
これは他のスマートフォンでは考えられないレベルにょ。
それだけ売れていてもiPhone 4専用だとパイが小さいと考え、3G、3GSでも動作する
アプリを作ろうとしても動作確認は3機種で行えば済むにょ。
これは8月9日に書いたようにiPhoneは垂直統合の強みといえるにょ。
これによって動作の心配をすることなくハードウェアの機能をすべて使ったアプリを
ベンダーは提供できるようになるにょ。
標準搭載の機能をフルに使えるというのは非常に大きなメリットとなるにょ。
iPod touchでも従来はカメラを搭載していなかったためにカメラを使うことを前提にした
アプリは動作しなかったけど新型touchではカメラを搭載したためによりパイの大きさが
広がったといえるにょ。
しかし、Android OS搭載機では仕様だけではなく搭載している機能も端末ごとに異なる
ものとなっているにょ。
これのためAndroid OS搭載機で行うならば例えばXperiaの性能・機能をフルに発揮させれば
事実上のXperia専用ソフトになってしまうにょ。(でないと、そのセンサーが有っても
無くても動作するようなゲームを作る必要がある)
したがって、いくらトータルでAndroid OS搭載機が増えてもゲームプラットフォームの
安定度としてはiPhone(iOS搭載機)の方が勝るといってもいいと思われるにょ。
(2)問題となるのはアプリの流通方法と課金方法にょ。
Android OSの場合はAndroid Marketで主に流通しているにょ。
iPhoneの場合はアップル社の認証アプリしか基本的にインストールできないためすべての
アプリがApp Storeで提供されているけどAndroid OSではそのような縛りはないため
Android Marketではすべてのアプリが公開されているとはいえないにょ。
それにAndroid Marketそのものが使い勝手が良いものではないために国内のキャリアも
独自のAndroid用アプリの販売方法をとっているにょ。
これには課金方法も大きく絡んでくるにょ。
iPhone用アプリにしろAndroid用アプリにしろ販売金額の3割が販売委託料として胴元に
支払われる(アプリ制作側には販売価格の7割が手に入る)という感じになっているの
だけどユーザーからどのようにしてそれを支払ってもらうかが重要になるからね。
ケータイ用アプリ(コンテンツ)が国内において大きな発展を遂げたのは日本において
ケータイはキャリア主導であるということが大きいにょ。
これは「ガラパゴスケータイ」などと言われて批判する人もいるけどこういう方面から
考えると発展に大きく貢献しているにょ。
キャリアがコンテンツプロバイダ(アプリベンダー)から代行してユーザーに対して代金を
請求し、その代金はキャリアに支払われる基本料金とまとめて支払うことができるため
支払いのためのハードルは極めて低いものとなっているにょ。
スマートフォンにおいてもそれと同じようなことをやろうとしているにょ。
自由度が極めて高いのがガラケーとは異なるスマートフォンの利点なのだけど「自由
すぎる」というのは市場形成において必ずしも良いこととはいえないというわけにょ。
特にガラケーからスマートフォンへと移行した人であればそれはより大きく感じると
思われるにょ。
アップル社がキャリアから独立して課金システムで成功しているのはiTunes Storeからの
実績があるからにょ。
支払い方法もAndroid Marketのようにクレジットカードオンリーではなくプリペイド
カードによっても可能ということで支払いのハードルも低いからね。
この課金問題もあるせいかAndroid用アプリにおいて無料アプリが占める割合は60%と
なっているにょ。
それに対してiPhone用アプリは無料アプリは20%となっているにょ。
http://jp.techcrunch.com/archives/20100303mobclix-compares-android-and-apple-android-devs-more-likely-to-give-their-work-away/
無料アプリが多いならそれはユーザーにとっては良いことだけどゲームベンダーにとって
良いこととはいえないにょ。
それは「無料が当たり前」という認識が大きいからにょ。
昨日書いたように「ネット上の情報は無料」というのが大多数の考えだろうけどそれが
ある故にネット上の情報の有料化はしたくでもなかなかできないというのが企業側の考え
ではないかと思われるにょ。
有料化しても十分に収入が望めるようなコンテンツであれば有料化に踏み切るだろうけど
閲覧者減少による広告収入の減少を考えると有料化は必ずしも良いということではない
ということにょ。
これは9月13日にも書いた「フリーの法則」で記されているように5%程度の人が有料
サービスを利用してそれで賄えるようなシステムを作る必要があるからにょ。
要するにお金を払うに値するアプリを作れば良いだけの話とはいえ、ユーザーの認識を
変えるのは容易ではないし課金方法や流通方法を考えるとiPhone用アプリではなくAndroid
用アプリを選択するメリットは何もないにょ。
App Storeにさえ登録しておけば課金問題もないし、そこ1カ所ですべての流通を抑える
ことができるから手間だけではなくコスト削減にも繋がるにょ。(ダウンロード販売では
なくリアルの商品で考えるとメーカーと販売店とで個別の契約を結び独自に流通経路を
増やしていくというのはいかに手間とコストがかかるかが分かると思う)
iPhone用アプリにおけるApp Storeからしか供給されないという縛りはゲームベンダー側
からすると逆にメリットになるというわけにょ。
国内においてはすでにケータイアプリでダウンロード販売によるアプリは一定の支持を
獲得しているにょ。
しかし、それは上記のように国内ではキャリア主導であるため課金システムが確立して
いたというのが最大の理由となっているにょ。
ただし、近年スマートフォンの普及によってそのケータイアプリ市場というものが微妙に
なってきたにょ。
キャリア側からすると今までケータイアプリの支払い代行で得ていた収入が無くなると
いうのも大きいし、ゲームベンダー側からすると今度は市場全体が縮小傾向にあると
いうことで積極的にアプリ提供するのが難しくなってきているにょ。
性能アップにしたがい開発費も増大しているしね。
そのためガラケーではその性能を活かしたアプリというのは皆無になってきているにょ。
それならばスマートフォン用アプリを作れば良いにょ。
ガラケー用とは異なり、スマートフォン用アプリであればワールドワイドの展開が可能で
あるため開発費が増大してもその投資分を回収できる可能性は大きくなるからね。
実用アプリとは異なりゲームであれば言葉の壁を越えることは難しいことではないにょ。
現状でゲーム用プラットフォームとして優れているのはAndroidとiPhoneだけど上記の
ようにiPhoneの方が優れている面が多いためゲームベンダーはiPhone用アプリに力を
入れているのだと思われるにょ。
iPhone/iPadを 持ってないけど調べてみた
iPhone/iPadアプリを作るには macが必要みたい
もちろん iPhone/iPadも必要だけど 公開にも金がかかるらしい
http://www.atmarkit.co.jp/fwcr/design/tool/iphonesdk01/01.html
http://www.atmarkit.co.jp/fwcr/design/tool/iphonesdk02/01.html
http://www.atmarkit.co.jp/fwcr/design/tool/iphonesdk03/01.html
http://journal.mycom.co.jp/column/iphone/001/index.html
http://iphone.longearth.net/2008/12/25/iphone%E3%82%A2%E3%83%97%E3%83%AA%E9%96%8B%E7%99%BA%E3%81%AB%E5%BF%85%E8%A6%81%E3%81%AA%E3%82%82%E3%81%AE/
アプリ
http://d.hatena.ne.jp/moto_maka/20081118/1226953067
http://liv0.com
K-5 vs D7000 最強中級機はどっち?
ペンタックスから中級機となるデジタル一眼「K-5」が発表されたにょ。
http://dc.watch.impress.co.jp/docs/news/20100921_395252.html
先日ニコンから発表されたD7000と同じランクに相当する製品にょ。(発売当初の予想実売
価格も同じく約14万円だしね)
キヤノンEOS 60Dは同じ中級機(っぽい)デジタル一眼だけどそれらとは若干ユーザー層が
異なるカメラにょ。(価格やスペックから分類すると中級機だけどメーカー側は入門機の
上位機種として掲げている)
60DはD7000と比べると確かにスペックで劣る面があるけど「1万円程度安い」というのは
メリットにょ。
一眼レフの場合はレンズが資産になってくるため「このカメラはいい」といっても簡単に
買えるのは最初の1台のみにょ。
予算が非常に多く複数のマウント用のレンズを購入できるのであればカメラ本体だけを
見て選択してもいいけど使い続けてレンズが増えてくるとそのレンズ活かすかカメラを
変えてレンズも新しく購入するかの二択を迫られてくるにょ。(新しいカメラを買っても
自分が良く使うレンズが無ければ結局使う機会が限られてくるためカメラ本体だけでは
なくレンズの予算も考慮しないといけない)
私の場合は現在ニコンD50、ペンタックスK200Dを使っている関係上これらのメーカーで
あれば問題ないにょ。
逆にキヤノンの場合はレンズをすべて買い直す必要があるにょ。(とはいっても、私は
安物レンズしか買ってないので買い直すのは難しくないけどそれでもコスト的に小さい
ものではない)
私はキヤノンの一眼レフではMF時代のFDレンズなら持っているけどAFの(銀塩時代の)
EOSからマウント変更となったために「キヤノンに縛られる必要がない」ということで
デジタルではキヤノン以外を使ってみたくなったにょ。(同スペックではキヤノンの
本体の方が高価だったのも理由だけど)
この度発表されたK-5がいいか、D7000がいいかというのはペンタックス&ニコンの両方を
使っているユーザーならば強く感じているだろうけどではどの程度の違いがあるかを
まとめてみたにょ。
K-5 D7000
(1)画素数 1628万画素 1620万画素
(2)最高感度 通常ISO12800(拡張51200) 通常ISO6400(拡張25600)
(3)手ぶれ補正 ボディ内蔵(センサーシフト) レンズシフト
(4)動画撮影 フルHD 25fps(Motion JPEG) フルHD 24fps(H.264)
(5)防塵防滴 有り 有り
(6)ファインダー視野率 約100% 約100%
(7)AF測距離点 11(9点クロス) 39(9点クロス)
(8)シャッター速度 最高1/8000(X接点 1/180) 最高1/8000(X接点 1/250)
(9)連写速度 7コマ/秒 6コマ/秒
(10)記録メディア SD/SDHC(※SDXC) SD/SDHC/SDXC/ダブルスロット
(11)重量 660g 690g
では、それぞれについて書いてみるにょ。
(1)画素数は少し前までならば「APS-Cは1200万画素がベスト」と私自身も思っていたにょ。
ニコンもそう考えていたのか頑なに1200万画素を死守してきたからね。
というか、APS-Cの2倍のセンサーサイズであるフルサイズセンサーにおいても1200万画素
というのはさすがに高感度画質を重視しすぎという面もあったけど・・・。
1200万画素というのは300dpiならばB4サイズ、250dpiならA3サイズでプリントできるため
個人が使うのであれば十分な画素数を持っているにょ。
あと画素ピッチが5.5μmであるため単純に回折限界を計算した場合にF11まで使えると
いうのも大きいにょ。
とはいえ、コンデジのように1μメートル台の極小ピッチセンサーとは異なりセンサー
性能の向上によって高画素化の余地は大きくなったにょ。
そのため需要がある高画素化が進むのは当然の成り行きであり、自前でセンサーを作って
いないメーカーの場合はその需要の流れに乗っかるのは仕方がないにょ。
自前でセンサーを作れるキヤノンやソニーが高画素化の道を歩んでいるわけだしね。
K-5もD7000も恐らくソニー製センサーだからセンサー自体の基本性能は同等だと思うにょ。
(2)最高感度だけでは善し悪しは判断できないけど個人的にはISO3200でそこそこ使える
レベルであれば全く不満はないにょ。
ニコンのフルサイズセンサー搭載のプロ機「D3s」が最大感度ISO102400というのが話題に
なったけどむしろISO6400でもそこそこ使える画質というのが私にとって魅力だったにょ。
D3sが登場して1年間のセンサー性能の向上を考えればフルサイズの半分弱のサイズで
ISO3200がそこそこ使えるレベルになるというのは別に高いハードルでも何でもないにょ。
拡張設定による最大感度はあくまで飾りにょ。
D3sのISO102400でもコンデジで撮影したISO3200の写真のようにそれ単体ではとても
実用になる画質ではないにょ。
しかし、ISO102400だからこそ撮れる被写体があるのも事実にょ。
月明かりがあれば明るい単焦点レンズを使えばノンフラッシュでの手持ち撮影も可能に
なるレベルだからね。
これはISO3200とは別次元にょ。(最大感度ISO100の時代にISO3200で撮影できるのと
同じわけだからね)
ペンタックスはサムスン製のセンサーを搭載していた時代は「高感度に弱い」という
イメージだったけどK-xでソニー製センサーを採用し瞬く間に業界トップレベルになった
ため今回のK-5もかなりの期待が持てそうにょ。
というわけで、K-5とD7000で優劣を付けるならばセンサー自体の性能は互角でもK-5の
方が上かもしれないにょ。(これはあくまで現時点の予想だけど)
(3)手ぶれ補正機能は今となっては当たり前の機能だけどメーカーや機種によって手ぶれ
補正機能がボディ内にあるのきあレンズ内にあるのか異なるにょ。
ペンタックスは基本的にボディ内、ニコンはレンズ内にあるにょ。
どちらが有利かは用途次第だけどどのようなレンズを買っても手ぶれ補正が効くボディ
内蔵タイプ(センサーシフト方式)の方が私は便利に感じるにょ。
確かに望遠レンズの場合は手ぶれ補正がレンズ内にあった方がファインダーが安定する
ためにレンズシフト方式の方が望ましいのだけどセンサーシフト方式の機種であっても
レンズシフト方式のレンズは使用できるにょ。
つまり、手ぶれ補正の選択の余地があるわけにょ。
(4)デジタル一眼においてついてて当たり前の時代になりつつ動画撮影機能だけど今と
なってはAF対応、フルHD撮影可能というのも標準化しつつあるにょ。
スペック的には両者互角・・・といいたいけど根本的な違いは使用コーデックにょ。
編集を考えるとMotion JPEGの方が対応ソフトが多いし、PCに要求されるスペックも低く
なるといいことだらけとはいえ、さすがにフルHDでMotion JPEGはSDカードの記録速度や
FAT32の制限(1ファイル最大4GB)を考えると望ましいものではないにょ。
将来的には高速、大容量なSDXCカードが安価で手に入るだろうから問題ないけど現時点では
フルHD撮影を行うならばD7000などに使われているH.264の方が良いのではないかと思うにょ。
(5)防塵防滴に関しては有無だけではなくどれだけのものかというのとレンズの対応面の
問題も重視する必要があるにょ。
中級機であれば防塵防滴はあって当たり前ともいっていい機能だけどその機能はプロ機に
ついているものと比べて大きく劣るにょ。
とはいえ、防水機能のようにJIS何等級という基準はなく自社基準でしかないにょ。
あくまで「防水」ではなく「防滴」であるため水没した場合には十分な効果は得られない
わけだからね。
ペンタックスの場合はK-7で小型軽量ながらK20Dで培われた高い防塵防滴機能を搭載して
いたにょ。(入門機でさえ、K200Dで防塵防滴を取り入れていたくらいだし)
そしてやはり大きいのは簡易防滴機能を搭載したWRレンズを標準化したことにょ。
D7000発表時にも書いたことだけど防塵防滴というのはボディのみに搭載していてもあまり
意味があるものではなくレンズとセットになって初めて効果を発揮するにょ。
レンズのみ雨濡れ対策をしてボディは雨ざらしということは普通はないため結局ボディが
防塵防滴対応だったとしてもレンズとセットで雨濡れ対策をせざるを得ないからね。
そういった環境下でも撮影しなくてはならないプロカメラマンのためにプロ向けとも
言える高価なレンズは各社とも防塵防滴対応しているにょ。
しかし、安価なレンズ、特にレンズキットとしてセットで販売されているレンズは
普通は防塵防滴には対応していないにょ。
そんな中、ペンタックスは対応しているためボディの防塵防滴が活きてくるにょ。
(6)ファインダー視野率に関しては視野100%はフラッグシップ機、プロ機の特権だった
けれど最近は増えつつあるにょ。
この度の両機種も視野率約100%だけど(EOS7Dのように)大きな誤差がある場合もない
わけではないため本当に100%かどうかは発売されてみないと分からないにょ。
ということでこれは互角と見なすにょ。
(7)測距ポイント数だけで見るとD7000の圧勝だけど実際に使ってみると11点でもそれほど
不満を感じることはないにょ。
実際私自身K200Dの11点測距で困ったことはないからね。
これがD50の5点測距になるとフレーミングの自由度は大幅に下がるためさすがに十分とは
いえなくなるにょ。
ここではポイント数だけではなくAF速度も加味しようと思うにょ。
とはいえ、現時点では情報に乏しくどちらが優れているという判断は付きにくいにょ。
確かにK-5はメーカーの謳い文句であればK-7と比べて大幅改善されたみたいだけどK-7の
時点でキヤノンやニコンと大きな遅れをとっていたためそれが詰め寄ることができたか
どうかというレベルではないかと思われるにょ。
しかし、「ペンタックスはAFが遅い」というのはペンタックスがボディ内モーターに
よってレンズのAF動作をしているというのも原因となっているにょ。
やはり、レンズに合わせて最適設計ができるモーター内蔵レンズの方が速度面において
有利なのは確実だからね。(とはいえ、レンズ内にモーターを内蔵していれば速いという
わけではなくあくまで一般論としての話だけど)
私が使っているD50はK200Dと比べて3年も古い機種でありながらAF速度では圧倒的に
K200Dより速いのは私がD50で普段使っているAF-S18-135mmが超音波モーター内蔵という
のが非常に大きいと思うにょ。
ペンタックスは手ぶれ補正にしろAF駆動にしろボディ内に拘っていたためレンズ内に内蔵
されているものはほとんどないにょ。
しかし、この度、K-5では本体セット用レンズとしてAF駆動用モーター内蔵のものが発表
されたにょ。
http://dc.watch.impress.co.jp/docs/news/20100921_394640.html
このDA18-135mmはフルサイズ換算だと28-200mmに相当する非常に使い勝手のよいレンズ
といえるにょ。
私自身普段D50で同じ焦点距離のズームレンズを使用しているけど普段撮影している
被写体の9割以上がそのレンズ1本でカバーできるからね。
135mm(換算約200mm)で足りないという場合は滅多になくその場合は換算400mm以上が
欲しくなるため結果的には1本でカバーするのが難しくなるにょ。18-270mmならば換算
400mmまでカバーできるけどレンズそのものが大きくなるし画質にも難があるにょ。
とはいえ、ペンタックスにおいてモーター内蔵のレンズのレンズは選択肢に乏しいのは
事実であり、やはりAF速度面においてはD7000には及ばないと考られそうにょ。
(8)シャッター速度は中級機では最近は最高1/8000秒が当たり前となってきているけど
その点においては両者とも互角にょ。
しかし、フラッシュ同調速度においてはやはり1/180と1/250では1/2段差がありこれは
明確な差といっても良いのではないかと思われるにょ。
(9)連写速度に関しては入門機のスペックが底上げされたせいか中級機も最近は大幅に
スペック向上しているにょ。(唯一前機種よりダウンしたのがEOS 60Dくらい)
連写速度が速ければ良いというわけではないけどフィルム1本で24〜36枚しか撮影できない
銀塩一眼とは異なりデジタル一眼では枚数をあまり気にすることなく撮影できるため速いに
越したことはないにょ。
問題はそこまでの実際の撮影においてそこまでの速度が出せるかどうかということと
バッファメモリの関係で連続撮影可能な枚数が決まってしまうということにょ。
従来であればペンタックスはAF-Cでもピント優先であったため5.2コマ/秒のK-7も実際は
1〜2コマ/秒でしか撮影できなかったけどK-r、K-5ではレリーズ優先が選択できるように
なったため(ピントが合っているかどうかは別として)連写性能は大幅に向上していると
思われるにょ。
(10)K-5は今の時期に登場しながら標準でSDXCに対応していないというのが難点にょ。
ファームアップでSDXCに対応予定とはいえ、高速転送のUHS-Iに対応しているかが問題にょ。
D7000ではUHD-Iに対応しているためSDXCカードではフルスピードで転送可能だし、SDHCも
高速転送のUHS-Iに対応しているものであればSDXCと同様に高速転送が可能になるにょ。
高速転送が可能になるということはバッファフル状態から開放されるまでの時間が少なく
なるだけではなバッファがフルになるまでの枚数も増える可能性が高いにょ。
その上、D7000はダブルスロット搭載で例えばRAW+JPEGではそれぞれ別メディアに書き込む
ということも可能だろうから書き込み待ちの時間はかなり緩和されていると予想され
これに関してはD7000の圧勝となるにょ。
(11)重量は両者の差は30g・・・ということでこれは体感できる差ではないため互角と
するにょ。
さて、全11項目において現時点で分かっている情報を元にK-5とD7000とで主観的な観点で
優劣を付けてみたけどその結果K-5の成績は(1)から順に△、○、○、×、○、△、×、×、
○、×、△(○:勝ち、×:負け、△:引き分け)、4勝4敗3引き分けでこの勝負は
引き分けに終わったにょ。
D7000はD90と比べて大幅なスペックアップがあり、このクラスでは最高と思われたけど
K-7は元々スペックだけは高かったためD7000ほどのインパクトはないけど十分にハイ
スペックということが分かると思うにょ。
もっともこれは私の個人的判断を元にしているため人によって大きく評価が分かれる
部分があるだろうし、D7000が圧勝している項目があるけどK-7がそこまで圧勝している
部分というのがない(強いて挙げるならば手ぶれ補正くらい)ために勝敗制ではなく
ポイント制にすればD7000が勝っていたかもしれないにょ。
個人的にはK-5、D7000のどっちを勝っても後悔することはないとは思うけどやはり
カメラである以上はどのような写真が撮れるかということが重要であり、それに対して
考慮する必要があるにょ。
個人的にはペンタックスの絵作りは好きだし、ファインシャープネスがなかなかすごい
ためK-5は魅力に感じるにょ。
ファインシャープネスは普通のシャープネスと比べ輪郭線が不自然に強調されずそれで
いてシャープになっているにょ。(ちょっと違うけど超解像に近い感じ)
K-7ではそれを改良したファインシャープネス2が搭載され、K-5ではそれをさらに改良
したエクストラシャープネスがどんなものかが楽しみではあるにょ。
しかし、ペンタックスを使ってみてAFの遅さとレンズの入手性の悪さも実感できたにょ。
K-5でそれが大幅に改善されていたとしても(7)で書いたようにまだまだキヤノンやニコンと
比べて大きな差がありそうな気がするにょ。
レンズも地方だと店頭にほとんど並んでないため取り寄せが基本となるにょ。(当然ながら
取り寄せの場合は安価で入手するのが難しい)
中古やジャンクでオールドレンズを買うというのも1つの方法(ペンタックスの場合は
MF時代のレンズであっても制限なく使用可能)だけどそれはあくまで趣味的なものであり
そのカメラの性能を活かすことはできないにょ。
そういうペンタックスの弱点を考えるとD7000と心が動いてしまうにょ。
あとは実売価格次第にょ。
両者ともにスタート時の予価は14万円(量販店で12万円台)とされるので私が買うであろう
1〜2年後の価格が購入する際の大きな分かれ目になるかもしれないにょ。
マリモーマさんへ
>iPhone/iPadアプリを作るには macが必要みたい
>もちろん iPhone/iPadも必要だけど 公開にも金がかかるらしい
登録料がかかるのは仕方がないとはいえ、やっぱり作るのにMacが必要という段階で
個人的にはかなり辛いにょ。
わざわざアプリ制作のためだけにMacを買おうとは思わないからね。
やはり、自分で作って気軽に公開したいという人はiPhone(iOS搭載機)ではなく
Android OS搭載機の方がいいかもしれないにょ。
APS-Cで4600万画素をついに実現!?
フォトキナが開催・・・ということで連日書きたいネタがたくさんありうれしい悲鳴を
挙げているにょ。
それらを全部書き連ねてもいいけど別に新製品を紹介するサイトにするつもりは全くなく
私が感じたことをそのまま書くというのが本来の目的であるため本当に書きたいもの
だけを厳選することにするにょ。
シグマが防塵防滴ボディの「SD1」を発表したにょ。
http://dc.watch.impress.co.jp/docs/news/20100921_394996.html
あくまで開発中ということであり、発売は恐らく来年以降になるのだけどぶっ飛んだのは
そのスペックにょ。
何とAPS-Cサイズのセンサーを搭載しながら「4600万画素」だからね。
とはいえ、これはRGB三層構造になっているFoveonセンサーを搭載しているということで
三層を別々の画素として計算しているため4600万画素といっても4800×3200ピクセルに
過ぎないにょ。
したがって、一般的な画素数(ピクセル数)でいえば1536万画素となるにょ。
1536万画素といえば「普通」と感じてしまうの最近発表されたデジタル一眼が軒並み
1400〜1600万画素であることが大きいと思われこれはは昨今の高画素化がもたらしたもの
だといえるにょ。
ただし、画素数で解像感を比較できるのはセンサーサイズとセンサー構造が同じ場合に
限られるにょ。(無論レンズ性能も重要だけどそれは別に考える)
1/2.33インチセンサー搭載のコンデジとAPS-Cセンサー搭載のデジタル一眼とで同じ
1400万画素であれば同じような解像感になるというものではないからね。
あと解像感に大きく異なる原因となっているのはセンサー構造の違いにょ。
一般的なデジカメはRGGBのベイヤー配列のセンサーが採用されているにょ。
各画素は輝度情報しか持っておらずそれをフィルターを通すことでR、G、Bいずれかの
色情報へと変換され、周囲の色情報を元にRGBフルカラーの画像を生成しているにょ。
このためできあがった写真(JPEG画像)はベイヤー配列を意識する必要はないのだけど
ベイヤー配列であるが故に偽色や偽解像が発生しやすくそれを軽減するためにローパス
フィルターを装着して意図的に解像感を落としているにょ。
詳しくは3月17日に書いたのだけどこのために1200万画素のセンサーで1200万画素を
ピクセル単位で解像するのは不可能であり、それが数分の1まで落ちてしまうにょ。
ローパスフィルターの強さも異なるため一概には言えないけど実効解像力はセンサーの
画素数の2分の1〜4分の1程度になってしまうにょ。
つまり、1ピクセルでRGBすべての色情報を持つセンサーでローパスフィルターを使用して
いなければベイヤー換算だと実質解像力は2〜4倍になるということにょ。
これは実際の撮影サンプルを元に私が感じた結果だけどベイヤーの場合はR、Bの画素数が
全体の画素数の4分の1、Gは2分の1しかないことからも裏付けられているにょ。
さて、1画素でRGBの色情報を持つセンサーといえばやはり有名なのはFoveonセンサー
だと思うにょ。
このセンサーを搭載のデジカメはコンデジタイプのDP1、DP2、一眼レフタイプのSD14、
SD15がシグマから発売されているけど現行の機種は460万画素しかないにょ。(460万画素
であっても三層であるためスペック上は1400万画素となる)
それを考えると460万画素のセンサーというとしょぼい気がするけど1画素でRGBすべての
色情報を持つためベイヤー換算だとその2〜4倍の画素数を搭載した機種と同レベルに
なるにょ。
900万〜1800万画素となるけど比較をすればさすがに1800万画素搭載のEOS 7Dとかと比べて
負けることが大半であるため「4倍」はベイヤーにとってはワーストケースといえるにょ。
460万画素のFoveonセンサー搭載機は4倍の1800万画素ベイヤー機には(解像感で)勝て
ない場合が多いとはいえ2倍の900万画素のベイヤー機には多くの場合において勝っている
と感じているのでスペック上の1400万画素は決して伊達ではないといえるにょ。
もっとも「ベイヤーの○倍の性能」というのは被写体によって大きく変わってくるため
どんな場合でも成り立つものではない(片方に都合の良い条件で撮影すれば簡単に覆る)
のであくまで参考程度にとどめておく方がいいにょ。
それを元にこのSD1の1536万画素(三層構造で4600万画素)を考えてみるとベイヤーで
このセンサーと同レベルの解像感を得るためには最低でも2倍の3000画素以上はないと
話にならないだろうし、3倍の4600万画素程度は必要になるにょ。
APS-Cで現在最高画素数なのは1800万画素のEOS 7D/60D/Kiss X4だけど3000万画素や
4600万画素というのがいかに途方もないものかが分かるにょ。
それでも「将来的には達成できるのでは?」と考えている人がいるかもしれないにょ。
確かにセンサー性能はどんどん上がっているため高画素化はまだまだ可能なのだけど
問題はそのセンサー性能にレンズ性能が付いてこないということにょ。
デジタルの性能アップに比べてアナログ(光学系)の性能アップは微々たるものである
ため無意味な高画素化はコンデジのような「(解像しないため)画素数アップは
ファイルサイズアップになっているだけ」というような状況になってしまうにょ。
それに回折限界という物理的な限界はどうしようもないからね。
APS-Cセンサーで4600万画素であれば単純計算ではF5.6で回折限界になるにょ。(1/2.33
インチ1400万画素の極小ピッチのコンデジであればF2.8で回折限界となるけど望遠側で
F2.8より明るい機種なんて皆無であるためどれだけ高性能なレンズを搭載してももはや
解像するのは不可能になる)
一般的なズームレンズであれば絞り解放で収差の全くないパーフェクトなレンズである
必要があるにょ。
しかし、そんなものは存在しないし、今後も登場することはないにょ。
F2.8クラスのレンズであれば多くがF5.6付近でピークを迎えるものがあるけどF2.8
ズームが標準化することはありえないにょ。
現状の1800万画素でさえすでにレンズを選んでしまうものになっているのに4600万画素
まで画素数が増えてしまうと「縮小前提」と考えないと使えないものになるにょ。
しかし、1536万画素のSD1であればベイヤーで3000〜4600万画素クラスの解像感を持つと
考えられるけどレンズに求められるのは1536万画素となるにょ。
これは1800万画素のEOSよりは要求スペックは低いので何とか実用の範疇に収まるにょ。
ただしFoveonセンサーには4月9日に書いたような4つの問題点があるにょ。
(1)色分離が不完全
(2)高感度に弱い
(3)小型化しにくい
(4)シグマの開発力の問題
恐らくこれらの問題はこのSD1においても当てはまると思われるにょ。
(1)の色分離は長年同じセンサーを使い続けることで徐々に改善されてきたため最新機種
ではそれほど気になるレベルにはなってないけどこのSD1には再び新規設計のセンサーが
採用されているためこの問題が再び浮上しそうにょ。
(2)の高感度性能に関してもベイヤーに対して解像感で優れる反面、3層構造であることが
感度に対してネックになっているし、ベイヤーセンサーの場合はソニーは毎年のように
前年比で性能がアップしたセンサーを発表しているけどシグマはそんなことはできない
ため徐々に高感度特性を上げたものを作るというのは難しいからね。
確かに460万画素(三層で1400万画素)のFoveonセンサーを搭載したSD14は2006年に登場
したときはすごかったにょ。
2006年当時はEOS 30D(820万画素)、Nikon D80(1020万画素)が最新機種だったからね。
460万画素のFoveonセンサーでもその2〜3倍の画素数のベイヤーセンサー並の解像感が
得られるため当時の最新のベイヤーセンサー搭載機よりも解像感では優れていたにょ。
しかし、4年間Foveonセンサーのの進化が止まっているのに対してベイヤーの進化はずっと
続いていたのでその状況は変わったにょ。
1600万〜1800万画素のベイヤーセンサー搭載機と比較して460万画素のFoveon搭載機を使う
メリットはなくなってしまったにょ。
確かに等倍鑑賞では依然として優位性は変わらないけどベイヤーセンサーの場合は画素数が
多い分だけそれをリサイズすればいいし、最初から少ない画素数で撮影することで良好な
結果が得られることもあるにょ。
ペンタックスのK20Dから搭載された「ファインシャープネス」は解像感アップに貢献
しているけど「ファインシャープネス」を設定して1400万画素のK20Dを600万画素で撮影
するとFoveonに負けないくらいのピクセル単位で解像可能になるにょ。(通称名
「なんちゃってFoveon」)
私が使っているK200Dは元が1000万画素であるため「ファインシャープネス・600万画素」
であってもK20Dほどではないにしろ等倍鑑賞をしてもFoveonと比べてそれほど劣って
いるようには感じないにょ。
とはいえ、この1536万画素の新型Foveonセンサーによって再び大きくFoveonの評価は変わる
のではないかと思うにょ。
しかも、今回はベイヤーの画素数の進化が一時期ほど大きくないし上記のように将来的に
考えても難しいと思われるため解像感でこれを超えるようなAPS-Cセンサーは当分の間
(少なくとも4、5年の間)登場しないのではないかと思われるにょ。
そうなるとこのSD1に解像感で勝てそうなのは中判デジタル一眼くらいにょ。
来年にはフルサイズセンサー搭載の機種が一新されるだろうからその際には3000万画素
オーバーの可能性もあるにょ。
APS-Cの2倍以上のセンサーサイズを持つフルサイズセンサーであれば3000万画素でも十分
実用になるだろうけど(ただし、要求されるレンズ性能は極めて高い)それでも1536万
画素のFoveonセンサーに勝つのは難しそうにょ。
ベイヤーセンサーでは現在は中判デジタル並、近い将来に進化した35mmフルサイズ
センサーでようやく互角以上になれるという感じだろうからAPS-Cサイズで1536万画素を
実現した恩恵は非常に大きいにょ。
ただし、問題は一気に3倍以上の画素数増でダイナミックレンジが確保できているのか
とか、まともな発色が期待できるのかというのが懸念材料ではあるにょ。
現在のFoveonセンサーは当初はRAWで細かい調整をしてようやくまともに使えるレベルに
なっていたのが最近になってようやくカメラ内JPEG生成されたものもまともに使える
レベルになっていたからね。
恐らく新開発のセンサーであればまた実用レベルになるまで数年かかりそうにょ。
登場当初はまた同じく「解像感番長」になるのではと予想されるにょ。
しかし、どんな写真が撮れるのか早く見てみたいにょ。
X100はミラーレスカメラに勝てるのか!?
フォトキナで発表されたシグマ「SD1」はびっくりしたけど富士フィルムから発表された
「PinePix X100」もなかなか魅力的なデジカメにょ。
http://dc.watch.impress.co.jp/docs/news/20100922_395566.html
このクラシカルなスタイルは個人的にはかなり興味をそそられるにょ。
しかし、それよりもむしろ中身の方に興味があるにょ。
APS-Cサイズのセンサーを搭載し、EVF、OVF(光学ファインダー)を兼用しているという
点もすごいにょ。
画素数だけなら普通のコンデジでも1400万画素に達し普通の人はまったく不満を感じる
ことが無くなったとはいえ、やはりコンデジで1000万画素オーバーはレンズに対して
完全にオーバースペックであり、センサーが小さいこともあってどうしても暗所に
弱かったり露出コントロールがあまりできないなどカメラ好きな人にとっては物足りない
面も多いにょ。
普通にL判で鑑賞するなら全く問題ないし、絞りのコントロールなんて普通の人には興味が
ないだろうから普通のコンデジでそれほど問題になることはないかもしれないにょ。
とはいえ、やっぱり「コンデジでは物足りない」と感じている人は少なくない(PCで等倍
鑑賞する人が増えているため画素数だけ増えたコンデジは粗が非常に大きいということが
分かるようになった)しそれらの人がデジタル一眼に流れるかというとそのサイズや重量の
問題で一眼レフは敬遠するという人は少なくないのではないかと思われるにょ。
そういう人たちに向けて作られているのが最近流行になりつつあるミラーレスカメラにょ。
古くはライカなどのレンジファインダー機でコンパクトスタイルのレンズ交換式カメラは
発売されていたけどデジタル全盛になってからはファインダー代わりに液晶画面が用いら
れるようになってオリンパスE-P1のようなカメラが登場したにょ。
それ以降はPanasonicのGF1、ソニーのNEX-5/NEX-3が登場し、キャノンやニコンも現在
開発中という噂もあるにょ。
ミラーレスカメラは基本的にデジタル一眼と同じセンサーが使われているにょ。
LX5、GRDIIIなどの高級コンデジは価格が高価であっても標準的なコンデジより1周り大きな
センサー(標準的なコンデジは1/2.33インチ程度なのに対して高級コンデジは1/1.6〜1.7
インチセンサー)を搭載しているもののデジタル一眼と比較すればその差はどんぐりの
背比べ程度になってしまうにょ。
そういう意味では高級コンデジはミラーレスカメラ登場によって厳しい立場に立たされたと
いえるかもしれないにょ。
筐体サイズでは有利ではあるものの性能差を詰めるほどではないからね。
とはいえ、センサーサイズによってはっきりとした性能差が出てくるのは暗所撮影時にょ。
明るい日中の屋外ではセンサーサイズの大きな差ほどは性能差はないにょ。
レンズ一体型ということを活かして専用設計にできる高級コンデジの方がレンズ交換式の
ミラーレスより解像感で有利になるためにょ。(あとイメージサークルが小さいために
レンズの解像力を上げやすいためセンサーサイズほどの差は付きにくい)
さて、その中に登場するのがこの度発表されたX100にょ。
安価なミラーレスカメラが登場前であったらこのような大型センサー搭載のコンデジ
スタイルは多くの人に歓迎されたと思うにょ。
ライカなんて一般人には手の届くような製品ではないわけだしね。
レンズ交換式ミラーレスカメラとは異なり一体型であるためレンズも最適化したものが
搭載可能というメリットはあるもののそれだけではもうインパクトは薄いにょ。
それに大型センサー搭載と言えばシグマのDP1のような機種もあるけど多くの人に受け入れ
られているとは言い難いにょ。(これはシグマというメーカーがカメラメーカーとして
知名度が低いことに加えてある程度知識のある人であるとFoveonセンサーというのが
ユーザーを選んでしまうというのも原因だけど)
X100はレンズ交換ができないということがデメリットになる(広角の単焦点というのは
光学ズームが当たり前の今となってはユーザーを選ぶ)のに筐体サイズもそれほど小さい
というわけではないからね。(換算35mm、F2のレンズを搭載しているということを考えると
悪くないサイズだけど)
これはNEX-5が登場でAPS-Cサイズのセンサーを搭載してもボディは小型化できると証明
されてしまったのが原因にょ。
EP-1がコンパクトなのはAPS-Cの6割のサイズのフォーサーズセンサーだったと思っていた
人が多かったけどそうでは無かったからね。
NEX-5が発売されてしまったためにAPS-Cサイズのセンサー搭載機はそれを基準に考えて
しまうにょ。
そのためX100は筐体サイズ面から考えるとそれほど魅力というわけではないにょ。
X100のNEX-5に対してアドバンテージとなりそうなのはレンズと操作性にょ。
NEX-5は本体が小型化されてもセンサーがAPS-Cサイズということでレンズの小型化は
難しいにょ。
6月4日に書いたように本体の小型化が活かせるパンケーキレンズは性能が芳しくないにょ。
センサーがAPS-Cよりも小型なフォーサーズ(マイクロフォーサーズ)ではレンズを小型化
しても十分な性能が得られそれは5月21日に書いたようにE-PL1の作例を実際に見てみれば
よく分かるにょ。
ズイコーデジタルのレンズが解像力に優れているというのとE-PL1がローパスフィルタが
弱いということもあってAPS-Cセンサー搭載のEOS Kiss X4をも超える解像感を実現して
いるからね。
X100に搭載のフジノンレンズの性能は分からないけどこのカメラに特化したものである
ため相当期待はできそうにょ。
そして最新のAPS-Cセンサー搭載であるため高感度性能も期待できそうにょ。
あと操作性に関してはNEX-5は小型化のためと想定しているコンデジ代替を考えている
ユーザー層に向けたためかほとんどの操作をメニューから選択して行う必要があるにょ。
このため「オート専用」と割り切って使うならば問題ないけど設定を変えながら撮影して
いく人にはとても快適に使用できるとはいえないにょ。
その点、このX100はシャッターダイヤル、絞りリダイヤルまで独立しているというのは
明らかにNEX-5とはユーザー層が異なると感じさせられるにょ。
さて、このX100の一番のウリとなると最初に書いたEVF、OVF兼用ファインダーにょ。
OVF、EVFのどっちが優れているかというと数年前までならOVFがほとんどの面で優れていた
(私が使っていたオリンパスC-730ultraやPanasonic FZ-5のEVFはさすがに良いものとは
言えなかった)けれどEVFの性能向上によって昨今はOVFとの差はかなり縮まったにょ。
それでもまだ「EVFは嫌」という人がいるためかは分からないけどこのX100ではOVFも可能に
なっているにょ。
とはいえ、一眼レフのようなレンズからの透過像ではなく銀塩コンパクトカメラのような
構造という単純なものにょ。
決定的な違いはOVF上にEVFのような各種情報を載せることができるということにょ。
EVFはファインダー内の情報量が多いというのが1つのメリットになっているけれどその
メリットがOVFでも使えるということにょ。
これなら「EVFは要らないのでは?」と感じてしまうけどパララックスがある関係上
視野率が低いため視野率を100%が可能なEVFが便利になる場面もあるためOVFとEVFが
自由に切り替えられるというのは大きなメリットとなるにょ。(視野率100%のデジタル
一眼においてはEVFのメリットはかなり小さい)
個人的にはミラーレス+パンケーキレンズよりも安いならばX100は欲しいけど残念ながら
価格は12〜15万円程度の予定になっているにょ。
これは「コンデジでは物足りない」というライトユーザーを主な対象としているミラーレス
カメラとは異なり、X100は見た目や操作性はある程度の経験者を対象としているためにょ。
ユーザー層の違いからNEX-5のようにヒットするとは思えないしコストもかなりかかって
そうな造りになっているためこの価格はやむを得ないけどこの価格によってますます
ユーザーを選んでしまいそうにょ。
もっともこれでもライカと比べれば格段に安いのでカメラ好きな人であれば問題ないような
価格だと思われるにょ。(一般的な中級機のデジタル一眼ボディ並の価格だし)
私は普段コンデジ(TX1)を毎日持ち歩いているにょ。
しかし、コンデジでは性能面では物足りないけどデジタル一眼をいつも持ち歩くのが難しい
ため撮影目的で出かける場合を除き一眼レフを持ち出すことはないにょ。
そのためこういったカメラは1台あると便利に感じるけどX100は価格面が(私にとっては)
障害となってしまうにょ。
やはり安価なミラーレスカメラが一番ということか・・・。
NEX-5は操作性とパンケーキレンズの性能がネックなので現時点だとE-PL1あたりが最も
無難な選択になるにょ。(E-PL1はGF1よりも高感度画質と解像感において優れている)
iPod touchの罠・・・?
9月18日にはiPod touchが売れている理由を「アプリ」と「通信環境」の2点について変化
したのを理由に挙げたにょ。
アップル社もアプリに力を入れているのは確実で新型iPodの発表会でも売られている
アプリの数などをアピールしていたからね。
さて、すでに入手した人もいるであろう新型touchだけどやはりカメラ、マイクなど
従来のtouchには内蔵していないデバイスの搭載というのはアプリ面から考えると非常に
有用になるにょ。
それは何度も書いているようにiPhone用として作られたアプリ(touchで動作しない
アプリ)も動作するであろうことが予想されたからにょ。
では、実際にはどうかというとそういう簡単なものではなかったみたいにょ。
http://pc.watch.impress.co.jp/docs/column/config/20100924_395851.html
アプリ側ではカメラの有無を事前にチェックしてそれでカメラ機能を持たない従来touch
ではカメラ必須のアプリは使用できないようになっている・・・と思いきやそうでは
ないということにょ。
「iPhone」か「touch」かでカメラの有無を判別しているみたいだからね。
このような判別方法はさまざまなレギュレーションがあるPC用アプリでは考えられないけど
従来はtouchにカメラ機能が搭載されてなかったのでこれで全く問題なかったにょ。
しかし、この方法ではカメラを内蔵していても最初の段階で新型touchは動作機種から
外されてしまうことになるにょ。
つまり、touchでカメラ必須のアプリを使う場合には現時点ではちゃんとカメラの有無で
判別しているアプリに限られるということにょ。
上記の記事を書いた山田氏が試す限りそれは最初から内蔵されたアプリしかなかったみたい
だけどね。(主要なアプリでさえ機種でカメラの有無を判別しているということになる)
したがって、アプリの手直しをしないと現在のカメラ必須アプリは従来のtouchと同様に
使えない(可能性が高い)ということにょ。
iOS4から加わった「マルチタスク」だけどこれもPCで想像するマルチタスクとは異なり
バックグラウンドに回ったアプリは動作が一旦停止してしまうにょ。
これではWebラジオを聞きながらネットサーフィンというのはできないということにょ。
しかし、新しく加わったAPIを使用することでバックグラウンドに回ったアプリでも断続
動作が可能になるにょ。
要するにこれは「新しい機能に対応するにはソフトの手直しが必須になる」というのは
やむを得ないということにょ。
もっともtouchにおけるカメラ機能が「新しい機能」に相当するかは微妙だけど従来は
無かった物が加わるという観点からすると大差はないからね。
少なくとも現時点のアプリでは「touchにはカメラがない」ということを前提に作られて
いるわけだしね。
とはいえ、アプリの手直しをすれば動作すると思われるので悲観的になる必要はないにょ。
カメラを内蔵していない従来touchの場合は何をしようがカメラ必須アプリは動作する
ことはないわけだからね。
それにカメラ付きtouchが発売された以上はこれから作られるアプリに関しては単純に
機種(iPhoneかtouchか)で判別ではなくカメラ機能の有無で判別するようになるだろう
からそのまま新型touchで動作するものがメインになると思われるにょ。
しかし、すでに公開されているアプリの中にどうしても使いたいアプリがありそれが
カメラ必須であるために新型touchを買おうとしているのであればそのアプリが新型touchに
対応するのを確認してからの方がいいかもしれないにょ。
手直しをすれば動作するといってもみんなが手直しをしてくれる保証はないからね。
iPhone/touch用アプリといえば先日「ATOK Pad for iPhone」が発売されたにょ。
http://k-tai.impress.co.jp/docs/news/20100921_395371.html
PCではMS-IMEではなくATOKを使用してる私としては非常に興味が惹かれるものだけどこれは
実はただのメモアプリにょ。
PCのように日本語入力システムそのものを標準のものと置き換えることができないため
このようなアプリ+日本語入力システムという形を取っているにょ。
「せっかくのATOKもそのメモアプリでしか使えないなら意味がない」と感じる人もいる
かもしれないけどiOS4から加わったマルチタスクが活きてくるにょ。
PCを使いmixi、ブログ、掲示板などに書き込む場合は直接入力フォームに書き込むのでは
なくテキストエディタで書いたものをコピペする人が多いと思うにょ。(少なくとも
私はそうだし)
iOSがマルチタスクに対応したことでそれと同じことを行えば良いというだけであり
全く問題はないにょ。
ただし、Twitterのように書き込める文字数が極めて少ないものに関してはわざわざその
ようなことをするのは面倒に感じるけどTwitterへの転送機能は備えているみたいなので
その辺は問題なさそうにょ。
アップル社が情報を開示し標準日本語入力システムと置き換えができるようになるのが
一番だけど山田氏の記事にあるようにそうなると様々な問題が発生することになるからね。
端的に言えばセキュリティ面で脆弱となるような行為をしたくないということにょ。
FlashをiOS(というかSafari)でサポートしないのもFlashはアップル社がコントロール
できない代物であるというのが最大の理由だからね。
http://journal.mycom.co.jp/news/2010/04/30/003/index.html
コントロールできないということはFlashそのものに脆弱性があっても手出しできないと
いうことになるにょ。
ユーザーにとっては不利益となることだけど企業としてしまえば「余計な問題点を抱え
たくない」というのが本音ではないかと思うにょ。
そういった企業側の本音がどうであろうとユーザーには選択する権利があるにょ。
自分が使いたいものでなければ別のものを買えばいいというだけの話だからね。
Flashがどうしても使いたければAndroid OS搭載機を買えばいいし、(現時点で)カメラ
必須のアプリを使いたければ新型touchではなくiPhoneを買えばいいというだけの話にょ。
ネット配信がTVを滅ぼす!?
米国のビデオレンタル大手Blockbusterが経営破綻をしたにょ。
http://av.watch.impress.co.jp/docs/news/20100924_395966.html
日本と米国では置かれている状況が異なるとはいえ、根本的な面ではそんなに違いはないと
思われるにょ。
どこのレンタルビデオ店も苦戦しているけどその理由となっているのは恐らく下記の2つの
理由によるものにょ。
(1)ネットレンタル
(2)ネット配信(VOD)
(1)レンタルビデオの最大のネックは借りたり、返却したりする手間がかかることにょ。
借りに行くときは特定の作品が決まってないと店頭で選択するだけだから大して時間は
かからないとはいえ、それでもその特定の作品を見つけ出すのは大変だし、目的があって
行ってその目的となるタイトルの品がレンタル中だったらショックだからね。
適当に気に入ったものを探してそれをレンタルするだけというならば借りるのに「手間」を
感じることはないけど返すのは手間だからね。
もっとも返すついでにまた借りるというのを繰り返すならばそれも手間ではなくなるため
頻繁にビデオレンタルを利用する人であれば問題はないにょ。
日本は米国と比べたら面積当たりのビデオレンタル店は遙かに多いにょ。
私がいる地方都市でさえも5km四方に3軒のレンタルビデオ店があるにょ。(ここ数年で
かなり減ってしまった)
仕事帰りの道にはないけど少し寄り道をすれば十分に行けるにょ。
それでも私はここ数年レンタルビデオ店に行ってないにょ。
これは特に見たい作品がないというわけではなく普段録画している番組を視聴するので
一杯というのもあるし、本当に見たい作品であればレンタルではなくDVDやBDを購入する
のでレンタルを使用する機会がないということにょ。
とはいえ、TVで放送はしてない作品、かつ、買うには至らない作品というものであれば
やはり、レンタルなどに頼る必要があるにょ。
そういう時に便利なのがネットレンタルにょ。
在庫数も豊富だし実際に店頭まで行って借りようとして貸し出し中・・・なんて事態も
起こらないからね。
返却も郵送するだけだからわざわざ店頭まで行き返却ボックスに入れるよりは楽にょ。
店頭でパッケージを見ながら選択するというわくわく感はないものの作品を見るだけに
徹するならばビデオレンタル店の存在価値はかなり薄れていると思われるにょ。
(2)ネットレンタルも結局はネットを利用したレンタルビデオ店であり根本的な面はそれ
ほどリアル店舗とは変わらないにょ。(比較すればメリットが大きいというだけ)
その存在価値さえ脅かしてしまうのがネット配信にょ。
ネット配信にもさまざまなものがあるけど「レンタル中になる可能性はゼロ」でなおかつ
「自宅ですぐに見れる」というのが大きいにょ。
ネットレンタルでも仕事が休みの日に合わせて事前にレンタルをしておく必要があるけど
すぐに見れる動画のネット配信であればそんな心配は不要にょ。
データのみの配信だからレンタルビデオより割安にしてもらいたいところだけどこれは
サーバや回線維持費がかかるからやむを得ないか・・・。
ブロードバンドが普及して以来急速にネット配信サービスは増えたと同時に画質面でも
大幅な改善が図られるようになったにょ。
昔(2000年代初頭まで)はストリーミング配信では56Kモデムでも見れるような低ビット
レートであり、とても満足のいくようなものではなかったし(私は当時地元で放送して
いなかった「りぜるまいん」を毎週ナローバンドによるネット配信で見ていた)、一旦
ローカルに保存して再生できるようにした場合はDRMの管理が難しいということで利用する
のにハードルが高い(ダウンロードに時間がかかる)というのが理由ではなく著作権者
側の問題で普及には至らなかったにょ。
しかし、今では先進国のブロードバンド普及率は80〜90%になっており多くの人がまともに
ネット配信サービスを利用できる環境下にあるといっても良いにょ。
ネット配信といえばVODサービスによっていつでも好きな作品を見れるものがポピュラー
だけどそれでも見れない作品があるというのは否めないにょ。
そういうものはレンタルビデオの方が有利か・・・と思いきやそういったタイトルは
特殊なものが多いためビデオ化されてない場合も少なくないにょ。
昔の作品(80〜90年代)であればVODでも取り扱っている場合が少ないけどそういう作品は
レンタルビデオ店にも置いてない場合も多いにょ。
面積に限りがあるレンタルビデオ店の場合は回転率の低い作品は店頭から取り除かれる
運命にあるからね。
タイトル数がまだ少ないのがネット配信の難点だけどそれは時間が解決してくれると
思われるにょ。
ビデオレンタルにはないネット配信のメリットはまだDVD化されてないTV放送作品の配信にも
あるにょ。
私は主にアニメを見ているのだけど最近多い1クール(3ヶ月)もののアニメの場合は
放送が始まって約3ヶ月後にDVDの第1巻が発売されることが多いにょ。
つまり1クールアニメの場合は放送が終了する頃(もしくは放送を終了してから)ようやく
そのアニメのDVDを入手可能ということにょ。
これはコレクターであれば問題はないけど見たい作品を3ヶ月待つ必要があるというのは
かなり辛いにょ。
昨今はHDDレコーダーが普及しており、録画した番組を繰り返してみるということは
VHS時代よりは遙かに楽になっているにょ。
そのためそういったTV放送された作品のDVDは高画質(とはいえ、HDの地デジの普及に
よって画質を求めるならばDVDではなくBDを買わなくてはならないけど)、もしくは
コレクター目的となっているにょ。(アニメの場合はTV放送から画像を修正している場合も
あるのでそれを目的としている人もいる)
したがって、その作品がTV放送されてない地方に住んでいてその作品に興味がある人は
(レンタルにしろ購入にしろ)見るためだけに3ヶ月待つ必要があるにょ。
そういうときに便利なのがネット配信にょ。
昨今はP2Pによる動画共有や違法な動画配信サイトも少なくないけど公式に認められている
ものだけでもアニメの場合バンダイチャンネル、アニメワン、ニコニコアニメチャンネル
などがあるにょ。
それらを活用すればまだDVD化されてない最新アニメをネット上で見ることができるにょ。
これはTV放送にかかる金額よりもネット配信にかかる金額の方が安いことが理由になって
いるにょ。
アニメの場合は、TV放送は主に「DVDを売るための宣伝」となっており、より多くの地域で
放送することがより大きな宣伝効果を生むにょ。
しかし、そのために多くのコストがかかり損益分岐点も上がってしまうにょ。
かけただけの金額を回収できればいいのだけど現実問題からいって地方までカバーする
というのはコストに合わないためよほどの作品を除き深夜アニメは東名阪を中心に
放送されているにょ。
東名阪をカバーすれば人口比率では7割くらいあるわけだしね。
つまり、地方民にとっては東名阪よりもよりネット配信の重要性が高いということにょ。
こうやって考えるとリアル店舗のレンタルビデオ店のメリットは昔と比べてかなり薄れて
きていることがよく分かるにょ。
それと同時にTVの存在価値も薄れているにょ。
ネットレンタルにしろ、ネット配信にしろ「TV放送された作品」を見る場合であっても
リアルタイムで視聴するわけではないからね。
「TVを見る」というのは視聴が無料だから(実際はNHKは料金を払っているから完全に
無料というわけではないけど)というのが主な理由だと思うにょ。
昨今は視聴率低迷が続いており、広告収入の減少が輪を掛けてTV局を悩ませているにょ。
実は厳しいのはレンタルビデオ店ではなくTV局なのかもしれないにょ。
もしも、上記アニメ配信のように最新話は1週間無料、それ以前のものは一定料金で
視聴可能ということがすべてのコンテンツに当てはまればTV放送を見る人は激減する
のではないかと思われるにょ。(「れでぃ×ばと」のように最新話はTV放送と同じ時刻で
リアルタイム配信されるとなお良い)
BGM代わりにTVをつけているという人を除けば見たい放送があるから見るという人が
大半だろうからね。
「TV放送を見たい」のではなく「作品(コンテンツ)を見たい」ということにょ。
とはいうもののTV局から離れて作られるアニメとは異なりバラエティ番組などはTV局が主導
となっているためTV局が無くなればコンテンツそのものが作られにくくなってしまうため
そういう「ネット配信で解決」という単純なものではないので難しいところにょ。
小さいものが良いとは限らない
ケンコーが超小型のレンズ交換式デジカメを発表したにょ。
http://dc.watch.impress.co.jp/docs/news/20100925_396108.html
ケンコーはデジカメ用のアクセサリーメーカーとしては有名だけどまさかケンコーが
デジカメ、しかもレンズ交換式のデジカメを発表するとは驚きにょ。
本体サイズは明かされてないけどホットシューのサイズから判断すると概ね10×6×2cm
くらいに見えるにょ。
一般的なコンデジと比べてそれほど大きな差はないサイズにょ。(E-PL1やGF1は小さいと
いってもコンデジと比べたら明らかにサイズが大きい)
「ちっちゃいもの好き」の私としては興味が惹かれるにょ。
レンズ交換式となると問題はレンズラインナップだけど汎用のCマウントであるためそれは
問題ないにょ。
Cマウントは古くは16mmビデオカメラで使われており今でも防犯用カメラなどで使われて
いるため一般人が交換レンズを目にする機会こそないけど市場には多くの品が出回って
いるにょ。
とはいえ、入手性が良いというわけではないのでこの6mmの標準レンズがセットで売られる
ことになっているにょ。
さて、「6mmが標準レンズ」となるとかなりセンサーサイズが小さいようなイメージになる
けれどセンサーサイズはどのくらいかを考えてみるにょ。
まず、「標準レンズ」というのがフルサイズ(35mmカメラ)換算で何mmかということから
考えなくてはならないにょ。
一般的に50mmが標準レンズとされているけどそれは人間の目で普通に眺めた視野角に
近いためにょ。
それで考えると50÷6≒8.3でありフルサイズと比べて対角が1/8.3のセンサーとなるにょ。
フルサイズはセンサーサイズは対角約43mmであるためその1/8.3となると対角5.2mmにょ。
このケンコーのデジカメに4:3のセンサーが搭載されていると考えるとセンサーサイズは
1/3.5インチくらいになるにょ。
とはいえ、標準レンズが50mmというのは35mmカメラの基礎を作ったライカが標準レンズと
していただけであってそれは絶対的な基準ではないにょ。
一般的にはセンサーサイズの対角が標準レンズとされており、中判、大判カメラでは
それが基準となっているために全体からするとむしろ35mmカメラが例外とも言えるにょ。
昔は一眼レフ用のレンズとして広角レンズは技術的に作るのが難しかったために50mmが
標準レンズとなっただけ(昔は55mmの標準レンズというものも多かった)でありそれで
考えると対角6mmのセンサーは約1/3インチとなるにょ。
ここでの標準レンズというのは画角的な意味(望遠レンズの特性と広角レンズの特性が
弱まった中間的なもの)ではなく最初の1本として使いやすい画角であれば換算35mm前後の
焦点距離という可能性が高いにょ。
ズームレンズが無かった昔のコンパクトカメラの多くが35mm前後のレンズを搭載していた
というのはその汎用性が極めて高いからだしね。
それで、考えるとセンサーサイズは約1/2.4インチになるにょ。
これだと現実味を帯びてきたにょ。
このカメラのためだけに新センサーを用意するなんてことは考えにくいため汎用品を
使うだろうし、「1400万画素」となると後述のイメージサークルとの兼ね合いを考えた
場合に1/2.33インチのものしかないためそれを使うと予想されるにょ。
それなら最初から計算なんてする必要は無かったか・・・(笑)
レンズ交換式とはいえコンデジと同じセンサーというのは微妙に感じるかもしれないにょ。
そもそもCマウント自体が1/2〜1/3インチのセンサーを想定したイメージサークルとなって
いるためにそれより大きなものに装着する場合は画面周辺がけられてしまうにょ。
フランジバックが短いことで各種のマウントアダプターが発売されたマイクロフォーサーズ
だけど4/3インチセンサーを搭載しているフォーサーズであっても周辺部まではカバー
できてないからね。(これはこれで面白い写真になるけど)
http://dc.watch.impress.co.jp/docs/review/dressup/20100521_367121.html
2/3インチくらいのセンサーだと良かったけど無い物ねだりをしても仕方がないか・・・。
仮に1/2.33インチというのが正しいと考えてみると画素ピッチから考えて回折限界は
F2.7になるにょ。
つまりF2.8以上の暗いレンズを装着した場合には回折現象により徐々に解像しなくなって
しまうにょ。
幸いにしてCマウント用のレンズはどれも明るいものばかりにょ。
単焦点ならばF1.4なんて普通だし、F0.75の単焦点やF1.4のズームレンズも存在するにょ。
したがって、F2.8以上を使わなくても十分に絞りのコントロールは可能になるにょ。
ただ、明るいレンズで絞り開放を使うためには1万分の1以上の超高速シャッターが必要に
なる場合もあるけどそれは難しいだろうからNDフィルターをボディ内に内蔵もしくは
ISO25くらいの超低感度に設定できるようにして欲しいところにょ。
これをコンデジ代わりに使おうと思っている人がいるかもしれないけどCマウントは電気
接点を持たないためにフルマニュアル(完全手動式)で行うことになるにょ。
絞りもピント合わせも手動だけど絞りはいいとして問題はピント合わせにょ。
光学ファインダーを持たないデジカメにとって重要となるのは液晶画面にょ。
フルオートでも撮影できるマイクロフォーサーズなど(マウントアダプターを使ってMF用の
レンズを使うのはあくまで趣味的なものにすぎない)とは異なり完全マニュアルでしか
撮影できないためこの使い勝手が商品価値を決めてしまうからね。
マニア受けを狙う商品であれば高精細液晶で拡大表示によるピント合わせをサポートして
いるということが重要になると思われるにょ。
カメラ自体は小型でレンズも明るさの割りには小さいもののやはり手動ということで
ピントリングや絞りリングがある関係上レンズは薄型化はできないにょ。
そのためレンズ装着時の厚さはパンケーキレンズを装着時のミラーレスカメラよりも
厚くなると思われるにょ。
レンズが明るいため絞りのコントロールの幅が大きいとはいっても画質面を考えれば
一体型の方が有利にょ。
コンデジがあの極小センサーで十分使えるレベルの画質になっているのはセンサーに
合わせてレンズが作られそれを最適化された画像処理エンジンによって支えているお陰にょ。
9月23日に書いたFinePix X100も一体型にしたのは画質を重視するためだからね。
つまり、画質を重視するならばレンズ交換式ににするよりも一体型にする方が有利と
いえるわけにょ。
したがって、「レンズ交換式だから一眼レフ並の画質がある」というわけではなくむしろ
その逆だと言うことがいえるにょ。
汎用性と性能を両立させるのは難しいし、小型化と性能を両立させるのも難しいわけだから
このケンコーのデジカメに高性能(ここでは高画質)を期待するのは間違っているにょ。
オリンパスのズイコーデジタルはフォーサーズというAPS-Cよりも小さいイメージサークル
用として作られているために高解像力を持つようにイメージサークルが小さい方が
レンズ設計においては解像力では有利になるけどこれは最初からデジタル用として設計
されているのに加えて高画素化が進んでいるAPS-Cセンサーと比べて画素ピッチがそんなに
変わらないというのが影響しているにょ。
いくら専用設計かつイメージサークルが小さいことが解像力にプラスに働いたとしても
コンデジのように画素ピッチが狭いと画質面では不利になるにょ。
しかし、コンデジを改造してCマウント用レンズを取り付けられるようにして遊ぶという
ユーザーもいるわけだし、そこまで改造するスキルがないという人が遊びで使うには
なかなか面白いものだと思うにょ。
カメラである以上は画質は重要な要素だけど撮っていて楽しいかどうかも重要になって
くるからね。
新型iPod touchでモバイル環境は一新する!?
地元では未だに店頭で見る機会のない新型iPod touchだけど店頭販売が確認されしだい
購入予定であるため金欠状態の今月に買わなくて済みそうにょ。(まぁ毎月金欠だけど)
ちなみに私が現在持ち歩いているモバイル機器は下記のような感じにょ。
http://ww5.tiki.ne.jp/~ochame/test/mobile10.jpg
この中で通信機能を持つ端末だけを抜き出すならばこのようになるにょ。
モバイルランクA ケータイ 905SH
モバイルランクB VAIO UX
モバイルランクC Let'snote R5
新型touchを買うことで最も大きいのはケータイを買い換えずに済むということにょ。
今のケータイに大きな不満はなく(ちょっと分厚いのと3年間使ってきたせいで外装が
ボロくなってきたくらい)性能面で不満に感じるのはネット機能くらいにょ。
標準Webブラウザは制限が多いし、フルブラウザも搭載しているのが初期のjigブラウザ
であるためこちらも制約が非常に多いにょ。
あとWeb閲覧するならばWQVGAという狭い画面もネックだし、何より通信料金もネックに
なるにょ。
今はソフトバンクのケータイに加えてイーモバイル(Pocket WiFi)にも支払っている
けれどパケット料金に上限があるとはいえ、両方を上限まで使うとコスト的な負担が
大きいためケータイのパケット料金はなるべく抑えるようにしているにょ。
そのためPocket WiFiによる通信を主に行っているけどそこで出番がくるのがVAIO UX
となるにょ。
UXを用いてPocket WiFi経由で通信を行えば必然的にケータイで通信を行う機会は減り
(ほとんどメールくらい)パケット料金節約にも繋がっているにょ。
実際これでケータイの方はほとんど基本料金の範囲内(パケット定額の下限で賄われて
いるにょ。
それならばパケット定額さえ要らないのではと思う人もあるかもしれないけど定額
プランに入らなければパケット料金そのものが現状の5倍に跳ね上がるため結果的に
割高になるだけではなく不意に使った際に高額請求の心配も要らなくなるため外すことは
できないにょ。
こうなると実はtouchによって一番影響を受ける可能性が高いのはケータイではなくUXの
方かもしれないにょ。
UXの不満は筐体サイズ、バッテリ駆動時間、起動にかかる時間などにょ。
WinXPでもサスペンドからだと5秒くらいで復帰できるもののサスペンド状態でのバッテリ
消費が無視できないほど大きい(フル充電でも40時間程度しか持たない)ために普段は
休止で運用しているからにょ。
そのため起動には40秒くらいの時間がかかってしまうにょ。(OSの復帰だけであれば
メモリが512MBしかないため25秒くらいだけどその後15秒くらいはキーを受け付けて
くれないためトータルでは約40秒になる)
さすがにこれは気軽に使おうとする場合には抵抗があるレベルにょ。
筐体サイズは冬であればコートのポケットにすっぽり収まるものの服やズボンのポケット
だどギリギリであるため入れるのには躊躇するレベルにょ。
さて、UXの不満点はメモリが512MBしかないため複数のアプリを同時に使う場合にやや
厳しい(というかGoogle Chromeでタブを数個開いただけで512MBを大きく超えてしまう)
だけでなくキーボードの出来が最低であるということにょ。
これは昨年12月10日に書いたようにキートップに木工用ボンドを盛りそれでキークリック
感を上昇させることでわずかながら改善したにょ。
とはいえ、UXのそれらの不満はいつもLrt'snote R5を持ち歩いていることで気にならない
ようになっているにょ。
R5のスペックはCore Solo 1.2GHz、メモリ1.5GBということで今となってはネットブックに
毛が生えた程度の低スペックだけどモバイル時での使用に限って言うならば(XPの場合)
Atom+メモリ1GBで十分に感じるのでこれで不満はないにょ。
もっとも「モバイル用」としてだけではなく「自宅でのサブ機」としてもR5は活躍して
いるものの自宅サブ機として使うならばYouTubeのHD動画はWebブラウザ上でまともに再生
できない(一旦ローカルに保存すれば4月26日に書いた方法によってフルHD動画もR5で
ほぼコマ落ち無く再生できる)というCPU性能不足に加えてメモリが「1.5GBしかない」と
いうのも不満になっているにょ。
モバイル時では1GBで十分で自宅で使うならば1.5GBで不満というのはなぜかというと
やはり使い方の違いが大きいからにょ。
私は趣味でPCを使って絵を描いているけど昔であれば縦×横のピクセル数で言えば200〜
300万画素程度のサイズだったのが今は800万画素以上になっているからね。
先日描いた絵も可逆圧縮されたpsd形式でも60MBを超えており、それを開くだけで600MB
以上のメモリが必要になったにょ。
当然のことながらメモリ1.5GBでは編集時はスワップの連続にょ(笑)
フルHD液晶、メモリ4GB搭載、の自作PCがあるのだからそっちで描けばいいけど自作PCは
部屋の隅にあるためスイッチを入れるのが面倒なのに加えて部屋の隅にあるが故に液晶も
22インチにもかかわらず10.4インチのR5の方が体感的に大きく感じるくらいにょ。
メモリ768MBのR3で不満に感じたからR5に買い換えてメモリを1.5GBにして快適になった
と思いきやそれに合わせて使い方まで変えた(変わった)ので結局快適ではなくなって
きているということにょ。
とはいえ、これも別にメインノートや自作PCがあるからこそR5が活用できているとも
いえるにょ。(重い作業をR5でしていたらとてもお絵かきなんてしているスペック的な
余裕はない)
お絵かきについて少し補足をすると昔は自作PCで描いていたものの急な停電やコンセント
抜けによるデータ損失の経験を幾度もしたために同じメモリ512MBのPen3ノートで書く
ようになったにょ。
その後、メモリ768MBのPenMノートで書くようになりそれと同じだけメモリを搭載した
Let'snote R3で描くようになったにょ。
これによって、自宅の好きな場所で描けるようになっただけではなく常時サスペンド
状態であるため少し描いて一旦終了しても続きをすぐに描けるようになるというメリットが
出てきたにょ。
そして、メモリ1.5GBのR5で描くようになり現在に至っているわけにょ。
したがって、高性能な自作PCがあるのにR5で描いている点に関してはおかしな話に感じる
かもしれないけどそういった経緯をふまえると別におかしなはなしではないにょ。
もっともメモリが増えるごとに作成サイズが大きくなったので相殺されているために
メモリが増えても全然快適にはなってないけどね(笑)
これらをまとめてみるとケータイの不満はUXでカバー、UXの不満はR5でカバー、R5の不満は
自作PCでカバーとなっているにょ。
それらは単体で見ると不満は大きいけどお互いを補うことで現状ではうまくバランスが
取れているにょ。
さて、ここにtouchが入ったらどうなるのか・・・?
単純にプラスだと持ち物が増えるだけなので何かと置き換えになるにょ。
そうなると真っ先にリストラ対象となるのはUXにょ。
ただ、UXを無くせばR5を持ち歩いてい無いときにWindowsアプリが使いたい場合には困る
という問題があるにょ。
昨今はWindowsに依存する機会は減ってきてるためそういった機会はほとんど無くなって
いるけど現状よりマイナスになるという要素は極力無くしたいからね。
それは400g程度のポケットサイズPCを買うことで改善できるにょ。
400gに約100gのtouchをプラスしてもUXと同じ500g程度になるからね。
これで重量面は維持したまま現状よりも改善できるにょ。
しかし、その場合はR5の登場が激減しそうにょ。
UXの不満であるキーボードと駆動時間が克服されているようなポケットサイズPCであれば
約1kgのR5を別途持ち歩く価値は大きく減ってしまうからね。
十分に棲み分けはできるとはいえ、それを持ち歩くに値するかどうかが重要にょ。
iPadがネットブックよりも軽量な約700gという重量であってもそれを持ち歩くのに値する
かどうかとなると大半の人は持ち歩くには値しないと判断しているわけだからね。
現在はUXのキーボードの不満があまりに大きい上に連続2時間も使用できないということで
モバイル時のR5の使用頻度は極めて高いにょ。
ただ自宅メインで使うならばR5のサイズは必要ではないにょ。
B5用紙サイズは私が普段持ち歩ける限界サイズとはいえ、たまに持ち出す程度であれば
12.1インチ液晶のモバイルノートでも十分だからね。
別にわざわざ減らす必要が無くtouchが便利であれば単純にその分だけ増やせばいいと
考えるかもしれないけど「便利だから持ち歩く」というのであれば持ち物は際限なく増えて
いくことになるにょ。
結局はそれを持ち歩くのに値するかどうかということになるわけにょ。
ネットブックがあれだけ売れているにもかかわらず持ち歩かれないのは1kgオーバーの
機器を持ち歩くのが大変というのもあるけどケータイ(スマートフォン)があるから
それで十分と考えている人が多いともいえるにょ。
要するに別途持ち歩くのに値するかが重要だからね。
その考えでいくとネットブックが仮に1kgではなく500gでも大きく変わることはないにょ。
ただ、ろくにWeb閲覧機能のないケータイであれば通信機能がある端末は有用になってくる
ように同じ機器を持ち歩く場合でも別途何を持ち歩くかによっても変わってくるにょ。
つまり、touchが加わることで単純に持ち物を増やすのでないならばtouch導入によって
私のモバイル環境の大きな再編が必要となるということにょ。
今の環境になるまでも何度も失敗を繰り返し、それによって私がモバイル機器にモバイル
ランクをつける原因となったにょ。
しかし、touchを導入すればすぐではないにせよ大規模な再編をすることになると思うにょ。
GALAPAGOSは独自ではなく標準を目指す!?
シャープが電子ブックサービス「GALAPAGOS(ガラパゴス)」 を発表したにょ。
http://pc.watch.impress.co.jp/docs/news/20100927_396414.html
GALAPAGOSは電子ブックの配信サービス名と端末名称となっているけどガラパゴスと言えば
ガラパゴスケータイ(ガラケー)をイメージする人も多いのではないかと思うにょ。
とはいえガラケーという呼び名も元々「ガラパゴス諸島」の「ガラパゴス」から取られた
もので独自の進化を遂げたもののことにょ。
しかし、ガラケーの実態を合わせて本来であれば「独自な進化」がガラパゴス化であるはず
なのに「閉鎖的」というのをガラパゴス化と考えている人も少なくないにょ。
閉鎖的であるなら完全な垂直統合なiPhone(iOS搭載機)もガラパゴス化といってもいい
ものになるにょ。
これはAndroid OS搭載機と比べると制約が多いからね。
つまり、ガラパゴスを「閉鎖的」という意味で捉えていたらiPhoneはガラパゴスケータイに
なってしまうということにょ。
「独自進化≠閉鎖的」なのに・・・。
とはいえ、ガラパゴスにネガティブなイメージを持っている人も少なくないのにサービス
名や端末名にそれを用いるというのはかなりの英断だったと思うにょ。
http://pc.watch.impress.co.jp/docs/column/gyokai/20100928_396398.html
もっとも、「そういう人がいる」というだけであってみんながそう思っている(それが
多数派)というわけではないためそれは問題ないにょ。
しかし、「ガラパゴス=独自の進化」と考えると「進化するGALAPAGOS」というのは一体
何なのかと思ってしまうにょ。
これは、ガラパゴスと言う言葉が日本では一人歩きをしているため上記のように本来とは
異なる意味で用いている人が多いという点があるからだと思うにょ。
そのためシャープは「GALAPAGOS is not ガラパゴス」というのをスタンスにしている
模様にょ。
さて、名称はともかくとして重要なのはサービスと端末にょ。
GALAPAGOSのメインとなるのは次世代XMDFフォーマットにょ。
まずはXMDFについて書いておくと要はXMLをベースとした独自フォーマットにょ。
今は国際フォーマットとして認められているとはいえ、使用するにはシャープに利用料を
払う必要があるにょ。
「そんな独自規格を使うより利用が無料なオープンな規格の方がいいに決まっている」
と考えるかもしれないけどオープンだと広く普及はしても商業的には成功するとはいえ
ないにょ。
それはデジタルにつきもののコピー問題が付きまとうからね。
iPhone用アプリは基本的にApp Storeで入手したアプリでないと使用することができない
けどこれによって大手ゲームベンダーも積極参入しているわけにょ。
これがオープンでコピーフリーだと積極参入するはずがないからね。
コピー対策として用意されているのがDRMにょ。
DRMはどのように実装するかはコンテンツによって異なるけど子コピーはできても孫
コピーはできないとかアカウントや端末に紐付けされているなど様々にょ。
App StoreやiTunesストアではアカウントに紐付けされているし、DSiウェアや一般的な
ケータイアプリや着うたは本体に紐付けされているにょ。
したがって、他人にデータだけを渡した場合でも使用することはできないにょ。
XMDFでは暗号化、改ざん防止、フットプリント機能などが導入されているにょ。
コピーは制限無くできるもののフットプリント機能、つまり、そのデータに埋め込まれた
刻印によってその持ち主の特定ができるため不正コピーをしてもその出所が分かって
しまうにょ。
またそれを書き換えようとしても改ざん防止機能や暗号化機能があるため容易ではない
からね。
とはいえ、どんなコピー対策をしたところでそれを破る人がいるため100%安全なもの
というものは存在しないにょ。
Blu-rayなどに用いられている強固であるHDCPもマスターキーが流出してしまったために
それを破るのが簡単にできてしまうようになったからね。
http://www.itmedia.co.jp/news/articles/1009/20/news004.html
XMDFはそのようなコピー対策に加えて日本語を禁則、ルビ、外字など紙の書籍で実現
可能なことはすべてサポートしているにょ。
これは日本発のフォーマットだからこそできることだといえるにょ。
それでも「独自仕様だから駄目」というのであればAmazonのKindleもAppleのiBooksも
駄目になってしまうにょ。
オープンでありながらDRMでしっかり管理されているというのは相反することにょ。
とはいうもののシャープとそれらの端末では数が違いすぎるにょ。
独自仕様(独自形式)であろうとそれが売れていれば問題ないにょ。
シェアを取ったものがデファクトスタンダードになるからね。
電子書籍に関しては日本は北米と比べて大きな遅れを取っているというイメージがある
けど日本の電子書籍市場は決して小さくはないにょ。
ただし、すでに専用端末であるKindleが大ヒットしている北米とは異なり、日本では
そのような専用端末は今まで数多く出てきたもののヒットには至らなかったにょ。
では、日本では電子書籍はどこで売れているのかというとケータイ向けとなっているにょ。
XMDFはケータイではデファクトスタンダードとなっているフォーマットにょ。
http://special.nikkeibp.co.jp/ts/article/a00i/106510/p1-4.html
つまり、日本人にとってはiBooks形式やKindle形式よりも遙かに馴染みが深いフォーマット
ともいえるわけにょ。
これも日本発ということで日本語を読むのに適しているということがいえるからにょ。
次世代XMDFに関しては詳細は分からないけど要するにこのXMDFにマルチメディア機能を
強化したものだと考えられるにょ。
要するにこのGALAPAGOSは「今までケータイ向けとしてキャリアがやっていたサービスを
シャープが専用端末向けにやりますよ」という程度のことでしかないにょ。
とはいえ、すでにシャープは99年にスタートしたSharp Space Town以来電子書籍の配信を
行ってきておりGALAPAGOSが電子書籍の新規スタートではないにょ。
今までのシャープのパターンからすると開始当時はそれなりに力を入れているけど徐々に
それは薄れてくるようなイメージがあるにょ。
したがって、「今回もスタートだけ力を入れるのでは?」と懐疑的になっている人もいる
かもしれないにょ。
私自身も7月24日に書いたようにシャープを全面的に信頼しているわけではないからね。
とはいえ、昔(10年くらい前)と今では置かれている状況が変わっているにょ。
日本でもケータイ向けに電子書籍の需要が増え、そして北米ではKindleが大ヒットに
加えてiBooksまでスタートしたためその影響が日本にも現れ始めているからね。
紙の書籍には再販制度があるけど電子書籍にはそれがないということで敬遠していた
出版社も8月21日に書いたようにそろそろ重い腰をあげなくてはならない時期になっている
と思われるにょ。
さて、肝心の端末だけど要はただのAndroid OSを搭載のタブレット端末にょ。
Kindleのような専用端末は小型化かつバッテリ駆動時間を伸ばすという面においては
優位性が高いもののそれ専用で高価な端末を買うというのはかなり抵抗があるからね。
端末が売れないことにはコンテンツが売れないという問題も出てくるにょ。
その点、汎用性の高いAndroid OSということで当然のことながらWeb閲覧機能を持つため
Web端末として電子書籍も活用したいという人には適していると思われるにょ。(ただし
現時点ではAndroid Marketには非対応となっている)
5.5インチSWVGAの端末と10.8インチWXGAの端末の2種類が発売されるけどこれは正解だと
私は思うにょ。
5.5インチの端末は十分に持ち歩けるサイズだけど画面サイズの関係上雑誌や新聞を読む
ためにはスクロールや拡大縮小が頻発して読みやすいものとはいえないし、10.8インチの
端末は雑誌や新聞を読むにはいいけど持ち歩くには大きすぎるからにょ。
自分がどの程度なら持ち歩けるのかは人によって異なるし、持ち歩く頻度も異なるため
1つの機種ですべてを賄うことはできないにょ。
iPadはいくらネットブックより小型軽量とはえ、持ち歩きに適しているとは言い難いし、
それより下のサイズとなるとiPod touchやiPhoneとなってしまうにょ。
いくらiPhone4で960x640の高解像度化したといっても画面サイズの違いによる使い勝手の
違いは克服することができないため来年初頭には小型化した7インチクラスのiPadが発売
されるという噂もあるくらいにょ。
GALAPAGOS端末も5.5インチでも持ち歩きはできないと考える人もいるかもしれないにょ。
しかし、GALAPAGOS自体がただのAndroid OS搭載機であるためアプリさえあればスマート
フォンでGALAPAGOSに対応した次世代XMDFコンテンツを利用することは可能だと思うにょ。
実際にそれができるように現在協議中だしね。
それが完了すればKindle、iBooksに並ぶ世界標準フォーマットになる可能性があるにょ。
日本ではKindleもiBooksも正式サービスを行ってないので現時点は一部の出版社が独自で
電子書籍を発行しているにょ。
紙の書籍で例えるならば出版社が一般書店を通さずに出版社が直販するような感じにょ。
しかし、紙の書籍ならば一旦買ってしまえば「読むのに困る」ということはないのだけど
電子書籍の場合はフォーマットによって読める端末(もしくはアプリ)が異なるという
問題があるにょ。
そのため規格乱立は用意する端末数、アプリ数の増加を招いてしまうにょ。
GALAPAGOSは進化することで生き残りをするという意図が込められたネーミングだけど
「商品とサービスの進化」「ビジネスモデルの進化」「環境適合力の進化」という3つの
進化は簡単なものではないにょ。
本当にそれができるのかは現時点では分からないにょ。
「強い者が勝つのではない。勝った者が強いのだ。」という名言があるように強いメーカー
(ブランド)が必ずしも勝てる(シェアを取れる)というものではないにょ。
いくら独自形式であろうとそれがデファクトスタンダードになってしまえば文句は
出なくなるわけだしね。(良いものが普及するとは限らない)
GALAPAGOSが独自進化ではなくデファクトスタンダードになる日は果たして訪れるのか!?
デファクトスタンダードになるということは電子書籍においては非常に重要なことにょ。
専用端末、アプリが必要な電子書籍において「(見る手段が失われた)書籍データ」と
いうのはプレイヤーのない音楽レコードと同じようなものだからね。
上記の続き
さて、ハイパフォーマンスモデルは標準でLバッテリ(6セル)が付属し、スタンダード
モデルは標準でSバッテリ(4セル)が付属するのだけどこれはユーザーにとっては嬉しい
配慮となるにょ。
というのも従来であれば「6セルモデル(R3〜R5)においては6セルも要らないからもっと
軽量にして欲しい」という要望があったし、「4セルモデルにおいては6セルバッテリを
搭載してもっと長時間駆動できるようにして欲しい」という要望もあったけどRシリーズ
では原則的に同じ世代ではバッテリは1種類しか用意されずユーザーのニーズに応える
ことはできなかったにょ。
しかし、Jではようやく他のメーカーと同じくSとLが選択可能になったにょ。
ハイパフォーマンスモデルにSバッテリを装着すれば何と900gで8時間駆動というすごい
スペックのモバイルノートになってしまうにょ。
これで2〜3kgある普通のデスクノートと全く変わらない性能だからね。
ハイパフォーマンスモデルではLバッテリを標準にし、スタンダードモデルではSバッテリを
標準にした理由だけど恐らく重量が大きく絡んできていると思うにょ。
1kg以下で長時間駆動させるというRシリーズの宿命がJシリーズにおいてもにも生きている
と思うからね。
SバッテリとLバッテリの重量差は約90g(公式の仕様より)であるためスタンダード
モデルがSバッテリで970gなのでLバッテリを標準搭載してしまうと1kgオーバーとなるにょ。
ハイパフォーマンスモデルはSSD搭載によって軽量化が出来たために6セルバッテリを搭載
しても1kgを切ることが可能ということで6セルバッテリが標準となったと思われるにょ。
ただ、これもSSDを普通に装着するのではなく側の部分を取り外し基盤のみを装着する
ことで軽量化してようやくアンダー1kgが実現できたにょ。
ここまで見てみるとアンダーB5サイズ、アンダー1kgのノートPCとしては非常に高いCPU
性能と駆動時間を実現したJ9だけどR9と比べて劣っている部分が無くはないにょ。
HDD容量はなぜか250GBから160GBへと減ったにょ。
これはコストダウンの影響とも考えられるけど250GBのHDDと160GBのHDDの価格はほとんど
変わらないにょ。
恐らくハイパフォーマンスモデルがSSDとはいえ128GBだからその影響がありそうにょ。
あとR9からの変化はPCカードスロットがついに廃止されてしまったにょ。
PCカードスロットなんて昨今は使う機会はかなり減っているにょ。
昔だったら拡張はほとんどの場合PCカード経由で行っていたし、通信カードもCFなどで
提供されることが多くCFに簡単に変換できるPCカードスロットは有用だったにょ。
しかし、今では3G通信やモバイルWiMAXは本体に内蔵、USB接続、WiFi接続(モバイル
ルータ)がメインでCFタイプの通信カードはほぼ絶滅してしまったにょ。
PCカードスロットが無くなってExpressCardスロットか・・・と思われたけどExpress
Cardも依然としてあまり普及しているとは言い難いためか拡張スロットは用意されず
USB2.0ポートが1つ増えたにょ。(従来のR9では2つだったのがJ9では3つになった)
「PCカードはもう使わない」という人にとっては嬉しいことだけどPCカードが必須と
いう人はRシリーズを使い続けるしかないにょ。
どうしても拡張スロットが欲しいという人は直販モデルのJ9では割高だけどExpressCard
スロット搭載を選ぶことができるのでそれを利用するといいにょ。(店頭モデルでExpress
Cardスロットが搭載されてないのはコストダウンのためというのもあるけど搭載することで
1kgを超えてしまうからだと思われる)
また、J9は従来よりも堅牢性が大きく落ちてしまったにょ。
従来のR9が76cmからの落下衝撃に耐えられていたのが非常に堅牢性が高かったというだけ
であり30cmからの落下衝撃というR5以前のものに戻ってしまったのは残念だけどこれは
軽量化のためだと思われるにょ。
R6はR5と比べて堅牢性が前述のようにバッテリを除く本体重量は約30g重くなってしまった
からね。
J9でもR9と同レベルの堅牢性を実現するならば少なくとも30gは重くなってしまい
スタンダードモデルもハイパフォーマンスモデルも1kgオーバーしてしまいかねないにょ。
もっともハイパフォーマンスモデルはバッテリを4セルにすることでアンダー1kgを実現
できるけどスタンダードモデルはそれでも微妙であるため2セルバッテリ(SSバッテリ)を
標準搭載せざるを得なくなってしまいそうにょ。
しかし、それではカタログスペックで4時間駆動に満たないため堅牢性が落ちたのは仕方が
ないことかもしれないにょ。(堅牢性を上げるよりも後述のジャケットを付属させる方が
コスト的に安上がりだったのだろうし)
ただ、堅牢性が落ちたといってもそれをジャケットでカバーしているにょ。
ジャケットを装着時には200g程度重くなるけど従来モデルと同レベルの堅牢性を確保
できるみたいだからね。
「そこまで高い堅牢性は要らないから少しでも軽くしてくれ」という人にとってはこれは
良いことと考えることもできなくはないにょ。
ジャケットを装着時には片手で持てるようにストラップがが付いているものの重量が
約1.2kgになるため片手で保持し続けるのはかなり厳しそうな感じにょ。
J9はR9と比べて性能アップというのが大きいけどコストダウンの影響が要素が随所に
見られるためそれが許容できるかどうかが重要になるにょ。
OSも従来のR9は店頭モデルもWin7Proだったのがこの度のJ9ではWin7HomePremiumに
変わってしまったしね。(個人的にはモバイル機でProが必要になる機会はほとんどない
ためこれで問題はないけど)
OSが変わったのはJ9は個人用を重視しているためだと思われるにょ。
Let'snoteの場合は過半数が法人向けとして販売されているため個人向けとなるのは半分
以下となっているにょ。
しかも法人向けとして売れているのは12.1インチ・14.1インチ液晶を搭載のモデルである
ため10.4インチ液晶を搭載のRシリーズは法人よりも個人で購入する方が多かったにょ。
しかし、昨今ではネットブックやCULVノートの影響があって個人でモバイルノートを買う
という人は激減してしまったにょ。
そこまでこだわりがなく小型のノートPCが欲しければそれらで十分だからね。
そういう面を考慮して再び個人需要を喚起させるべく一新したのがJ9となるにょ。
個人需要を伸ばすには女性の取り込みも重要になってくるけど従来のRシリーズのような
無骨なデザインは敬遠する女性ユーザーも少なくなかったにょ。
メーカー発表でも女性ユーザーは8%しかいないみたいだしね。
そのためJ9は堅牢性を落とす代わりにデザインを重視したにょ。
本体のデザインを重視したというよりはジャケットと一体化させることで見た目を良く
したという感じだけどね。(本体自体は私はR9よりもチープなデザインに感じるけど
もしもJ9を買ってもジャケットは使わないと思う)
Rシリーズの後継となる機種だろうけどユーザーターゲットは明らかにRシリーズとは
異なっているにょ。
それでも「アンダーB5サイズ」「アンダー1kg」のモバイルノートとなるとこれしかない
ためにそれを欲している人はこれを買わざるを得ないにょ。
ネットブックではアンダーB5かつアンダー1kgの機種はあるけどネットブックではやはり
5〜6倍のCPU性能差は非常に大きいしね。
しかし、モバイルノートにそこまで拘りをもっている人はごく一部だろうし新規需要を
狙って従来ユーザーが敬遠してしまったらそれは売上減少に繋がってしまうため新規需要を
狙うのはリスクも大きいにょ。
Rシリーズをそのままの状態にしても売上は減る一方だからリスクは承知だろうけどね。
従来のRシリーズを使っている人の中にはJ9は通常版ではなく超低電圧版CPUを採用した方が
良かったという意見も一部にはあるくらいにょ。
確かにCULVノートは安いけどこれもネットブックと同じく一定条件を満たすことで
Intelから通常の半値くらいで卸してもらえるということが影響しているにょ。
その条件は分からないけどLet'snoteが廉価機種とは思えないのでCULVの条件を満たせる
とは思えないにょ。
したがって、超低電圧版でもU3400のように最下位CPUを搭載しない限りは安く作るのは
無理になるにょ。
ULVのCore i7なんて搭載したらJ9よりも性能ダウンで価格はアップになってしまうからね。
逆に言えば価格ダウンで性能アップを図るには通常版を搭載せざるを得ないということに
なるにょ。
バッテリ駆動時間に関しては上記のR9とJ9のバッテリ駆動時間計測結果で分かるように
しっかりパワーマネジメントを行えば通常版と超低電圧版との間に明確な差はないにょ。
もしも両者に差が生まれるとすれば重量と筐体サイズ(厚さ)にょ。
重量はCPU自体の重さはほとんど変わらないけど放熱構造はTDP18WとTDP35Wでは全く異なる
からね。
おそらくそれだけで数10gは重くなったと思うにょ。
そのTDPの違いは筐体の厚みにも影響が出るにょ。
より優れた分厚い冷却ファンを搭載するためにより厚くなってしまうからね。
筐体がデカイ方が熱設計の面で有利とはいえJ9のフットプリントがいくら大きくなっても
R9からのTDP上昇を補えるほどではないため薄く作るのは難しくなってしまうにょ。
そうなるとJ9にもしも超低電圧版CPUを搭載していたら今より少し軽く、薄くなる反面
性能ダウンで価格アップになるということにょ。
モバイル性アップのために軽く、薄くなるということは大歓迎・・・となるけど個人用途を
重視している機種において価格と性能はかなり重要になるにょ。
J9の段階でCULVノートと比べて500〜600gのアドバンテージがあるのが仮に50gの軽量化が
出来て550g〜650gのアドバンテージに変わったところでほとんど差はないと言っても
過言ではないからね。(実際ネットブックでもここまで軽い機種はほとんどない)
しかし、通常電圧版CPUを搭載によってCULVノートと比べて3倍のCPU性能(ネットブックと
比べたら5〜6倍のCPU性能)となったのは非常に大きいと思われるにょ。
スタンダード版ではプレミアムモデルよりも性能は落ちるとはいえそれでもCULVノート
と比べたら2倍、ネットブックと比べたら4倍の性能があり、それで12万円程度というのは
決して高価ではないにょ。(国内メーカー同士の比較の場合)
J9と同レベルのサイズのネットブックのLaVie Light(Win7HomePremium搭載モデル)は
Atom搭載にも関わらず8万円前後の価格だからね。
http://kakaku.com/item/K0000151008/
J9はジャケット無しの場合見た目がしょぼくなり堅牢性がダウンしたのは残念だけど
それ以外は私は個人的にはかなり好印象に感じるにょ。(というか、オンリーワンの存在
には代わりないわけだし)
私はRシリーズはR2、R3、R5と使ってきて現在に至っているけどR5は一昨日に書いたように
モバイル時には特に不満を感じないけど自宅のサブ機(自宅に限らずゆっくり時間が取れる
場所であれこれしたい場合)として使うならばCPU性能やメモリ搭載量において不満を
感じているにょ。
そのためR8H(R8の最終モデル)が中古で5万円切ったら買おうと考えていたところにょ。
R8HがいいのはR9よりもバッテリ駆動時間が長いことに加えてCore2Duo SU9600(1.6GHz)
搭載によっていくらクロック当たりの性能でCore i7が優れていても1.06GHz〜1.2GHzの
R9ではこのR8Hよりも劣る場面が少なくないからにょ。
それに加えてR8HはR8の中で唯一標準でWin7を搭載しているのが大きいにょ。
私が普段持ち歩けるモバイルノートといえば「アンダーB5サイズ」かつ「アンダー1kg」を
満たせるものだけどそれは上記のようにLet'snote Rシリーズしかなかったにょ。
だから、その中で性能が高く予算的に買えそうなものを選択する必要があるにょ。
しかし、新たに発表されたJ9を見ると「J9が中古で5万円を切るまで待つか・・・」と
思ったにょ。
CPUの性能アップもうれしいけどようやくHDMIが搭載されたからね。
これで自宅で使用時には大画面の液晶モニタを使うことができるにょ。(アナログ接続
だと文字が若干滲んでしまうので小さくても内蔵液晶の方が良く思えてしまう)
とはいうものの9月15日に書いたように来年初頭にには現在のArrandaleよりも省電力かつ
高性能なSandy Bridgeが発表される見込みとなっているにょ。
したがって、それを搭載したJ10が春モデルとして登場すると考えるとそっちの方が
ベターに思えてくるにょ。
そうなると今度はUSB3.0が標準搭載するまで待った方が・・・ともなってしまうため
買うのはさらに難しくなるにょ。
予算的にも新品では買えないため中古で5万円程度まで下がるのを待つとすれば一体あと
何年間ガマンしないといけないのやら(笑)
J9はRシリーズの後継になれるのか・・・?
Let'snoteに新シリーズLet'snote Jが登場したにょ。
http://pc.watch.impress.co.jp/docs/news/20100928_396076.html
http://pc.watch.impress.co.jp/docs/news/20100928_396348.html
これは10.1インチWXGA液晶を搭載ということで従来のRシリーズの置き換えを狙ったモデルと
なっているにょ。
Rシリーズが無くなってしまうのは個人的に非常に残念なことだけどこれも時代の流れ
だから仕方がないか・・・。
XPの末期である4〜5年前から各社ともPCは4:3のスクエア液晶から16:10(もしくは16:9)の
ワイド液晶へと変更し始めたにょ。
法人需要がメインとなるLet'snoteはそんな中頑なにスクエア液晶を守り続けていたの
だけどスクエア液晶の生産が減ってきていることもあり、1年前にTシリーズ、Wシリーズを
置き換えるワイド液晶搭載モデルNシリーズ、Sシリーズが登場したにょ。
さて、そんな中もはや生きた化石と言っても過言ではない10.4インチXGA液晶を搭載して
いたRシリーズだったけどついにJシリーズによってその役目を終わりそうな感じにょ。
Rシリーズの後継としてワイド液晶搭載機がなかなか登場しなかったのはやはりサイズ面と
液晶解像度の問題があったからだと思われるにょ。
8年前に登場したR1以来一貫している「アンダーB5サイズ」「アンダー1kg」「長時間駆動」
というものがあるからにょ。
アンダーB5サイズを実現するためにはRシリーズ並のフットプリントを維持するという
必要があるにょ。
私が持っているR5の横幅は229mmとなっているけどこれを維持するためには液晶サイズは
8.9インチ液晶が限界にょ。
これでWXGA液晶(1366x768)を搭載するならばドットピッチは176ppiに達するにょ。
人間の目は300ppiと言われており6月14日に書いたように私の実験でもそれがほぼ正しい
ことが証明されたもののそれは30cmの距離から使用した場合にょ。
基本的にテーブルの上に置いて使うであろうこのようなPCの場合は画面までの距離は
50〜60cmに達するため150〜166ppiが実用限界レベルとなるにょ。
長時間(ほぼ一日中)連続して使うならば私の体験上120〜130ppi程度が限界となるょ。
解像度がWXGAではなくWSVGAであれば133ppiであるため全く問題はないとはいえ、ネット
ブックであればWSVGAが許せるけど高価なモバイルノートにおいてさすがにWSVGAは厳しい
からね。
Win7であればXPよりも高解像度が求められるため余計厳しいにょ。
DPI調節をすれば高ドットピッチでも問題なく使用できるとはいえ、それだと全体的な
情報量が減ってしまうということで根本的な解決にはならず一定以上の高解像度を活かす
ためにはある程度の液晶サイズが求められるということにょ。
とはいえ、R5はB5用紙サイズと比べて横幅に余裕があるため8.9インチよりも大きな液晶を
搭載することは可能だと思われるにょ。
8.9インチよりも大きくB5用紙サイズのPCに物理的に搭載可能な液晶は入手性を考えると
10.1インチ(高解像度のネットブックに使用)、10.6インチ(VersaPro UltraLite タイプ
VSに使用)、11.1インチ(VAIO Xに使用)くらいしかないにょ。
しかし、11.1インチ液晶は表示領域だけで単純計算で横幅が246mmとなりB5用紙の長辺が
257mmであることを考えるとアンダーB5サイズに抑えることはかなり厳しいにょ。
実際VAIO Xは横幅が278mmもあるにょ。
これが、10.6インチであれば235mm、10.1インチであれば224mmとなり搭載できる可能性が
高くなるにょ。
ちなみに10.6インチのタイプVSは258mmとなっているためこれでもまだ微妙だけど10.1
インチのネットブックはコスト削減のため設計に余裕を持たせるため260mm程度の横幅と
なっているもののLaVie Lightは横幅253mmとなっておりB5用紙よりも横幅が小さいモデルも
存在するにょ。
さて、横幅はギリギリクリアできる目処が付いたけど問題は奥行きにょ。
Let'snoteの場合は円形のホイールパッドの影響で奥行きを小さくするのは極めて困難
だからね。(パッドを小さくすれば操作性に大きな影響が出る)
これをスティック型のポインタにすれば十分小型化はできるけどパッドを維持したまま
だと数mm小さくするのがやっとだと思われるにょ。
そうなるとフットプリント自体の大型化は避けられない(横幅は2cm以上大きくなるのは
確実であるため)ということで重量増も起きてしまうにょ。
Rシリーズは筐体サイズは大きく考えてR1〜R2、R3〜R5、R6〜R9に分けられるにょ。
最初に登場したR1は当時としては実用限界のサイズである10.4インチXGA液晶を搭載した
最小のモバイルノートであり、これを実現するためにバッテリは4セルに止まったにょ。
しかし、R3では大幅な軽量化が実現でき6セルバッテリを搭載しながらアンダー1kgが
可能になったにょ。(横幅が一気に1cm以上小さくなった)
R6からはキーボード防滴構造や耐衝撃性が大幅にアップした影響で筐体が重くなり(R5が
バッテリを除き680gなのに対してR6は710g)アンダー1kgを実現するために4セルバッテリ
となったにょ。(2セル減らすことで90gの軽量化が可能であるためトータルではR5よりも
軽くなった)
R9が930gであるため多少筐体サイズが大きくなったら1kgを切れるかは微妙なところにょ。
以上のことを踏まえてJ9のスペックを見てみることにするにょ。
J9はアンダーB5サイズ、アンダー1kgを実現しながら、10.1インチWXGA液晶を搭載して
いるにょ。
10.1インチWXGA液晶は155ppiだけど昨年7月15日および上記のように長時間連続して使用
するのは厳しいけどそうでないならば(個人的には)何とかなるためワイド化(つまり
高解像化)は歓迎するにょ。
J9には2種類のモデルが用意されているにょ。
1つが従来と同価格帯のハイパフォーマンスモデル、もう1つが廉価版ともいえる
スタンダードモデルにょ。
それを比較すると下記のようになるにょ。
Let'snote J9 Let'snote J9
スタンダードモデル ハイパフォーマンスモデル
OS Win7HomePremium 同左
CPU Core i3-370M(2.40GHz) Core i5-460M(2.53GHz)
メモリ 2GB(最大6GB) 同左
ドライブ HDD(160GB) SSD(128GB)
サイズ 251.9x171.7x27.3〜35.1mm 同左
重量 970g 990g
バッテリ Sバッテリ(4セル) Lバッテリ(6セル)
駆動時間 7.5時間 12時間
想定価格 12万円 18万円
両者の違いは見ての通りCPUとシステムドライブと価格にょ。
価格差は6万円あるとはいえこの違いで6万円差となると微妙にょ。
今時18万円のPCとなると割高感は否めないけどハイパフォーマンスモデルは従来のR9と
同価格帯ということを考えるとそうでもないにょ。
スタンダードモデルがLet'snoteとしては安いので相対的に割高感を感じるというだけで
あって逆に言えばスタンダードモデルのコストパフォーマンスが高いといえるにょ。
とはいえ、スタンダードモデルでも海外メーカー製のCULVノート2台分の価格、ハイ
パフォーマンスモデルならば3台分の価格と考えるとかなり高価になってくるにょ。
もっともCULVノートも国内メーカー製だと10万円前後となるためスタンダードモデルは
それよりちょっと高価というくらいでそれらと比べて明確に小型軽量であるため価格差
だけの違いは十分にあるにょ。(横幅で2〜3cm差、重量だと500〜600g差は大きい)
10.1インチ液晶を搭載のネットブックでは最小となるLaVie Lightと比べても横幅は
1mm小さいしね。
サイズ、重量だけでもCULVノートと差別化できるけどCPUの差も大きいにょ。
ではどの程度なのかレビューを見てみることにするにょ。
http://pc.watch.impress.co.jp/docs/column/hothot/20100928_396464.html
http://plusd.itmedia.co.jp/pcuser/articles/1009/28/news024.html
ちなみにレビューで用いられているのはハイパフォーマンスモデルよりさらに高性能な
プレミアムエディション(直販であるマイレッツ専売品)となっているので注意が必要と
なるにょ。(CPUが2.8GHzのCore i7-640Mとなっている)
それではJ9とR9との比較に8月19日に書いたCULVノート(ASUS UL20FT)も加えて考えて
見ることにするにょ。(PCMark Vantageは各項目がすでに総合結果であるためドライブが
SSDということで各項目のスコアに大きな影響を与えており単純なCPU性能比較にもGPU性能
比較にも使えないため割愛する)
J9 R9 UL20FT
CPU Core i7-640M Core i7-640UM Celeron U3400
PC Mark05
CPU 8622 4782 2577
Memory 6455 4620 3025
Graphics 2392 1754 1673
HDD 30735 24405 4980 (R9、J9はSSD搭載モデル)
3DMark06 1395 1222 1070
FFXI Bench3
LOW 4186 2405 1668
HIGH 3125 1683 1148
これを見るとまさに別格の性能にょ。
J9はR9と比較しても1.8倍、CULVノートであるUL20FTと比較すれば3.3倍の性能となるにょ。
これもTDP18Wの超低電圧版(ULV)CPUを搭載しているのではなくTDP35Wの通常電圧版CPUを
搭載している影響にょ。
同レベルのサイズであるネットブックと比べたら9月14日に書いたデュアルコアのAtom
N550を搭載のLaVie Lightと比較しても5.2倍の性能となり別格の性能にょ。(シングル
コアのN450との比較ならば6倍以上の差)
廉価なスタンダードモデルはこのベンチに使用されているモデルと比べてクロックが
14%低くTBにも対応していないため少しランクは落ちるとはいえ、それでもPC Mark05の
CPUテストでは6466となっており、これはCULVノートの2.1倍の性能であり、Atom N450と
比べると4倍以上の差になっているにょ。
FFベンチを見てもCPU性能の違いが大きいことが分かるにょ。
FFベンチは一定以上のGPUであればCPU性能がベンチに与える影響が大きいのだけどJ9の
スコア(LOW)はR9と比べて1.7倍、CULVノートと比べて2.5倍あるからね。
PC Mark05のCPUテストほど差が出てないのはPC Mark05ではマルチスレッド対応であるため
HTTによって論理4コアとなっているCore i7が有利に働いているのに対してFFベンチは
マルチスレッドには非対応となっているためだと思われるにょ。
FFベンチが高いのはGPU性能の影響も大きいと考えられるもののGPUは3機種ともCPUに
内蔵のIntel HD Graphicsとなっているにょ。
3DMark06のスコアを見てみるとJ9はR9の1.14倍、CULVノートの1.3倍となっておりGPU
性能に大きな差はないことが分かるにょ。
3DMark06はCPUが与える影響は小さいためこの差はCPUの差よりもメモリ性能の違いによる
ものの方が大きいのではないかと思われるにょ。
通常電圧版CPUを搭載したらバッテリ駆動時間が短くなる・・・と考える人もいるだろう
けど昨今はアイドル時の消費電力は通常電圧版とULV版ではほとんど差がないためCPU負荷の
大きな作業をしないと駆動時間に明確な差は出てこないにょ。
それに、上記ベンチを見てもULV版と比較してCPUパワーが1.8倍〜3.3倍高いため同じ作業を
やっても短時間で済むことを考えるとトータルの消費電力では小さくなる可能性さえある
しね。
さて、実際にどれだけの駆動するのかを見てみると上記のレビューではBBench(Web巡回
あり)ではR9が7時間49分なのに対してJ9が12時間4分(1.54倍の駆動時間)となっており、
連続動画再生時でもR9が3時間26分なのに対してJ9は4時間58分(1.44倍の駆動時間)と
なっているにょ。
元々R9にも3100mAhという高容量セルが採用されていたのが同じ容量のバッテリを使用
しながらさらに1.5倍程度駆動時間が伸びたのはバッテリが4セルから6セルへと変わった
というのが理由にょ。
したがって、標準が4セル(Sバッテリ)のJ9スタンダードモデルはR9と同レベルの駆動
時間だと思われるにょ。
(下記へ続く)
3DSが25000円になったワケ
昨日の任天堂カンファレンス2010でついにニンテンドー3DSの詳細が発表されたにょ。
http://game.watch.impress.co.jp/docs/news/20100929_396921.html
日本での発売日は2011年2月26日、価格は25000円にょ。
11月に2万円程度で発売と予想していただけに予想が大きく外れたにょ。
価格も任天堂が設定しているコンシューマゲーム機の上限金額に達したにょ。(スーファミ
64、キューブ、Wiiの当初の価格と同じ)
発売時期の方は本体の生産状況から想定してこの時期にしたのだろうと思われるにょ。
尖閣諸島問題によって中国からの部品の入手が難しくなったというのも発売の遅れに影響
しているかもしれないにょ。
無理に年内に発売してあまりに品薄だったり、品質が落ちたりされても困るしね。
しかし、価格はやはり「25000円は割高に感じる」という人が大半かもしれないにょ。
現在分かっている3DSのスペックはこんな感じにょ。(3DSのスペックは公式発表された
ものではなくリークされているものを含んでいる)
ニンテンドー3DS ニンテンドーDS
CPU ARM11系デュアルコア(266MHz) ARM7(33MHz)+ARM9(66MHz)
GPU PICA200(133MHz)VRAM 4MB VRAM 656KB
メモリ 64MB 4MB(DSiは16MB)
ストレージ 1.5GBフラッシュメモリ なし(DSiは256MB)
液晶 800x240&320x240 256x192x2枚
これを見てスペックが大幅に上がっているから高価になっても仕方がないと考えるのは
早計にょ。
DSと3DSの発売時期の差は約6年あるからね。
6年前と比べて今のPCは圧倒的に高性能だから6年前より高価であっても仕方がないと
考える人はおらず高性能なのが当たり前と考える方が大半なのではないかと思うにょ。
それと同じだから「高性能だから高価になる」ということは単純にはいえないにょ。
DSは64並、3DSはGC並の性能と言われているけどDSから3DSの間隔は約6年、64とGCの間隔も
約6年であり、64とGCが同じく25000円ということを考えるとDSが3DSへと高性能化された
ことは価格に与える影響は時代の流れでほぼ相殺可能と考えられるにょ。
とはいえ、性能に似合った価格かどうかとなるとそれぞれのパーツの部品価格が不明
であるため何ともいえないにょ。
部品コストといえば9月9日にiPhone4のコストを元に新型iPod touchのコストを計算
したにょ。
32GBモデルの部品コストは162.62ドルとなり、299ドルの定価に占める割合は54%と
なったにょ。(同じ計算方法だと8GBモデルの部品コストはフラッシュメモリが少ない
分だけ安くなるため122.12ドルとなり、同割合は53%になる)
定価の半分弱が利益になるかというとそうではなく組み立てコスト、流通コスト、開発
コスト、宣伝コストが分からないとどの程度利益が出るかは分からないにょ。
iPodに限らず部品コストが定価に占める割合はこういった電子機器の場合は半値程度で
あることが多いのではないかと思われるにょ。(定価から大幅値引きされるような製品で
あれば定価ではなく実勢価格を元に考える)
しかし、コンシューマゲーム機の場合はそうとは限らないにょ。
場合によっては部品コストが定価を超えてしまう(逆ざや状態)ということもあるにょ。
プレステ3も発売当初は599ドルの定価に対して800ドル以上の部品コストがかかっている
と試算されていたからね。
http://techon.nikkeibp.co.jp/article/NEWS/20061116/123816/
部品コストの段階で定価を超えていたらそれだけで「作れば作るほど赤字」という状態で
あり、組み立てコストや流通コストを考えるとさらに赤字が膨らむことになるにょ。
それで、ビジネスとして成り立っているのはサードパーティが発売するゲームソフトの
ライセンス収入があるからにょ。
スーファミ時代はROMカートリッジの容量によるけど概ね定価の3割程度、プレステでは
それが1割程度となったにょ。(当初は定価に対してではなくディスク1枚につき800円
という感じで支払っていたけど定価に対して支払う形になったためSIMPLE1500シリーズの
ような低価格ソフトがどんどん発売されるようになった)
つまり、ゲーム機本体を原価割れで販売したとしても十分プラスになる要素があるという
ことにょ。
しかし、任天堂の場合はそういう「本体は赤字でもOK」というビジネスモデルは嫌って
いるにょ。
そのため本体の価格を定めてその範囲内のコストで実現可能なゲーム機を作っているにょ。
その本体の価格の上限金額が最初に書いた25000円にょ。
これは子供がお年玉などで買える限界の金額だろうということで今までこれだけは死守
されてきているにょ。
サードパーティというと任天堂のゲーム機はサードパーティのゲームが売れず「任天堂
ハードで売れるのは任天堂ソフトばかり」ということがよく言われているにょ。
これは上記カンファレンスでも岩田社長の口からも出されたにょ。
http://game.watch.impress.co.jp/img/gmw/docs/396/921/html/n50.jpg.html
確かにそれはこのグラフを見れば一目瞭然にょ。
http://game.watch.impress.co.jp/img/gmw/docs/396/921/html/n51.jpg.html
DSとWiiだけサードパーティの割合が低いからね。
これは「今後はよりサードパーティとの関係を密にする」という反省を込めた内容だと
思われるけど別のグラフ(全体を100としたものではなく実数を表したグラフ)を見ると
単純にサードパーティの問題ではないことが分かるにょ。
http://www.4gamer.net/games/107/G010761/20100929011/screenshot.html?num=022
特にはっきり言えるのがDSだけど最もサードパーティソフトが売れているのがDSだからね。
つまり、サードが弱いのではなく任天堂が強すぎるというだけにょ。(これが相対的に
見た場合にはサードが弱いという形で見られてしまう)
絶対的な数量比較ではファーストの売上本数を見る限りPSPやPS3とは桁違いなのがグラフ
からでも分かるからね。
さて、価格の話に戻ると6年前にDSの価格が発表されたときは本体で赤字を出さないという
任天堂の考えを元に19800円程度で販売されるであろうと予想されたにょ。
しかし、結果は15000円だったにょ。
これはやはりライバルであるPSPの存在があったためにょ。
アナリストの予想ではDSが19800円、PSPが29800円だったけどDSが予想外に安い15000円
だったためPSPが29800円ではいくら性能が高くても苦戦は必至になってしまったにょ。
それが理由かは定かではないけどPSPの価格発表は予定より17分間遅れたにょ。
これは「空白の17分間事件」と呼ばれているにょ。
http://plusd.itmedia.co.jp/lifestyle/articles/0409/24/news107.html
PSPの価格は19800円(税込20790円)となったけど当時であればあのスペックを考えると
定価4万円と言っても良いくらいの製品だったにょ。
しかし、今回はライバルとなる存在はないにょ。(iPhoneの影響はあるだろうけど後述の
ように3DSとは棲み分けが行われると考えている)
そのため無理をする必要はないにょ。
恐らくPSP2が発表されていたら3DSの価格は20000円になっていただろうけどそれがない
以上はそこまで利益を削って価格を抑える必要はないからね。
北米で販売する場合は1ドル100円で考えるため日本で定価25000円のゲーム機であれば
向こうでは249ドルとなるにょ。
円相場が100円前後を推移していれば全く問題ないけど1ドル83円で計算すると249ドルと
いうのは20667円になるにょ。
「北米では299ドルで販売すれば問題ない」と考えるかもしれないけどその場合は北米に
おける上限ライン(249ドル)をオーバーしてしまうにょ。
私はこの円高が価格高騰の原因の1つではないかと考えているにょ。
そもそも任天堂が四半期ベースで赤字になった原因も資金を「円」ではなく「ドル」で
所有している影響だしね。
国内市場がメイン(原料を輸入で賄っている)もしくは「円」で資金を所有している
ならば円高は価格下落へと繋がるけど外貨資本の日本企業では円高は価格高騰を
引き起こす原因となっているにょ。
それだけだと25000円になった理由にはならないにょ。
DSの場合は19800円で売るべきところを無理をして15000円にしたのだけど上記だと
25000円で売るべき所を無理をして20000円では売らず普通に25000円で売ることにしたと
いう理由にしかならないからね。
では、つじつまの合わない5000円の値上げの原因は一体何なのか・・・?(DS本体発売
当初の価格との比較だと1万円の値上げだけどDSは当初無理をしていたため徐々に価格
アップしてしまったということを考えると当初の販売価格は19800円とすべきだったし、
それから考えると5000円の値上げとなる)
値上げの最大の理由はやはり3D液晶だと思われるにょ。
これもコストを考え最も安いものを選んでいるだろうけどそれでも1000円くらいは
アップしているだろうからね。
あとはカメラ(DSと比べて3個プラス、DSiと比べて2個プラス)とモーションセンサーと
ジャイロセンサーのコストアップになっているにょ。
iPhone4の部品コストを見るとカメラが1個1ドル、ジャイロセンサーが2.6ドル、モーション
センサーが0.6ドルとなっているにょ。
しかし、合計6.2ドルであるため多めに見積もっても600円のアップにょ。
本体の基本スペックアップは時代の流れで相殺すると考え、後は付属品のコストを考えて
みるにょ。
付属品は、ACアダプタ、タッチペン、ARカード6枚、SDカード(2GB)となっているにょ。
ARカードはAR対応ソフト(本体にAR対応ゲームが標準搭載されている)を使うための
ものだけどただの紙だろうからほとんどコストはかからないにょ。
SDカードは2GBとはいえこれは定価では2800円の品にょ。
本体の価格25000円から2800円(SDカードの価格)を引くと22200円となり実質5000円
アップだったのが実質2200円アップに変わるにょ。
部品コストが上記のように1600円アップしているため定価で2200円アップしてもこれは
73%となり上記iPodの原価率から考えて十分許容できるレベルにょ。
以上をまとめるとライバル不在&円高により5000円アップ、本体のコストアップで2200円
アップ、SDカード付属で2800円アップと考えるとDS発売当時から1万円高価な25000円に
なった理由が説明できるにょ。
SCEの場合はプレステ3をあれだけ原価割れの定価を付けたのは量産効果を見込んで
いたためにょ。
工業製品は作れば作るほど1個当たりの金額は安くできるからね。
しかし、量産効果は内製率が低いとあまり効果がないにょ。
量産効果の影響をモロに受けるのは自社製品だけだからね。
そういう面ではSCEは任天堂と比べて内製率が高いためあのような価格付けができたと
いうわけにょ。
実際プレステ3も今では部品コストが定価よりも安くなっているからね。(定価は当初と
比べて半値以下になっているけどコストダウンはそれよりも大きいということ)
それに加えて最新のものか枯れた製品かというのによっても変わってくるにょ。
自社製品でない場合でも最新の高性能部品を使っている場合は量産効果で安く入手が
可能になるからね。
枯れた製品ですでに量産されている場合には年数が経っても価格はあまり変わらないにょ。
コンシューマゲームは数年間に渡って同じもの(より低コストで作れるようにしている
ため中身は異なるけど基本的には同じもの)を作ることで量産効果が発生しているの
だけど任天堂は枯れた部品を使うことが多いためいくら大量に売れても量産効果による
値下げはあまり期待できないにょ。(とはいえ、開発コストがペイできればその分の
値下げは可能になる)
したがって、最初に無理な価格を設定するとそれがずっと影響してくることになって
しまうにょ。
そういう意味では3DSの25000円は任天堂にとってはすごく健全な価格ともいえるにょ。
さて、価格については一旦おいといてそれ以外の面を見てみると3DSの本体の色はアクア
ブルー、コスモブラックの2色が用意されているにょ。
これはDS発売当初の1色よりは良いものの色的に黒と白あたりが無難なのにブルーという
のがどうかと考えてしまうにょ。
裸眼3D液晶を搭載している関係上目にかかる負担を減らすためにはどうしても上半分を
黒にする必要があるため下半分はそれにマッチした色にしなくてはならないという制約が
あるにょ。
本体色のコントラスト比を考えると白は難しいということで恐らくこのブルーになったの
ではないかと思われるにょ。
そうなると3色目はクリムゾンブラック(赤黒)あたりか・・・?
本体の基本機能も大幅に強化されているにょ。
カメラは3D写真を撮ったり、ARに使ったりするだけではなく写真を撮影してMiiを自動
作成できるようにもなったり、QRコードの読み取りにも使えるにょ。
http://www.4gamer.net/games/107/G010761/20100929078/
あとはHOMEボタンがゲームプレイ中でも効くためいつでもメニュー画面に戻ることが
でき、Webブラウザも標準搭載だからゲームをプレイしながら攻略サイトで情報を集める
というマルチタスク処理も可能になったにょ。(WebはWiFi経由のみだけど)
あとは通信の大幅強化があるにょ。
ドラクエIXではすれ違い通信がのべ1億人に達したことで話題になったけどすれ違い通信は
お互いが同じゲームをプレイしてスリープ状態であるという条件が必要だったにょ。
そのためミリオンセラークラスの大ヒットソフトでないとすれ違い通信はなかなかできず
大ヒットではないソフトやスリープ状態で置いておかれないソフトではそれを全く活かす
ことができなかったにょ。
しかし、3DSではプレイしたことあるゲームではすべてすれ違い通信が可能になったにょ。
さらにWiFi経由だけとはいえ、無料ゲームや最新情報などをプッシュ配信により自動的に
取得可能になったにょ。
つまり、3DSは通信をする意味がより大きくなったということにょ。
あとはVC(バーチャルコンソール)への対応も大きいにょ。
さて、25000円という価格が安いか高いかというのは結局スペックだけではなくどのような
ことができるかというのかでも変わってくるにょ。
いくら高性能でもそれが自分に不要な要素で高価格化を招いているならば高価と感じて
しまうからね。
単純な性能だけならば新型iPod touch(8GB)の方が高いし、価格も安いにょ。
したがって、それを基準にすれば3DSは上記のような理由によって25000円を正当化した
ところで高価なことには代わりがないにょ。
確かにiPod touch、iPhoneというiOS機は9月20日に書いたように大手ゲームベンダーも
力を入れ始めているとはいえ、ショップでパッケージソフトを買って差し込めばプレイ
可能になるというコンシューマゲーム機と比べるとゲーム開始までのハードルが高いにょ。
もしも、ゲームソフトがパッケージソフトからネット配信がメインへと変われば両者は
競合することになるけど現時点ではその域には達してないためまだライバルとはいえない
状況にょ。
もしも、PSP2がPSP goのようにダウンロードアプリ専用となるのであればiPhoneと競合
することになるだろうけどgoの失敗を考えるとやはりダウンロード専用というのは
通信を前提としたスマートフォンだから成功しているのであってコンシューマゲーム機に
おいてはまだメインとなるには時期尚早だと思われるにょ。
したがって、やはり25000円という価格になった最大の理由はライバル不在というのが
最も大きいのではないかと私は思うにょ。
3DSよりも高性能なPSP2が26800円とかで販売開始されたら無理をしてでも2万円以下の
価格にするだろうからね。
とはいえ、過去の例からすると据え置き機は3万円を切ってから普及が開始するけれど
携帯機だと2万円を超えて普及した例はないにょ。(普及の基準は国内300万台程度)
そう考えるともしも3DSを普及させるためには早期に2万円を切ることが求められてくる
わけにょ。(「携帯機は安いのが当たり前」という認識が多くのユーザーにある)
3DSは話題性により当初は売れるだろうけどライバル不在だからといって25000円で売り
続けた場合はDSのような爆発的ヒットは難しいと思われるにょ。
やはり、DSのヒットの1つの要因は15000円という価格の影響(つまりソフトを1本買って
2万円でお釣りが来る)というのが大きかったからね。
もっとも、3DSの価格が25000円であるお陰で年末商戦における現行DS本体の買い控えと
いうのはあまりないかもしれないにょ。
もしも、20000円であれば現行機との価格差を考えた場合に最も大きい年末年始で買い
控えが起こる可能性があったから「発売時期を遅らせざるを得なかった」ということが
25000円という価格になった原因の1つと考えられるかもしれないにょ。
α55は理想の入門用デジタル一眼!?
9月10日に発売となったα55だけどようやく国内の大手サイトでレビューが公開されたので
見てみることにするにょ。
http://dc.watch.impress.co.jp/docs/review/newproduct/20100929_396624.html
α55がどんなデジタル一眼かというと8月25日にここで書いたのだけど半透明ミラーを
用いることでミラーを高速に動かすという必要がないため入門機に位置するにもかかわらず
10コマ/秒という高速連写が可能になったというだけではなくミラーを動かさないため
常時位相差検出方式で高速AFができるというメリットがあるというものにょ。
では果たしてそれがどの程度の実力なのか・・?
α55の特徴の1つといえるのがミラーがあるにもかかわらずEVFを採用しているという
ことにょ。
http://dc.watch.impress.co.jp/docs/review/longterm/20100910_392686.html
EVFにはコマ落ちや遅延があるという問題が依然として残っているもののここ数年前間で
格段の進歩を遂げているにょ。
私も店頭でα55を少し使ってみたけどこれならEVFで問題ないとさえ感じたにょ。
入門機でEVFを採用するのは下記のようなメリットがあると思うにょ。
EVFのメリット
(1)情報がすべてファインダーの中にある
(2)細部が見やすい
(3)絞りの効果などが分かりやすい
(1)は意外に重要にょ。
というのもコンデジからデジタル一眼へとステップアップした人にとってはファインダー内
情報の貧弱さを感じる人も多いと思うにょ。
昨今のデジタル一眼ではライブビューが行える機種ばかりであるためそれを用いれば
コンデジライクの背面液晶を使いながら撮影するということができるもののそれでは
デジタル一眼のメリットは発揮できないにょ。
それは手ぶれによってせっかくの高画質を駄目にしてしまうからにょ。
確かにライブビューは便利だしそれを使うことで撮影の幅が広がるのは確かだけどそれが
メインになっては駄目ということにょ。
それだとEVFを標準搭載しておらず背面液晶のみのミラーレス機を全否定するような感じ
だけどミラーレス機は軽いし、重量バランスはデジタル一眼のように前の方(使用者の
視点だと奥の方)にないし、ミラーがないため「ミラーショック」によるブレもないために
デジタル一眼よりは背面液晶を使うことで生じる手ぶれは少ないにょ。
EVFがあることで必要な情報はすべてファインダー内で確認できるということで常に
ファインダーを覗きながら撮影するという習慣が付くことが入門機におけるEVFを使用する
最大のメリットであると思われるにょ。
この辺は銀塩時代から写真を普通に撮っている人にとっては全く理解しづらい領域にょ。
デジタル一眼においてもシーンモードを使用せず、絞り優先AE、シャッター優先AE、
マニュアル露出で撮影している人にとっては余分な情報など要らないという人さえいる
だろうけど基本はオートでシーンモードでいろいろ楽しみたいという人は背面液晶を
見ながら操作するしかなくわざわざ覗き変えるならば背面液晶のみで撮影した方が気が楽
という人がいても不思議ではないにょ。
(2)EVFも昔のネオ一眼のように数万〜10数万画素しかないような時代だったら何が写って
いるのかを確認する程度(つまり構図の確認程度)にしか使用できなかったけど今は
100万画素を超えているものも多く存在するにょ。
EVFや背面液晶の画素数いうのはちょっと問題でRGBのサブピクセルを1画素として計算して
いるにょ。
したがって、VGA解像度の場合は640x480で約31万画素となるのではなく640x480x3で
約92万画素となっているにょ。
例えばAPS-Cセンサー搭載でファインダー倍率(50mmレンズ装着時)0.7倍というデジタル
一眼があるとするにょ。
APS-Cセンサーでは50mmレンズ使用時には水平画角は約27度となり、その場合は30cm離れた
被写体は水平方向には約13cmの範囲で写るにょ。
人間の目の分解能が300dpiとすると1500x1000ピクセルつまり、450万画素程度のEVFが
必要になる計算になるにょ。
とはいえ、ファインダー越しに300dpiの分解能力はないため半分の150dpi程度確保できれば
それほど遜色がないレベルは確保できるにょ。
画素数でいえば4分の1になるわけであり、112万画素となるにょ。
この数字はα55に搭載されているEVFの画素数(115万画素)とほぼ同等にょ。
それで不満であればEVFの場合は細部を拡大することが可能であり単純に細部の確認が
できるという面に関してはEVFの方がOVFよりも有利になると思われるにょ。
また、EVFでは原理上は視野率100%というのが大きいにょ。
最近はフラッグシップ機ではなく中級機でも視野率100%のものが登場しており、それを
使えばファインダー内で何が写り何が写らないのかを確認できるものの入門機の多くが
90%少々の視野率しかなく誤差も無視できないレベルにょ。(視野率92%ならば8%も
余分なものが写るということ)
銀塩カメラでネガフィルムを使っている人であればどうせプリント時に切られるから
視野率100%のファインダーは無意味だったけど今は写ったものをPCで細部まで確認可能と
なっているため昔と異なり視野率100%の恩恵は大きいにょ。
(3)一眼レフに少し慣れてくると絞りのコントロールなどに魅力を感じると思うにょ。
昔のコンデジでは広い露出コントロールが可能だったにょ。
私が持っているCOOLPIX 990でもF2.8〜F11くらいまで設定が可能だからね。
しかし、画素数が増えて画素ピッチが上がったためそれはできなくなったにょ。
1/2.33インチ1400万画素という今では普通のコンデジでは計算上F2.7で回折限界となり
F1.0クラスの明るいレンズを使わないと絞りのコントロールは有効にはならなくなって
しまったにょ。(F値が変えられる機種はあるけどそれらはすべてNDフィルターによる
ものであり絞りのコントロールは事実上できない)
さて、その絞りの影響だけど入門機のデジタル一眼に一般的に採用されているのは中級機の
ペンタプリズムではなくペンタミラーによるファインダーという点がネックになるにょ。
これによって絞りの効果が分かりにくくなっているにょ。(実際にどの程度ボケるのかが
ファインダーでは分かりにくい)
それはMFでピント合わせをするという場合でも有用にょ。
ペンタミラーファインダーではピントの山がつかみにくくMFではピント合わせをするのも
困難だけどそれはできの良いEVFであれば多少はマシになるにょ。
ということで、今後は中級機以上は視野率100%のペンタプリズムファインダーで入門機は
EVFになっていくのではないかと思われるにょ。
できの良いEVFであれば入門機に使われているペンタミラーよりは格段に良いとはいえ
まだコスト面での問題があるのですぐには取って代わるのは難しそうにょ。(EVFは
ファインダー中に電子水準器を表示できるなど中級者にとってもメリットがあるため
中級機ではFinePix X100のようなOVF、EVFを併用するハイブリッドファインダー搭載機が
出てきそう)
とはいえ、EVFも改善されているけどまだまだ問題点が多いにょ。
その1つがタイムラグにょ。
http://bbs.kakaku.com/bbs/K0000140390/SortID=11957905/
これはOVFでいえば真にリアルタイムで確認できるのだけどEVFではセンサーから情報を
読み出してそれを表示するため絶対にワンテンポ遅れてしまう(タイムラグが発生して
しまう)からね。
これは読み出し速度が遅かったCCDとは異なり今のCMOSは高速読み出しが可能とはいえ
それでも0.03秒くらいかかってしまうにょ。
とはいえ、これは使用者の反射神経(人間の反射神経は0.1〜0.2秒)よりは短いため極端に
気になるレベルではないにょ。
この読み出しはセンサーの小さなコンデジであれば問題ないけどセンサーの大きなデジタル
一眼の場合は「発熱」という問題が顕著になってくるにょ。
昨今はデジタル一眼に当たり前のように搭載されている動画撮影機能だけど動画撮影時に
おいてはセンサーから断続的に高速読み出しが行われているためこの発熱問題がさらに
厄介になってくるにょ。
α55においてもこれは大きな問題となっているにょ。
http://dc.watch.impress.co.jp/docs/news/20100930_397047.html
周辺温度が30℃であれば6分で限界となるみたいだからね。
これはボディ内の手ぶれ補正機能を無効化することで13分まで延長できるとはいえやはり
発熱の問題が大きいことには違いがないにょ。
EVFで遅延を無くそうと読み出し速度を上げた場合はこの発熱問題と戦う必要があるにょ。
表示の高速化は技術の進歩で可能だけど熱問題を克服するのは容易ではないにょ。
さて、α55といえば10コマ/秒というプロ機並の高速連写がウリの1つとなっているけど
店頭で試した時点ではすごい感動的だったにょ。
何せ私が普段使っているD50にしろK200Dにしろ3コマ/秒程度の速度しかないからね。
しかし、連写ができてもそれが使い物になるかは別問題にょ。
店頭では高速に動作する被写体を撮影なんてできないのでレビューを見てみることに
するにょ。
http://dc.watch.impress.co.jp/docs/review/longterm/20100924_395965.html
やはり、入門機ということでプロ機と比較するのはさすがに可愛そう・・・と思ったけど
過度な期待さえしなければそこそこ使えるみたいにょ。
私は店頭で使ってみたα55は標準ズームが遅いせいかAFの速度はあまり速く感じなかった
けれど動体撮影する場合には一般的なデジタル一眼ではミラーを動作させる必要があり
その間は測距ができないため動体予測機能に頼ることになるけどミラー固定のα55の場合
常時位相差検出方式でAFが行えるためプロ機との超えられない性能差があるにも関わらず
それなりに使えるレベルになっているということが言えそうにょ。
ただ、EVFにはタイムラグがあるし、上記レビューにある動画を見ても動体はEVFでは
遅延以外の問題があるのが分かると思うにょ。
http://www.youtube.com/watch?v=-t9SuPkddr0
色ずれ問題やシャッターを押した瞬間に一瞬スローモーションのような状態になったり
するというのは将来的には改善されるだろうけど現時点では速度とコストの問題を考えた
場合は難しそうにょ。
α55は速度ばかりに目がいっているけど最新のセンサーだけあって高感度にも強いにょ。
どの程度まで許容できるのかは人それぞれなので実際にどこまで使えるかは自分の目で
確かめるのが一番にょ。
ISO800 http://dc.watch.impress.co.jp/img/dcw/docs/396/624/031.jpg
ISO1600 http://dc.watch.impress.co.jp/img/dcw/docs/396/624/032.jpg
ISO3200 http://dc.watch.impress.co.jp/img/dcw/docs/396/624/033.jpg
ISO6400 http://dc.watch.impress.co.jp/img/dcw/docs/396/624/034.jpg
ISO12800 http://dc.watch.impress.co.jp/img/dcw/docs/396/624/035.jpg
個人的にはISO1600までは全く問題ない(A4ならば問題なく使える)と感じているにょ。
ISO3200になるとノイズリダクションの関係でディティールが失われている部分が多くなる
けどこれくらいならば十分使えそうにょ。
ISO6400になるとカラーノイズが多く出てくるためL版、2L版で使うかブログに使うくらい
であれば問題はないけど普段の使用にはためらわれるレベルにょ。
ISO12800になるとISO6400より目に見えてノイズがひどくなるにょ。
さすがにこのレベルだと「非常用」限定になりそうにょ。
ミラー固定ということでいくら透過率の高いミラーを採用しているとはいえ、1/3段程度
不利になっていると思われるため高感度では不利なのは否めないけどさすがに最新の
センサーだけあってそのデメリットを帳消しにするくらいのレベルはあるにょ。
さらにα55ではマルチショットNRを搭載しているのが大きいにょ。
これはすでにソニー製のデジカメでは標準搭載といっても過言ではない手持ち夜景で使用
されているもの(名称は異なるけど他社も同様の技術を使ったものがある)であり要するに
マルチショット(ソニーの場合は6ショット)の画像をうまく合成することでノイズを
減らすというものにょ。
これは私が持っているTX1に搭載されているけどその効果は絶大にょ。
ISO1600でも並のコンデジのISO400クラスの低ノイズだからね。
これは私が持っているD50やK200Dというデジタル一眼と比較してもそれほど劣らないという
優れものにょ。
これが夜景以外(オート以外)でも使えるのがマルチショットNRであり、ソニーのデジタル
一眼レフではα55で初搭載されたにょ。(ミラーがあってもその役目を果たしてないα55を
「一眼レフ」と呼ぶのは難しいと考えもあるけどそれはとりあえず今は保留としておく)
これは、マルチショットNRには高速連写が必要であるため一般的な一眼レフでは搭載する
のが厳しいからにょ。
○マルチショットNRなし(通常撮影)
ISO12800 http://dc.watch.impress.co.jp/img/dcw/docs/396/624/036.jpg
○マルチショットNRあり
ISO12800 http://dc.watch.impress.co.jp/img/dcw/docs/396/624/037.jpg
マルチショットNRを使わない通常撮影では上記のようにISO12800は非常用以外には使えない
レベルだけどマルチショットNRありだと通常撮影のISO6400よりも低ノイズでISO3200に
迫るくらいのものにょ。(ISO12800はフルサイズのプロ機であるニコンD3sよりも上かも)
これならばマルチショットNRを積極的に使ってもいいのではと感じさせるにょ。
もっとも、画像を合成させるということが必要であるため静止している被写体でないと
使えないけどね。(静止していても手ぶれを起こしていたらうまく合成できないので低
ノイズを実現させるには極力手ぶれをしないことが重要になる)
α55を見てきて最初は速度(カタログスペック)だけのカメラだろうと思っていたけど
意外に使えることが分かったし、店頭で見てもEVFが想像していたものよりずっと良かった
上にこのマルチショットNRはすごく魅力を感じているにょ。
ということでもしも入門機でどれか1台選べと言われたらα55を選んでしまいそうにょ。
EOS Kiss X4は発売から半年経つとはいえ依然としてそのスペックは最新入門機にひけを
とらないし、ニコンD3100はニコンらしくバランスが取れた良い機種だし、ペンタックス
K-rは入門機とは思えないハイスペックな部分を含んでいるしカラーもいろいろ選べると
とうのが魅力であるため他の機種にも良い部分はあるけどね。
Slate PCは普及するのか・・・?
iPad発売以降、雨後の筍のようにどんどん発表されているタブレット型端末だけど先日
国内メーカーからついにWindowsを搭載のタブレット端末(Slate PC)が発表されたにょ。
http://pc.watch.impress.co.jp/docs/news/20100928_396565.html
Slate PCは今後大きな拡大が期待されているけど本当にそうなのか・・・?
やはり気になるのは以下の2つの点にょ。
(1)タブレット型である必要があるのか
(2)Windowsが必要か否か
では、それら2点について考えてみるにょ。
(1)そもそも需要がないところに供給はないわけであってそれなりに大きな需要(パイの
大きさ)があるからこそ各社がこぞって発表しているだろうから「自分に必要ない」
ということでそれ自体を否定はできないにょ。
もっとも、タブレット端末というのはiPadが起源なんてことはなく古くから存在するにょ。
業務用では手に持って使えるデバイスというのは昔から一定数の需要があるからね。
しかし、あくまで業務用がメインということでそれらは安価とは言い難かったにょ。
比較的安価なのが6月8日にも書いたようなOrigamiにょ。
ただ、Origamiはヒットには至らずその「安価な個人向けの小型PC」という考えはネット
ブックへと受け継がれたにょ。
業務用であればタブレット端末の需要がそれなりにあるというのは分かると思うけど問題
となるのは個人需要にょ。
あれだけ多くの機種がすべて業務用(法人向け)として作っているというわけではない
からね。
タブレット端末がキーボード一体型(通常のクラムシェル型)と比べてアドバンテージが
あるとすれば「タッチパネルが使いやすい」ということと「軽い」ということにょ。
普通のクラムシェル型でもタッチパネルは使えなくはないけど「タッチ操作をするときは
キーボードが邪魔」ということに加えて「重心」の問題があるにょ。
クラムシェル型の場合は液晶はヒンジによって前後に自由に動くためタッチをすると
液晶画面が動いてしまったり、手に持った状態でタッチするならば重心変動により不安定に
なってしまうにょ。
これはある程度以下の小型軽量の端末であれば緩和されるけど片手(指2本くらい)で楽々
持てるようなサイズ、重量でない限りはやはり厳しいと思われるにょ。
サイズ、重量が一定以上の場合はうまく腕を使って固定しようにもキーボードが邪魔である
ためそれもできないからね。
そのためクラムシェル型でありながらタッチパネルでの操作を重視した機種はコンバーチ
ブルスタイルを採用しているにょ。
これならばタッチ操作をするにもなどによってキーボードが邪魔にならず液晶がぐらぐら
しない状態で使えるようからね。
コンバーチブルスタイルは2軸ヒンジによって液晶モニタを左右に回転させる機種が大半
だけどDellは別の方法で実現している機種を発表したにょ。
http://www.itmedia.co.jp/news/articles/1009/15/news042.html
この縦方向への回転はあまり採用例がないけどコンバーチブルスタイルだと原理上どう
しても奥行きが長くなってしまうのを防ぐことができそうにょ。
確かにコンバーチブルスタイルだと「タブレット端末はキーボードがない」「クラムシェル
型だとタッチ操作する場合にキーボードが邪魔」という問題点が解消されるとはいえ、
タブレット端末よりもキーボードの分だけ重くなっているだけではなくコンバーチブル
スタイルにするためにさらに重くなっているという問題があるにょ。
この余分なサイズ増、重量増は手に持って使う端末としては致命的といっていいにょ。
これが業務に必要であれば妥協できるけどそうでないならば必ずしもコンバーチブル
スタイルが良いとは言えない状況にょ。
ここまで来ればだいたい分かると思うけどタブレット端末が普及するためにはキーボードの
有無というよりもタッチ操作による重要性が広まることに加えて立った状態、もしくは
両手に持った状態で使うという使用方法がどれだけ普及するかにかかっているにょ。
テーブルの上に置いて使うのがメインであればクラムシェル型の方が遙かに使い勝手が
いいわけだからね。
ただ、それに関してはまだ未知数にょ。
将来的には電子ブックの普及などにより小型軽量なタブレット端末が普及するだろうけど
現時点では需要より供給が先行しているように私は感じているにょ。
すでに小型軽量なタブレット端末といえばスマートフォンがあるけど何度も書いている
ように一定以上の情報量を確保するにはある程度の画面サイズが必要になるためスマート
フォンの解像度がいくら上がってもほとんど無意味になるにょ。(3.5インチフルHD液晶の
スマートフォンが仮にあったとしてそれでA4見開きの雑誌が読めるというわけがないと
いうことを考えれば分かると思う)
(2)これがすごく重要なことにょ。
ネットブックは「Windowsが動作する」から売れたというのは間違いないにょ。
それは安価で小型のPCとして購入する人が大半だからにょ。
ここで「PC」というのは一般的なWindows PCであり、これがLinux搭載であったら少なく
とも日本ではそこまで大ヒットに繋がることは無かったと思われるにょ。
では、タブレット端末でも同じことが言えるかというとYESでもありNOでもあるにょ。
確かに制約が少なく(普段からPC使っている人ならば)普段使っているアプリと同じものが
使えるということがWindows搭載のタブレット端末(これは「Slate PC」と呼ばれている)
にはメリットはあるもののそれはWindowsを動作させることを考慮したネットブックだから
こそ成功したのであってタブレット端末においてはその考えは通用しないにょ。
それは、Windowsというのが基本的にマウスとキーボードで操作するOSだからにょ。
ネットブックの場合はキーボードとマウス(タッチパッド)を標準で備えておりスペック
面(CPU性能、液晶画面解像度)の問題を除けば普通にPCとして使うのに何ら問題もない
からね。
これがタブレット端末だとまた変わってくるにょ。
OSがマウスとキーボードを要求するということでアプリもほとんどのものがそういう
造りになっているからね。
ただ、業務用であればタッチパネルでの操作が前提となるためタッチパネルで使いやすい
アプリを利用する(というか業者に発注して作ってもらう)という方法があるものの
一般ユーザーはすでにあるアプリが使えるからWindowsのメリットがあるのにその使い勝手に
難があるのではタブレット端末を使用するメリットがあるとは言い難いにょ。
確かにXP→Vista→7と徐々にタブレット機能が強化されてきており、キーボードやマウス
という機器は徐々にその存在が薄れかけているとはいえ、肝心のアプリの方が対応できて
ないのでどうしようもないにょ。
タッチ操作に最適化したアプリを作ろうにも現時点では業務用以外には需要が少ないので
あまり作られず、そういうタッチ操作に最適化したアプリがないためSlate PCというものは
個人向けとしてはあまり良いものではないにょ。
その点、最初からタッチパネルを前提としているiOSやAndroid OSはその辺が全く異なる
ためタブレット端末の恩恵は大きいにょ。
http://pc.watch.impress.co.jp/docs/column/config/20101001_397112.html
さらに言うならばOS自体の重さも異なるにょ。
リッチなハードウェアで動作させるのが前提のWindowsは快適動作させるためには必要な
スペックがどうしても高くなってしまうにょ。
これは一般的なネットブックより遙かに低スペックのAndroid OS端末が快適に動作して
いるのを見れば明白だと思うにょ。
ハードウェアに高い性能を求められないということは価格を抑えることができるという
ことにも繋がり、省電力で動作するということでバッテリ容量が抑えられるためそれは
軽量化にも繋がるにょ。(消費電力と重量の関係は5月8日に詳しく書いた)
(1)でも書いたように手に持って使う機会が多いであろうタブレット端末においてこれは
大きなアドバンテージになるにょ。
以上を元に考えると現時点において「Slate PC」は必ずしも良いものとは言えないことが
分かると思うにょ。
やはりキーボードレスのSlate PCはどうしてもユーザーを選んでしまうからね。
それが必要な業務であれば最初に書いたように大きなメリットとなるにょ。
あと価格も今回発表されたオンキヨーの3機種は業務用として考えるならばかなり安価で
あるため一定数の需要はありそうにょ。
TW317A5 Atom N450 1GB SSD32GB 11.6インチWXGA 1.0kg 69800円
TW217A5 Atom Z530 1GB SSD32GB 10.1インチWSVGA 850g 59800円
TW117A4 Atom N450 1GB HDD160GB 10.1インチWSVGA 990g 49800円
スペックだけを見るとネットブックからキーボードを取っただけということもあって
「キーボードがない分だけ軽くなったネットブック」でしかないけどそれでもかなりの
問い合わせが来ている模様にょ。(USBが付いただけでも喜ばれるということは他の選択
候補となったのはとなったのはiPadか!?)
ただし、キーボードレスのWindows PCであるため「キーボードがないのがメリット」と
感じることができず「キーボードがないのがデメリット」と感じている人であればやはり
Slate PCを使うべきではないということにょ。
しかし、特定の使い方しかしない業務用ではなく汎用的に用いる個人用途であればやはり
(2)で書いたようにWindows PCにおいてキーボードがないことがデメリットに感じている
人が多いのはやむを得ないことだと思われるにょ。
Slate PCはWindowsが使えることによって便利な面があるもののやはりそれを普及させる
ためにはWindowsそのものが変わるかユーザーの使い方が変わるしかないにょ。
恐らくWindowsのUIをタッチパネルに特化させることは少なくとも今後しばらくの間は
期待できそうにないのでユーザーの使い方が変わる方を期待するしかないにょ。
もっともiPadの普及で徐々に変わりつつあるし、スマートフォンの普及によって画面サイズ
というのが情報量に与える影響が大きいということも徐々に気づくと思われるためユーザー
側の変革はすでに始まっていると思われるにょ。
つまり、iPadのような非Windowsのタブレット端末とスマートフォンが普及することで
キーボードレスに対する不満点が徐々に薄れる(キーボードを使わない使用方法という
ものをユーザーが分かってくる)ため「Windowsが使える」ということにメリットを見い
だせる人にとってSlate PCを選択するメリットが生まれてくるということに繋がって
くるにょ。
確かに、文書作成、プログラミングなどのコンテンツ作成を目的をした場合にはキーボード
レスの端末を選択するのはあり得ないけどそうでないならば6月26日にも書いたように
徐々にハードウェアとしてのキーボードの存在役割は減ってきていると思うにょ。
「1つの端末ですべてを賄う」というのはやはり無理があるので「用途で使い分ける」と
いうことが出来るかどうかが今後はタブレット端末の普及に大きく関わると思われるにょ。
「Slate PC」というのはそれがメインの存在になるわけではなく1つの候補(キーボード
レスでも困らないけどWindowsアプリが使えないのは困るという人向け)としてその役割を
担っていくと思われるにょ。
ただし、現時点では何度も書いているようにWindowsがタッチパネルに特化したOSではない
ため業務用途以外で使うには自分の需要を満たせるかちゃんと吟味する必要があるし、
ハードウェアの関係上消費電力が大きいため「バッテリ駆動時間が短い」もしくは「重い」
という問題があるにょ。(上記のようにネットブックと比べて重量がシビアになる)
Slate PCを一般に普及させようとするならばまずはそのバッテリ問題が解決されてからに
なりそうにょ。(だからこそ次世代AtomのOakTrailに期待したい)
10.1WXGA液晶は10.4XGA液晶より情報量が少ない!?
先日発表されたLet'snote J9だけど2chでの評価は賛否両論・・・というか否定する人の
方が圧倒的多数に感じるにょ。
デザイン等は主観であるためどっちが良いかは客観的判断はできないものの「堅牢性」
というLet'snoteの大きなウリを損ねているというのが否定する理由の大半にょ。
堅牢性が落ちたといっても一般的なネットブックやCULVノートに負けるようなレベルでは
ないと思うけどやはり「安心感」という付加価値をLet'snoteに求めている人にとっては
非常に大きいにょ。(ジャケットを装着すれば従来機並の堅牢性を確保できるとはいえ
一回り大きくなり、重量も重くなるためせっかくの小型軽量が損ねられてしまう。
さて、堅牢性以外にも否定する人がいるのはワイド化にょ。
Let'snote Rシリーズは4:3のスクエア液晶を前提にして作られたといっても過言ではない
計算しつくされた筐体サイズ(10.4インチのスクエア液晶を用いてフットプリントを
どこまで小さくできるかを実現したようなもの)だったために9月29日に書いたように
筐体サイズを維持するためには同一インチ数のワイド液晶を搭載した場合にはフット
プリントの大型化は避けられなかったにょ。
普通に考えたら同じインチ数であればワイド液晶の方がスクエア液晶よりも面積が小さい
(単純計算でワイド化することで11%面積が小さくなる)から筐体サイズは本来であれば
小型化可能になるにょ。
それが10.4インチよりもインチ数で3%、面積では6%さらに小さな10.1イン液晶(トータル
16%で面積が小さい液晶)を用いて小型化できないということはいかにRがスクエア液晶に
最適化されていたかということが分かると思うにょ。
TVの場合もスクエアからワイドに買い換える場合はインチ数で1割大きなものにすべきと
いうのはこのような計算を元にして考えられていると思われるにょ。
そうすることでワイド画面は縦方向に小さいため小さく感じるという問題点が無くなる
というわけにょ。
PCでいえば10.4インチスクエア液晶のRから買い換える場合は同じような考えで12.1インチ
ワイド液晶のものにすれば「画面が小さくなった」と感じることは無くなるにょ。
しかし、モバイルにおいて筐体サイズや重量は非常に大きな要素であり、個人的には
10.4インチのRシリーズと12.1インチのモバイルノートは別物に感じるにょ。
ある程度の距離を離れて観るのに加えて一点を注視するのではなく画面全体を観るTVの
場合はインチ数の違いが視覚情報に大きな影響を及ぼすのだけどPCの場合は視覚情報に
大きな影響を与えるのはサイズよりもむしろ画面解像度だと思うにょ。
HDTVでもフルHD(1920x1080)とハーフHD(1366x768)では情報量が異なるけどそれは
一点を観た場合に分かるというだけであって普段の視聴においてはそれほど大きなもの
ではないにょ。(解像度の差よりも液晶のインチ数の方が視覚的影響は大きいということ)
しかし、PCにおいては画面解像度はTVとは異なり明確な差となって現れてくるにょ。
10.1インチWXGA液晶は10.4インチXGAより面積が16%減ったために「情報量が16%減った」
なんてことはなくXGA→WXGAで33%情報量が増えたというのが正しい見方となるにょ。
しかし、それは必ずしも正しいとはいえないにょ。
それは実用解像度がどれくらいなのかというものが大きく影響してくるからにょ。
一般に人間の目は300dpi程度の分解能を持つと言われておりそれは6月14日に私が自ら
行った実験でもほぼ正しいことが実証されたのだけどやはり実用解像度は以下の4つに
よって左右されると思うにょ。(昨年7月15日にも同様のことを書いたけどさらに詳しく
考えていくことにする)
(1)使用距離
(2)使用用途
(3)使用場所
(4)使用時間
(1)はここで何度も書いているけど300dpiという人間の目の分解能は30cm離れて見た場合
だから距離によってこの分解能はほぼ反比例するにょ。
PCの場合はまずデスクトップPC(本体と画面が分離しているもの)かノートPCかによって
変わってくるにょ。
モニタが本体とは分離している場合は好きな距離に設置できるから見やすい距離に調整
して終わりだからね。
しかし、ノートPCの場合はそのような調整はできないにょ。
そのため画面までの距離は一定以上近づけることはできず体格やPCを使用時の姿勢で左右
されるもののその距離は概ね50〜60cm程度ではないかと思うにょ。
30cmの距離で300dpiであれば50〜60cmの距離では150〜166dpiとなるにょ。
これが手に持って使える端末(スマートフォンやポケットサイズのPC)では変わって
くるにょ。
見えなければ画面を目に近づければ良いというだけの話だからね。
15cmまで近づければ600dpiまで可能とはいえ、それはさすがに目に負担がかかりすぎる
ためにやはり30cm以上は離す必要があるにょ。
そうなると人間の目の分解能である300dpiがそのまま適用可能になるにょ。
(2)大きく考えると「閲覧のみ」か「編集作業をする」かということにょ。
閲覧の場合はぶっちゃけ細部が見えなくても粗方把握可能だからね。
テキストを見る場合は例えば「ば」と「ぱ」の違いなんてほとんど気にならないにょ。
というのも人間には高度な補完能力があるためにょ。
意味不明な言葉の羅列であれば細かい部分を見るけど脳内にある単語の場合は自分にとって
都合の良いものに勝手に置き換えられてしまうにょ。
「かんぱんむすめ」は「かんばんむすめ(看板娘)」と解釈してしまうということにょ。
画像閲覧の場合でもピクセル単位で見るなんてことはなく形や色が分かれば問題ない
わけだからね。
しかし、編集作業を行う場合はそうもいかないにょ。
「どうせ閲覧者は細かい部分を見ない」ということでそれを蔑ろにするなんてことは
さすがにできないからね。
テキストか画像かさらに使用するソフトは何かによって変わってくるものの閲覧するのと
編集作業を伴う場合には許容できるドットピッチには大きなずれがあるということにょ。
ケータイやスマートフォンでは閲覧が圧倒的にメインだろうからドットピッチを高める
ことは非常に意味はあるにょ。(少なくとも300ppiまではリニアに影響すると言っても
いいと思う)
(3)意外に気になるのは場所、つまり周囲の環境にょ。
自宅で自分の部屋で固定して使う(もしくは室内の職場で固定して使う)という場合には
ほぼベストな環境であるため高いドットピッチでも問題なく使えるにょ。
しかし、モバイルノートの場合は持ち出して使うという機会が多くなるためそのような
ベストな環境で使えるとは限らないにょ。
例えば屋外で使う場合には使いやすい位置(建物の中など)に入ってわざわざ使うという
ことは難しい場合もあるし、移動中に電車やバスなどの中で使う場合には光線状態を
選ぶことはできないにょ。
さらに移動中に使う場合は振動も馬鹿にはならないにょ。
比較的安定している新幹線であれば全く苦痛にならないけどバスの中で使用する場合は
やはり振動が大きいからね。
振動が液晶画面に対する見やすさを損ねるというのは実際に使ってみないと分からないこと
だけど手ぶれ補正機能のないデジカメを用いてスローシャッターで撮影するというのを
想像して貰えたら分かりやすいと思うにょ。
(4)30分使うのと8時間使うのでは同じ環境であっても疲れやすさは別物にょ。
店頭で2、30分使ってみて「これくらいなら問題ない」と判断するのは早計にょ。
例えば、「2kmならば10分あれば十分に走れる」という人がフルマラソンを210分(3時間
半)で走れるかというとそうとは言えないのと同じにょ。
8時間連続して使うことが予想される場合は8時間連続して使ってみないと分からないと
いうことにょ。
また、「疲れやすさ」というのはマラソンでの体力とは異なりストレートには現れて
来ないために1回8時間使えたからといって安心はできなにょ。
要するに1日しかPCを使用しないのではなく毎日PCを使用するならば「フルマラソンを完走
できるかどうか」ではなく「毎日フルマラソンを完走できるかどうか」ということに
なってくるというわけにょ。
フルマラソンは毎日無理でも2kmのジョギングならば毎日続けても問題ないという人は
多くいることだと思うにょ。
それと同じく(本来は目にかなり負担がかかっているであろう)高いドットピッチの
PCでも毎日短時間であれば問題なく使えると思うにょ。
つまり、そのPCを何時間程度連続して使うのかということが非常に重要な要素となって
くるということにょ。
人間の目の分解能(≠視力)は人によって大きな個人差はないと思われるにょ。
しかし、(1)〜(4)の「距離・用途・場所・時間」は当然のことながら人によって全く
異なるものだと思うにょ。
編集作業がメインというのであれば人間の目の分解能がボトルネックになるためいくら
ベスト環境であっても実用可能ドットピッチには限界による影響が大きくなる(長時間
使うのであれば個人的には分解能の8割くらいのものにしたい)、そうでないならばドット
ピッチを超えても十分に実用になるからね。(「疲れやすさ」というのも個人差がある)
300dpiという人間の目の分解能を元に166ppiがボーダーライン(50cmの距離で使用)として
長時間使用を目的としてボーダーラインが8割に下がると考えるならば133ppiとなるにょ。
つまり、その前後くらいが私が長時間使用する場合においては限界となるラインといえる
わけにょ。
私が使っているR5は10.4インチXGAであるため123ppiとなっており、計算上からも実際の
使用の面からも長時間使用において問題はないにょ。
ちなみに12.1インチWXGAのLet'snote Sシリーズ、Nシリーズは125ppiであるためRシリーズ
から買い換える場合はドットピッチだけを見ればスムーズに移行できると思うにょ。
さて、このような点を踏まえてR9(Rシリーズ)とJ9を比較してみるにょ。
R9は123ppiに対してJ9は155ppiとなっているにょ。
166ppiを下回っているため編集作業がメインでも十分に使えると予想できるけど長時間使用
におけるボーダーラインの133ppiを超えているため長時間の編集作業は厳しそうにょ。
もっともテキスト編集の場合は「白地に黒文字」もしくは「黒地に白文字」で設定している
人が大半であると思われ白黒の場合は分解能は300ppi/30cmではなく400〜480ppi/30cm
程度に達するため8割であっても200ppi/50cmを超えてしまうのだけどこれは便宜上300ppiの
8割として書いているだけであって実際は「モノクロ基準で480ppiの5割」が長時間使用
可能なボーダーラインとして解釈して欲しいにょ。
133ppi(私の場合のボーダーライン)を超えた場合には長時間使用が難しいといっても
液晶の解像度変更や表示DPIの変更を行えば問題なくなるにょ。
その場合は、いくら解像度が高くても表示できる情報量が減ってしまうことになるにょ。
そに結果として生まれたのが「10.1インチWXGA液晶のJ9はは10.4インチXGA液晶のR9よりも
表示できる情報量が少ない」ということだと思われるにょ。
上記(1)〜(4)の4つの条件は人によって大きく異なるためある人が「問題ない」と感じて
別のある人が「問題あり」と感じても全くおかしなことではないということにょ。
13.3インチでフルHDを実現したVAIO Zでも単純に画面解像度が増したということが情報量
増加と感じる人もいるし、DPI設定を変えないと使えない人にとっては同じ13.3インチ
だから表示情報量は変わらないと感じる人もいるというわけにょ。
しかし、「実際に使ってみないと自分にとって使えるかどうか分からない」というのは
かなり厄介な問題にょ。
最悪の場合は上記のように表示DPIを変更すれば良いといってもそれではせっかくの
高解像度を十分に活かせるとは言えなくなってしまうわけだからね。
現在13.3インチWXGA(118ppi)のPCを使っていて13.3インチフルHD(166ppi)のPCに
乗り換えを考えている場合には現在そのPCを50cmの距離で使用しているならばその
1.4倍の70cmで使用することで166ppiを体感することができるにょ。
それで長時間使用していて問題ないならば買い換えても大丈夫にょ。(上記のように疲れは
徐々に蓄積されてくるため1日ではなく1週間くらい連続して使用を薦める)
「いつの間にか通信」は究極のマジコン対策!?
さて、先日ついに発売日、価格が発表されたニンテンドー3DSだけど「発売されたらすぐに
買う」という人もいれば「しばらく様子見をする」という人もいるかもしれないにょ。
携帯機なのに25000円という高値(これより高い国内の携帯ゲーム機はPCエンジンGTくらい)
であるため「安くなってから買う」という人もいるかもしれないにょ。
私はGB、GBポケット、GBカラー、GBA、GBASP、GBミクロ、DS、DS Liteと任天堂の携帯機は
ほぼすべて買ってきた(買ってないのはGBライトとDSiくらいか)けど世代交代を行った
場合と小型化された場合に限っては100%買っているので3DSも時期は分からないけど
確実に買うと思うにょ。
さて、3DSの最大のウリといえば「裸眼3D」にょ。
TVの対応が必須の据え置き機の3Dとは異なり携帯機では本体を買えば誰でも3Dを楽しむ
ことができるしソフトも3D対応であり「ハードウェア」「コンテンツ」の両方が一気に
揃うことになるため「3Dがなかなか普及しない」という原因を完全に克服しているにょ。
また、「3D(立体視)そのものに問題がある」という指摘もあるかもしれないけど
6月17日に書いたようなメリットがありこれはゲームにとってはただのおまけではなく
「モノクロ→カラー」とか「2D→3Dポリゴン」とか以上に大きな変革になるにょ。
確かに3D(立体視)液晶は6月21日に書いたような問題点はあるけどそれは手に持って
プレイすることが前提の携帯機だから3D(立体視)表示の問題は緩和されているにょ。
それ以外の3DSのウリといえばやはり9月30日にも書いたような通信関係にょ。
「すれ違い通信」も従来だとプレイしているゲーム(カートリッジが挿されているゲーム)
だけに有効だったけど今までプレイしたゲームすべてに有効になったわけだからね。
それを支えているのが本体に内蔵されたフラッシュメモリだと思うにょ。
リーク情報では1.5GBあるとされている内蔵フラッシュだけど1.5GBというと少ないように
見えるけどWii(512MB)の3倍、DSi(256MB)の6倍の容量だからね。
しかし、内蔵フラッシュはほとんどがシステム用に使われる模様にょ。
そのためコンテンツ利用のためにSDカード(2GB)が付属しているくらいだからね。
システムが高度化、複雑化すればするほどそれに穴が出てくるにょ。
そのシステムの脆弱性は多くの場合メーカーにとっては不利益な方法に悪用されてしまい
がちとなっているにょ。
これによって自作アプリの動作が可能になるというだけではなくバックアップされた
ゲームソフトを自由に使用可能になるにょ。
著作権法の観点から考えると個人的な使用において(コピーコントロールを回避させる
方法をしない限り)バックアップを取ることは何ら問題はないためそれ自体には法的な
物は絡んでこないけど問題はそのバックアップされたゲームがネット上に多く出回って
いるということにょ。
これは6月19日にも書いたけどかなりの量になっているにょ。
小学生でも今やネットは普通に扱える時代であるためそのような違法ソフトは90年代の
ようなアングラなものではなくなっておりそれを普通に使用しているのが当たり前のような
認識を持っている子供達も今では少なくないにょ。
例えるならば「皆が万引きしているから自分が万引きしても悪いことだと思わない」と
いう認識が広まっているということにょ。
万引きと違って「物理的に存在しない」ということに加えて「捕まることはほぼない」
ということがより拡大を促進していると思われるにょ。
DSでバックアップというと通称「マジコン」と呼ばれる機器を使用する必要があるけど
これらを本当にバックアップ目的で使うのであれば上記のように問題はないにょ。
しかし、多くの場合は違法アップロードされたゲームをプレイするのに使用されている
という現状があるにょ。
さて、そのマジコン対策を何もしていないのかというとそうではなくまずはソフト側で
マジコンを使った場合には正常にバックアップできないという措置をしているものが
あるにょ。
しかし、本体側での対応が行われないとどうしようもないにょ。
DS→DS Lite→DSiとモデルチェンジを行ってきたDSだけどそれはマジコン対策という
側面を併せ持っているにょ。
しかし、その対策をしたところですぐに対応機器が登場するためいたちごっこ状態にょ。
PSPの方もシステムの脆弱性を付いてCFWを導入によってバックアップされたゲームを
プレイ可能になるけどPSPはシステムを更新しないと最新のゲームはプレイできないと
いう措置によってCFWの拡大を阻止しているもののそれもあまり効果はないにょ。
つまり脆弱性が見つかった時点ですぐに塞がないと駄目ということにょ。
3DSの「いつの間にか通信」はプッシュ型のコンテンツ配信であり、動画や情報などを
スリープ中にダウンロードしてくれるというすごいものなのだけどシステムの脆弱性を
自動的に塞いでくれるという側面を併せ持っていると考えられているにょ。
PSPの場合はユーザーの手によってシステムの更新をする必要があるため更新するかどうか
というのはユーザーの手にゆだねられているにょ。
3DSは「いつの間にか通信」によってユーザーは「システムの更新」というものを考える
必要なく最新の状態に保てるということにょ。
もっとも、それにはネット環境とスリープ状態で使用するという2つの条件が必要になって
くるにょ。
ネット環境は今となってはほとんどの家庭にあるけど問題はいかにスリープをユーザーに
使用させるかということが重要となってくるにょ。
スリープ機能はGB、GBAでは使用されておらずDSで初めて導入されたのだけどこれによって
ようやく携帯ゲーム機としての本領が発揮出来るようになったにょ。
従来であれば外出先でゲームをプレイしていてやめたいけどセーブできないという場面に
おいては泣く泣く電源を切るか電源を付けたまま放置で自宅に帰るまでバッテリ切れに
ならないのを祈るという二択しかなかったけどこれがスリープ状態にすることで大幅に
緩和されたからね。
しかし、モバイルノートでスリープを使用せずシャットダウンを行う人がいるように
携帯ゲーム機においてもスリープは使用しないという人もいることだと思うにょ。
DSではスリープ状態にすることで「すぐに終了・再開できる」というメリットがあるだけ
ではなく「すれ違い通信」というメリットによってスリープをすることをユーザーに
促進していったにょ。
すれ違い通信対応のゲームをプレイしているユーザーであればそうでないユーザーと
比べてスリープの使用率は圧倒的に高いのではないかと私は予想しているにょ。
ただ、スリープは外出先ではメリットが大きいけど自宅ではそのメリットは薄れてくる
からね。
それはスリープのメリットであるすれ違い通信は基本的に自宅では使い物にならない
からにょ。(家族間や個人所有の複数のDSを用いてすれ違い通信を行うという方法も
あるけど)
自宅などのWi-Fi通信環境がある場所でスリープを行うように促進させるにはどうするのか
ということで考案されたのが「いつの間にか通信」だと思われるにょ。
自宅でスリープ機能を使わせるにはそうすることでより便利になるというものをユーザーに
与える必要があるからね。
これによってユーザーは特に意識することなくシステムは常に最新の状態を保つことが
可能になると考えているにょ。
ただ懸念されるのがスリープ中の消費電力にょ。
動作時の消費電力は任天堂のことなので従来のDSと同レベルの駆動時間を実現できるまで
抑えているだろうけど3DSではスリープ中に行えることが遙かに増えたのでスリープ中の
消費電力増大が予想されるにょ。
モバイルノートでもスリープ中の消費電力はかなり重視している私にとってはこれは
かなり気になる部分だけに出来るだけ抑えるように努力してもらいたいものにょ。
自宅でスリープさせるならばクレードルの上に載せているだろうから消費電力の問題はない
ためにAC使用時のみ「いつの間にか通信」を行えば解決といっても自宅にはWi-Fi環境が無く
出先で使用している人もいるからそれは解決策とはいえないわけだからね。
ついにスマートフォンのガラケー化が始まった
スマートフォンは急速に普及しており、9月4日に書いたように2015年には国内においても
スマートフォンのシェアが半数近くに達することが予想されているけどスマートフォンの
普及はそのような簡単なものではないにょ。
確かにそれが必要な人がいるため一定数の需要があるけど「必要だから買う」という
人は実際にはそれほど多くはないし、ガラケーで当たり前のように出来たことが出来なく
なるということを考えると普及は難しいと思われるにょ。
したがって、スマートフォンを普及させようとするならば9月12日に書いたように
スマートフォンをガラケーのように進化させる必要性があるにょ。
そんな中、ついにワンセグ、おサイフケータイ機能が搭載されたスマートフォンが発表
されたにょ。
http://k-tai.impress.co.jp/docs/news/20101004_397518.html
今回auから発表されたIS03だけどやはりウリは「『1台目』の携帯電話」にょ。
スマートフォンは確かに便利な面を持っているけど主に海外メーカーが開発したもので
あり、世界的需要を狙って作られたものが多いため日本の実態を把握しているとは言い難い
ものがあったにょ。
それはUIの問題もあるけどやはり大きいのはガラケーでは出来て当たり前の機能を搭載
していないということにょ。
そんな機能は「無くても問題ない」と考えている人はすでにスマートフォンに移行している
だろうし、「無いと困る」という人は1台目にガラケー、そして2台目にスマートフォンと
2台持ちをしていると思われるにょ。
しかし、2台持ちはコストの負担が大きくスマートフォンの普及を大きく阻害してしまう
ことになるにょ。
「新しいことができる」というメリットよりも「今まで出来ていたことが出来ない」という
デメリットの方が大きいと感じる人の方が多いと思われるためスマートフォンにおける
ガラケー的進化(日本の需要に合わせた独自進化)は普及において必要不可欠だと
思われるにょ。
この発表会の様子を見ても現状では「2台持ち」になりがちなスマートフォンの不満点を
解消するために1台でカバーできるようにするというauの意気込みが伝わるにょ。
http://k-tai.impress.co.jp/docs/news/20101004_397973.html
「ワンセグ、おサイフケータイ機能が搭載されたらそれでOK」というわけではなく細部も
しっかり作り込まれている様子だからね。
メール機能においてもちゃんとezweb.ne.jpのキャリアメールが使えるだけではなく
デコメールやCメールというキャリア独自のメールも問題なく使用できるからね。
この辺のキャリア独自サービスへの対応はドコモも先月より開始したspモードで改善されて
いるにょ。
「スマートフォンだから世界仕様に合わせる」なんて手抜きをせず、きちんと国内の
ユーザーの実態や需要を考えてローカライズさせるということが普及においては重要に
なってくるということにょ。
しかし、海外メーカー製の端末の場合はソフト面のローカライズはできてもハード面の
ローカライズは難しいにょ。
それができるのはやはり国内メーカー製の端末の強みだと思われるにょ。
今までガラケーによって長年培われたものがあるからね。
ガラケーはキャリア主導で進化が行われたため世界的に見ると特異的に思えてしまう
(だからこそ「ガラパゴスケータイ」、略して「ガラケー」と呼ばれている)けれど
それが日本においては完全に定着している以上はそれを否定はできないにょ。
「自分に必要ないもの=(日本では)要らないもの」というわけではないからね。
自分に要らないだけならそれが搭載されてない端末を買えばいいだけの話にょ。
IS03はワンセグ、おサイフ機能ばかりに目を奪われがちだけど基本スペックも充実して
いるにょ。
3.5インチで960x640というiPhone 4と同等の液晶を備えるだけではなく画面下部に搭載
されているメモリー液晶もかなり便利にょ。
折りたたみ式端末と異なりストレート端末では液晶画面が直に見えるためサブ液晶は
不要と考える人がいるかもしれないけど電源(液晶画面)OFFの状態でも見れるという
メリットがあるからね。
カメラ機能も9Mということでハイエンドなガラケーよりは劣るものの必要十分(というか
これ以上画素数増えてもレンズ性能がボトルネックで無意味)だし、ガラケーと同じく
カメラボタンが独立しているので使い勝手も良さそうにょ。
まさにガラケー的(日本の需要に合わせた)スマートフォンといえるにょ。
IS03がソフトバンク用として登場すればiPhone4ではなく私は間違いなくIS03の方を
選ぶと思うにょ。
私がiPhone4を買わない最大の理由は「2台持ちになるから」であり、それによるコストの
増大が最大のネックとなるにょ。
これは通信用であればiPod touchで代用できそうと考えているためコスト重視で新型
touchを購入予定となっているにょ。
今後、スマートフォンが普及するためには冒頭に書いたようにガラケー化が必要不可欠
だと思われるためauが先手を打ったものの各キャリアが追従するのは間違いないにょ。
モバイルノートに通常版CPUを搭載するワケ
先日発表されたLet'snote J9はあのサイズで超低電圧版(ULV)のCPUではなく通常版の
CPUが搭載ということがすごいと感じたけど従来は日本のモバイルノートは超低電圧版の
CPUが主流だったけどここ最近は通常版CPUを搭載するのがトレンドになっているという
ことを考えるとそれほど驚くことでもないにょ。
http://pc.watch.impress.co.jp/docs/news/20101005_397497.html
http://pc.watch.impress.co.jp/docs/news/20100929_396599.html
dynabook R730、LIFEBOOK PHいずれも通常版CPUが採用されているにょ。(R730はその前身
となった今年の夏モデル「RX3」ですでに通常版CPUを搭載していたけど)
12.1インチクラスというのは日本では超低電圧版CPUが高い勢力を持っていたのだけど
Let'snoteも昨年登場のN8、S8で通常版CPUを搭載機種にモデルチェンジをしたにょ。
ThinkPadをはじめとする海外メーカーでは古くから通常版CPUを採用しており超低電圧版
CPUを搭載機種は一部に止まっていたけど日本では多くの機種に採用されていた背景には
日本のモバイルノートは「薄型」「軽量」「長時間駆動」というのが武器になっていた
からにょ。
それなのに通常版CPU搭載機種がここ最近急増している背景には下記の3つの理由がある
と思われるにょ。
(1)通常版CPU搭載でも長時間駆動が可能になった
(2)超低電圧版CPUのプレミアム性が無くなった
(3)CULVノートなどとの棲み分けのため
(1)超低電圧版CPUというのは文字通り駆動電圧を低くすることで消費電力が低くなって
いるにょ。
同じアーキテクチャであれば計算上の消費電力はクロックに比例し、駆動電圧の2乗に比例
するからね。
消費電力がほぼ熱へと変わるCPUはその消費電力がTDPに与える影響が大きいにょ。
つまり、消費電力が大きなCPUほど熱設計電力(TDP)も大きくなるというわけにょ。
もっともこれはCPUの場合はグループ毎に設定してあることが多いため超低電圧版、
通常版という枠の最上位クロックのものがそのTDPの上限近くの消費電力に達するものの
下位クロックのものはTDPよりも低めの消費電力となっているにょ。(これはCPUの
クロックによってPCの設計を変えなくても良いという配慮のため)
超低電圧版CPUはクロックが低い故にシングルコアCPU時代は通常版CPUのTDPが25〜27W
だったのに対してTDP5Wだったにょ。
これならば5倍消費電力の差があるかというと必ずしもそうではないにょ。
それは「CPUの消費電力ががシステム全体に占める割合はそれほど大きな物ではない」と
いうことに加えて「通常の使用時においてCPUはアイドル時の時間が長い」ということが
理由となっているにょ。
単体GPUを搭載していないモバイルノートにおいてはCPU以外の消費電力は5W〜10W程度
あるためCPUがフルスピードで動作している場合(フルロード時)であれば通常版CPUは
超低電圧版CPUに比べて大幅に駆動時間が短くなるもののCPUの消費電力に比例して短く
なるというわけではないにょ。
さらにCore2からは消費電力を抑えるためにCPUの動作クロックだけではなく駆動電圧も
動的に変化させる仕組みが取り入れられたにょ。
このためアイドル時の消費電力は超低電圧版CPUとほとんど変わらなくなったにょ。
つまり、動作時の消費電力さえ何とかできれば駆動時間において超低電圧版CPUよりも
短くなるという心配は要らなくなるにょ。
この辺は各社が長年培ったパワーマネジメントのノウハウが重要になるにょ。
それに通常版CPUの場合は動作クロックが高いから2倍の消費電力でも半分の時間で処理が
完了すればトータルの消費電力は変わらないからね。(CPU以外の消費電力を考えると
「2倍のクロック」で「2倍の消費電力」であるならば逆にトータルの消費電力量を減らせる
可能性さえある)
(2)超低電圧CPUは低電圧駆動を実現するためにかつては選別品が使われていたにょ。
実際、ULV PenM 900MHzは電圧を通常版CPUと同じに設定すれば通常版CPUよりも高クロック
動作が可能になるという良質のコアが採用されていたわけだしね。
超低電圧CPUは駆動電圧を下げることで低消費電力を実現しているわけだけど駆動電圧を
高めれば高クロック動作は可能になるにょ。
これは通常版CPUでもデフォ設定よりもよりも高い動作電圧を与えることでよりデフォより
高いクロックで安定動作させることも可能になるにょ。(要するに活入れによるオーバー
クロック動作をさせるということ)
つまり、超低電圧版は低電圧耐性を持っていると同時にすぐれたオーバークロックの
マージンを持ち合わせているという素晴らしいCPUといえるにょ。
そんな選別品CPUであるが故に超低電圧版CPUは割高な価格設定となっていたにょ。
これは通常版CPUとして販売すれば高クロックのハイエンドCPUとして販売可能な製品で
あったためそういう観点から考えるとやむを得ないことにょ。
しかし、超低電圧版CPUも10月19日に書いたように最近はプレミアム性がかなり失われて
来ているにょ。
各世代ごとに最高クロックのCPUの動作クロックとTDPを下記にまとめてみたにょ。
超低電圧版CPU 通常版CPU クロック比(TDP当たり)
130nm PenM(Banias) 1.1GHz TDP5W 1.7GHz TDP25W 1.55倍(0.31倍)
90nm PenM(Dothan) 1.3GHz TDP5W 2.26GHz TDP27W 1.74倍(0.32倍)
65nm CoreDuo 1.2GHz TDP9W 2.33GHz TDP31W 1.94倍(0.56倍)
45nm Core2Duo 1.6GHz TDP10W 3.06GHz TDP35W 1.91倍(0.55倍)
32nm Core i7 1.33GHz TDP18W 2.8GHz TDP35W 2.11倍(1.08倍)
これを見ての通り最上位クロック同士の比較だと世代ごとに超低電圧版CPUと通常版CPUの
クロック差はどんどん開いていっているにょ。
こうなったのはクロックを高くするのは容易だけど大幅な低電圧駆動させるのは難しい
ためにょ。
製造プロセスの微細化によってトランジスタのスイッチング速度を上げることは可能に
なるもののトランジスタでスイッチング動作を行うには一般的には0.6〜0.7Vの電位差が
必要になるからね。
そのため超低電圧版CPUは動作電圧が1Vを切ってからはその駆動電圧の低下の度合いは
極めて緩くなったにょ。
微細化によってリーク電流が顕著化しているけどリーク電流には大きく分けてゲートリーク
とサブスレッショルドリークの2種類があるにょ。
低電圧駆動の場合はサブスレッショルドリークが特に顕著化してくるにょ。
そのため微細化によって低電圧で駆動するCPUを作ることは簡単になったけどTDPの枠内に
抑えるためには通常版CPUとのクロック差はどんどん広がる一方となっているわけにょ。
要するに今の超低電圧版CPUはプレミアム品でも何でもなく通常版CPUの動作速度制限版
でしかないということにょ。(上記のように通常版CPUであってもアイドル時には動作
電圧を下げているため低電圧版駆動によって消費電力を低減している超低電圧版CPUの
メリットはほとんどなくなっている)
性能面のアドバンテージであった電力当たりの性能(ワットパフォーマンス)においても
上記のTDP当たりのクロック比(「TDP=消費電力」ではないけど各世代の最高クロックに
おいて考えるならば両者の値は近いものになるためここでは「TDP=消費電力」として
考える)を見ての通りPenMの頃は通常版CPUは超低電圧版CPUの0.3倍程度の性能だったにょ。
これは言い換えると超低電圧版CPUのワットパフォーマンスは通常版CPUの3倍あったと
いうことになるけどこれは世代毎に低くなりCore i7ではワットパフォーマンスはついに
逆転してしまっているにょ。
これはCPUにGPUが内蔵された影響で単純計算ができなくなったためだけどそれを差し引いて
考えても超低電圧版CPUの性能面におけるメリットはほぼ無くなってしまったにょ。
ちなみにワットパフォーマンスで考えるならばAtom NはCore2Duoの4分の1の消費電力で
3分の1の性能を実現できているためCore2Duoの1.3倍程度のワットパフォーマンスがあり
IntelのCPUの中では過去最高レベルとなっているにょ。(Atom Nよりクロックが高い
Atom Z550は頂点のワットパフォーマンスとなる)
しかし、それによって「Atomの性能が高い」と感じる人はいるとは思えず、PCにおいては
ワットパフォーマンスではなく絶対パフォーマンスの方が重視されるといえそうにょ。
(3)「低電圧で駆動するCPUは簡単に作れるようになった」でも「高クロック動作をさせる
のはTDPの関係で難しい」ということを(2)で書いたけど問題は十分な供給ができても
需要が無ければ意味がないということにょ。
しかし、本来はMIDや小型端末で使用することを考慮していたAtomがネットブックで爆発的
ヒットをし「安い」ということが大きな需要を喚起することが分かったにょ。
そこで動作クロックの低い超低電圧版CPUをAtomの上位として一定基準を満たすことで
安価に販売することにしたにょ。
それがCULV(コンシューマ向けの超低電圧CPU)にょ。
これによって「Atomでは性能的に物足りないけどモバイルノートは高価で買えない」と
いう人には非常に有用なCULVノートが誕生したにょ。
CULVノートは国内メーカー製だと10万前後と高価だけどASUSやACERのような海外メーカー
だと安価に販売しており安い機種だと5〜6万円で入手可能になるにょ。
ACER 1410は発売当初にセレロンSU2300(1.2GHz)搭載で49800円という破格値であった
ために大ブレイクを起こしたにょ。
CPU性能はAtomの2倍以上なのに加えてチップセットに内蔵のGPUはAtomで広く用いられて
いた945GSEに内蔵のGMA950とは異なりHD動画の再生支援機能も有しているということが
やはりネットブックとの差別化において有用になったにょ。
あとは、ネットブックは10インチWSVGA液晶が主流だけどCULVノートは11.6〜13.3インチ
WXGA液晶が主流であるため使い勝手もネットブックよりも格段に良くなったからね。
そうなると最もダメージを受けるのはネットブック・・・ではなくモバイルノートの方
だといえるにょ。
というのも搭載しているCPUはAtomのように完全な格下CPUではなくモバイルノートに
使われているものと何ら変わらないCPUだからね。
本体が軽いというアドバンテージが依然としてモバイルノートにあるものの軽いという
要素に対して2倍も3倍もの金額を出してくれる人はごくわずかしかいないにょ。
したがって、性能で差を付ける必要があったにょ。
それが通常版CPUの採用の大きな理由だと思われるにょ。
幸いにして(1)で書いたように通常版CPUでも消費電力低減によってちゃんとパワー
マネジメントを行えば超低電圧版とほとんど変わらないレベルになっているにょ。
実際通常版CPUを搭載のLet'snote J9は超低電圧版CPUを搭載のR9と比べて電力当たりの
駆動時間はほぼ同レベルだしね。
問題は熱設計だけにょ。
逆にいえばそれさえ克服できれば性能面で大きな差が付いており、プレミアム性も失われて
きている超低電圧版CPUを搭載する必要もなくなるわけだしね。(ULVのCore i7はCPU単体で
3万円を超える高価なCPUだけど通常版CPUのローエンドにも劣る性能でしかない)
つまり、以上の「通常版CPUで長時間駆動可能になった」「超低電圧版には価格に似合う
価値が無くなった」「CULVとの差別化が必要になった」という(1)〜(3)の理由によって
昨今は国内のモバイルノートにおいて通常版CPUを採用機種が増えていると考えられるにょ。
超低電圧版CPUはCULVノートにおいて大きな需要があるだけではなくAtomでは厳しいので
もう少しパフォーマンスが欲しいという用途で熱設計が難しい小型、薄型のPCにおいては
有用になるものの12インチクラスであれば熱設計技術の進化によってTDP35WのCPUを載せる
ことは容易になったにょ。
しかも、これは従来と異なりCPU+ノースブリッジでTDP35WであるためCPU単体でTDP35W
であったCore2Duoと比べて熱設計の面では有利になっているにょ。
逆に超低電圧版はCore2DuoがTDP10Wなのに対してCore i7は一気に18Wへと増加している
ため熱設計の見直しが必要になったにょ。
もしも、超低電圧版CPUがCPU+ノースブリッジで従来と同じTDP10Wであれば採用する
メーカーも多かっただろうけど熱設計を変更を迫られてしまったことも通常版CPUを搭載
するきっかけに繋がったのではないかと思われるにょ。
したがって、単に(3)のCULVとの差別化という安易な考えによってモバイルノートに通常版
CPUを搭載するようになったのではなく各要素が絡み合うことで必然的に通常版CPU搭載へと
繋がったと考えられるにょ。
もしも、(1)で通常版CPUのアイドル時の消費電力が高かったり、(2)で超低電圧版CPUが
順調に進化していきTDP10Wで2.4GHzというTDPを維持して通常版の3倍のワット
パフォーマンスが実現出来ていたら超低電圧版CPUは高値で十分通用しただろうけど実際は
そうならなかったわけだからね。(3倍は無理でも価格を考えると2倍以上はないと厳しい
と思う)
確かに薄型、軽量を実現するためには超低電圧版CPUは有利だけどそのために安価なCULV
ノートと性能は大差がなく2倍のコスト(国内メーカー製だとCULVノートが10万円前後
なのに対してモバイルノートは20万円前後)となるとさすがにユーザーを選んでしまう
からね。
ユーザーが限られるため開発コストをペイするためには安価にはできないということで
さらにユーザーを選ぶという結果になっているにょ。
これは量産化によって安価が実現できそれによってユーザーが拡大したネットブックとは
逆のものといえるにょ。
通常版CPU搭載のモバイルノートは高価であっても軽量かつ高性能であるためコスト
パフォーマンスという観点からするとCULVノートには負けないものになっているにょ。
これならばCULVノートと棲み分けは十分に行えそうにょ。
JungleはPSP2キラー!?
ニンテンドー3DSの発売日と価格が発表され各所で大きな話題となっている中でPanasonicが
新しい携帯ゲーム機「Jungle」を発表したにょ。(まだ詳細は発表されてないけど)
http://gamez.itmedia.co.jp/games/articles/1010/05/news112.html
王者任天堂がDSから3DSへと世代交代をしようとしているけどライバルであるSCEはPSP2の
目処が立ってない状態であるためまだまだ勝機はある・・・と考えたのは定かではない
けど成功するためには「ゲームのラインナップ」と「本体価格」が重要になるにょ。
3DSは現行DSのソフトがほぼすべて使える上に世界最強ゲームベンダーである任天堂の
ゲームがプレイできるというメリットがあるし、現状のサードのラインナップを見ても
過去の任天堂のゲーム機において例がないくらいの充実振りにょ。
まったく隙がないといっても過言ではないかと思うにょ。
現状において唯一の懸念材料は価格にょ。
9月30日に書いたように25000円は十分納得できる価格ではあるものの携帯ゲーム機として
考えるならば高価と感じている人が多いにょ。
ITmediaが実施したアンケート調査でも9割の人が「高価」と答えているからね。
http://gamez.itmedia.co.jp/games/articles/1010/04/news082.html
・高いけど買います・・・44% 左記のアンケート結果より
・安いから買います・・・ 5% → ・高い91%、安い9%
・高いから買いません・・47% ・買う49%、買わない51%
・安いけど買いません・・ 4%
やはり、価格がすべてではなく多少割高に感じていてもやりたいものがあれば買うという
人はそれなりに多いということにょ。
さて、上記を踏まえてPanasonicが発表した「Jungle」を見てみるにょ。
Panasonicのゲーム機といえば3DO以来16年ぶり(3DOの後継となるはずだったM2は開発は
されたけど発売には至らなかった)のことだけどまさか今度は携帯ゲーム機を登場させる
とは・・・。
確かに据え置き機はコストばかりかかってしまうし(M2で失敗したPanasonic自身が一番
感じていると思う)、現状で売れているのは携帯機の方が多い(DS発売前は本体もソフトも
売上数ベース携帯機が据え置き機を超えることは瞬間的なものを除き一度も無かった)と
いうことを考えるならばこの選択は妥当かもしれないにょ。
ただし、3DSを相手に戦うのは簡単にはいかないにょ。
SCEも実験的な意味合いを多く含んだPSP goを販売して様子を探っていたけどコンシューマ
ゲーム機においてダウンロード販売オンリーというのは現時点では厳しいと悟ったのでは
ないかと思われるにょ。(もしもgoがまともに売れていたらUMD無しのPSP2はすでに発表
されていると思われる)
しかし、Jungleは携帯ゲーム機としては初のオンラインゲーム専用機となっているにょ。
オンラインゲーム専用機であればネットに繋がっていることが前提であるためダウン
ロード販売のハードルは低くなるにょ。
しかし、携帯機でオンラインゲーム専用となると最大のネックは通信にょ。
据え置き機なら移動して使うということがないため自宅でのブロードバンドによるネット
環境がそのまま使えるけれど携帯機ではWi-Fi接続可能な場所に限られるからね。
自宅外でのWi-Fi通信環境(フリースポットなど)はそこまで普及していないにょ。
そうなると考えられるのは3G通信を内蔵することにょ。
これならばWi-Fi接続ができない場所であっても通信が可能になるのはいいけどその
通信コストはどうなるのかという問題が発生するにょ。
ユーザーがキャリアに対して月額料金を払うようなシステムだと普及はあり得ないにょ。
そうなるとキャリアとタイアップしてソフトの代金に含んでしまうという方法が最も
有力な選択肢となりそうにょ。
AmazonのKindleもそうすることでユーザーは別途キャリアへ通信料金を支払うことなく3G
通信が可能になっているにょ。
3G通信内蔵は携帯ゲーム機の可能性を大きく広げてくれるけどそこには下記の2つの問題
点があるにょ。
(1)通信コストの問題
(2)スマートフォンとの棲み分け
(1)いくらネットゲーの通信量はそれほど多くはないといっても1回買えば終わりの電子
書籍とは異なり断続的な通信が発生してしまうためコストを抑えるのは難しいとにょ。
仮に1冊1MBと仮定した場合でも日本国内で多く使用されている1パケット0.084円(定額
サービス加入時のパケット単価)で計算すると1冊672円となるにょ。
確かに大きな金額だけどタイアップすることで料金を10分の1くらいに割り引いてもらって
いると仮定すれば十分に回収できる金額にょ。
それが常時通信が必要なネットゲーの場合は携帯機ということで仮に平均1KB/s程度の
通信に抑えていると仮定しても1日4時間のプレイを30日間行った場合には約430MBになり
パケット単価0.084円で計算すれば約29万円になるにょ。
実際は1KB/sでは収まらないだろうし、4時間を超えてプレイする人は多くいるだろうと
考えるとそれが10分の1の金額になっても100分の1の金額になっても厳しそうにょ。
それこそパケット定額と同じ4000円くらいの料金をゲームの料金と別途に支払うような
形でない限りは全額メーカー負担では厳しいにょ。
このゲーム機のために1回線別途契約をして、わざわざ定額料金を払うなんてことは
ほとんどの人ができないと思われるにょ。
一昨日にも書いたように日本においては現状のスマートフォンは2台持ちをしなくては
いけないと感じている人が多いためにそのコスト面の問題で普及が厳しいと私は考えて
いるからね。
世の中には特定のネットゲーでのアイテム入手をするのに数万円費やす人もいるから
通信コストが4000円程度別途かかっても安いものと考えることもできるけどそれはあくまで
一部のコアユーザーだけの話であってそれをもって通信コストは問題にならないなんて
ことはとても言えないにょ。
(2)近年飛躍的に伸びているオンラインゲームやソーシャルゲームだけどやはりそれは
通信環境が備わっているからにょ。
「基本はWi-Fi接続だけど資金面に余裕がある人は別途3G契約をしてください」というので
あればそれはゲームそのものの考え方が変わってくるにょ。
いくら通信メインの使用方法であってもiPod touchがiPhoneの代わりにはならないからね。
もちろんモバイルルータを使用することでこれは軽減できるものの他に使う目的があって
すでに購入している人ならばいざ知らずこのゲーム機のために購入するならば別途通信
契約をするのと変わらないにょ。
そういう意味ではユーザーすべてが3G契約を行っているスマートフォンの方がオンライン
ゲーム用途の携帯機としては優れているといえるにょ。
Jungleの3G契約がオプションならばせっかくの携帯ゲーム機なのにWi-Fi接続環境のある
場所でしかゲームができないという事態に陥ってしまうにょ。
DSやPSPはオンラインプレイはメインではなくあくまでオフラインプレイがメインである
ためにWi-Fi接続だけで問題はないけどJungleの場合はオンラインゲーム専用機だからね。
コスト面の負担は大きいけどJungleは3G契約を必須にすると考えた場合には今度は
スマートフォンとのシェア争いをかけた戦いが待っているにょ。
昨今の高性能スマートフォンはPSPを凌駕する性能でありゲームをプレイするには十分な
性能があるからね。
9月20日に書いたようにiPhoneは閉鎖的であるが故にゲームベンダー参入がしやすい環境と
なっており、実際大手ゲームベンダーも積極的にアプリを発表しているにょ。
スマートフォンと比べると入力インターフェイス面のアドバンテージがあるにょ。
通常のゲーム機と同じく方向キーやボタンがあるだけではなくQWERTY配列のキーボード
まで用意されているからね。
ただし、スマートフォンの場合は電話機として購入するため1台目のケータイとして購入
している人であれば事実上の負担金はゼロ(生活に必要だから買っているものをエンター
テイメント用として活用している)なのに対してJungleは本体価格に加えて別途通信
料金も支払わなければないらない(可能性が高い)にょ。
噂ではJungleの価格は400ドル程度らしいにょ。
スマートフォンであれば一括購入で400ドルは格安の部類だけどこれが携帯ゲーム機と
考えると3DSの25000円でさえ割高に感じる人が9割いるという現状を考えると厳しい
ような気がするにょ。
そもそも、スマートフォンは電話機であるため常時持ち歩くのが必須であるのでJungleと
スマートフォンのどっちを持ち歩くかなんていうライバル関係にはなり得ないしね。
3G通信を搭載すると予想されるゲーム機ということでスマートフォンとの棲み分けを
考えてみたけどやはり上記のような理由によってスマートフォンとは棲み分け以前のもの
であると感じてしまったにょ。
そうなると他の携帯ゲーム機との比較になってしまうけど(1)で書いたような通信コストの
問題が何らかの方法で克服されない限りはコスト面において非常に不利になってしまう
と予想されるにょ。
もっとも「(企業努力によって)通信料金はメーカー負担で行う」とか「オフラインでも
普通にプレイできるゲームになる」とかいう可能性があるため現時点でそれについて
批判はできないけどね。
正直言ってこのようなゲーム機はPanasonicではなくSCEが出すと私は考えていたので最も
厳しい立場に立つのはSCEの方かもしれないにょ。
SCEはPSP2で3DSともJungleとも差別化をしないといけなくなってしまったからね。
CULVノートは高価になっては意味がない・・・?
一昨日書いたように最近はモバイルノートには超低電圧版ではなく通常電圧版CPUが搭載
するのが普通になってきているけどこれはモバイルノートとCULVノートの価格差を考えると
重量が軽いくらいでは埋まらないから時代の流れからすると当然といえるにょ。
さて、CULVノートと一口に言っても最も下位に位置するセレロンU3400のものと中堅クラス
となるCore i3ではそれなりに性能差はあるにょ。
それらと通常版CPUとの性能差比較ということでUL20FT-2X330Vのレビューを見てみるにょ。
http://pc.watch.impress.co.jp/docs/column/hothot/20101007_398478.html
これは、8月19日に書いたUL20FTのCore i3搭載モデルとなっているにょ。
U3400搭載版と同じくワンタッチでソフトウェアによって33%のOC(オーバークロック)が
行えるTurbo33を備えているため1.6GHz相当で動作させることも可能となっているにょ。
というわけで、このTourbo33モードの有無に加えてUL20FTのU3400モデルとLet'snote J9の
スタンダードモデル(下位機種)と比較してみるにょ。
J9のスコアのソースはこちらにょ。
http://plusd.itmedia.co.jp/pcuser/articles/1009/28/news024_4.html
UL20FT-2X330V UL20FT-2X330V UL20FT Let'snote J9
Core i3-330UM Core i3-330UM Celeron U3400 Core i3-370M
1.6GHz相当 1.2GHz 1.06GHz 2.4GHz
(Turbo33 ON) (Turbo33 OFF)
PC Mark05
CPU 4306 4153 2577 6466
Memory 4346 4299 3025 5250
Graphics 1716 1741 1673 2230
HDD 5078 6659 4980 4307
FFXI Bench3
LOW 2445 1811 1668 3658
HIGH 1636 1245 1148 2271
PC Mark05のCPUスコアを見てみるとU3400とCore i3-330UMはクロック差が13%しかない
にも関わらずスコア差は61%となっているにょ。
クロック当たりのスコアでは1.4倍もCore i3の方が優れている理由はやはりHTTの有無
だと思われるにょ。
8月19日に書いたようにU3400は旧製品のSU2300よりも性能が下という残念な結果に終わった
けれどこれは従来よりも動作クロックが下がったことが最大の原因にょ。(アークテクチャ
変更だけではその差を吸収できていない)
その点Core i3-330UMはSU2300と比べて動作クロックが同じであるためスコアがダウンする
要素がなくHTTがあることでマルチスレッド性能は飛躍的に伸びており、SU2300よりも上の
性能が欲しければ最低でもCore i3搭載モデルを買うべきだと思われるにょ。
33%のOCを実現しているTurbo33をONで測定するとさらにスコアが4%アップしているという
のが分かるけど33%アップなのにスコアが4%アップというのは妙な感じにょ。
これはとりあえず保留としておいて、CPUのシングルスレッド性能の比較であればFFベンチ
LOWが最も分かりやすいにょ。(i3にTBがあれば熱設計の問題でTBが正常動作できていない
という理由も考えられるけどそれがない以上は議論のしようがない)
デフォ状態(1.2GHz)だとU3400よりも8%アップのスコアになっているけどTurbo33をONで
測定するとデフォ状態よりも35%アップ、U3400より47%アップのスコアになっているにょ。
FFベンチには数%の測定誤差があるけどほぼクロックに比例したものになっていると
いっていいのではないかと思われるにょ。
では、このFFベンチを通常版CPUを搭載のJ9と比較してみるにょ。
2.4GHzのクロックであるため同じCore i3とはいえ、1.2GHzのUL20FTと比べても約2倍の
スコアになっているにょ。
Turbo33をONにした状態と比べても1.5倍のスコアにょ。
この差は決して小さいものではないにょ。
超低電圧版CPUと通常版CPUの比較というのは数年前までは無意味だった(両者には選択の
余地が無かった)けど一昨日も書いたようにモバイルノートでは通常版CPUの搭載が標準
となりつつあるためUL20FTのような12.1インチ液晶搭載モデルならば通常版CPUとの
性能比較というのは「当然行うべきこと」だといえるにょ。
さて、ワンタッチで33%のOCが行えるTurbo33だけどこれは8月19日にも書いたように
ハードウェアで行っているのではなくソフトウェア上から行っているものであり、原理は
フリーウェアによるOCと何ら代わりがないにょ。
ただ、OCは魔法でもなんでもないにょ。
CPUそのものが33%のOCに耐えられる保証はないし、33%OCすれば単純計算で33%消費
電力(≒発熱)が増えることになるにょ。
ただ、超低電圧版CPUはTDPを枠内に抑えるのが難しいため動作クロックが低くなっている
わけでありTDPの枠内に抑えられない(実消費電力18Wオーバー)でよいならばほとんどの
石が1.6GHz程度ならば十分に動作すると思われるにょ。(一昨日も書いたけど数年前とは
異なり今の超低電圧版CPUは選別品ではないためはずれを引かない限りは問題ない)
したがって、CPU側の問題はあまりなくそれを安定動作させるためには本体の熱設計さえ
しっかりしておけば良いということにょ。
超低電圧版CPUは「クロックが低い分だけ低消費電力(=低発熱)」となっているのに
わざわざ発熱を大きくして使うというのはナンセンスという考えもあるけどたかが33%
とはいえ、その差は小さくないからね。(33%というと1〜2ランク上のCPUの性能になる)
問題はその代償に似合うかどうかにょ。
しかし、IntelもTBのようにTDPの枠内とはいえOCによって性能をアップさせる行為を標準
機能として取り入れているにょ。
これは、その方が結果として電力効率が高くなるからにょ。
仮にCPUのクロックが2倍になりCPUの消費電力が2倍になったとしてもシステム全体の
消費電力は2倍になることは決してないために処理にかかる時間が半分になればトータルの
消費電力量は小さくなるためにょ。
確かにTBは性能強化(クロック上昇による性能アップ)がメイン要素ではあるものの
副次的には省電力にも貢献しているということにょ。
つまり、「クロックが上がるからバッテリ駆動時間が短くなる」という単純なものでは
ないにょ。
そういう点ではTurbo33も同じ・・・だけどTurbo33の場合はONにすると省電力機構が
働かないという面があるにょ。(省電力機構を使うにはOFFにするしかないという方が
正しいかもしれないけど)
そして、CPUのベースクロックそのものが上がってしまうためCPUそのものの電力効率が
低下してしまっているのはバッテリ駆動時間を計測しなくても確実にいえるにょ。
通常版CPUでも超低電圧版CPUとあまり変わらない駆動時間が実現できるようになった今と
なっては、それより性能が低い超低電圧版CPUでTurbo33をON、OFFを考えながら使うという
ことはあまり良いものではないと感じるにょ。
普段はOFFで使っていても負荷が高まったときには自動的にONになるようなオートモードが
あれば有用だけど手動しかないからね。
普段Turbo33をONの状態で使う人であれば通常版CPUでしっかりパワーマネジメントを
働かせた方が駆動時間は長くなるだろうし、性能面でも確実に上となってしまうにょ。
そして、Turbo33で動作時の発熱に耐えられるためCPUのTDPよりも余裕を持たせて設計
する必要があるからね。
ネットブックは「安い」「小さい」PCとして大ヒットに繋がったというのは記憶に新しい
と思うにょ。
ただ、そこまでの小ささを求めてない人が多いせいか使い勝手を考えてすぐに10インチ
WSVGAが主流になったにょ。
そのネットブックは価格が安い分だけ性能はやはり高いものとは言えなかったけどネット
ブックでは性能面で物足りないという人の前に現れた救世主といえるのがCULVノートにょ。
下位であるセレロンSU2300でさえAtom Nの2倍程度の性能を持つために性能面でネット
ブックに不満を感じていた人には非常に有用になったにょ。
これを支えているのがIntelが超低電圧版CPUを安価かつ大量に供給可能になったという
ことが挙げられるにょ。(これは一昨日も書いたように超低電圧版CPUが選別品ではなく
なったということが非常に大きい)
ただ、ネットブックが高価になったら意味がないというのと同じくCULVノートも高価に
なっては意味がないにょ。
今回採り上げたUL20FTの価格comでの最安値を比較すると今日現在においてはセレロンU3400
搭載モデルが47200円、Core i3-330UM搭載モデルが65800円となっておりその差は18600円
もあるにょ。(他にスペック差がないため純粋にCPUの違いによるものの差)
確かにU3400よりは確実に上であるため高価であっても仕方がないけどそれが18600円差で
あっても許せるかどうかは微妙なところにょ。
CULVのCore i3を搭載するのではなく通常版のCore i3-370M(2.4GHz)を搭載していれば
上記の比較を見てもU3400の2.5倍くらいの性能はあるために価格差が許容できる人も多く
なりそうだけどね。
CULVノートは「コストのかかる軽量化はしない」「TDPが低いために廃熱機構を簡略化」
というメリットはあるにょ。
しかし、UL20FTの場合はTurbo33で安定動作させるためにTDP18Wで設計しているのではなく
TDP25W以上を想定して設計していると思われるにょ。
それならばTDP35Wで設計して通常版CPUを搭載するという選択肢は十分に有りだと思うにょ。
価格面を考えても両者にはそれほどの差はないからね。
U3400ならば元々安い上にIntelが定めた条件を満たせばさらに半額程度になると考えると
Atomとの価格差もわずかしかないためU3400を搭載の安価なCULVノートは(SU2300より
性能ダウンしたのは残念とはいえ)非常に存在価値が大きいけどCore i3搭載によって
高価になり熱設計に余裕があるとなれば話は別にょ。
ASUSで通常版Core i3搭載となるとU30Jcがあるにょ。
これはCore i3-370M(2.4GHz)を搭載で価格com最安値は73232円となっているにょ。
ただし、こちらは光学ドライブ内蔵に加えて単体GPUまで搭載しているにょ。
それを考えるとCULV版Core i3を搭載のUL20FTの65800円というのは割高に感じるにょ。
それならばU30Jcを買えば良いというだけに感じるかもしれないけどこちらは重量が2.1kg
あり重量差は540gに達するにょ。(2.1kgが許容できるならばU30Jcの方がお買い得)
これは13.3インチ液晶を搭載ということで筐体サイズが大きくなっている分だけ重く
なっているのに加えて、光学ドライブやGPUを内蔵している影響にょ。
もしも、12.1インチ、光学ドライブなし、GPUはCPU内蔵のみというのであればUL20FTと
大差ない重量になると思われるにょ。
もちろん、価格も光学ドライブやGPUがない分だけ安価になるにょ。
恐らく価格的にはCULVだろうと通常版だろうとあまり変わらないと思われるにょ。
それでいて性能差は2倍だからね。
Intelの値引きを考慮すれば通常版CPUよりも圧倒的に安くなるU3400であればそれを搭載に
よって安価なものになっているCULVノートは非常に有用だと思うにょ。(Atomを搭載の
ネットブックと比べて価格に似合う性能差は確実にある)
しかし、CULVノートにCore i3を搭載して高価になるならば通常版CPUを搭載しても良いの
ではないかということが今回のレビューで強く感じたにょ。
ただ、それをやってしまうとせっかくモバイルノートに通常版CPUを搭載しCULVノートと
比べて「CPU性能」という誰の目から見ても明らかなもので差別化が出来ていたのが
出来なくなってしまうため厄介にょ。(再び「重量」や「堅牢性」のみで差別化しないと
いけなくなる)
したがって、モバイルノートとの性能差が大きくなりU3400と比べて性能差の割に高価と
なってしまったCULVノートはその存在価値が微妙なものになってしまったということが
いえそうにょ。
2TB超のHDDは普及するのか・・・?
今年6月にSeagateから3TBのHDDが発表され先日はWDからも3TBのHDDが発表されたにょ。
http://pc.watch.impress.co.jp/docs/news/20101006_398369.html
「1TBでさえ一生かかっても使い切れない」と感じている人もいるかもしれないけど
30年近く前は20MB(「GB」ではなく「MB」)程度のHDDでさえ使い切れないという人がいた
ような時代だったからね。
PCの使い方が変われば使う量も変わってくるにょ。
私の場合はHDDは主にTV録画で消費しているにょ。
アナログ放送ということで4Mbpsで録画しているもののそれでも年間1.5〜2TB消費している
わけだからね。
これが地デジ録画をしてればビットレートから考えて4.5倍だし、録画数が2倍ある人で
あればさらにその2倍で9倍の容量が必要になるにょ。
そのためTV録画で年間に10TB〜20TB必要としている人も多くいるのではないかと思うにょ。
そうなるとHDDの台数増加も気になるため少しでも大容量のHDDが欲しいというのは必然的
流れだと思うにょ。
さて、そういう状況下でありながら3TBのHDDを売っているのを見たことがないにょ。
これには2つの理由があるにょ。
http://gigazine.net/index.php?/news/comments/20101007_3tb_hdd/
(1)起動用ドライブとしては使える環境がほとんどない
(2)PSEを取得しないと外付けドライブとして国内流通ができない
(1)HDDには昨年1月29日に書いたように2TBの壁があるにょ。
FAT32では2TBしか扱えない(NT系OSの標準では32GBまでしかフォーマットできない)けれど
NTFSでは問題ないのでファイルシステムの問題ではないにょ。
もっと根底にある管理上の問題にょ。
それはMBRを32ビットで管理しているため現状の一般的なHDDに採用されている1セクタが
512Bの場合には512B×2^32=2TBとなり、2TBが管理上の限界となるからにょ。
そうなることは事前に分かっていたためXP 64bit版でGPT(GUIDパーテーションテーブル)が
導入されたにょ。
そのGPTによって2TB超のHDDはPCで使用可能になるにょ。
◎2TB超のHDDの使用可否
XP 32bit ブート不可 データドライブで2TB使用可
XP 64bit ブート不可 データドライブで使用可
Vista 32bit ブート不可 データドライブで使用可
Vista 64bit EFI搭載マザーでブート可 データドライブで使用可
7 32bit ブート不可 データドライブで使用可
7 64bit EFI搭載マザーでブート可 データドライブで使用可
これを見ての通り、XP 32bitで無ければデータ用としては使えるにょ。
ただし、起動用ドライブとして使うためにはEFIと64bitOSが必須になるにょ。
64bitOSは徐々に普及しているもののEFI搭載マザーボードはまだごく一部に止まるにょ。
そのためベアドライブとして購入した際には接続しても起動用ドライブとして使用できない
という場合が大半にょ。
したがって、現時点では2TB超となっている「3TBのHDD」は主に外付けドライブとして販売
されているにょ。
(2)外付けドライブとして販売すれば起動ドライブとして使用できないという問題は解決
できるものの国内のPCサプライメーカーの場合はベアドライブが入手できなければそれも
できないにょ。
全く流通してないというわけではなく極めて限られるというだけだろうけど十分に製品が
流通しないことには販売ができないにょ。
それならば海外から外付けドライブを輸入すればよいというだけになるけどその場合は
PSE取得問題が絡んでくるにょ。
2001年に改正された電気用品安全法によって国内で流通させるためにはPSEマークの取得が
義務づけられたけどこれは猶予期間を経て2006年より完全に義務化したにょ。(多くの
製品に関しては5年間の猶予期間だったけど一部製品は7年、配線は10年の猶予期間)
その際には「条文に明示されてなかった中古も禁止」ということになってしまったため
中古を取り扱うリサイクルショップは大ダメージを受けてしまったにょ。(後に法律改正
前の製品は対象外となったもののすでに手遅れだった)
PSEマークの取得には時間とお金がかかるため最初から日本で流通させる目的がない限りは
取得されない可能性があるにょ。(PSE取得は販売業者はできず、製造業者が取得必要が
あるもののPSEは電源と配線部分に科せられているためACアダプタによって電源供給する
機器であれば輸入業者が別途PSEマークを取得したACアダプタを添付すれば問題ない)
以上2点の問題があるけどこれではいつまで経っても2TB超のドライブは普及しないにょ。
すでに1プラッタ750GBになっており、1プラッタ1TBのHDD(つまり4プラッタ使用で4TB)の
HDDも来年には登場すると思われるにょ。
起動ドライブは2TBあれば十分とはいえ起動ドライブには使えないし、GPTでないと扱えない
というのは厄介にょ。
それを克服するために登場したのが4KBセクタ(ビッグセクタ)によるAFT(アドバンス
ファイルテクノロジ)採用のHDDにょ。
MBRが32ビットで管理されているということはそのセクタサイズが8倍になるために2TBの
壁が16TBの壁へと変貌するにょ。
これだとEFIと64bitOSが普及するまでの時間稼ぎはできそうにょ。
ただし、Vista以降は512Bを超えるビッグセクタに対応しているため問題ないけどXPでは
対応していないため使用できなくなってしまうにょ。
また、使用できてもファイルシステムを管理するツールの中には「セクタサイズ512B」と
いうことを前提として作られているものがあるためそれが変わってしまうと動作しなく
なってしまうにょ。
そのためその移行措置として現在はセクタサイズは物理4KB、論理512BのAFTが採用されて
いるにょ。
このAFTは2TB超のHDDだけに止まらず、2TBのHDD(実質1.8TB)や1TBのHDD(実質0.9TB)
でも一部採用されているにょ。
http://akiba-pc.watch.impress.co.jp/hotline/20091212/etc_wd.html
しかし、物理4KBであるためXPでは標準フォーマッタを使用した場合にはその性能を発揮
できないにょ。
これはXPではフォーマットした際に開始セクタが63セクタ目からになるので「4KBセクタ=
512Bで8セクタ分」なのに63が8の倍数ではないため書き込みのずれによって1セクタの書き
換えに2セクタ分書き換えが必要になることで大幅なパフォーマンス低下が発生している
と思われるにょ。
したがって、AFTを採用のHDDをXPで使用するためには専用フォーマッタを使うかVista/7
搭載の他のPCでフォーマットした後にXP搭載のPCに取り付けるということが必要になって
くるにょ。
ただ、論理512Bでは結局2TBの壁を越えることはできず、現状のAFTでは起動ドライブとして
使用するにはEFIが必須になるにょ。(効率アップとエラー訂正率が向上するという効果が
あるため無駄ではないし、来年以降はAFTが標準化するため新製品においてはAFT以外の
選択の余地が無くなる)
したがって、2TB超のHDDを起動ドライブとして使用するならばEFIもしくは物理、論理
ともに4KBセクタのHDDが必要になるにょ。
4KBセクタであれば上記のように16TBまで大丈夫であるため年率1.3倍で容量が増加して
いってもあと6年間は最大容量のHDDでもEFI無しで起動ドライブとして使用することが
可能になるにょ。(データ用ならばVista、7であれば、EFI、GPT無しで普通に使用可能)
ただし、物理、論理ともに4KBセクタのHDDは完全にXPでは使用することが出来なくなって
しまうにょ。
現状では依然として6割のシェアを持つXPを閉め出すのはさすがに難しいためしばらくは
一時しのぎである論理512Bがメインとなりそうにょ。
とはいえ、AFTがメインになると上記パフォーマンス低下問題によってXPを使い続けるのは
かなり厳しくなってしまうにょ。
HDDを購入する際にも注意しないといけないにょ。
これでようやくXPの普及が終了か・・・
10月22日をもってWin7が登場して1年になるにょ。
ここで注意しないといけないのはこれによってXPの提供が完全終了するということにょ。
XPにはHome、Proの2つのSKUがあるけどXPの店頭販売はパッケージ版、DSP版両方とも
終了しているため入手方法はプリインストール(つまりOEM版)に限られるにょ。
ただし、入手方法もHomeとProでは異なるにょ。
XP Homeはご存じのようにネットブックを買うことで入手できるにょ。
ネットブックに搭載されているXPはULCPC版のXP Homeとはいえそれはライセンス上
ULCPC版となっているものの中身は通常のHomeと何ら変わりはないにょ。
XP Proは7Proのダウングレードによって入手可能にょ。
ダウングレードというのは7のライセンスでXPを使用できるようにするものでありpro以上の
SKUに備わっているものにょ。
すべてのメーカーがXPへのダウングレードを行っているというわけではないけどダウン
グレードの権利自体はOSに付随しているにょ。
ただし、ここで問題なのはそのダウングレードに関してにょ。
7月15日に書いたようにXPへのダウングレード権終了日が当初の予定から大幅に延長され
7proのサポート終了日となる2020年1月14日まで延長されることになったにょ。
これでXP搭載PCが2020年まで入手可能かというとそれは別の話であり、あくまで権利は
あるけど上記のように今年の10月22日以降はXP自体がメーカーへと供給されないためXPの
リカバリディスクを添付、もしくはプリインストールの状態で出荷することができなく
なってしまう模様にょ。
直販系のメーカーであるマウスコンピュータでも10月18日の注文を最後にXPを選択できなく
なっているからね。
http://www.mouse-jp.co.jp/campaign/1009/windows_xp_end.html
そうなると10月22日以降にダウングレードによってXPを使用する場合はユーザーの手に
よって自ら行う必要があるにょ。
ダウングレードにはXP proの正規版ディスクを用いて手動アクティべーションが必要になる
ためユーザーを選んでしまうにょ。
XPプリインストールのPCしか持ってない(XPそのもののインストールディスクを持って
いない)という場合はダウングレードができないにょ。
もっともダウングレードは法人向けにどうしても特定アプリが新しいOSでは動作しない
という場合に行うだろうから個人ユーザーでこれから新規にPCを購入してダウングレード
する必要がある場合はほとんどないだろうけどね。
OS無しの旧式PCを中古で買ってそのPCでは7の動作が厳しい場合でなおかつ手元にXP proの
正規版ディスクがあり、そのOSは他のPCで使用しているためライセンス上使用できないと
いう場合に7proを購入してそのPCで7proのラインセスを用いてXPをインストールするという
場合が考えられるけどそういうった状況はかなり少ないのではないかと思われるにょ。
旧式ではないけど現状で7の動作が快適とはいえない低スペックのネットブックにおいては
XPを使用する意味はあるにょ。
22日でXPの提供が停止するために現状ではすでにXP搭載のネットブックは在庫限りと
なっているにょ。
手元にXP proの正規版ディスクがありこれを使ってダウングレードをしようにもネット
ブックは7proを搭載の機種はほとんど無くて大半がStarterであるためダウングレードは
できないにょ。
ただ、7ではステップアップグレードが可能であるためその辺の心配は要らないにょ。
ただし、7Starter→7proには2万円弱のコストがかかってしまうにょ。
これだとDSP版の7proを購入するのと金額的にあまり変わりないにょ。
そもそもネットブックを買うというのは「安価で済ませたいから」というのが理由だろう
からそれに対して2万円の投資はあまりに大きいにょ。
すでに持っているのではなくこれから買おうとしているネットブックに2万円追加するの
ならばその予算でCULVノートが買えるし、CULVノートであれば7も問題なく動作するわけ
だしね。
どうしても「XPを使用しなければいけない」かつ「ネットブックで無ければならない」と
いうので無ければ7搭載のネットブックをわざわざXPへとダウングレードする必要性は
全くないにょ。
「XP搭載のネットブックでなければならない」という人であればXPを搭載した現行ネット
ブックを早めに買うのが一番にょ。
XPはすでに発売して9年も経つOSにょ。
それなのに未だに現役稼働している6割程度のPCにXPが搭載されているにょ。
2002年におけるWin3.1、2004年におけるWin95の使用状況を考えればこれは驚異的にょ。
2004年の段階ではWin95搭載PCをメインで使っている人は皆無だっただろうし、95、98、
Meをひとまとめで考えたWin9xでも6割残っていたか微妙なところにょ。
これは5年余り後継OSとなるVistaが登場しなかったこともあるけど「XPで十分」と考えて
いる人が多いのが原因ではないかと思われるにょ。
元々OSをアップグレードしてPCを使うというのはある程度ユーザー数が限られていた上に
XP→Vistaは大幅に要求スペックが上がりPCの買い換えを余儀なくさせられてしまったのが
Vistaが普及しない原因の1つとされているにょ。
それに加えて昨今は5年以上前のPCであっても普通に使えるため「PCの買い換えの必要性」
というのも低くなったにょ。
ネットブックがヒットしたのは「2台目需要」というのが大きかったけど5年前に発売の
モバイルノート並の低スペック(CPU性能だけを見ればAtom N270はULV PenMと比べても
同等以下でしかない)であってもネット程度であれば十分に使えるということが大きかった
からね。
ただ、XP使用者が現状でまだ多いということがPCのハード面、ソフト面の進化を遅らせて
いるにょ。
ハード面では昨日書いたようなHDDの問題があるにょ。
XPのシェアが低ければXPを切り捨てて物理、論理4KBセクタのHDDを作れば2TBの壁は
簡単に超えられる(16TBまで大丈夫になる)けどさすがに6割の人を切り捨てるという
ことはなかなかできないからね。
それにアプリもXPのシェアが高いためにXPでの動作サポートをしなくてはならないにょ。
ゲームに関してもXPがDirectX9までしか対応していない関係上DirectX10以降が必須の
ゲームはごく一部に止まっているにょ。
ユーザーはXPで特に困らないからXPを使い続けてしまうにょ。
上記のようにXP提供が完全に終了してこれからは7のシェアが急増するだろうからXPの
シェアが5割を割るのは時間の問題となるにょ。(8月3日に書いた予想ではシェア減少から
単純に計算してXPのシェアが50%を切るのは再来年になると書いたけどそれよりは早まる
可能性が高くなった)
ソフト、ハードベンダーは6割のユーザーを切り捨てられないからXPのサポートをし続けて
いるわけだけどそれによって「XPで問題ない」からXPのユーザーがなかなか減らないという
ことも逆に言えてしまうにょ。
とはいえ、この辺はソフトベンダーも分かっているだろうから今はXPを切るタイミングを
見計らっている状態ではないかと思うにょ。
そのデッドラインが2014年のXPの延長サポート終了日にょ。
私は2014年にはXPのシェアは3割を切るくらいまで下がっていると予想しているにょ。
これくらいならば十分切り捨てられるのではないかと思われるにょ。
昨日書いた2TB超のHDDもこの頃までには本格的に普及してそうにょ。
マジコン規制は必要だけど・・・
すでに小学生の間でも普通に使われているマジコン(国会議員である蓮○氏の息子も
使用しているらしい)だけどマジコンは本来はバックアップ目的であるのだけど大半が
コピーソフトの動作用に使用されているというのが現実にょ。
その被害額は4兆円にのぼると予想され法律改正も行われることになりそうにょ。
http://sankei.jp.msn.com/affairs/crime/101011/crm1010110041002-n1.htm
なぜならばマジコンそのものは国内の現行法では違法でも何でもないからにょ。
DSでは正規品のカートリッジしか動作しないようなアクセスコントロールが導入されて
いるためにコピーソフトは動作しないようになっているにょ。
しかし、マジコンを装着した際にはそのアクセスコントロールが無効化されるにょ。
DSもモデルチェンジ毎にそのマジコン対策をしてきたけど新しいモデルに対応した
マジコンが発売になるだけといういたちごっこ状態が続いていたにょ。(10月4日に書いた
「いつの間にか通信」が3DSでは最強のマジコン対策になる)
個人的には本当にバックアップ目的で使用しているならばマジコンはそんなに非難される
ようなものではないのだけど上記のように違法ダウンロード(もしくはP2P)で入手した
ソフトの実行用に使っている人が大半だからどうしようもないにょ。
「包丁では人が殺せる」という理由で包丁を規制するのとはわけが違うにょ。
もしも、包丁を「人殺しの道具」として使用するのが大半であればそれは規制される
だろうけどね。(実際銃刀法では刃渡り5.5cm以上の刃物の携帯は禁止されている)
ならばその大元である「ネット上に違法アップロードされたソフト」を何とかすべきと
いう考えもあるけどそれはなかなか難しいにょ。
著作権者のアップロードを行う行為(公衆送信権)は著作権法23条1項で規制されている
ものの著作権法違反というのは親告罪であるため8月6日にも書いたように著作権者からの
親告がない限りは罪には問われないにょ。
厳密にいえば画像1枚や文章の1文にも著作権はあるためそれをネットで公開するには
本来であれば著作権者から許可をもらう必要があるにょ。
著作権者からすればどこまで許せるかはそれぞれとはいえ細かい所まで許可を求め
られてもかえって困ってしまうにょ。
これが親告罪で無くなったら「何気なくブログで書いた一文がある楽曲の歌詞の一文と
同一だった」とか「絵を描いて公開したらアニメ(ゲーム)のキャラに似ていた」と
いう第三者の親告によっても著作権法違反となってしまいかねないにょ。
著作権の適用範囲が広いからこそ親告罪が用いられているにょ。
では、すでにネット上に氾濫している違法サイトなどは著作権者が野放しにしている
(親告罪であるため罪に問うてない状態)のかというとそうではないにょ。
対策をしていても追いつかないというだけの話にょ。
そこで今年の1月に改正著作権法が施行され著作権者の許可無くアップロードされている
違法サイトからのダウンロードも著作権法違反になったにょ。(P2Pは著作権法においては
キャッシュに含まれるファイルは対象外であるためダウンロード専用として使えば合法
だけどこの1月の著作権法改正によってそれも違法となった)
ただし、この改正も著作権法違反が親告罪なのに加えて違法ダウンロードに関しては
現時点では罰則規定がないため本当に効果があるかどうかは微妙なところにょ。
とはいえ、今までは法的にはグレーゾーンだった違法ダウンロードが完全に黒になった
というのは心理的に与える影響はゼロではないけどね。
ただ、ダウンロード違法化も「赤信号の時は横断歩道を渡ってはいけない」というのが
分かっただけであって「車が通ってなければ問題ない」と考える人が多いという状況と
変わらないにょ。
「赤信号みんなで渡れば怖くない」という言葉があるように「悪い」という認識があった
としても「みんながやっているから」ということで「大丈夫」と勝手に思ってしまう
から厄介にょ。
ヘタをすると「みんながやっているから」ということで「やるのが当たり前」であり
「やらないと仲間はずれにされる」という状況にまで陥っていることもあるにょ。
つまり「ダウンロード違法化」をしたところで違法入手したソフトをマジコンを使って
プレイする小学生が減少するわけでもないということにょ。
さらに言うと子供が仲間はずれにされないようにするため親の方から子供にマジコンを
与えているというパターンさえあるにょ。(だから一番の原因はモラルのない親の方にある
と思う)
つまり、著作権法が改正されてダウンロードそのものが違法化になってもマジコンがある
限りはどうしようもないということがいえるわけにょ。
そこで任天堂はソフトメーカーと協力してマジコンの輸入販売する業者を訴えて差し止めを
要求してマジコンは店頭から消えた・・・と思いきやそうではないにょ。
あくまでマジコンそのものが違法ということではないため現在も細々と販売されている
という状況にょ。
「マジコン規制法」というのはさすがに作れないので現行の著作権法を改正してマジコンが
違法になるようにするしかないにょ。
銃刀法では上記のように刃渡り5.5cm以上の刃物の携帯は違法となっているために包丁を
携帯する行為は違法となるけどそれをマジコンで考えてみるにょ。
マジコンは本来であれば正規品のカートリッジでないと動作しないようなアクセス
コントロールが使用されているけどマジコンではこれを無効化することでコピー品の
起動を可能にしているにょ。
そうなるとアクセスコントロールを無効化したりする行為を「違法」となるように法律
改正をすればマジコンは自動的に排除可能になるにょ。
さすがに「違法品」となれば扱う販売店はほぼ無くなるだろうからね。
ただ、現行の国内の著作権法では違法とはなっていないアクセスコントロールを無効化
させる行為を違法とするならばその影響はマジコンだけではなく広範囲に起きてしまう
ことになるにょ。
例えば、DVDに用いられているアクセスコントロールであるCSSだけど現在はCSSを無効化
してリッピングを行う行為は少なくとも国内では合法となっているにょ。
そのため購入したDVDをISO化してHDDにため込んでいる人もいるのではないかと思うにょ。
現時点ではコピーコントロールを無効化してコピーすることは違法となっているけど
アクセスコントロールは「コピーさせないためのもの」ではなく「特定機器でのみ動作を
行うためのもの」であるため現在では違法となはらないにょ。
つまり、アクセスコントロールを無効化することが違法になれば本来想定していない機器で
動作させることが違法になり得るにょ。
例えばDVDで新しいアクセスコントロール技術が搭載された場合にはそれに対応していない
プレイヤーを使うことは違法となりかねないし、特定の地域でのみの再生を目的として
導入されたリージョンコードもそれを無効化するリージョンフリーのプレイヤーは違法
となってしまうわけにょ。(CCCDをリッピングするのも違法だし、iTunesStoreで購入した
DRM付きの楽曲をCD-Rに焼くのも違法)
アクセスコントロールを無効にする行為を違法化してしまえばマジコンだけに止まらず
多くのものに影響が出てしまうにょ。
マジコン使用者の拡大を防ぐには法規制によって行うしかないとはいえ、それによる
影響を考えると「アクセスコントロールを無効」とすること自体を違法化するような法律
にはして欲しくはないにょ。
コンピュータは人間を超えられるか・・・?
コンピュータがついに将棋でプロ棋士に勝利したにょ。
http://pc.watch.impress.co.jp/docs/news/20101012_399491.html
チェスにおいては1996年にIBMのスパコン「ディープブルー」を用いて世界チャンピオンに
対して勝利を収めているけど将棋の場合は手数がチェスよりも桁違いに多いため
コンピュータがプロ棋士に勝つのは当分先と思われていたにょ。
そしてついに今回その歴史的瞬間になったわけにょ。
次は男性棋士、そしてそれに勝てればトップ棋士との対局を予定しているにょ。
使用されたマシン「あから2010」のスペックを見てみるとXeon 2.8GHz(4コア) 109台、
Xeon 2.4GHz(4コア) 60台の合計169台(676コア)というスパコン並の性能を持つクラスタ
コンピュータにょ。
人間のように感覚によって数手先まで読んでいるのとは異なり、コンピュータの場合は
数値化されたものからしか判断ができないため思考ルーチンが非常に重要となってくると
同時にマシンスペックも重要になってくるにょ。
何せ読む手数が増えれば増えるほど指数関数的に分岐が増えていくからね。
「打てる箇所が少ない」かつ「最大60手で試合終了」となるオセロの場合は将棋よりも
圧倒的に少ない分岐になるにょ。
そのためすでにスパコンなんて使わなくても世界チャンピオンに勝てるレベルに到達して
いるにょ。
というのも中盤以降は最終手まですべての手を読み切ってしまうからにょ。
さすがに第1手からすべての手を読むというのは現時点でもまだ難しいけどすでに6x6の
盤面サイズでは最善手順が分かっており(両者が最善手を差せば16対20で後手が必ず勝つ
らしい)8x8の一般的な盤面サイズにおいてもそうなるのは時間の問題だと思われるにょ。
オセロはシンプルなゲームであるが故に昔からコンピュータ対戦がよく行われたにょ。
簡単な思考ルーチンであればプログラムサイズは数KBで済むためにメモリが少なかった
8ビットのパソコンやポケコンにおいても良く作られたにょ。
私もポケコンでオセロを作ったこともあるにょ。
さて、思考ルーチンというと言うと難しく考えるかもしれないけど単純に自分ならば
どう打っていくかというのをコンピュータで行えば良いので難しいことではないにょ。
ただ、その際には「何手読ませるか」ということも重要になると思うかもしれないけど
それは「まともな思考ルーチン」(後述の「評価関数」)があってこそ意味があるにょ。
実はオセロの場合は序盤は(極論を言うと)あまり相手の駒を取らない方が有利になる
ため単純に「より多くの駒が取れるような場所に置く」というのは先読みすることで弱く
なる可能性があるにょ。
実際に私はポケコン(PC-1350)を用いて友人が購入した最新鋭のパソコン(PC-8801SR)
とでお互いがBASICで作ったオセロプログラムで対決したけど友人は取れる駒を考えた
1手先読み機能付き、私は駒を全く考えない盤面評価のみで対決して私の方が勝利した
くらいだからね。
盤面評価というのはどんなものかというと下記のように盤面にあらかじめ点数を付けている
ものにょ。
そして駒が置ける中で「最も点数が高い場所に置く」というごく簡単なものにょ。(同じ
手を繰り返さないように各場所にあらかじめ0〜1の乱数をプラスしておく)
9 1 8 6 6 8 1 9
1 1 7 3 3 7 1 1
8 7 5 5 5 5 7 8
6 3 5 0 0 5 3 6
6 3 5 0 0 5 3 6
8 7 5 5 5 5 7 8
1 1 7 3 3 7 1 1
9 1 8 6 6 8 1 9
これを見てのように四隅は点数が高いので優先的に取るようになっているし、その隣は
四隅を相手に与えないように低めの点数になっているというのが分かると思うにょ。
このような盤面評価も序盤と中盤、終盤では価値が変わってくるため一律ではなく変える
方がより有利になるにょ。
また、盤面だけではなく置いた駒によっても評価値は随時変動させていく必要があるにょ。
強い思考ルーチンを作るためにはより良い評価関数を作ることがまず最重要課題となる
わけにょ。
良い評価関数が出来た場合に先読みすることでさらに思考ルーチンが強化されるわけ
けだど1手先読みするごとに指数関数的に手順が増加する(10カ所置けるならば6手先読みを
すれば1000000も探索する必要がある)ためにマシンスペックが有限である以上はすぐに
限界が訪れるにょ。
縦型分岐において評価値が相手にとって低く自分にとって高いものを選択するという
minimax(ミニマックス)法はポピュラーだけどその場合は不必要な分岐も探索することに
なるため考案されたのがαβ法にょ。
この場合はあらかじめ自分にとって低く、相手にとって高くなるような分岐は探索しない
(αカット、βカット)をすることで探索する数を減らすというものにょ。
これによって、先読みした場合の思考時間を大幅に減らすことが可能になるにょ。
単純に考えると人間が考えた思考ルーチンだからコンピュータが人間に勝てるわけがない
と思うかも知れないけど実際は人間はすべての手順において探索しているわけではない
(最善手を打っているわけではない)ために一定以上の性能のPCがあれば人間(その思考
ルーチンを作ったプログラマ)よりも強いものができてしまうにょ。
オセロの場合はその「一定以上」という基準が低いために一般的なPCであれば「自分より
強いオセロゲーム」を作るというのはそんなに難しくはないにょ。
さて、ここでコンピュータ将棋に話を戻すにょ。
私はコンピュータ将棋を作ったことはないけど評価関数を作り、縦型分岐で探索するという
基本的な流れはオセロも将棋も変わらないと思われるにょ。
評価関数を作るのが難しいというのと分岐数が多いというだけの話だからね。
確かに、強くするにはアルゴリズムの改善も重要だけど持ち時間がある以上はマシン
スペックも重要になってくるにょ。
コンピュータの進化(高性能化)によってこの度ついにプロ棋士に勝つことが可能になった
ということが言えるわけにょ。
今回勝ったことで数年以内にはトップ棋士に勝てる見込みが出てきたけどそうなると次は
囲碁の番かもしれないにょ。
囲碁は将棋と比べて遙かに置ける場所が多いため現在はプロ棋士どころかアマの有段者
相手に勝つのも厳しいレベルだからね。
しかし、このままコンピュータが進化し続ければいつかは囲碁においてもトップ棋士に
勝てる時代は訪れると思われるにょ。
人間は将棋をすべての手を読んでいるのではなく感覚やセンスによって分岐枝を減らし
短時間でより効果の高い思考をしているにょ。
しかし、コンピュータの性能向上によってその感覚やセンスを演算速度でカバー可能な
レベルになってきているということがが分かるにょ。
ボードゲームから離れるけどGoogleが自動運転カーのプロジェクトを発表したにょ。
http://www.itmedia.co.jp/enterprise/articles/1010/10/news002.html
「コンピュータは(思考ルーチンにバグがない限り)ミスをしない」ために人間と同じ
ようなレベルで判断可能であればコンピュータの方が安全といえるにょ。
1つのことに特化されたコンピュータが完全に人間を超える日がやってくるのは時間の問題
といえそうにょ。
ゼロからのスタートとなるWindows Phone 7
ついにWindows Phone 7端末が発表されたにょ。
http://k-tai.impress.co.jp/docs/news/20101012_399513.html
Windows Phone 7は従来のWindows Mobileの後継となるOSだけど従来とは大きく異なる点は
最初からスマートフォンをターゲットとして作られたOSということにょ。
Windows MobileはWindows CEがベースになっているにょ。
Windows CEはPC向けのWindowsとは異なり、小型端末や組み込み機器用のOSとして作られた
ものにょ。
かつては、H/PCやPocket PCというPDAで多く採用されていたもののPDAは衰退化をたどり
それに取って代わる存在となったのがスマートフォンにょ。
スマートフォン用のOSといえばSymbian OSの方がWindows Phone(およびWindows Mobile)
よりも歴史もシェアもあるにょ。
それなのに国内ではSymbian OS搭載のスマートフォンはほとんど出回ってないにょ。
しかし、これはあくまでスマートフォンとして出回ってないというだけでFOMA端末は
Symbian OS上で動作しているためガラケーだからOSが全面に出てないだけといえるにょ。
実際、ガラケーはネイティブアプリが実行できないという点以外はスマートフォンと
システム面から見ると大きな差はないからね。
これも当然の話であり、OS無しであそこまで高性能な端末を開発するというのは無理がある
からね。
ただ、このスマートフォンもここ2、3年で大きく情勢が変わったにょ。
それはiOS搭載機(つまり、iPhone)とAndroid OS搭載機の登場によるものにょ。
iOS搭載機はアップル社以外から登場することは恐らくないために8月9日に書いたように
今後も現状のシェアを維持するのは難しいと思われるにょ。(台数は増加しても
スマートフォン市場が大幅拡大されるのでシェア自体は低下が予想されている)
シェアを考えた場合には最近の状況を見ての通りAndroid OS搭載機が今後数年間においては
最も伸びると予想されているにょ。
ここまでAndroid OS搭載機が伸びた背景にはOSのライセンスやアプリ開発の自由度が
大きいと思われるにょ。
OSのライセンスが無料でなおかつライセンスに縛りがないからね。
ライセンスに縛りがないからスマートフォンに限らずさまざまな端末が登場し、無料
だからどんどん端末に搭載されているにょ。
アプリ開発もMacでしか開発できないiPhoneとは異なり、XP以降のWindows、Mac、Linuxで
開発可能であるため有利だし、しかもiPhoneとは異なりアプリの審査もなく誰でも公開
できるというメリットもあるにょ。
Windows Phone 7はAndroid OSと比べてどうなのかというと私はメリットを感じないにょ。
Windows Phone 7はWindows Mobileで長年作られたアプリがあるけど後継OSではあるけど
互換性のないOSであるため従来のアプリは動作しないにょ。
そして、UIも一新したために長年Windows Mobileを使い慣れていたからといっても
Windows Phone 7端末を選ぶ意味はあまりないにょ。
Windows MobileのベースであるWindows CEはPC用のWindowsと似たUIを持ち一部のAPIに
おいて互換性があるというメリットがありWindows PCを使い慣れている人が使うには
悪くない端末だったにょ。(似て非なる点が多かったので逆に使いにくいとい人もいる
だろうけど)
ただ、Windows Mobileは元々スマートフォン用に作られたOS(スマートフォンを考慮して
作られたOS)ではないためスマートフォン用のOSとして考えると優れているとは言い難い
ものがあったにょ。
Windows Phone 7において従来とアプリ互換性を無くしUIを変えたのはWindows Mobileも
今後はスマートフォンがメインとなると予想されるため中途半端に互換性を保ち使い
にくいものを作り続けるよりはスマートフォン用としてゼロから作り直した方が良いと
MSが判断したためだと思われるにょ。(過去よりも現在や未来を優先したということ)
この考えは決して間違いではないにょ。
ただ、ユーザーからしてみるとアプリ互換性が無いとなるとあえてWindows Phone 7端末を
選択するメリットはなくなるにょ。
しかも、3月にOSの仕様が発表された時には初期のiPhoneと同じくコピー&ペースト機能
が無いことが明らかになっにょ。(iOS 3.0からコピペに対応した)
これは来年のアップデートで対応見込みとはいえ、iPhoneにおいてあれだけユーザーの
要望が強かったのに不要と判断していたのはさすがに私には信じられないにょ。
http://japanese.engadget.com/2010/10/11/windows-phone-7-2011/
PCにおいてはWindowsはアプリ資産があるので今後もシェアをそれほど大きく落とすとは
思えないけれどスマートフォンにおいてはそれが上記のようにゼロからの出発であるため
かなり厳しいことになりそうにょ。
さて、Windows Phone 7は従来のWindows Mobileは異なりライセンスするにあたってある
程度のハードウェア要件を求めているのでどんな端末でも搭載可能というわけには
いかなくなったにょ。
Windows Mobile搭載の端末がすべてWindows Phone 7を搭載するというわけではなく
従来アプリを使いたい人向けやハードウェア要件を満たせない端末向けにはまだWindows
Mobileはライセンスされているにょ。
実際、Windows Mobile搭載のPDAが未だに新発売されているわけだしね。
http://k-tai.impress.co.jp/docs/news/20101012_399514.html
「Windows Phone 7が本当に普及するのか」また「Windows Mobileがどうなるのか」という
点に関しては現時点では判断が難しいためしばらく様子を見る必要がありそうにょ。
TVはインターネットと共存可能か・・・?
米国ソニーからインターネットTVが発表されたにょ。
これは「Apple TV」に対抗の「Google TV」を製品化したものにょ。
http://av.watch.impress.co.jp/docs/news/20101013_399669.html
一家に1台・・・いや1人に1台のPCがあるこのご時世にTVでインターネットを楽しむという
人がどれだけ居るのか疑問という考えを持つ人がいるかと思うにょ。
それももっともな意見にょ。
インターネット機能(Webブラウザ内蔵)を持ったTVはダイヤルアップ接続の時代から存在
していたけどことごとく失敗してきたからね。
Win95ではインターネットに必要なTCP/IPプロコトルを最初から実装しWebブラウザさえ用意
すればインターネットが楽しめWin98ではWebブラウザが最初から内蔵されインターネットが
さらに身近な存在になったけど90年代後半PCがようやく十分普及期を迎えた時代であり
各家庭にあるというものではなかったにょ。
そんな時代に数10万円も出してインターネットのためだけにPCを買う(安価なものは10万円
くらいで買えたけど標準的なものは10〜30万円だった)ということはなかなかできるもの
ではなかったにょ。
上記インターネット機能内蔵TVも安価ではなかったということが失敗の原因だと思うにょ。
そういう中で登場したのがこのような外付け機器にょ。
http://internet.watch.impress.co.jp/www/article/980831/stb.htm
新規にPCやインターネット機能内蔵TVを安くインターネットが楽しめるためそれなりには
受け入れられたにょ。
98年にはコンシューマゲーム機として初のインターネット接続機能を持つドリーム
キャストが登場したにょ。
標準で33.6kbpsのモデムを内蔵し、プロバイダも自社で用意するという力のいれ具合で
PCは持ってないけどドリキャスでネットを楽しんでいるという人も多かったのではないかと
思われるにょ。
しかし、TVでインターネットを楽しむというのが普及するような時代は少なくとも現時点
では訪れてないにょ。
それには下記の3つの理由があると思われるにょ。
(1)設置面の問題
(2)機能面の制約
(3)買い換えサイクル
(1)ダイヤルアップ接続にしろADSLにしろインターネットに接続するためには別途モジュラー
ジャックへとケーブルを繋ぐ必要があるからね。
TVというのは普通は設置の段階でACやアンテナを考慮した場所に設置してあるものであり
モジュラージャックの場所を考慮されてないにょ。
もっとも近年では無線LANのルータ機能をもった親機が安価で購入可能になってきている
ため機器側に無線LANさえ内蔵してあれば設置面の問題はほとんどなくなってきているにょ。
(2)PCではない機器のWebブラウザはかつては非常に貧弱なものだったにょ。
私が10年前に使用していたザウルス(MI-310、MI-610)においても当時としては最新とは
いえないけど必要にして十分なHTML3.2の機能をほぼ実装していたとはいえ、制約が非常に
多かったにょ。
Webブラウザ上で開ける画像サイズは640x480まで(JPEG、GIFのみ対応)1ページ当たりの
データ量は128KBまで(HTMLソースサイズは32KBまで)という感じのスペックからくる制約
というものだけではなく当時すでに増えつつあったJavascriptやFlashによる動的な
コンテンツには全く対応できないという制約もあったにょ。
PDAの場合は「モバイルだから」ということで妥協が出来た(当時はまだケータイにおいて
i-modeのサービスさえ始まっておらず「Webブラウザ搭載」というだけで重宝した)
時代だったから良かったけど自宅でしか見れないTVなどの大型機器でそのような制約は
非常に大きなものだといえるにょ。
2000年代に入りPCはいよいよ一家に1台というレベルまで普及してきたけどそうなれば
中途半端なWebブラウザしか搭載していないTVでは見れないコンテンツも増えてきており
続きは別の部屋にあるPCで見るというのならば最初からそのPCを使った方がマシという
感じになってきていたにょ。
(3)一般的にPCの買い換えサイクルは5年程度と言われている(昨今はゲームや動画編集など
重い作業をやらない限りはさらに長い年数使える)けれどTVの場合は壊れるまで使い続ける
という人も少なくないのではないかと思われるにょ。
私の自宅もリビングのTVは購入して12年だし、自室のTVに至っては25年経っているにょ。
実際それで壊れてないから買い換える必要性がないにょ。(唯一あるとすればアナログ
放送の完全終了したときだけどその時には「TVを見ない」という選択肢もある)
基本的にアップデート不可なTV内蔵のネット機能は10年経つとほとんどまともに使える
レベルではなくなってしまうにょ。
最初から必要最小限の機能しか搭載していなかった上に10年間の進化に対応できていない
わけだからね。
では、今回ソニーが発表した「Google TV」搭載のTVを見てみるにょ。
といっても要するにただの「Android OSを搭載したTV」というだけなんだけどね。
(1)の問題は無線LANを内蔵することで解決、(2)の問題はWindowsやIEやx86に依存した
コンテンツ以外は問題ないだろうし(Android OSは2.2からFlash10.1に対応しているため
YouTubeの動画もそのまま再生可能だし再生支援によってHD動画も普通に再生できる)
(3)は今後はアップデート対応で何とかなる(かもしれない)にょ。
こうしてみると「ちょっと高性能(高機能)になったインターネットTV」と考える人も
いるかと思うけどほんとうにそれだけだと売れるとはとても思えないにょ。
すでにPCは一家に1台の時代から1人1台の時代を迎えようとしているからね。
ネットブックが売れたのもそんな時代の流れを反映してのことにょ。
ネットはケータイやスマートフォンでも利用できるけどある程度長時間使用するならば
やはりサイズはそれなりにあった方が使い勝手がいいからね。
特にWindowsやキーボードに拘りが無ければiPadという選択肢もあるにょ。
つまり、最初からインターネットのみが目的であればそれらの端末を使う方が便利であり
TVで楽しむ意義というのはあまり感じられないのではないかと思うにょ。
TVというのは今更言うまでもないけど映像を楽しむための機器にょ。
地上波だけではなくチューナーさえあればCS、BS放送も楽しむことができるにょ。
インターネットというのはTCP/IPを通して行われる通信にすぎず、それらは別物と考える
人が普通だと思うにょ。
しかし、見る側からすれば受信方式や通信方式は関係ないにょ。
重要なのはコンテンツだからね。
UHFで送られてくる電波だから地上波を見るなんて考えている人は居ないと思うにょ。
視聴が無料だからという理由で地上波のみを見ている人は少なくないとは思うけどこれは
あくまでコストな問題であり受信方式は関係ないにょ。(BS、CSアンテナが無料設置で
視聴料金も無料であれば見たいという人は多いと思う)
TV放送を見るという行為とYouTubeの動画を見るという行為は本質的な差はないにょ。
逆に言うと「TV放送」というものも数あるコンテンツの中の1つでしかないといえてしまう
わけにょ。
従来のインターネットTVというものは「TV」と「インターネット」で画面を切り替える
必要があり、「TVとインターネットは別物である」という認識が強かったにょ。
TVも多チャンネル化を迎え視聴率争いが昔と違って激化しているけどそういう時代だから
こそGoogle TVのようなものが受け入れられるようになると思うにょ。
「YouTubeなんて素人が作った動画ばかりだから見ても面白くない」という人もいるかも
しれないけどネット上にある動画はYouTube以外にも様々あるにょ。(それに「素人だから
面白くない」というのは正しくはなく「素人だからこそ他にない面白いものが作れる」
けれどこれは主観の問題なのでひとまずここでは保留しておく)
9月25日に書いたようなネット配信も最近はかなり増えているしね。
TV放送された番組もネット上で見れる時代になってきているということはますますTVと
インターネットの境目は小さくなってきているにょ。
また、インターネットとTVが融合することで動画だけではなく天気予報やニュースなどの
情報も画面内に混在させることが可能になるにょ。
Google TVはTV放送用に作られた映像を垂れ流しにするしかできなかった従来のTVとは
異なり、映像を主体としたコンテンツビューア、情報ビューアとして非常に便利な側面を
持つので期待が持てるけど日本においてはそれは厳しいものといえるにょ。
それは日本においてはARIB(社団法人 電波産業会)の規定があるからにょ。
http://plusd.itmedia.co.jp/lifestyle/articles/1002/08/news018.html
TV放送はアスペクト比を変えたり、別のコンテンツやヴィジットを同時に表示することは
規定によってできないからにょ。(アスペクト比を維持したまま縮小表示を行い空いた
スペースにヴィジットを表示することは現在でも可能だけどオーバーレイ表示は不可)
TVが純粋にTV放送のみを楽しむ端末という時代はもうそれほど長くないかもしれないにょ。
Google TVだけではなくIntelも家電へとx86CPUを浸透させようと頑張っているからね。
「TV放送は数あるコンテンツの1つにすぎない」という認識が多くの人に広まるのはもはや
時間の問題ではないかと思われるにょ。
そうなった時に上記のような規定によって閉鎖的になっている日本はどうなるのか・・・?
そんな時代がやってくるまでには規定が変わっているということも考えられるけど今の
ままだと時代の流れについていくことができないにょ。
いよいよアナログ放送終了まであと9ヶ月余りとなったわけだけどデジタル放送においては
「コピーワンス」が「ダビング10」へと緩和されたとはいえその暗号化システムとB-CAS
カードの存在によって録画コンテンツを他の機器で楽しむにはハードルが高くなっている
ためTV放送というもの自体の魅力が薄れているわけだしね。
規定や著作権保護によってTV放送を守ることはTV放送をそのまま殺してしまうことに繋がり
かねないにょ。
DVDなどのコンテンツ販売ビジネスがメインのアニメにおいてはTV放送は宣伝のために
行っているだけどコストを払って宣伝の価値さえないとなればTV放送ではなくネット配信が
メインとなる時代がやってきてしまうにょ。(それでなくても2006年以降はそのような
コンテンツ販売のビジネスモデルに限界が来ておりTVアニメ制作本数は減少傾向にある)
「1つのコンテンツ」としてインターネットと共存できるかそれにさえなれないのかという
のとでは大きな差となるにょ。
高級コンデジは高級ネットブックと同じ!?
デジタル一眼の新機種発表ラッシュがあった8〜9月だけど高級コンデジも各社とも新機種を
発表しているにょ。
一般的なコンデジは半年〜1年のサイクルで新機種が発表されているけど高級コンデジに
関しては1年〜2年サイクルとなっているため一斉に出そろうのは珍しいことにょ。
9月に発表さえれた高級コンデジといえばキヤノンのPoweShot G12、Panasonic LX5、ニコン
COOLPIX P7000が挙げられるにょ。
http://camera.itmedia.co.jp/dc/articles/1010/14/news013.html
http://camera.itmedia.co.jp/dc/articles/1009/28/news014.html
http://dc.watch.impress.co.jp/docs/review/special/20101004_397448.html
さて、このような高級コンデジに共通する部分は以下の3点にょ。
(1)画素ピッチが広い
(2)マニュアル操作がしやすい
(3)作りがしっかりしている
(1)コンデジはすでに1/2.33インチセンサーを搭載した標準的な機種も1400万画素に達して
おり、ケータイのカメラでさえ最大で1300万画素に達しているのにこのような高級コンデジ
では1000万画素に抑えられているにょ。
しかも、センサーサイズは1.6〜1.7インチということで標準的なコンデジのセンサーと
比べて2倍近い面積となっているにょ。
2倍のセンサー面積があるにも関わらず画素数が1/1.4しかないというと1画素あたりの
面積では標準的なコンデジの3倍弱になるにょ。(画素ピッチはその平方根になる)
標準的なコンデジに用いられている1/2.33インチ、1400万画素のセンサーは画素ピッチが
1.35μmと狭くそれ故にレンズに求められる解像力は極めて高いにょ。
回折現象によってF2.7以上では徐々に画像ぼやけてくるためにそれより明るく370本/mm
というすさまじい解像力を持つレンズを搭載しない限りは1400万画素の価値はなくなる
からね。(実現するのはコスト的にほぼ不可能)
かつて、コンデジも500〜600万画素程度の時代までは画素数アップが解像感アップに
繋がっていたけど今となっては「画素数アップは解像感とは全く関係ない」と言っても
過言ではないにょ。(画素数よりもレンズ性能とデジタル処理の影響力が遙かに大きい)
1/1.7インチセンサーで1000万画素となると1/2.33インチでは500〜600万画素程度の画素
ピッチとなるためこれくらいであればレンズに求められる解像力もかなり現実的なものに
なってくるにょ。
回折限界もF4.5くらいまで軽減されるしね。
さらに大きいのがダイナミックレンジの増加にょ。
LX5もそれをウリとしているからね。
http://panasonic.jp/dc/lx5/sensor.html
つまり、「高画質を実現するために画素数を抑えている」ということにょ。
(2)このクラスのコンデジを買う人は少なくとも初心者ではないためフルオートでしか
撮らないというのは想定されてないにょ。
一般的なコンデジはフルオートを前提に作られており、いかにオートで使いやすいものに
なるかが重視されているけどこのような高級コンデジの場合は各種設定切り替えのしやすさ
というものが重視されているにょ。
ダイヤル数の多いG12はデジタル一眼の入門機よりもマニュアル操作の使い勝手においては
上ではないかと感じるにょ。
これはデジタル一眼とはいえ入門機は画質面などでコンデジでは物足りなくなった人が
対象となっているためオートでも使いやすいように設計されているからにょ。
(3)ボディの質感はやはり一般的なコンデジと「格の違い」があるし、やはり大きいのは
レンズの作りの違いにょ。
高い性能を発揮するならば単焦点がベストだけどそれだとさすがにユーザーを選んでしまう
ためズームレンズとなっているけど無理に小型化や高倍率化をしていないため非常に
光学設計でも優れているにょ。
LX5はズームレンズの望遠端でもF3.3であるため回折限界にはまだ達していないわけだし
(一般的なコンデジの場合は上記のようにF2.7で限界となるため広角側でさえギリギリ
だし望遠端では待ちがない無く限界を超えている)、やや暗めのG12でも望遠端はF4.5で
あるため回折限界に収まっているにょ。
こうして見ると優れているような気がする高級コンデジだけどやはり最大のネックとなる
のは価格にょ。
一般的なコンデジは発売当初の価格は2〜3万円であり、発売から数ヶ月経てば1万円台へ
価格が下落しているのだけどこのような高級コンデジの場合は5万円台という価格が
付けられているにょ。
新機種同士の比較でも並のコンデジの2倍の価格、機種を問わずならば並のコンデジの
3〜4倍の価格となると確実にユーザーを選んでしまうにょ。
「2倍のセンサーサイズだから2倍の価格までなら問題ない」とセンサーサイズに比例した
価格付けで問題ない人も中にはいるかもしれないけどそうなるとフォーサーズだと一般的な
コンデジの約8倍のセンサー面積だから8倍の価格まで許せるし、APS-Cだと約13倍の
センサー面積だから13倍の価格まで許せるのかというとそうではないと感じると思うにょ。
つまり、「センサー面積あたりの価格」という観点からするとコストパフォーマンスは
悪いといえるにょ。
やはり、この高級コンデジと購入比較をするならば一般的なコンデジではなく今だと
小型のミラーレスカメラだと思うにょ。
従来だと「コンデジの上」の大型センサー採用デジカメとなるとデジタル一眼レフを除けば
ライカのようなレンジファインダー機やシグマDP1くらいしかなかったけどライカは高価
すぎるし、DP1はあまりにユーザーを選んでしまうということで選択肢はほぼ無いに等しい
状態だったにょ。
しかし、オリンパスのE-P1発売以降多くのミラーレスカメラが発表されたからね。
とはいうもののミラーレスカメラはボディが小さくてもレンズを付けたら嵩張るという
弱点があるにょ。
3倍標準ズームを装着していたら厚さは8〜9cmに達するからね。
パンケーキレンズであればそれが5〜6cmに抑えられるために有利にはなるけど単焦点は
撮りたいものが決まっているならばいいけど汎用性を考えると厳しいにょ。(もっとも
レンズ交換が可能であれば必要に応じて交換すれば良いというだけであって単焦点の
コンデジとは大きく異なるけど)
レンズを小さく設計すればよいだけの話とはいえセンサーサイズ(というかイメージ
サークル)が大きくなればなるほど小型化するのは難しくなる(10倍ズームレンズを
搭載のコンデジがあそこまでコンパクトサイズになるのはセンサーサイズが小さいお陰)
わけだし、無理に小型化するとNEXのレンズのように解像力が乏しくなってしまうため
大型センサーのアドバンテージが無くなってしまうにょ。
したがって、レンズ込みのサイズを考えるとミラーレスカメラと十分に棲み分けは可能な
レベルにはなると思われるにょ。
問題となるのは一般的なコンデジの画質で物足りないという人がこのような高級コンデジ
ならば満足できるのかということにょ。
私自身、1000万画素のコンデジ(TX1)を毎日持ち歩いておりスナップや記録写真程度で
あれば大きな不満はないものの画質面での不満はあるため出来ることならばまともに
「写真として残したい」という場面においてシャッターを切りたくなるようなデジカメが
欲しいところにょ。
高級コンデジは(一般的なコンデジと同じく)レンズ一体型であるが故にレンズ設計や
デジタル処理(画像処理エンジンの最適化や各種収差のデジタル補正など)において有利に
なっているもののミラーレスカメラと比較するとセンサーサイズの大きな差を覆すのは
難しいにょ。
高級コンデジは「高いコストパフォーマンスは求めない」「ミラーレスカメラでさえ持ち
歩くのには大きすぎる」という人にとっては良いカメラだけどやはり一般的にはオススメ
し辛いにょ。
個人的には型落ちで安くなっていれば買ってしまうかもしれないけど5万円以上払うならば
それなりのセンサーサイズを搭載したものにしたいにょ。(FinePix X100のように
大型センサーを搭載の一体型カメラがどんどん登場すればさらに選択肢が増えてくる)
これは6万円払って高級ネットブックを買うか並のCULVノートを買うのかというのに
似ているかもしれないにょ。
高級コンデジ(ネットブック)の性能で許容できミラーレスカメラ(CULVノート)の
サイズが許容できない人は高級コンデジ(ネットブック)を買うのが良いというだけの
ことだからね。
自分が求めているものが明確に分かっていればでどちらが自分に適しているか迷う必要は
ないにょ。
Slate PCの最大の強みはWindowsであり、最大の弱点もWindows
Windows搭載のタブレット端末は「Slate PC」と呼ばれており10月3日に書いたように国内
メーカーではオンキヨーが最も早くそれを発表したにょ。
タブレットPC自体は昔からあるのであくまでタブレット端末という観点から見てみると
「Slate PC」というのは特別な存在ではないにょ。
では、今回オンキヨーから発表された製品がどの程度の実力を持つのかのレビューを元に
Slate PCを考えてみることにするにょ。
http://pc.watch.impress.co.jp/docs/column/hothot/20101015_400035.html
過去に多く存在しているタブレットPCとは異なりこのオンキヨーの製品の場合は最も下位に
位置するモデル「TW117A4」は49800円からという安価になっていることが挙げられるにょ。
これはiPad(16GB)のWi-Fiモデルの48800円とほぼ同じ価格であり、5万円程度で買える
タブレット端末を探している人にとっては有力な選択肢の1つとなりそうにょ。
タブレットPCが個人に普及しない最大の理由は価格面によるものだったからね。
企業で大量導入する場合でも価格が安価というのは非常に魅力になるにょ。
このSlate PCはここで何度も書いているように「キーボードがないネットブック」でしか
ないという感じにょ。
基本スペックを見てもネットブックそのまんまだからね。
従来のタブレットPCが高価だったのは部品コストが高価だったというのもあるし、ほぼ
100%(特定業種向けの)法人需要であるため大量受注は見込めないということで高めの
価格設定をしていたと思われるにょ。
したがって、この「TW117A4」の49800円という価格は構成から考えるとそれほど安いと
いうわけではなくむしろ妥当な金額ではないかと思われるにょ。(Starterであれば4万円
程度のネットブックにHome Premium搭載で1万円アップでこの価格と考えると台湾メーカー
と互角の価格であり国内メーカーとして考えると安いと考えることはできるけど)
価格面でライバルになるであろうiPadと比べてみるとサイズはこんな感じにょ。
http://pc.watch.impress.co.jp/img/pcw/docs/400/035/html/06.jpg.html
http://pc.watch.impress.co.jp/img/pcw/docs/400/035/html/07.jpg.html
10.1インチワイド液晶ということで9.7インチスクエア液晶のiPadと液晶面積はほぼ互角で
ありフットプリントには大きな差はないにょ。(横幅が広く縦幅が短い)
ただし、厚みを比べると一目で分かる差があるにょ。
http://pc.watch.impress.co.jp/img/pcw/docs/400/035/html/08.jpg.html
しかし、厚みよりも気になるのは重量にょ。
iPad(Wi-Fiモデル)が680gに対して990gだからね。
iPadでさえ片手で支えていたら「重い」と感じるわけなので990gはとても長時間支えて
おくのは無理にょ。
私が持っているLet'snote R5(999g)とほぼ同じ重量なわけだからね。
タブレット端末は基本的に両手に持って使う(片手で支えてもう一方の手で操作する)と
いうことを考えると普及させるには軽量化は不可欠だと思われるにょ。
ただし、本体の軽量化にはコストがかかるし、現行のAtom Nは消費電力が大きいため
バッテリ駆動時間を伸ばすには大容量のバッテリを搭載する必要があるにょ。
5月8日にも書いたように軽量化には省電力が必要不可欠となるわけにょ。
サイズや重量はとりあえずおいといて、あとはWindowsを搭載ということを見てみるにょ。
多少重量が重くてもWindows7を搭載しているということにメリットを感じているならば
問題ないと考えている人もいるだろうからね。
iPadではPCとは同じように使うためには苦労が必要だし、Android OS搭載機はiPad(iOS
搭載機)ほどの制約はないものの手持ちのWindows資産を重視するという人も少なくない
だろうからね。
ただし、Windowsを搭載で使いやすいか・・・というとむしろ逆だと思われるにょ。
その理由は下記の2つにょ。
(1)Windowsはタッチパネルを前提に作られてない
(2)ネットブックでWin7は荷が重い
(1)これはすでに何度も書いているけどWindowsはキーボードとマウスで操作することを
前提としたOSにょ。
したがって、ポインティング操作しかできないタッチパネルオンリーでは決して使い
やすいものとはいえないにょ。
さらに問題となるのはそのタッチパネルの構造にょ。
主に「電磁誘導方式」「抵抗膜方式(感圧式)」「静電容量方式」が挙げられるにょ。
電磁誘導方式はタブレットPCで広く用いられており専用のペンを使用することで正確な
ポインティング操作が可能になるにょ。(筆圧検知も可能になる)
感圧式はDSや銀行のCDなど一般的によく用いられており圧力を掛けることで座標が検知
可能であるため道具は特に用いる必要がないというのが広く使われている理由にょ。
DSやPDAではタッチペン(スタイラスペン)を使うことでそこそこ正確な座標検知も可能
だからタッチパネル対応のPCでもよく使われているにょ。
そして、やはり欠かせないのが静電容量方式にょ。
これはiPhoneをはじめとするスマートフォンでは広く用いられているけど感度が良いことに
加えて多点検出も可能というメリットもあるにょ。
この「TW117A4」は静電容量方式を用いることで感圧式のように一定以上の力を掛けて
パネルを押さえつけなくても反応するというメリットはあるもののWindowsの弱点をより
明確にしてしまうことになるにょ。
それは静電容量方式は基本的に指でしか操作できないからにょ。
Windowsはマウスというかなり精度の高いポインティングデバイスを使用することを前提に
作られたUIであるため普通に操作するだけで精度の高いポインティング操作が要求されて
くるにょ。
このためレビューにもあるように最大化ボタンを押すつもりが閉じるボタンを押すという
ミスが頻発してしまうわけにょ。
ボタンサイズは設定で変えられるけどただでさえ広いとはいえないWSVGA液晶をさらに狭く
してしまうことになるにょ。
(2)「TW117A4」は基本的スペックは上記のようにネットブックと同等にょ。
これはXPであれば十分快適に動作させられるもののWin7では荷が重いにょ。
これはAtomの性能が1つの指標となるエクスペリエンスインデックスで2.3しかないことに
起因しているにょ。
エクスペリエンスインデックスはマルチスレッド動作における性能比較であるためOSその
ものを快適動作させるためにはシングルスレッド性能の高さが必要でありHTT込みで2.3
しかないということを考えると普通に使うのに3以上のスコアが必要と考えるとどう考え
てもCPUの性能不足ということが分かるにょ。
もっとも、7も軽量化すればAtomで使えないこともないにょ。
これは登場時「重い」と言われたXPでさえ工夫すればPenIIで十分動作したわけだから
当然のことにょ。
ただ、軽量化にも限界があるし、それによって動作に支障が出る可能性もあるためやはり
ある程度で妥協は必要になるにょ。
まぁ最もお手軽なメモリ増設という高速化方法もあるけどね。
メモリを増やしても速くなるわけではなく大容量のメモリを使うアプリや複数のアプリを
使う場合のみ効果があるとはいえ1GBでWin7はメモリ不足に陥る場合が多いため2GBへと
増設することはほぼ確実に高速化に繋がるにょ。
やはり、それらの苦労をしてまでWindows資産を使いたいという人であればSlate PCは
良い存在になりそうにょ。
それでなおかつ10月3日に書いたように「キーボードがない」ということにメリットを
感じる必要があるけどね。
Windowsの資産は確かに魅力だし、現状でどんな形式の電子書籍にも対応できるのは
Windowsしかないしね。
ただ、電子書籍閲覧用としては使いやすいとはいえないみたいにょ。
これはハードやOSだけではなくアプリも原因になっているにょ。
Windows用アプリは決して使いやすいとは限らないからね。
http://pc.watch.impress.co.jp/docs/column/config/20101015_400042.html
万能な存在だけど個々のアプリを見ていくと他のOS用のものの方が使い勝手が良いという
ものは多くあるにょ。
これはWindows PCが「1つの用途に特化されてない」というのが理由だと思われるにょ。
解決方法がたくさんあるけどそれがかえってデメリットになっているというわけにょ。
iPadは制約が非常に多いiOSを搭載だけど使い勝手がWindowsに劣っているというわけでは
ないと感じる人が多いと思うにょ。
これは自由度の高さが使い勝手の良さに比例しないということにょ。
結局のところサイズ、重量面の問題だけではなくWindowsを搭載したSlate PCの場合は
Windows資産を使えるというメリットはあるけどWindowsのデメリットがより全面に出て
しまっている状態にょ。
これを多くの人が許容できるかどうかで今後Slate PCが普及するかに影響してくるのでは
ないかと思われるにょ。
現時点のままだと一部の層には受け入れられてもネットブックのように広い層にまで
受け入れられることはないと思うにょ。
ファームアップでNEX-5は変身する!?
コンデジでは物足りないという人でなおかつ一眼レフでは大きすぎるという人にとっては
一昨日も書いたようにミラーレスカメラが最有力候補となるにょ。
その中でも大型なAPS-Cセンサーを搭載のNEX-5/NEX-3は期待された状態で登場したものの
6月4日に書いたように問題点は少なくないにょ。
それらをまとめると下記のような4つの問題点があるにょ。
(1)Aマウントレンズを使用時にAFが出来ない
(2)動画がオート専用
(3)静止画も操作性が悪く事実上オート専用
(4)パンケーキレンズの解像力が低すぎる
しかし、今回の大規模ファームアップによって(1)〜(3)はかなり改善されたにょ。
http://dc.watch.impress.co.jp/docs/news/20101014_400031.html
(1)α用のレンズ(Aマウントレンズ)資産がある人にとってはMF専用というのは非常に
残念な仕様だったにょ。
もっとも本体側にAF駆動用モーターを内蔵していないためモーターを内蔵していない
レンズはAFができないのは仕方がないけどモーター内蔵レンズ(通常モーターのSAM、
超音波モーター内蔵のSSM)で出来ないというのはやはり納得できないという人も結構いた
わけだしね。
これがマウントアダプタ経由で他社のマウントのレンズを装着しているのであればその
仕様が公開されてないためAFはできないというのは仕方がないけど自社製品であるため
できないというのはただの開発上の都合でしかなかったわけだからね。
さて、今回ようやく念願のAレンズ(モーター内蔵に限る)のAF化に対応したわけだけど
AFで2〜7秒というのはさすがに遅すぎるにょ。
位相差検出方式に特化されたレンズでコントラストAFを使用すれば遅くなるのは仕方が
ないとはいえ、「とりあえず対応しました」というレベルでしかないにょ。
これは今後のファームアップで高速化が不可能ではないとはいえ、そのためにはレンズ側の
ファームアップも必要になるかもしれないにょ。
(2)大型センサーを搭載のデジカメで動画を撮るメリットはやはりボケを活かした描写
だと思うにょ。
確かに画質面で有利に働く面もあるけど画質はレンズよりもデジタル処理の影響が大きい
ためセンサーサイズの小さなビデオカメラの方が優れている面も多いにょ。
ボケの大きさはセンサーサイズが大きいほど大きくなる(実焦点距離や撮影距離も絡んで
くるけど根本的には大型センサー搭載機で撮影するのがベスト)とはいえ、明るい場所で
プログラムオートで勝手に絞る(被写界深度が深くなる)とボケの量が小さくなるため
大型センサーのメリットが無くなるにょ。
しかし、絞り優先AEで撮影できるようになったためその縛りは無くなったにょ。
(3)NEX-5はコンデジからのステップアップを考慮しているためか基本的にオートでしか
撮影しないと言わんばかりのUIだったにょ。
一眼レフであれば同じ設定でずっと使う(プログラムオート専用で使う)という人は
少ないけどコンデジであればそれが普通であるため設定の煩雑さというのはあまり気に
してなかったのかもしれないけどね。
しかし、発売してみればコンデジからのステップアップというよりも大型センサーを
搭載の小型デジカメということで一眼レフユーザーからもかなりの支持があったにょ。
だからこそ操作性の悪さは致命的問題として考えられていたにょ。
メーカーもそのようなユーザーの反応を知ったためか改善してきたにょ。
具体的にはソフトキーがカスタマイズ可能になったためよく使う機能はそのキーに割り
当てをすればいいし、メニュー画面でもカーソル移動が画面上下で繋がったため少ない
ボタン押し回数で移動できるようになったし、最後にカーソルがあった位置も記録する
ようになったので設定をこまめに変える人にはかなり有用になったにょ。
(1)〜(3)の改善によってNEX-5の評価は大きく変わるかもしれないにょ。
まだ十分とはいえないけど当初に比べたら劇的な改善となっているわけだからね。
ただ、(4)だけはファームウェアではどうにもならないにょ。
これはレンズを無理な小型に設計したことが原因となったわけだからね。
より良いレンズが登場するのを待つか多少嵩張るもののアダプタ経由でAマウントレンズを
使うしかないにょ。
今回のファームアップに加えて新色のピンクが追加されたためNEX-5はさらに売れそうな
感じにょ。
あとはEマウントレンズの充実が期待されるだけにょ。
ミラーレスとして先行するマイクロフォーサーズ陣営もPanasonic GF2やオリンパスの
PENシリーズの新機種も登場するのは間近であるためそれらライバル同士の争いでより
良いものになることに期待にょ。
キヤノンやニコンも拡大しつつあるミラーレスカメラ市場に参入する意向を示している
ため競争はさらに激化しそうな感じにょ。
ネットブックが売れなくなったワケ
デュアルコアAtomにWXGA液晶を備えて直販価格49800円のネットブック「Mini 210-2000」
だけど何とWindows7のStarterを搭載しているにょ。
http://pc.watch.impress.co.jp/docs/column/nishikawa/20101018_399982.html
9月14日にはAtomがデュアルコアになってもそれによってULCPC(ネットブック)用として
安価にWindowsが提供されず、価格が高騰してしまったらネットブックの意味がないと
書いたけどどうやらデュアルコアAtomはULCPCの規定では問題ないということが分かり
一安心したにょ。
このスペックを考えれば49800円は安い・・・と一瞬思ったけどよく考えたらそうでも
無かったにょ。
もしも1年以上前に登場していたら絶賛していたであろうスペック、価格だけど今と
なってはスペックと価格を天秤にかけた場合にそれほど安いとは感じなくなってしまって
いるにょ。
これはやはりAtomの高性能化が他のPC用のCPUと比べて非常に遅いせいだと思われるにょ。
Atomだけではなく近年PC用のCPUは全般的に性能向上が少なくなったように感じている人も
いるかもしれないにょ。
エンコなどではCPUパワーはどれだけあっても足りないわけだけど一般的な用途であれば
すでに十分な性能となっているためそこまで無理に性能向上をさせる必要がないという
こともいえるにょ。
では、イメージではなく実際にはどうなのかということを見てみるにょ。
CPUの価格というのは9月1日に書いたように1ランク上のCPUが登場することで価格帯が
1ランクスライドして安くなっているにょ。
そのため同一価格帯で性能比較することがCPUの性能向上において最も判断しやすい
指標になるにょ。
最近3年の10月10日前後の秋葉における平均CPU価格で比較してみることにするにょ。
注目したのは3万円と1万円にょ。
これは「ミドルクラス」「ローエンド」を意味するものにょ。
コア数が異なると性能比較がしにくいためミドルクラスはクアッドコアのみ、ローエンドは
デュアルコアのみで見てみることにするにょ。
3万円以下で買える 1万円以下で買える
クアッドコアCPU デュアルコアCPU
2007年 [※Core2Duo E6750(2.66GHz)]??Pentium E2140(1.6GHz)
http://akiba-pc.watch.impress.co.jp/hotline/20071013/p_cpu.html
2008年 Core2Quad Q8200(2.33GHz) Pentium E5200(2.5GHz)
http://akiba-pc.watch.impress.co.jp/hotline/20081011/p_cpu.html
2009年 Core i7-860(2.8GHz) Pentium E6500(2.93GHz)
http://akiba-pc.watch.impress.co.jp/hotline/20091010/p_cpu.html
2010年 Core i7-950(3.06GHz) Pentium E6800(3.33GHz)
http://akiba-pc.watch.impress.co.jp/hotline/20101009/p_cpu.html
これを見てのようにCPU性能は「かなり上がっている」といってもいいと思われるにょ。
ローエンドデュアルコアCPUにおいて2007年→2008年の伸びが大きいのは45nmで製造される
ようになった影響が大きいにょ。
これによって、高クロック化が容易になっただけではなくメインストリームへのクアッド
コアの急速な普及が行われたにょ。
2007年には3万円で買えるクアッドコアCPUが存在しなかったためデュアルコアCPUを記した
けれどその2年後にはそれよりも高性能(PentiumはL2が少ないけどクロック差で十分に
性能逆転できる)となるデュアルコアCPUが1万円以下で買えるということを考えてみても
高性能化というのが小さくないことが分かると思うにょ。
32nmとなるClarkdaleだけど現状では1〜3万円のデュアルコアCPUが中心となっている
ため上記のリストアップでは32nm化の影響は反映されてないにょ。
次世代のSandyBridgeはClarkdaleと同じ32nmで製造されるもののほぼすべてのレンジの
CPUで投入されるためクアッドコアのさらなる高クロック化やクアッドコアの低価格化も
期待できるにょ。
上記はCPU単品入手が容易であり価格が分かりやすいということでデスクトップPC用CPUで
比較したのだけどモバイル用であっても状況はそれほど変わらないにょ。(TDPの制約が
大きいためクアッドコアCPUがデスクトップPCよりは進んでないという程度の違い)
では、ネットブックで見てみることにするにょ。
ネットブックは従来高価だった小型のノートPCを安価で発売することで爆発的なヒットに
繋がったにょ。
安価に出来た要因は特定条件を満たすことでネットブック用に安価でCPUの提供をして
もらえ、低価格PCにおいて最も価格に対する割合が大きいOSもMSが定めた条件を満たす
ことで安価にWindowsを提供してもらったからね。
そうすることで各社ともに仕様統一し部品を大量生産することでさらに低価格化が進む
ことになったにょ。
さて、その肝心のネットブック用のAtomだけど元々Windows PCで使用することを考慮した
CPUではないためあまり性能が高いというものではないにょ。
しかし、ネットブックは基本的にWindowsを使用しているため一般的なPC用のCPUと同じく
どんどん高性能化していく必要性があるにょ。
ではAtomが登場して2年余りでどれだけ進化したかというと下記のような感じにょ。
2007年 A110(800MHz)
2008年 Atom N270(1.6GHz)
2009年 Atom N280(1.66GHz)
2010年 Atom N475(1.83GHz)、Atom N550(1.5GHz)
A110は厳密にいうとネットブック用のCPUではないけど使用用途から考えるとAtomの前身
となったものにょ。
DothanベースのCPUであり、シングルスレッド性能は同クロックのAtomの2倍程度あるため
クロックが半分であってもシングルスレッド性能ではほぼ互角となるにょ。
上記デスクトップPC用のローエンドCPUの価格変遷を見てみると2007年→2010年の3年間で
シングルスレッド性能は2倍に伸びているにょ。
ミドルクラスはそれと比べて小さいもののそれでも2年間で1.5倍の伸びがあるにょ。
それに対してAtomは3年間でのシングルスレッド性能の伸びは1割少々でしかないにょ。
デュアルコアであるN550ではデュアルコア化によってマルチスレッド性能は大幅に伸びて
いるもののシングルスレッド性能は3年前のA110と同等以下にょ。
ローエンドのCPUは上記のように3年間でこのように高速化していったけどこれはノートPC用
であるモバイル版においても同じようなことがいえるにょ。
それを考えるとただでさえ大きかったノートPCとネットブックの性能差が3年間でさらに
大きく開いたということになるにょ。
その穴埋めとして登場したのがCULVノートにょ。
イメージ的には下記のような感じになるにょ。(<の数はイメージを示しているだけで
あり性能に比例した数量というわけではない)
ネットブック<<<<<ローエンドノート
ネットブック<<<<<<<<<ローエンドノート
↑ここにCULVノートが加わる
CLUVノートは10月6日に書いたような登場理由があるけどそれに加えてネットブックが
あまりに性能向上が遅いために空いてしまった空洞化を埋める役割もあるということに
なるにょ。
では、ネットブックが現在のCULVノート・・・というか1世代前に相当するセレロンSU2300
搭載機に追いつくのはどれくらい先のことなのか・・・?
セレロンSU2300は1.2GHzとはいえAtomとセレロンではシングルスレッド性能には2倍くらいの
差があるにょ。
それでセレロンSU2300はデュアルコアだからね。
シングルスレッド性能でいえばAtom2.4GHz必要にょ。
マルチスレッドではAtomの場合はシングルコアでもHTTがある関係上マルチスレッド対応の
アプリの実行速度は馬鹿にできないレベルにはある(シングルスレッド性能で劣るはずの
ULV PenMを超える性能を発揮する場合がある)とはいえ、相手は物理的デュアルコアCPU
であるためその差はさらに広がりマルチスレッド性能で考えた場合はシングルコアAtom
ではN270の2.5倍(4GHz)相当の性能が必要になるにょ。
AtomがSU2300と「互角」と呼べるためにはデュアルコアAtomであっても2GHzはないと話に
ならないにょ。
Intelの場合は、同一世代、同一価格帯でコア数が2倍だとクロックが2割程度落ちるにょ。
実際2007年のCPU価格で3GHzのCore2Duo E6850と2.4GHzのCore2Quad Q6600はほぼ同一の
価格だったしね。
それを考えるとシングルコアのN475とそれよりも2割クロックが低いデュアルコアのN550は
同クラスの製品であるといえるにょ。(実際はN550の方が若干高価だけど)
これを元に考えるとAtom2.5GHzを実現する頃にはデュアルコアAtomが2GHzに達するといえる
わけにょ。
クロック上昇率(年率6%程度)を考えるとシングルコアで2.5GHzに達するのは5〜6年後
となるにょ。
つまり、5〜6年後のネットブックでようやく1世代前のCULVノートに性能で追いつくという
可能性があるわけにょ。
それならば5〜6年後にはCULVノートが不要になるのかというとそうではなくローエンド
ノートの性能は現在より格段に上がっているだろうしその技術をそのまま使ったCULV
ノートの性能も格段に上がっているためネットブックはCULVのポジションを奪い取る
というのは無理にょ。(むしろ現状よりもさらに差が広がる可能性の方が大きい)
ネットブックの最大のアドバンテージは価格であるため価格を重視するのは当然のこと
だと思われるにょ。
CULVノートは型落ち品を除けば6〜10万円であるためOSがStarterであるということを考慮
した場合にはハイスペックなネットブックでも5万円以上では厳しいにょ。
冒頭に書いたMini 210-2000が49800円で「安いはずなのに安くないと感じる」のは絶対
価値ではなく相対価値で判断しているからにょ。
性能向上が大きいPCにおいてはそのコア部分となるCPU性能の違いが相対的価値に与える
影響は少なくないにょ。
ネットブックのアドバンテージとなっていたサイズの小ささは初期の頃のネットブックと
異なり10.1インチが標準化されたため11.6インチのCULVノートとの差は差別化できるほど
大きくはないにょ。
実際Mini 210-2000は発売当初59800円(一部ショップでは当初から49800円)という格安で
登場したACERのCULVノート「Aspire1410」と比べて筐体サイズは1cmくらいの差しかないし
6セルバッテリ搭載によって重量は同じになっているからね。
せめて10.1インチ液晶の枠ぎりぎりまで小型化しアンダーB5サイズを実現して重量も
1kg程度に抑えられていればCULVノートと棲み分けができるだろうけどそんな機種は現在
ほとんど存在しておらず、ネットブックとCULVノートの棲み分けは価格でのみ行われて
いると言っても過言ではない状況にょ。
ネットブックは非力なAtomでもOSがXPであるため快適動作できたにょ。
Win7発売から1年経ち10月10日に書いたようにXPの提供が完全に終了するため今後は
ネットブックも7オンリーとなるにょ。
しかし、ネットブック用のAtomでは7は快適動作するとは言えず(デュアルコア化によって
多少はマシにはなるというレベル)、かといってAtomの性能向上も期待できない状態に
なっているにょ。
やはり、ネットブックはCULVノートでは実現できないくらい安価である必要があるにょ。
同一メーカー間で2、3万円くらいの価格差があればCULVノートではなく多少動作が重く
てもネットブックを選ぶ人はいるだろうけど実際はOSの価格差とCPUの価格差程度でしか
なくCPUもCULVノートはIntelから格安提供されるため売価で2万円以上の差を出すため
にはメーカーが利益を削る必要があるにょ。
ネットブックを安く売るのには限界がある(薄利多売にはすでに限界が来ている)ため
付加価値を付けて価格を上げようとしているくらいだからね。
ネットブックは登場した頃が最もお買い得感が高くそれ故に売れていったけど徐々に
そのお買い得感が薄れてきたというわけにょ。(デュアルコアAtom、WXGA液晶で49800円
といってもStarter→Homeの価格差を支払えば2倍近い性能のCULVノートが買えてしまう)
ネットブックが売れなくなったのは一般層に行き渡ったというだけではなくそのように
考えると納得がいくにょ。
2、3年前とあまり変わらない性能、価格のPCが売られている場合にそれを買うかと言えば
買わない人が大半だろうからね。
ケータイにおいて通話機能が不要になる・・・?
auが冬モデルを発表したにょ。
http://k-tai.impress.co.jp/docs/news/20101018_400416.html
やはり、今回の注目は何と言ってもスマートフォンにょ。
10月5日に書いたおサイフ機能やワンセグを搭載で「ガラパゴススマートフォン」という
感じのIS03をはじめ多数のスマートフォンが発表されたからね。
今回の新作発表会ではさらに「ガラパゴススマートフォン」が2機種拡充されたにょ。
IS04とIS05にょ。
◎REGZA Phone IS04(富士通東芝モバイルコミュニケーション製)
http://k-tai.impress.co.jp/docs/news/20101018_400384.html
◎IS05(シャープ製)
http://k-tai.impress.co.jp/docs/news/20101018_400411.html
すでに「全部入り」のIS03が先行発表された影響でインパクトは薄いけどIS03より一回り
コンパクトサイズだしFWVGA液晶で十分という人もいるだろうから選択の余地は多い方が
いいからね。
そんな「日本独自の機能」なんて要らないという人向けのグローバルタイプのスマート
フォンも健在にょ。
◎SIRIUSα IS06(Pantech製)
http://k-tai.impress.co.jp/docs/news/20101018_400414.html
従来型のガラケー(auは「フューチャーフォン」と呼んでいる)も当然のことながら多数
発表されたにょ。
◎Cyber-shotケータイ S006
http://k-tai.impress.co.jp/docs/news/20101018_400412.html
ついにケータイのカメラが1620万画素とは・・・。
裏面照射センサーであるため高画素化のデメリットはあまりない(通常のセンサーだと
配線部分がボトルネックとなり画素数が2倍増えたら1画素の面積は半分を大きく下回る
サイズになる)とはいえ、レンズ性能を考えると解像するとは到底思えないため無意味
にもほどがあるにょ。(デメリットがないだけであってメリットがあるわけではない)
画素混合で感度を上げ実質400万画素相当で使えるというのならば悪くは無さそうだけどね。
新機能といえば話題になっているのは「標準でSkypeを搭載」ということにょ。
http://k-tai.impress.co.jp/docs/news/20101018_400792.html
このSkypeアプリによってAndroid端末だけではなくBREW端末(ガラケー)でもSkypeが
使用可能になったにょ。
デフォで通話機能を持つケータイで「Skypeを搭載して何のメリットが・・・?」と思う
かもしれないけどSkypeにはSkypeしかないメリットがあるからね。
PCを使ってSkypeを使用するというのはマイクとヘッドフォンが必須であるため使い勝手が
良いものではないにょ。
そういう人のために用意されているのがSkypeフォンにょ。
電話機のような形状であるため通話はしやすいものだからSkypeを多用する人であれば
勝って損はない機器だといえるにょ。
しかし、Skypeフォンを使用しても単体使用はできないということにょ。
あくまでPCを併用することが前提だからね。(PCレスで使えるSkypeフォンもあるけど
少々割高になる)
その点ケータイにSkype機能を搭載すれば単体運用が可能になるためPCと併用することも
無くなるし、3G通信を内蔵によって(圏内であれば)どこからでもSkypeによる通話が
可能になるということが非常に大きいにょ。
「Skype同士の通話は無料」だけどやはり通信料金がかかってしまうにょ。
この料金体制は分からないけど回線交換接続であるため従量制になるかもしれないにょ。
ならば通信料金が要らない「無線LAN経由で使用すればいい」と考えるかもしれないけど
それはできないにょ。
それはキャリアにとっては大きな障害となるからにょ。
無線LANが使える場所では通話、通信が無料になってしまいキャリアには1円も入ってこ
ないからね。
電話とSkypeは別物(利用シーンが分かれる)と判断しているauだけど無線LANでは使用
できないようにしているところをみるとやはりSkypeによるARPU減少を危惧しているのでは
ないかと思われてしまうにょ。
これは国内のキャリア主導の端末であるからやむを得ないにょ。
海外製のスマートフォンであれば端末メーカー側の方が強いため無線LAN使用時に制限が
あるなんてことはないわけだからね。
iPhone 4にはFacetimeによるビデオ通話機能が備わっているにょ。
6月10日にはあるライターがiPhoneをガラケーと比べて批判していることについて書いた
けどその中の1つにあったビデオ通話に関してガラケーのTV電話と同じという考えに
対して私はそれは異なるものだという認識を示したにょ。
それこそがこの無線LANへの対応にょ。
ガラケーの場合はキャリア主導であるため基本的にキャリアのメリットにならないことは
極力導入しないからね。
(通信料金が別途かかると推測される)3G通信専用Skypeと無線LANによる無料のSkypeが
同じものとなってしまうにょ。
ただ、現時点では料金体制は発表されてないため何とも言えないにょ。
もしも、Skype同士の通話が「通信料金含めて無料」というのであれば本当にサプライズ
といえるにょ。
これは事実上au同士の通話も無料になるということを意味するからね。
Skypeアプリを立ち上げた状態だとバッテリがすぐになくなるため常時待ち受けを行う
のは難しいという問題もSkype社と共同開発したアプリによって克服されているとのこと
だからそこまで心配しなくても良いかもしれないにょ。
したがって、本当にサプライズになるかどうかは料金体制が発表された後の話にょ。
しかし、無線LANで使用できないことが分かっているため「通信料金を含めて無料」と
いうのはかなり望み薄と思われるにょ。
さて、多機能化が進んでいるケータイにおいては最も大きな不満要素は使わない機能が
あるということみたいにょ。
http://mainichi.jp/select/biz/it/news/20101015mog00m020013000c.html
通話ではなく通信(メールやWeb)をメインに使っている人は実際に少なくないし、知人と
通話をしたいという場合でもSkypeができれば十分という人にとっては音声通話さえも
不要になるかもしれないにょ。
現状ではSkypeはSkype同士では無料であっても携帯電話への通話にはかなり割高料金と
なってしまうにょ。(固定電話へ通話ならば月695円でかけ放題のプランがある)
緊急発信やフリーダイヤルも使えないため完全に電話が要らないというわけにも行かない
けれどそれで困らないという人にとっては問題ないわけだからね。(おサイフ機能も
それを必要としている人には無くては困るけどそうでない人は無くても問題ないわけだし)
そういう意味では携帯電話における通話機能も「数ある機能の1つにすぎない」という
時代になりつつあるのかもしれないにょ。
タブレット端末の普及のための準備はついに整った!?
iPadなどのタブレット端末は2014年には世界で2億台販売されるという予想が出ているにょ。
http://www.itmedia.co.jp/enterprise/articles/1010/18/news021.html
iPad以外はそこまでヒットをしているようには現時点では思えないけどそれは単にまだ
国内では普通に売られていないせいかもしれないにょ。
売られているのは秋葉の電気街のiPadモドキのようなものばかりだからね。
ネットブックでもその地位を獲得するのは簡単ではなかったにょ。
マザーボードメーカーとしては世界最大手が出したEee PCでもブランド志向の強い日本
では「ASUSって聞いたことがないメーカー」ということで最初は苦戦したわけだからね。
そしてブランド作りをして今の地位までたどり着いたにょ。
ネットブックがある程度売れ始めてからは国内メーカーもネットブックに参入したにょ。
価格的には台湾メーカーが4万円なのに大して国内メーカーが6万円ということで割高感が
非常にあったもののそれでもブランドを重視する人には受け入れられたにょ。
Windows PCの場合はどこのメーカーであっても「Windows PC」には変わりないということが
分かりネットブックはすぐに一般層に浸透していったけどタブレット端末の場合は事情が
異なるにょ。
それはOSが「Windowsとは限らない」という点にょ。
Android OS搭載のタブレット端末の場合はブランド(メーカー)の問題に加えてさらに
OSを認知、普及させることが重要になってくるにょ。
もっとも、特定OSに依存するアプリ(ネイティブアプリ)よりもそれに依存されないWebの
方にシフトしている傾向もあるためそういう意味ではようやく非Windows、非x86の端末が
広く受け入れられる下地が出来たともいえるにょ。
数年前までだとこのような端末に搭載のWebブラウザは10月14日に書いたように制約が
大きかったし、Web上のサービスも今ほど充実していなかったからね。
したがって、「今まで成功しなかったから今後も成功しない」というものでもないにょ。
タブレット端末の普及において重要になるのはノートPCとの差別化にょ。
「絶対的な安さ」をウリにしてヒットに繋げたネットブックだけどそのアドバンテージも
一昨日に書いたように薄れているからね。
ネットブックで行うことがノートPCと同じであるが故にスペック面の弱さが目立ってしまい
CULVノートの登場などによって価格面の差があまりなくなったことと相まって現在は厳しい
立場に立たされているにょ。(ASUSもデスクトップ用のデュアルコアAtomやIONを採用で
スペックアップを図ってはいるものの価格上昇をしてしまえば厳しいと思われる)
タブレット端末は「形状によってノートPCとは差別化できている」とも考えられるけど
それだけでは差別化は難しいにょ。
というわけで、差別化を行うのであれば下記の2つが重要になると思われるにょ。
(1)サイズ・重量
(2)価格
(1)すでに高性能なPCを持っている人が買い増しをする場合にタブレット端末とネット
ブックのどっちが便利かということを考えてみるにょ。
しかし、考えても答えは出ないと思うにょ。
それは用途や目的が分からないからにょ。
可搬性があれば良くネットブックの重量で問題なければネットブックを買うのが良いと
なるけど軽い物でも1kgの重量があり、平均では1.2〜1.3kgになるネットブックは決して
軽いものではないにょ。
実際ネットブックを持ち歩いて使うという人はわずかしかいないわけだしね。
ネットブックは持ち歩き用ではなく価格が最大のアドバンテージだから当然にょ。
重量を見るとモバイルノートだと1kg前後の機種は多いため最初から持ち歩き前提で購入
する場合にはこういったモバイルノートを使用する人が多いため結果的にネットブックを
持ち歩くユーザーの割合が小さくなっているというだけにょ。
ただモバイルノートは「仕事上必要だから持ち歩く」という人が多いためそれを除けば
持ち歩いているユーザー割合はかなり少ないと予想されやはり1kg程度であっても毎日
持ち歩くのには厳しいと考えられるにょ。
しかし、キーボードの制約がある以上は小型化すれば使い勝手が悪くなるため小型軽量な
ものはあるけど一般ユーザーの支持を得られているかは微妙なところにょ。(明らかに
B5よりも小さいサイズのPCで売れている機種といえばVAIO Pくらいか)
その点、タブレット端末であればキーボードの呪縛から逃れることができるにょ。
手に持って使うことが前提の端末であれば高dpiでも耐えられるため結果として小型化
しても高解像度が維持できるにょ。
例えば7インチWSVGAのネットブックを発売したとすればそれは170dpiに達するにょ。
これは10月3日に書いたように普通の人の目だと常用限界が150ppi〜167ppiであるため
それを超える解像度で使用する場合にはかなりの負担になるにょ。
しかし、手に持って使えるタブレット端末では目からの距離は自在に調整可能にょ。
30cmまで寄せればケータイと同じく300ppiまでは耐えられるからね。
ただし、手に持って使うことが前提になると軽量化が迫られるにょ。
私の経験上両手持ち端末で500g、片手持ちであれば300gが実用限界にょ。
週刊誌を読むように両手で持つなら500g、電車のつり革を掴んで片手で文庫本を読むように
持つならば300gが限界ということにょ。
昨日書いたauの新機種発表会では7インチのAndroid端末「SMT-i9100」も発表されたにょ。
http://pc.watch.impress.co.jp/docs/news/20101018_400817.html
ドコモも先日7インチのAndroid端末「GALAXY Tab」を発表したにょ。
http://k-tai.impress.co.jp/docs/news/20101005_398065.html
ただ、auの「SMT-i9100」には3G通信が内蔵されてないにょ。
無線LAN環境下では使えるもののさすがにそれしか使えないというものをキャリアで売る
わけにはいかないと判断したのか、モバイルルータ「Wi-Fi WALKER DATA05」とau端末を
モバイルルータ化するアダプタ「NEX-fi」も発表されたにょ。
http://k-tai.impress.co.jp/docs/news/20101018_400808.html
http://k-tai.impress.co.jp/docs/news/20101018_400813.html
7インチWSVGA液晶というのはタブレット端末の落としどころとしては悪くないにょ。
タブレット端末の場合はキーボードが非搭載であるが故にサイズ面での縛りが無くなる
ためベストなサイズというものは存在しないからね。
これがキーボード付きだとキーピッチにはベストなサイズが存在するためにそれから
逆算してベストなサイズも決まってしまうにょ。
7インチWSVGAというのは上記のようにキーボードの関係でノートPC(ネットブック)と
して販売する場合には幅広い層に受け入れられるのは難しいけどタブレット端末の場合は
全く問題がないからね。
逆にこれ以上小さくすると今度はスマートフォンに喰われてしまうにょ。
(手に持って使う端末の場合は)人間の目が300dpi程度まで耐えらるためWSVGA液晶でも
4インチのサイズで使用することは十分に可能にょ。
しかし、指のサイズだけはどうにもならないため4インチ程度のスマートフォンではWSVGA
液晶を搭載してもUIの関係で限界があるにょ。
したがって、7インチWSVGAのタブレット端末であれば3.5〜4インチのスマートフォンと
十分に棲み分けが可能になるにょ。
しかし、ジョブズ氏は「7インチは小さすぎる」と言っているにょ。
http://www.itmedia.co.jp/news/articles/1010/19/news097.html
これは10インチクラスのiPadで成功を収めたから言えるセリフだけどユーザーの反応を
見るとサイズ面の不満はそれほど大きくないけど重量面の不満は大きいにょ。
http://www.itmedia.co.jp/promobile/articles/1006/17/news052.html
その理由は簡単でiPadは10インチクラスの端末では700g程度と軽量ではあるものの上記の
ような私の体験上の限界である重量の500gを大きく超えているからね。
魔法でも使わないかぎりサイズを維持したまま500gを切ることはできないため軽量化には
本体サイズ(≒液晶サイズ)を小さくするしかないにょ。
7インチ液晶の「SMT-i9100」は450g、「GALAXY Tab」は380gであるため重量面で大きな
不満を感じることはないと思われるにょ。
まぁジョブズ氏の駄目出しは「より良く改良したものを出す」という合図にもなりつつ
あるので恐らく使い勝手のよい7インチiPadを出してくれるのはこれで濃厚になったと
考えることも可能になるにょ。
(2)Windows PCでも古くからタブレットPCなどのタブレットタイプの端末は存在するけど
ヒットしていない最大の原因は価格にょ。
そう言う意味ではオンキヨーが発表したSlate PCはネットブックと同レベルの価格という
ことで価格面の問題はなくなったにょ。
とはいえ、上記のようなサイズ、重量の制約を考えるとオンキヨーのSlate PCがWin7
Home Premiumを搭載で49800円とう破格の安さ(iPadとほぼ同レベルの価格)であっても
どうしてもWindowsが必要という人(業務上必要な場合など)以外は厳しいと思われるにょ。
重量面だけではなく10月16日に書いたようにタッチパネルを前提として作られていない
Windowsのデメリットもあるわけだからね。(そのデメリットよりもWindowsが使えると
いうメリットが大きいという人にとってはこの製品は非常に有用となる)
価格といえば国内においてネットブックの普及に大きな貢献をもたらしたのは3G通信
アダプタとセットで販売することで格安(100円PCなど)で販売したことにょ。
あれからもう2年経ち2年縛りが解けるユーザーも多くなっているにょ。
そうした時の買い換え対象として何があるのかということが重要になるにょ。
ネットブックの性能は2年前と比べて2割程度しかアップしてないにょ。
したがって、わざわざネットブックからネットブックに買い換える人はかなり限られて
くるのではないかと思われるにょ。
XPから7への変更はかなり大きいと思うけどOS変更によって動作が重くなっているという
ことが問題になるにょ。
一般的なPCの買い換えサイクルを5年とした場合に重くなった新しいOSを搭載したPCで
あっても5年間のPCの性能向上で十分カバーできるため「新しいOSだから重い」という
ことはほとんどないにょ。
いくら7が前世代(Vista)より軽くなったとはいえ、XPより重いのは事実だし、ネット
ブックの2年間の性能向上がそれをカバーできてないのも事実にょ。
恐らく2年間ネットブックを使用していれば自分が求めていたものが自ずと見えてきてくる
と思われるにょ。
PCとして使用するためにスペック面で物足りないと感じればCULVノートへの移行が考え
られるし、スペック面で不満がないなら「わざわざ買い換える」という選択肢はないにょ。
「重い」などを理由に持ち歩きを重視するのであればネットブックと明確なサイズ差、
重量差があるタブレット端末であれば買い換えに十分意味があると思われるにょ。
そういう意味で今後タブレット端末が3G通信カード(SIMカード)やモバイルルータと
セットで格安販売されるようになってからが本格的な普及期に入ると思われるにょ。
実際すでにauやドコモはそのための端末を用意しているわけだしね。
キャリアとは無関係にそのような端末をPCメーカーもすでに用意しているにょ。
現状では単体購入の場合は4万円以上ということでネットブックと比べて価格面のアドバン
テージはない状態だけどこれも大量生産が可能になればネットブックよりは確実に安く
なるにょ。
実際中国製の無名メーカー製端末であれば7インチ液晶のAndroid端末は1万円程度で入手
可能なわけなので将来的にはネットブックより確実に安くなるにょ。
ネットブックではすでに限界に達しているためこれ以上の値下がりは期待できないにょ。
そういう面からすると今後安価になればタブレット端末はネットブック以上の普及になる
といってもおかしくはないにょ。
(1)(2)の理由によりノートPC(ネットブック)十分差別化できるタブレット端末が将来的
には爆発的な普及の可能性があるとはいえ、問題となるのは9月4日に書いたような通信
インフラとコストにょ。
現状では無線LANで使用できる場所はかなり限定されているため3G通信が必須となるからね。
ローカル上での作業を重視しているPCであればそれで通信は無線LANが使用できる場所のみ
でも構わないけどAndroid OSなどを搭載のタブレット端末の場合は主な使用用途がWebで
あるためそれでは支障が出るにょ。
しかし、3G通信契約を別途行う場合にはコストアップとなり安価な端末のメリットは
かなり薄れてしまうにょ。
しかし、これもネットブックからの買い換えであれば問題はないにょ。
上記のようにネットブックを購入する際に3G通信アダプタをセットで購入してその2年
縛りが解けるついでに別の通信アダプタとタブレット端末をセットで購入すれば負担金が
増えるわけではないからね。
とはいうもののそれでは「ネットブックを3G通信アダプタとセットで買った人」が
タブレット端末のパイの上限になってしまうにょ。
したがって、重要になるのがモバイルルータの普及にょ。
さすがにモバイルルータを別途買うという人は限られているけどその機能をケータイに
内蔵したり、auの「NEX-fi」のようにモバイルルータ化するアダプタもあるためそれを
使用するという手もあるからね。
ここ2、3年で通信環境は大きく変わったにょ。
これから2、3年でも同じく大きな変革が訪れると思われるにょ。
したがって、タブレット端末の普及はこの通信環境の変革と合わせて大きな普及をもたらす
のではないかと思われるにょ。
現状ではまだiPadのみがブランド力によってヒットしているにすぎないタブレット端末
市場だけどそれはこれから変わってくるため現状だけで単純に判断できないにょ。
11.6インチMacBook Air発表
新型のMacBook Airが発表されたにょ。
やはり注目は11.6インチ版にょ。
http://pc.watch.impress.co.jp/docs/news/20101021_401429.html
http://plusd.itmedia.co.jp/pcuser/articles/1010/21/news019.html
Mac史上最軽量となっているからね。
昨日も書いたように近年は「Windows用アプリがどうしても必要」という人を除いて
Windowsの必要性は薄くなってきているにょ。
古いアプリを使っていてそれが欠かせない人であってもそれがWin7で動作しないので
あればWindows PCを新調するメリットはないにょ。
どうせ動作しないのならばそのアプリは古いPCでのみ使用しそれと併用できるような
小型のMacを買うというのは有用にょ。
またiOS用のアプリを開発する場合にはMacは必需品だし、今のIntel MacであればWin7を
インストールすることも可能なのでどうしてもWindowsが使いたいという場合はそういう
方法をとることが可能にょ。
逆にWindows PCにMac OSのインストールも可能だけどライセンス違反となってしまう
(Apple製品以外にはインストールできない)ためにそれを使うことはできないにょ。
この11.6インチのMacBook Airの大きなメリットは下記の3つにょ。
(1)薄型・軽量
(2)低価格
(1)初めてMacBook Airが発表された時にはその薄さに驚かされたけれど今回のMacBook
Airも最薄部3mm、最厚部17mmだからね。
とはいえ、最薄部なんて外側に徐々に薄い形状にしておけばいくらでも薄くできるため
見た目のデザインを除けば最薄部○○mmというのは何の意味も持たないにょ。
鞄に入れて実際に持ち運ぶならば平均、もしくは最厚部の方が重要だからね。
しかし、最厚部でも17mmならば十分薄いにょ。
そしてやはり有用なのはこの重量にょ。
11.6インチで1.06kgというのは軽量化を重視した国内のモバイルノートに匹敵する軽さ
だからね。
もっとも軽量化には液晶サイズが重要となっている(液晶サイズが小さくなれば筐体
サイズの小型化ができるためそれが軽量化に繋がる)ため11.6インチ同士で比較すると
11.6インチ液晶では軽量モバイルノートは存在せず安価なCULVノートしかないにょ。
11.6インチ液晶を搭載した一般的なCULVノートが1.3〜1.5kgということを考えるとこの
軽さがよく分かるにょ
(2)標準構成の88800円という価格も魅力にょ。
CULVノートと比較すると最新のArrandaleベースのCPUではなく1世代前のPenrynベースの
CPUとなっているわけだけど8月19日に書いたようにArrandaleベースのCPUは全体的に
動作クロックが下がっているため必ずしも性能アップにはなっているわけではないにょ。
確かにGPU性能の比較であれば旧世代のCULVノートのGS45に内蔵のGMA X4500は現行の
CULVノートに内蔵のIntel HD Graphicsと比べて劣るためCPUだけを見たら旧世代の方が
お得ともいえるけど総合面では微妙になるからね。
しかし、MacBook AirではGeFoece 320Mを搭載しているにょ。
いくら320Mが統合型チップセットとはいえ、Intel HD Graphicsと比べて別格の性能である
ためCPU(チップセット)が旧世代だから性能面で劣るということはなくむしろ最新のCULV
ノートよりも優れているにょ。
320Mは9400Mの3倍のSP数(48基)であり実性能においても約2倍の性能となっているわけ
だからね。
12インチ未満の液晶サイズのPCでこれを超える性能なのはAlienware M11x(GeForce GT335
搭載)しかないにょ。
M11xは同じ11.6インチとはいえ、重量は約2kgに達するにょ。(GPU性能は2倍以上だけど)
そしてM11xは安いといっても99800円するからね。
M11xはGPU性能が高くでもゲームにおいてはCPUがボトルネックになっていることが多く
それを考えるとこのMacBook Airの構成はバランスが取れているとも考えられるにょ。
さらにこの88800円は64GBのSSDを搭載時の価格であるということが大きいにょ。
一時期は年々半額以下となっていたフラッシュメモリの価格もここ1年余り停滞気味である
ため依然として64GBのSSDとなると部品コストだけでも1万円近くに達してしまうにょ。
これは500GBの2.5インチHDDよりも高価なものにょ。
在庫処分品で特別安く売られているPCを除けば「64GBのSSD搭載」の全PCの中で最も安価
ではないかと思われるにょ。
これは大量注文による部品コストのダウンと店頭値引きがほとんどない(仕入れ掛け率が
高い)ということが理由だと推測するにょ。
ちなみに128GBモデルも2万円アップの108800円で用意されているにょ。
部品コストの2倍の価格と考えればこの2万円アップは妥当なところかもしれないにょ。
MacBook Airは薄型、軽量で安価PCを探している人には最適であり、GPU性能を含めた性能を
考慮したら多少CULVノートより高価でも割安感があるにょ。
これは北米では999ドルとなっており、円高の影響で88800円となっていると思われるにょ。
1ドル100円弱で推移していたら99800円になったのではないかと思われるにょ。
ただし、MacBook Airが必ずしもオススメとはいえないにょ。
従来のMacBook Airでも指摘していたような下記の3つの問題点があるからね。
(a)フットプリントが大きい
(b)拡張性がない
(c)バッテリ交換できない
(a)フットプリントだけどやはり気になるのはその横幅にょ。
横幅は約30cm(29.95cm)に達しており、これはA4用紙の長辺(29.7cm)よりも大きいにょ。
11.6インチのCULVノートの場合は概ね横幅28〜29cm程度の機種が多いし、12.1インチ
液晶を搭載したLet'snote N9やFMV PH770が横幅28.2cmということを考えると明らかに
大きいといっても良いレベルだと思うにょ。
これは(1)で書いたように薄型化を実現するためデザイン上の問題でこうなっているにょ。
寸胴にすればさらにフットプリントの小型化はできるけど美しくないからね。
Let'snote J9は見た目は美しくないけどその代わり10.1インチ液晶搭載PCの中で最小の
フットプリントになっているにょ。
11.6インチ搭載のMacBook Airと比べると液晶サイズ(対角線)は1.5インチ差だけど
筐体の横幅は約5cmも小さいからね。
この5cmというのは13.3インチMacBook Airと11.6インチMacBook Airの差よりもさらに
約2倍も大きいにょ。
MacBook Airの11.6インチモデルのフットプリントが大きいのはデザイン上の理由だけでは
なくやはり操作性も考慮されているせいだと思われるにょ。
一般的な19mmキーピッチのキーボードを搭載すれば横幅は必然的に30cmくらいになる
からね。
指のサイズは日本人ではなく欧米人を基準にしているだろうからキーボードを縮小して
小型化という考えはないと思われるにょ。
それでなくても先日ジョブズ氏は「指を削らない限りは7インチのタブレットは使えない」
と言っているくらいだしね。
(b)初代MacBook AirはUSBポートが1つのみという構成だったことを考えると2つあるため
特に不自由さはないにょ。
実際このような小型ノートでUSBを使うとすればHDD、光学ドライブ、USBメモリを使う時
だけに限られてくるだろうから3つ以上同時に使う方が希だからね。
ただ、やはり不安なのはメモリにょ。
標準で2GBから重い作業をしなければ問題ないけれどWin7でも複数のアプリを立ち上げたら
2GBにはすぐ達してしまうわけだし、何より次世代の「Lion」がまともに動作するかどうか
ということが商品寿命に大きく影響してくるからね。(Mac OSはWindowsよりもサポート
期間が短いためこまめにアップデートしておかなくてはならない)
「そんな装備(メモリ2GB)で大丈夫か?」と聞かれて「大丈夫だ、問題ない」と即答
できる人でなければ直販で4GBモデルを買う方が無難だと思われるにょ。
SSDは(新品SSDを買って殻割りすれば)ユーザーの手によって交換は可能だけどメモリは
基盤直付けであるため事実上交換はできないからね。(とはいえ、SSDもピンが特殊形状で
あるため市販品の入手は難しそうだけど)
メモリがユーザーの手によって交換できないとなるとWin7のDSP版を使うのが困難になって
しまうにょ。
XPならば7に乗り換えたためライセンスを余らせている人も多いだろうけどWin7でそれは
考えにくいためWin7を使いたいためにわざわざ購入する場合はライセンスの都合上安価な
DSP版を使えずパッケージ版が必需品となるにょ。
DSP版を使用するための最も手軽な方法はメインメモリの増設のついでに購入すること
だからね。
これによってメモリが増え、新しいOSも快適に動作するという一石二鳥にょ。
しかし、メモリスロットのないMacBook Airではこの方法を採れないにょ。
SSDを交換するしかないけどSSDは高価であり「安価だからDSP版を買う」というメリットが
無くなり使用しなくなったときに使い回しが効くパッケージ版の方が有利といえるにょ。
したがって、冒頭に書いたように「Intel MacではWindowsも使える」というメリットを
活かすためには3〜4万円の追加投資が必要になるにょ。
資金に余裕があれば「一番いいのを頼む(メモリ4GB、SSD128GB、Core2Duo 1.6GHz)」と
いう方法があるけどさすがにそれだと安価とは言えなくなってしまうのが難点にょ。
SSDだからこそメモリは十分搭載しておきたいからね。(SSDの寿命は書き換えデータ量で
決まってしまうけどスワップが頻発すると書き換え量が極めて大きくなるため)
(c)MacBook Airのバッテリ駆動時間は5時間だけどこれは国内で販売されているPCで
計測用に使われているJEITA測定法によるものではなく無線LANをONの状態で測定された
実測値となっているにょ。
JEITA測定法の場合は測定方法は定められているもののその内容は現実的なものではなく
しかも思い切りカスタマイズした状態で測定してもお咎め無し(BIOSでクロックを落とした
状態で測定しても不可にはならない)というものであるためメーカーによっては軽い
Web閲覧をするだけで公称駆動時間の半分以下になるものさえあるにょ。
MacBook Airは公称5時間ということは極めて軽いWeb閲覧程度であれば5時間動作すると
推測されるにょ。
この駆動時間が実現されているのは軽量な本体の割りには35Whの大容量リチウムポリマー
バッテリが搭載してあるからにょ。
これは2400mAhの丸形セルのバッテリだと4セル相当になるにょ。
Let'snote J9(ハイパフォーマンスモデル)が公称12時間駆動なのは3100mAhの高容量
セルに加えて6セルバッテリ搭載というのが大きいにょ。
バッテリ駆動時間に関してはどのように省電力管理が進んでも同じようなパーツ構成の
場合であればある程度で限界がくるためバッテリの容量で駆動時間が決まってしまうにょ。
J9は68.82WhというMacBook Airの2倍近い容量であるため長時間駆動が可能になっている
というだけの話にょ。(J9もMacBook Airも省電力管理はかなり優れていると推測される)
もっとも省電力管理が駄目だとバッテリ容量が多くても長時間駆動するとは限らない
けどね。
さて、このMacBook Airの駆動時間で十分と感じる人であれば問題はないけどやはり問題と
なるのはバッテリは消耗品であるということにょ。
ただ、消耗品といってもHDDなどのように「使える」「使えない」の2択ではなく使っている
うちに「徐々に駆動時間が短くなる」というだけだから「使おうと思えば使えるけど
少々不便」となるだけのことにょ。
一般的な使い方をすれば2、3年で駆動時間は半減すると思われるにょ。
したがって、「公称5時間で問題ない」というのではなく「2、3年使えればいい」もしくは
「公称5時間の半分使えればいい」という感じになるにょ。(自宅での使用がメインであり
「1時間程度使えれば十分」という人にとってはほとんど関係ない話だけど)
バッテリ駆動時間に不満が出てきてもメーカー修理扱いで新品バッテリに交換可能だけど
有償であるのはやむを得ないけど「壊れてないPCなのに修理に出している間は使用する
ことができない」という問題があるにょ。
たまに使っているだけだから数日間修理に出しても影響ないという人でない限りは
バッテリ交換だけのために修理扱いというのは解せないと思うにょ。
「バッテリの寿命=本体の寿命」と割り切って2、3年置きに新機種を買うという人で
あればそれも関係ないだろうけど私の場合は現在使っているR5は買った時点で2年半前の
機種(中古)だったからね。
「2、3年程度前の機種だからスペックが低くて使えない」という人であればそもそも
このようなULV版CPU搭載のMacBook Airを買うべきではないにょ。
さて、このように見ていくとMacBook Airの11.6インチ版は魅力的な機種ではあるものの
私のニーズを満たす機種ではないにょ。
私はフットプリント至上主義であるため薄型でフットプリントの大きな機種は使い勝手が
良くないからね。(薄くてもフットプリントが大きければ大きなバッグが必要になるし
使用するためには広いスペースが必要になるのに対して鞄に入れている時はR5程度の厚さ
であれば厚すぎて不便と感じることはあまりない)
とはいえ、Macを1台買う必要性に迫られた場合には購入の最有力候補になりそうなもの
ではあるにょ。
7インチiPadは登場しない・・・?
新型MacBook Airも発表&発売され非常に盛り上がっているのだけど次の注目は新型iPad
だと思うにょ。
iPadでコンシューマ向けタブレット端末として成功を収めたのだけど「重い」という
ユーザーの不満は少なくないからね。
したがって、7インチ程度に小型化し、アンダー500gの新型iPadを出すという噂が以前から
出ているにょ。
ところが、先日ジョブズ氏はすでに多くの機種が発表されている7インチのAndroid OS搭載
タブレット端末に対して「製造元は、自分たちのタブレットは小さすぎたというつらい
教訓を学ぶだろう」と述べたにょ。
また「7インチを売るなら紙ヤスリも同梱しないと無意味。ユーザーが指を1/4サイズに
削れるように」と述べたけど「1/4」という数字は一旦おいておく(実際には10インチと
7インチではサイズは長さで1.4倍、面積では2倍のため「1/4」という数字は恐らくピンと
こないと思う)として要するに欧米人の手に対して7インチでは小さすぎるというので
あれば多くの人に理解できるのではないかと思うにょ。
「7インチで小さすぎるならばスマートフォンはどうなるんだ?」という意見もあると
思うにょ。
これはスマートフォンが小さな画面に合わせたUIを採用しているため問題ないにょ。
3.5インチ液晶と7インチ液晶では単純計算で面積比は4倍になるにょ。
では、4倍の情報量かというとそういうものではないにょ。
10月3日には「10.1WXGA液晶は10.4XGA液晶より情報量が少ない」という人が一部にいると
いうことを書いたけどこれと同じようなことが起こるからにょ。
高ドットピッチの液晶の場合はそれが常用できる人でない限り解像度を落としたりDPI
設定を変えて使用する必要があり、それが結果として情報量低下を招いているということ
だけど大きなタブレット端末であってもスマートフォンと同じアイコンサイズであれば
スマートフォンと同じような操作性しか得られないということになるにょ。
したがって、「スマートフォンと明確な差別化を行うならば10インチ程度必要となる」と
ジョブズ氏が言いたかったのではないかと思われるにょ。
それでは7インチiPadは出ないのかというとそういう単純なものでもないにょ。
何せ過去においてジョブズ氏は自分の言ったこととは反対のことを何度もやってきたわけ
だからね。
http://japan.cnet.com/news/commentary/story/0,3800104752,20421690,00.htm
例を少し挙げるだけでもこの程度あるにょ。
◎iPodは動画に対応させない→ビデオiPod
◎携帯電話は作らない →iPhone
◎人は本を読まない →iBooks
このように「騙す」というか、いい意味で「裏切る」のがジョブズ氏のやり方といえる
ため7インチのタブレット端末を口撃することで逆に7インチタブレットを販売することが
濃厚になったとも私は考えているにょ。
しかし、その唯一の問題となるのは互換性にょ。
それについて書く前にもう1つのAndroid OS搭載端末の問題点指摘としてジョブズ氏が
挙げていることがあるにょ。
それはAndroid OSとiOS(iPhone)は「オープンVSクローズド」と言われることが多いけど
そうではなく「分断VS統合」であるということにょ。
これは視点の違いから出ることであり両方の意見は間違ってないにょ。
私自身も9月20日に「Phoneは閉鎖的(クローズド)だからゲームベンダーが参入しやすい」
と書いたし、8月9日に「垂直統合によって成功している」と書いているにょ。
私自身が8月9日と9月20日で意見が根本的に変わったということはなくそれは今でも
両方とも同じであると感じているにょ。
「同じものを見ても視点によって形が変わる」なんてことはいくらでもあるんだけどね。
ごく簡単な例を挙げるならば円柱は「上から見たら円」だけど「横から見たら四角形」で
あるため「どちらか片方だけの意見が正解であるというわけではない」ということはよく
分かると思うにょ。
確かにアプリを作る側としてはAndroid OS搭載機の「分断」は少々厄介な問題にょ。
9月20日にも書いたけど機種毎に異なるシステム構成やOSのバージョンの微妙な違いを
どうするのかというのは悩みの種だからね。
ジョブズ氏はAndroid OS搭載機は244種類の端末と100のOSのバージョンがあると指摘して
いるにょ。
http://japanese.engadget.com/2010/10/20/android/
確かにアップル社しか作ってないiPhoneとは異なり多種多様の端末が存在するAndroid OS
搭載機は端末数が多いというのは事実だけど100のOSというのは一体何なのかというと
1.6、2.1、2.2というバージョンの違いだけではなく機種毎に細かいカスタマイズがして
いるということを理由に挙げているにょ。
果たしてそれは正しいことなのか・・・?
では、とりあえず「ゲーム」という観点から、Windows PCとコンシューマゲーム機で
考えてみるにょ。
コンシューマゲーム機は誰の目からみてもクローズドな環境であり、Windows PCはOS自体は
オープンとは言い難いけど本体を自作できる(パーツを自由に組み合わせて作ることが
できる)うえにMSの許可無しでも自由に自作アプリを発表できるということでオープンな
例として考えるにょ。
その場合にコンシューマゲーム機は(例えばDSにおいて)1種類しか存在せず、Windows PCは
無限種類(実際は有限だけど非常に多いし、パーツの組み合わせが何種類あるのか全く
把握できてないため無限としておく)となるのかというとそうではないからね。
確かに特定デバイスの特定ドライバで動作しないということがあるためCPU、GPUが動作
スペックを満たしていてもすべての環境で正常動作ができる保証はないのだけどそれは
詭弁の中にある「ごくまれな反例」にすぎないにょ。
確かに固定プラットフォームである方が開発する側としては有利なのは間違いないにょ。
コンシューマゲーム機は固定であるが故にその性能を100%発揮することで低いスペックで
実用レベルになっているからね。
これが汎用性が高いWindows PCではコンシューマゲーム機と同じスペックでは同じレベルの
グラフィック表現や動作速度が実現できないし、何より特定デバイスに依存するゲームは
そのシェアを考えると作ることができないにょ。
タブレット操作に特化したアプリはそのシェアからいって特定の業務用にわざわざ作った
場合を除きほとんどないのはそれが理由にょ。
それゆえ、Slate PCは10月16日に書いたように苦戦を強いられるにょ。
固定プラットフォームであれば特殊デバイスを搭載していてもそれをすべての端末に
おいてそれを搭載しているため「そのデバイスがあることを前提としたアプリ」という
ものも気軽に作ることができるにょ。
私は長年ポケコンでアプリ制作をしてきているけどポケコンというのは固定プラット
フォームに近いにょ。
では、本当に固定かというとそうではないにょ。
PC-G800系の場合は解像度の違い、グラフィック表示のサポートの有無、そしてCPU速度の
違い挙がげられるにょ。
そういった違いがないPC-E500系(どの機種も240x32のフルドット表示であり、どの機種も
2.304MHzのSC62015というCPUを搭載している)であってにROMバージョンの違いがあるにょ。
G800系の違いはAndroid OS搭載機でいう細かい搭載デバイスの違いと等しく、E500系の
違いはAndroid OS搭載機でいうカスタマイズされたOSの違いと等しいにょ。
Android OS搭載機において機種毎にカスタマイズされた100のOSを考慮してアプリを作る
というのはPC-E500系において7つのROMバージョンを考慮してアプリを作るというのと
同義になってしまうにょ。(実際にここまで意識しなくてもごく一部の例外を除いて
問題になることはほとんどない)
実はコンシューマゲーム機も1機種で1種類というわけではないにょ。
DSの場合は初代DSとDS Liteではシステムのバージョンの違いがあるし、DS、DS Liteと
DSiでは搭載メモリが従来の4MBから16MBに増加し、カメラを搭載というハードウェアの
違いもあるにょ。
これはDSに限ったことではなくどのコンシューマゲーム機においてもいえるにょ。
iOS搭載機はどうなのかというと1.0、2.0、3.0、4.0だけではなくさらに4.1などの細かい
バージョン違いが存在するにょ。
ジョブズ氏は現行と1つ前しか認めてないため2種類といっているけどね。
そして厄介なのはハードウェアの違いにょ。
固定プラットフォームであるというアドバンテージがあるiOS機だけどそれでも年間1機種
ずつ登場している(フラッシュメモリの搭載量の違いはアプリの動作には影響しないため
1機種としてカウントする)わけだし、さらにiPod touchとiPhoneの違いも無視できない
といえるにょ。
iPhoneにしか搭載していないデバイスがあるためtouchでは動作しないアプリも多いにょ。
それに加えて液晶の解像度、アスペクト比ともに異なるiPadが登場したからね。
Android OS搭載機で244端末100バージョンのOSというのならばiOS端末は「2つ」ではなく
「8つ」というのが正しいにょ。
OSのバージョンを入れると「8つ」がさらに数倍に膨れあがるにょ。
重要なのはOSのバージョンではなくメインストリームがどれだけあるのかということにょ。
今更初代iPhoneに特化したアプリを作っている人は極めて限定されるけどこれは初代
iPhoneを使っている人が少ないせいもあるにょ。
(細かく考えた場合)100バージョンのOSがあるとジョブズ氏が言っているAndroid OS
だけど実際の端末のシェアを見るとトップの2.2だけで半数となり2.1からアップデート
したものが約3割(ここまでですでに8割)、そして上位5つで合計約99%となるにょ。
だからそれさえ考慮しておけば100バージョン以上をすべて考慮する必要なんてないにょ。
それでも残りの1%を切り捨てると考える人もいるだろうけどそれだとPC-E500用のアプリを
作る際に7つのROMバージョンすべてを考慮したものでないと切り捨てたことになって
しまいかねないにょ。
同じPC-E500系でもエンジニアリングソフトウェアで使用しているEVALがPC-1480Uで使用
できないとかU6000/E650で搭載された構造化命令はそれ以前の機種では使えないという
違いはあるものの特定命令を使わなければほとんどソフトウェア的には互換性が維持
されているにょ。
それと同じくカスタマイズされたAndroid OSであってもその機種の独自カスタマイズ
されたものを使わない限りは大きくわけた1.6、2.1、2.2のどれかに分類できるため
「ごくまれな反例」を除けばOSのバージョンの種類なんてたかが知れてるにょ。(むしろ
独自デバイスの方が厄介なくらい)
さて、ここで7インチiPadが登場する場合にどうなのかを再び考えてみるにょ。
まずインチ数とアスペクト比から単純計算して液晶サイズとドットピッチを算出したにょ。
インチ数 解像度 アスペクト比 長辺×短辺 ドットピッチ
iPad?? 9.7インチ XGA 4:3 19.7×14.8cm 132ppi
iPhone 3.5インチ 960x640 3:2 7.4× 4.9cm 326ppi(※メーカー公称値)
iPhone4で従来より大幅に解像度が高まりこれによってiPadのXGA(1024x768)という
解像度のアドバンテージが薄くなってけどそれでもサイズを見る限りは十分な差別化が
可能であると判断可能だと思うにょ。
今度は、7インチ端末で計算してみたにょ。
インチ数 解像度 アスペクト比 長辺×短辺 ドットピッチ
Android端末 7インチ WSVGA 16:9.4 15.3× 9.0cm 170ppi
iPad mini?? 7インチ XGA 4:3 14.4×10.7cm 183ppi
ここでは7インチiPadを「iPad mini」という名称に置き換えて考えてみるにょ。
iPad miniはiPadよりインチ数が小さいだけあって小型化されているにょ。
しかし、同じ7インチでもAndroid OS搭載機の方が横幅が長いことが気づくと思うにょ。
これはワイド液晶とスクエア液晶の違いがあるからにょ。
ワイド液晶はアスペクト比の関係上同じインチ数であっても短辺がより短くなり長辺が
より長くなるにょ。
したがって、同じインチ数であってもソフトウェアキーボードを使用する場合には
キーピッチが広くなるため有利になるにょ。
たかが9mm・・・されど9mmだからね。
では、iPad miniのインチ数を7インチではなく8インチにすれば7インチワイド液晶の端末の
長辺よりも長くなると考えることができるけど今度はiPadとの差別化が難しくなって
しまうにょ。
iPadが9.7インチXGA、iPhoneが3.5インチ960x640の液晶になった時点でiPad miniの入る
場所が無くなってしまったということにょ。
では、iPadのワイド化を考えてみるにょ。
iPad、iPad miniそろってワイド化すればそのインチ数の差である1.4倍は維持されるため
何とか棲み分けができそうな気がするにょ。
つまり、新型iPadは10.1インチWXGAになるということにょ。
しかし、「iPad」を名乗るためにはXGAは必須であるため7インチワイド液晶のiPad miniを
作るためにはWXGA液晶を搭載する必要があるにょ。
そうなると224ppiに達するにょ。
それは現行iPadの2倍近いドットピッチになるにょ。
iPhone4は3、3GSと比べてドットピッチが一気に2倍に高まったにょ。
高解像度でアイコンサイズが小さくなれば使い勝手が悪くなるためアイコンの縦横の
ドット数を2倍にしてアイコンサイズは維持しており、解像度が高くなったからといって
操作性が悪くなったということはないにょ。
ゲームにおいてもiPhone4専用の高解像度ゲームはアイコンが小さくなるということはなく
解像度が高くなった分だけアイコンサイズを大きくしているにょ。
では、従来の3GS用のゲームをiPhone4でプレイする場合は拡大表示によって高解像度と
相殺されアイコンサイズは維持されているにょ。
それでは拡大表示が行われず実寸サイズで表示を行う(つまり、960x640の中の4分の1の
領域を使って480x320の表示を行う)ということしかできない場合はどうなのか・・・?
ソフトウェアの互換性があってもまともに使えるという認識はできないにょ。
上記のように7インチのiPad miniを作るということは7インチWXGAの液晶を搭載するという
ことであり、それは現行iPadの2倍近いドットピッチであるためiPhone4で3GSのアプリを
原寸大で表示するようなものということがいえるにょ。
さて、ここまで来たらジョブズ氏が言った「紙ヤスリで指を1/4に削らなくてはならない」
という「1/4」の根拠が見えてくるにょ。
10インチと7インチでは面積では半分でしかないけどスクエア→ワイド化で同一インチ数
では面積が1割減になるのに加えてWXGAが必須になるためドットサイズが3割減となり、
結果的には1ドットのサイズが約1/4になってしまうからにょ。
そうならないためにはiPad用ではなく「iPad mini専用」といえるアプリを作る必要が
出てくるにょ。
iPhone4もその解像度を考慮した専用アプリによって高解像度でも快適に操作できている
わけだからね。
ただし、iPhone4が3GSと代わる存在なのに対してiPad miniがメインストリームとなると
限らないという点が異なるにょ。
今後はiOS用のアプリはiPhone(iPod touch)とiPadの2ラインになると思われるけど
それに加えてiPadが通常版とminiがあれば事実上3ライン(現行iPadを入れると4ライン)
となってしまうにょ。
多種多様の端末があるAndroid OS搭載機に対して統合によって自社製の2種類のみの端末
というのが強みと考えているジョブズ氏にとってこれは大きな問題点にょ。
そうなるとジョブズ氏がとるべき選択肢は2つにょ。
(1)iPadを約10インチのまま500g以下に軽量化する
(2)現行iPadを亡き者にしてUIを7インチ用に最適化する
(1)は物理的に現在では不可能に近いし、(2)は簡単にできるけどユーザーの反応が厄介にょ。
何せ1世代で切り捨てだからね。
私は(2)が濃厚(つまり、10インチと7インチの2種類をラインナップはしない)と感じて
いるにょ。
時間が経った後に「7インチを出す」となると切り捨てられるユーザーも多くなるため
さらに被害が拡大してしまうにょ。
したがって、「切り捨てることが分かっている」というのが前提ならば1世代で切り捨てる
ことがベストとなるにょ。
7インチを出すなら今しかないし、この機会を逃すとさらに出すのが難しくなるにょ。
目の付け所がシャープではなかった・・・
シャープがついにPCから撤退したにょ。
http://pc.watch.impress.co.jp/docs/news/20101022_401808.html
最後の製品となったのは昨年10月に発売されたネットブックPC-NJ70B/80Bだったにょ。
この製品のウリとなったのは光センサー液晶にょ。
シャープはネットブックへの参入はPCメーカーとしては最後発ということで期待は大きい
ものだったけど昨年6月に発売のNJ70BのXPモデルNJ70Aはかなり苦戦をしたにょ。
何せ発売当初の予価は8万円(Office付きのNJ80Aは10万円)だったからね。
2008年に登場したネットブックはピーク時にはノートPCの3割のシェアを占める大きな
普及を果たしたけど低価格化で薄利となり、メーカーは苦労していたにょ。
シャープは低価格競争には乗らず光センサー液晶を武器に新規参入したけど高価という
のが障害になり(売れないためかすぐに実勢価格は下がっていったけど)、その上バッテリ
駆動時間が短いなど高価なことだけが敗因ではなかったにょ。
10月には7Starterを搭載したマイナーチェンジモデルが発売されそれでシャープのPC
事業は終焉となったにょ。
今思えばシャープの全盛時は70年代末〜80年代半ばの8ビットパソコン全盛時だったと
思われるにょ。
30代以上の人であればMZシリーズやX1シリーズは所持していたもしくは使用した経験が
あるという人は非常に多いのではないかと思われるにょ。
MZで採用された「クリーンコンピュータ」は半導体が高価だった80年頃は非常に有用
だったしね。
高価なROMだとバグがあった時に修正するのに作り直しが必要だから莫大な費用が
かかるし、8ビットパソコンの64KBという限られたメモリ空間を有効活用する上でも
クリーンコンピュータは有用だったにょ。
しかし、半導体の価格低下やバンク切り替えで64KBがフルに使えるようになってからは
起動が遅いというデメリットだけが目立ちクリーンコンピュータというのはアドバンテージ
ではなくなったにょ。
それでも、高速、ハイスペック指向の人にX1やMZは受け入れられたにょ。(X1といえば
PCエンジンが合体した「X1twin」という変わり者があるけど光センサー液晶を搭載のNJ70B
にはDS機能を内蔵したら話題性だけはもっと出たと思う。シャープはスーパーファミコン
内蔵TVやツインファミコンで任天堂と共同開発した経験もあるし。)
MZ-2500はFM-77AVなどと並んで最強スペックの8ビットパソコンだったからね。
それと比べたら当時はシェアだけ大きかったPC-88シリーズはスペック面では見劣り
していたにょ。
とはいえ、今のWindows PCのように基本アーキテクチャは同じで細かい違いはOSやドライバ
によって吸収され異なるメーカー間でも同一アプリが動作するというものではなくメーカー
単位、機種単位で動作するアプリが異なっていたため「シェア」というのは非常に大きな
武器となっていたにょ。
いくらMZ-2500は最強でもアプリが少なかったからね。
ハイエンドだけではなくローエンドではMZ-1500にクイックディスクを採用したけどFDが
高価だった当時カセットテープよりも圧倒的に高速でFDよりも安価というのは大きな武器
だったにょ。
このクイックディスクはファミコンのディスクシステムにも採用されている(形状が若干
異なるので相互の互換性はない)ので馴染みのある人も多いのではないかと思うにょ。
このクイックディスクはポケコン用の「ポケットディスク」としても使われているにょ。
こちらはサイズが全く異なるけど原理はクイックディスクそのものにょ。
クイックディスクは安価だったけど両面で128KBしか記録できないとか、ランダムアクセスが
できずシーケンシャルアクセスしかできない(これによって動作が単純化されているため
ドライブが安価に製造できたわけだけど)とかいう問題があったからね。
そのような問題に加えてFDの低価格化が進みクイックディスクは短命となったにょ。
ファミコンのディスクシステムも両面で約1Mbitという大容量だったのがウリの1つだった
けど容量はすぐにROMカートリッジに抜かれてしまったからね。(書き換えの安さがあった
ため長らく書き換えサービスは続いていたけど)
80年代後半には8ビットパソコンは衰退し、時代は16ビットへと向かったにょ。
16ビットといえば国内ではPC-98シリーズのシェアが圧倒的だったにょ。(シャープも
エミュレーションによって一部のPC-98ソフトが使えるMZ-2861を作っていた)
しかし、海外ではIBMがPC-ATが仕様を公開しAT互換機が圧倒していたにょ。
個人・法人ともに人気が高かったPC-98のNEC、FM-Rの富士通(個人向けにはFM TOWNSが
発売された)、そして独自日本語化でAT互換機を作った東芝を除いた国内電器メーカー
数社が共同してAXパソコンを作ったにょ。
もちろんその中にはシャープは含まれていたにょ。
AXパソコンはデフォで日本語表示ができないAT互換機に漢字ROMを搭載することで高速な
日本語表示を可能にしたにょ。
しかし、PCの高速化によって漢字ROM無しでも日本語表示が可能なDOS/V登場によって
AXパソコンはそのアドバンテージを失ってしまったにょ。
Win3.1登場によって国内のPCもWindowsが主流になったにょ。
Win95以降一気にWindows PCは普及して最大シェアを誇っていたPC-98でさえもAT互換機へと
歩み寄り98NXでほぼ「AT互換機」といっていい仕様になり現在に至っているにょ。
シャープは法人向けではなく個人向けではX68000シリーズが一部のマニア層を中心として
絶大な支持があった(主にビジネス用途を考慮されているためグラフィック、サウンドが
貧弱なPC-98と比べて「最強の16ビットパソコン」と言っても良かった)けどこれも
Windowsの普及によって完全に駆逐されたにょ。(パワーユーザーの手による拡張カードが
登場するなど近年まで根強い人気があった)
Windowsが普及してからは一気に低価格化が進んだにょ。
「液晶のシャープ」というのを武器にノートPCでは一時期はそれなりのシェアを誇って
いたけどPCの価格下落によって高価な高性能液晶をPCに搭載することはできないので
シャープのPCだから液晶品質に優れるということは無かったにょ。
シャープが注力したのは非Intel製のCPUにょ。
やはり、コスト面を考えるとAMDなどの互換CPUを搭載した方が有利だからね。
モバイルにおいてはCrusoeが登場し、Intelの牙城を崩しつつあったけどその後継である
Efficeonは思うように供給されずシャープのMURAMASAシリーズで搭載された程度で終焉して
しまったにょ。
Crusoe対抗で出したULV PenIIIに続いて登場したULV PenMによってEfficeonは完全に
とどめを刺されたからね。
低価格化のために非Intel製CPUを積極採用していったシャープだけどCPU供給問題が起きて
しまったにょ。(IntelのCPUを一定割合以上使用するように指示する内容だけどこれは
後にIntelの独占禁止法違反であると明らかになった)
シャープのPCシェアは落ちる一方で大ヒットのネットブックでシェア回復を狙ったけど
これも冒頭に書いたように失敗に終わったからね。
「価格競争ができない」「付加価値を付けて高価格でも売れない」というのであれば
撤退するしかないにょ。
シェアを見るとシャープは現在は0.3%で16位のメーカーだし、生産を打ち切る前の2008年の
時点でさえ1.6%で11位のメーカーだからね。
http://www.asahi.com/digital/bcnnews/BCN201010220012.html
Panasonicもシェアは大したことがないけどモバイルに特化することで生き残りをかけて
いる(モバイルノートでは国内シェアNo.1)わけだし、それには法人向けでは高い支持を
得ているというのが大きいにょ。(モバイルに特化し、法人向け需要がある限りは
Panasonicは当分安泰といえる・・・とはいえ、J9の登場を見ると法人需要だけでPC部門を
維持するのは難しくなってきていると言えるかもしれない)
シャープにはその「強み」が無かったのが原因にょ。
圧倒的なブランド力や薄利多売に耐えられる資本力や販売ルートがない上に一芸に秀でて
いる(数%の人からは絶大な支持がある)というわけでも無ければ生き残りができなくて
当然にょ。
MacBook AirはMac版ネットブックなのか・・・?
先日発表&発売されたMacBook Airだけどすでに購入しているという人も多いのではないか
と思うにょ。
http://www.gizmodo.jp/2010/10/11macbook_airno.html
公称5時間というバッテリ駆動時間に不安を抱く人も中にはいるかもしれないけど無線LAN
ON、バックライト最大で動画再生を行い3時間33分持てば立派にょ。
これは10月21日にも書いたように丸形セルで4セル相当の容量になる35Whのバッテリを搭載
しているためにょ。
国内メーカー製PCで動画再生を行った場合大抵の場合は公称値の半分も駆動しないにょ。
したがって、もしも国内で標準となっているJEITA測定法でMacbook Airを測定したら最低
7時間以上になると思われるにょ。
4セルバッテリ搭載のモバイルノートであれば7〜9時間駆動だからMacbook Airもそれと
同レベルであると推測されるにょ。
では、今回は以下の2点について考えてみるにょ。
(1)MacBook Airの立ち位置
(2)MacBook Airの後継
(1)このMacBook Airを見てMac版ネットブックと考える人があるかもしれないにょ。
「ジョブズはiPadを出した時にネットブックを批判していたくせにそれと同じようなものを
出すとは嘘つきだ」と言っている人もいるくらいにょ。
しかし、それは正しくないにょ。
http://av.watch.impress.co.jp/docs/series/rt/20100128_345358.html
見てのようにジョブズ氏がネットブックを批判していたのは「安いPCでしかない」という
ことにょ。
最新のOSを動作させるのに十分な性能がなく二世代前のOS(XP)を使っているわけだし
HD動画も満足に再生できない(スペック不足&液晶の性能不足)わけだからね。
ネットブックに搭載されているのがPC用のWindowsであるため普通のPCと同じものを
ユーザーが求めてしまう(アプリも普通のPC用と同じである)ということでスペック不足が
否めないにょ。
CPU性能だけを見ればULV PenMと同レベルであるため6〜7年前のモバイルノートPC、8〜9年
前の据え置き型ノートPCと同レベルでしかなく速度面に不満があって当然にょ。
体感に影響するHDDが現行品であるということと新品であるため保証の面で有利という
アドバンテージを考えなければ1万円程度で購入可能なSonoma世代のモバイルノートの
中古の方が価格面でも性能面でも有利になるにょ。(実際私はネットブックが発売されて
からPenMノートを買ったし)
ULV版Core2Duoを搭載のMacBook Airで最新のMacOSが快適に動作するかは私には分からない
けどWin7 64bit版と同程度であればCPU、GPU性能は問題なくメモリだけはデフォの2GBでは
やや心許ないというレベルだと思われるにょ。
MacBook Airの11.6インチモデルに搭載のCore2Duo SU9400がAtomと比べてどの程度の
差があるかということを見てみるにょ。
Atomに関しては9月14日に書いたLaVie Light BL550/C(Atom N550、1.50GHz)、 Eee PC
T101MT(Atom N450 、1.66GHz)、Core2Duo SU9400は機種は異なるけど下記リンク先の
レビューのEndeavor NA501Eから転載するにょ。
http://pc.watch.impress.co.jp/docs/column/hothot/20100128_345149.html
LaVie Light BL550/C Eee PC T101MT Endeavor NA501E
Atom N550 (1.5GHz) Atom N450 (1.66GHz) Core2Duo SU9400(1.4GHz)
◎PCMark05
PCMark Score 1767 1617 3404
CPU Score 1665 1420 3632
Memory Score 2174 2419 3657
Graphics Score 542 528 1495
HDD Score 3630 4933 5712
◎FINAL FANTASY XI Bench 3
LOW 1074 1250 2615
これを見てみるとAtomとの性能差は一目瞭然にょ。
PCMark05のCPUスコア(マルチスレッド処理を含んだ実アプリ性能)を見るとCPUシングル
コアであるN450と比べて2.6倍、デュアルコアであるN550と比べても2.2倍のスコア
だからね。(ちなみにCore Solo 1.2GHzで1900程度のスコアになるためシングルコアAtom
より3割程度高い性能となる)
シングルスレッド性能の指標になるFFベンチ(LOW)のスコアを見るとシングルコアの
N450と比べて2.1倍、デュアルコアだけどクロックが低いN550と比べると2.4倍となって
いるにょ。
一般的に3割程度の性能差があれば体感可能であるため2倍を超える性能差があるAtomと
ULV版Core2Duoは体感速度で別格といえるにょ。
もっとも元が快適な状態からであれば3割程度の性能差は体感できない(ゲームでいえば
60fpsと78fpsは体感できない)ということでAtomで十分に快適動作が可能なことしかしない
というのであれば体感差は得られないけど旧世代のOSであるXPであってもAtomより上だと
体感できないかというとそうではないからね。
SU9400のさらに2倍以上のスコアとなると通常電圧版のCore i7が必要になるにょ。
9月29日に書いたJ9の直販モデルで選択できるCore i7-640M(2.8GHz)のCPUスコアは8622
でありSU9400の2.4倍のスコアとなっているにょ。
したがって、「MacBook Airはネットブックと変わらない(=AtomとSU9400が大した差では
ない)」というのであればノートPC用としては最高レベルの性能である「Core i7でも
SU9400と大した差ではない」ということが言えることになるため正しくないということが
分かると思うにょ。
ちなみにCULVノートで用いられているSU2300(1.2GHz)は3000程度のスコアだからそれ
よりも2割程度性能が高いといえるにょ。
実はネットブックと性能面で大きな差があるのはCPUはなくむしろGPUの方にょ。
初期の頃のネットブックはチップセットである945GSEに内蔵のGMA950であり、現行の
ネットブックはCPUに内蔵のGMA3150がGPUになるわけだけどこれらは極めて性能が低い
からね。
それに引き替えMacBook Airに搭載されているのはGeForce 320Mにょ。
これは統合型チップセットということでチップセットに内蔵されたGPUだけどIntelの
ものとは比べ物にならないくらい高性能にょ。
GMAとGeForceの違いが最もよく分かるのはN10Jcにょ。
これは旧世代のAtom N270+945GSEと言う構成のネットブックだけど別途PCI-E(1x)で
接続されたGeForce 9300MGSを搭載しているからね。
この9300M GSはSP数が8という当時としても最下位に位置するGPUだけど3DMark06のスコア
(1024x600)は1574でありこれは945GSEに内蔵のGMA950のスコア89と比べると18倍の
スコアになるにょ。
http://journal.mycom.co.jp/articles/2009/02/17/n10jc/002.html
9300M GSは単体GPUとしては最低ランクであるためこれが別格の性能というわけではなく
単に945GSEの性能が低い(Napa世代の標準的なノートPCが同じGMA950を搭載しているけど
400MHzで動作しているのに対して945GSEでは133MHzであるというのが大きい)という
だけにすぎないにょ。
現行Atom(PineView)に内蔵のGMA3150は名称はGMA950と大きく異なるけど中身は単に
GMA950を1.5倍速の200MHzで動作させているだけである模様にょ。
だからGPU性能も1.5倍にょ。
http://pc.watch.impress.co.jp/docs/topic/feature/20100106_340674.html
上記レビューでは3DMark06のスコアは154となっておりこれはN10JcのGMA950と比べると
1.7倍のスコアだけど解像度が800x600でありN10Jcの1024x600よりも低いのが原因だと
思われるにょ。
では、MacBook Airに搭載のGeForce 320Mがどの程度の性能か・・・となると国内メーカー
で採用された機種がないため海外のベンチサイトを見てみるとGeForce 320Mを搭載機種の
3DMark06のスコア(XGA)の平均値は4508となっているにょ。
http://www.notebookcheck.net/NVIDIA-GeForce-320M.28701.0.html
ネットブックの1.6倍の解像度で測定しても30倍近い性能でありこれを「同レベル」と
見なす人はまず居ないと思うにょ。
その桁違いの性能差に加えてHD動画の再生支援機能の有無の差もあるからね。
特にCPUパワー不足のネットブックにおいてはこれは非常に辛いにょ。
工夫をすれば720pの動画は再生できるもののYouTubeの動画だと一旦ローカルに保存する
必要がある(FlashプレイヤーはCPU負荷が大きすぎてまともに見れない)わけだし
その動画を軽いプレイヤーソフトと軽いコーデックを入れてようやく見れるようになる
わけであり、ある程度の知識がないと「ネットブックは使い物にならない」という認識が
生まれてくるにょ。
CPU性能がネットブックより低いiPad(Core2Duo 1.4GHzの5分の1以下の性能)であっても
YouTubeであればYouTube再生アプリを用いればGPUに内蔵された再生支援機能によって何も
考えなくてもコマ落ち無く720pの動画が再生出来てしまうにょ。
とはいえ、これはネットブックが別格に性能が低いということ(単に安いPCである)と
いうだけにすぎないにょ。
ネットブックと通常のノートPCの間を埋めるものとして登場したCULVノートがあるからね。
スペックから考えるとMacBook AirのライバルはネットブックではなくCULVノートである
ということは一目瞭然にょ。
CPUもCULVノートと同じもの(とはいえ一世代前の上位モデル)が採用されているわけ
だからね。
スペック的に異なるのはやはりGPUにょ。
一世代前のCULVノートのチップセットであるGS45に内蔵のGMA X4500、現行(Arrandale
ベース)のCULVノートのCPUに内蔵のIntel HD GraphicsはともにHD動画の再生支援機能を
持っているにょ。(その再生支援性能には差はあるけど)
したがって、やはり差があるとすればGPUそのものの性能にょ。
ベンチマークなどの情報サイトである蹴茶によると3DMark06のスコア(XGA)のベンチ
平均はGS45で683、Intel HD Graphicsで1516となっているにょ。
http://kettya.com/notebook2/gpu_ranking_mark06.htm
そうなるとMacBook Airの(3DMark06における)GPU性能は一世代前のCULVノートと比べて
6.6倍、最新のCULVノートと比べて3倍の性能といえるにょ。
これでも非常に大きいけど実ゲームではこれ以上の差になるにょ。
というのもIntelの場合はCPUでエミュレーションしている部分があるためCPU性能が
あまり影響しないベンチでは高スコアが出るけどそうでない場合はCPUにパワーを奪われる
ためにスコアがダウンしてしまうにょ。
CPU性能のシングルスレッド性能の指標と考えているFFベンチのLOWでもAtom N270搭載の
N10Jcは1400程度のスコアだけど同じCPUでGeForce 9300M GSでは2000を超えるからね。
945GSEでもOCすればリニアにクロックに比例してスコアが伸びるためGPUがボトルネック
というわけではないのが分かるにょ。
まとめるとMacBook Airのライバルは性能的に考えてネットブックではなくCULVノート
だけどそのCULVノートよりもGPU性能が圧倒的に高いというアドバンテージがあるという
ことが言えるわけにょ。
さらに最厚部で17mmという薄さに加えて平均的なCULVノートより400〜500g程度軽量、
標準で64GBのSSDを搭載しているというアドバンテージがあるにょ。
その分、平均的なCULVノートよりは高価だけど性能差を考えればむしろ安いくらいにょ。
CPU性能だけを見るとライバルはCULVノートだけどサイズ、重量、性能、価格を考えると
ライバルは存在しないにょ。
サイズ的には同クラスでGPU性能が高いAlienware M11xはMacBook Airの約2倍の重量だしね。
(2)MacBook Airを見て旧世代であるCore2Duoを搭載ということをネックと考えている人も
少なくないにょ。
また、「安いのは旧世代の投げ売りCPUのお陰」と考えている人もいるにょ。
しかし、それは正しくはないにょ。
というのも、TDPの問題で現在のArrandaleベースのCPUは搭載が難しいからにょ。
確かにULV版のCore2DuoのTDPは10Wだから現行のArrandaleベースのULV版CPUの18Wよりも
低いけどArrandaleはGPUやメモコンなどノースブリッジの機能を内蔵しているためそれを
考えるとシステム全体のTDPでは両者に差はないにょ。
それでなぜ差が生まれるかというと合計TDPはIntelの統合型のGPU使用することを前提と
して考えているからにょ。
ArrandaleベースのGPUにGeForceを搭載するとなるとCPUにノースブリッジ機能が内蔵
されているため統合型チップセットのGPUではなく単体GPUを搭載する必要性があるにょ。
そのため単純に単体GPUのTDPの分だけ増えてしまうにょ。
またその分だけ単純にコストアップに繋がるにょ。
あの価格や薄さが実現できたのは単体GPU搭載ではなく統合型チップセットのお陰だけど
それはArrandaleベースのCPUでは極めて難しくなってしまうにょ。
では、次世代のSandyBrigeではどうなのか・・・?
確かに省電力にはなるけどこれは全体的な消費電力を抑えているのではなく電力管理の
進歩やアイドル時の消費電力低減によって実現されるためTDPは変わらないと思われるにょ。
したがって、現行のArrandaleベースのCPUに単体GPUを搭載するのと設計面やコストで
変化はないにょ。
しかし、SandyBrigeではGPUの大幅な高性能化が見込まれているにょ。
これならば単体GPUは不要になるかもしれないけどそれでもSandyBrigeに内蔵のGPUが
GeForce 320Mより性能で劣る可能性の方が高いにょ。
そうなると「多少性能が劣ってもそれが許せるかどうか」という問題になるにょ。
すでにMacBook Airは従来機よりもクロックが低い1.4GHzを搭載という低性能化を行って
いるからそれと同じことだという人もいるかもしれないにょ。
しかし、これは正しくないにょ。
11.6インチMacBook Airにおいては「従来機」なんていうものが存在してないからね。
MacBook Airの11.6インチモデルは新設されたものにょ。(12インチクラスのMacは久しく
登場した)
これは、(ネットブック登場によって)「Windows PCは大幅な低性能化を行った」と言う
ことと同じようなものであり、それが正しいかどうかを考えれば分かるのではないかと
思うにょ。
ネットブックは従来機種より低性能になったのではなくローエンドPCの更に下に新しく
できたジャンルだからね。
そのネットブック内であれば性能の上下を比較することに意味はあるにょ。
せめてサイズや価格のレンジが同じでないと比較する(従来機よりもアップしたとか
ダウンしたとかいう比較)ということには意味を持たないにょ。
つまり、Intel製CPUを使う限りは次世代のMacBook Airはサイズアップや価格アップは
避けることができないということになるにょ。
AMDはIntelのSandyBrigeよりも遙かに高性能なGPUを内蔵のLlanoを予定しているけど来年
半ば降の出荷予定でありすでに度重なる延期が行われてきたということを考えると供給面の
不安がありAMDに乗り換えるのは難しいにょ。
したがって、来年新モデルが登場するとしても「高価格化、かつ、サイズアップ」もしくは
「GPU性能ダウン」の二択が迫られるけど恐らく前者ではなく後者を選ぶのは確実だろう
から「性能が高くなるであろう次モデルを買う」と考えている人は注意した方が良いかも
しれないにょ。
MacBook Airは初代機は高価だし、拡張性はUSB1つだけという問題点があり「薄い」という
ことと「Macの割りには軽い」というメリットしかなかったにょ。
それがこの度の新型MacBook Airは11.6インチモデルの追加に加えて大幅な価格ダウンと
ギリギリ妥協できるレベルの拡張性が確保(USBポートが2つに増えた)されたという
ことでお買い得感は飛躍的に高まったにょ。
これと競合するのはCPU的にはCULVノートだけどGPU性能や薄さ、軽さでは圧倒的な
アドバンテージがあり、まさに孤高の存在と言っていいかもしれないにょ。
こうして見ると「Mac版ネットブック」と考えるのは明かな間違いであるということが
よく分かると思うにょ。
ネットブックは安さを追求し、価格を抑えるため凡庸な仕様となっているわけだしね。
そろそろ7に移行しなイカ?
10月22日はWindows7が発売されて1周年だったゲソ。
1周年イベントも行われたけど1年間で2億4000万本の売り上げということで侵略・・・
もとい普及も順調に進んでいるゲソ。
http://pc.watch.impress.co.jp/docs/news/event/20101025_402409.html
要するに「そろそろ7に移行しなイカ?」ということゲソ。
http://akiba-pc.watch.impress.co.jp/hotline/20101023/image/ssevb1.html
先日、3TBのHDDも外付けではなく単体での出荷が開始されたゲソ。
http://pc.watch.impress.co.jp/docs/news/20101020_401166.html
10月9日に書いたように3TBのHDDをまともに使うにはVistaか7が必須になるゲソ。
ブート用として使うならばVistaや7であっても64bit版が必須だしEFI搭載マザーのPCが
必要になるけどXPの場合はデータ用としても2TB超は使えないからね。
データ用であればVista、7であれば何の問題もなく3TBのHDDは使用できるゲソ。
セクタサイズが物理4KBとはいえ論理512BであるためXPでも使用は可能だけど3TBのHDDを
約2.2TB(←「1K=1024」で丁度2TB)として使う必要があるゲソ。
ブート用、データ用と2基のHDDを内蔵できるデスクトップPCであれば特に問題はないけど
1基しか内蔵できないノートPCの場合は「ブート用として使えない=使用ができない」
という問題があるゲソ。
現在の2.5インチHDDの最大容量は750GBゲソ。
年率30%で容量アップすると計算した場合には5年後に2TBを超えてしまうゲソ。
だからそれまでにノートPCにおいてEFIと64bitOSが普及する必要があるのではなイカ?
64bitOSは普及しそうだけどEFIの普及は厳しいゲソ。
これはXPの互換性を捨てる(論理512Bセクタをやめる)ことで2TB制限が16TB制限になる
ため期間を伸ばすことは可能ゲソ。
年率30%であれば2.5インチHDDが16TBを超えるのは13年後となるゲソ。
別の方法としてはSSDのコストさえ安くなればブート用に128〜256GBのSSDを内蔵して
2TB超のHDDはデータ用として活用するという方法もあるゲソ。
SSDならば体積が小さいためノートPCであってもHDDと共存可能になるゲソ。
とはいえ、やはりHDDの大容量化を考えるとXPから7への移行をするべき時期になっている
のではなイカ?
しかし、どうしても諸事情でXPを使わないといけないという人もいるかもしれないゲソ。
そういう人には7proに搭載の「XPモード」を使うという手もあるゲソ。
とはいえ、これはただの「Virtual PC」にすぎないゲソ。
そのためVirtual PC上で動作しないソフトや周辺機器は使うことがでいないゲソ。
XPモードの唯一のメリットは「XPのライセンスが不要」ということゲソ。
普通にVirtual PCを使用すればVirtual PC上で動作するOSも別途ライセンスを用意する
必要があるからね。(「XPモード」は7proのライセンスでXPも使用可能になっている)
どうしても、「XPがインストールされたPC」が必要になるという人でPCが故障やスペック
不足で買い換えを余儀なくされてしまったという場合は10月10日に書いたように最後の
切り札であった「XP Homeを搭載のネットブック」「ダウングレードによってXP proを
プリインストールしたPC」は7発売1周年の10月22日以降販売終了になったため新品では
XPプリインストールPCを入手することはできなくなったゲソ。
うまく売れ残った在庫品を手に入れるという方法もあるけど時間が経つにつれそれも
厳しくなるゲソ。(最終手段は中古で購入だけど保証やサポート問題があるため万人向け
というわけではない)
ライセンスが有効なXPを持っていれば新規にPCを購入して自らXPを導入するという方法も
あるけどプリインストールのOS以外はメーカーサポートがないため完全に自己責任となる
わけだし、そもそもライセンスが余ってないという人も多いのではなイカ?
パッケージ版WindowsであればどのPCにもインストール可能であるためPCが故障した際に
別のPCで使い回しができるけどDSP版の場合は同時購入したパーツを使用しない限りは
ライセンスの問題があるゲソ。
HDDを同時に購入した場合、別のPCに乗り換えたらそのHDDを取り出して新しいPCでもOSと
同時に買ったHDDを使用しなくてはならないゲソ。
これが自作PCであれば内部に余裕があるため旧HDDを内蔵できるけどけどノートPCでは2基の
HDDを内蔵できる機種なんてほぼないゲソ。
最終手段としてはUSB接続で旧HDDを使用すれば問題ないゲソ。(USB接続した機器を含めて
1つのPCと見なすならば問題ないけどそれでもUSBから取り外した時点でライセンス違反と
なってしまう)
やはり、そこまでしてXPを使うならば素直にダウングレードを利用した方がいいゲソ。
ダウングレードはプリインストールの状態で出荷はできなくなったけどサービス自体は
7proのサポートが終了する2020年まで有効ゲソ。
したがって、ライセンスの有効・無効関係なくXP proのインストールディスク(ただし
正規品に限る)さえ持っていれば7proを購入することでXPを導入することが可能になるゲソ。
ただし、そのダウングレードはMSに直接電話をかけて手動アクティべーションをする必要が
あるためややハードルが高いゲソ。
それならばダウングレード代行サービスを使用しなイカ?
http://akiba-pc.watch.impress.co.jp/hotline/20101023/etc_ms2.html
個人でやれば無料であるため自分でOSをインストールするのが当たり前の自作ユーザーが
このようなサービスを利用することはないけどメーカー品やショップブランドなどで
OSを導入済みの出来合品しか買ったことがないという人であれば上記のようにダウン
グレードはややハードルが高いため8000円払う価値があるという人であれば利用するのも
ありではなイカ?
とはいえ、XP proのインストールディスクがないと話にならないゲソ。
ダウングレードの場合は正規品ディスクとプロダクトシールがあれば良いのでライセンス
自体は他のPCで使用していても問題ないゲソ。
そのため「正規品ディスク(+プロダクトシール)」をヤフオクなどで落札するという
方法もあるゲソ。
とはいえ、新しいPCの場合はXPのドライバ自体がない場合があるためXPを導入しても
一部機能が使えなかったり、まったく使い物にならない場合もあるため汎用パーツが
使用できる自作PC(ショップブランドPC)でない限りは厳しくなってきているゲソ。
現在XPを使っている人の大半は「XPでないと困る」というのではなく「XPで特に困って
ないから」ではなイカ?
これから新規にPCを導入するならば「XPでないと困る」という人でなければやはり7を
導入するのが一番ゲソ。
VistaもSP1、SP2と改善して悪くは無くなったけどサポート期間を考えるならば新規PCに
Vista導入はありえないゲソ。(ライセンスがあまったVistaを所持していてそれを活用
するという場合を除く)
特にVista Homeは現時点ではサポート期間終了がXPよりも早いからね。(XPが2014年4月に
対してVista Homeは2012年4月)
これが7であればHomeでも2015年1月、proならば2020年1月まで確定しているゲソ。
PSP goの失敗はダウンロード販売のせいなのか・・・?
PSP goが16800円に値下げされたにょ。
http://game.watch.impress.co.jp/docs/news/20101025_402489.html
従来は26800円だったので一気に1万円値下げされたことになるにょ。
コンシューマゲーム機が量産効果で値下げされることは珍しくないけどPSP goは量産効果で
値下げされたというわけではないにょ。
というのも発売して1年経つけど累計販売台数は12万台程度だからね。
現行PSPは国内だけでも年間数100万台規模で売れているためこれは「極めて少ない」と
いえるにょ。
PSP goは初年度だけで100万台の販売予定だったため初回生産だけでも15万台あったにょ。
つまり、PSP goは未だに初回生産分が売れ残っているということになるにょ。
要するにこれは「量産効果で値下げ」ではなく「販売不振による値下げ」ということにょ。
では、なぜPSP goはそんなに売れなかったのか・・・?
PSP go販売によるそれぞれの立場からのメリット、デメリットを昨年6月5日に書いたにょ。
◎SCE
メリット・・・コピー対策、中古対策
デメリット・・サーバコスト
◎メーカー
メリット・・・コピー対策、中古対策、開発の敷居が下がる
デメリット・・販促問題、開発費回収問題
◎販売店
メリット・・・なし
デメリット・・中古というかソフト自体の取り扱いがなくなる
◎ユーザー
メリット・・・新作が安く買える、売り切れの心配がない
デメリット・・購入の敷居が高い、中古で売れない、貸し借りができない、所有感がない
従来のUMDメディアのソフトがプレイできない、将来的サポートの不安
本体が売れるかどうかというのはユーザー側の考えが重要になるのでその点をもう少し
考えてみることにするにょ。
◎PSP goが売れなかった理由
(1)本体が高価
(2)ソフトが高価
(3)プレイしたいソフトがない
(1)まずは価格の面を再検証してみるにょ。
PSP goが発表された時の通常のPSP(PSPー3000)の価格は19800円だったにょ。
その差は7000円にょ。
16GBのフラッシュメモリを内蔵ということでその価格を考えれば妥当という金額だった
けれどPSP goが発売開始される前にPSP-3000は16800円に値下げされたためその差は
1万円になったにょ。
16GBのメモステDuoは普通に買えば純正品は1万円程度だから1万円差はおかしくないという
考えもあるけど安い店だと純正でも32GBが1万円で買えてしまうし、16GBは非純正だと
5000円以下だからね。
「妥当」ではなく明らかに割高感があるにょ。
またPSP goでは採用されているのがM2(メモリースティックマイクロ)にょ。
発売当初は同一容量だとDuoと比べて2倍近い価格差があり割高感が否めなかったけど
今はDuoより少し高価というレベルになっているにょ。
それでも16GBで足りない使い方をすればメディア分の差額がどんどん上乗せになっていく
ためさらに割高感が加速していくにょ。
「16GB余るくらい」というならば通常のPSPに8GBのDuoを買う方が圧倒的に安いにょ。
したがって、どんな使い方をしようが本体価格が高価であるというのを覆すことはでき
ないといえるにょ。
(2)PSPではパッケージ版で発売されているゲームのダウンロード販売を行っているけど
価格を見ると概ねパッケージ版ソフトの定価の2割引程度となっているにょ。
税込定価5040円のゲームであれば3980円程度が基本となるにょ。
計算しやすいように定価5000円、販売価格4000円として考えるにょ。
一般的な店頭価格では10〜15%引きが普通だから定価5000円のゲームの場合は4250〜
4500円となるにょ。
こうしてみるとダウンロード販売の方が安いというイメージがあるかもしれないけど
再販制度のある書籍とは異なりゲームソフトは価格がどんどん変わっていくにょ。
つまり、発売当初のみダウンロード販売の方が安いけどそれもすぐに逆転してしまう
ことになるわけにょ。
それならばダウンロード販売も徐々に価格を下げていけば良いということになるけど
なかなかそういうわけにはいかないにょ。
返品制度のないゲームソフトの場合はメーカーは出荷してしまえばそれで店頭価格が
いくらであろうと一定の割合(機種、メーカーによるけど定価の75〜80%)で売り上げが
期待できるけどダウンロード販売で値下げを行えば売り上げ金額減少を招いてしまう
からね。
あと過度の価格下落は小売りへの納品金額と大きなギャップを産んでしまうことになる
ためなかなかできないというのもあるにょ。
パッケージで廉価版(ベスト版)が発売されたソフトであればダウンロード販売でも
それに合わせて値下げは可能だけどそうでない場合はなかなかできないというのが現状
だと思われるにょ。
また、パッケージソフトの場合は、ユーザーからすると中古があるというのが大きいにょ。
中古があるということはそれを安く買うことも出来るし、新品ソフトを買う時も中古を
買取してソフト購入の一部に充てることができるからね。
人気ソフトの場合は定価5000円のソフトの買取は3000円〜3500円になるにょ。
4500円で新品ソフトを買い3500円で売れば実質1000円で新作ソフトをプレイ可能になる
ということがいえるにょ。
それに実態のないデータに約4000円も払えるという人自体がそれほど多くないというのも
ありそうにょ。
昨年6月5日に書いたようにPSP用のソフトを使用するには認証が必要になるにょ。
このためゲームをダウンロード購入してもその所有権があるというだけであって使用権が
保証されているわけではないにょ。
どういうことかというとアカウントを失った場合には認証ができないし、将来SCEがゲーム
事業から撤退した場合にも使用できなくなるということにょ。
これがパッケージ版であれば壊れない限りは使い続けることができるという安心感が
あるからね。
(3)これはさらに2つに細分化されるにょ。
1つはすべてのPSP用ソフトがダウンロード販売されているわけではないということともう
1つは手持ちのUMDソフトがプレイできないということにょ。
PSP go発売以降はSCEのゲームはほぼすべてパッケージ版とダウンロード版の両方が用意
されるようになったけどサードパーティ製のゲームはまだまだだからね。
そして、少し古めとなるとSCEでも用意されてないものがありサードパーティのものは
ほとんど壊滅にょ。
また、PSP goが初めてのPSPなら問題ないけどすでにUMDソフトを複数持っていた場合に
それが使えないというのが難点になるにょ。
これは例えるならばDSiが発売されたときに「従来機と互換性はあるけどカートリッジと
形状を変えたので今までに発売されたゲームが欲しい人は新しく買い直してね」という
のと変わらないにょ。
すでに持っているゲームを買い直すことに何の抵抗もない人ならいいけど大半の人は
「互換性があるのに使えない」というのに大きな不満を感じると思うにょ。
その上従来ソフトはすべて新型カートリッジで発売されているわけではないというので
あればなおさらにょ。
そうなるとユーザーに残された選択肢は「そんな本体は買わない」ということにょ。
さて、今回の値下げによって(1)の問題点は改善されたものの(2)、(3)が改善されたわけ
ではないからPSP goが主軸になることはありえないにょ。
値下げによって小型軽量を活かしてPSPをすでに持っている人が2台目用として買うのは
ありにはなったけどね。
例えるならば据え置きノートPCを持っている人がネットブックを買うような感覚にょ。
PSP goは今後発売されるであろうPSP2の試金石として投入されたのは間違いないにょ。
しかし、「新世代の機種として発売し従来機と一部互換性がある」というのであれば許容
できるかもしれないけど上記「DSと(架空の)DSiの例」のように同じ世代のゲーム機で
あっても使えないというのはユーザーの大きな不満が大きく不買になるのは最初から目に
見えていたことにょ。
したがって、「試金石」として見て考えた場合でも何の参考にもならないにょ。
これを鵜呑みにすればダウンロード販売は(少なくとも現時点では)失敗するという
ことになるからね。
しかし、スマートフォンではそれが普通になっているにょ。
ネットに繋がっていることが前提のスマートフォンではダウンロード販売のハードルが
低いからといえばそれまでだけど「ダウンロード販売だから売れない」というのではなく
他の理由もあるにょ。
いくらiPhone用アプリが売れているといっても中心価格帯は1000円以下にょ。
パッケージ版ソフトであれば5000円のゲームでミリオンセラーに達するものは年間に
何タイトルも発売されている(ポケモンBWもすでに400万本超えている)けれどダウン
ロード販売でこの価格帯でそこまで売れたタイトルは過去にないからね。
それがパッケージ版とダウンロード販売におけるユーザーの認識の差にょ。
しかし、これはデータに対して大金(4000円程度)を払うのが嫌というわけではないにょ。
アイテム課金のMMOやソーシャルゲームのように1回に支払う金額は少なくてもそのゲームを
プレイするのにかかった総額で考えると1万円単位になる場合が実際にあるわけだからね。
要するにそのゲームが面白ければ投資するのは惜しくはないけど買う前に面白いかどうか
判断ができないのがゲームの怖いところにょ。
これはPSPだと体験版のダウンロードを積極的に行っていることで克服できているにょ。
体験版で100万ダウンロードの大人気ということでそれがパッケージ版ソフトの販売数を
大きく底上げした(前人気と比べて販売数が予想を超えたため発売当初はずっと売り切れ
状態だった)けれどダウンロード販売の底上げに繋がったかというと微妙にょ。
ダウンロード販売を主軸に考えているなら今こそ「@barai方式」復活の時にょ。
これはどういうものかというとかつて販売されたドリキャス用ソフト「エターナル
アルカディア」の場合は通常版が6800円のところ@barai版は1000円だったにょ。
ある程度プレイして続きをプレイしたい場合はキーを有料ダウンロードすることで最後まで
プレイできるようになるにょ。
ただ、この@baraiは販売店からもユーザーからも嫌われたにょ。
というのも店側は@barai版のゲームは定価1000円のゲームを売るのと同じだけしか
利益が得られないからにょ。
同じ本数売れるとすれば定価6800円のゲームの方がいいのは明確にょ。
ユーザー側からは@barai版は中古で売れない(買い取って貰えない)というのがネックに
なるにょ。
パッケージソフトの最大のメリットである売買によって少ない金額でプレイ可能になる
ということができないため@barai方式は全く普及しなかったにょ。
しかし、ダウンロード販売で導入するならば店側にとっても不利益はなくユーザー側も
ダウンロード販売だと元々実体のないデータだから中古で売れないのはデメリットでは
なくなるにょ。
失敗した@barai方式がダウンロード販売では成功すると考える理由は下記の2つにょ。
(a)ダウンロード版ソフトを購入するユーザーのネット利用率は100%
(b)キー購入ができなくなるリスクが少ない
(a)ネットなんてほぼすべての家庭に普及しているけど問題はネット接続だけではなく
課金方法にもあるにょ。
ケータイがアプリなどのコンテンツ販売で成功しているのはキャリアが代金を一括請求
しているからだしね。
しかし、ダウンロード販売を利用しているユーザーであれば最もハードルが高いその
課金問題をすべてのユーザーがクリアしているにょ。
(b)@barai方式では続きをプレイするために認証キーを購入しないといけないけどその
販売は一定期間で終了してしまうということにょ。
http://game.watch.impress.co.jp/docs/20020107/atbarai.htm
メーカー側もサーバ維持費がタダではないためやむを得ないことにょ。
これはダウンロード販売の場合は上記(2)で書いたようにパッケージ版と比べてネックに
なっている部分だけど@barai方式はダウンロード販売で導入した場合はすべてのソフトで
導入可能であるためSCEが撤退するまでは続けられる可能性が高くなるにょ。
また、@barai方式は最初1000円で残りが全額という組み合わせだけではなく細かく設定
することでより多くのユーザーに受け入れられるようになると思われるにょ。
RPGだと1章ごとの課金にしたり、アクションゲームであれば1ステージごとや1モードごと
ということもできるにょ。
ユーザーをそのゲームをプレイしてみて続きをプレイしたり、その別のモードをプレイ
したくならなければ追加購入しないという選択権を得られるわけにょ。
そうやって見ていくとアイテム課金とそれほど大差がないことが分かるにょ。
@barai方式はパッケージ販売では受け入れにくいビジネスモデルだったけどダウンロード
販売では抵抗が無くなるというのがこれで分かると思うにょ。
PSP goは誰の目から見ても「成功した」とはいえないにょ。
しかし、これには上記のような大きな理由がありダウンロード販売がユーザーに受け入れ
られなかったと単純に解釈するのは早計だということにょ。
PSP goそのものに問題があるし、ダウンロード販売においても現在のSCEのやり方は良い
ものとはいえないためそれらの問題が今後改善されていけば十分成功の可能性はあると
私は思うにょ。
トリミングが許されるのは鳥撮りだけ・・・?
デジカメの画素数は依然として止まることがないにょ。
長らくAPS-Cサイズのセンサーでは1200万画素を維持していたニコンも新機種D3100で
1400万画素、D7000では1600万画素になったにょ。
キヤノンはすでに1800万画素だけど恐らく次の機種ではAPS-Cで2000万画素、フルサイズ
では3000万画素に達するのではないかと思われるにょ。
センサーの大きなデジタル一眼であればまだ一定以上の高解像力レンズを装着時には
ちゃんと細部まで解像するため無意味ではないけど解せないのはケータイのカメラの
画素数にょ。
1000万画素オーバーをしたと思ったら先日auから「Cyber-shotケータイS006」ではついに
1600万画素に達しているにょ。(レンズの解像力を考えると明らかに画素数が無駄に多い)
さて、この高画素化の背景には依然としてCPUでのクロック競争のように「画素数でしか
優劣を判断できない」という人が少なくないためだと思われるにょ。
「画素数が少ない方が良い」とも言えないけど画素数が多くなることによる弊害を考えると
「画素数が多い方が良い」とは一概に言えないのが現状だからにょ。
そんな高画素化のメリットの1つには「トリミングで有利」というものがあるにょ。
確かに十分な性能のレンズを装着していればトリミングに耐えられるけど果たしてそれが
本当に良いことなのか・・・?
「デジカメの撮影画像に対して、トリミングをすることがありますか?」
http://dc.watch.impress.co.jp/docs/enquete/20101026_402511.html
する ・・・・ 82.1%
しない ・・・・ 17.9%
トリミングを「する」「しない」という二択アンケートであったため前提条件がないのが
やや問題だけど条件無しで「しない」と答えている人が17.9%もいることに驚きにょ。
というのも人によってこれはどのように答えるか受け止め方が異なるからにょ。
それを「普段から常用している」か「やむを得ない場合に使用したことがある」かという
のでは雲泥の差があるからにょ。
野鳥の撮影などでは600mmが「標準レンズ」と言われているにょ。(一般的な標準レンズは
50mm)
アップで撮ろうとすれば800mm、1000mm、もしくはそれ以上の超・超望遠レンズが必要に
なることも少なくないからにょ。
しかし、そのクラスのレンズは他の用途で使用する機会がないためそれ専門で撮影して
いる人でなければ購入は躊躇してしまうのではないかと思われるにょ。
そのためトリミングに頼るという人が居るのはやむを得ないにょ。(鳥撮りだけに
トリミングはありか・・・?)
しかし、それが普段でも当たり前となってしまうのは厄介にょ。
その被写体を撮影するのに十分なレンズがありながら「とりあえず広めに撮っておいて
後からトリミングすれば良い」というトリミング前提になってしまうと写真撮影の根底が
変わってくるからにょ。
「写真は引き算」という有名な言葉があるにょ。
これは何かというとメインとなる被写体(主題)を引き立てるためにそれ以外の何を
残すかということがフレーミング(構図)において重要になるということにょ。
いろいろ写りすぎて「何が主題なのか分からない」というのは失敗写真となってしまう
わけにょ。
銀塩時代はトリミングは自家暗室を持ってない人は利用する機会が少ないものだったと
思われるにょ。
デジカメの画素数が増え、PCのスペックアップもあって手軽に1000万画素クラスの写真
加工が可能になりそのハードルは大幅に下がったにょ。
したがって、「写真は引き算」という言葉は知っている人であっても撮った後に
「調整する」というのは自然な流れかもしれないにょ。
それにデジタル一眼の場合はプロ機や中級機の一部の機種を除き「視野率100%」でない
ためにシャッターを押す段階で注意していても自分の意図しないものが写り込んでいる
という場合も少なくないからね。
したがって、「調整レベル」のトリミングであればやむを得ないにょ。
しかし、「調整」を大きく超えるトリミングをしているならばそのときは問題にょ。
これは特定の人にプレゼントするためにその人がアップになるようにトリミングという
場合ではなくて「自分の作品」としてWebなどで発表する場合においてトリミング前提では
問題になるということにょ。
ここで「作品」というものに対する人それぞれの違いが出てくるにょ。
(a)シャッターを押した瞬間を捕らえることが重要だから「無加工」派
(b)感性によるものだから良くするためなら「加工は必要」派
この(a)(b)両者がお互い分かり合うことはあり得ないにょ。
(a)は自分撮る瞬間にいかにイメージに近い構図、露出、シャッター速度、絞りを調整
できるかが重要になるし(b)はいかにイメージに近いように加工できるかが重要になる
からにょ。
とはいえ、撮りたい被写体をいかに効果的に魅せるかという点では同じにょ。
そもそもデジカメの写真というもの自体が画像処理エンジンによって生成されるデータに
すぎない(設定によって発色だけでなくシャープさなどの面まで変更される)という
ことで(a)と(b)はカメラ内で自動的に加工されるか手動で行うかという違いでしかないにょ。
そもそも無加工派であってもRAW現像をする時点で色彩、明暗調整のレタッチを行うことに
なるわけだしね。
私は個人的には基本的には無加工派でありシャッターを押す時点で何を残し何を省略するか
(=「写真は引き算」)というのを考えながら撮影しているにょ。
技術が伴ってないため失敗作品も多いけどそれ故にきっちり決まった時の感激も大きいし
技術的な向上心も芽生えてくるにょ。
しかし、「調整」を超えるトリミング(写真を撮った後で何を引き立てさせるかを決める)
というの加工派、無加工派とはまったく別物にょ。
デジカメの進歩によって写真の知識はなくても誰でも簡単に一定レベルの写真が撮れる
ようになったにょ。
したがって、同じ被写体を撮影する場合はユーザーによって大きく変わるのは構図のみ
といっても過言ではないかもしれないにょ。
だからこそ、撮るときには主題や構図を大切にしたいにょ。(70年代は「一眼レフなのに
シャッターや絞りをカメラ任せにするプログラムAEは駄目なのか」というのが議論されて
いたのが懐かしい)
さすがに構図を自動で行うというのは現時点では無理だけど将来画像認識技術が飛躍的に
向上した場合には可能になるかもしれないにょ。
そうなったら、写真を撮ることがつまらなくなってしまうと感じるのは私だけではないと
思うにょ。
「記録写真」ではなく自分の意志が入った「作品」なわけだからね。
こう考えれば鳥撮りのように望遠側が足りないからトリミングでカバーするというのと
撮った後で主題を決めてトリミングするというのでは同じトリミングでも全く異なると
いうのが分かると思うにょ。
確かに後から行う場合でもカメラ任せやソフト任せではなく「自分の手でトリミング」を
するのだから「ユーザーの意志が入り込んでいる」かもしれないけど写真を撮る時の
わくわく感や上手く撮れた時の達成感はそれでは得られないからね。
カセットは永遠に不滅・・・なのか!?
アニメ「けいおん!!」の劇中歌などを収録したアルバム「放課後ティータイムII」の
初回限定版を買ったにょ。
このCDはオリコンアルバムランキングで昨日現在のデイリー1位となっているにょ。
http://music.jp.msn.com/news/article.aspx?articleid=435617
私が買った初回限定版の方には何とカセットテープが付いているにょ。
これは劇中で実際に軽音部のメンバーが自分たちの音楽を収録するのに使ったカセットを
を再現したものということでファンにとっては心憎いアイテムといえるにょ。
ただ問題なのはカセットを再生する環境がない人が多いということにょ。
私も家の中を探せばどこかにまだ転がっているだろうけど何せここ10年カセットなんて
使ってないから例え見つかってもまともに使える保証はないにょ。
ホコリなどによってヘッドが痛んでいるという可能性もあるし機械的に稼働する部分は
定期的に使っていた方が調子を維持できるということで10年間動作させてないラジカセは
かなり厳しいのではないかと思われるにょ。
カセットといえば70年代〜80年代は必須アイテムだったにょ。
もちろん筆頭なのは音楽用にょ。
70年代は自宅にはレコードプレイヤー(というかステレオ一式)はあったけどお金に困って
売却したためカセットが唯一の音楽再生機器だったにょ。
当時小遣いで自分の欲しいシングル/アルバムのカセットを買うなんて出来なかった
ということでラジオの音楽番組をエアチェックしてそれを録音して自分だけのアルバムを
作っていたにょ。
70年代〜80年代学生だった人はそういう使い方をしている人は非常に多いと思われるにょ。
音楽だけではなくTV録音用にも使っていたにょ。
まだビデオデッキというものが自宅に無く(たとえあっても当時はテープも高くて買え
なかった)好きなTV番組はTVのスピーカーの前にラジカセをセッティングして録音して
いたにょ。
当然録音だけであるため映像はなくTVの音ではなく周囲の環境音も録音されるため
TV録音をするときは家族の同意が必要だったにょ(笑)
そして、欠かせないのがデータレコーダ用としての利用にょ。
8ビットパソコンやポケコンではプログラムの保存としてカセットテープを用いていた
からね。
しかし、300ボー(≒300bps)という速度しかサポートしていなかった古いポケコンは
2、3KBの自作プログラムをカセットに記録するだけで数分かかったにょ。
カセットに記録したものにはエラーがつきものなので照合も必要だったしね。
それでもデータレコーダさえない時は手書きでリストを残していたからそれと比べると
格段に速くて正確にょ(笑)
さて、そんな「カセットの天下」も長くは続かなかったにょ。
自宅にも80年代半ばにはビデオデッキが導入され、カセットでTV録音をする必要は無く
なったからね。
音楽用もCDラジカセの導入によってカセットはメイン媒体では無くなったにょ。
ポータブルCDプレイヤーなんて持って無かったし、予算的に音楽CDはよほど気に入ったもの
だけしか買えずレンタルが中心だったということでモバイルはカセットが中心だったけど
10年前からMP3プレイヤーに乗り換えたためそのモバイル環境もカセットでは無くなって
しまったにょ。
ポケコンも1988年に登場したPC-E500によって激変したにょ。
RAMファイル機能によってポケコンのメインメモリをFDやHDDのように記録用として使える
ようになったからね。
これによって1度に1つしか作成できず、新しいソフトを作る場合には泣く泣く本体メモリを
「NEW」で消去する必要があったという事態から回避されたにょ。
とはいえ、E500はメインメモリはポケコンとしては多い32KB(後に出たE550、E650でさえ
64KB)だけどそれは肥大化されたソフトでは簡単に埋まってしまったにょ。
E500は速度向上のため数値は内部で8バイトの十進数で記録(1桁の数値でも8バイト必要)
ということでBASICプログラムのメモリ効率が従来(PC-1350)比で約1〜2割悪くなった
(これは実際に私が1350用プログラムをE500に入れたときに感じた)というだけではなく
速度向上によってようやくBASICでまともにグラフィックを使ったゲームが作れるように
なったというのもそれに輪をかけて大きくしているにょ。
したがって、メモリがすぐに一杯になったけどこれはRAMカードでカバーしていたため
カセットで記録する機会はかなり減ってしまったにょ。(私は当初はグラフィックを
ふんだんに使ったゲームを作っていたけど途中からメモリ効率重視になったため本体
メモリ+RAMカード2枚でほぼ問題無くなった)
ただ、RAMカードもあくまでメモリであるため簡単にデータが壊れてしまい後に悲劇を
産んでしまったにょ。(数年間作り貯めたものをすべて失ってしまった)
私自身は音楽用ではここ10年間使ってないし、ポケコンの記録用でも2000年の夏コミで
販売したもの以来使ってないカセットだけどやはり世間でも需要が激減しているためか
先日ついに音楽カセットを使用したウォークマンが生産終了したにょ。
http://av.watch.impress.co.jp/docs/news/20101022_401936.html
需要を考えると今まで作っていた方がすごかったけどやはり今となってはカセットの
メリットはほとんど無くなってしまったからね。
ランダムアクセスができ、何百、何千曲も本体に収まるDAPが格安で手に入る時代である
ため少なくとも国内では過去の互換性を重視する人(最近の曲は聴かず昔ため込んだ
カセットのみを聴く人)、PCを持ってない(使い方が良く分からない)という人くらい
しか利用しないだろうからね。(MDという選択肢もあるけど普及台数が少ないし、市販
ソフトが供給されてないためカセットの完全代用にはならない)
そんな時代背景の中、現代が舞台の「けいおん!!」に出てくるメンバーが普通に録音用
としてカセットを選択したのは・・・これはあまり意味はなく単に部室に転がっていた
古いラジカセを利用したというだけなんだけどね(笑)
ハイテク機器(最新のデジカメやケータイ)が登場する反面、アナログ機器も活躍する
ということが「けいおん!!」の「ありふれているけど何となく懐かしい」という世界観を
構築しているかもしれないにょ。
iPodなどのDAPが音楽を聴く面では圧倒的に便利なのは間違いないけどカセットで音楽を
聴くというのもノスタルジーに浸れるため悪くはなさそうにょ。
まともに動作するかどうかは分からないけど今度自宅を捜索して使えそうなカセット
デッキ(ラジカセ等)を見つけ出してみることにするにょ。
どんなゲームにもバグはある
アニメ「神のみぞ知るセカイ」の今週の放送はかなり酷い話みたいにょ。
酷いのはアニメそのものではなくそのアニメの中に登場したゲームの話にょ。
http://yunakiti.blog79.fc2.com/blog-entry-7040.html
2003年4月20日にはバグがないプログラムを一晩で作り上げたしーぽんのことを書いたけど
これはアニメであるというから「天才プログラマ」というのを強調するために作られた
話だといえるにょ。
「神のみぞ知るセカイ」に登場したゲーム「くれよん〜空の芸術〜」もアニメの中の話に
すぎないと考える人が多いことだと思うにょ。
バグのないプログラムを作り上げるというのはただの空想上の産物なのだけどバグが
ありまくりのゲームは実際に存在するから困るにょ。
基本的にプログラムにおいて「バグはあるもの」といっても過言ではないにょ。
バグがないことを証明はできないからね。
あることを証明するより無いことを証明する方が難しいためにょ。
無いことを証明するのは「悪魔の証明」と言われているけど上記の一晩でバグがない
プログラムを作ったしーぽんよりもそのプログラムにバグがないということをすぐに
見抜いた先生の方が遙かにすごい天才だといえるわけにょ(笑)
バグを修正する作業は「デバッグ」と言われるけどそれにはいくつかの工程があるにょ。
(1)バグを見つける
(2)バグの発生源を探す
(3)バグの原因を特定する
(4)原因を元にバグを修正する
(1)デバッグは多くの場合は力任せになってしまうにょ。
RPGだと1日中ひたすら壁にぶつかって抜けられるような場所がないかと調べたりしなくては
ならないため単純作業といえるにょ。
とはいえ、経験が豊富なデバッガーや天才デバッガー(天才テストプレイヤー)だとそれを
すぐに見抜いてしまうこともあるにょ。
レースゲームでも抜けられないはずのコースに「カン」で抜け道を探しコースアウト判定を
逃れるような抜け道を見つけるような人もいるからね。
(2)バグが見つかっても問題はどこで起きているのかということはすぐには分からないにょ。
BASICで作ったゲームであってもエラーが発生した場合にそのエラー発生行に問題がある
とは限らないにょ。
これも経験によってある程度絞り込みが可能になるにょ。
経験が無ければ二分探索によって少しずつ調べていくしかないため膨大な時間がかかって
しまうにょ。
(3)発生箇所が具体的に分かったら次はそうなるに至った原因を見つけ出すことが重要に
なるにょ。
BASICで作られたゲームにおいてゲームオーバーを判断しているIF文に問題があった場合
にはその「条件判断に使う数値がおかしい」と分かったらそのおかしくなっている原因を
探る必要があるからね。
(4)(1)〜(3)の手順を踏んでようやくその対策が可能になるにょ。
このためにはそのプログラムを完全に把握しておく必要があるにょ。
しかし、デバッグ作業の(1)の段階であってもBASICであればBASICそのものに問題がある
ことがあるし、Cであれば組み込むモジュールに問題があることもあるためプログラムには
何の問題もないけどバグになることがあるにょ。
さらに特定環境でのみ起こるバグというのもあるため厄介にょ。
これは個々の端末で異なる仕様となっているWindows PCなどでは顕著にょ。
基本仕様が固定となっているコンシューマゲーム機であっても型番による違いで発生する
問題もあるにょ。
仕様が固定であるポケコンPC-E500シリーズであってもROMバージョンに依存してしまう
処理を行うと問題が発生してしまうくらいだからね。
ただ、「バグ」というのは客観的なものではなく主観的なものである場合も多いにょ。
では、下記のごく基本的なBASICプログラムにおいてバグの有無を見てみるにょ。
10 INPUT "R=";R
20 S=R*R*3.14
30 PRINT "S=";S
これは半径の長さを入れたら円の面積を表示するという何の変哲もないプログラムであり
一見何の問題もないように見えるけど実は落とし穴があるにょ。
それは10行のINPUT命令にょ。
ここでは数値変数Rに半径の値を入力するように求めているけどここで数値ではなく文字を
入力した場合にはSyntax errorとなってしまうにょ。
制作者側からするとここは数値を入れるのが当たり前であり、文字を入れるのは想定して
いないけれど使用する側は必ずしもそうではないからね。
使用者側のギャップがあるため制作者側がバグをバグと認識しない場合があるにょ。
このような場合は「仕様」と言われるにょ。
上記プログラムでは文字を入力したらエラーになるというのはバグではなく仕様である
というわけにょ。
どこまでを仕様と見なし、どこからをバグと見なすのはその制作者側にゆだねられている
ため基準は特にないにょ。
さて、こうなると「バグがあるのが当たり前」となってしまうにょ。
しかし、制作者側は(特に有料である場合は)基本的にバグが無いことを目指さなくては
ならないと思われるにょ。
やはり、「バグ」といえば避けて通れないのがいわゆる「エロゲー」と言われるPC向けの
18禁ゲームソフトにょ。
何しろ発売されるゲームタイトルが多いけど明らかなバグがある状態で発売している
ものも非常に多いからね。
国内でパッケージ向けPCソフトといえばこのエロゲーが主流になっている(廉価版を除いた
新作だけでも年間500タイトル余り発売)わけだけどこれはアニメ、マンガなどの二次元
文化が諸外国よりも進んでいるということもあり80年代から目立ちつつあったにょ。
80年代後半ばからは8ビットパソコンから16ビットパソコンへと移り変わったけどその
際にはPC-98シリーズが圧倒的なシェアを獲得し、多くのゲームがPC-98用に作られたにょ。
そのためPC-98をエロゲー用PCと感じている人も多かったにょ。
もっとも、91年の沙織事件があるまでは各社の自主規制でありエロゲー(18禁)ではなく
「美少女ゲーム」と呼ばれていたわけだけどね。
さて、このエロゲではなぜバグが多いかというとそれには2つの理由があるにょ。
(a)制作元が零細企業が大半
(b)追加パッチで簡単に修正が可能
やはり顕著な理由が(a)にょ。
何せあれだけのたくさんのソフトが作られながら上場企業はないからね。
8ビットパソコンの時代は光栄やエニックスも今で言うエロゲーに分類されるような
ゲームを作っていたけどそれは黎明期の話であり大手企業になってからは会社の歴史からも
抹消されているにょ。
さて、エロゲーメーカーが零細企業ばかりというのは「エロ」というものの社会的地位の
問題もあるけど根本的には「零細企業でも作れる」というのが理由だと思われるにょ。
コンシューマゲームであればプレステ3であれば3億円以上はかかってしまうにょ。
これでは1本で3000円の利益が得られても10万本の売り上げが必要になるにょ。
大作であれば数十億円の開発費が必要となるため100万本は売っても利益が出ないという
ものもあるにょ。(シェンムーがドリキャスで70億円の開発費をかけたという有名な
話もあるけどプレステ3でそこまで作り込めば100億円の大台に行きそう)
平均的なエロゲーであれば開発費は1000万円で出来てしまうにょ。
これは少人数で作られているというのもあるし、コンシューマゲームのように長い開発
期間をかけてないというのも理由になっているにょ。
例えば5人で半年がかりで作ったゲームであれば人件費が1人につき月25万円、会社の
運営費(家賃、光熱費、通信費、雑費)が月に20万円かかったとして合計で870万円と
なるにょ。
最近はボイスが入っているのが当たり前だけどよほど大人数の声優を使わない限りは
1000万円で収まるにょ。
もちろん、これに加えて製造費用や広告費用がかかるわけだけど仮にすべて込みで
2000万円で出来たとするにょ。
エロゲーは定価が高いため1本4000円の利益があるとした場合(エロゲーの場合はショップ
への納入価格はメーカーやタイトルによって変化するけど定価の60〜75%となっている)
5000本が損益分岐点となっているにょ。
エロゲーの場合は1万本売れたらヒット、3万本売れたら大ヒットと言われるような業界で
ある(10万本オーバーはここ10年で数タイトルしかない)ため5000本は厳しいという
感じもするけどコンシューマゲームのように売れるゲームはミリオン、売れないゲームは
数千本という極端なものではないためエロゲーの場合は大抵のゲームは数千本は売れて
いるにょ。
つまり、コンシューマゲーム機と違って市場が小さいため莫大な利益を得るのは難しいけど
コストさえ掛けなければコンシューマゲーム機で発売するよりも遙かに低リスクという
ことにょ。
しかし、ここで問題となるのがデバッグ作業にょ。
デバッグは基本的に人海戦術であるため人手と時間が必要になるにょ。
エロゲーではそれがないために主要なバグさえも見つけられない状態で発売されることが
多いということにょ。(「みずいろ」のようにアンインストールすることでHDDを初期化
するバグなどがある)
さらにそれに輪を掛けているのが(2)の問題にょ。
ROMで提供されているコンシューマゲーム機用ソフトとは異なりPC用ソフトというのはHDDに
インストールして使用するために修正パッチを充てることでバグが修正可能になるにょ。
するため修正前提として発売することもあるにょ。
つまり、バグがあることを認識しても発売日に出すことを優先するということにょ。
発売日を変えるとさらなる告知に余分な費用がかかってしまうからね。
ヘタをするとバグどころか未完成と思われる状態で発売されることさえあるにょ。
「サマーデイズ」では修正パッチだけでも2.3GBあったけどこれはゲームに必要なファイルが
DVD-ROMに入ってなかったせいにょ。
では、コンシューマゲーム機用ソフトではそんなバグがないのかというとそういうわけ
でもないにょ。
基本的に修正パッチで修正するのが困難なコンシューマゲーム機の場合はクリア不可能
という場合であれば回収されることがあるにょ。
ただし、多くの場合は回避可能であるためこれは「仕様」として扱われることが大半にょ。
例えばWii用ソフト「メジャーWiiパーフェクトクローザー」でも画面と音が合ってない
とか、バッターがピッチャーの反対方向を向いていることがあるとかいうあからさまに
おかしな状態でも「演出」といってしまえばそれまでだからね。
最近はコンシューマゲーム機であってもインストールして使用可能になっているため
さらに修正パッチに頼るという状況が増えてくると思われるにょ。
神のみぞ知るセカイに登場したPFP用ゲームソフト「くれよん〜空の芸術〜」はこの紹介
を見るとすごさが分かるにょ。
http://ansaikuropedia.org/wiki/%E3%81%8F%E3%82%8C%E3%82%88%E3%82%93%E3%80%9C%E7%A9%BA%E3%81%AE%E8%8A%B8%E8%A1%93%E3%80%9C
アンサイクロペディアであるためネタサイトだけどこれは実際の作品内での設定そのまんま
だからね。
ここまで酷いバグはエロゲーでも10年に1度のレベルでありコンシューマゲーム機では
あり得ないレベルだけどどんなゲームであってもバグはあるわけであり、それが無い状態で
発売するのは無理であるためそれが許容できるレベルかということがすべてとなるにょ。
MacBook Airは本当にお買い得なのか?
10月24日にはネットブックとMacBook Airの比較ということでMacBook Airと同じような
スペックのWindows PCを用いてネットブックと圧倒的な差があるということを書いたにょ。
では、MacBook Airの実機にWindows7を導入した場合に本当にそれだけの性能があるのか
というとこれは実際に試してみないと分からないにょ。
そういうわけで、実際にWindows7を導入した比較レビューを見てみることにするにょ。
http://plusd.itmedia.co.jp/pcuser/articles/1010/29/news072.html
MBA MBA1.6 MB MBP RX3 J9 UL20FT
◎CINEBENCH R10
Multiple CPU 2954 3408 5060 8621 N/A N/A N/A
Open GL 3154 3209 4439 5924 N/A N/A N/A
◎iTune ベンチ(単位:秒)
AAC変換 34.4 30.1 20.4 16.0 N/A N/A N/A
iPhone変換 116.5 101.6 74.8 54.1 N/A N/A N/A
◎PCMark05
PCMark Score 4997 5123 4838 7594 8340 5096 N/A
CPU Score 3283 3872 5914 8403 7318 6466 3435
Memory Score 3319 3423 4890 6739 6189 5250 4084
Graphics Score 4145 3775 4289 6277 2870 2230 1730
HDD Score 21728 25145 3994 3668 30732 4307 5021
◎3DMark06
3DMarks 4195 4290 4779 7488 1895 N/A 1044
SM2.0 1665 1678 1725 2931 575 N/A 320
SM3.0 1894 1876 2028 2992 771 N/A 320
CPU 1269 1457 2137 3202 2668 N/A 1306
◎FINAL FANTASY XI Bench 3
LOW 5207 5851 7371 10117 4012 3658 2256
HIGH 4188 4394 5828 8079 2597 2271 1456
※測定結果が記載されていないものはN/Aとしている
略称 機種名 CPU GPU ストレージ 価格
MBA・・・MacBook Air Core2Duo SU9400(1.4GHz) GeForce 320M 128GB SSD 10.88万円
MBA1.6 ・MacBook Air Core2Duo SU9600(1.6GHz) GeForce 320M 128GB SSD 12.86万円
MB ・・・MacBook Core2Duo P8600(2.4GHz) GeForce 320M 250GB HDD 8.88万円
MBP・・・MacBook Pro Core i7-620M(2.66GHz) GeForce GT330 500GB HDD 18.98万円
J9 ・・・Let'snote J9 Core i3-370M(2.4GHz) Intel HD Graphics 160GB HDD 約12万円
RX3・・・dynabook RX3 Core i5-520M(2.4GHz) Intel HD Graphics 128GB SSD 約24万円
UL20FT ・UL20FT Celeron U3400(1.06GHz)Intel HD Graphics 320GB HDD 5.98万円
※上記ベンチにおいてUL20FTは33%のOCをしているため1.4GHz相当で動作している
まず同じMac内での比較を見るにょ。
CINEBENCHやiTunesベンチを見るとMacBook Airの相対性能が分かるにょ。
CINEBENCHはマルチスレッドに特化したベンチであり、iTunesベンチ(AAC)はマルチ
スレッド非対応であるためこれを見ればCPUのマルチスレッド性能とシングルスレッド
性能が分かるにょ。
デュアルコアのAtom N550を搭載のネットブックより2.2〜2.4倍高性能なCPUを搭載の
MacBook Air(1.4GHzの標準モデル)現行PCの中ではそんなに高くはないにょ。
とはいえ、最上位となるMacBook Proとの比較ではマルチスレッドに特化したCINEBENCHで
2.9倍の差、シングルスレッドのiTuneベンチで2.1倍の差というのはクラスが違うから
当然といえば当然にょ。(これはネットブックとMacBook Airの比較比と同じレベルで
あるため「ネットブックとMacBook Airも別クラス」と言えることになる)
次に、Windows環境において他のWindows PCと比較してみるにょ。
PCMark05のCPUスコアを見てみると3283となっており、これは10月24日に書いた同一CPUを
搭載のWindows PCが3632であったことから考えるとそれよりも10%も低いため誤差の範疇を
完全に超えているにょ。
Boot Campの影響も若干はあるだろうけど他の要因もありそうにょ。
では、同じMacBook Airでの比較をしてみると1.6GHzモデルと1.4GHzモデルのスコア差は
18%になっているにょ。
CPUのクロックは14%の差であるため4%の誤差があるにょ。
これくらいならば誤差としても十分考えられるけど今回のMacBook Airの1.4GHzモデルは
やや低めのベンチ結果と考えた方が良さそうにょ。
そういうことで1.6GHzモデルと他機種を比較してみるにょ。
MacBook Proとの比較ではさすがにCore i7が相手ということでPCMark05のCPUスコアは
2.2倍となっているけど通常電圧版とはいえCore i3を搭載したJ9(最下位に位置する
モデル)であれば1.7倍程度にょ。
個人的にはCPU性能は「3割変われば体感できる差」「2倍変われば別格の差」と感じている
けど1.7倍であればその中間であるため体感は十分できるけど別格(別クラス)という
レベルの差かというと微妙になってくるにょ。(今回のベンチ結果からのみ見れば1.4GHzの
MBAならばJ9は2倍の性能となっているけど)
UL20FTは33%のOCによって1.4GHz動作しているものの3435であり、MBA1.6GHzより13%低い
性能となっているにょ。
これは33%のOCがあっても尚14%クロックで負けているということを考えると妥当なもの
といえるかもしれないにょ。
PCMark05はマルチスレッドにも対応しているけど実アプリベースということでマルチ
スレッドに対応していないものも含まれているためマルチスレッドに特化しているという
わけではないにょ。
そういう面を考えると完全にマルチスレッドに特化した3DMark06のCPUスコアはマルチ
スレッド性能を見るのに適しているにょ。
MBA1.6GHzのスコアは1457であり、MBPはその2.2倍、RX3が1.8倍のスコアとなっているにょ。
ここでも同じくUL20FTはMBA1.6GHzより下回っているにょ。
CPU性能のシングルスレッド性能の指標としてよく活用しているFFベンチ(LOW)だけど
これは一定のGPUで動作させた場合には大抵の場合はCPUがボトルネックになっている
というのが理由にょ。
でも、FFベンチ(LOW)の結果を見てみるとMBA1.6GHzは5851ということでこれはCore i3を
搭載したJ9どころか、Core i5を搭載したRX3をも超えるスコアとなっているにょ。
CPU性能だけを見るとJ9やRX3の方が圧倒的上なのは他のベンチ結果から明かにょ。
それなのになぜスコアが大幅にMBAの方が高いかというとIntelのGPUは描画処理の一部を
CPUによってまかなっているからにょ。
FFベンチではバーテックスシェーダで頂点演算をしているけど統合型GPUなのに単体GPU
と同じくバーテックスシェーダをハードウェアで搭載しているGeForce 320MはCPUの負担が
ないせいでボトルネックの一部が解消されているためにょ。
したがって、これではCPUの性能比較には使えないにょ。
逆に言えば旧世代のゲームにおいてCPUで劣っていてもGPU性能でカバーできるため最新の
Intel製の統合型チップセット搭載機よりは遙かに快適にゲームができるということが
いえるわけにょ。(昨今のゲームであればその傾向はさらに強くなるけど今度はCPU側が
動作スペックを満たせない場合があるためゲームタイトルによって異なる)
では、CPUからGPUへと話が変わったので今度はGPU性能をもっと見てみるにょ。
最も分かりやすいのは3DMark06の総合スコアにょ。
MBA1.4GHzとMBA1.6GHzは上記CPU性能ではクロック差以上に大きな差となっていたけど
ここではわずか2%の差ということで差が極めて小さくなっているにょ。
これは若干の測定誤差は含んでいるものの基本的に3DMark06があまりCPU性能に影響され
ないというのが原因となっているにょ。
つまり、純粋なGPU比較には便利といえるわけにょ。
それで比較してみるとさすがにミドルクラスのGPUであるGT330(VAIO Zと同じ物)を搭載
しているMBPはMBAの1.8倍の性能となっているにょ。
しかし、MBAはIntel HD Graphics搭載のRX3と比べると2.2倍、UL20FTと比べると4倍と
なっているにょ。
Intel HD Graphicsは従来のGS45に内蔵のGMA X4500と比べると大幅に性能が上がったとは
いえさすがにGeForce 320Mと比べると大きく劣っており上記FFベンチのように実アプリ
ベンチや実アプリにおいてはさらに大きな差になっているにょ。
GeForce 320Mであっても最新ゲームが快適には動作しないけど設定を落とせば最新の3D
ゲームやMMOなども普通にプレイできるレベルにはなるからね。
設定を落としてもまともに遊べないゲームもあるIntel HD Graphicsよりは圧倒的に有利と
なるにょ。
また昨今はOSやアプリも積極的にGPUの使用を行っているためにそういう対応したアプリ
での動作であればGPU性能が高い方が快適動作が期待できるにょ。
すでに書いていたのと比べて若干ベンチ結果は変わっているとはいえ、こうやって実際に
同じWindows環境で比較するとMacBook Airの立ち位置が見えてくると思うにょ。
さて、続いてはストレージ性能にょ。
デフォでSSDを搭載というのがMBAの強みの1つとなっているけどここで旧AirとRX3との
比較した物をみてみるにょ。
◎CrystalDiskMark
MacBook Air 旧Air dynabook RX3
シーケンシャルリード 216.70 99.28 193.10
シーケンシャルライト 167.30 57.04 177.40
ランダムリード 198.30 95.23 178.20
ランダムライト 137.20 12.11 170.50
RX3のSSDはSSD搭載PCの中でもかなり早い部類に位置するのだけどそれと比べてほぼ互角
といっていい速度があるにょ。
さすがにRAID0で最大4基のSSDを搭載可能なVAIO Zはこれよりも圧倒的に速いけどそういう
例外を除けばPCに標準搭載しているSSDとしてはトップレベルの速度といっても過言では
ないにょ。(これよりも速いSSDはいくらでもあるけど価格が高価になるし、本体がSATA2
ではバスがボトルネックになるので活かすことができない)
本体価格が10万円程度という価格帯を考えれば「驚異的な速度」といってもいいかも
しれないにょ。
では、バッテリ駆動時間を見てみるにょ。
すでに動画再生で3時間半という報告があるけど同一環境下における他機種の比較を行う
ことでより分かりやすくなるからね。
MacBook Air 226分(3時間46分)
Macbook 364分(6時間4分)
MacBook Pro 274分(4時間34分)
Dynabook RX3 353分(5時間53分) ※6セルバッテリ
さすがにMBAは公称5時間ということで駆動時間の短さを感じる人もいるかもしれないにょ。
とはいえ、RX3は公称16時間の6セル(大容量)バッテリを使用時のものにょ。
16時間と比べたら5時間というのが短いように感じるにょ。
しかし、公称値では3.2倍の差があるけど実駆動時間では1.56倍の差しかないにょ。
これは測定方法の違いによるものが大きいので公称値同士の比較には何の意味も持たない
からね。(国内PCはJEITA測定法で比較しているとはいえRXシリーズは初代モデルから
あり得ない設定で公称値のみ伸ばすようにしているため何の参考にもならない)
MBAには10月21日に書いたように丸形セルでは4セル相当の容量になる35Whのバッテリを
搭載しているにょ。
それを考えると「公称値同士の比較」は無視してセル数のみの比較をしてみればMBAと
RX3の駆動時間の差がこのようになったのは極めて当然のことだといえるにょ。
とはいえ、バッテリ交換ができないということがやはり大きなネックになるにょ。
普通に交換ができれば多少駆動時間が足りない人は予備バッテリを持ち歩くという方法も
あるし、バッテリがへたってきたら新品のバッテリに交換するということも気軽にできる
わけだからね。
あと、基本モデルで88800円からというのはGPU性能、薄さ、重量を考慮すればバーゲン
プライスといっていいレベルの安さだけどそれに価値を見いだせないという人にとっては
高価に感じてしまうにょ。
とはいえ、10万円前後という価格は国内メーカー製のCULVノートと同レベルであり
それを考えると決して高くはないにょ。
しかし、MBAでWin7を使うとなるとパッケージ版のWin7を別途用意しないといけないし
OS Xと共存するにはSSD128GBモデルがほぼ必須になるためWin7での使用を考えている
人であれば割安感は一気に無くなってしまうにょ。
それこそ国内メーカー製のモバイルノートに手が届く金額になってしまうからね。
そこまでの予算はなく特に薄型・軽量に拘りがないというのであればやはりWin7を使うのに
最もコストパフォーマンスが高いのが海外メーカー製CULVノートにょ。(据え置き前提
ならばデスクトップ代替のオールインワンノートがいいのでここではそうでない場合を
想定)
先日ACERから発表のAS1830Zはなかなかいい感じの機種にょ。
http://pc.watch.impress.co.jp/docs/news/20101028_403118.html
やはり、CPUが従来機のセレロンU3400からPentium U5400に変わったことが大きいにょ。
セレロンU3400は8月19日にも書いたようにクロックが下がったということが影響して
従来機であるセレロンSU2300よりも性能が下がってしまうという残念な結果になって
しまったからね。
これがPentium U5400ならば少なくともSU2300よりは上の性能になるにょ。
それで、価格が5.5万円だからね。
同時発表されたAtom N450搭載のネットブックAspire Oneは3.7万円だけどOSが7Starterと
いうことで劣るし、液晶は一般的なネットブックと同じWSVGAだからね。
差額1.8万円で別格の性能と別格の作業快適性(液晶解像度の違い)が得られるという
ことを考えると例えStarterでガマンできるという人であってもお得とは限らないにょ。
まして、OSをHome Premiumにアップグレードしたら差額は1万円以下になるためなおさら
お買い得感は無くなってしまうにょ。
薄さ・軽さには拘りがないけどMBAはGeForce 320Mという高性能GPU搭載がうらやましいと
いう人はいるかもしれないにょ。
そういう人にお勧めなのが「Inspiron M101z」にょ。
http://pc.watch.impress.co.jp/docs/column/nishikawa/20101025_401909.html
Athlon II Neo K325の性能はセレロンSU2300と同レベルだけどRS880Mに搭載のRADEON
HD4200はGeForce 320Mと比べたら劣るもののIntel HD Graphicsと比べたら格段に上(特に
実アプリにおいて)だからね。
それで59800円ならば決して高くはないにょ。
結局PCを買う場合は何を重視するかによって高価に感じたり安価に感じたりするという
ことにょ。
Atomの性能およびWSVGAで困ることがないというのであれば相対価格ではなく絶対価格で
安価なネットブックがお買い得だし、最低WXGA、Win7がそこそこ快適に使えとYouTubeのHD
動画も問題なく再生できるレベルが必要というのであればCULVノートがお買い得になって
くるにょ。
また、軽さ・薄さ・GPU性能・SSD性能・デザインなどを重視すればMacBook Airはお買い得に
なってくるにょ。
その場合でも上記のようにWin7環境を構築すれば割高になってしまうから微妙になって
くるにょ。
すでにパッケージ版Win7が余っていればお買い得感が損なわれないというかもしれない
けれど128GBの高速SSDが余っている人は安価なCULVノートに使用すればMBAがSSDを搭載
しながら安価というアドバンテージが無くなってしまうからね。
最新パーツ・ソフト(OS)が余っていることを前提に比較するのは無意味といえるにょ。
こう考えると私は発表時には非常にお買い得感が高いと感じた新型MacBook Airだけど
実際にはお買い得感を感じている人は案外少ないのかもしれないにょ。
海外のPCレビューでもネットブックの方がお買い得と言っている人もいるくらいだしね。
http://wiredvision.jp/news/201010/2010102621.html
ネットブックはお買い得・・・とは限らない
昨日の最後に書いたMacBook Airとネットブックを比べてネットブックの方がお買い得感が
高いと言っているこの海外のレビュー記事だけどそれをもう少し考えてみるにょ。
http://wiredvision.jp/news/201010/2010102621.html
やはり、ネットブックはその「絶対的な安さ」が何よりのアドバンテージにょ。
これが実現したのは何度も書いているように低価格のAtom(元々安いけどIntelが定めた
条件を満たすとさらに半値で納品される)とMSが定めた条件を満たすとULCPC用として
低価格のWindowsを提供したのが大きいにょ。
かつてWin95時代に訪れたチャンドラを代表するミニノートブームは小さい方が安く製造
可能になる(当時は液晶コストがPCのパーツの中で最も高価だったためそれが小さいことが
低価格化にも繋がっていた)というだけではなく小さいから低いランクのCPUでも問題が
無かったからね。
当時のモバイル用CPUは通常電圧版、低電圧版、超低電圧版というような分類は無かった
(ただし、それより前の時代には386SLC、486SLCといったIntelら正規ライセンスを受け
低電力仕様にしたCPUは存在していた)けど超低電圧版なんて無くてもTDPは2〜5W程度
(180nmのMMX Pentiumの場合)だったにょ。
熱設計技術は今と比べて格段に劣っていたとはいえ、TDP2W台となる下位モデルであれば
小さなA5サイズのPCであっても搭載するのは容易だったにょ。
ネットブックが安価なのは上記のようなCPUとWindowsが特別に安いということだけではなく
Atomは熱設計技術の進んだ今でCPU単体だとTDP2.5W(ノースブリッジが統合されたPineView
ならばTDP7〜8W)ということでかなり低いTDPであるため設計が容易ということも挙げられ
そして重要なのは量産化によってコストダウンを行っているということにょ。
国内モバイルノートが部品コストの割りに高価なのは需要がそこまで大きくないため
量産効果による値下げが難しいということが大きいわけだからね。
つまり、ネットブックが「絶対価格」において安いのは当たり前ということにょ。
ただし、相対的に安価かどうかというと昨日も書いたように他機種や他のランクのPCとの
兼ね合いもあるため単純にはいかないにょ。
ネットブックとの比較としてよく用いられるであろうCULVノートと部品コストの違いに
よる価格差がどの程度あるのかを考えてみるにょ。
ネットブックの主要パーツのコストは概ねこんな感じにょ。(ソースによって異なって
いるため大ざっぱな金額)
CPU ・・・・・・ 40ドル(チップセット含む)
HDD ・・・・・・ 40ドル
メモリ(1GB)・・・10ドル
液晶パネル(WSVGA)20〜30ドル
OS ・・・・・・・・30ドル
ここまでで、合計150ドルであとはマザーボードと筐体、そして各種チップなど細かい
パーツ類があるためトータルの部品コストは200ドル少々かかっているのではないかと
予想しているにょ。(日本円に直すと2万円程度か)
これが日本では4万円前後で売られているにょ。
ネットブックも量産効果によって価格が下落したもののすでに限界まで来ているため
これ以上の大幅下落は難しいにょ。
では、CULVノートはどうなのかというとまずCPUの価格は明示されてないにょ。
Penrynコアは最低モデルがCPU単体で100ドル程度だったのでチップセット込みで150ドル
程度だったけどArrandleコアのものは価格が発表されてないからね。
というのも低価格のCPUはほとんどCULVノートとして使用されるためだと思われるにょ。
ネットブックはIntelの条件を満たすことで半値で提供される(上記の40ドルは半値に
した後の金額)ということを考えるとCULVノート用CPUが仮にIntelの条件を満たすことで
半値提供されるとすれば75ドルとなるにょ。(ArrandleコアがPenrynコアと同価格の場合)
液晶パネルはさすがに10.1インチWSVGAよりは高価とはいえ、11.6インチWXGAだと概ね40〜
70ドル程度にょ。
ここでは真ん中を取って55ドルとするにょ。
メモリは2GBとして2倍の20ドルかかるとすればCPU、液晶パネル、メモリのコストアップは
全部で70ドルとなるにょ。
つまり、ネットブックに70ドル加算するだけ(合計300ドル程度)でCULVノートができる
計算になるにょ。
ただし、問題はそうではないにょ。
OSがあるからね。
OSはULCPC用が30ドル程度、標準のHome Premiumが100ドル程度ということを考えると
その差は70ドルにょ。
そうなると300ドル台半ば(3万円程度)というのが部品コストといえるにょ。
では、先日発表されたACERのネットブックとCULVノートが私の計算通りの部品コスト
だと仮定するにょ。(ネットブックが2万円、CULVノートが3万円)
http://pc.watch.impress.co.jp/docs/news/20101028_403118.html
ネットブック 売価3.7万円・・・部品コスト2万円(価格に占める割合54%)
CULVノート 売価5.5万円・・・部品コスト3万円(価格に占める割合55%)
価格に占める部品コストの割合ほぼ同じでありどっちも「部品コストから見たお買い得度」
という観点からすると大して変わらないという結果になったにょ。
これには「ベーシックな構成であり」「買った状態の構成で使い続ける」という条件が
加わるにょ。
仮に買った状態からSSDの交換で2万円の追加コストがかかったとするにょ。
そうなると下記のようになるにょ。
ネットブック 売価5.7万円・・・部品コスト4万円(価格に占める割合70%)
CULVノート 売価7.5万円・・・部品コスト5万円(価格に占める割合66%)
つまり、追加投資をすればするほどネットブックの方が元の金額が安いだけ割合で考えると
コストアップになってしまうというわけにょ。
価格差1.8万円が縮まってないだけにトータルのコストが高価になればよりスペック差に
対する影響が大きくなるにょ。
本来であれば追加投資たいパーツに関しては部品コストに購入金額分だけプラスするのは
フェアではないと考えるかもしれないにょ。
これは追加パーツ(ソフト)が「自分にとって必要」という前提で考えているからにょ。
例えばWiiとプレステ3においてプレステ3の方が高価だけどソフトを大量に買えばその
価格差は相対的には徐々に失われていくからね。
そうなると性能差が目立つというわけにょ。
コンシューマゲーム機の場合はプレイしたいソフトがあるか否かということが全てだけど
Windows PCの場合はゲームをする上ではスペックによってプレイできるか否かが決まる
ためにスペックが高い方が有利となるにょ。
つまり、追加投資を大量に行う場合には上記の例のように本体の価格差は徐々に薄れていく
ということにょ。
これを元に考えるとネットブックにおいてベーシックな構成から外れた場合はそれが
必要不可欠という人以外は割高になってしまうにょ。。
例えばWXGA液晶、Home Premium搭載、メモリで1.3万円アップの5万円になったとするにょ。
部品コストの占める割合は1ドルを85円として計算した場合は、はベーシックな構成よりも
お買い得な57%に達するにょ。
しかし、そうなった場合には純粋に性能差だけが目立つにょ。
5000円の差でCPUが2倍以上、GPUが10倍以上の差だからね。
中古ノートは非常にお買い得にょ。
しかし、部品交換やパワーアップに追加投資が前提であれば決してお買い得ではないと
いうことは分かると思うにょ。
それと同じくネットブックはベーシックな構成で追加投資無しでずっと使い続ける人で
あればお買い得感は高いにょ。
最初に書いたMacBook Airだけど部品コスト計算をしてないけど単純に割合だけを考えると
ネットブックより割安になるとは思えないにょ。
軽さを比較対象に入れるのであれば価格重視で作られたネットブックではなくモバイル
ノートであるべきにょ。
モバイルノートは最初に書いたように量産効果による値下げが難しいために1台当たりの
利益率は多めに確保しているにょ。
そのためそれと比べるならばMacBook Airの方がお買い得度が高いというだけの話にょ。
今回は部品コストの話をしたけど電子機器であれば量産しているものは9月9日に書いた
ように概ね売価の5割程度となっているため実を言うと今回の比較は何の意味も持たない
ものだったんだけどね。
1つだけ言えるのは「部品コスト」で考えるならばベーシックな構成で最も割安であり
追加投資をした場合にはどんどん割安感が失われるということにょ。
祝 開設11周年
当サイト「おちゃめくらぶ」が開設して今日で満11年になったにょ。
11年というと小学1年だった子が高校3年になる年月ということを考えれば長い年月といえる
かもしれないにょ。
「ポケコンサイト」として出発した当サイトも今ではメインはここで書いている雑記が
メインとなってしまっている感じだけど・・・(笑)
そういうわけで、久々のポケコンコーナーの更新をしてみるにょ。
今回は「ポケコンBASICによるアクションゲーム制作講座」からついに初級編がスタート
したにょ。
5ヶ月前に入門編だけ書いて放置状態だったからね。
第1回 http://ww5.tiki.ne.jp/~ochame/E500/LECTURE/action_b1.htm
第2回 http://ww5.tiki.ne.jp/~ochame/E500/LECTURE/action_b2.htm
第3回 http://ww5.tiki.ne.jp/~ochame/E500/LECTURE/action_b3.htm
第1回はこの講座や実際にゲーム作りの基本的な流れについてということで実際は第2回
からが本格スタートにょ。
しかし、第2回を書き始めたら長くなりすぎ・・・ということで急遽第2回、第3回と分割
することにしたにょ。
分割したのは「単に長くなったから」というだけではなく第2回は最初なので完成に重点を
置き第3回はより良くするにはどうするかということに重点を起きたかったというのも
かなり影響しているにょ。
第2回、第3回を読めば私がゲーム作りをしている時にどんなことを考えてるかというのも
分かると思うのでポケコンを持ってない人もぜひ読んで欲しいにょ。
「良いゲームを作ろうと思わなければ良いゲームには絶対にならない」ということを講座の
中で書きたいと思っているにょ。
最高の調理素材を最高技術を持った料理人が調理するというのは素晴らしいかもしれない
けれどそれより技術で劣っても「誰かのために作った料理」というのはいいものである
というのと同じにょ。
この講座はさすがに初級者向けということで技術的には非常に低レベルな内容だけどね。
しかし、「他の講座ではこの内容でここまで書いているものはないだろう」というくらい
懇切丁寧に書いているためたったあれだけの内容でテキストサイズは68KBになったにょ。
これは昨年10周年の時に書いた「E500BASIC高速化のすべて」の60KBを超える量にょ。
当初1回分として予定されたいた「グラフィックを使ったゲームを作ろう」が2回分に分割
するくらいに長くなった(第2回、第3回だけで約60KB)ということを考えるとこれから
先は一体どれだけ長くなるのか・・・。
う〜ん・・・考えたくないかも(笑)
さすがに次の回からはペースを速めるかもしれないけどね。
第4回があるかどうかは反響しだいにょ。
特に反響が無ければここで終わりという可能性もあるにょ。
それかアクションゲーム講座は一旦凍結して他のジャンル(RPGなど)について書くかも
しれないにょ。
とはいえ、ポケコンの需要を考えたらそれも大して変わらないだろうからね。
要は「私が書きたいから書く」という自己満足なので「私が飽きてしまったら終わり」
というだけの話にょ(笑)
ポケコンコーナーといえば、みっぴゅさんから頂いた投稿テクニックも2ヶ月遅れでようやく
掲載したにょ。
http://ww5.tiki.ne.jp/~ochame/E500/TECH/TECH032.HTM
これはmixiのPJコミュでも一時話題となっていた疑似乱数発生についてにょ。
あそこではRND命令のないポケコンで疑似乱数を発生させる方法について議論していたけど
こちらは移植性アップのためのものにょ。
線形合同法を用いているためコンパクトサイズでもそこそこ使えるレベルにはなっている
と思われるにょ。(値次第だけど)
この11周年で変えたのはポケコンコーナーだけではないにょ。
トップ絵も久々に変えたにょ。
トップページは1日10〜20ヒット、この掲示板が1日300ヒット前後ということでほとんどの
人が掲示板に直接入っている(検索エンジン経由か?)と思われるため気づいている人は
ほとんど居ないと思うのでここで書いておくにょ。
http://ww5.tiki.ne.jp/~ochame/CG/ochameclub.jpg
ちなみにこの女の子(おちゃめなこさん16歳)は私の分身キャラでもあるにょ。
私が16歳の時に通称「200万乙女のバイブル」と言われていた某マンガにはまっていて
それを元に描いていたらそれとは全く似てないキャラになったにょ。
それがこのキャラ誕生のきっかけにょ。
話を元に戻すと元のトップ絵は何せ10年前に描いたものだからね。
ザウルスで描いたあの絵を10年間使うことになるとはさすがに思わなかったけど他の絵を
描くのも面倒なのでそのまま放置状態になっていたというだけにょ。
今回はやはりmixiのアイコン絵を描くついでというのが大きかったにょ。
基本的に絵の部分は流用だからね。
ポケコン(PC-E650)もトップ絵だけのためにあそこまで書き込むのはさすがに無理にょ。
最初から流用を考えていたからこそできたからね。
しかし、流用を考えていた割りにはこのトップ絵の縮小前の元サイズは3414×1280という
非常に中途半端なピクセル数になっているにょ。
私が普段描いている絵は縦×横で8M〜10Mピクセルということでサイズ的には全く問題ない
けれどこんな中途半端なものになったのは先にmixiの方を作ったからにょ。
アイコンだけだとサイズは200×200のサイズあれば十分だけど原寸大で作業をしていたら
雑に見えてしまうため縮小した方がキレイに見えるというため編集元サイズはどの程度に
すべきか・・・ということで640×640にしようと考えたにょ。
このサイズはmixiで普通に公開できる最大画像サイズ(これ以上はフォトコーナーでも
専用ビューアが必須になる)からね。
とはいえ公開サイズが640×640だと実際はそれより大きくしないとキレイに見えないと
いうことで結局はさらにその2倍の1280×1280にしたにょ。
さて、このおちゃめくらぶのトップページ用にそれを使う場合どのようなピクセル数に
するかはこの時点でようやく決めたにょ。
VGA解像度(640x480)で横スクロール無しで見れるというのを基本スタンスとしているため
横のピクセル数は640で決定となるにょ。
そうなるとロゴを含めた縦サイズをいくらにするかということで縦横のピクセル数が
決まるにょ。
ここで問題となるのはすでに描いていた「おちゃめくらぶ」のロゴとのバランスにょ。
元はドローデータであり、拡大縮小に関しては問題ないけど画像とのバランスが重要に
なってくるからね。
横640ならば縦は240がいいだろう(ハーフVGAだし)ということとロゴを並べてみて
いい感じになったのでそれで決めたにょ。
しかし、1280(元画像の縦サイズ)は240で割り切れないという問題が起きてしまった
ために縮小時に横640ピクセルとなる3414ピクセルになったということにょ。
それとCGコーナーには知人の誕生日プレゼントとして贈った絵も公開したにょ。
http://ww5.tiki.ne.jp/~ochame/CG/nagato.jpg
ついでにせっかく描いたけど公開してなかった絵も公開したにょ。
ということで、CGコーナーを少し手直しをしたにょ。
http://ww5.tiki.ne.jp/~ochame/CG/DATA.HTM
とはいえ、最近はほとんど他のHNで活動しているし、主なのが18禁ということで最近の
絵はほとんど公開されてないけどね。
10MBという今となっては考えられない容量(10年以上前とサーバの容量が変わってない)
というこのプロバイダ提供のWebサイト用のサーバだけどこの度一気に20MBへと増えたにょ。
「10MBと20MBでは全然変わらねー」という人もいるかもしれないけど私の場合はとっくに
10MBの容量を使い切っており、何かを更新する際には何かを消すということを行って
きたにょ。
何せ空き容量が常時10KBくらいしかなかったからね。
それを考えると一気に空き容量10KBから10MBに増えたので「空き容量」を考えると
「一気に1000倍に増えた」といえるにょ。
これだけあればポケコンコーナーのようにテキスト主体のコンテンツならいくらでも
更新可能になるにょ。(画像主体のコンテンツならばすぐに埋まってしまいそうだけど)
あとは時間とやる気次第か・・・。
「廃棄サイト」はリサイクルの時代がやってくる・・・?
10月31日をもってiswebのサービスが終了したにょ。(ただし、有料会員用を除く)
http://internet.watch.impress.co.jp/docs/yajiuma/20101101_403946.html
恐らく日本でのインターネットの歴史が始まって以来最も大規模なサイト一斉消失事件に
なってしまった今回の騒動だけど話題になっていたのは当事者(iswebを利用している本人)
とその関係者(そのサイトを頻繁に利用する人)くらいであり、直前まで知らなかった人や
無くなってWebニュースになって初めて知ったという人も大勢いた模様にょ。
今回のサービス終了はすでに2ヶ月以上前から告知されていたにょ。
ここでも9月13日にサービス終了の理由について推測してみたけどそれについてもう1度
書くと下記の2点があるからだと思われるにょ。
(1)広告収入が減り無料サービスを維持できなくなった
(2)有料会員が減り、無料サービスの分を維持できなくなった。
これは個人サイト利用者(制作者)が減ったということに加えてiswebではCGIが自由に
使える(サーバの負担が大きくコストがかかる)ことが無料サービスを維持できずサービス
終了につながったのではないかと私は思っているにょ。
Webの無料サービスというのは「広告収入によるビジネスモデル」とフリーの法則にある
ように「一部の有料会員の収入で無料会員の費用を補うビジネスモデル」というものが
存在するにょ。
しかし、この度のiswebのサービスの終了を見るとWeb用のサービスを無料提供するにも
やり方がどんどん難しくなっているのではないかと思われるにょ。
9月19日に書いたように雑誌のような紙媒体であれば有料というのは理解できているけど
実体のないWebサービスは無料サービスが横行しているせいで「Webは無料」という固定
観念が働き有料サービスへ移行する人は極めて限られるだろうからね。
しがって、一部の「有料サービス」利用ユーザーからの収入で「無料サービス」利用
ユーザーの分を分を賄うというのは徐々に困難になりつつありビジネスモデルの変革を
迫られているのではないかと思うにょ。
ただ、「ビジネスモデルの変革」というのは簡単に言うけど非常に難解なものにょ。
ビジネスモデルに関しては7月27日にアニメを例に書いてみたにょ。
昨今非常に多く作られているTVアニメだけど基本的に深夜アニメの場合はDVDなどの映像
メディアを売ることで成り立っているビジネスモデルとなっているにょ。
確かに今世紀に入りDVD再生機器の普及もあってアニメビジネスは大きく成長したけど
それは2006年をピークにパイの大きさ(コンテンツの総売上)は減少傾向にあるにょ。
そのため従来のビジネスモデルでは「制作コストを回収できない」という作品の割合が
どんどん増えているにょ。
その結果、アニメ制作本数も減少傾向にあるにょ。
アニメの場合は、P2Pや違法にアップロードされた動画サイトによる影響が大きいという
のもあるし、さらに言うと人気原作の枯渇化が激しいにょ。
まずは1クール作り、売れたら2期を作るというリスク軽減策をとっている場合が多いけど
アニメが大ヒットした「けいおん」でさえも当初はここまでのヒットは予想できなかった
わけだから1期は1クールのみの制作となったにょ。(制作元の「京アニ」のスケジュールの
都合で1期は1クールになったとも考えられるけど)
何せアニメ化決定前の「けいおん」はコミックスの累計発行部数が(私の記憶では)20万部
程度ということで「まんがタイム きらら」に連載されている作品の中では売れている方
とはいえ三大少年漫画雑誌に連載されているコミックスと比べたら別格に少ないにょ。
「ワンピース」なんてついにコミックスの累計発行部数が2億冊に達したくらいだしね。
http://www.asahi.com/showbiz/manga/TKY201010310319.html
累計発行部数は年数が多い方が有利だし、歴代作品トップとなった「ワンピース」と比較
するのはフェアではないとはいえ、アニメ化前の「けいおん」がすでにアニメ化されている
多くの作品と比べて人気がある(≒売れている)かというとかなり疑問のレベルだった
のは間違いないにょ。
したがって、いくら人気作品を多く手がけている「京アニ」制作とはいえ1期が1クール
だったのは妥当な判断だったと思われるにょ。
「けいおん」ほどのヒットではないけどけいおんと同じ「まんがタイム きらら」系列の
雑誌に掲載され手堅くヒットしている「ひだまりスケッチ」もすでにTVアニメは3期まで
作られTVシリーズ1期ごとにOVA(前後編の2話)も作られるということでそれを合わせると
6期の放送がされているにょ。(OVAもBSで先行TV放送されている)
「売れている作品(原作)が面白い」とは一概には言えないもののアニメ化をする場合には
大きなコストがかかるわけだし、それを回収できる見込みがあるかどうかが重要になって
くるからね。(コスト回収の重要性なんて「アニメ」だけの問題ではなくどんな業界で
あっても同じだろうけど)
このため企画会議でオリジナルやマイナー原作だとアニメ化の企画が通りにくくすでに
ヒットしている作品であれば通りやすいというのが大きな理由ではないかと思われるにょ。
しかし、続編ばかりでは新規ユーザーの開拓は期待できないにょ。
パイ自体が縮小傾向にあるのに新規ユーザーが増える要因があまりないということで、
ビジネスモデルの変革がないと今後厳しい立場になると考えられるにょ。
様々な新しいビジネスモデルが模索されているけどDVDなどの映像メディアのセル以外の
新たなビジネスモデルで成功しているものはないにょ。(アニメの場合は版権ビジネスと
いうのも馬鹿にならないけど版権ビジネスで成功しているのはごく一部の人気アニメのみ)
では、Webはどうなのか・・・?
ネット利用者は新興国では爆発的に利用者が増えているものの国内に関しては増加は
極めて緩やかなものになっているにょ。
パイの増加は「国内に限って」はほとんど期待できないという状況下にあるのではないか
と思われるにょ。
しかし、Webサイトが減るどころは明らかに増加しているにょ。
新規ユーザーがあまり増えず、サイト数が増えるということは1ページ当たりのPVは減少に
向かっていると言えるのではないかと思うにょ。(TVでもBS、CSなどの多チャンネル化が
原因となり、昔と比べて視聴率が全体的に落ちてる)
したがって、PV(ページビュー)による広告収入も減りつつあると予想できるにょ。
これが、Webでは広告のみで無料サービスを維持するにも限界があるのいえるにょ。
HDDなどの単価下落により機器のコスト料金負担は軽くなってきており、通信回線も拡大
されてきているため昔に比べたら大幅なコストダウンが見込まれるため下落傾向のある
広告費でもカバーできると考えられるかもしれないけどWebサイトの肥大化やそれによる
通信量の増加を考えると機器の性能向上や回線幅の拡大は相殺されてしまっていると
思われるにょ。
ネット利用者数が増加は微増になっているためPVによる広告収入が1ページ当たりでは
減少しているとしてもネット通販売り上げというのは年々増加しているためアフィリエイト
による収入は合計からすると増加傾向にあるにょ。
http://journal.mycom.co.jp/news/2010/07/21/034/index.html
http://www.yanoict.com/yzreport/088
しかし、PV減少と同じく1ページ当たりでは下落傾向にあるのではないかと思われるにょ。
そういうことで、多くのPVが期待できるサイト以外は広告収入(アフィ収入)による
ビジネスモデルというのは成立しなくなっていると思われるにょ。
しかし、更新が止まりPVがほとんどない個人サイト(個人ブログ)の場合はその無料
サービスを提供している企業側からすると利益がほとんどない存在といえるけど増大
しているHDDの中での使用量はわずかだし、PVがないということは通信コストの負担がない
ということで無視できる存在だから存続されているというだけかもしれないにょ。
8月15日にはサイト、ブログの運営者が死亡したあとであってもそのサイト、ブログが
残り続けるという幽霊サイトについて書いたにょ。
しかし、iswebの終了をはじめ現在のWebサービスのビジネスモデルを考えると無料サービス
というのはそんなに長くは続かないのではないかと思われるにょ。
ただ、それは1年や2年というスパンではなく5年、10年といった話にょ。
コスト面の負担が大きかったであろうiswebが真っ先にサービスを終了したというだけで
あって他の無料サービスがすぐに無くなるというわけではないということにょ。
ただ、Webの世界で10年というのは非常に長いにょ。
したがって、広告収入に頼るわけではない新しいビジネスモデルが登場するという
可能性がないわけではないにょ。
おちゃめくらぶは昨日11周年を迎えており基本的なスタンスやサイト構成は11年前と何も
変わってないのだけどトップページのヒット数や更新による反応を見る限りはポケコン
ユーザーの大幅な減少は手に取るように感じているにょ。(他のポケコンサイトもとても
活発な状況下とは思えない)
サイトのPVを増やすだけならば流行物を採り上げた方がいいけどそうなると何をやりたい
サイトか分からなくなってしまい中途半端になってしまうのが目に見えているからね。
現在流行っているものの中で私が興味を惹くものに関してはここで雑記として書いている
のでわざわざサイトを作ってまでとりあげるということをしないというだけにょ。
あくまで雑記ということで私が興味のあること(主にPC、モバイル、デジカメのような
デジタルがジェット)を中心に私の考えを書いているというだけのものであるため
私と趣味が重なっている人で私の考えを読んでみたいという人にはいいかもしれないけど
資料的な価値のあるものはほとんどないにょ。
あれこれやるとウリがないけどここでは私は「自分の考えを書く」ということをウリに
しているにょ。
無料サービスによって自分のサイトを持つ自分のブログを持つというハードルはかなり
下げられているため誰でも手軽に始められるようになっているにょ。
しかし、実際始めても「あまり人が来ない」「あまり良い反応がない」など様々な理由で
更新を辞めるという人も少なくないにょ。
これが有料サービスであったら「勿体ない」と感じるけど無料だから止めても損がない
というのが簡単に止めてしまう理由ではないかと思うにょ。
したがって、更新が滞ったサイト、ブログが大量に出ているわけにょ。
そうなると無料サービスを利用している存在が上記のように無視できないレベルになると
いうのは時間の問題にょ。
現在は無料Webサイト、ブログのサービスは基本的に更新がいくら滞っても勝手に消される
心配は無かったため一旦Webとして形に残しておけば半永久的に保存ができた(ヘタをすると
自分のPCのHDD内に残すより保存の安全性は高い)とはいえ、これは将来的には厳しくなる
という可能性があるということにょ。
幽霊サイト、廃墟サイトは無料サービスが生み出した産物だけどWebの世界でもコスト
削減のためにリサイクルが始まる時代がやってくるかもしれないにょ。
実際、大容量スペースを用意しているサービスの中には保存期間を設けているものも
あるわけだしね。
Nanoはもう駄目なの・・・?
ついにデュアルコアのNanoが登場する模様にょ。
http://pc.watch.impress.co.jp/docs/column/ubiq/20101102_404099.html
Nanoは2年前に大々的に登場したものの搭載製品がほとんどみかけることがないにょ。
単に国内では流通していないというだけかもしれないけどそれを使うメリットがあまりない
というのが大きそうにょ。
元々VIAは省電力をウリとしたCPUを作っていたにょ。
Pen3時代に登場したC3は性能こそ同クロックのPen3の半分程度しかなかったけどP6コアは
P5コア(旧Pentium)、P55Cコア(MMX Pentium)と比べて大幅に消費電力、TDPが増大して
いるためその隙間となる低消費電力、低TDPのCPUの需要は十分にあったにょ。
IntelはPen3の後継となるPen4を出したものの高クロック化に舵取りしたために消費電力
増大があり、モバイル向けにはPen3のコアを改良してPen4のCPUバスを使用したPenMが
2003年に登場したにょ。
VIAも2005年にC3にPenMと同等の高速バスを搭載したC7を発表したにょ。
同クロックのPenMの半分程度の性能しかないC7は性能を求める用途では使われることは
無かったけど組み込み需要や小型のUMPCなどで多く使われたにょ。
やはり、低価格であったということが魅力の1つだったからね。
ただし、この低価格、低消費電力(低TDP)というのも2008年に登場したAtomによって
厳しくなってしまったにょ。
Intelの場合はTDPのCPU10W台、もしくはそれ以下のクラスというと(当時は高価だった)
ULVやLVのCPUを使用する必要があったからね。
Atomはインオーダによってコアを単純化し、最新の45nmの製造プロセスで製造することで
1個当たりの製造コストは数ドルという極めて低価格を実現したにょ。
このため数10ドルという低価格で販売しても十分に利益が出せるにょ。(ネットブック用
には概ね20ドル程度で提供されていた)
VIAがまともにシェアを取るならAtomと比べてアドバンテージが必要になるにょ。
最新の製造プロセスは自社Fabを持たないVIAには無理な注文であるためAtomと比べて
性能面で勝るNano(コードネームIsaiah)を発表したにょ。(実際は単に開発の遅れで
Atomより後になったというだけであってC7と比べて性能向上の要求があったからそれを
目指したというだけだろうけど)
Atomは今時のCPUとしては珍しいインオーダなのに対してVIAはC7まではインオーダを採用
していたけどNanoからは他のCPUと同じくアウトオブオーダとなったにょ。
インオーダは命令通りに順番に実行するのだけどアウトオブオーダは一度に複数の命令を
実行するために高速化が期待できる反面、分岐予測のためコアが増大し消費電力も増大
するという問題があるにょ。
したがって、Intelは絶対性能は落ちても電力効率で勝るインオーダを採用したにょ。
というわけで、NanoはAtomよりは性能で上回り、Core2Duoと比べると価格で下回るという
必要性があったからね。
そのNanoが時代の流れでデュアルコアになり、CPUにGPUを内蔵したというのが今回新しく
発表されたNanoにょ。
それでは、このデュアルコアNanoの性能を見てみるにょ。(製品として投入されるのは
2011年第1四半期なのでこのレビューに用いられているものはあくまでサンプル品)
というわけで、上記レビューにおいてネットトップ用のデュアルコアAtom D510(1.8GHz)
と比較したものを抜き出したら下記のようになったにょ。(カッコ内はAtomと比較した
場合のNanoの性能)
デュアルコアNano 1.8GHz Atom D510(1.8GHz)
◎PC MArk05 3165 1980 (+60%)
http://pc.watch.impress.co.jp/img/pcw/docs/404/099/html/graph06.gif.html
◎CINEBENCH R11.5 0.75 0.52 (+44%)
http://pc.watch.impress.co.jp/img/pcw/docs/404/099/html/graph07.gif.html
◎3DMark06 CPUスコア 1139 839 (+36%)
http://pc.watch.impress.co.jp/img/pcw/docs/404/099/html/graph04.gif.html
こうやってみると同クロックのNanoとAtomでは36%〜60%ほどNanoの方がCPU性能が高く
なっているにょ。
これはシングルコアにおいてAtom1.6がわずかにNano1GHzを上回る程度(つまりNanoの
クロックあたりの性能はAtomの1.6倍未満)だったからデュアルコア化したというだけで
コアに大きなてこ入れはされてないものと予想できるにょ。
マルチスレッドに特化したものほどAtomとNanoの差が縮まっているのはやはりデュアルコア
AtomがHTT搭載によって2コアながら4スレッド動作しているのが効いていると思われるにょ。
さて、次はGPU性能を見てみるにょ。
デュアルコアNano 1.8GHz Atom D510(1.8GHz)
◎3DMark06 3DMarks 2050 165 (+1142%)
http://pc.watch.impress.co.jp/img/pcw/docs/404/099/html/graph03.gif.html
3DMark06のスコアを見ると何とプラス1142%(つまり12.4倍)という圧倒的な差でNanoが
勝っているにょ。
これは10月24日にも書いたようにAtom(PineView)に内蔵のGPU(GMA3150)は旧世代の
GMA950からクロックを変えた程度のマイナーチェンジであるということが大きいにょ。
さすがに今となっては性能面では大幅に物足りなさを感じるにょ。
D510はネットトップ用(デスクトップ用)ということでネットブック用のAtomよりも
さらに高クロックのGPUを搭載しているとはいえそれでも歴然とした性能差があるにょ。
もっともこのNanoに内蔵のGPUの性能が高いかというと別にそんなことはないにょ。
AMDやnVidiaのチップセット内蔵GPU、CPU内蔵GPUの方が高いからIntelのGPU性能が低い
というだけの話にょ。
もっともD510に内蔵されているものは上記のように旧世代のものであり最新のIntel
HD Graphicsであればこれより格段に高いとはいえ、それを搭載したノートPCのベンチ
結果を見る限り3DMark06ののスコアは1000〜1500程度であるため最新のIntelのGPUと
比べても高いにょ。
まぁデスクトップ用はCULVノート用よりも高クロックのGPUを搭載しているためそれと比較
すればほぼ互角といえるかもしれないにょ。
省電力では優れるけど性能面では劣るというイメージが強いVIAがIntelの最新GPUと
互角の性能を搭載するというのはなかなか感慨深いものがあるにょ。
しかし、このNanoが登場するのは来年第1四半期にょ。
その頃にはIntelは次世代のSandyBridgeが登場しているにょ。
9月15日に書いたようにSandyBridgeではGPU性能の大幅な性能アップが予定されているにょ。
メーカー発表では何と4倍になるらしいからね。
それを鵜呑みにはできない(ピークでは4倍になるかもしれないけど平均ではそこまで
性能アップはしないという見方をしている人が大半)けど仮に実性能が2倍としても
NanoのGPUを大幅に超えるのは確実にょ。
とはいえ、Nanoが目指しているのはそのようなIntelの最新CPUではないからね。
低消費電力、低TDPがウリだけど実際にどうなのかというと・・・。
デュアルコアNano 1.8GHz Atom D510(1.8GHz)
◎システム全体の消費電力
ピーク時 71.2W 35.6W
アイドル時 34.3W 30.6W
ピークとアイドルの差 36.9W ??5.0W (7.4倍)
http://pc.watch.impress.co.jp/img/pcw/docs/404/099/html/graph08.gif.html
「TDP=消費電力」ではないけど実消費電力においてNano1.8GHzはAtom1.8GHzの7倍となって
いるためこれは比較対象としては相応しくないといえるにょ。
Nano1.8GHzのTDPは25W、Atom D510のTDPは13WということでTDPは2倍なのにここまでの
差が付いた要因は今回のNanoが従来の製造プロセス(65nm)で作られているということが
大きい模様にょ。
確かに40nmで製造すれば低消費電力化は確実だけど理論値でも半減しかしないにょ。
従来のNanoがリーク電流が非常に多く新製造プロセスではそれが大幅に改善されるという
のであれば半分以下になる可能性もあるけど実際は製造プロセスが進めばリーク電流の
割合が増える可能性の方が高いため半分にも満たないと思われるにょ。
したがって、Nano1.8GHzは40nmで作ってもTDPと同じ消費電力(25W)程度ではないかと
予想するにょ。
そうなると低クロックのNanoは別としてこの1.8GHzのデュアルコアNanoに関して言うと
比較対象となりうるのはCULVかもしれないにょ。
今回のベンチ結果を元にして比較するとNano1.8GHzはセレロンU3400(1.06GHz)を少し
上回る程度のCPU性能でしかないからね。(U3400のTDPは18W)
そうなるとVIAがNanoを売っていくためにはCULVよりも安くしなくてはならないにょ。
45nm製造プロセスによってULV(超低電圧)のCPUが量産化可能になった(10月6日に
書いたように低クロックのULVのCPUは選別品ではなくなった)ということで価格も大幅に
引き下げられたからね。
Intelがx86CPUのマーケットリーダーであり、プライスリーダーであるということを
考えるとよほど独自のウリがない限り比較対象となるIntelのCPUと比べて割安感がないと
シェアを奪うのは極めて困難だと思われるにょ。
現時点でこのデュアルコアNanoが消費電力半分になってCULVより安ければそれなりには
売れると思うけど来年の第1四半期では厳しいにょ。
来年の半ばにはSandyBridgeベースのCULVが登場すると予想されるためそれが登場したら
よほど安価でないと売れなくなるにょ。
そうなるとAtom並の価格になってしまうけど確実にAtomよりは高コストであるため厳しい
といえるにょ。
Nanoが時代の流れによってデュアルコア化したのは歓迎したいけど正直言ってNanoを選ぶ
メリットが私には見あたらないにょ。
Llano登場でGPGPUがいよいよ普及する・・・?
昨日書いた次世代のデュアルコアNanoにもCPUにGPU機能を内蔵しているように今後のCPUの
トレンドはCPUにGPU(およびノースブリッジ)の機能を内蔵することにょ。
昔はGPUを内蔵するのはほぼ低価格化のためだけだったけど現在は省電力化と性能向上が
主な狙いとなっているにょ。
その中でも一番の注目はやはりIntelが来年初頭に発売予定のSandyBridgeにょ。
Intelの場合は1年ごとに製造プロセスと新アーキテクチャの導入とという「チックタック
モデル」を導入しているにょ。
ムーアの法則では2年ごとに製造プロセスは√2分の1に微細化(同一ダイサイズであれば
2倍のトランジスタを搭載可能)となっており、2年ごとに新アーキテクチャの導入と
製造プロセスを同時に行うという方法もあるけどそれをせず新アーキテクチャの導入と
微細化の年をずらしているのはリスク軽減のためにょ。
実際新アーキテクチャを導入したPrescottコアのPen4は微細化を同時に行って失敗して
しまったわけだしね。
9月15日に書いたようにSandyBridgeは256bitのAVXを備えているというのが一番のウリだけど
それだけではなくGPU性能も大幅に向上しているにょ。
SandyBridgeは現在のArrandle/Clarkdaleと同じく45nmプロセスで製造されるため大幅な
性能向上は難しいはずだけど現在はCPUコアとGPUが内蔵されているノースブリッジは
同一パッケージ内にあるもののCPUコアが32nm、ノースブリッジが45nmという別々のダイで
構成されているためそれが32nmとなることで実質1世代分の性能向上が期待できるからにょ。
そのSandyBridgeに対抗するべく登場するのがAMDの「Llano」にょ。
http://pc.watch.impress.co.jp/docs/column/kaigai/20101104_404182.html
ダイサイズはSandyBridgeとほぼ同クラスだけど両者を見比べるとその設計思想の違いが
見えてきてなかなか興味深いにょ。
http://pc.watch.impress.co.jp/img/pcw/docs/404/182/html/05.jpg.html
ダイの写真を見るとCPUコア、およびL2に関してはSandyBridgeの方が大きいけどGPUコアに
関しては別格のサイズ差があるにょ。
それもそのはず、LlanoにはGPUはSP数が400程度と予想されているからね。
しかも、SandyBridgeに内蔵のGPUがDirectX10止まりの対応なのに対してLlanoに内蔵の
GPUはDirectX11に対応となっているにょ。
Llanoの「DirectX11に対応」「400sp」というスペックを元にするとGPU性能はRADEON HD5570
クラスと考えることができるにょ。
これは統合型チップセット(およびCPU内蔵GPU)では過去最高レベルの性能になるにょ。
MacBook AirにはSP数48という統合型チップセットとしては現在最強となるGeForce 320Mが
搭載ということで3D性能はIntel製の統合型チップセットと比べて別格の性能を出していた
けれどそれをさらに大きく上回るということにょ。
GeForceとRADEONではアーキテクチャが全く異なるためSP数では性能比較はできない(同一
アーキテクチャであれば性能比較の1つの指標にはなる)ということで同じSP数48となる
GeForce GT220と比較してみるにょ。
http://www.4gamer.net/games/098/G009886/20100208044/
GT220とHD5570を比較してみるとHD5570の方がワンランク上と感じるけどそこまで大きな
差はないにょ。
しかし、いくらAirに搭載さいれているGeForce 320MがGT220と同じSP数48といっても
コアクロックが625MHz→450MHz、シェーダクロックが1360MHz→950MHzと下げられており
何よりノースブリッジ経由でないとアクセスできないというのが大きなボトルネックに
なっているにょ。
http://pc.watch.impress.co.jp/img/pcw/docs/402/484/html/13gpu.jpg.html
Llanoに内蔵されているGPUがHD5570と比べてどれだけ下げられているのか分からないけど
仮に450MHzまで下げられていたとしても最大のボトルネックが緩和されているため320Mと
比べて1.5〜2倍程度の性能になるのではないかと思うにょ。
ローエンドの単体GPUに相当する性能を内蔵したチップセットは過去に多く存在するけど
実際はローエンド以下でしかなかったのに対してLlanoはまさにローエンドGPU並の性能の
GPUをCPUに内蔵しているということがいえそうにょ。
決して高性能ではないけど最新の3Dゲームであっても設定を落とせば普通にプレイできる
レベルの性能はあるからね。(現在の一般的なPC用3Dゲームを普通にプレイしたければ
GeForce 8800GTクラスは必要だからそこまでくるとさすがにゲームをしない人にとっては
オーバースペックになる)
ゲームだけではなく多くのアプリがGPU対応になっているため高性能なGPUはアプリ動作
速度向上にも繋がってくるにょ。
これはWindows普及期(3.1〜95)の頃にGDI性能を競い合って上げていたのに近い状態では
ないかと思われるにょ。
当時はGPU性能(というかGDI性能)で体感速度は大きく変わっていたからね。
AMDがCPUにこれほどまでに高性能なGPUを内蔵する理由はベクトル演算用のためではないか
と思われるにょ。
IntelはSandyBridgeでAVXを搭載したけどAVXはSSEと同じくその新命令を使い、新命令に
対応したCPUでそれを動作時に初めて活用できるからね。
SSEはPen3に初めて搭載されて以降多くのCPUに搭載されており、今となっては必須と
言っても過言ではないものにょ。(というか、今時SSEを非搭載のCPUを現役として使って
いる人の方がほとんどないだろうけど)
しかし、MMXやSSEというSIMD命令はそれのためにPC(CPU)を買い換えるというものではなく
それが搭載されたCPUが普及し対応アプリが増えて初めて価値があるからね。
http://pc.watch.impress.co.jp/docs/2009/0105/hot586.htm
AVXがいくら優れていようと新命令を使わないと性能を発揮できないのであればGPGPUと
比べてアドバンテージは何もないにょ。
では、まずGPGPUはなぜ普及しないのか・・・?
それは対応アプリ作成側の問題にょ。
すでに普及が進んでいるSSEを使った開発環境とは異なりGPGPUとしてはAMDより1歩も2歩も
先を行くnVidiaもまだまだ十分とはいえない状況にょ。
それだけではなくやはり重要なのは当たり前のことだけどGPGPUには対応GPUが必要になる
ということにょ。
GPGPUはDirectX10でようやくまともに機能し始めDirectX11でようやく本格スタートすると
見込まれているけどDirectX11対応のGPUがどれだけ普及しているかということを考えると
GPGPUが普及していなくても当然にょ。
しかも、SSEとは異なりGPGPUの場合はGPUメーカーによって全く設計思想が異なるため
互換性がないという問題(CPUで言えばSSEに対するAMDの3D Nowみたいなものであり両者に
互換性はない)があるからね。
実はこの互換性問題が厄介にょ。
CUDAの場合は基本的に後方互換性が取られているとはいえ完全なものではないにょ。
それにGPGPUの場合は搭載しているSP数も考慮して対応アプリを作る必要があるにょ。
CPUで例えるならばデュアルコア用、クアッドコア用と別々に作るような感じにょ。
CUDAの場合はCUDAドライバで対応しているとはいえパフォーマンスを引き出すのは簡単な
ものではないにょ。
スパコンに多くのGPUを搭載しそれ専用のアプリを作るというのであれば何ら困ることは
ないけどPCに搭載のGPUは仕様が異なるものが氾濫しすぎているため難しいというのが
GPGPUの普及を遅らせている原因ではないかと思われるにょ。
それならばGPGPUを普及させるには一定の性能を持つ同一アーキテクチャのGPUが普及
させれば良いだけの話にょ。
それにはCPUに搭載するのが最も近道にょ。
Llanoは「GPGPUに使えるレベル」(フルに使えばCPUでSIMD命令を実行するより圧倒的に
高速となるレベル)のGPUをCPUに内蔵しているためAVX今からを普及させなくてはならない
Intelと比べて十分アドバンテージがあるにょ。
とはいえIntelのCPUの方が圧倒的に多く売れるだろうから実際はAVXの方が早く普及する
だろうけど同じくGPGPUを進めたいnVidiaにとってはこれはピンチにょ。
確かにGPGPUの現時点での普及率はnVidiaの方が上だけどnVidiaの場合はCPUを作ってない
ために単体GPUを買ってもらわないといけないという最大の問題があるからにょ。
数量ベースで最も売れるであろうチップセット内蔵GPUに関してもIntel、AMDの両者が
GPU内蔵のCPUを販売するため単体GPUのみが頼りになるにょ。
その単体GPUも(旧機種からのアップグレードを除けば)ローエンドの単体GPU並の性能を
持つLlanoによってローエンドGPU市場で厳しくなってしまうにょ。
ミドルクラス〜ハイエンドは金額的には大きくても数量的にはそれほど多くないため
nVidiaはGPGPUの普及においてAMDに追い抜かれる可能性が高くなったと考えられるにょ。
残念ながらAMDのGPUはnVidiaのCUDA対応GPUと比べてGPGPUの使い勝手が良いとはいえない
けど「普及したもの勝ち」だからね。
実際、このシェアは存続においてかなり厳しい状況であるためx86市場では生き残れず
ARMに活路を見いだしているくらいにょ。
http://pc.watch.impress.co.jp/docs/column/ubiq/20100924_395960.html
また、GPGPUにとっては最大の問題はレイテンシにょ。
GPUだけでアプリケーションを動作させることができずCPUとの連携が必須になるわけだけど
これがCPUにGPUが内蔵されることで大幅にレイテンシを減少させることが可能になるため
GPGPUがより効果的に活用(実効性能の向上)できるようになるにょ。
このようにLlanoはCPU性能でIntelに対してやや劣っているため1つのウリとしてGPU性能を
高めたというだけではなく多方向をにらんで強化されたものだと推測されるにょ。
いよいよスマートフォンに乗り換える時期がやってきた!?
ソフトバンクが2010年冬モデルを一斉に発表したにょ。
http://k-tai.impress.co.jp/docs/news/20101104_404277.html
やはり、今回の目玉はAndroid端末を一挙に6機種発表したことと下り最大42MbpsのULTRA
SPEEDの発表にょ。
Ultra SEEDに関しては後から書くとして今回発表されたAndroid端末は下記のものにょ。
◎GALAPAGOS 003SH
http://k-tai.impress.co.jp/docs/news/20101104_404245.html
◎GALAPAGOS 005SH
http://k-tai.impress.co.jp/docs/news/20101104_404247.html
◎DELL Streak 001DL
http://k-tai.impress.co.jp/docs/news/20101104_404254.html
◎004HW
http://k-tai.impress.co.jp/docs/news/20101104_404258.html
◎Libero 003Z
http://k-tai.impress.co.jp/docs/news/20101104_404250.html
◎HTC Desire HD
http://k-tai.impress.co.jp/docs/news/20101104_404536.html
先月auは他キャリアに先駆けて新機種発表会を開いたのだけどその際に力を入れていたのが
スマートフォンだったにょ。
スマートフォンでは他キャリアよりも遅れを取っていたけどワンセグ、おサイフ機能と
いったガラケー要素をスマートフォンにも搭載し「1台目の携帯電話」としてスマート
フォンを広く普及させようというのが伝わってきたにょ。
当然ながらそのガラケー的スマートフォンはソフトバンクでも用意されているにょ。
シャープの端末003SH、005SHがそれに相当するにょ。
やはり、国内メーカー製であるならば国内需要を満たすものを作るということが最重要
課題だからね。
ワールドワイド前提であり世界市場しか見えない海外メーカー製端末ではガラケーを使用
している日本人ユーザーの需要を満たすことは出来ず「自由度の高さを選ぶ」か「便利な
独自機能を選ぶ」かという二者択一方式だったというのがスマートフォン購入の際の
最大の問題点だったにょ。
9月12日に書いたようにスマートフォンを普及させるにはガラケーになる必要があるわけ
だからね。
全ての機種でガラケー要素が取り入れられたというわけではないため「そんな機能は
要らない」という人は単に自由に選べばいいのでマイナスにはならないしね。
小型で安価な004HW、大型5インチ液晶を搭載したStreak 001DLなどよりどりみどりにょ。
今回発表されたソフトバンクのAndroid端末の最大の魅力といえばすべての機種が最新と
なるAndroid OS2.2を搭載しているということにょ。
未だに新機種の中にも国内だと2.1を搭載している端末が多いにょ。
これは国内メーカーおよびキャリアが非常に保守的というのが大きいのではないかと
思われるにょ。
恐らく端末の開発が始まった時点では2.2が正式発表されていなかったから2.1搭載を
前提として進めていてアプリもそれをベースに作ったと考えればやむを得ないにょ。
しかし、Android OSは2.2と2.1は別物といっていいくらい大きな差があるからね。
テザリング機能、Flash10.1に対応などの機能面で多くの違いがあるというだけではなく
JITコンパイラによって動作速度が劇的(2〜5倍)に高速化されているにょ。
これは、アプリに何の手を加えることもなく速くなるということにょ。
簡単に言えばBASICインタープリタからBASICコンパイラになったようなものにょ。
コンパイラによってあらかじめ機械語にしておけば速くなるのはポケコンユーザーだけ
ではなく古くからPCを使っている人であれば強く実感していると思うにょ。
もっとも、2,1搭載機種であっても2.2にアップデート可能であるため大きな問題はない
かもしれないにょ。
ただ、保守的な国内メーカー製端末の場合は公式アップデートには十分な検証の後に
行われるという可能性が高いため時期に大きな遅れが出るというだけではなく検証に
コストがかけられない場合は公式アップデートそのものが取りやめになるという可能性
さえあるにょ。
そのため、現時点で「標準で2.2」を搭載しているということは大きなアドバンテージに
なるにょ。
さて、私は現在使っているケータイ(905SH)は購入後4年余り経過し機能面での不満や
外装がボロくなってきているという問題があり買い換えを検討しているけど「スマート
フォンでは2台持ちになってしまう」という問題があるため1台目として使えるスマート
フォンの登場は非常にうれしいにょ。
そういうことで、今回発表された機種の中で買い換えをするならば筆頭になるのはやはり
005SHにょ。
何度も書いているようにガラケー要素を取り入れているためこれ1台で特に不満がない
からね。
多くのスマートフォンは着信通知ランプさえないため便利なガラケー的スマートフォンと
いうのはそれだけで魅力にょ。
005SHはスマートフォンとしては初(実際は発売日の早い003SHの方が初だけど)の裸眼
3D液晶を搭載しているにょ。
過去に3D液晶を搭載のケータイはいくつか発表されたもののどれも一過性のものでしか
ないにょ。
それはアプリがないからにょ。
Android端末であればSDKさえ用意されればユーザーの手によって3Dアプリを作ることが
可能になるにょ。
そのためガラケーで失敗したからスマートフォンでも失敗するということもないにょ。
しかも、裸眼3Dは年々飛躍的に性能向上しているし、期待のニンテンドー3DS登場により
裸眼3Dというものの訴求力はかなり高まると思われるからね。
それに加えて005SHの場合はQWERTYキーボードも魅力にょ。
ドコモはQWERTYキーボード搭載機種が多く発売されているけどソフトバンクからはほとんど
発売されてない(現行モデルでは存在しない)からね。
私はテンキー入力を非常に苦手としているけど苦手意識があるから余計使わなくなり
いつまで経っても苦手意識を払拭できないにょ。
スマートフォンのフリック入力であればハードウェアのテンキーよりも速く文字入力が
できるとはいえ、それもかなりの慣れが必要にょ。
そういう意味ではやはりQWERTYキーボードの有無の差は大きいにょ。
所詮このサイズのものだからまともに使える代物ではないとはいえ、史上最低レベルの
キーボードだと私が感じているVAIO UXよりはマシだろうから問題はないにょ(笑)
さて、Androidといえばアプリも魅力の1つだけど問題は購入のためのハードルの高さにょ。
App storeで気軽に買えるiPhone用アプリとは異なり、数が多くても玉石混淆だし何より
英語で「ドル」ベースのアプリをクレジットカードで買うということ自体に抵抗を持って
いる人が多いだろうからね。
そのためどのキャリアもAndroidマーケットを独自にキャリア対応する方向にあるにょ。
これによって、「日本語」で「円」を使って購入できるというだけではなくキャリアとの
一括請求となるため課金問題も一気に解決できるからね。
http://k-tai.impress.co.jp/docs/news/20101104_404504.html
さて、この005SHは今のところ特に弱点らしい弱点はないけど一番の問題は発売が来年
2月でありながらULTRA SPEEDに非対応ということにょ。
来年2月からは最大42MbpsのULTRA SPEEDのサービスが開始されるからね。
http://k-tai.impress.co.jp/docs/news/20101104_404519.html
これは最大21Mbpsの回線を2本束ねることで最大42Mbpsを実現するものだけどこの仕様は
イーモバイルと同等のものにょ。
来月からはドコモは次世代となるLTE「Xi(クロッシィ)」をスタートするため現行の
HSDPAを42Mbpsに高速化したこのULTRA SPEEDはLTEまでのつなぎでしかないけどソフト
バンクがLTEを導入するのはまだ先になるため導入が容易なULTRA SPEEDを導入したと
考えられるにょ。
最大42Mbpsに対応するのは一部の地域(当初は東名阪のみ)だけどそれ以外の地域でも
現行のHSDPAの7.2Mbps(もしくは3.6Mbps)で通信可能だからね。
これがLTEだと通信方式が異なるためデュアル端末でないとHSDPAは利用できないにょ。
都市部で生活している人であれば最大42Mbpsに対応したULTRA SPEEDの恩恵は非常に大きい
(実行速度が理論値の5分の1しかでなくても8Mbpsとなる)だろうけど地方住人にとっては
その恩恵を得られるまで相当の時間がかかりそうにょ。
先行して42Mbpsのサービスを開始しているイーモバイルも私の地元(10万都市)では
まだ42Mbpsのサービスエリアは存在しないからね。(隣の県庁所在地である都市では
対応エリアがある)
(A)東名阪→(B)政令指定都市→(C)県庁所在地→(D)地方都市→(E)町村
上記の優先順位でエリアを広げているとすればイーモバイルでようやく(C)の段階という
ことになるにょ。
来年6月の段階で(A)もしくは(B)と予定されているソフトバンクが(D)に達するのはかなり
先になりそうにょ。
LTE導入と重なることによって42Mbpsのサービスは(D)には達しない可能性さえあるにょ。
そう考えれば仮に3年間同じ端末を使うとしても(D)に在住の私にとってはULTRA SPEEDに
対応しないというのはほとんどデメリットがないと考えられそうにょ。
むしろ来年2月まで待てるかどうかというのが大きいかもしれないにょ。
どうしても早く欲しければ姉妹機種である003SHを購入するという手があるにょ。
キーボードはないけど主要スペックは005SHとほぼ同等にょ。(現在分かっている範囲内で
違いがあるのはカメラの画素数が003SHの方が多いことくらい)
003SH、005SHの登場で905SHからようやく機種変更をする時期がやってきたといえそうにょ。
世界最小・最軽量(?)のレンズ交換式カメラ「GF2」発表
LUMIX GF2が海外で正式発表されたにょ。
http://dc.watch.impress.co.jp/docs/news/20101104_404479.html
マイクロフォーサーズは「ミラーがない」カメラということで「一眼レフ」ではないものの
一眼レフ形状を実現しているG1、G2、GH1は小型軽量の一眼レフ風のカメラとして一定数の
ユーザーの支持を得ているにょ。
しかし、「ミラーがない」ということは一眼レフ風のスタイルにする必要はないからね。
昨年6月にオリンパスがE-P1をマイクロフォーサーズ発表しそれに追従してPanasonicは
GF1を発表したにょ。
上位モデルのE-P2、下位モデルのE-PL1が発表されソニーからは世界最小・最軽量を名乗る
NEX-5が登場した中でPanasonicはGF1の1機種だけだったため後継機種の登場を望んでいた
人も少なくなかったにょ。
確かにGF1にはライバルとは異なり高速AF、フラッシュ内蔵というアドバンテージがあった
ためそれをメリットと感じる人であれば魅力的だったにょ。
オリンパスの方はボディ内手ぶれ補正があり、E-PL1は安い割りに良く写る(ローパス
フィルターが弱いため解像感が高く、フォーサーズセンサーとしては高感度ノイズが
少ない)、NEX-5はAPS-Cセンサーということで高感度画質は抜群に優れているけど
基本はオート専用機ということで一応の棲み分けはできていたにょ。
さて、今回満を持して発表されたGF2だけどGF1との主な違いは下記の2点にょ。
(1)フルHD動画に対応
(2)小型軽量化
(1)デジタル一眼も昨今は当たり前のように動画撮影に対応しているけどやはり1つの
ポイントがフルHDか否かということかもしれないにょ。
コンデジでは720pのHD動画がほぼ標準化されて久しい(2年前から急速に普及した)けれど
(コンデジの場合は古くから動画に対応していたのに対して)一眼レフでは動画に対応
したのでさえ2年前からということで今年になってようやく動画対応が当たり前といえる
ようなレベルになったにょ。
コンデジの場合は「お手軽さ」や「レンズ性能の低さ」を考えると720pくらいで問題ない
といえるけど大型センサー採用(APS-Cの3分の2のサイズしかないフォーサーズセンサー
であっても標準的なコンデジの8倍の面積のセンサー)であるデジタル一眼などでは
720pでは勿体ないのではないかと思うにょ。
レンズも1080pのフルHDに十分耐えられる性能を持っているしね。
また大型センサー特有のボケを活かし、業務用のカメラに匹敵するような絵作りが可能に
なるということを考えるとやはり「フルHD」を望んでいる人も多いのではないかと
思われるにょ。
720pとフルHDではコスト面には大きな差はない(コンデジのように1万円台になると
エンコードチップの価格差は無視できないレベルにはなるけど)ということでフルHDに
対応したからコストが高くなるため「720pならもっと安くできるからフルHDは不要」と
いうことも正当性が低いにょ。
また、コンデジでフルHDよりも720pまでの機種が多いのはコストのためだけではなく
家庭用ビデオカメラがフルHDが標準であるためその棲み分けのために行っているというのも
一部にはあると思われるにょ。
要するに「コスト」ではなく製品の位置づけの問題ということにょ。
そういう意味ではコンデジより上のランクに位置するカメラではフルHD対応が当然なの
かもしれないにょ。
(2)小型軽量化とはいうものの従来のGF1と比べてどれだけ小型化、軽量化されたのかまず
比較してみることにするにょ。
幅 高さ 奥行き 本体重量
GF1 119.0mm×71.0mm×36.3mm 285g
GF2 112.8mm×67.8mm×32.8mm 265g
-6.2mm -3.2mm -3.5mm -20g
この差は恐らくぱっと見て「明らかに変わった」と思わせるレベルではないにょ。
しかし、両者を比較すれば十分小型化に気づくレベルではないかと思われるにょ。
GF1が元々無駄がありまくりの設計をしていたなら分かるけどそうでないと思われるため
1年でここまで小型軽量化したというのは十分にすごいことにょ。
固定レンズのカメラとは異なりレンズ交換式のこのようなカメラの場合はあまり小型化
されてもかえって使い勝手が悪くなるため無理な小型化は逆にデメリットになるという
可能性さえあるしね。
さて、ここで問題なのがGF2がレンズ交換式カメラで世界最小・最軽量ということにょ。
スペックを見た瞬間にNEX-5の方が小型軽量だと思ったので念のため比較をしてみるにょ。
GF2 112.8mm×67.8mm×32.8mm 265g
NEX-5 110.8mm×58.8mm×38.2mm 229g
NEX-3 117.2mm×62.6mm×33.4mm 239g
E-PL1 114.6mm×72.2mm×41.5mm 296g
確かにGF2はコンパクトサイズだけどNEX-5と比べたら勝っているのは厚みだけであるため
「世界最小か」と言われたら疑問のレベルにょ。
では、上記を元にした容積で計算してみるにょ。
GF2 ・・・ 250.8立方cm
NEX-5 ・・・ 248.9立方cm
NEX-3 ・・・ 245.0立方cm
E-PL1 ・・・ 343.4立方cm
これは突起部分を含んだ単純計算による容積であり実際の容積ではないとはいえ、GF2が
最小かはこれでは微妙にょ。
では重量を見ると・・・265gのGF2は229gのNEX-5より明らかに重いにょ。
では、GF2の世界最小・最軽量はウソかというとそうではないにょ。
それは「ストロボ内蔵」となっているからにょ。
すべてのレンズ交換式カメラの中で世界最小・最軽量ではなくストロボ(フラッシュ)が
内蔵されている中で最小・最軽量というわけにょ。
フラッシュを内蔵してないNEX-5、NEX-3は除外されるため上記に挙げた機種の中では
E-PL1が比較対象にょ。
それならば元々GF1の時点で世界最小・最軽量だったからそれをGF2でそれを更新しただけ
となってしまうにょ。
ただし、E-PL1はボディ内手ぶれ補正を内蔵しているため(ボディ内手ぶれ補正を内蔵の)
レンズ交換式カメラの中で世界最小・最軽量となってしまうにょ。
つまり、注釈を入れれば世界最小・最軽量というのは1機種ではなくいくらでも存在して
しまうということにょ。(PC-E650は構造化BASICを標準搭載したコンピュータの中では
世界最小・最軽量となる)
とはいえ、そんな些細な差であればそこまでとやかく言う必要もないので気軽に持ち出せる
コンパクトサイズで一般的なコンデジよりも高画質を求めている人には選択肢の1つには
十分なると思うにょ。
私もそのようなカメラは欲しているためE-PL1かNEX-5あたりを購入したいと思っていた
けどGF2も十分候補に入れたいと思うにょ。
個人的にはフルHD動画は無くても良いと考えているにょ。(私の所持PCの中だと再生できる
PCが自作PC1台だけになってしまうため)
だから、動画も720pで撮影するだろうけどそうなるとGF1と比べてメリットが無さそう
と考えられるけど動画がGF1がモノラル音声だったのに対してGF2はステレオ音声という
アドバンテージがあるにょ。
ただ、GF2はGF1と比べてダイヤルやボタン類を減らしたのだけはネックにょ。
タッチパネルに対応しているため操作性でダウンしたとは一概には言えないけど方向性は
変わってしまった(オート寄りになってしまった)からね。
E-PL1もモードダイヤルはあるけど電子ダイヤルがないというのが唯一の懸念材料だった
わけだからね。
それでも、これがコストダウンになっているというのならば歓迎するにょ。
GF1のスタート時の価格より安いアグレッシブな価格に期待したいにょ。
まぁコスト優先の人ならばGF2発表によって「ほぼ底値状態のGF1を買う」というのも悪く
ない選択肢だと思うけどね。
GF1はすでにレンズキットで3万円台になっているショップもあるからね。
高級コンデジを買う気分で買える価格だからGF2発表された今こそGF1を買うチャンスとも
いえるかもしれないにょ。(待っていたら激安店で売り切れて逆に相場が上がりかねない)
iPadは結晶化するのか・・・?
コンシューマ層にはタブレット端末は売れないというイメージを払拭したiPadだけどどうも
最近iPadの売り上げが落ちてきているみたいにょ。
http://pc.watch.impress.co.jp/docs/column/gyokai/20101105_404499.html
これはネットブックのように一過性のものだったせいなのか・・・?
そもそもネットブックの人気が一過性だったということ自体が正しくもあり間違いでも
あると思うにょ。
ネットブックが成功したのは何より「安かった」というのが理由だと思われるにょ。
2台目や持ち歩き用として小型、軽量のPCを求めていた人にとっては高価なモバイルノート
というのはあまりにハードルが高かったけどそれがネットブックの登場で大きく引き下げ
られたにょ。
では、ネットブックはなぜ売れなくなってしまったのか・・・
(1)性能が十分ではない
(2)持ち歩かない
(1)確かにネットブックはWinXPを動作させるには十分な性能を持つけどそれが10月22日の
7発売1周年を最後に提供が終了したため7が必須になったにょ。
7がいくらVistaより動作が軽い(使用メモリ量が少なく、CPU負荷が小さい)とはいえ
XPよりは重いOSであることには間違いないからね。
そして、使用アプリも一般のPCと同じものが使える(使わざるを得ない)ということが
それに拍車をかけているにょ。
アプリは年々肥大化しているし、コンテンツにもマシンパワーを要求するようになって
きているからね。
つまり、ネットブックはPCである以上は時代とともに高性能化していかないと行けなかった
けれど10月18日に書いたようにそれが出来ていないというのが問題といえるにょ。
性能が向上することで買い換え需要も促進できるからね。
性能がほとんど向上してない以上は新規ユーザーを増やすしか販売台数を増やす方法は
無くなるにょ。
ネットブックの場合は3G通信アダプタとセットで1円とか100円とかいう「見た目の価格」を
重視した販売方法により大きく売り上げを伸ばしていったけどこれはネットブックという
商品そのものに魅力を伸ばしたわけではないためすぐに売り上げは終息してしまうにょ。
ネットブックをモバイル環境(3G通信)でフルに活用しているような人であれば通信費
込みで十分に元が取れているだろうけどそうでない人は結果的に割高なことに気が付いた
だろうからね。
ケータイの場合もかつては1円で端末を販売して売り上げを伸ばしていたけどケータイの
場合はモデルチェンジが速く新モデルは旧モデルより明らかに機能や性能がアップしていた
わけだし、生活必需品であるため維持費というものに関して大きな抵抗を感じることは
ないにょ。
しかし、ネットブックは生活必需品の域には達してないし、モデルチェンジをしても
大きな変更がないため買い換えるだけの価値を見いだせないというのが大きいにょ。
現在のPCの売り上げの大半は買い換え需要によるものだからね。
仮にPCにおいて買い換え需要が発生しないとなると必要と感じている層の人が買って
終わりとなるためネットブックにおいて売れ行きが落ちたのは当然と考えられるにょ。
(2)そして、問題は持ち歩く人が少ないということにょ。
多くの人は大抵のことはスマートフォンで十分であり、Windowsに依存した用事を行うと
いう人でない限りはWindows PCを持ち歩く必要性はないからね。
しかも、ネットブックは平均するとB5用紙よりやや大きいサイズで重量は1.2kg程度にょ。
これを普段から持ち歩ける人というのはやはり限られているのではないかと思うにょ。
確かに毎日持ち歩いていればそのうちに「Windows PCが手元にあることで良かったこと」
という場面に出くわすかもしれないけどそれよりも先に「毎日持ち歩く」ということが
苦痛になる人が多いのではないかと思われるにょ。
結局あらかじめ必要になるという場合以外は持ち出すことはなくなるということにょ。
外に持ち出すことが無くてもフルスペックのA4ファイルサイズ、2〜3kgのノートPCよりは
家庭用モバイルにおいて有利なのは事実にょ。
サイズ、重量、形状の問題でネットブックを使うためにはテーブルが必須になるにょ。
テーブルに置いて使うのであれば数100gの重量差は気にならないためWin7が普通に使える
CULVノートという選択肢もあるからね。
また2kg程度なら家庭内モバイルで十分使えるという人は現在使っているノートPCを
そのまま使えば良いわけであってわざわざ3、4万円出して制約のあるネットブックを買う
必要性は何もないにょ。
デスクトップPCしか持っておらず、家庭内モバイル限定で少しでも安いPCが欲しいという
のであればネットブックを買う価値はあるけどそういう人は限られているだろうし、すでに
そういう人はネットブックを入手済みなのではないかと思われるにょ。
つまり、ネットブックが売れなくなったのは性能向上がないから安くてもお買い得感が
薄れてきたことや買い換え需要が発生しないということに加えて普通のPC的活用以外の
活用方法を提示できなかったことにあるにょ。
テーブルに置いてキーボードによって操作するという一般的なPCのような活用方法とは
変えるためのものがタブレット端末であり、ネットブックが普通のPCと競合するのに
あれだけの台数売れたということを考えるとPCとはあまり競合しないタブレット端末で
あればさらに売れるだろうと期待を寄せられているにょ。
しかし、そんなに甘いことはないにょ。
Windowsを使用するSlate PCの場合は10月2日に書いたようにWindowsというOSがタッチ
パネルに特化したものではないということに加えてアプリもそれに特化しているものと
いうのは業務用などに作られた専用品を除くとほとんどない状態だからね。
したがって、Slate PCはWindowsであることがメリットでありデメリットになってしまう
ということになるにょ。
しかし、iPadに用いられているiOSは元々iPhone用に作られたものであり、Mac OSとは
別物のOSであるためOSがネックになることはないにょ。(そのOSが普及前提の話だけど)
これはiPadに限らずどんな新しい製品、商品にも言えるけどまず発売と同時に購入するのは
アーリーアダプターという初期採用者にょ。
これは、「新しいから買ってみよう」という感じの層にょ。
そのアーリーアダプター層の反応を見てから購入するのがアーリーマジョリティー層にょ。
そしてある程度普及してから購入するのがレイトマジョリティー層にょ。
完全に普及してから購入するのがラガード層にょ。
どんな製品であろうとこのような順番で普及していくにょ。
iPadの場合はまずは、「新しい製品」というだけではなくアップルファンという固定
ファンもアーリーアダプターに含まれているにょ。
そのため平均的な製品と比べてアーリーアダプターの割合は多いのではないかと予想
されるにょ。
その初期人気の高さがニュースなどで報道されWebなどでも話題になりアーリー
マジョリティー層が購入するようになるにょ。
そして、現在は普及はレイトマジョリティー層にまで及んでいると推測されるにょ。
上記リンク先の記事にあるように発売日と比べてユーザー層が変化しているというのは
この採用者分布曲線を考えれば容易に説明が付くにょ。
そうなるとiPadの売れ行きが鈍っているというのは当然のことにょ。
採用者分布曲線でいえばレイトマジョリティー層に突入する頃には採用者の普及率50%
以上に達しているからね。
要するに現時点のiPadのパイの大きさの半分以上の人がすでに購入済みということにょ。
つまり、大幅に売り上げを伸ばすにはパイの大きさ自体を大きくする必要があるにょ。
潜在需要があっても現時点の製品の訴求力だけでは限界があるためユーザー拡大のための
モデルチェンジは必須になるにょ。
ネットブックはそれができなかったために売り上げが大幅に落ちたにょ。
iPadは「コンシューマ層には売れない」とされていたタブレット端末において四半期で
400万台以上売っているため現時点で十分成功と言えるレベルだけどその真価が試される
のはやはり来年のモデルチェンジ以降にょ。
現行機種ユーザーがすべて買い換えれば確かにまた十分な成果を上げることになるけど
それでは成功とはいえないにょ。
逆に現行機種を持ってない人が買い現行機種と同じだけ売れれば成功といえるにょ。
しかし、固定ファンのみを重視してしまうとどんどん結晶化してしまうにょ。
結晶化というのは分かりやすく言えばマニア専用となるにょ。
続編になるにしたがってどんどんと「一見さんお断り」状態になってくるアニメやゲーム
と似たようなものにょ。
これはパイの拡大とは逆の方向性であることが容易に理解できると思うにょ。
とはいうもののイメージチェンジをしてしまうと固定ファンが見放してしまう可能性が
あるためシェアそのものが失われてしまうということになりかねないにょ。
そのため新規ユーザーの取り込みに躍起になりすぎるというのも良いこととはいえないにょ。
ネットブックというジャンルで初めて登場した初代Eee PCは安価であるけど7インチWVGA
ということに加えてSSDが4GBしかないということでPCとして使うにはかなり辛いものが
あったにょ。
しかし、8.9インチWSVGAの採用やSSDも8GB、16GBに拡大され普通のPCと同じHDDが採用
されるようになったにょ。
そして、さらに操作性や視認性向上のために10.1インチWSVGA液晶がメインとなったにょ。
CPUなどの性能面では大きな進化はないもののネットブックは登場から1年で大きく変化
してそれが売り上げ(つまりシェア)に大きく貢献したにょ。
ネットブックは従来であればコアなファンのみに支持されていた小型ノートPCをライト
層にまで広げた(つまり、パイ自体を大きくした)というのは良かったけどそうなると
小型ノートPCを求めていた人にとってはどんどん魅力の薄い存在となっていったにょ。
そして、せっかく広がったパイも上記のように買い換えを促進する要素が無くなったため
終息してしまったにょ。(OSやアプリもネットブックに特化しなかったことも終息の
大きな要因となった)
これは例えるならば一部のコアなファンが付いていた声優がより多くの人気を得るために
一般向けのタレントとして活動するようになったけどタレントとして支持されず、元から
いたファンにも支持されなくなったという状態かもしれないにょ。
では、iPadはどうなのか・・・?
これは上記のように現時点で判断を下すことはできないにょ。
もし、下すのであれば「成功」判定しか下せないにょ。
iPadの登場で「タブレット端末に潜在需要がある」ということが分かってもそれを喚起
できるような存在の端末がないと潜在需要は人間の潜在能力と同じく外に現れることが
ないにょ。
その潜在需要をどれだけ引き出せるのかということが今後のiPad成功の鍵になると
思われるにょ。
そのため結晶化することなくいかにコモディティ化するかが重要になってくるにょ。
スマートフォンを知るにはPDA(電子手帳)も知るべし
最近はスマートフォンが高い注目を浴びているけどそれはすでにPDAで一度は通った道にょ。
スマートフォンというのは端的に言えばPDAに携帯電話の機能を備えたものでしかないわけ
だしね。
そんなPDAを集めた展示会が秋葉原でこの度開催される予定となっているにょ。
http://akiba-pc.watch.impress.co.jp/hotline/20101106/etc_mica.html
PDAといっても明確な定義があるわけではないのだけど国内でいえばシャープから発売
された「ザウルス」シリーズが最も高い人気を集めていたにょ。
そのザウルスの元になったのが電子手帳にょ。
それらをアーキテクチャ別に大きく分けたら次のようになるにょ。
(1)80年代 電子メモの時代
(2)1987〜 PA-7000登場
(3)1990〜 DB-Z(PA-9500)登場
(4)1993〜PIザウルス(PI-3000)登場
(5)1996〜MIザウルス(MI-10)登場
(6)2002〜リナザウ(SL-A300)登場
(1)電子手帳の歴史はまさにポケコンの歴史と重なるにょ。
両者とも電卓事業から発展してできたものだからね。
ポケコンが「BASICによるプログラミング」に主体を置いていたためQWERTYキーボードを
搭載し、見た目は電卓からかなり異なるけど電子手帳の元となった電子メモはデータ
バンク機能付き電卓ということで多くの機種が電卓そのままだったにょ。
当初はアルファベットのみだった文字表示もカタカナが使用できるようになり、当初は
電話番号を50件くらいしか記憶できなかったのが搭載メモリ増加によって増えていったにょ。
この電子メモ機能(データバンク機能)はポケコンPC-1246DBにも搭載されているにょ。
逆に電子メモの中にはポケコンのメモリーカードやカセットインターフェイス(CE-124)が
使えるPOCKET DB(PA-500)のような製品もあるにょ。
これを見ても電子メモとポケコンの関係は非常に密なものであったといえるにょ。
(2)やはり電子手帳の本格的な幕開けはPA-7000にょ。
電子メモがおまけ機能を脱却できてなく紙の手帳(スケジュール帳、アドレス帳)の代用が
できるレベルではなかったにょ。
それは漢字が使えないからにょ。
そこで登場したのが初の漢字対応電子手帳のPA-7000にょ。
「電子手帳」と呼ばれる製品はPA-7000以前に多く存在したけど多くの場合は電子手帳の
起源がこのPA-7000を元として考えられているのは「漢字が使える」ということが非常に
重要となるからにょ。
とはいえ、これが誕生できたのも前年にすでに漢字対応ポケコンであるPC-1360Kが登場
していたからにょ。(実際はそれより前に登場していたPC-1600Kが初の漢字対応ポケコン
だけど価格帯も別格である)
ただ、CPU性能不足でPC-1360Kは漢字を表示するだけでももたつきが感じられるため
PA-7000は同じアーキテクチャ(ポケコンと同じSC61860というCPUをベースにしたもの)
であるけどより高クロックにしたものが採用されているにょ。
PA-7000はメモリ搭載量が16KBと非常に貧弱だったとはいえ、これは現在から考えれば
貧弱というだけであって87年当時のポケコンと比較すれば非常に大容量といえるにょ。
何せPC-1360Kはメモリ8KBだったわけだしね。
(3)ポケコンがPC-12/13/14のSC61860からPC-E500のSC62015へとアーキテクチャ変更した
ように電子手帳もCPUを変えてきたにょ。
それはやはり大画面化(192x145ドット)によって従来のCPUでは明らかに性能不足と
なったからにょ。
そうやって登場したのがDB-ZシリーズであるPA-9500にょ。
ただし、SC61860とSC62015はアーキテクチャがまるで異なり互換性がないためアプリの
互換性(当時の電子手帳用アプリはICカードにROMを内蔵して販売されていた)も無くなる
ため両方のCPUを搭載していたにょ。
メモリも当時の最新ポケコンPC-E550と同じ64KBを搭載したにょ。
ただし、大幅なスペックアップは価格に大きな影響を与えたにょ。
PA-7000が定価19800円だったのに対してPA-9500は48000円だったからね。
翌年発売のPA-9550はさらに2倍の128KBのメモリを搭載したけど定価は59000円に達して
しまったにょ。
このDB-ZシリーズでPDAの高性能化が始まったわけだけど言い換えれば高価格化もここから
始まったともいえるにょ。
異端児となるのは92年に登場したPV-F1にょ。
従来のDB-Zとは異なり後のPIシリーズのようなピュアタッチパネル形状でありPIザウルスの
元祖・・・とも考えられるけどアーキテクチャ的にはDB-Zと同じになっているにょ。
しかし、DB-Zより格段に大きいQVGAの大画面に加えてメモリを288KBを搭載したせいか
定価は128000円になってしまったにょ。
(4)「PDA」として考えるならば元祖はこのPIザウルスと考える人も多いかと思うにょ。
PDAには明確な定義がなくアプリの導入が容易な自由度の高い電子手帳という程度のもの
だけどやはり93年に登場したニュートンによってその言葉が広がったというせいも
あるにょ。
しかし、すでにニュートン発売前にシャープはPV-F1を売り出していたからね。
さて、ザウルスシリーズ元祖となるのはPI-3000にょ。
液晶解像度はPV-F1よりも劣る239x168(約1/8VGA)だけどメモリはPV-F1と同じ288KB
搭載し定価65000円とPV-F1の半値まで下げたにょ。
PI-3000はSC62015を搭載している(クロックはPC-E500系より2倍くらい速くなっている)
もののSC61860は搭載していないにょ。
そのためICカードはDB-Z用のものは使えるけどそれ以前の機種向け(2行、4行用)の
ものは使えなくなってしまったにょ。
しかし、サブCPUとしてZ80を搭載しているにょ。
これは手書き認識用として使われているにょ。
このツインCPU構成によってザウルスは低スペックながら快適な動作が実現されたにょ。
(5)テキスト主体の処理であればPIシリーズでも問題なかったけど画像を扱うのであれば
とてもCPU性能が足りず、普及が始まっていたインターネットに対応できなくなって
しまったため登場したのがMI-10(カラーザウルス)にょ。
http://web.archive.org/web/20010218164527/www.sharp.co.jp/corporate/news/960509.htm
ポケコンの進化が止まっていたためこのMIシリーズからはポケコンとアーキテクチャが
完全に変わってしまったにょ。
CPUは32bitRISC CPUであるSH3を搭載し、動作メモリは1MB、フラッシュメモリを2MB
搭載し、カラーTFT液晶を搭載しているにょ。
そのせいで定価は12万円まで跳ね上がってしまったにょ。
従来のPIシリーズはポケコンのようにSRAMを搭載していたため使用中は本体の動作メモリと
記録用メモリは共用であったけどMIシリーズはPCのようにDRAMを用いたため記録用に
別途フラッシュメモリが不可欠になったにょ。(カタログ上ではDRAMとフラッシュメモリ
合算量が記載されている場合が多かったので搭載メモリの割りに記憶容量が小さかった)
これは大容量化を実現するというのと同時に電池交換時(というか電池切れ)の際に
データが消えてしまうという問題を解決するという役割も担っているにょ。
またこれによって本格的なOSを搭載することも可能になったにょ。
大型化したMI-10は「弁当箱」とも呼ばれていたけど翌年登場したパワーザウルスMI-504
では体積、重量ともに一気に4割減らしようやくスーツの胸ポケットに入るレベルの
サイズになりザウルスシリーズは完全にPIからMIへと世代交代が始まったにょ。
http://web.archive.org/web/20010218154956/http://www.sharp.co.jp/corporate/news/970623.htm
DRAMも2MBとなり、これがMIザウルスのベースとなったにょ。(DRAM1MBのMI-10では動作
しないアプリも多い)
DRAMはMI-C1で8MBに拡大されてようやくVGAを超える画像が扱うことができるようになり
(XGAまで扱えるようになった)さらに大きく変わったのが2000年に登場したMI-E1にょ。
http://web.archive.org/web/20010413164807/www.sharp.co.jp/corporate/news/001121-1.html
従来は横型だったザウルスだけど半年前に登場したMI-P10と同じく縦型に変わったという
だけに止まらずMP3やMPEG4の動画再生なども標準で可能になったにょ。
PIM中心だったのがネット中心になりさらに多目的に使えるようになったPDAの象徴とも
いえるモデルにょ。
(6)時代が経つにつれてMIシリーズはOSの設計の古さが目立ってきたにょ。
MIザウルスより後に登場したPalm OSやWindows CEは何度もバージョンアップを重ねて
きたけどザウルスOSはほとんど変わらなかったからね。
そこでOSを一新して登場したのがLinuxザウルス(リナザウ)にょ。
最初に登場したのはSL-A300だけどリナザウの象徴といえるのは同年に登場したSL-C700
だと思うにょ。
ポケットサイズのQWERTYキーボード搭載でクラムシェル型のコンバーチブルスタイルは
まさに私が理想としていたモデルだったにょ。(それにVGA液晶だったし)
http://web.archive.org/web/20021114152121/http://www.sharp.co.jp/corporate/news/021112-1.html
ただ、動作用メモリが32MBでは足りないためもっさり気味だったのとバッテリ駆動時間が
従来機種より短くなってしまったのは難点だったにょ。
それも翌年登場のSL-C750/C760で改善されたにょ。
それ以降CPUの強化や1インチHDD搭載モデルの登場など多くの派生機種が登場したものの
大きな変更をすることなく2006年に登場したSL-C3200をもってザウルスシリーズは終息して
しまったにょ。
それ以降は昨年登場したUbuntu搭載のNetWalkerは成功したとはいえない状況だし、今後
登場するAndroid OSを搭載したGALAPAGOSはどうなるのかというのがはっきり見えて
来ないにょ。
黎明期から現在までシャープ製のPDA(およびその原型)の流れをざっと見てきたけど
時代によって大きく設計思想が変わっているのが分かると思うにょ。
とりあえず、私も手元にあるPDAをいくつか紹介しようと部屋の中を漁ってみたにょ。
見つかったのは下記の4台にょ。(まだ多くの機種が部屋の中に眠っている)
http://ww5.tiki.ne.jp/~ochame/test/pda.jpg
◎ザウルス PI-6500
◎ザウルス MI-E1
◎コミュニケーションパル MT-300
◎Palm m100
PI-6500はPIシリーズの末期(1996年)に登場したものであり完成系に近いものにょ。
http://web.archive.org/web/20010218163959/www.sharp.co.jp/corporate/news/961112.htm
PIシリーズでサポートされているほとんどの機能を持っていながら定価55000円と非常に
安価であったため購入したにょ。(当時はHP200LXとどっちを買うか迷ったけど地元には
HP200LXを置いている店がなかったのと予算の問題もあってPI-6500を選択した)
ただ、本体は安くてもオプションは高かったにょ。
内蔵メモリはSRAMということでポケコンと同じくいつ消えるかドキドキして使う必要が
ある(電池交換を誤るとデータが消えてしまう)ため大事なデータはバックアップが必須
だったにょ。
というわけで買ったのが1MBの専用フラッシュメモリにょ。
1MBで定価13000円(購入時の金額で1万円弱)というのは非常に高価(同容量のスマート
メディアと比べて数倍高価だったけどこれは専用品である宿命だから仕方ない)だけど
プレステ用メモリーカード(128KB)の8倍の容量と考えれば納得できる価格だったにょ。
さらに10年前のPC-1350の頃は8KBのメモリーカードが定価18000円だったからそれを
考えれば1MBは破格の大容量だったにょ。
あと携帯電話接続アダプタによってモバイル環境下にパソコン通信も行えるのだけど
このケーブルが何と定価22000円だったにょ。
あとBASICカード(プログラム関数カード)も買ったのでそれを合わせると定価ベース
では10万円に達したにょ。
MI-E1に関してはすでに上記のような通りだけど携帯電話接続ケーブルはただのケーブル
である(モデム機能はCPUで行っている)ため4500円と非常に安価になったにょ。
MT-300はかつてのポケットボードと同じように携帯電話と接続することを前提とした
ザウルスであり他の通信の選択の余地がないにょ。(赤外線ポートのみ搭載)
その代わり携帯電話接続ケーブルは本体に内蔵されているためコスト面では追加投資が
要らないというメリットがあったにょ。
乾電池が使えるサブ機として買ったものの出番はほとんど無かったにょ。
Palm m100は安いPalmがどれだけ使えるのかということで実験で買ったものにょ。
Palm OS機といえばCLIEも持っていたけど部屋の中に埋まった状態で見つからなかったにょ。
PDAはもうほぼ絶滅状態だけどスマートフォンとして生まれ変わり活気づいているという
のを見ると昔からの流れを見てきた1人としてはなかなか感慨深いものがあるにょ。
PA-7000で漢字表示が搭載されて話題になったように今となっては「搭載されているのが
当たり前の機能」であっても昔はそうではなかったわけだからね。
「温故知新(故きを温ねて新しきを知る)」とことわざにもあるように古いものを知る
ことで新しいものへの理解もより深まると思われるにょ。
Xiは高いのか?安いのか?
ドコモが2010年冬モデルを一斉に発表したにょ。
http://k-tai.impress.co.jp/docs/news/20101108_404838.html
まず注目のスマートフォンに関しては下記の4機種が発表されたにょ。
◎LYNX 3D SH-03C
http://k-tai.impress.co.jp/docs/news/20101108_404869.html
◎BlackBerry Curve 9300
http://k-tai.impress.co.jp/docs/news/20101108_404877.html
◎REGZA Phone T-01C
http://k-tai.impress.co.jp/docs/news/20101108_404870.html
◎Optimus chat L-04C
http://k-tai.impress.co.jp/docs/news/20101108_404874.html
やはり、最後発での発表ということもあり他のキャリアで発表済み端末のキャリア違いと
思わせる端末も存在するにょ。
例えばSH-03Cはソフトバンクの003SHだし、T-01CはauのIS04だからね。
ユーザーからすれば欲しい端末が特定キャリアにしか存在せずその端末のためにキャリア
変更をすることが無くなるというメリットがあるためほぼ同一端末のキャリア違いという
ものは決して悪くはないにょ。
ただ、キャリア違いの端末ばかりになればキャリアにとってはアドバンテージがなくなって
しまうにょ。
iPhoneはソフトバンクからしか発売されてないからこそソフトバンクにキャリア変更を
促す効果があるわけだからね。
もしも、iPhoneが全キャリアから発売されていたら現在自分が使っているキャリアの
iPhoneを買うのがベストなってしまうにょ。
そうなると現時点では国内においてドコモのみの発売予定になっているBlackBerryとL-04C
だけがドコモのアドバンテージとなるにょ。
両方ともコンパクトかつキーボード付きということで悪くない端末にょ。
国内においてはスマートフォンというのは高級志向のイメージが強いためハイエンドばかり
ラインナップしているけど海外ではすでに普及モデルも多く存在するからね。
L-04Cもその普及モデルの1つにょ。
ハーフVGAの液晶、320万画素カメラというのを見てもハイスペックとは思えないし、UIも
初心者を意識したものが搭載されているし、何より価格が一括で1万円台というのを見ても
ハイスペック指向の人向けではないことが分かるにょ。
さて、国内主要3キャリアの新機種発表を見る限りではスマートフォンにおいては
インパクトではau、ラインナップではソフトバンクが1番だったと私は感じたにょ。
auのインパクトが大きかったのは初のガラケー要素(ワンセグ、おサイフ機能等)を
標準搭載したIS03の存在が大きいにょ。
何せIS03は単体で先行発表されたくらいだしね。
ドコモ、ソフトバンクもauと同じくガラケー要素を取り入れたスマートフォンを発表した
けどこういうものは早く発表したもの勝ちと思われるにょ。
最初は「すごい」と感じるけど後になればそれが「当たり前」と感じてしまうからね。
結果的に同じようなスペックでも最初の方がインパクトが大きいということにょ。
ソフトバンクは発表機種数が6機種と一番多いというだけではなく性格や価格帯の異なる
機種も多くバリエーションが豊富というのがまずは大きいにょ。
それに加えて11月5日に書いたようにAndroid OS 2.2を「全機種」に「標準で」搭載して
いるということが挙げられるにょ。
キャリア違いだけのほぼ同一端末であるドコモ「SH-03C」とソフトバンク「003SH」に
おいてドコモが2.1、ソフトバンクが2.2ということを見ると端末メーカーの開発力の違い
ではなくキャリアの考え方の違いというのが大きいことが分かるにょ。
ドコモにおいてもキャリアの依存度が低い海外メーカー製端末の場合は2.2を搭載している
にも関わらず国内メーカーのみ2.1だからね。
これは「安心感」と「先進性、機能性」の二者択一であるためどちらが良いかということが
客観的に判断はできないものの2.1と2.2の違いの大きさと後からのバージョンアップを
前提とするならば私は最初から2.2搭載の方が良いと感じるにょ。
これはPCにおいてOSのバージョンアップによる不具合よりも(新しいOSに対応するため)
ソフトウェアのバージョンアップによる不具合の方が少ないというのもあるし、明らかに
優れているOSならば最初から搭載しているに越したことがないからね。
ドコモの発表会はスマートフォンよりも注目度が高いのがやはり次世代のLTEによる
サービス「Xi(クロッシィ)」だと思うにょ。
http://k-tai.impress.co.jp/docs/news/20101108_405496.html
Xiは12月24日より正式に開始するにょ。
下り最大37.5Mbps、上り最大12.5Mbps(一部エリアでは下り最大75Mbps、上り最大25Mbps)
ということで従来のHSDPA(下り最大7.2Mbps)よりも圧倒的に高速なデータ通信が可能に
なっているにょ。
このXiに対応した通信アダプタも2端末発売予定になっているにょ。
http://k-tai.impress.co.jp/docs/news/20101108_404848.html
http://k-tai.impress.co.jp/docs/news/20101108_404861.html
両者ともFOMAエリア内であればXiのような速度は出ないものの通信ができるにょ。
最大37.5Mbpsという速度は先日ソフトバンクが発表した最大42MbpsのULTRA SPEEDと比べて
アドバンテージがあるようには思えないにょ。
もっとも、実効速度の面では変わってくる(原理的にLTEであるXiの方が有利)だろうけど
新サービスの割りに従来サービスの拡張版と比べてカタログ値に大きな差がないのでは
普及は厳しそうにょ。
FOMAでULTRA SPEEDのような最大42Mbpsのサービスを開始したらXiの普及が遅れてしまい
そうだけどドコモの場合はHSDPAでは最大7.2Mbpsであるためそれと比べるとカタログ値で
約5倍となっているからXiを利用しようとする人は多いと思うけどね。
現在は通信端末2機種のみのXiだけど来年以降は徐々に標準化してくると思われるにょ。
ただし、エリアの方は標準というにはほど遠い状況にょ。
スタート時に東名阪のみというのは仕方ないことだけど2014年度でカバー率70%という
のを見るとFOMAスタート時と比べてかなり普及は遅いにょ。
東名阪を完全にカバーできればそれだけで人口カバー率は6割を超えるため政令指定都市
レベルをカバーすれば7割に達するにょ。
地方の人口10万都市レベルをカバーしようと思えばカバー率9割くらいが必要になるにょ。
たまたま大都市圏に近い都市ならばいいけど大都市(100万人都市)が近くにない場合は
私の地元のように非常に遅れるからね。
最近になってようやくイーモバやWiMAXがエリア内に入ったレベルの地方都市にとっては
Xiがカバーされるのはかなり先(少なくとも2014年以降)であり、地方と都会の通信
インフラの差が再び開くことになるにょ。
さて、問題は料金にょ。
いくら速くても高価では魅力が薄くなってしまうからね。
縛りのない「Xiデータプラン」は3.1MBまでが2470円、20.18MBまでが1KB当たり0.315円
加算、5GBまでが7985円で5GB以降は2GBごとに2675円加算となっているにょ。
これが、2年契約の「Xiデータプランにねん」では、3.1MBまでが1000円、20.18MBまでが
1KB当たり0.315円加算、5GBまでが6510円で5GB以降は2GBごとに2675円加算となっているにょ。
つまり、上限のない青天井ということにょ。
5GBごとの上限設定も可能であるため青天井が怖いならばそれを利用するといいにょ。
ただ、来年4月30日まではキャンペーン価格ということで上限が6405円(二年契約だと
4935円)になっているにょ。
上記をまとめるとこのようになるにょ。
〜3.1MB 1KB単価 〜5GB 2GB単価
Xiデータプラン 2470円 0.315円 7985円 2675円
Xiデータプランにねん 1000円 0.315円 6510円 2675円
さて、この料金は高いのか?安いのか・・・?
通信量 Xiデータプラン Xiデータプランにねん FOMA定額テータプラン(2年契約)
10MB 4695円 3224円 3440円
30MB 7985円 6510円 5985円
100MB 7985円 6510円 5985円
300MB 7985円 6510円 5985円
1GB 7985円 6510円 5985円
3GB 7985円 6510円 5985円
10GB 16010円 14535円 5985円
同じ2年契約同士を比較すると下限は1000円なのに10MBのみXiの方が安価になっていることが
分かるにょ。
これはパケット単価が安価であるためにょ。
FOMAが1パケット(128B)で0.042円であり1KB単価は0.336円だからね。
Xiは1KB単価が上記のように0.315円であるためFOMAより若干割安になっているにょ。
それだけではなく下限の1000円で可能な通信量もFOMAの場合は23825パケット(2978KB)
なのに対してXiは3177KBとなっているにょ。
つまり、あまり通信しない場合はXiの方がFOMAよりも割安といえるにょ。
Xiが割高になるのはFOMAよりも上限設定が高いせいであり19002KBを超えるとFOMAの
5985円よりも高価になってしまうにょ。
つまり、FOMAより安くしたいからXiを選ぶと言う人はデータ通信量を19002KB以下に抑える
必要があるにょ。
しかし、せっかくの高速データ通信であまり通信をしないというのは使う意味がほとんど
ないにょ。
実効10Mbps出るならば月間15秒しか通信できないわけだからね(笑)
というわけで、速度に似合うだけのコストアップかどうかが分かれ目となるにょ。
ある程度通信する人であればFOMA定額データプランは上限の5985円に達していると思う
ためそれと比較してみるにょ。
すると月間525円が高速データ通信に似合うかどうかということになるにょ。
これは人にもよるけどこれならば「十分にあり」と考えている人は多いかもしれないにょ。
価格からすればモバイルWiMAXの方が断然有利とはいえ、Xiのエリア外であっても多少遅く
なるものの全国をカバーしているFOMAで通信できるというのは魅力になるからね。
ただ、問題になるのは大量通信している人の場合は差額が「525円」では済まない可能性が
あるということにょ。
上記のようにキャンペーン期間が終了すれば料金は青天井になってしまうからね。
すると自分の通信量をある程度把握する必要があるにょ。
ドコモの資料ではFOMA使用者の99.6%が月間5GB以下だから青天井であってもほとんどの
人が気にする必要がないらしいけど実際はそうではないにょ。
それは通信が速くなれば通信量は増すからにょ。
AIR-EDGEを使用していた人がイーモバイルに以降する際に月間データ通信量が1GBを
超えたことがないからAIR-EDGEの「使い放題」3880円とほぼ同価格(新にねんで3980円)の
ギガデータプランにした場合には通信速度が速くなっているため使い方そのものが変わる
ために通信量が増してしまい結果的に上限である5980円に達してしまい割高になりかねない
という罠があるにょ。
これはモバイル通信だけではなくナローバンドからブロードバンドに移行した際や
ADSLからFTTHに移行した際にも「通信速度の変化によって使い方が変化した」という
経験をした人が多いのではないかと思うにょ。
それと同じくFOMAらXiに変えた際に使い方が変わらなければFOMA5GB以下に抑えられて
いた場合はXiで5GB以下に抑えられるけど使い方が変わればそれは正しくないというのが
分かると思うにょ。
それに帯域制限の問題から5GB以上通信が難しいだけ(3日で300万パケット≒366MBの
通信を行うと規制対象になるため月間3.7GB以上の通信を行えば確実に規制対象になる)
というのもあるにょ。
もっとも、この規制対象の条件がXiもFOMAと同等であるならば同じく5GB以上の通信が
難しくなってしまうけどね。
Xiは悪くはないけど1万円くらいに上限設定して欲しかったのと地方への普及に時間が
かかりそうなのが難点にょ。
これはライバルとなるキャリアの今後の展開次第で変わってくると思うにょ。
FOMA定額データプランも導入当初と比べたら安くなったわけだしね。
しかし、他キャリアがドコモの料金を参考に料金設定をした場合には同じく青天井と
なってしまいかねないという可能性がないわけではないにょ。
そのためにも3Gにおけるイーモバイルのような意欲的な価格設定のキャリアが登場が
待たれるにょ。
K-5はAPS-Cデジタル一眼の最高モデルなのか・・・?
ペンタックスK-5のレビューがようやく公開されているにょ。
http://dc.watch.impress.co.jp/docs/review/newproduct/20101110_405733.html
K-5はK-7の上位機種扱いだけど実質後継機種となるにょ。
私は現在K200Dを使っている関係上このK-5は気になる存在だけど実際K200Dを使っていて
画質そのものに不満を感じることはないにょ。
画素数もK200Dの1000万画素で不足に感じたことは一度もないしね。
ただ、K200Dの不満なところといえば高感度時における画質とAF速度、連写性能にょ。
何せ最高設定がISO1600までだし、常用できる(A4プリントに耐えられる)のはISO800
くらいまでだからね。
これは同世代(2008年発売機種)の他メーカーの機種と比べて大きく劣り、手元にある
もう1台のデジタル一眼のニコンD50(2005年発売機種)と同レベルのものにょ。
AF速度に関してはD50よりも劣り、連写速度はD50と同レベルだけど連写可能枚数はD50
よりも劣るにょ。
これがK-7ならばAF速度と連写性能は若干改善されているものの高感度画質においては
K200Dと大差ないレベルでありK-7に買い換えても「ペンタプリズムファインダー」で
MFがしやすいというくらいのアドバンテージしかないにょ。
そういうことで買い換えるに値するレベルの性能がK-5にあるのかと言うことが重要に
なってくるにょ。
ということで、高感度時の画質を見ることにするにょ。
その前に参考として低感度の画質を見ているにょ。
◎ISO100
NR OFF http://dc.watch.impress.co.jp/img/dcw/docs/405/733/049.jpg
ただ、これは標準のキットレンズの性能が低いためそれほど良いとはいえないにょ。
このDA18-55mm AL WRは基本的な光学性能はK200DのキットレンズのDA18-55mmALIIと同じ
だからね。
1000万画素のK200Dで使用時でさえ微妙であるため1600万画素のK-5ではかなり厳しい
(レンズがボトルネックになっている)と思われるにょ。(補正なしで撮影しているため
色収差も非常に目立つということでよりレンズ性能の低さが際だってしまう))
それとF16という絞りも問題にょ。
これは超高感度でのテスト撮影をするため絞るのはやむを得ないとはいえ、F16では回折
限界を超えているため解像感を見るにはあまり相応しいものではないにょ。
したがって、このレビューで正当な判断が下せるのは「高感度時の画質のみ」という
ことになるにょ。
というわけで、高感度(ISO800〜6400)の撮影サンプルを比較してみるにょ。
◎ISO800
NR OFF http://dc.watch.impress.co.jp/img/dcw/docs/405/733/052.jpg
NR 弱 http://dc.watch.impress.co.jp/img/dcw/docs/405/733/063.jpg
NR 中 http://dc.watch.impress.co.jp/img/dcw/docs/405/733/074.jpg
NR 強 http://dc.watch.impress.co.jp/img/dcw/docs/405/733/085.jpg
◎ISO1600
NR OFF http://dc.watch.impress.co.jp/img/dcw/docs/405/733/053.jpg
NR 弱 http://dc.watch.impress.co.jp/img/dcw/docs/405/733/064.jpg
NR 中 http://dc.watch.impress.co.jp/img/dcw/docs/405/733/075.jpg
NR 強 http://dc.watch.impress.co.jp/img/dcw/docs/405/733/086.jpg
◎ISO3200
NR OFF http://dc.watch.impress.co.jp/img/dcw/docs/405/733/054.jpg
NR 弱 http://dc.watch.impress.co.jp/img/dcw/docs/405/733/065.jpg
NR 中 http://dc.watch.impress.co.jp/img/dcw/docs/405/733/076.jpg
NR 強 http://dc.watch.impress.co.jp/img/dcw/docs/405/733/087.jpg
◎ISO6400
NR OFF http://dc.watch.impress.co.jp/img/dcw/docs/405/733/055.jpg
NR 弱 http://dc.watch.impress.co.jp/img/dcw/docs/405/733/066.jpg
NR 中 http://dc.watch.impress.co.jp/img/dcw/docs/405/733/077.jpg
NR 強 http://dc.watch.impress.co.jp/img/dcw/docs/405/733/088.jpg
どこまでなら使えるかというのは各自の使用方法や判断基準によって変わるため自分の
目で確かめて欲しいにょ。
個人的にはISO1600なら問題なし、ISO3200も使えるレベル、ISO6400はA4プリントでは
厳しいと感じるレベルにょ。
K-5は感度毎にNRが選べるというのが最大の強みとなっているにょ。
http://dc.watch.impress.co.jp/img/dcw/docs/405/733/html/021.jpg.html
ISO800くらいだとNR OFFで十分と感じるだろうし、ISO6400くらいになるとノイズが目立つ
ためNRは中〜強くらいにしておくという感じの使い方ができるにょ。
他の機種ならば全ての感度において共通となるためNRの強弱を使い分けるというのは
事実上できなかったにょ。
さて、そのNRだけどどうもイマイチ感があるにょ。
では基本的に同一のセンサー(チューニングをしているため完全に同一ではない)を使用
していると思われるD7000と比較してみるにょ。
http://dc.watch.impress.co.jp/docs/review/longterm/20101109_405647.html
◎ISO800
NR標準 http://dc.watch.impress.co.jp/img/dcw/docs/405/647/007.jpg
◎ISO1600
NR標準 http://dc.watch.impress.co.jp/img/dcw/docs/405/647/008.jpg
◎ISO3200
NR標準 http://dc.watch.impress.co.jp/img/dcw/docs/405/647/009.jpg
◎ISO6400
NR標準 http://dc.watch.impress.co.jp/img/dcw/docs/405/647/010.jpg
被写体も露出もまるで異なるため比較するのは厳しいけどピントが合っている手前の
葉の部分を見るとD7000のNRはノイズを除去できておりディティール損失が目立たないという
ことで悪くないけどK-5の場合はノイズ除去も不十分で単にディティール損失するだけと
いう感じがしなくはないにょ。
これはレンズ性能の問題に加えて絞りをF16にしてしまったため回折現象によって全画面が
若干ピンぼけ状態になったことが原因ではないかと予想されるにょ。
D7000の作例でも背景部分(ピントの合ってない部分)はNRによって大幅にディティール
損失しているからね。
今回のレビューだけを見てみるとK-5の高感度画質は思ったほど大したこと無いという
イメージの人もいるかもしれないけどこれはたまたま作例が悪かったというのが大きい
かもしれないにょ。
それでも、NR無しを見てみるとAPS-CでISO3200でここまで低ノイズな機種は過去にないと
思われるにょ。
これは単純にセンサーの性能が高いというだけの話だけどね。
NRがイマイチなのは今後に他所(国内大手サイト)でレビューが公開されたらそれとまた
比較してみるにょ。
今回のレビューでは予想よりやや下だったK-5もK-7と比べたら明らかに高感度画質で優れて
いるにょ。
私の個人的な感覚だとK-7はISO1600でギリギリであり、ISO3200はA4でさえ使えないレベル
だったからね。
そう考えるとK-5は十分に私の要望を満たすデジタル一眼といえるにょ。
それにペンタプリズムファインダーもピントの山が掴みやすいみたいなのでK200Dでは
厳しいMFのレンズやAFでピントを合わせた後の微調整(純正レンズであればAFに設定して
いても設定を変えることなく合焦後にMFでピント合わせが出来る)ができるからね。
sengoku38氏が受けるべき罰
ニュース等で知っている人も多いと思うけど尖閣諸島沖で中国漁船と海上保安庁の巡視艇が
衝突事故を起こした映像をYouTubeに流出させたsengoku38氏が名乗り出たにょ。
http://headlines.yahoo.co.jp/hl?a=20101110-00000002-jct-soci
やはり、予想通り内部流出によるものにょ。
さて、逮捕されたとしても果たしてどのような罰が下されるのか・・・?
8月6日の「タコイカウィルス」のときにも書いたように私は個人的にはその罪に応じた罰を
科すべきだと感じているにょ。
では、一体どんな罪に問われるのか・・・?
「国家機密を漏らした」から重罪と考えている人も多いかと思われるにょ。
しかし、「国家機密」というのは、法律に基づき政府が公表しない事実を指すにょ。
国家機密であれば国会で議員相手に公開するというのはあり得ないし、何の法律に基づいて
例の映像が国家機密となっているのか不明であるため「機密」ではなく「秘密」と書いて
いくことにするにょ。
国家公務員には国家公務員法第100条で定められた守秘義務があるにょ。
その職務上知り得た秘密を外部に漏らすことはできないにょ。
ここで問題となるのは「秘密」とはなにかにょ。
「官僚が秘密といえば秘密に決まっている」という安易な物ではないにょ。
1977年の最高裁の判例ではこのようになっているにょ。
http://www.courts.go.jp/hanrei/pdf/js_20100319115840703030.pdf
>国家公務員法一〇〇条一項の文言及び趣旨を考慮すると、同条項にいう「秘密」である
>ためには、国家機関が単にある事項につき形式的に秘扱の指定をしただけでは足りず、
>右「秘密」とは、非公知の事項であつて、実質的にもそれを秘密として保護するに
>価すると認められるものをいうと解すべき
つまり、形式的に秘密扱いするだけでは不足であり、守秘義務に相当する情報というのは
下記の2点を両方満たす必要があるにょ。(「部外秘」の判子だけ押された資料はそれで
秘密資料になるわけではなく内容が秘密でなければ法律上は秘密資料にはならない)
(1) 一般人が知らない事実
(2) 秘密として保護するべき事実
それぞれを順番に検証してみるにょ。
(1)一般人が知らない事実かどうかというのはかなり微妙にょ。
もしもその「事故内容そのものが秘密」というのであれば国会で見てその映像がどんな
ものであったかということに対して具体的に述べていた議員全員が守秘義務違反となって
しまうにょ。
すでに中国人漁船が海上保安庁の巡視艇に衝突したということは少なくとも日本国民に
とっては周知のことだからね。(中国側は日本側が衝突してきたと説明している)
ただし、実際にはその映像が公開されていないため「一般人が知らない事実」に相当する
と解釈する人もいるかもしれないにょ。
例えるならば交通事故で防犯カメラが捕らえた映像のようなものにょ。
事故があったという情報を国民が知り得たとしても映像が公開されてなければその映像
時代は秘密情報となってしまうからね。
すると内容ではなく「映像そのものが秘密」という解釈ができるにょ。
では、この映像は元々どこから漏れたかというと海上保安庁が独自編集して制作した
研修用ビデオにょ。
するとこの研修用ビデオが「秘密」に値するかどいうことだけが焦点になるにょ。
このビデオは職員であれば誰もが見ることが出来たため不正な手段で入手したというわけ
では無さそうだしね。
ただ、2001年に奄美大島沖で起きた海上保安庁と北朝鮮の不審船との銃撃戦や沈没した
事件に関しては海上保安庁側がその様子のビデオを一般公開しているにょ。
それを踏まえて考えると今回のビデオが「秘密」に値する情報とは言いにくいものだと
思われるにょ。
それに、中国人船長がすでに無罪で釈放されたということを考慮すれば「事件性はない」と
判断されるため捜査上の資料にもならないにょ。
それと今回の映像が本当に「秘密の映像」であるとすればTVで放送したTV局も何らかの
罪に問われなくてはならないと考えている人もいるにょ。
「秘密の映像」というのがあらかじめ分かっていたわけだから本来であればモザイクを
かける必要があったのにそれをしなかったわけだからね。
これは「公務員にとって秘密であってTV局にとって秘密ではない」と考える人もいるけど
YouTubeで公開されていた映像とはいえ出所は明確であるため放送の許可を得る必要性が
あるにょ。
当然「秘密の映像」と認識しているため許可なんて下りるはずがなく無許可で放送したのは
明白といえるにょ。
「YouTubeにある映像は一般公開されているものであるため自由にTVで放送しても良い」
ということが正しいとはいえないのは誰でも分かることにょ。
放送しても「良い映像」と「駄目な映像」があるわけだからね。
それが分からないのであれば自局で放送された映像がYouTubeで無断公開されていても文句
(削除依頼)が言えないにょ。
ただし、「報道の自由」と「知る権利」があるためそういう単純なものではないにょ。
「報道の自由」という観点からすると仮に「秘密の映像」であっても国民に対して報道
すべきものであればTV放送するにあたって問題はないし、「知る権利」という観点から
するとその映像を秘密扱いすること自体に問題があると言えるにょ。
上記の例で挙げた事故の映像でいうならば電車の脱線事故、飛行機の墜落事故などの
事故原因を「知る権利」があるわけだからね。
事故が起きたけどその原因を隠すために証拠映像を秘密扱いにするというのは無理という
ことにょ。
つまり、これは一般人が知らない事実、言い換えれば「秘密の映像」には値しないのでは
ないかと思われるにょ。
(2)それでは秘密として保護しなくてはならない事実かどうかを考えてみるにょ。
外交に配慮してなかなか公開には踏み切らなかったのだけど実際は中国側は「日本の船が
中国の漁船にぶつけてきた」という認識を持っている人が多いため公開しないことで
その認識を余計に強めることになってしまったにょ。
それに起訴予定だった中国漁船の船長を不起訴で釈放してしまったのでさらにその認識が
強まったにょ。(中国側からすれば「日本側が過失を認めた」というだけ)
つまり、この映像をあえて非公開にすることで日本側にはデメリットはあるけどメリットは
何もないということが言えるわけにょ。
確かに非公開(日本側が過失を認めたと中国側に理解させること)によって一時的には
中国の反日を抑えることはできるけどそれは長期的に見ればマイナスになるにょ。
「何をしても許す」というのは友好関係を深めることとはとても言えないにょ。
これは個人同士のやりとりで考えれば容易に理解できると思うにょ。
何をしても許してくれるような人は友人でも何でもないにょ。
悪いことは悪いとちゃんと言えるのが友人関係というものにょ。
それと同じく「日本は何をしても許して貰える」というのを植え付けることはとても
国益にはならないにょ。
これは重要な証拠であるため「外交カード」としてとっておくべきだったという弁護士の
人もいるにょ。
http://ameblo.jp/y-ta2law/entry-10703324528.html
しかし、船長を釈放(無罪)にしてしまったためそのカードはもはや外交カードとして
何の価値もないといっても過言ではないにょ。
これも個人同士のやりとりで考えれば容易に分かると思うにょ。
AさんがBさんに対して悪事を働いたとし、その証拠をBさんが握っているという中でAさんの
悪事を許してしまった場合を考えてみるにょ。
後になって証拠を出して「あのときこんな悪いことをしただろ」と出すのは交友関係を
余計に悪化させるのは目に見えているからね。
許してしまった時点でもう駄目ということにょ。
Bさんの方が圧倒的に強い立場にいる人であれば「許した」という事実を無効化しその
証拠によってさらに優位に立てるけど日本が中国に対してそこまで優位な立場にあるとは
到底思えないにょ。
したがって、後になってから切り札になるような映像では全くないにょ。
さて、この映像は当初は「国家機密」でも何でもなかったのにそれが急に変わってしまった
のは中国人船長を不起訴にしたことによるにょ。
端的に言えば「故意にぶつけたという事実」を隠蔽するために行ったと考えられるにょ。
確かにこの映像がもしも一般公開されていたら不起訴で釈放というのは日本国民側から
すれば誰の目からしてもおかしいというのが分かってしまうからね。
かといって、一旦釈放してしまったものはどうしようもないためぶつけたという事実を
隠さざるを得ないということになってしまったのではないかと思われるにょ。
では、これがもし一般企業であるならどうなのか?
役員連中が不正なことを行いそれを隠そうとするのを知ってしまった際にそれを外部に
漏らすこと・・・つまりは内部告発と考えられるにょ。
内部告発であれば2006年から施行されている公益通報者保護法によって告発者は法で
守られるべき存在といえるにょ。
国家公務員には守秘義務があるため外部に通報する時点で国家公務員法違反になって
しまうわけだけど内部告発の場合は守秘義務には相当しないため問題はないにょ。
ただ、今回の映像流出は内部告発とはいえないにょ。
内部告発は所定の行政やマスコミに対して行うべきものだからね。
YouTubeはマスコミではないし、内部告発として公開しているわけではなく単に映像を
断片的に公開しているだけであるため内部告発としてその個人を保護するのは無理にょ。
要するに自分でサイトを立ち上げたり最近だとtwitterを使いそこで暴露するのと何ら
変わりないということにょ。
twitterで暴露するというのは正当な内部告発ではないということは簡単に分かるのでは
ないかと思うにょ。
これがYouTubeではなくちゃんと手続きを行ってからの内部告発として公開するであれば
仮にこの映像が秘密に値するものであっても問題はなかったはずだけどね。
しかし、マスコミは必ずしも正しい報道をしているとは言い難いにょ。
時として間違っている情報を流し続けることもあるからね。
未だにアニメ、ゲームが原因として発生したという事件を耳にする機会も多いけどアニメ、
ゲームと事件との関連性はほとんどの場合は皆無となっているにょ。
「パンは危険な食べ物」と同じで偏向した報道はかえって逆効果だからね。
そういう認識があったため事実のみが伝えられるYouTubeを選択したのかもしれないにょ。
このsengoku38氏は人によっては「国家の秘密を漏洩した極悪人」という人と「国民に
真実を伝えた英雄」という人に分かれているけど私はどっちでもないと考えるにょ。
私の意見をまとめるとYouTubeに流出させたのは問題だけど国家公務員法第100条の
守秘義務には違反しないということにょ。(例えるならばまだ未公開の最新アニメ、
ゲームの資料を関係者が2chにうpして「うp主は神」と言われているような人と同じ
ようなレベル)
YouTubeに社外秘に相当する研修用ビデオを流出したわけだからそれに応じた罰を受け
なくてはならないにょ。
減給処分は覚悟する必要がありそうにょ。
電話の前にメールをする!?
90年代後半から急速に普及したケータイだけど全キャリア合算だと国内だけで1億契約を
超え20〜60歳であればほとんどの人が持っているのではないかと思われるにょ。
そんなケータイだけど普及しているが故に場所・時間などを構わず電話をするということが
増えてしまったにょ。
そういう状況下のためか、「電話をかける前に事前にメールで確認をする」という人も
少なくないみたいにょ。
アンケート結果によると下記のようになっているにょ。
http://www.itmedia.co.jp/promobile/articles/1011/11/news108.html
必ず確認する 1.8%
時々確認する 28.4%
確認しない 69.8%
7割の人が「確認しない」と選択しているということで確認しないのが多数派とはいえ
3割の人が「確認する」選択しているので「わざわざ確認するのはごく一部の人」という
レベルではないことが分かるにょ。
固定電話にかける場合は自宅であれば本人が出るという保証はなく家族が出る可能性が
あるわけだし、職場だと普通は「いきなり本人が電話に出ない」と考えるのが妥当にょ。
そのためまず電話が繋がったら本人の所在確認から入るのだけどケータイの場合は何か
ない限りは本人が出るために所在確認は不要にょ。
例えば職場にかける場合は会議に出席しているならば「会議中であるため不在」という
ことで出ることはないけどケータイに直接かける場合にはかける側は「会議中」なんて
分からないからね。
また、道路交通法改正によって運転しながらケータイを操作することが禁じられたので
運転中に着信があってもすぐには出られないことがあるにょ。
しかし、そういう時にもマナーモードに設定していれば問題ないにょ。
かける側もマナーモードに設定してある場合はそのような「すぐには通話できないという
状況下にいる」と理解するためわざわざメールで通話の可否を連絡するという状況下は
考えられないのではないかと思われるにょ。
とはいえ、マナーモードに切り替えるのが面倒だから1日中マナーモードに設定している
人も少なくはないにょ。
http://plusd.itmedia.co.jp/mobile/articles/0808/08/news015.html
したがって、「マナーモードに設定いる=すぐには通話できない状況下にいる」と単純に
考えることはできないといえるにょ。
そもそも「メールで確認するくらいならばそれで用件を済ませれば良い」と考える人も
中にはいるのではないかと思うにょ。
ただし、これは必ずしも正しいとはいえないにょ。
というのもメールの場合は「必ず読んでくれるとは限らない」「すぐに読んでくれるとは
限らない」という問題があるからね。
その点、電話であれば確実にすぐに用件が伝わるにょ。
確かに夜中だと相手が起きているかどうかさえ分からないのでいきなりの電話が逆に
迷惑であるためメールで確認するというのも重要かもしれないけどね。
さて、「電話をかける前にはメールをするのがマナー」と考える人が増えてきている
とのことだけどそうなると電話(音声通話)というのがケータイの持つ「伝達手段の1つ」に
すぎないといえそうにょ。
10月19日にはauがSkypeを標準搭載するということを書いたけどSkypeは待ち受け設定に
しないと待ち受けできないという問題があり常時ブロードバンド接続にある自宅のPCとか
でない限りは常用が可能なものではないにょ。
auは回線交換式を実現していて、待ち受け時でも低消費電力になる工夫をしているみたい
だから問題はないけど他キャリアの場合はそういう仕組みがないため消費電力の関係上で
常時待ち受け状態にしている人はほとんど居ないのではないかと思うにょ。
しかし、メールで事前に通話の可否を行うのが普通になればSkypeを立ち上げればいいので
問題ではなくなるにょ。
こうしてみると情報伝達手段の主役は完全にメールになってきていることが分かるにょ。
「すぐに」「確実に」伝えたい用件があるとか長文になるとかいう場合には音声通話の
必要性があるけどそれすら電話である必要性は薄れSkypeなどを使用するという方法が
あるからね。(長時間通話になるならば通常の音声通話よりもコスト面で有利だし)
ガラケーだとSkypeが使用できるのは現在auだけとはいえ、スマートフォンならほとんどの
機種が対応しているため問題ないにょ。
そんなスマートフォンで大丈夫か?・・・まだまだスマートフォンの普及は遠い
au、ソフトバンク、ドコモの2010年冬・春モデルが発表されたけどやはりスマートフォンが
最大の注目の的だったにょ。
WILLCOMのW-ZERO3によって「スマートフォン」というものを日本で多くの人が知り、そして
iPhoneによってスマートフォンを多くの人が実際に手にするようになったにょ。(初の
ミリオンセラーのスマートフォンでもある)
そんなiPhoneも4代目(国内では3代目)となり、もはや黎明期をすぎ普及期に入ったのは
間違いないにょ。
つまり、もうスマートフォンはアーリーアダプター層のためだけのものではなくマジョリ
ティー層に向けたものも出す必要があるということにょ。
それがガラケー要素を取り入れたスマートフォンにょ。
そのガラケーは便利要素をどんどん取り入れ幕の内弁当的な進化を遂げてきたけど元々
海外で作られていたスマートフォンにはおサイフ機能やワンセグ機能をはじめとした
ガラケーではデファクトスタンダードといってもいい機能は搭載されていないにょ。
確かにスマートフォンとガラケーとの2台持ちなら問題ないし、1台持ちであっても
ガラケー要素よりもより先進的でスマートなスマートフォンを活用する方にメリットを
感じる人ならば問題ないにょ。
しかし、それはあくまで「コストを軽視」「新しさを重視」というのはアーリーアダプター
層だから可能なことでマジョリティー層が相手だと厳しいにょ。
現在使っている端末(ガラケー)と比べてどうなのかということが最も重要だからね。
しかし、ガラケー要素を取り入れたスマートフォンであればスマートフォンだから出来なく
なるというデメリットがなくなり、だけではなくスマートフォンだからこそできるという
メリットのみになるにょ。
では、本当にそうなのか・・・?
そのメリットは実際にメリットになっているのか・・・?
例えばおサイフ機能1つを見ても現状では「機能を搭載している」というだけでそれを
活かせる環境下にない模様にょ。
http://pc.watch.impress.co.jp/docs/column/config/20101112_406156.html
確かに機能を搭載していることで将来的には対応できるけどガラケーから乗り換えて
すぐに恩恵が無ければ意味がないにょ。
スマートフォンならではの機能にティザリング機能があるにょ。
これは、簡単に言えばスマートフォンをPCのモデム代わりに使えるという機能にょ。
ケータイではPCを接続することで端末をモデム代わりに使用可能だけどスマートフォン
ではティザリング機能によって可能になるということにょ。
データ通信用端末を別途所持しておらず、ケータイでデータ通信用を兼ねている人に
とってはスマートフォンにティザリング機能が使用できなければ「2台持ち」が余儀なく
なってしまうにょ。
Android OS 2.2、iOS 4.0からこのティザリング機能をサポートしているけど実際には
ほとんど無効化されているにょ。
というのもスマートフォンからの接続とPCからの接続では通信量に大きな差があるという
のが理由にょ。
ドコモもFOMA定額データプランは2年契約によってPC接続であっても月額上限5985円に
なっているけどこれはデータ通信契約専用プランにょ。
ケータイ端末のみで通信する場合はiモードでは上限4410円、スマートフォンでは5985円
とはいえ、iモード端末を使いPC接続をすると10395円まで上限が跳ね上がってしまう
ことになるにょ。
つまり、データ通信量の増加を考えるとパケホーダイの上限を5985円ではなくて10395円に
すればティザリング機能ONの状態で出荷が可能になると思われるにょ。(つまり4410円の
有料オプション)
実際に海外のキャリアでもティザリング機能は有料オプション(AT&Tだと20ドル)となって
いるわけだしね。
ティザリング機能が有効化されないのは「外部機器接続を現行スマートフォンでは判別
できない」というのが理由みたいにょ。
ガラケー(i-mode端末)のようにPC接続をしたか否かということが簡単に判断可能で
あればPC接続をした月に関しては上限を10395円にすることで処理が可能だけど現状の
スマートフォンでは判断ができないのであればPC接続しようがしまいがティザリング機能を
ONにした時点で上限を10395円にする必要があるということにょ。
「ティザリング機能をONにして欲しい」という人は常に上限が10395円になっても構わない
人が多いだろうからこれは単にキャリアの都合でONにしないだけと思われるにょ。
スマートフォンはようやく機能面においてガラケーとの2台持ちが不要になってきている
のだけどこのようなキャリアの対応やその周辺の対応の遅れがあるためまだ現時点では
「ガラケーで出来ていたことが十分出来る」とは言いづらく「2台持ち」を余儀なくされて
しまうという人も少なくないにょ。
もっとも、今年は「スマートフォン普及元年」であるため今すぐできないからといって
不平不満を漏らすのはまだ早いかもしれないにょ。
マジョリティー層に普及させるためにはガラケーでできていたことが十分できるように
なる必要があるけどそれにはもう少しだけ時間がかかりそうにょ。
sengoku38をたおせ!
官房長官になって映像流出を防ぐゲームを作った人がいるみたいにょ。
http://gamez.itmedia.co.jp/games/articles/1011/10/news066.html
何か事件があるたびにこのようなゲームを作る人が現れるにょ。
地下鉄サリンゲームやバスジャックゲームなど一般的に「不謹慎ゲーム」と言われる
ジャンルだけど今回の事件は人身事故ではないので私も上記のゲームを参考に自分で
作ってみたにょ。
ポケコン(PC-E500シリーズ)用のゲーム「SENGOKU GAME」にょ。
http://ww5.tiki.ne.jp/~ochame/E500/SOFT/sengoku.htm
単純なゲームだけど動画で見てもらうと分かりやすいにょ。
http://www.youtube.com/watch?v=YLnUb6QhpOc
センゴクチョウカン(あえてカタカナ表記)を操作してY○uTubeへファイル流出を企む
sengoku38を[法律]ミサイルで倒しまくるというだけのゲームにょ。
なぜ、sengoku38が大量にいるのか・・・というとこのゲームは昔ポケコンで作った
「ゴキブリ退治ゲーム」がベースになっているからにょ。
次々と沸いてくるゴキブリを噴霧器を使って倒していくというゲームだけどOPASを使った
このゲームのシステムを使えば簡単にできる(ソース自体は当時のものが残ってないので
当時考案した「ゴキブリをOPASのスクロール機能で動かす」というベースのシステムのみ
再利用しただけ)ということであり、あまり深く考えて欲しくないにょ(笑)
まぁ「実はsengoku38は1人ではなかった!」とでも思ってにょ(笑)
「倒すべきなのはsengoku38ではなく逆の方だろ・・・」という人のためにグラフィック
差し替えバージョンを用意したにょ。
まぁグラフィックデータを変えただけで同じゲームだけどね。
sengoku38を操作して、センゴクチョウカンを[Y○uTube]ミサイルで倒しまくるだけにょ。
http://www.youtube.com/watch?v=covvNGKVtM4
このゲームはOPASを使っているためGPRINTよりも10倍以上高速で描画できお陰でオール
BASICにも関わらず7.4cpsというそれなりに快適に遊べるレベルに達しているにょ。
システム自体は昔の流用ということでコア部分は30分くらいで完成し、あとゲームとして
遊べるようにいろいろ付け足したりリストのブラッシュアップをしたりでトータルで
かかった時間は2〜3時間くらいにょ。
ほぼ完成した段階でプレイ動画をYouTubeにアップロードし、その後もテストプレイをしな
がらパラメータの微調整などを繰り返したので実際はもっと時間がかかっているけどね。
使用しているテクニックに関して書くとOPASについては基本的な使用方法に止まっている
ので今更説明は不要だと思うにょ。
他にテクニックと言うべきものを強いて挙げるならば120〜130行のフォントの倍角データ
生成ルーチンくらいにょ。
あとは、細かい高速化処理の積み重ねにょ。
http://ww5.tiki.ne.jp/~ochame/E500/TECH/basic1.htm
OPASに特化したゲームを作ればGPRINT使用のものよりは圧倒的に速くなるとはいえオール
BASICで普通に遊べる速度(5cps以上の速度)を得るためにはそれなりに高速化を駆使
しないと難しいからね。
やっぱり、こういうシンプルなゲームはポケコンで作るのが一番にょ。
ポケコンだからこそグラフィックや音楽に力を入れなくても許されるからね。
ただ、「BASICではまともな処理速度にならない可能性がある」ということを考えると
適当に作ってもそれなりの速度で動作するPCで作るのが一番簡単かもしれないけどね。
Xiは「世代交代」ならぬ「世代後退」
11月9日に「Xi(クロッシィ)」の料金体系について書いたけどやはり問題点となったのは
下記の2点にょ。
(1)FOMAと同じ帯域制限
(2)料金が青天井
(1)そもそもなぜ帯域制限が必要かというとそれはそれは現在のネットワークにおいて
一部のヘビーユーザーが多くの帯域を占有しているからにょ。
これは帯域が有限であるために仕方がないにょ。
同じ料金(定額上限)を支払っていながら一部のヘビーユーザーのせいで多くのライト
ユーザーが迷惑するという格差は是正されるべきというのは決して間違いではなくむしろ
「より多くの人に快適な環境を提供する」ためには必要とさえいえるにょ。
問題となるのは、その帯域制限の基準が妥当かどうかにょ。
ライトユーザーまで簡単に帯域制限に引っ掛かるようでは「より多くの人に快適な環境を
提供する」というのは上辺だけの話になってしまうからね。
現在FOMAにおいては3日で300万パケット(約366MB)を超えると帯域制限の対象となるにょ。
あくまで「対象となる」というだけであって必ず制限を食らうというわけではない(混雑
していなければ帯域制限そのものがされない)とはいえ、現実問題からすると混雑して
いない方が希だと思うので帯域制限されることを前提に書いていくにょ。
では、3日で300万パケットというのはどうなのかということを考える前に帯域制限となる
使い方はケータイのみで通信するのとPC接続をして通信するのとではまるで変わってくると
いうことがいえるにょ。
Xiの基準となる「5GBのデータ量」の目安として下記のようにドコモは提示しているにょ。
・サイト閲覧(1ページ300KB程度)が約1万7500回
・メール送受信(1KB程度)が約524万通
・動画が約1370分(平均512Kbps)
・音楽が約1250曲(1曲約4分で約4MB)
これを見れば概ね見当は付くようにこれはケータイの端末で通信するならば大して困る
ことは無さそうだけどPC接続した場合にはかなり微妙なラインにょ。
ブロードバンドであればHD動画を見たり、数100MB、数GBのファイルをダウンロードする
という機会もあるわけだしね。
そもそもFlashを多用している昨今のリッチなWebサイトはトップページだけで数MBに
達することは珍しくないにょ。
3日で300万パケットだと30日ではその10倍(約3.6GB)となるため上記の5GBのデータ量と
比べると3割減となるにょ。
少なくとも現時点ではXiはデータ通信用端末しか存在しておらずケータイの端末内での
通信を考慮しているというのは相応しくなくXiの高速データ通信での利用環境が上記に
挙げた例だとすると全く現実にそぐわない形になるにょ。
もっともXiの正式サービス開始によってデータ通信端末以外にも多くの端末が発表されて
いるならばドコモの言い分も分からなくはないけど平均512Kbpsの動画ならばFOMAで十分
だし、1KBのメールの受送信であればMOVAで十分でありXiを使うメリットは何もないにょ。
これは例えるならば1000万画素超のデジカメにおけるメディアへの記録枚数目安として
VGA解像度で撮影時の枚数を提示するようなものにょ。(「大容量4GBのメモリを搭載に
よって10000枚の写真が本体内に保存できます!」というような感じ)
FOMAの「3日間で300万パケット」の帯域制限はケータイで通信するならば特に厳しい
ものではないけどPC接続であればかなり厳しいものであり(現在のFOMAユーザーにおいて
5GB以上の通信をしている人は0.4%しかいないけどその大半はデータ通信端末による
PC接続ではないかと推測する)、FOMAより遙かに高速通信が可能なXiであれば著しく
大きな制限といえるかもしれないにょ。
(2)そもそも同じ料金を払って一部のヘビーユーザーが帯域を占有しているというのが
不均衡を産んでいるというのであれば確かにそのヘビーユーザーからは多くの金額を
徴収するというのは決して間違いではないにょ。
ただし、それは「帯域制限を行わない」という前提の話にょ。
どれだけ使っても帯域制限の対象にならないならば使った分だけ払うというのは理に
かなっているけどXiの場合はそうではないみたいだからね。
そもそも「5GB」がヘビーユーザーとの分岐点かという点だけを見ても上記のように
怪しい面があるからね。
Xiは「上限6510円の2段階定額(準定額)で5GB超には追加の従量課金」とメディアでは
報道されているもののその中身を考えると「(ほぼ)完全従量制」といえるものにょ。
というのも、5GBまでが6510円(2年契約時)だけどこれから「2GB単価」を算出すると
2604円となるにょ。
5GB超の場合は「2GB単価」が2625円だからね。
追加金の方が圧倒的に安いならばまだ納得がいくけどこれだとFOMA定額データプランに
おいて5985円の上限を設定しない青天井の場合において「定額1000円」(ただし、23835
パケットまででそれを超えると1パケット0.042円の追加課金)と記すようなものだからね。
ヘビーユーザーから多くの金額を徴収したいというのであれば最初の5GBが6510円はとり
あえず保留するとして、さらにもう1段階用意して2段階定額ならぬ3段階定額を用意すれば
解決できそうな気がするにょ。
月間何10GBも使用するユーザーであれば現状では明らかにヘビーユーザーだからある程度
高額になっても納得がいくだろうけど現状の判別ラインである「5GBを過ぎたら2GB単価
2625円の青天井」というのは納得できる人の方が少ないのではないかと思うにょ。
それが納得できる人だけ使えばよいというのであればキャンペーン中のみ青天井の上限を
無くすという方法は明らかに矛盾となるにょ。
FOMAの基準で5GBを許容上限と考えているならば高速通信が可能なXiであればその10倍は
欲しいところにょ。
それならばヘビーユーザーが50GBの通信をしてそれをいくらで提供できるのかということ
から逆算していけばいいにょ。
LTEはコスト面ではHSDPAよりも有利になるため帯域が10倍になったからといってもコストが
10倍かかるというわけではないので仮に2倍のコストがかかる(同一帯域あたりのコストは
5分の1)と想定して50GB上限で13000円程度の完全定額サービスなら可能になるのではない
かと思われるにょ。
そうなると5GB超の場合は2GB単価は現在の10分の1程度で提供可能になるにょ。
仮に5GBまで6510円、それ以降は2GBごとに262.5円で計算すると51GBで12547円になるにょ。
2GB単価では50GBぴったりにならないため1GB単位で加算するとして10分の1より若干高価な
1GB単価147円で提供すると13125円となるにょ。
これならば現実的な数字ではないかと思うにょ。
まとめるとこういうことにょ。
私が考えた「現実的な」Xiの料金プラン
〜3.1MB 1000円
1KB単価 0.315円
〜5GB 6510円 ↑ここまではドコモの発表と同じ
1GB単価 147円 (6GBで6657円、7GBで6804円、8GBで6951円・・・)
〜50GB 13125円
後は13125円の完全定額(50GBを大きく超える勢いで使っている人には帯域制限)
では、素人が考えてもできそうなのになぜドコモが出来ないのかというと私は11月9日には
他キャリアがLTEに参入してないからと書いたけどそうではないという考えもあるにょ。
http://pc.watch.impress.co.jp/docs/column/hot/20101115_406514.html
Xiのカバーエリアが少ないためエリア外ではFOMA網を使うことになるため料金体制は
FOMA基準にならざるを得ないということにょ。
Xiのエリアが狭くても「FOMAで繋がる」ということは安心感に繋がるため契約ユーザー数を
伸ばしやすいというメリットはあるけどそれが料金面では足かせになっているということが
いえるというわけにょ。
制限といえばFOMAにあるようなポート制限はXiにはないというメリットがあるにょ。
そのためXiのエリア外で使う人が多い人にとってもXiで契約をしたいという人も少なく
ないのではないかと思われるにょ。
しかし、完全定額のFOMAからほぼ従量制になったXiは「世代交代」ならぬ「世代後退」
したといっても過言ではないと思われるにょ。
ケータイは各キャリアがパケット定額サービスを開始したお陰でコンテンツビジネスが
大きく成長したにょ。
例えばPDCの時代は有料のアプリを購入する場合はアプリそのものの代金より通信料金の
方が高額になっていたわけだし、現在においても定額プランに入ってない人であれば
着うたをダウンロードする際にはコンテンツそのものの代金よりも多くの通信料金が
かかるわけだからね。
したがって、従量制ではそのようなコンテンツビジネスそのものも失われてしまう
危険性があるにょ。
いよいよモバイルWiMAXに乗り換えか・・・
UQが1年契約で月額3880円の「UQ Flat 年間パスポート」を発表したにょ。
http://k-tai.impress.co.jp/docs/news/20101115_407046.html
携帯キャリアが続々と定額サービスを開始する中、「縛り無し」かつ「4000円台」という
低価格がウリだったUQだったけど鳴りもの入りで登場した割りには契約が伸びず価格の
引き下げを行い縛りを導入することになったにょ。
縛りが加わるのは非常に残念だけど1年縛りによって4480円が3880円に600円安くなるわけ
だし、解除料金も5250円と他社よりは安価なので9ヶ月使用すれば元が取れるにょ。
特別なキャンペーンを除けばPC接続が可能なモバイル通信で3000円台の定額プランという
のはWILLCOMの「新つなぎ放題(3880円)」しかないから業界最安値といっても過言では
ないにょ。
私は現在イーモバ(Pocket Wifi)を使っているにょ。
今年の4月にWILLCOMの「新つなぎ放題」から乗り換えたわけだけどイーモバにしたのは
価格とエリアのバランスを重視したためにょ。
FOMA定額テータプランはエリアが広いものの高価、UQのモバイルWiMAXは安価であるものの
エリアが狭い(サービスエリアが狭いだけではなく2.5GHz帯であるため屋内への浸透性も
低い)ということで間をとってイーモバにしたにょ。
auはエリアもそれなりに広いけど料金はイーモバより高いということで微妙だし、帯域
制限がドコモより厳しいため選択肢に入らなかったにょ。
さて、そんなイーモバのPocket WiFiだけど購入当初(4月29日)の時点では通信速度は
こんな感じだったにょ。
《 駅 前 》
------ BNRスピードテスト (ダウンロード速度) ------
測定サイト: http://www.musen-lan.com/speed/ Ver3.5001
--------------------------------------------------
1.NTTPC(WebARENA)1: 198.002kbps(0.198Mbps) 24.63kB/sec
2.NTTPC(WebARENA)2: 371.963kbps(0.371Mbps) 46.13kB/sec
推定転送速度: 371.963kbps(0.371Mbps) 46.13kB/sec
《 自 宅 》
------ BNRスピードテスト (ダウンロード速度) ------
測定サイト: http://www.musen-lan.com/speed/ Ver3.5001
--------------------------------------------------
1.NTTPC(WebARENA)1: 321.018kbps(0.321Mbps) 39.87kB/sec
2.NTTPC(WebARENA)2: 124.651kbps(0.124Mbps) 15.56kB/sec
推定転送速度: 321.018kbps(0.321Mbps) 39.87kB/sec
HSDPA(最大7.2Mbps)でここまで駄目なのは端末の初期不良か何かと疑った(何度測定
しても300Kbps程度の数値しか出ない)けど数日後に大阪で測定した際には1Mbps近く出た
ので単に私の地元がエリアに入って間もないせいという結論を下したにょ。
それから半年・・・。
再び測定してみたら少しだけ速くなっていたにょ。
《 自 宅 》
------ BNRスピードテスト (ダウンロード速度) ------
測定サイト: http://www.musen-lan.com/speed/ Ver3.5001
--------------------------------------------------
1.NTTPC(WebARENA)1: 260.948kbps(0.26Mbps) 32.6kB/sec
2.NTTPC(WebARENA)2: 657.255kbps(0.657Mbps) 81.84kB/sec
推定転送速度: 657.255kbps(0.657Mbps) 81.84kB/sec
600Kbpsという速度はとても高速とは言えないもののYouTubeの標準画質(360p)の動画を
見る程度ならば十分な速度にょ。
AIR-EDGE(4x)を使っていた時は速い時で100Kbps程度(平均して50〜70Kbps)だったから
それと比べると別格の速度にょ。
とはいえ、「もう少し速いといいな」と感じているのも事実にょ。
自宅で使っているCATVは実測9Mbpsで特に不満を感じてないのでそれと同レベルであれば
個人的には全く不満を感じないにょ。
最近はリッチなサイトが増えすぎたため600Kbpsでは普通にWeb閲覧をしていても「快適」
にはほど遠く「何とかガマンできる」というレベルの速度でしかないからね。
それでももはやガマンできなくなったAIR-EDGEと比べると遙かにマシにょ。(10年前までは
自宅でもダイヤルアップだったためこの程度の速度だったけどブロードバンドに「慣れた」
というだけではなく「Webサイトのリッチ化」が大きい)
再来年4月にはイーモバの2年縛りが解けるにょ。
その際にはさらに別の選択肢を選ぶと思われるにょ。
前は「AIR-EDGEに対して速度のアドバンテージがある」ということがエリア、コストの前の
前提条件だったけど今度はこのイーモバ(HSDPA7.2Mbps)に対して明確な速度差があって
なおかつエリアとコストのバランスが取れているものを選ぶことになるにょ。
ここでまず問題となるのが速度にょ。
イーモバはHSDPAの技術を使った42Mbpsのサービスを11月19日より開始するにょ。(ソフト
バンクも同様のサービスを来年2月から開始する)
価格は現在の21Mbpsのサービスと同様に7.2Mbpsのサービスと比べて1000円アップになる
見込みにょ。
同じイーモバで7.2Mbpsから42Mbpsへと乗り換えるならば単純に1000円分のコストアップに
なるというわけにょ。
果たしてそれで快適になるかどうかは微妙にょ。
というのも基本的に42Mbpsのサービスは21Mbpsの回線を2本束ねたものであるため現在
21Mbpsのサービスエリアに入ってないとその恩恵を受けることはできないにょ。
当然のことながら私の地元はまだエリアに入ってないにょ。
現在の2年縛りが解けるまでに仮にエリアに入ったとして果たしてどれだけの速度が出るの
やら・・・。
現在21Mbpsのサービスを利用しているユーザーをWebで検索してみると確かにピーク時には
7.2Mbpsと比べて3倍になっているけどエリア内であっても7.2Mbpsと変わらない速度しか
でないという場合も結構あるみたいにょ。
仮に42Mbpsのサービスが21Mbpsの2倍の速度が出るとすればピーク時には7.2Mbpsの6倍と
なり、現在(0.65Mbps)の6倍だと約4Mbpsにょ。
常にこれだけ出るなら1000円アップするだけの価値が無いとは言えないけど出ない可能性の
方が高い(回線を束ねてもそれに比例する速度が得られないのはAIR-EDGEで経験済み)
ということで過度な期待は禁物にょ。
やはり、コンスタントに速度を得るにはLTEかモバイルWiMAXの方が有利なのは確かにょ。
LTEはドコモのXiが正式サービスを開始していないためまだ実効値は分からない(実験では
実測60Mbpsを超えたけどこれはベストな環境下で行われているだろうからこれでは実効の
参考にはならない)ということでまだ推測の域を脱してないものの10Mbps程度は出るの
ではないかと思われるにょ。
モバイルWiMAXでも回線さえ安定していれば10〜15Mbps程度出ているにょ。
HSDPA7.2M→42Mの機種変更は選択肢としてはありだけど「1000円アップ」が納得できるか
というと環境によるため難しいにょ。(1000円余分に払って速度がほとんど変わらないと
いう可能性は十分にある)
では、LTEに変える場合はどうなのかというと当面はドコモのXiしか選択の余地がないにょ。
しかも、昨日書いたようにいくら速くても従量制では使う気が起きない(普通に使って
5GBを超えない自信がある人ならばFOMA定額データプランよりも良いかもしれないけど)
というのもあるし、そもそもイーモバの2年縛りが解ける再来年までに私の地元がXiの
エリア内に入る可能性が低いにょ。
したがって、選択肢となるのはモバイルWiMAXしかないにょ。
屋内への浸透性が低いのは周波数帯の問題であるためどうしようもないけどエリア自体は
徐々に広がっているため再来年には私の行動圏くらいはカバーできるようになってそうな
感じにょ。
それに縛りプランのお陰でイーモバから乗り換えたら「安くなる」という恩恵があるしね。
多少速いサービスに余分にお金を払うというのはなかなか出来ない(金額というのは
明確なものだけど速度は上記のように環境によって異なるため速いプランの方が確実に
速くなるというものではない)からね。
それと気になるのは端末にょ。
モバイルWiMAXはPCに標準搭載されることで普及に弾みがついているけど1端末で1契約と
なるため内蔵は必ずしも歓迎とはいえないにょ。(追加オプションは200円だから大した
ことはないとはいえ1台につき1ヶ月200円=年間2400円となると馬鹿にはできない)
そういう面ではモバイルルータはコストを考えると最も有利な選択肢にょ。
私は現在イーモバのデータ通信端末としてPocket WiFiを使用しているけどこれが非常に
いい感じにょ。
複数台のPCを1つの通信端末で賄えるというのは大きなメリットを感じている(主に使用
しているのがモバイルノートのR5とVAIO UXだけど)ため次に購入する際にもこのような
モバイルルータを考えているにょ。
モバイルWiMAXにもモバイルルータはあったけど大きい上にバッテリ駆動が2.5時間という
ことでやはり辛かったにょ。(私が今年の4月にモバイルWiMAXではなくイーモバを選択
した1つの理由がこの端末の差によるものだった)
しかし、小型軽量で8時間駆動の「AtermWM3500R」が発売されるにょ。
http://k-tai.impress.co.jp/docs/news/20101110_403592.html
これでようやく「端末の問題でモバイルWiMAXが選択肢から外れる」ということは無くなり
そうにょ。
イーモバ2年縛りが解けたときには「コスト」「エリア」「速度」の観点から私がベストと
感じたものを選択したいにょ。
1年半後のことは分からないけど現時点ではその筆頭にあるのがモバイルWiMAXかも
しれないにょ。
3TBのHDDがいよいよ正式販売開始
先日から単体出荷が始まった3TBのHDDだけどやはり10月9日に書いたような問題を抱えて
いるにょ。
http://pc.watch.impress.co.jp/docs/column/hirasawa/20101115_406951.html
2TB超のHDDをPCで使うにはにデータ用として使うだけでもGPTで扱う必要があるため
(Windowsであれば)Vistaや7が必須になるにょ。
そしてブート用として使うにはVista 64bit、7 64bitに加えてEFI搭載のマザーボードが
必須になるにょ。(2TiB=2.19TBのHDDとして使うのであればEFIは不要だけどそれだと
せっかくの大容量が無意味になる)
さらに現在のPCのマザーボードは2TB超のHDDを使用することを前提に考えてないため
うまく認識してくれないという可能性さえあるにょ。
そのような背景があるからか現在は3TBのHDDは「人柱向け」として販売されているにょ。
http://akiba-pc.watch.impress.co.jp/hotline/20101113/etc_wd.html
ただ、HDDは工業製品である以上は値下がりをするためには量産される必要があるし、
さらなる大容量のものが現れる必要があるにょ。
要するに多くの需要がないと値下がりはしないということにょ。
当初3万円近い価格だった2TBのHDDも今では8000円を切る価格で売られている店もあるわけ
だけどこれも量産化の賜にょ。
量産することで設備投資、開発投資が回収できその分安くできるというだけではなく
歩留まり向上によって生産コスト削減にも繋がっているからね。
したがって一部の「人柱向け」では大きな値下がりは期待できないにょ。
GPTとして扱うためにはVistaや7が必要と書いたけどそのデータ用として外付けドライブで
使用している場合にXP環境のPCをまだ所有している場合はそのXP搭載のPCからは2TB超の
HDDのデータが見れないことも意味するにょ。(メインPCは7搭載だけどサブPCとして
XP搭載のPCを活用している人にとってはHDDをあえて外付けにする必然性はかなり
失われてしまう)
つまり、このような2TB超のHDDを普及するには市場におけるXPの存在自体が足かせに
なっているということがいえるにょ。
つまり、2TB超のHDDがデータ用としても普及するか否かはXPをいかに切り捨てられるかに
かかっているかといっても過言ではないということにょ。
私自身もまだXPが現役OSであるためまだ3TBのHDDには手を出せないにょ。(それに
容量単価を重視している私にとっては3TBのHDDを導入する価値を見いだせないという
のもある)
問題はブート用にょ。
そのためにはEFIが普及しないと話にならないにょ。
OSの方は徐々に64bitの割合が増えているもののEFI搭載のマザーボードはほとんど
増えていないからね。
それも上記のようなXPとの互換問題が大きく影響しているにょ。
XPとの互換問題を抱える必要のないMacはいち早くEFIの搭載が可能になったけどPCでも
XPの互換性を考えなければ全てのマザーボードにEFIを搭載するのは無理ではないにょ。
ASUSは来年初頭に登場するSandyBridge対応のマザーボードにはすべてEFIが搭載されて
おり、すでにXP切り捨て準備が整いつつあるにょ。
http://www.4gamer.net/games/106/G010695/20101112072/
HDDの容量が増加するというのは要するにプラッタ容量が増加するということにょ。
したがって、大容量のHDDの方が転送速度では有利(基本的にプラッタ容量が増加すれば
線密度も上昇するため)だし、同一容量であれば消費電力の面でも有利になるにょ。
WDに続いて日立からも3TBのHDDが登場したにょ。
http://akiba-pc.watch.impress.co.jp/hotline/20101120/etc_hgst.html
WDのHDDはプラッタ容量750GB×4枚で3TBを実現していたけど日立のHDDは600GB×5枚で
3TBを実現しているにょ。
これを考えるとWDの方が速度面で有利かと思いきやWDの方が5400rpmで日立の方が
7200rpmとなっているためスペックからだけでは判断は難しいにょ。(回転数が速い方が
ランダムアクセスで有利になるため「日立の方が速い」といっても問題無さそうだけど)
EFIがうまく普及していくならば2TB超のHDDの普及もそれほど気にしなくてはいいけど
実際はそう単純にはいかず当面は2TB以下のブート、データ兼用ドライブと2TB超の(基本
的に)データ用のドライブ(XPは使用不可)と分けて販売する必要がありそうにょ。
ただし、これができるのもHDDのプラッタ容量が2TBを超えるまでにょ。
現在すでにプラッタ容量は750GBに達しているためプラッタ容量が2TBを超えるのは時間の
問題といえるにょ。
http://pc.watch.impress.co.jp/docs/news/20101102_404032.html
現在、ブート用に低容量のHDDを意図的に選択している人は「大容量は要らないけど
それなりに速度が欲しい」という人だと思われるにょ。
「容量が要らない」というだけならば旧世代のHDDで十分だからね。
しかし、プラッタ容量が2TBを大きく超えた場合には2TB以下のHDDは旧世代のプラッタを
使用のものしか選択肢が無くなるにょ。
もっともSSDさえ安価になればブート用にはSSD(2TB以下)、データ用にはHDDという
使い分けができるけどまだSSDは容量単価が高すぎるため多少コストアップになっても
速度を選ぶというユーザーにしか受け入れられてない状況にょ。(256GBで5000円程度
まで下落すればSSDをシステム用に使う人はかなり増えそう)
過去にHDDは幾度もその壁を越えて普及してきたにょ。
528MBの壁、2GBの壁(FAT16の問題)4GBの壁(PC-98限定)、8GBの壁、137GBの壁などの
壁がありそれらの壁は時間(対応した機器、OSが普及する)ことで改善されていったので
今回も同じように時間が解決してくれると思うにょ。(次の壁は48bitLBAによる144PBの
壁だろうけどこれはさすがに当分大丈夫か)
XPが市場から減り、7もしくはその後継OSで64bitが主流になればEFIの搭載も進むだろうし
それにより自然と2TB超のHDDがより多くの人に受け入れられるようになるだろうからね。
そうすれば価格も自然と安くなりさらに多くの人に受け入れられるようになるにょ。
HDDの「プラッタ容量が3TB」に達すれば「2TBのHDD」と「3TBのHDD」の価格差も
ほとんど無くなると思われるにょ。(その頃には6TBのHDDも数千円になっているだろう
から容量単価を重視して「3TBのHDD」を選択するのはあり得ないと思うけど)
逆にさらにプラッタ容量が大きくなれば「古いOSとの互換性」を維持した2TBのHDDより
3TBのHDDの方が安くなるという可能性さえあるにょ。(XPとの互換性を求めるならば
論理セクタが512Bである必要がある)
量産された方が安くなるという市場原理が働くわけだしね。
PDFじゃ駄目なんですか?
漫画家の赤松健氏が電子漫画の新しいビジネスを考案し新会社「Jコミ」を作ったにょ。
http://www.itmedia.co.jp/news/articles/1011/17/news097.html
ネット上ではスキャンされた漫画などが違法に出回っているけどこれらによって出版社
および作者はかなりの損害を受けているからね。
では、「漫画家はそれに対して何ができるのか?」ということで設立されたのがこの
Jコミにょ。
Jコミは違法にアップロードされているスキャンファイルを作者に還元されるような形に
持っていこうという方向で考案されたにょ。
しかし、現状では出版社が権利を持っているものは難しいのでコミックスにはならない
ような読み切り作品や絶版漫画をターゲットにしているにょ。
ただ、有料販売の電子書籍とは異なりDRMのかかっていないPDFファイルで提供されるため
作者にまともに還元されるのかがまだ未知数といえるにょ。
Jコミは上記のような違法アップロードされたものに対抗しているため無料配信となって
いるわけだからね。
一般的なWebサイトは広告があるからこそ無料でやっていけるのだけどそのJコミではその
PDFに広告を挟むことでその広告料金が作者に還元される仕組みになっているにょ。
「Jコミ(赤松氏)の取り分は0%」とのことなので広告収入が100%作者に還元される
仕組みとなっているにょ。
どの程度の広告料金かはまだ未知数であるため正式開始前に赤松氏自らの作品である
「らぶひな」を無償公開することでダウンロード数や広告のクリック数を調査する
模様にょ。
作者には1円も入ってこない絶版漫画がお金になるというだけではなく読者にとっては
合法的に絶版漫画を読めるというメリットがあるため期待は大きいにょ。
もしも、Jコミが成功すれば他の会社も同じようなことをするかもしれないけど取り分ゼロは
難しいのではないかと思われるにょ。
ただ、PDFは今回のように無償公開という形であれば問題はないけど有償の場合はネックと
なるのがDRMがないということにょ。
「KeyringPDF」のようにPDFファイルに独自にDRMを付加したフォーマットもあるものの
KeyringPDFの場合はダウンロードしたPCでしか見ることができないという問題があるにょ。
それでは「(鑑賞環境の)自由度の高さだけ」がウリのPDFでこれではとても流行るとは
思えないにょ。
電子書籍も米国ではアマゾンのKindleがヒットし、それに追従するようにアップルの
iBooksが追い上げているものの国内では依然としてケータイ向けのサービス以外で成功
した試しがないにょ。
シャープのGALAPAGOSもかなり力を入れるみたいだけど現時点では未知数だからね。
国も力を上げて「電子書籍の中間フォーマット」の議論をしているものの「PDFじゃ駄目
なんですか?」ということで事業仕分けの対象になってしまったにょ。
http://internet.watch.impress.co.jp/docs/news/20101117_407363.html
わざわざ国が力を上げなくても待っていれば市場競争で解決される問題とはいえそれが
ベストとは限らないにょ。
市場競争の原理からすると「最後に勝ち残ったものが正義」だけど勝ち残ったものが良い
ものである保証は全くないにょ。
それよりももっと最悪なのが出版社ごとに異なるフォーマットの電子書籍が流通すると
いうものにょ。
「この端末では○○出版の本は読めるけど△△出版の本が読めない」という状態が大量
発生するため一番迷惑を被るのはユーザーであるといえるにょ。
「長い物に巻かれろ」ということで有力な既存成功システムを使うのも1つの方法にょ。
しかし、iBooksは書籍流通からの反発も大きいためなかなか実現は難しいにょ。
作者からすると出版社を通さずiBooksと直契約すれば価格の70%の取り分が得られるため
流通どころか出版社さえも不要になってしまうにょ。(一般的な書籍では作者の取り分は
最大でも価格の10%しかない)
しかし、iBooksでは様々な制約があるにょ。
性的描写、暴力描写に関しては規制が厳しいため日本の漫画の多くはiBooksで出すことは
難しい状態にょ。
iBooksを利用しなくてもそのフォーマットであるEPUBを利用するという方法もあるにょ。
ただし、EPUBは日本語表記に向いているフォーマットとはいえないし、結局はDRMの実装
方法によって端末やアプリを選んでしまうという状況は改善されないにょ。
最初から無償公開が目的ならばPDFは鑑賞環境が最も普及しているし、それなりに使える
フォーマットではあるためJコミがPDFを選んだのは正しい判断だろうけど有料の電子書籍に
向いているとはいえないため電子書籍が普及するためにも早く国内におけるデファクト
スタンダードが決まって欲しいにょ。
Atomは消えてしまうのか・・・?
ARMベースのCPUは今後年間100億個レベルの出荷になるらしいにょ。
http://pc.watch.impress.co.jp/docs/news/event/20101116_407140.html
IntelもかつてはARMベースのCPUを作っていたにょ。
Strong ARMやその後継のXScaleによってIntelはPDA用のCPUにおいてもトップシェアを誇って
いたものの2006年にそのARM事業を売却してしまったにょ。
これはすでに何度も書いているようにAtom登場のための布石と考えられるにょ。
ハイエンドなARM CPUはx86アーキテクチャであるAtomで十分に置き換え可能であるという
考えによって売却へと繋がったと思われるにょ。
そんなAtomも登場して2年半が経過したにょ。
確かにAtomはネットブックにおいて一応の成功を見せたにょ。
条件を満たすことで特別安く出荷しているAtomだけどそれでもダイサイズが小さく元々
生産コストが小さなAtomであるが故に数が売れることはIntelにとっても大きな収益を
産んでいるため当初の予定(ハイエンドARMお置き換え)はまだ実現できてないものの
今のところは順調といってもいいのではないかと思われるにょ。
ただし、そのネットブックの人気も登場から1年半経過した昨年末くらいから徐々に雲行きが
怪しくなったにょ。
これはさまざまな理由を併せ持っているけど1つの理由が10月18日に書いたように単純な
安さしかなくお買い得感が失われたということだと思われるにょ。
Atomは元々ARMに対抗することを狙っていた(廉価PCに使用するということは当初から
すると予定外だった)ということで「性能」よりも「省電力」を重視した設計になっており
今後のラインナップもそのように性能は微増で省電力をどんどん高めていく方向性に
なっているにょ。
これは確かに間違いではないにょ。
現在のAtomはとてもまだARMと競合できるレベルの消費電力ではないからね。
省電力のためARMはSoCが当たり前となっているにょ。
x86のAtomもPineViewにおいてCPUにノースブリッジ相当の機能を内蔵したものネット
ブック用(Atom Nベース)のCPUとして作られているため省電力効果は低いにょ。
やはり、ARMに対抗可能となるのはAtom ZベースのCPUであり、Oak Trail登場でようやく
それが始動に乗ると言う段階であり、32nmにシュリンクされてからがようやく本番と
いった感じにょ。
まだまだARM対抗とは言い難いにょ。
さて、Atomの性能を意図的に上げてこなかったIntelだけどこれは製品構成上の問題も
あるにょ。
何せAtomの上にはCULVがあるからね。
性能を要求する用途(Windows PC用)として使うのであればCULVを使えば良いというだけの
話にょ。
確かにAtomのようにノースブリッジ込みでTDP10W未満でWindows PC用を考慮されたx86CPUは
他社にはない(AMDにはGeodeがあるけどこちらは組み込み用であるためPCとして使うには
あまりに力不足)ということで性能を上げる必要性は全く無かったというのもあるにょ。
しかし、AMDもそれを黙って見てはいないにょ。
http://pc.watch.impress.co.jp/docs/column/kaigai/20101118_407367.html
コードネーム「Zacate(ザカーテ)」「Ontario(オンタリオ)」と呼ばれているこの
CPUはまさにAtomをターゲットとしたものにょ。
これらに内蔵のBobcatコアはAtomに用いられているBonnellコアよりもさらに小さいにょ。
コアが小さいということはそれだけ低コストで作れることを意味するにょ。
Atomはデュアルコア化によってWin7もそれなりに快適には動作するようになったとはいえ
そうなるとやはりGPU性能がボトルネックになるにょ。
Win7では描写においてGPUの影響力が高まっているというのもあるし、HD動画を再生する
場合はデュアルコアAtomであってもCPU性能が不足してしまうことは多々あるためGPUに
よる再生支援は必要不可欠だからにょ。
そこで、AMDはCPUコアを小さくしつつもGPUはそれなりに高性能にしてきたにょ。
リンク先の記事を見てのように推定ダイサイズが75平方mmなのに対してCPUコアが17平方mm
しかなく、GPUコアは58平方mmもあるからね。
これはRADEON HD5450クラスのものにょ。
気になるのはTDPにょ。
ZacateがTDP18WでOntarioがTDP9Wとなっているにょ。
http://pc.watch.impress.co.jp/docs/column/ubiq/20101020_401195.html
これはCULV(Arrandale)の18W、デュアルコアAtom(PineView)の8.5Wとほぼ同じで
あり、現状でそれらのCPUを搭載したPCであれば熱設計の変更無しに搭載が可能である
ことを意味するにょ。
つまり、条件次第によってはAtomからOntarioへの置き換えが急速に進むことも十分に
あり得るということにょ。
Zacateのライバルとなるのは来年登場するSandyBridgeベースのCULVにょ。
現時点のArrandaleベースのCULVと比べるとGPU性能において大きなアドバンテージが
あるけどGPUが強化されるSandyBridgeではそのアドバンテージはやや薄れてしまうにょ。
しかし、SandyBridgeに内蔵のGPUがDirectX10止まりなのに対してZacateに内蔵のGPUは
DirectX11に対応しているというアドバンテージがあるにょ。
Ontarioの方はさらにアドバンテージが大きいにょ。
何せPineViewに内蔵のGPUは単純に性能が低いというだけではなく今時DirectX9止まりと
いう旧世代のものだし、今や当たり前といっても過言ではないHD動画の再生支援機能を
持ってないからね。
来年第1四半期登場に先駆けてすでにサンプル品でのレビューが公開されている海外の
サイトを見てその性能を確かめてみるにょ。
http://www.anandtech.com/show/4023/the-brazos-performance-preview-amd-e350-benchmarked/5
AMD E-350(Zacate 1.6GHz)とCore i3-330UM(1.2GHz)を比較するにょ。
※カッコ内の数値は勝者を100としたときの相対スコア
AMD E-350 Core i3-330UM
(Zacate 1.6GHz) (1.2GHz)
Modern Warfare2 27.9fps(100) 12.3fps (44)
BioShock 23.1fps(100) 11.5fps(50)
DragonAge 21.9fps (70) 31.1fps(100)
World of Warcraft 27.8fps(100) 13.2fps (47)
Starcraft2 35.4fps (84) 41.9fps(100)
Civilization V 8.6fps(100) 5.0fps (58)
平均スコア 92.3 66.5
これを見てのように実性能で1.4倍くらいはZacateが勝っているにょ。
Intelの場合はGPU性能はCPU性能に大きく影響されるため330UMより性能で劣るセレロン
U3400であればさらに大きな差が開いていると思われるにょ。
とはいえ、1.4倍程度であればSandyBridge登場で十分に追いつけそうな気もしなくも
ないけどね。
Ontarioのベンチはないものの同じGPUコアに対してGPUクロックがZacateが500MHzで
Ontarioが280MHzであることから概ね上記の6割程度と予想されるにょ。
そうなるとIntel HD Graphicsよりやや劣るレベルではないかと推測されるにょ。
ただし、Atomに内蔵のGPU(GMA 3150)は330UM(Intel HD Graphics)よりも数倍劣る
ためそれでも圧倒的に高性能だと思われるにょ。
というか、Zacateの性能が劣るのはメモリ帯域の問題(シングルchしかサポートされて
いない)ということを考えるとOntarioもZacateとあまり変わらないレベルの可能性も
十分にあり得るにょ。(それと後述のCPU性能が低さもボトルネックになっている)
GPU性能に関してはIntelに対して十分なアドバンテージがあるけど問題はCPU性能にょ。
http://www.anandtech.com/show/4023/the-brazos-performance-preview-amd-e350-benchmarked/3
AMD E-350 Core i3-330UM
(Zacate 1.6GHz) (1.2GHz)
Photoshop CS4 88.5s (68) 60.1s (100)
x264HD Bench 14.2fps(66) 21.4fps(100)
3dsmax9 2.4p (61) 3.9p (100)
CineBench R10 Single 1171 (68) 1713 (100)
Par2 190.6s (47) 99.0s (100)
WinRAR 3.8 419.4s (60) 249.7s (100)
平均スコア 61.7 100.0
CPU性能に関してはZacateの完敗にょ。
概ね1.6倍程度の差があるといってもいいかもしれないにょ。
これは同じTDPとはいえダイサイズの差を覆すことができなかったといえるにょ。
何せCPUのダイサイズはAtom並であるためArrandaleベースのCore i3よりも小さいわけだし
CPUコア部分だけだとAtomよりも小さいためCore i3との差はさらに大きくなるからね。
したがって、ZacateはCore i3に対してCPU性能では負けているけどGPU性能では勝って
いるといえるにょ。
ただし、Atomに関しては同等のTDPであるOntarioのベンチ結果がないため比較はできない
もののCPUのクロックは上記のZacateが1.6GHzなのに対してOntarioは1GHzであるため
単純に1.6で割った程度のスコアになるにょ。
こちらはAtom(N550)と比べるとほぼ互角ではないかと思われるにょ。
ZacateはCULVと互角に戦えるとは言い難いけどOntarioの方はAtomと同レベルのCPUと
桁違いに高性能なGPUを搭載ということで価格さえ安ければ普及は進むと思われるにょ。
AtomはWindowsが動作可能なCPUの中では「価格」が最大のウリとなっているからね。
逆に言えば高性能化が現時点ではあまり期待できないAtomはネットブックや低価格
Slate PCにおいてかなり厳しい立場に立たされたといえるにょ。
タブレット端末は7インチがベスト!?
タブレット端末としては異例のヒットとなったiPadだけどそれによって多くのメーカーが
タブレット端末を発表もしくは発売を検討しているにょ。
iPadは10インチクラス(9.7インチ)だったとはいえ、これが本当にタブレット端末として
ベストなサイズかというと人によって異なると思われるにょ。
では、どのサイズを買いたいのかというアンケート結果があったのでそれを見てみることに
するにょ。
http://k-tai.impress.co.jp/docs/readers/odaibeya/20101119_407773.html
5インチクラス 72票(25.6%)
7インチクラス 215票(55.7%)
10インチクラス 99票(18.7%)
過半数という圧倒的な差で7インチクラスが1位となったにょ。
理由そのものは人それぞれだけど私は7インチクラスがここまでの差で1位になったのは
下記の2つの理由が大きいと考えているにょ。
(1)10インチでは大きく、重いため持ち歩きには不適
(2)5インチではスマートフォンとの差別化ができない
(1)タブレット端末を買ってどこで使うのかというのがサイズ選びの焦点となるにょ。
主に自宅で使うならば画面は大きいに越したことがないため10インチがベストとなるけど
10インチだとどうしてもB5サイズくらいになってしまう(ワイド液晶だと長辺はB5用紙を
超えるサイズになる)ためにネットブックが入れられるようなバッグが必要になるため
気軽に持ち出せるサイズではなくなってしまうにょ。
それに両手に持って使う端末の場合は私の経験上500gが常用限界となるけど10インチ
クラスで500gを切った端末は存在しないからね。(500gを超える端末を腕で支えるのでは
なく片手で掴んで顔に対して平行に持ちもう片手でタッチ操作するなんて無理がある)
iPadは10インチクラスとしては軽量だけどそれでも700g前後の重量があるにょ。
将来的に7インチクラスの液晶を2画面搭載し、10インチクラスとして使えるタブレット
端末が500gを切る重量で発売されれば10インチクラスという画面サイズの強みが出てくる
けど現時点ではそれは難しいからね。
libretto W100のような端末は将来的にはポピュラーになるだろうけど現時点では2画面で
あるため負担が大きい(W100はArrandaleコアのPentiumだからこそそれなりの速度になって
いる)わけだし、バッテリ駆動時間の問題もあるためまだ実用の域に達しているとは
いえないにょ。
したがって、「持ち運んで使うことを前提」に考えた場合においては「サイズ」「重量」を
考えると10インチよりも7インチの方が有利となるにょ。
(2)それなら7インチよりもさらに小さい5インチの方がさらに持ち歩きには有利となる
けどそれがベストかと言われるとまた変わってくるにょ。
というのも使いやすいサイズというものがあるからね。
動画再生や読書という閲覧オンリーの用途であればドットピッチは高くても問題ない(
テーブルに置いて使うことを前提としたノートPCとは異なりタブレット端末の場合は
手に持って使うため見えやすい位置に画面を持ってくれば良いだけ)というわけで
300ppi程度であっても良いのだけど実際に使う場合は画面タッチで操作をすることに
なるため一定以上のドットピッチは無意味になってくるにょ。
例えば、7インチ端末と5インチ端末においてWSVGA(1024x600)とWVGA(800x480)のものが
あった場合には下記のようなドットピッチになるにょ。
WSVGA WVGA
7インチ 170ppi 133ppi
5インチ 237ppi 187ppi
この中で5インチWSVGAの237ppiは実際に使った経験があれば分かると思うけどスタイラス
無しではほとんど操作不能なレベルにょ。
解像度をワンランク落とすとか、文字サイズやアイコンサイズを大きくすれば改善できる
けどそれだと高解像度の意味は無くなるにょ。(画像表示でジャギーが目立たないという
メリット程度しかない)
どこまでなら使えるのかというのは明確な基準はないものの5インチWVGA(187ppi)なら
ギリギリ使えるということを前提に考えていくならば7インチでは解像度をWSVGAに
上げつつさらに若干余裕を持って操作可能になるにょ。
WSVGAとWVGAの解像度の違いがどの程度影響を与えるのかは実際にPCで解像度を落として
(もしくはウインドウサイズを小さくして)Web閲覧でもすればすぐに分かると思うにょ。
「WVGAで全く困らない」という人ならば5インチWVGAのタブレット端末は有用になって
くるけど今度はスマートフォンとの競合が起きてしまうにょ。
国内で流通しているスマートフォンの多くが4インチ前後の液晶サイズでWVGAとなっている
ためそのような端末を持っている人にとって5インチWVGA端末との使い分けができるのか
ということが焦点になるにょ。
スマートフォンがiPhoneでタブレット端末がAndroid OSという感じでOSが異なれば両者の
弱点を上手く補完することは可能だろうけどAndroid OSのスマートフォンを使っている
ならば5インチWVGAのタブレット端末は使い分けが非常に難しいと思うにょ。
しかし、7インチWSVGAならば操作性、情報量ともに向上するため使い分けるだけの価値は
十分にあるにょ。
スマートフォンを持ってない人であれば5インチWVGAの端末であっても使い分けが出来る
ため無駄ではないけど近いうちにスマートフォンの購入を検討している人ならば5インチ
端末は無駄になる可能性が否定できないにょ。
以上のように個人的にはタブレット端末は7インチがベストと考えているにょ。
アンケート結果でも7インチクラスを欲している人が圧倒的に多数だったのは私と同じ
ような考えの人が多いのではないかと思われるにょ。
もちろん自宅用では10インチ端末を使い「使い分ける」という選択もあるにょ。
したがって、7インチがベストというのは「5インチ」「7インチ」「10インチ」のどれか
1つだけを使う場合にどれにするのかという場合でしかないにょ。
iPadは「iPhoneと競合しない」という意味ではあのサイズは有用だったにょ。
もしも7インチWSVGA液晶だったらiPhone4で解像度が縦横2倍になった際に短辺方向の
解像度でサイズの大きなiPadの方が下回る結果となっていたからね。
そうなるとiPadで「iPhone4用のアプリが動作しない」という結果になったにょ。
しかし、iPadでXGA液晶を搭載したせいで10月22日に書いたように7インチワイドモデルを
出すのが難しくなっているにょ。
タブレット端末の場合は液晶サイズが実質情報量や操作性に大きな影響を与えている
ためにサイズの違いは一般的なPC以上にシビアになってくるにょ。
それ故にベストなサイズというのはあくまで主観でしかなく客観性に乏しいものになり
がちにょ。
しかし、主観であっても多くの支持があればそれが多くの人にとってベストな選択と
いってもいいからね。
今回のアンケート結果は私が以前からずっと言い続けて来たこと(サイズ、重量との
兼ね合いやスマートフォンとの差別化)を裏付けるデータとなると思われるにょ。
これがケータイWatchでのアンケートということでスマートフォン所持者(もしくは
スマートフォンに興味がある人)やiPad所有者も多いというのがこのようなアンケート
結果になったのだけどiPadを使ってない人、スマートフォンを持ってない人を対象に
アンケートを採ればまた異なる結果になるかもしれないにょ。
また、日本人の特性上中流意識ならぬ中間意識が働くため「大」「中」「小」という3つの
選択肢があったら「中」を選んでしまうという人も多いだろうしね。
ここに12インチという選択肢が別途加わっていればもしかすると7インチの選択者が大幅に
減るという可能性もあるだろうし、「10インチの割合が増える」という可能性も否定が
できないかもしれないにょ。
今だからこそポケコンの時代!?
半年前に作った2LINE UFO GAMEだけどこのゲームに使っているテクニックの解説がようやく
できたにょ。
http://ww5.tiki.ne.jp/~ochame/E500/SOFT/ufogame_opas.htm
このゲームのポイントとなったのはOPASによる1ドット単位の横スクロールだけどこれは
独自の面データ構成によって高速かつデータ短縮が可能になっているにょ。
この面データ構成に関しても詳しく書いているので興味ある人はぜひ読んで欲しいにょ。
このゲームはOPASの具体的な活用方法の一例として作ったのだけどこれを読めばGPRINT
と比べてどのような面で優れているかというのかも分かると思うにょ。
ゲームにもよっても大きく変わるけど2LINE UFO GAMEのように表示の書き換えが多い
ゲームの場合はGPRINT比で10〜100倍速度面で有利になってくるにょ。
とはいえ、表示に関してGPRINT比10倍速が実現できたとしてもゲームは表示以外の要素も
多いためゲーム全体で10倍速になるとは限らないにょ。(2LINE UFO GAMEではトータル
では5倍速程度)
これは「E500BASIC高速化のすべて」PART2でも書いたようにボトルネック部分を高速化
するのは高速化効果が大きいけどその部分を高速化してしまえば今度は別の部分がボトル
ネックになってくるからね。
さて、この解説を書くのに半年もかかったのはやはりその内容を短縮化するためにょ。
「OPAS応用編」を先に書いた方が説明がかなり楽になるからね。
それに面データ構成を説明するには別のより分かりやすいゲームで説明する方が良いけど
そのターゲットとなったのが「アクションゲーム制作講座 初級編」にょ。
これを書くことで詳細解説はリンクを張るだけで済むにょ。
こうやって、テキスト量を減らしたわけだけどそれでこの量だからね(笑)
まぁ、これだけ丁寧に書けば分からない人は多分居ないから良しとするにょ。
それから、部屋の中を漁っていたら昔作ったプログラムリストが見つかったので入力して
みたにょ。
その名も「2LINE ピョンコ」にょ。
http://ww5.tiki.ne.jp/~ochame/E500/SOFT/SHORTP.HTM #PYONKO
http://www.youtube.com/watch?v=mpmdWtHD2a4
このゲームはかつてPJ(ポケコンジャーナル)において、「ゲームデザイン館」として
募集されたテーマにょ。(リスト掲載はPJ91年1月号)
恐らく20年くらい前に作ったゲームにょ。
20年前でも劣化が少ないのは紙媒体のお陰にょ。
やはりデジタル記録(メモリーカード等)よりもアナログ記録(紙)の方が保存性に
優れているということか・・・(笑)
このゲームの特徴は2LINEという短さもだけど疑似アナログキー入力を採用しているという
ものにょ。
まぁPFキーをスライドしてその速度(時間)を計測しているだけという単純なアイデア
だけどこれによって従来ポケコンでは出来なかったゲームも可能になるからね。
パワーゲージ方式だと簡単に目押しが出来てしまうけどこれならば指先の感覚であるため
そう簡単に狙ったパワーを得ることはできないにょ。
元々はゴルフゲーム用に考案したものだけどこれを使ってソニックブラストマンもどきの
ゲームやボウリングもどきやビリヤードもどきのゲームも作っていたにょ。
この「2LINE ピョンコ」は残念ながらPJには投稿しなかったけどこのシステムにOPASを
加えたものは「カエルゲーム(仮)」としてベーマガに投稿・・・しようとしたけど
これもやめてしまったにょ。
というのも、動画を見てのようにこの「2LINE ピョンコ」は見えているパワーゲージを
目押しで止めるというタイプのゲームとは異なり指先の感覚だけがすべてであるため
微妙なパワー調整が難しいからね。(上記動画のステージ2は自分で言うのも何だけど
素晴らしいテクニックだと思う)
これはゴルフゲームにおいては「計算からどの程度のパワーならカップインできる」と
いう作業的になりがちなのを克服可能というメリットがあるにょ。
しかし、「カエルゲーム(仮)」では、動いているオブジェクト上に着地するという
ゴルフゲームでいえば極めて狭いフェアウェイやグリーンが常時動き回りその周囲は崖と
いうようなプロゴルファー猿もびっくりなコースだったからね。
難易度を抑えた1面でさえプレイに慣れている私自身が何とかクリアできるレベルであり
後半の面は常軌を逸していたにょ。(難易度を落とすとこのゲームの魅力が薄れてしまう
ためお蔵入りとなった)
このようにゲームデザイン館用に作ったゲームは多くあるけどほとんど投稿には至って
ないものばかりにょ。
最終号(96年5月号)に掲載のバンジージャンプも結局作って投稿しなかったからね。
こちらはグラフィックを変えて「ポケコンオリンピックINナガノ」のカーリングゲームと
して作り直しベーマガに投稿して無事掲載されたにょ。
私はPJやベーマガで何度も掲載されたけど実際は未発表のプログラムの方が圧倒的に
多いにょ。
RAMカードに保存していた大量の自作ゲームも何度も消えてしまったため現存しているのは
ごく最近作った物と紙媒体で残しているものに限られるにょ。(昔はカセットテープに
保存していたけどE500を買ってからはRAMファイルに保存可能なためカセットを使う機会は
なくなった)
昔(PC-1245)を使っていた頃でまだカセットIFを持っていなかった頃はノートに書いて
保存するのがメインだった(同時に複数のものを本体内に保存できないしフリーエリアが
1486バイトしかなかったから複数のものを入れること自体が無理だった)けれどE500では
そうやってノートに書いて残しているものはごく一部のものであるためほとんどがRAM
カードのデータ消失と同時に消えてしまったにょ。
紙媒体といえばやはり投稿雑誌にょ。
PJ(ポケコンジャーナル)のようにポケコン専門誌だけではなく昔はベーマガ、Pio、
プログラムポシェットなど多くの雑誌があったにょ。
昔は自作ゲームを不特定多数の人に公開する場合は雑誌に投稿するというのが一番の方法
だったけど今はWebがあるからね。
90年代後半から急速に普及し、今世紀に入ってのブロードバンドの普及によりさらに普及が
加速したため読者投稿雑誌であったベーマガも2003年で休刊してしまったにょ。
しかし、ネット全盛の今だからこそ情報がネット上にいくらでも転がっているし実機が
なくてもエミュで動作させたり、動画サイトによって実機でどんな感じで動作するのか
というのが気軽に見ることができるにょ。
「レトロブーム」という言葉が生まれて久しいけど今だからこそポケコンの時代が再び
やってくることを期待しているにょ。
まぁPC-E650はほんの数年前まで生産していたし、PC-G850Vに関してはまだ生産されて
いるし、ずっと使い続けているという私自身の感覚からすると「レトロ」でも何でもない
けどね(笑)
スマートフォン版
掲示板管理者へ連絡
無料レンタル掲示板