したらばTOP ■掲示板に戻る■ 全部 1-100 最新50 | |
レス数が1スレッドの最大レス数(1000件)を超えています。残念ながら投稿することができません。

おちゃめくらぶ掲示板

1御茶目菜子:2009/09/12(土) 15:33:12
現在大阪オフ中にょ
現在大阪オフにょ。
昼食を12時に済ませ現在3時のおやつ休憩にょ。
昼ご飯を食べてから現在までいろいろ買い物をしたけどもう3万円くらい使っているにょ。
めぼしいものは大体買えたけどそろそろ資金が尽きるにょ。


マリモーマさんへ
>今日は 大阪オフだけど 関西は 雨が降ってたよ

さっきは結構降っていたにょ。
また詳しくは明日書くにょ。

320御茶目菜子:2010/08/02(月) 14:12:22
DSは買い控えの時期に入ったのか・・・?
任天堂が赤字になった模様にょ。
http://mainichi.jp/select/biz/news/20100730k0000m020046000c.html
四半期ベースで赤字にならないようなゲーム企業は存在しないのだけど王者任天堂に
関しては常に黒字を維持してきたにょ。
それは、コンシューマゲーム機においてはロイヤリティの存在が非常に大きいからにょ。
ゲーム機本体を作っているメーカーはサードパーティソフトが売れるだけでその価格の
一定の割合で利益を得ることが可能にょ。

とはいうもののゲーム機本体には大きなリスクがあるにょ。
まずは開発コストが莫大にかかるということに加えてサードパーティの誘致にもコストが
かかるにょ。
さらにサードパーティからのロイヤリティを見越して本体の価格をギリギリまで下げる
という場合が多いけどサードパーティソフトが売れない場合は本体を売れば売るほど
赤字が拡大するというジレンマに陥ってしまうにょ。
実際プレステ3も製造原価より1〜2万円安い価格で販売(いわゆる「逆ざや」で販売)して
いたから赤字がふくらむ一方だったわけだしね。
そのプレステ3もパーツの統合と量産効果でコストが下がったために今ではようやく赤字
から脱出したにょ。

任天堂においては基本的に逆ざやで販売することはないにょ。
本体発売当初であっても原価ギリギリの価格設定で販売されるため本体が売れれば売れる
ほど赤字という事態が起こることはないのだけどそれならば今回のような赤字はなぜ
起きてしまうのかというと記事にあるように円高の影響が大きいにょ。
円高で大きな赤字を出したことに加え、本体およびソフトがあまり売れないため売上が
落ちたので円高による赤字を挽回出来なかったというのが理由にょ。(為替変動が
なければ多少売上が落ちても赤字になることはなかった)

さて、なぜ売上が落ちたのかというとDSは十分普及したので売上が本体の落ちても当然
ともいえるけどやはり3DSの存在が大きいと思うにょ。
DSと互換性のある3DSが発売されようとしているのだからそれを待って買うのがベターと
考える人が大勢いるのは当然にょ。

しかし、問題は3DSの価格も発売日も決まってないということにょ。
発売日は2010年度内なので2011年3月までには発売ということが分かっているものの
分かっているのはその程度のことにょ。
これに関しては9月29日に明らかになるという情報があるにょ。
http://japanese.engadget.com/2010/07/29/3ds-9-29/
これは9月29日に発売されるというのではなくその日に発売日や価格が発表されると
いうだけにすぎないにょ。
とはいえ、この情報が確かであればそれから遠くない時期である年内に発売が濃厚に
なるにょ。
恐らく10〜11月には発売されると考えられるにょ。

通常であれば「販売店からの発注→その発注を受けて生産→販売店へ納品」となるため
2ヶ月くらい前には発注の案内が販売店に届くにょ。
しかし、新発売の本体(もしくは人気ソフト)の場合はそのようなことはなく過去の
発注実績による配分制をとっているため発表から早い時期(発表から1ヶ月以内)での
発売は十分に考えられるにょ。
9月29日に価格が発表されるという情報が確実ならば最速では10月半ばに発売は十分に
あり得るということにょ。

未だに発売日や価格を発表してないのはライバルであるSCEの動向を伺っているという
のもあるだろうし(SCEがPSPの価格を発表したときの「空白の17分間」は有名な話)
3D液晶パネルなど新しいパーツを使用している関係上、歩留まりや量産価格がはっきり
しないというのも1つの原因かもしれないにょ。
いずれにせよ現在のDSiより安くなるということは100%ありえないのでDSのゲームを
プレイしたいのであればDSiを買う方が安く済むのは間違いないにょ。
3DS発売を見越してDSiは価格変更されたのだろうからね。

とはいえ、今DSiを買おうにも3DSの存在が大きいのは間違いないことであり、DSiとの
価格差がどれくらいになるのか発売される時期はいつなのかというのが重要になるにょ。
例えば価格差が5000円程度なら買おうと思っている人であれば仮に3DSの価格が25000円と
発表されていれば「3DSが安くなるまではDSiでいいや」ということでDSiを買う人も
いるかもしれないにょ。
またどうしてもプレイしたいソフトが9月に発売される場合、仮に12月に発売と発表
されていたら「早くプレイしたいからDSiでいいや」と思う人もいるかもしれないにょ。

つまり、多くのユーザーが想像しているものより「早い時期」「安い価格」で販売
されるので無ければ価格や発売日は事前に発表しておいた方が買い控えを防ぐという
面では有用になると思われるにょ。
私の予想の範囲内のベストケースである「2万円で10月発売」であるならば確かに多くの
人が買い控えそうだけど世間で予想されている中でのワーストケースである「29800円で
来年3月発売」というのであれば現在DSが必要としている人が買い控えをするような
レベルではないと思うにょ。

321御茶目菜子:2010/08/03(火) 13:15:20
XPはどこまで現役でいられるのか・・・
Win7がついにVistaのシェアを抜いたにょ。
http://www.itmedia.co.jp/enterprise/articles/1008/02/news043.html
約3年間発売されていたVistaが1年足らずの7に台数ベースで抜かれるというのは
言い換えればVista搭載PCがいかに普及しなかったかということがいえるにょ。

これはWeb閲覧用として現役使用されているPCにおける台数なので発売後9年経つXPは7と
比べて大きな差があるもののこのまま7が普及していればいずれXPのシェアを抜くにょ。
この3月から7月までの4ヶ月の平均増減数と全く同じ速度で今後も増減が続いた場合の
ことを考えてみると単純計算では下記のようになるにょ。

    2010年7月 2011年7月 2012年7月 2013年7月 2014年7月
 WinXP 61.87%  54.10%  46.33%  38.56%  30.79%
 Win7  14.46%  27.15%  39.84%  52.53%  65.22%
 Vista 14.34%   9.33%   4.32%  ー0.69%  -5.70%

このペースでいくとWin7の普及率はXPの全盛時を超えるのも時間の問題だし、Vistaに
至ってはマイナスシェア(一体どういう状態なのやら・・・)になってしまうため
このような単純増減が長期間続くというのはあり得ないことが分かるにょ。

とはいえ、確実にいえるのは9年間現役(現在もネットブックでは現役OS)であるXPは
絶大なシェアを誇っているけどそれは今後大きく落ちるということVistaのシェアは
減ってもNT6ベース(もしくはその後継OS)のシェアがXPのシェアダウン分増えるという
ことにょ。(Linux系OSやMac OSが今後数年内に急成長する可能性は低い)

今年の10月でネットブック(ULCPC)用のXPの提供が終了するため上記シェア増減と
比べるとXPのシェアダウンは大きくなると予想できるにょ。
それから考えるとXPのシェアは来年の夏には50%を切ると思われるにょ。
そう考えると7の普及ペースは上記の単純計算よりも早いものになりそうにょ。
ただし、2012〜13年にはその後継OS(Windows8?)が発売されるだろうからそこで7の普及は
終わりシェアが過半数に達することはないと思われるにょ。
ピーク時にはシェアが80%に達していたXPが異常だった(XPが発売されてからVista
発売まで5年余りあったのに加えてVistaがあまり普及し無かったのが要因)というだけの
話にょ。

昨今のPCの買い換えサイクルは5年程度となっているにょ。
それから考えるとVistaが発売された2007年1月から5年後の2012年以降はXPのシェアが
ほとんど無くなることが予想できるにょ。(ネットブック用として発売されたものがある
からそこまで極端に落ちることはないだろうけど)
それは企業においては3年、もしくは5年リースということがあるのだけど個人においては
5年で買い換えする理由は何もないにょ。
強いて挙げるならば、PCに使われているパーツの寿命が5年程度(HDDは一般的な使い方
ではその程度で故障する可能性が高い)というのがあるにょ。

一般人からすればサイクルとか関係なしに故障するかそのPCでやりたいことができなく
なった時が買い換え時となると思われるにょ。
Web閲覧において現状でAtom1.6GHz程度が妥協できるボーダーラインと考えた場合に
これと同程度の性能を持つPen4 1.6GHzのノートPCが発売されたのが2002年であるため
パーツの寿命を考えなければ8年前のPCも(Webメインであれば)現役で使えるという
ことがいえるにょ。
モバイルノートであれば2003年にULV PenM搭載されたものが登場して以降と考えると
7年前のPCが現役といえるにょ。
もっとも、現在はWeb閲覧がメインといっても512MBでは心許ないので1GBはメモリが
欲しいところにょ。
2002〜2003年のメインストリームのノートPCは256MBが標準であったためメモリ増設は必須
といえるにょ。

今後も8年前のPCが現役で使える最低ラインであり続けると考えた場合には2007年1月の
Vista発売から8年後の2015年にXP搭載PCからの買い換えがほとんど終了するのではないか
と予想できるにょ。
確かに現在もWin95、98搭載のPCを使っている人もいるために発売後10数年というPCが
全く使えないというわけではないけどほとんど無視できるシェアに落ちるというのが
予想できるにょ。
これは上記単純計算による将来予想よりは早い落ち込みといえるにょ。

大して重い処理をしないから古いPCで十分といってもWebを利用するならばセキュリティー
問題があるにょ。
7月14日に書いたようにすでにWin2Kはサポートが終了し、今後はセキュリティーの更新が
行われなくなったけどXPも2014年4月にはサポートが完全に終了するにょ。
またアンチウイルスソフトもMSがサポートしてないようなOSはサポートを打ち切る可能性が
高いからね。(サポートコストもバカにならないため古いOSはどんどんサポートを打ち
切る必要がある)

Web閲覧であればWebブラウザも重要になるにょ。
Win2KはIE6までしかサポートしてないもののIE6は今年3月にはYouTubeでサポートが終了
したにょ。
イラストに特化したSNSであるpixivも先月IE6のサポートを終了したにょ。(「サポートが
終了した=動作保証がない」というレベルではなく実際に試してもらえば分かるように
レイアウトが崩れてまともに閲覧できるような状態ではない)
つまり、IE6ではWeb閲覧にはかなり支障がある状態になってしまったということにょ。
とはいえ、WebブラウザはIEだけではなく他のものもあるにょ。
FireFoxであれば最新の3.6でもまだ2Kをサポートしているにょ。
しかし、登場が新しいGoogle chromeは当初よりXP以降しかサポートしてないにょ。

Webブラウザもアプリである以上はサポートコストを考えるとシェアの低いOSはサポート
しにくいにょ。
XPはまだ十分に高いシェアがあるからそう簡単にWebブラウザがXP非対応になることは
ありえないけどPC買い換えの予想から考えるとXPは2015年にはシェアはかなり小さいもの
となっており、サポートは終了すると予想できるにょ。
7月15日にはダウングレード権を延長によって新規PCにXPをインストールするということが
10年後の2020年まで可能になると書いたわけだけどこれはどうしても現行のアプリを
使用しなくてはならないという極めて限定された用途以外ではほとんど使い物にならない
ものになっていると思われるにょ。
恐らく現状でWin98+IE4を使用するようなレベルではないかと予想するにょ。
それを考えるとやはり、XPが現役で居られるのは延長サポートが終了する2014年4月
くらいが限界だと思われるにょ。

322御茶目菜子:2010/08/04(水) 13:00:09
12.1インチはモバイルノートにとってベストなのか?
モバイルノートは液晶サイズ(≒筐体のフットプリント)でそのクラスが決まるにょ。
自宅専用PC(つまり、定点固定のPC)であれば数インチの差は気にならず設置が可能か
どうかということですべて決まるわけだけどモバイルノートの場合はモバイルするという
時点で大きな影響を与えるにょ。
ネットブックにおいても8.9インチと10.1インチは1.2インチ差だけどもはや別ものと
いっていい感じだからね。

そんな中、dynabook RX3は前モデルまでの12.1インチから1.2インチ大きい13.3インチ
液晶を採用したにょ。
上記の考えからすると12.1インチと13.3インチは別クラスのPCとなるわけだけど開発者
側からするとコンセプトが変わったわけではないということにょ。
http://pc.watch.impress.co.jp/docs/column/mobile/20100803_385112.html

モバイルノートというと主流が12.1インチだけどなぜ12.1インチかということに関しては
3つの理由があると思われるにょ。

(1)常用可能なキーボードを搭載可能な最小サイズ
(2)常用可能な最小のモニタサイズ
(3)据え置き型ノートPCと明確に差別化できるサイズ

まず(1)について考えてみるにょ。
昨今は16:9(もしくは16:10)のワイド液晶がが主流になっているわけだけどそうなる
前の4:3のスクエア液晶の時代から12.1インチはモバイルノートの主流だったにょ。
12.1インチスクエア液晶のノートPCの横幅は概ね25〜26cmにょ。
これだと変形キーボードでなくてもキーピッチ17mm前後のキーボードが搭載可能になって
いるにょ。
これは無理なくタッチタイピングができる最小サイズといってもいいかもしれないにょ。

次に(2)について考えてみるにょ。
やはり、常用するなら最低でもXGAくらいの解像度が欲しいところにょ。
Win98の頃はアプリの主流はVGAであり、一部のアプリのみSVGA以上を要求していたの
だけどXPではOSがSVGA以上を要求しているし、アプリの標準がXGAになってしまった
からね。
12.1インチモバイルノートが主流になった頃(90年代末)に時代を遡ってみてみると
その頃の主流といえばデスクトップPCは17インチCRTでSXGA表示だったにょ。
17インチCRTの実表示エリアを16インチと仮定するとそのCRTは102ppiとなるにょ。
それに対して12.1インチXGAは106ppiとなりデスクトップPCとほぼ同レベルのドット
ピッチが確保されているにょ。
つまり、12.1インチXGAは無理なく使える最小サイズということがいえるにょ。

(3)について考えてみるにょ。
12.1インチスクエア液晶が主流になった時代には据え置き型ノートの主流は14.1インチ
だったにょ。
液晶サイズが2インチ異なるだけではなく重量も据え置き型ノートが光学ドライブ内蔵で
2.5〜3kgなのに対して12.1インチのモバイルノートは1kg台半ばだったにょ。
この重量差とサイズ差であれば十分に別物といえるにょ。

上記(1)〜(3)は12.1インチスクエア液晶の時代の考えであり、ワイド液晶が主流の今
となってはこの考えが正しいとは限らないので改めて考え直してみるにょ。
現在主流の12.1インチワイド液晶のノートPCの横幅は概ね28〜30cmにょ。
これだとフルサイズ(19mm)のキーボードも搭載可能になっているにょ。
筐体サイズの大型化は気になるけどキーボードはワイド化で使いやすくなっていると
言いたいところだけどワイド化によって縦方向のサイズが縮小されたためタッチパッド
搭載の関係上縦方向に短くなる横長キートップの機種が目立つようになったにょ。

さらに、液晶に関しては12.1インチWXGAは125ppiとなっており、デスクトップPCで主流と
なっている22インチフルHDの100ppiと比べるとドットピッチが小さいにょ。
人間の目の分解能から考えると画面からの距離を約60cmと想定すれば150ppi前後が実用
限界となり、個人的には120〜130ppi程度が常用限界と感じるため125ppiは常用の範囲内
ということで問題はないけどデスクトップPCとの剥離が大きいということには間違いが
ないにょ。
この辺はOSのppi設定を変えれば良いだけの話だけどそんなことを考えつくのはある程度
PCの知識のある人間に限られるにょ。

というわけで、ワイド時代のビジネスモバイルノートとしては12.1インチよりも一回り
サイズが大きい13.3インチが適しているだろうということを想定して作ったのがこのRX3
となっているわけにょ。
13.3インチであれば113ppiなので125ppiの12.1インチよりはかなり見やすくなっている
からね。
また、据え置き型ノートも今は15〜16インチが主流なので13.3インチであれば据え置き
ノートとの差別化は十分できるにょ。
重量も最軽量モデルならば1.2kg前後であるため重量的な面からも据え置きノートとの
差別化が可能になっているにょ。

このように大型化したのにはそれなりの理由があるわけだけどもう実は1つ大きな理由が
あるにょ。
それはCULVノートの存在にょ。
CULVノートはネットブックよりワンランク上の廉価ノートだけど問題はCULVノートに
使われているCPUは従来モバイルノートでよく使われていたULVのCPUであるということが
問題となるにょ。

ULV CPUはCrusoeに対抗するためにIntelが作ったものであり、要するに動作電圧が低い
から低消費電力(=長時間駆動)が可能になるというものにょ。
ただし、動作電圧が低いせいで高クロック化は難しく一定以上のクロックで動作する
ものはかなりの選別品(歩留まりが高くないもの)だったにょ。
それ故高価であり、高コストがかけられるモバイルノートでしか採用されることは
なかったにょ。
しかし、微細化が進んだことで1GHz程度の低クロックなものであれば高い歩留まりで製造
可能になった(つまり、低コスト化が可能になった)ということでCULVノートに廉価
供給可能になったにょ。

しかし、高価なモバイルノートが廉価なCULVノートと同じCPUを使うとなるとCPUでのみ
PCの性能を判断している消費者相手では不利になるにょ。
そのためモバイルノートでもULVではなく通常電圧版CPUを採用するモバイルノートが
増えてきているにょ。
性能よりも駆動時間重視だったLet'snoteでさえ昨年登場したN8、S8は通常電圧版の
CPUを採用したくらいだからね。

駆動時間を伸ばすために作られたULVのCPUだけど最近のCPUは動的に駆動電圧を変える
ことで消費電力を軽減しているためアイドル時の消費電力はULVのCPUも通常電圧版の
CPUもほとんど差がなくなってきているにょ。
もっとも、負荷が高い場合は通常電圧版の方がクロックが高い分だけ消費電力が大きく
なるわけだけどその分、作業も速く終了するためアイドル時の時間が長くなるので
トータルで見ればそれほど差はない(むしろ通常電圧版の方がトータル消費電力は小さく
なる場合もある)からね。
つまり、ULVか通常電圧版かは熱設計の問題だけとなっているわけにょ。

しかし、この熱設計が厄介にょ。
従来であればCPUとチップセットという2つの熱源があったわけであり、Arrandale世代
からはこれが1つに統合されたため合計TDPには差はないのだけど一極集中することで
廃熱が難しくなったからね。
そういう面ではフットプリントが大きい方が有利になるにょ。
Arrandaleを採用してなおかつ薄型化しようとするならば12.1インチよりも13.3インチの
方が熱設計の面でも優位性が高いということがいえるわけにょ。

また13.3インチにすることで11.6インチのCULVノートと比べてサイズの面でも差別化が
可能になるからね。
しかし、「モバイル」という面では大きくなることはデメリットであるため「大きく
なったから優れている」とはいえないにょ。
私は個人的には12.1インチでさえ大きく感じるため13.3インチのノートPCなんて持ち
歩く気にはならないにょ。(11.3インチのLet'snote、12.1インチと13.3インチのFMVを
持っているけどどれも大きすぎる)
個人的にはB5用紙サイズが限界だけどこれを満たせる現行モバイルノートはLet'snote
Rシリーズしかなくなったにょ。(Atom Z搭載機であれば選択肢はたくさんあるけどAtom N
搭載機だと今はほとんど選択肢が無くなってしまった)

結局どの程度のサイズまでならモバイルできるか、どの程度の頻度でモバイルするのか
ということが様々であるため人によって最適なものは大きく異なるにょ。
駆動時間やフットプリントを重視するならばLet'snoteだけど厚いから嫌という人もいる
からね。(もちろん価格面の問題もあるだろうけど)
RX3はRX2とはニーズは異なるけど薄型・軽量というコンセプトは変わらないためそれを
重要視している人にとっては悪くない選択だと思うにょ。

323御茶目菜子:2010/08/05(木) 13:22:41
3Dは「ウリ」にはならない・・・!?
ビデオカメラはフルHDが当たり前となって久しいのだけどデジカメにおいてもHD動画
対応機種はここ数年で急増したにょ。
当初は720pが主流だったけどここ最近はフルHD動画対応デジカメも少なくないにょ。
今となってはデジカメにおいてはHD動画(720pを含める)が撮れるというのは当たり前の
機能となっているために「HD動画が撮れる」というのはウリとしては弱くなっているにょ。
次のウリとなるのはやはり3Dかもしれいにょ。
http://camera.itmedia.co.jp/dc/articles/1008/03/news016.html

3Dが普及するためには3つの条件を満たす必要があるにょ。
(1)3D動画 制作環境
(2)3D動画 鑑賞環境
(3)3D動画 発表環境

(1)を考えてみると制作環境というのは撮影環境(機材)となるにょ。
十分に3Dコンテンツがあり、自分で作る必要がないというレベルに達すればそれで十分
という人もいるだろうけど現状ではまったくその域には達してないにょ。
Blu-ray 3Dも規格がようやく定まってようやくこれからという感じだからね。
そうなると最も3Dコンテンツとして数や質で優れているのはプレステ3用のゲームかも
しれないにょ。
3Dゲームと3D液晶との相性はいいからね。

とはいうもののやはり普及を考えると自分でコンテンツを作るということが必要となる
と思われるにょ。
そのために必要なのが3D動画に対応したカメラにょ。
先日Panasonicが家庭用としては世界初の3Dビデオカメラを発表したにょ。
http://camera.itmedia.co.jp/dc/articles/1007/28/news031.html
この3Dビデオカメラは実質コンバージョンレンズを付けたようなものだけどこれはデジタル
だからこそ可能になっているし、低価格化にも貢献しているにょ。

「ビデオカメラは必要ないけど動画を撮りたい」という人ならばデジカメの動画機能が
有用にょ。
今となっては動画機能が付いてないデジカメ(コンデジ)なんてないわけだし、一部の
エントリーモデルを除けばHD動画対応となっているからね。
本格的に動画を撮りたいという人でなければデジカメの動画機能で十分かもしれないにょ。
3D撮影が可能なデジカメといえば昨年富士フイルムがFinePix REAL 3D W1があるけど
やはり難点は価格にょ。
レンズやセンサーを2つ搭載するためになかなか安価にできないからね。

とはいえ、トイデジカメが数千円で発売されている現在、そこまで画質に拘らなければ
いくらでも安価にできるにょ。
ということでレッツが29800円の3Dデジカメを発表したにょ。
http://dc.watch.impress.co.jp/docs/news/20100729_384201.html
使っているレンズやセンサーはトイデジカメで使用されているものと大差ないものと
いうことでコストダウンによってこの価格が実現されているにょ。

今となってはHD撮影可能なデジカメ(カムコーダ)も1万円程度で入手可能ということを
考えると決して安いというわけではないけど「3D」に対する需要が増えればデジカメ
1.5台分くらいの価格(2台分かかるのはレンズとセンサーのみであり後は共用できる
ため2台分の価格になることはあり得ない)で販売は可能になるだろうから2万円を切る
ことは十分可能になると思われるにょ。

さらに安価にするならばコンバージョンレンズを使用するという方法もあるにょ。
これは銀塩カメラの頃から3D撮影用のものは各社から発売されているにょ。
PENTAXの場合はメーカー純正品も存在するにょ。
http://dc.watch.impress.co.jp/cda/item/2006/03/28/3437.html
原理は簡単で1枚の画像の上に右目用と左目用の画像を生成するというだけにょ。

このままだとプリントしたもの(もしくはPC画面で表示したもの)を平行法で見るという
必要性があるけどデジタル処理が可能なデジカメにおいてはカメラ自体を3D用の
コンバージョンレンズに対応させれば片目用のデータをトリミングしてフル画面として
鑑賞も可能になるにょ。
それを片方ずつ交互に表示していけば3D写真の完成にょ。
平行法(交差法)による鑑賞と3D液晶による鑑賞はその鑑賞方法の違いがあるというだけ
であって本質的な違いはないからね。

ただし、このようなコンバージョンレンズを使用する場合には、広角に対応しにくい
という点とどうしても大きくなってしまうという点の2つの問題があるにょ。
小型化するならばシャープがスマートフォン向けに作ったカメラモジュールを使用する
という方法もあるにょ。
http://k-tai.impress.co.jp/docs/news/20100512_366411.html
現在は3Dカメラを作るには2つのレンズとセンサーが必要になるけどこのようなモジュール
式になれば2つ用意するよりは安上がりになるため今後の普及次第では価格ダウンする
ことも考えられるにょ。(ただし、モジュール式であるが故にカメラの自由度はかなり
減ってしまう)

静止画3DならばソニーのTX9やWX5やNEXに採用されている3Dスイングパノラマを使用する
という方法もあるにょ。
これならば追加コストゼロで3Dが可能になるにょ。
ただし、この方法では動画を3Dに対応させることはできず、3D動画対応のデジカメは
まだまだコスト増を考えると普及には時間がかかりそうにょ。

(2)を考えてみるにょ。
(1)でいくら3D対応の動画がどんどん増えていってもそれを見る環境がないと話に
ならないからね。
3D対応の液晶TVはここ最近大きく普及してきたにょ。
とはいえ、3D液晶TVの最大のネックは本体の価格だけではなくメガネの価格にょ。
3D動画を見るためだけに1〜2万円追加投資ができる人は限られるからね。

あと、せっかく撮った動画も他の人に見せたいという場合があると思うにょ。
昨今はスマートフォンでも720pの動画が再生できるようになったのだけど3D動画に対応
した機種は存在しないにょ。
自宅であれば大画面3DTV+メガネで鑑賞という方法もありだけど小型端末だと裸眼鑑賞が
望ましいにょ。
しかし、昨今は裸眼対応の3D液晶は急激な性能向上をしており今後は搭載する機種も
増えるのではないかと予想されるにょ。

裸眼3Dといえばニンテンドー3DSが挙げられるけどこちらが個人で作った3D動画の再生が
可能であるならばモバイル用の3D動画鑑賞端末として大きな普及が見込めそうにょ。
3D映画の予告編等は3DS用に配信する予定にはなっているもののそれは独自形式のみに
対応しているのか、汎用形式に対応しているのかというのでは大きな差があるにょ。

(3)について考えるにょ。
自分で楽しんだり、身内や知人の間で楽しむのであれば再生環境が重要となるけど不特定
多数の人向けに公開するならばこれが重要になるにょ。
YouTubeの知名度アップによって個人制作の動画が気軽に発表できる環境が整ったわけ
だしね。
とはいえ、YouTubeではすでに3Dに対応しているため3D液晶モニタ+メガネを用意すれば
いつでも3Dで鑑賞可能にょ。
したがって、3Dが普及してくればYouTube以外にも3Dに対応した動画サイトは登場すると
思われるにょ。

最初に掲げた普及のための3つの要因である「制作環境」「鑑賞環境」「発表環境」だけど
これは「3D」ではなく「HD」に置き換えても全く同じことがいえるにょ。
HDを普及させるならばHDに対応したモニタやTVが必要というのは当然だし、HD動画対応
カメラも必要だからね。
ただ、異なるのはHD対応は必然的な流れとして普及に至ったのに対して3Dはあくまで
付加価値でしかないということにょ。

これはどういうことかというとHD動画は単純に解像度を高めただけであり再生に要求
するスペックが上がっただけで普通のPCで鑑賞できるわけだし、TVも地デジに切り替わる
関係上HDTVに買い換えするユーザーが増えたわけだからね。
つまり、HDは贅沢品ではなく普通のものといえるレベルになってきているということにょ。
カラーTVは登場時には白黒TVと比べて贅沢品となっていたけどそれはすぐに(といっても
数年かかっているけど)カラーTVがスタンダードとなり贅沢品ではなくなったのと似て
いるにょ。

ところが、3Dがスタンダードになるという見込みは当分ないにょ。
TV放送が標準が3Dになったり、Blu-rayも標準が3Dになったりとかいうことになれば
モノクロ→カラーやSD→HDと同じような状況になるのだけどそうなる予定は今のところ
ないにょ。
したがって、普及のための条件では(1)の制作環境が重要と書いたけどやはりコンテンツ
不足では(2)の再生環境が普及しないと考えられるため結果として(1)の制作環境(3D
動画対応カメラ)の普及も難しいと考えられるにょ。
HDような普及の相乗効果は今のところ3Dには見られない(当分起こりそうにない)ため
HDが当たり前となった後のウリとして期待される3Dも今ひとつウリとしては弱いものに
なりそうにょ。

324御茶目菜子:2010/08/06(金) 13:12:17
法律は何のためにある・・・?
Winnyで流行っている「タコイカウイルス」の作者が逮捕されたにょ。
http://www.itmedia.co.jp/news/articles/1008/04/news030.html
しかし、日本ではコンピュータウイルスを取り締まる法律がないので「器物損壊」の
容疑になっているにょ。
とはいえ、日本がコンピュータウイルスに関しては法的に全く何の対策もしていないと
いうわけではないにょ。
実際業務用コンピュータであれば刑法の「電子計算機損壊等業務妨害罪」が適用される
からね。

ただし、個人のPCの動作に支障を来すような場合には他の現行法で適用するしかない
状態にょ。
不正指令電磁的記録作成法(ウイルス作成法)はまだ施行されてないからね。
それが、今回「器物損壊罪」が適用された経緯となっているにょ。
実はこの「タコイカウイルス」の作者は2年前に「原田ウイルス」の作成で逮捕されたにょ。
その時は器物損壊は見送られたにょ。
というのもシステムを入れ直せば元通りになるPCにおいて器物損壊は不適切だと判断
されたからにょ。

では、「原田ウイルス」は何の罪に問われたかというと「著作権法違反」にょ。(第23条の
「公衆送信権」に抵触)
原田ウイルスの亜種で画面上にTVアニメ「CLANNAD」の画像を使っていたために同法が
適用されたわけだけど著作権法というのは親告罪であるため著作権者から訴えがないと
罪に問うことはできないにょ。
著作権者に無断で本編丸ごとネット上で配信する行為は法的に黒なのは明白だけどキャプ
画像1枚を元に著作権法違反で逮捕されるのかとなるとまた微妙にょ。
というのも、昨今はTVアニメの感想を書いたブログ等でキャプ画像は良く使われる
ためにょ。
キャプ画像そのものが黒ならばその感想ブログもすべて逮捕対象になるにょ。

しかし、著作権法には「引用」について書いた条文(第32条)があるにょ。
「報道、批評、研究その他の引用の目的上正当な範囲内」であれば引用として見なす
ことができるためそのようなブログであれば法律上は問題ないにょ。
とはいうものの「正当な範囲内」かどうかを判断するのは著作権者であり、過剰な引用は
引用の範囲を超えていると見なされ法的に問われる可能性もあるにょ。
原田ウイルスの場合は、引用には相当しないためただのキャプ画であっても著作権法違反
として罪に問われてしまったわけにょ。
内容(キャプ画配信)ではなく目的が重視されたということにょ。

したがって、今回のタコイカウイルスは作者自らが考案した画像を使っているにょ。
これであれば著作権法違反に問われる心配はないにょ。
ところが、今回は器物破損罪が適用されてしまったにょ。
前回の原田ウイルスの場合は器物損壊罪が適用されず著作権法違反に問われたけれど
法律の解釈は100%固定的なものではなく流動的なものであるため「他所でこうだったから
今回もこうだろう」という安易なものではないにょ。
もっとも、裁判においては判例(つまり、過去の実績)が重視される場合もあるけど
それはあくまで判例であり罪状とは異なるにょ。

この作者は、P2Pによる違法ダウンロードしている連中を懲らしめるためにこのウイルスを
作ったみたいだけどそれで自分自身が逮捕されてしまっては何の意味もないにょ。
前回の原田ウイルスでは自らが著作権法違反となってしまったことを反省し、オリジナル
画像にしたのだけど今度は上記のように器物損壊が適用されてしまったからね。
一部の人はP2P(Winny等)は違法性が高いと判断しているけどP2Pそのものには違法性が
なくユーザーが違法性の高い使用方法をしているのにすぎないにょ。
例えるならば包丁は料理に使うものだけど人を殺すためのものにも使用できるため
包丁は殺人の道具と解釈するようなものにょ。

Winnyは暗号化により匿名性が高いのだけどその暗号解読が可能になってきているため
すでに逮捕者は多数出ているにょ。
バケツリレーのような感じでデータ転送が行われるP2Pにおいてはアップロード、ダウン
ロードという明確な概念はないけど共有フォルダに自らが著作権を持ってない動画や
音楽(つまり、市販の音楽やDVD等)を入れておくとアップロードと見なされ著作権法
第23条の公衆送信権に抵触するおそれがあるにょ。

では、ダウンロード専用として使うのならば何の罪にも問われないのかというとそう
ではないにょ。
今年1月1日より著作権法が改正され違法にアップロードされた音楽や動画をダウンロード
するだけでも違法となったからにょ。
http://internet.watch.impress.co.jp/docs/special/20100108_340934.html
それまではダウンロードは私的使用のための複製の範囲内と解釈されていたために
法律的に問われることはなかったにょ。

「タコイカウイルス」は違法動画、音楽に偽装されたウイルスであるためWinnyを使って
それに感染するということは違法ダウンロードをしたということになるにょ。
今回感染報告があった37歳、男性のPCのフォルダを見てみると明らかに違法ダウンロード
したものと思われるファイルがいくつも入っていたにょ。
つまり、「悪い奴がいるから逮捕してくれ」と言った本人が法を犯しているということに
なるにょ。
しかし、この明らかに違法行為を行っている37歳、男性は今のところ何の罪にも問われて
いないにょ。

これは、著作権法は上記のように親告罪であるということに加えてダウンロードが違法化
しても事実上罰則がないことが理由となるにょ。
つまり、目の前で罪を犯しているのが分かっていても著作権者からこの男性への訴えが
ないため逮捕できないというわけにょ。
「罰則がないなら逮捕されようがないから心配いらない」というわけでもないにょ。
もしも、この男性への何らかの訴えがあり逮捕令状が出ていればその証拠品が見つかる
ことはなくても別件逮捕という形で可能にはなるにょ。

一般的に逮捕されるのは見せしめ的なものが多いために量が必要になることが多いにょ。
見せしめ的な意味合いは無くても多くの音楽や動画を違法アップロードしている人は
著作権者の目に止まる機会も多いだろうしね。
しかし、先日わいせつ画像を2枚投稿しただけで逮捕された事件があったにょ。
http://news.kanaloco.jp/localnews/article/1007280036/
1年前に2枚投稿しただけで逮捕されるということは現実的には考えにくく「別件逮捕では
ないのか」という見方をしている人も多いにょ。
児童ポルノ法における「単純所持禁止」というのも別件逮捕には格好の餌になるにょ。

私は前回の「原田ウイルス」にしろ今回の「タコイカウイルス」にしろこのような別件
逮捕とあまり変わらないと思うにょ。
実際にコンピュータウイルスそのものを取り締まる法律がない以上は他の法律を適用
するしかないわけだから別件逮捕的なものになってしまうのはどうしようもないのだけど
これはあえて言うならば「逮捕したい人を逮捕するために適用しているようなもの」と
いえるにょ。
今回警察の目の前で自らの違法行為の証拠を見せても何の罪に問われない37歳、男性を
見ると余計にそう感じてしまうにょ。
犯罪を犯しても「逮捕したければ強引に理由をつけてでも逮捕」「逮捕する気がなければ
黙認」というのが現状だと思うにょ。
私も「警察の目の前で犯罪行為が黙認された」のを実際に目の当たりにしたことがある
だけに余計そう思うにょ。

325御茶目菜子:2010/08/07(土) 13:34:57
デスクトップPCでタッチパッドを使う意味
Macbookのポインティングデバイスと同等のものが単体の「Magic Trackpad」として
製品化されたにょ。
http://pc.watch.impress.co.jp/docs/column/nishikawa/20100806_385661.html
http://pc.watch.impress.co.jp/docs/column/mobile/20100806_385658.html
わざわざノートPC用のポインティングデバイスとなるタッチパッドをデスクトップPCで
使いたいのか・・・という疑問を抱いている人もいるかと思うにょ。

まずPCのポインティングデバイスについて考えると圧倒的にマウスが主流となるにょ。
これはWindowsやMacが登場した20数年前と全く変わってないにょ。
主流になっているのはそれが使い勝手が良いからと考えるのが妥当なのだろうけど必ず
しもそうとは限らないにょ。
デスクトップPCにおいてマウスが主流なのはそれを超える汎用性を持つデバイスがない
というだけの話だからね。
「従来できたことができなくなる」というのでは普及は難しいにょ。

Windows7からはタブレット機能が強化されタッチパネル搭載機が増えてきたものの
デスクトップPCではタッチパネルはメインとしては使えないにょ。
それは、キーボードとマウスが前提となっているWindowsのUIはタッチパネルと相性が
悪いというのが最大の理由にょ。
それにビューアメインであればタッチパネル付きモニタで十分使えるけどキーボードも
使う場合には不便になるにょ。

ノートPCにおいてもそれがいえ、タッチパネルはピュアタブレット型(キーボード搭載で
あればスライド式やコンバーチブル採用によってピュアタブレット型にすることが可能な
もの)であるからこそ生きてくるものになるにょ。
したがって、ノートPCにおいてはタッチパッドが主流になっているにょ。
ThinkPadのトラックポイントのようなスティック型のデバイスを支持しているユーザーも
多いけどタッチパッドが主流になっている理由は「低コスト」「メイテナンスフリー」
「低い習熟度で使える」というのが大きいにょ。

マウスカーソルの移動させるのだけを見てもスティック型のデバイスではその角度の
微調整には経験が必要だけどタッチパッドであればマウスと同様に指先をたくさん移動
させればカーソルもたくさん移動可能になるため感覚的にも分かりやすいにょ。
トラックポイント愛好家の中には「タッチパッドはすばやくカーソルを移動できない」と
考えている人もいるけど実際はすばやく動かすことで一瞬で画面の端から端までカーソル
移動ができてしまうにょ。

また「細かい作業ができない」という人もいるかもしれないにょ。
トラックポイントは相当慣れれば細かい作業もできるけどそれにはかなりの習熟度が
必要になるにょ。
しかし、タッチパッドでは指先をゆっくり動かせばマウスと同様に1ドット単位の
緻密な動作も可能になるにょ。
とはいえ、これはあくまで原理上(スペック上の読み取りカウント数から単純に考えた
場合)できるというだけにょ。
実際の製品では細かい動作が困難であるものも少なくはないにょ。

例えばWindows標準の「ペイント」を使い画面の上から下まで1ドットのずれもない
1本の直線をフリーハンドで引くという場合、ゆっくり動かしてもカーソルがぶれてしまい
直線にならないこともあるにょ。(静電容量式のタッチパッドの場合ドット単位の移動を
するための精度が出せない製品も多い)
またゆっくり動かすと途中でどうしてもタッチパッド上の上下移動では足りず、再び
上に指を持ってきて移動させる必要があるけどその際に確実にずれてしまうにょ。
これがずれずにできたのは手元のノートPCではLet'snoteだけにょ。(私はR5を画像処理にも
使っているけどドット単位の移動が可能であるためタッチパッドだけでも何とか使える
レベルにある)
これがマウスであれば高精度のマウスと大きめのマウスパッドを使うことで克服可能にょ。

タッチパッドは言うならば指先で移動させる平面マウスでしかないためマウスを超えたり
置き換えるような存在ではないにょ。
トラックポイントは慣れが必要であるもののキーボードのホームポジションから移動せず
使えるという点においてはマウスを超える存在ともいえるにょ。
ただし、この「慣れ」の問題が大きいし、デスクトップPCで使う場合にはキーボードの
選択肢がほとんどない(ThinkPad風のキーボードは発売されているけどそれを使うしか
ない)というのが問題となるにょ。

最初の「Magic Trackpad」に話を戻すと結局タッチパッドと同じく簡易マウス(平面
マウス)でしかないためマウスを完全に置き換えることができる製品ではないにょ。
しかし、デスクトップのMacでノートのMac(Macbook)と同じ操作性が得られるという
のはメリットになるにょ。
私はMacbookは店頭でしか使ったことがないけど大型のタッチパッドに加えてマルチタッチ
対応によってピンチイン、ピンチアウトをはじめさまざまな動作がパッドだけで可能に
なるというのは触っていて非常に気持ちよかったにょ。
マウスを完全に置き換えられなくてもトラックポイントのようにマウスでは実現できない
メリットがあるわけだから単体製品として使う価値は十分にあるにょ。

とはいえ、これはWindowsでは使えないにょ。
ドライバそのものが用意されてないのが原因だけどそれは「Magic Trackpad」の機能に
Windowsが対応していないというのが理由だと思われるにょ。
しかし、Windows7ではマルチタッチに対応しており、「Magic Trackpad」の主要機能は
十分使えそうな気がするにょ。
だから、7専用でいいのでドライバでも用意してもらえたら私が7に環境を整えた際には
ぜひ使ってみたいところにょ。

「どうしてもWindowsでマルチタッチを使いたい」という人はワコムから発売されている
Bamboo touchを使うという方法もあるにょ。
http://pc.watch.impress.co.jp/docs/column/kaimono/20091203_332437.html
どちらが優れているかは分からないけど現状では「Magic Trackpad」がWindowsではまともに
使えない以上は選択の対象にはならないためこちらを使うしかないと思うにょ。
単純にポインティングデバイスとして考えるならば精度の問題でマウスを超えるような
(マウスを完全に置き換えられるような)製品ではないけどマルチタッチを積極的に使い
たいのであればマウスではどうしようもできないからこのようなマルチタッチ対応の
タッチパッドの存在は非常に大きいにょ。

326御茶目菜子:2010/08/08(日) 13:30:46
失敗は成功のもと
地元で開催された花火大会に行ってきたにょ。
鑑賞もだけど撮影を行うために事前に持っていく機材を選定したにょ。
花火写真に必要な主な機材や知識は7月26日に書いたのでそちらを参考にして欲しいにょ。

私が用意したのはデジタル一眼(PENTAX K200D)にょ。
そして、そのカメラ用の標準ズーム(18-55mm)にょ。
バッグの中には常時エネループが4本入っているので単三駆動のK200Dはこれを予備電池
として使用することができるにょ。
何せフル充電であれば(液晶OFFで使用した場合)1000枚近く撮影できるからね。
あと念には念を入れて予備のデジタル一眼(Nikon D50)と望遠系標準ズームのAF-S
18-135mmも持っていくことにしたにょ。
あと三脚も必需品なので普段はあまり使用しない大型(といっても安物)の三脚を
持っていくことにしたにょ。

持っていく機材は準備できているということで安心したのであとは場所の確保にょ。
これに関しては花火大会30分くらい前に会場に到着することで何とかなるだろうと思って
いたら所用のせいや渋滞もあって会場に到着したときにはすでに花火大会が始まって
いたにょ。
まぁこの程度は想定の範囲内ということで暗闇の中、三脚が立てられるようなスペースを
見つけ何とか設置準備をしたにょ。
ライトを持ってくるのを忘れていたらこの時点でアウトだったにょ。

さて、いよいよ撮影開始・・・。
数枚撮影した後に念のため写真をチェックしてみるとあまりに露出オーバーなことに気が
付いたにょ。
これは前回ISO1600で撮影したのをそのままの設定にしておいてためにょ。
慌てて感度をISO100に設定しなおして再び気を取りなおしてシャッターを押すと・・・
シャッターが降りないにょ。
「ケーブルレリーズの接触不良か」と思って何度か抜き差ししてみるけど改善されない
ので直接本体のシャッターボタンを押してもシャッターが降りないにょ。
「もしかして故障か!?」とどうやらバッテリ切れのようだったにょ。
ファインダー内の情報も普通に表示されているので全く気が付かなかったけどバッテリが
少なくなったらバルブモードは使えないみたいにょ。

しかし、こんなこともあろうかと思って持ってきた予備のエネループがあるにょ。
それを早速セットしたけどバッテリ切れ状態にょ。
エネループがこんなに自然放電するはずがない・・・と思ったけどよく考えたら先日USB
充電用のモバイルブースター用に2本使ったのを思い出したにょ。
さすがに2本が使えないとなると電圧不足なのは当然か・・・?
単三駆動であるためその辺のコンビニでアルカリ電池を買えば当面は何とかなるのだけど
今からコンビニに行っていたら花火大会は終了してしまうにょ。

そこで役に立ったのが予備として持ってきたデジタル一眼(D50)にょ。
まさか本当に出番があるとは全く想定してなかったにょ(笑)
ということで、再びセッティング開始にょ。
無事に三脚にセット完了したときにはすでに花火大会のスケジュールは半分以上終了
していたにょ。

ここで、問題が・・・。
K200DではケーブルレリーズがあるけどD50では使えないにょ。
D50用のオプションであるリモコンは持っているけどまさかD50の出番があるとは思って
なかったので持ってきてないにょ。
そういうことで、直接本体のシャッターボタンを押すことにしたにょ。
バルブモードで撮影するため押した瞬間だけでなく押している間ずっと微動だにできない
状態・・・だけど緊張してからだがぶるぶる震えているにょ。(別にアル中ではない)
できあがった写真を見るまでもなく失敗しそうな予感がしていたにょ。

撮れた写真はこんな感じにょ。(D50、AF-S18-135mm、F16、3秒)
http://www.42ch.net/UploaderSmall/source/1281239854.JPG
mixiで公開しているようにQVGAくらいに縮小してみれば分からないけど原寸大(完全
無加工な写真)だととてつもないほどのぶれているのが分かると思うにょ。
これがまともな部類といえばその他の写真の出来がどれだけ酷いのかが分かるにょ。
7月26日には(一定レベルまでなら)花火写真を撮るのは簡単と書いていたのにこれでは
話にならないにょ(笑)

これならばまだコンデジで撮影した方が手ぶれがないだけマシかもしれないにょ。
TX1の手持ち夜景モードであれば手ぶれがあまりないレベルのシャッター速度で撮影
できるからね。
三脚を使うならばコンデジの夜景モード(花火モード)の方がまだキレイに撮れそうにょ。
実際のところバルブではなく4秒くらいのシャッター速度固定で撮っていればここまで
酷い写真を量産することは無かっただろうと後になって思ってしまったにょ。
バルブモードで写真を撮る際に本体のシャッターボタンを押していたらぶれまくって
しまうということが分かるいい経験になったにょ。
私は銀塩一眼で初めて花火の写真を撮ったときからずっとケーブルレリーズを使用して
いたからね。(ケーブルレリーズの効果が絶大であることが分かった)

三脚やケーブルレリーズがないと花火は撮れないかというとそうではなく上記のように
手持ちでも撮れなくはないけど流れる様子は数秒間の長時間露出でないと表現できない
ため手持ちでは不可能にょ。
ただし、それは静止画の場合にょ。
動画であれば手持ちでも十分撮れるにょ。
普段私が持ち歩いているコンデジ(TX1)を用いて実際に撮影してみたものがこちらにょ。
http://www.youtube.com/watch?v=1tOjUX6VqE0
動画であれば昨今のコンデジであればこれくらいは余裕で撮れてしまうにょ。
花火撮影で難しい難しいシャッターチャンスに関しても動画であれば問題ないしね。

さて、今回の花火撮影は近年希に見る失敗に終わってしまったわけだけど失敗は今後の
いい経験になるにょ。
「予備バッテリがあるから安心」という過信も打ち破ってくれたし、「バルブであっても
シャッターボタン手押しで何とかなるだろう」という自信も打ち破ってくれたからね。
「失敗は成功のもと」とことわざであるように失敗の原因が何かということを知りそれを
次へと繋げていくことが重要となるにょ。(だから、考えもなしにやって失敗しまくる
ことが良いことでもない)

327マリモーマ:2010/08/08(日) 21:15:31
見れない
昼からpcで お茶目クラブと全貧連の掲示板が見れないよ
他のteacup掲示板は 普通にみれるよ

328御茶目菜子:2010/08/09(月) 13:15:47
iPhoneは垂直統合によって勝利し敗北する
アンテナ問題を抱えつつもiPhone4は売れまくっているにょ。
http://plusd.itmedia.co.jp/mobile/articles/1008/06/news074.html
確かにその問題が無ければさらに売れたのかもしれないと考えると「さすがiPhone」と
しか言いようがないにょ。
何せ7月6日に書いたように本体外周にあるデッドスポット(アンテナの継ぎ目)に触れた
だけで感度が100分の1までダウンしてしまうわけだからね。
これはバンパーの無償配布で一応は解決したけど根本の解決にはなってないにょ。

とはいえ、その間アップル社がしていたことは他社のスマートフォンのアンテナ問題指摘
(他社の製品も持ち方によって感度が変わる)だったにょ。
他社のスマートフォンでも持ち方によっては感度を下げることが可能というのを
サイト上で公表してもそれによってiPhone 4のアンテナ設計の問題が改善されるわけでは
ないにょ。
むしろ、他社製品はそこまで持ち方を工夫しない限り感度が落ちないということを考えると
普通に持っただけで大幅に感度が落ちるiPhone4の商品価値を下げる結果に繋がるのでは
ないかと私は考えていたにょ。
しばらくして、他社製品の比較は公式サイトから消されそしてiPhoneのアンテナ設計の
責任者が退社してしまったにょ。(理由は公表されてないけどアンテナ問題の責任を
取らされたという考えをする人が多いと思う)
http://headlines.yahoo.co.jp/hl?a=20100808-00000001-jijc-biz

iPhoneのライバルとなるのはやはりAndroid搭載のスマートフォンだと思うにょ。
Android OS搭載機は2012年にはiOS搭載機を超えるという予想がされているにょ。
http://www.itmedia.co.jp/news/articles/1008/06/news057.html
確かにこれは十分考えられることにょ。
iPhoneの最大の強みは垂直統合モデルにあるのだけどそれがシェアという面においては
大きな足かせになっていると考えられるにょ。

まずは垂直統合モデルのメリットとデメリットについて考えるにょ。

《 メリット 》
 (a-1)ニーズに合ったものを作りやすい
 (a-2)情報漏洩を防ぎやすい
 (a-3)低コスト化が可能

《 デメリット 》
 (b-1)初期投資が大きい
 (b-2)需要低下によるダメージが大きい
 (b-3)生産の効率性が低い

メリットから考えてみるにょ。

(a-1)に関してはIT機器ではなく料理で考えてみると最高の料理を作るのに最高の素材が
必要と考えた場合にはその材料を入手するために材料の栽培(つまり、畑作)も自らの
手によって行うことで可能になるにょ。
それはiPhoneでもいえるにょ。
iPhoneに必要なOS、それを動作させるためのハードウェア(CPU等)を自社で設計する
ことでより適したものを作ることができるということにょ。
これこそが垂直統合の最大のメリットといえるにょ。

(a-2)は1社だけで行う垂直統合だから当然のことにょ。
多くの会社によって成立している水平分業だとどうしてもどこからか情報が漏れてしまう
からね。
人(会社)が多く関われば関わるほど漏れてしまう可能性は高くなるということで
アップル社は電波状態を確認するためにフィールドテストではなく専用ルームで行っている
模様にょ。
これならば限られた人しかテストに参加することもできないので情報漏洩の心配はほぼ
ないにょ。
それでも社外に持ち出す人が居てそれがたまたま(?)他人に拾われたりして情報漏洩
してしまったこともあるけどね。

(a-3)は自社で賄うため当然のことながら安価で済ますことが可能になるにょ。
OSの入手も他社から買う場合は一定の金額かかるわけだけど自社製品を使えばかかる費用は
そのOSの開発費を端末出荷数で割ったものだけで済むからね。
これが、水平分業ということでOSの他者にライセンス販売する形となる水平分業であれば
異なるスペックの端末は当然出てくるわけであり、そうなると特定ハードがあることを
前提としたアプリを作ることはできないにょ。
垂直統合でスペックが統一だからこそそのハードを100%生かすことができアプリを作る面
でも有利に働いているにょ。

次にデメリットについて考えてみるにょ。

(b-1)はOSにしろ、CPUにしろ開発には非常に大きな初期コストがかかってしまうにょ。
よほどの台数売上見込みがない限りは他社製のライセンスを受けた方が安く済んでしまう
からね。
これはiPhoneの場合はiPodという下地があったことが大きなアドバンテージになっていた
と思われるにょ。
アプリ販売面に関してもすでにiTunes Storeによるネット配信システムが構築済みだった
からね。
これを一から作るとなると非常に大変だったけどすでにあるものを有効活用可能という
ことが初期コストを抑える効果やある程度の販売台数を事前に見込める結果になったと
いえるにょ。

(b-2)はその商品が売れている間はいいけど需要が減ってしまったときに垂直統合の
場合は末端まですべて影響が出てしまうにょ。
垂直統合はリスクが大きく水平分業はリスク分散型といえるにょ。
PCでいえば水平分業といえば一般的なWindows PCが当てはまるにょ。
国内(NEC)の独自規格であったPC-98はかつては独自規格のハードウェア、独自に
カスタマイズされたMS-DOS、そしてそのDOS上で動作する独自ソフトということで
垂直統合に近いものがあったけどPC-98の衰退で独自を貫くことは難しくなっていった
からね。(末期にはPC-98もBIOSを除きほぼPC-AT互換となった)
一般的なPCであればWindowsが衰退したとしてもその時の主流OSを搭載すれば済むという
だけの問題にょ。

(b-3)は垂直統合の最も厳しい面にょ。
垂直統合は1社によるものだから設計は自由に行うことが可能だけど1社であるが故に
多くのニーズに合わせて多くの種類の端末を用意することが困難になるにょ。
コンシューマゲーム機はほぼ垂直統合モデルであるにも関わらず1つの機種(もしくは
数機種)でまかなえているのだけどこれは自社だけが垂直統合ではなく他社も条件が同じ
だからにょ。
だからこそDSがコンシューマ携帯ゲーム機市場で約7割のシェアを獲得することが可能に
なってくるにょ。

現行のiPhoneとiPadで需要をすべてカバーするなんてことは無理にょ。
それはデザイン面、スペック(サイズ、性能)面、価格面、キャリア面において求めて
いるものがユーザーによって大きく異なるからにょ。
もちろん1社だけだと生産能力の限界もあるしね。(必要以上に量産できる体制を整えて
しまうとコストだけが多くかかってしまうし、かつての「たまごっち」のようにバカ売れ
したにも関わらず最終赤字になってしまうようなハメになりかねない)

どうやら、「9.7インチでは大きすぎる」という一部のユーザーの間の不満点を解消
すべく7インチのiPadが登場するという噂があるにょ。
http://journal.mycom.co.jp/news/2010/08/05/048/
約10インチの液晶を搭載ということでサイズの割りには軽い(モデルによって異なるけど
700g前後)とはいえ、手に持って使う端末としては重すぎるというのがあるため7インチで
500gを切れば需要はそれなりにありそうにょ。

これがAndroid搭載機であればWindows PCのように「需要がある」と判断すればどこかの
メーカーが作ると思うけど垂直統合であればiPhone/iPadを作れるのはアップル社だけで
あるためアップル社が作らなければどうしようもないにょ。
ただ、Androidの場合は各社、各端末で性能差が大きいためアプリ面においてはかなり
厳しいものがあるにょ。
PC用のアプリであれば要求動作スペックがパッケージに記されているけどそれと同じような
ことが今後Android用アプリには必要になってきそうにょ。

Android搭載機は高価なハイエンドモデルから安価なロースペックモデルまでさまざま
用意されているのは確かに良いことだけど問題はOSにょ。
PCの世界だと例えば9年前にXP搭載機を買った人は今もSP3にアップデートすることで
そのまま使えているし、XPの要求スペックを満たしていれば98/Me/2000搭載機でもXPを
導入することは可能にょ。(それが性能面で実用的かは別問題だけど)
またXPは8月3日に書いたようにあと3、4年は現役として使うことができそうなので
XPのトータルの寿命は10数年に渡るといえるにょ。

Android搭載機は現状では標準的な2.2とローエンド機に搭載されている1.6があるけど
この1.6のサポートがどこまで続くのかとか、主要アプリの動作サポートがどこまで
続くのかということを考えるとXPと比べて遙かに短期間で終了すると思われるにょ。
PCとPDA、スマートフォンを比較するのも・・・・という人もいるかもしれないけど
価格的には安価なPCよりも標準的なスマートフォンの方が高価(「実質価格」ではなく
一括払いで購入可能な価格)になってきているから短くても問題ないという言い訳は
通用しないにょ。(昔のように2、3年使用すれば縛りなしで0〜2万円で最新機種を買う
ことができたというのとは状況が異なる)
ネイティブアプリが使えるということがスマートフォンの一般的なケータイ(ガラケー)に
対するアドバンテージなわけだからね。

とはいえ、垂直統合のiPhoneはその心配はないのかというとそうではなく基本的に
1世代前まではOSのアップデートをサポートしているのにすぎないし、世代数が増えれば
(つまり、数世代旧機種になれば)動作対象外となるアプリも激増すると思うにょ。
したがって、スマートフォンにおいてはWindows PCのように長期間サポートされるもの
という考えは捨てるしかなさそうにょ。
PCとは異なり2、3年で買い換える人が多いスマートフォンにおいてはWindowsのような
長期サポートは必要ないと判断されてもやむを得ないのかもしれないにょ。

あと、問題はAndroidは後継となる3.0に関しては要求スペックが飛躍的に高くなっている
ということにょ。
ローエンドを切り捨てる(というか現行だと「ハイエンドのみに絞る」と書いた方が
適切か)ということでハイスペックを生かしたアプリの登場が期待できる反面、(現行の
2.2搭載からアップデートした場合に)動作保証のある端末はごく限られてしまうという
問題があるにょ。
水平分業であるため安価なものまでバリエーション豊富に用意できるというのがAndroid
搭載機のメリットなのにそれができなくなるのは問題・・・ということでしばらくの間
2.2は継続される予定となっているにょ。
とはいえ、そんなに長期間2.2がサポートされるとは思えないにょ。
これも2、3年で買い換えるということを考えれば大した問題ではないのかもしれないにょ。

結局のところPCとは異なりスマートフォンの場合は購入スパンが短いためOSのサポートが
短くなる傾向になり結果として古いOSのサポートはされにくくなっているにょ。
これにより、PCよりも世代交代やシェア争いの変動が大きいものになっていると考える
ことができるにょ。
今であればiOS搭載機(iPhone/iPad)は高いシェアを持っているけど垂直統合という
ことで広いユーザーニーズを確保したり、絶対数量を伸ばすことが困難であるため
シェアにおいては2014年には上記予想のようにAndroid搭載端末に負けてしまうという
ことは十分に考えられるというわけにょ。

とはいえ、シェアで負けたから駄目かというとそうではなく十分な数量売れていれば
アプリ面の心配はする必要もないし、シェアよりも自分に合うかどうかがが重要にょ。
現状でいくら売れているとはいえ、iPhoneを使ってみて自分に合わないというのであれば
「(自分にとって)iPhoneは良い端末」とはいえないわけだからね。
アニメ業界、ゲーム業界でもこれは同じで人気があるから必ずしも自分で観て(プレイ
して)楽しいというわけではないので売れ行きは全く気にする必要はないにょ。
しかし、ある程度売れなければ続編が期待できないからより多く売れるということもことも
やはり重要になってくるにょ。(良いものだから売れて欲しいという願望もあるだろうし
続編を期待するならば違法ダウンロードするのではなくその対価を支払って欲しい)
5年前にはiOSもAndroidも無かったわけだから5年後や10年後のことは予測が困難とはいえ
アップル社のブランド力が続いていれば続編(後継機種)が出ないほど落ち込むという
心配はしなくてもいいかもしれないにょ。




マリモーマさんへ
>昼からpcで お茶目クラブと全貧連の掲示板が見れないよ

PC、携帯両方で見れないのなら鯖落ちかと思ったけど私はPCでも見れてるということを
考えるとアクセス規制でもかけられているにょ!?
私はそんな設定をした覚えがないので板単位ではなく鯖単位で規制がされているのかも
しれないにょ。

329マリモーマ:2010/08/09(月) 19:42:42
間違い発見
トップから掲示板に飛ぶとエラーが出るよ
下のURLだと両方見れるよ
http://6407.teacup.com/ochame/bbs
http://6519.teacup.com/ochame/bbs
時間があったら トップページのリンクを治してね

僕も規制とか ウイルスバスターなどで見れないのか いろいろ調べたよ
携帯で見れるから そのURLで開いたら ちゃんと見れたよ

http://liv0.com

330御茶目菜子:2010/08/10(火) 14:39:02
「昔は良かった・・・」というのは果たして本当なのか?
昨晩よりNHK-BS2で5日間に渡って放送される銀河鉄道999を見たにょ。
http://www.nhk.or.jp/g999/
銀河鉄道999は私はリアルタイムで見ていたけれど録画機器もなく再放送でも見たことが
ないため本放送を見てから30年ぶりの視聴となるにょ。
銀河鉄道999は宇宙戦艦ヤマト、(初代)機動戦士ガンダムなどとともに一世風靡した
アニメだけど現在放送中のアニメで30年後も多くの人々の心に残るような名作アニメ
と言うものは無いような気がするにょ。

1つの理由としては7月27日に書いたようなビジネスモデルが影響しているにょ。
現在アニメファン向けに作られている作品はほとんど深夜アニメとして放送されている
わけだけど深夜アニメはDVD(もしくはBlu-ray)という映像コンテンツを売ることで
成立しているビジネスモデルとなっているにょ。
放送枠を長期間確保するのが難しいのと薄利多売(多くの作品に出資することで1作品
あたりのリスクを減らす)により1クール単位での制作が基本となっているにょ。
制作本数が多いとその中で埋もれてしまいがちだけどそれはターゲットをある程度
絞ることで回避しているにょ。
ただし、ターゲットを絞るということは作品が視聴者を選んでしまうということにも
繋がってしまうにょ。

たとえば、ここ1、2年の深夜アニメの中でもトップレベルの人気である「けいおん」を
例に挙げてみるにょ。
けいおんは昨年4月〜6月の1クール放送された後に今年は4月〜9月の2クール放送される
予定になっているにょ。(というか現在放送中)
オリコンでOPとEDのCDが1位、2位を独占したり、作中で使われたギターやヘッドホンが
高価にも関わらずバカ売れしたり、舞台となる桜高校のモデルとなった豊郷小学校
(旧校舎)には大勢のファンが押し寄せたりと話題を欠かすことはなかったにょ。
深夜アニメは上記のようにDVD販売のための宣伝のようなものであるため4〜10局程度と
いう極めて少ない放送局(つまり、低コスト)で放送するのが普通だけど1期での人気が
あったためか2期では深夜アニメでは異例となる28局での放送となったにょ。
そして、9月でのアニメ放送と同時に原作の方も終了することが分かりそれはYahooの
トップページに掲載されたにょ。
http://headlines.yahoo.co.jp/hl?a=20100809-00000002-mantan-ent

そこまでの作品ならさぞかし多くの人が見ていることだろう・・・と思いきややはり
深夜アニメということで視聴率は2〜4%程度だからね。
深夜アニメは数が多いため時間帯が重なってしまい見れないという場合もあるので
録画視聴を考えてもアニメファンならほとんどの人が見ているというレベルには至って
ないにょ。
当然のことながら「深夜アニメをあまり見ない」という人ならば作品名こそ知っていても
1話も実際に見たことがないという人も多いのではないかと思うにょ。

これは現状のアニメを考えると仕方がないことにょ。
ここで「作品の質が昔の方が良かった」からと考えてしまうのはただの懐古主義にょ。
昔は作品数が少ないことに加えて作品が商品ではなかったことや録画環境がなくリアル
タイムでの視聴を余儀なくされたのが大きいと思うにょ。
それだけ心に残る要素があり、視聴率の面でも今では考えられないレベルであるため
より多くの人の心に残っているのは当然にょ。

PCにしろゲームにしろ昔と比べて最近は面白みに欠けるという人もいるのではないかと
思うにょ。
これは上記のような懐古主義に他ならないにょ。
確かにすべてを掌握できるという面においてはシンプルな8ビットパソコンのメリットは
あるけどそれは便利さを考えていくと必ずしもそうではないにょ。
もしも手元に1台だけPC(パソコン)のみを許された場合Windowsが動作するPCと名機と
呼ばれる8ビットパソコンでは前者を選択する人が大半ではないかと思うにょ。
それは便利さを知っているからにょ。

結局のところ「普遍的なもの」というものはなく同じ個人においてであろうと価値観は
変化しているということにょ。
それ故、多くの人に受け入れられるためには変化することが必要となるにょ。
そうなると現在多くの人に受け入れられるものが30年後に受け入れられることは非常に
難しいといえるにょ。
ただ、「面白さ」というのは「便利さ」とは異なりある程度普遍的なものがあるのは
事実にょ。

しかし、その場合においてもその当時を知っているからこそ感じる面白さ(言い換えれば
その作品に対する「思い入れ」)というものがあるからね。
今年5月22日、23日の2日限定でGoogleのトップページにプレイ可能なパックマンが
公開されたけどそれを楽しむことができるのはやはりパックマンを実際にプレイしていた
人だけだと思うにょ。
昔のゲームは結構美化されている場合が多く実際に今ファミコンゲームをやってみると
「これで昔は夢中になっていたのか・・・・」と思わせる作品も少なくないにょ。
それを考えると「面白さ」というのも必ずしも普遍的ではないと思ってしまうにょ。
やはり、「思い入れ」というのはかなり大きな影響を与えているということにょ。

したがって、アニメにしろゲームにしろ昔と今で正当な比較を下すというのは極めて
困難なものといえるにょ。
確かに、「30年後に世代を越えて語り継がれるようなアニメが今あるのか」と聞かれたら
「ない」と答えるだろうけどそれだから最近のアニメは昔のアニメより質が低いのか
と言われたらそうではないにょ。
やはり、「思い入れ」という面において消費型の現在のアニメは不利になっているという
だけに過ぎないからね。




マリモーマさんへ
>トップから掲示板に飛ぶとエラーが出るよ

報告どうもにょ。
間違いではなく旧URLが使用できなくなったためだと思うにょ。
私はいつも掲示板に直接入っているので気が付かなかったにょ(笑)
というかヒット数から考えてもトップページが1日約20ヒット、掲示板が約150ヒットで
あるため掲示板に直接入っている人が圧倒的に多いだろうからね。

331マリモーマ:2010/08/10(火) 20:50:12
リンク修正乙
おちゃめくらぶの方の掲示板リンクは 治ってるね
全貧連は まだ そのままみたいだね

http://liv0.com

332御茶目菜子:2010/08/11(水) 13:10:01
大は小を兼ねる・・・とは限らない
デジカメの画素数増加は止まることがないにょ。
700万画素あたりから「これ以上増えてもあまり意味がない」と思っていたコンデジも
今年に入ってから1400万画素が普通になってきたからね。
ケータイのカメラも1200〜1300万画素のものが登場しているにょ。
個人的には「高画素=高画質」ではないと思っているものの依然として多くのユーザーの
間で高画素信奉が続いているのは確かだし、用途によって画素数設定を変えるのは面倒と
いうことで「最大画素数モード し か 使わないという人も少なくないだろう」と思って
いたにょ。

そこに興味深いアンケート結果があるのでそれを見てみることにするにょ。
http://dc.watch.impress.co.jp/docs/enquete/20100810_386645.html
これを見る限り、常に最大画素数で撮影している人は約8割もいることが分かるにょ。
ある程度多いことは予想されたけどここまで多いとは思わなかったにょ。
ただし、これは普段使用しているのがコンデジかデジタル一眼かでも変わってくるし
また機種(そのカメラの画素数)によっても変わってくるため絶対的な結果ではないにょ。

ユーザーのアンケート結果をまとめると下記のようになるにょ。

◎最大画素数で撮影することによるメリット

 (a-1)画質が高くなる
 (a-2)大伸ばしに有利
 (a-3)設定を変えなくてよい

◎最大画素数以外で撮影するメリット

 (b-1)データが軽くなる
 (b-2)その画質で満足している
 (b-3)用途によって使い分けるのが合理的

それぞれを私の意見を交えて解説してみるにょ。

(a-1)は確かに「高画素=高画質」とはいえなくても同じカメラであれば画素数が低い
モードよりも画素数が高いモードの方が画質(というか、解像感)の面で有利に働くのは
紛れもない事実にょ。
しかし、それによるメリットがどの程度ありデメリットがどの程度あるのかということを
知っておくことが重要になるにょ。
私は手元のコンデジのTX1で撮影してみたところ4月8日に書いたように1000万画素モードで
撮影したものと300万画素で撮影して1000万画素相当に拡大したものでは有為的な差は
感じられなかったにょ。
その画素数に似合うレンズを搭載していたり、最大画素数が200〜300万画素の機種を
使用している人ならば最大画素数で撮影することに十分な意味があるけどそうでない
場合はプラシーボ効果によって「高画素の方が高画質」と感じている可能性があるにょ。

(a-2)は高画素撮影する最大のメリットにょ。
とはいえ、どの程度のサイズならばどの程度の画素数が必要になるというのは自分の
体で覚えるしかないにょ。
人間の目の分解能やプリンタの性能を考えると300dpiを大きく越えるということは無意味
だけどね。
私は昨年3月16日に実際に印刷dpiが異なるL版プリントした写真をシャッフルして並べ
その画質比較をすることで300dpiを越えると有為的な差がないことを体感したにょ。
(ブラインドテストをしないとプラシーボ効果によって高dpiの方が上に感じてしまうので
テストそのものが成立しなくなる)

大伸ばしであれば間近で鑑賞ということはほぼ無くなるため200〜250dpiで十分なレベルに
なるにょ。
600万画素あればA4サイズに250dpiでプリントできるため1000万画素超を生かすには
A3以上にプリントする必要があるにょ。
だから、コンデジやケータイの1200万画素や1400万画素で最大画素数で撮影するという
ことが本当に必要な人はほとんど居ないと思われるにょ。(家庭用プリンタの大半はA4
サイズまでだし、A3プリンタでのプリントを考えている人がケータイで撮影するとは
到底思えない)

トリミングでは画素数が多ければトリミング後でもある程度の画素数を得ることが
可能になるため有利になるにょ。
1200万画素では縦横半分の大きさにトリミングしても300万画素になるためそれを2L
サイズにプリントしても約300dpiとなるため十分なレベルになるにょ。
しかし、レンズ性能に優れたデジタル一眼ならまだしも、コンデジではトリミングに
耐えうるだけのレンズ性能がないため結局少ない画素数を300万画素に拡大したものと
あまり変わらないものになってしまうにょ。

また私はデジタル一眼で撮影時でもトリミングが要らないように構図を考えて撮影する
ことを心掛けているにょ。
確かに航空写真や鳥のように絶対的な望遠側の焦点距離が足りない場合はトリミングを
前提となる場合があるけどそれはあくまで例外であり、基本的にはトリミングをしなくて
済むようにしているにょ。
そういったものを考えて撮影するのと考えないで撮影するのとでは写真に大きく影響
してくると私は考えているにょ。(トリミング前提だと失敗写真が失敗ではなくなる
場合が多々出てくるため何が良いのかというものが分からなくなってしまう)

(a-3)は面倒臭がりの私は良く分かるにょ。
面倒というだけではなく失敗写真を産んでしまうことにもなるからね。
Web写真用に35万画素モードを使っていてそのまま普通に写真を撮っていて後から唖然と
したとが実際にあるにょ。
だから、これだけあれば普段は困らないだろうというラインを設定したにょ。
それがコンデジだと300万画素、デジタル一眼だと600万画素でありそれ以上画素数を
落として撮影することはないにょ。

次は最大画素数で撮影しないメリットについて考えてみるにょ。

(b-1)はメディア容量が少なかった昔であれば痛感していると思うにょ。
スマートメディアや旧メモステのように最大128MBのメディアの場合は末期となった
300〜400万画素のカメラ(最高画質で1枚あたり1MB少々)で使うには明らかに容量不足
だったからね。
100枚近く撮れるから十分という見方もあるけどフィルムのように気軽に買える金額
ではなかったので予備メディアを確保するのが難しかったし、金銭的な面で最大容量と
なる128MBのメディアを買うこともできなかった人もいることだと思うにょ。
したがって、昔は画素数を落として使わざるを得ない場合も多々あったにょ。

しかし、現在となっては8GBのSDHCなんて2K円程度で買えてしまうにょ。
8GBあれば1400万画素、JPEG最高画質で撮っても1000枚以上記録できるにょ。
2泊3日程度の旅行なら8GBのメディア1枚で大抵は足りるだろうけどそれでも不足ならば
32GBのSDHCを買うという方法もあるにょ。(安価な8GB程度のメディアを予備として複数
持つというのもリスク軽減としては十分にあり)
それを考えると昨今はメディアの容量不足を理由に画素数を落とす人はかなり少なく
なってきているのではないかと思うにょ。

データが軽くなるというのは容量の問題だけではないにょ。
画像を記録するのにも画素数が多ければ多いほど時間がかかるからね。
私がかつて使用していた200万画素のデジカメを搭載したケータイ(V601SH)では
200万画素モードでは記録に15秒くらいかかるけど35万画素モードでは2秒くらいで済んだ
ために200万画素モードはよほどのことがない限りは使用することがなかったにょ。
昨今のケータイは高速になっているためここまで極端な差はなくても高画素化によって
処理に時間がかかる機種も少なくないにょ。(私のTX1に使用しているメモステは
シーケンシャルライトで2MB/sにも満たないため1000万画素モードでは記録に3秒くらい
かかってしまう)
あと連写する場合にはメディアの速度が遅い場合は高画素モードでは連写ができない
場合もあるにょ。

また画素数は画像を開く速度にも大きな影響を与えるにょ。
画像転送速度の問題、JPEG展開速度の問題の両方を考慮しなくてはならないけど単純に
考えれば画素数が3倍に増えれば画像を開くのにかかる時間(サムネイルを作るのに
かかる時間)は約3倍になるにょ。
これは3倍速いPC、3倍速いメディアを使うことで解決可能だけどコストがかかるし
そんなPCで少ない画素数であればさらに快適であるため根本的な問題解決ではないにょ。
つまり、どこまで許容できるかということが重要になるということにょ。
その許容ラインと高画素で記録することによる画質向上を天秤にかけてそれでなおかつ
高画素のメリットが大きいと感じるならば常に最高解像度で撮影するということに関して
何の問題もないにょ。

(b-2)は完全に個人の用途次第だからどれだけ必要なのか、どれだけなら満足できるのか
ということは人によって大きく異なるにょ。
PC鑑賞のみという人であれば200〜300万画素あれば十分にょ。(300万画素あればフルHD
モニタであっても横一杯に等倍表示をしても溢れるくらいのサイズとなる)
等倍鑑賞するから多くの画素数を求めるという人もたまに見かけるけど等倍鑑賞だから
こそむやみに画素数が多いと粗だけが見えてしまうため最大画素数での記録は逆効果に
なるにょ。
現在使われているセンサーはベイヤー配列が大半ということを考えれば最大画素数の
半分〜3分の1の画素数で記録するのがベターといえるにょ。

もっとも、最大画素数で記録して、3分の1画素数相当で閲覧という方法もあるけどその
場合はアプリの縮小補間方式に大きく影響されてしまうにょ。(私が使っている
Irfanviewの鑑賞時の縮小補間は速度優先のためか単純な画素間引き方式であるため中途
半端な縮小はあまりキレイではない)
余裕があれば最大画素数で記録したものとそれをPC鑑賞用にリサイズしたものを用意
するという方法があるけどそれだとかえって手間が増えてしまうにょ。
特にデジタル一眼でRAW記録しているならばそれが最高画質となるためRAW+JPEGで
記録する場合にはJPEGは最大解像度に拘る必要は全くないと私は思ってしまうにょ。
JPEGはあくまでPC鑑賞専用で高画質でプリントする必要があるときはRAW現像して行えば
良いというだけの話だからね。

(b-3)は(a-3)と対極となるものにょ。
画素数を固定するというのは失敗回避において利便性があるし、用途によって画素数を
変えるというのは効率の面で最も合理的にょ。
私はその辺は上記のように普段使用するのに必要な画素数をあらかじめ決めて基本的に
それで固定(変動させる場合はそれより下の画素数は使わない)ということで解決して
いるにょ。

私の場合はコンデジのTX1は8月1日に書いたように主に日記代わり(記録用写真)として
使っているということもあり、それほど多くの画素数は求めていないにょ。(せいぜいWebで
使ったりL版印刷ができれば十分なレベル)
したがって、300万画素モードを基本として使っているわけにょ。
画質が必要な場合はそれより上げる場合がある(といっても上記のようにTX1はレンズ
性能がボトルネックとなり1000万画素でも300万画素と比べて有為的な画質向上がない
というのは悲しいところ)けれどそれよりは下げないことで失敗のリスクを減らして
いるにょ。
上記(a-3)で書いたように私は画素数をWeb用に落として失敗してしまった経験が実際に
あるからね。

私の意見は上記のようなものだけど最初に書いたようにコンデジかデジタル一眼かで
大きく変わってくるにょ。(デジタル一眼は普及価格帯のAPS-Cサイズセンサーであっても
1500〜1800万画素で十分解像しているけどコンデジで1000万画素で解像しているものは
ほぼ皆無)
あとは、個人の感覚と許容ラインがすべてにょ。
どの程度まで許容できるかは人それぞれだからね。
大伸ばしであっても250dpiで妥協なんてできず、350dpiは欲しいという人もいること
だろうからね。
その場合でも元データが解像してないと画素数だけ多くても何の意味がないにょ。
だからそういう人は最大画素数そのものに拘るのではなくカメラ(レンズ含む)に拘る
必要があるにょ。
A3プリントプリントをするから1200万画素は最低必要といっても1200万画素のケータイで
撮影していては「1200万画素」ということに何の意味もないことが分かると思うにょ。
本当に重要なのは「画素数」ではないことは実際に比較するまでもないからね。
(a-1)で書いたようにプラシーボでもいいから高画質を望むという人でない限りは・・・。




マリモーマさんへ
>全貧連は まだ そのままみたいだね

全貧連もだけどおちゃめくらぶの方でも修正したのはトップページだけにょ。
多くのページから掲示板へリンクしているのでそれを直すのはかなり面倒にょ(笑)

333御茶目菜子:2010/08/12(木) 13:34:21
3D液晶TVは不要なのか・・・?
8月5日にはビデオカメラにおいて現状では「3D」はあまりウリにはならないということを
書いたにょ。
それは、3D動画を普及させるためには制作環境、鑑賞環境、発表環境のすべての面に置いて
普及させる必要があるけどまだ鑑賞環境(つまり、3D液晶TV)が普及に至ってないため
3Dビデオカメラの恩恵を得られる人がごくわずかしかいないからにょ。
そのわずかの恩恵しかない人の一部が買うだけに止まるため普及はどうしても鈍くなって
しまうにょ。
では、3D液晶TVはどうなのかというと現状では不要に感じている人が多いみたいにょ。
http://av.watch.impress.co.jp/docs/series/avt/20100810_386682.html

3D液晶TVは6月17日に書いたように将来は当たり前のようなものになると思っているにょ。
それが現状で今ひとつな理由を改めて整理して書いてみるにょ。
3D液晶TVが普及のための条件はというと3Dビデオカメラと比べると単純明快にょ。(3D
カメラの時にも本来は価格も条件に入れるべきだったけど価格を入れる以前の問題である
ためにあえて価格は条件に加えなかった)

 (1)3Dコンテンツの普及
 (2)視聴環境の改善
 (3)価格

(1)について考えてみるとコンテンツといってもTV放送によるものとBlu-rayなどのメディア
供給によって行われるものの2通りあるにょ。
当面はTV放送が3D化される予定はないにょ。
現行の地デジは3Dが考慮されてないために非3DのTVで見た場合に二重像になってしまい
鑑賞そのものができなくなってしまうからね。
そうなると現在3D液晶TVはBlu-ray 3D目的ということになるにょ。
ところが、Blu-ray 3Dは昨年末にようやく正式な規格が策定されてようやくこれから
スタートという感じにょ。

そういうわけで現状で3Dコンテンツといえば一部のBS、CS放送による3D放送と3Dビデオ
カメラで撮影したものだけに限られるにょ。
これでは買い換え促進としてはあまりに弱すぎるにょ。
個人的には3Dは白黒TVがカラーTVになったくらいの変化に感じているけど1970年代に入り
カラー放送が増えてきてようやくカラーTVのアドバンテージが大きくなったにょ。
しかし、カラー放送とは異なりTV放送の主流が3D化することは当分ない(というか
地上波では無理)ということで今後登場するであろう数少ないBlu-ray 3Dの映画の役割が
非常に大きくなることが分かるにょ。
逆に言えばそれに興味がなければ3D液晶TVを導入する価値の大半が失われるということ
にもなるにょ。

(2)は確かに普及の障害になっているのは確かにょ。
しかし、「TV放送の主流が3Dになることはない」ということを前提に考えた場合には
「Blu-ray 3Dを鑑賞するときだけ専用メガネを付ければ良い」ということになりこれだと
許容できる人は多いのではないかと思うにょ。
個人的にもTV放送を鑑賞するのに専用メガネをかけるなんてことをしたくないけど
3Dそのものには興味があるからね。
将来的にはTV放送が完全3D化された時には3D映像、2D映像(右目用、もしくは左目用)を
切り替え式になるのではないかと思われるにょ。
3Dで観たい放送に関しては3Dモードにして鑑賞という形がベターにょ。

裸眼による3Dであればその煩わしさは無くなるとはいえ、視差バリア方式だと真っ正面
からしか3Dにならないからね。
裸眼3Dは現在飛躍的に改善しているものの視野角を考えると大画面TVでは専用メガネを
付ける方式をとるのがベターといえそうにょ。
それでも原理的には3Dとしてうまく認識されるためには距離の制約があるし、縦ずれは
大きな目の疲れを産むために顔(というか目)は画面に対して水平にまっすぐする
必要があるし、寝っ転がって観るなんて厳禁にょ。

そうなると視聴する上でも3Dはユーザーを選んでしまうにょ。
しかし、ニンテンドー3DSのような携帯型ゲーム機であれば距離がほぼ一定に保たれるし
寝っ転がってプレイしても液晶画面の角度を顔と同じ角度にすれば良いだけなのであまり
問題ではなくなるにょ。

(3)の価格に関しては確かに現状では3D液晶TVが高価なのは否めないにょ。
しかし、それは高価な価格帯のものしか用意されてない(ミドルクラス以上しか対応
していない)ために起こっていることにょ。
それは現状で3Dを求めているユーザー層を考えれば当然のことであり、低価格ブランドの
製品が3D対応になることで3D非対応の液晶TVとの価格差はどんどん縮まっていくと考え
られるにょ。

ただ、問題は買い換えのタイミングにょ。
ケータイは2、3年、PCは5年くらいで買い換える人が多いけどTVをそのスパンで買い換える
という人はほとんど居ないと思うにょ。(しかも、PCとは違いTVは普及率がほぼ100%で
あるため新規購入ではなく買い換えが大半になる)
一般家電と同じく壊れてから買い換えるという人が大半だろうからね。
確かにPCもそういう人が居ないわけではないけどPCの場合はスペックの問題でアプリが
快適動作しないとかOSが古くなって最新アプリ、機器が対応されてないため買い換えを
余儀なくさせられるということが少なくないからね。

その点TVの場合はスペック不足というものがほとんどない(細かい画質などに拘る人
ならば買い換え要因にはなるけど普通の人は多少発色や画質が良くなった程度で現在
普通に使えているTVを新しいTVに買い換えることはない)からね。
しかし、その普通に使えているTVの買い換えとなるタイミングとなりうるのが来年7月24日
に訪れるアナログ放送終了にょ。
それに加えてエコポイントにより現在TVは買い換え特需となっているにょ。
そんな中で3D対応の液晶TVを選択しないと次に買い換えるのはそのTVが壊れた時となる
ために当分先になるにょ。

この買い換え特需前にBlu-ray 3Dのラインナップが用意できなかったのは少々辛いにょ。
どうせ買い換えるならBlu-ray 3Dなどの3Dコンテンツの中にどうしても観たいものが
含まれているならば3D対応の液晶TVを選択するというユーザーも多いことだろうけど将来
観たいものが出るかもしれないからということで割高となる製品を買う人は限られて
くるにょ。
Blu-rayに興味がなく特にやりたいゲームがないけどプレステ3を買う人がどれだけいるか
ということを考えれば「将来に期待する投資」ができる人は限られるということが分かる
のではないかと思うにょ。
大画面の3D液晶TVはプレステ3よりも高価であるため観たいコンテンツがあるからと
いってもすぐに買い換え、買い増しはできないため買い換えるタイミングで観たいものが
あるかどうかが重要になってくるにょ。

しかし、3D鑑賞時の様々な制約があるし、現状でまともに訴求できる3Dコンテンツといえ
そうなものといえばBlu-ray 3Dくらいしかないため映画ファンがメインになるだろうと
推測されるにょ。
そうなると恒常的に多くの作品を鑑賞するだろうから今現在で特に観たい作品が無くても
近いうちには確実現れるためそれに期待して3D液晶TVを買うということは考えられるにょ。
これは、ゲームが好きでプレステ3に参入しているサードパーティの中に自分の好きな
メーカーがあるから自分好みのゲームが将来出る(もしくは自分が好きな作品の続編が
出る)ということに期待して現時点で特にやりたいゲームがないけどプレステ3を買う
というのと同じようなものにょ。

そうなるとやはり現状では3Dコンテンツ目的で3D液晶TVを買う人は極めて限られるという
ことがいえそうにょ。
とはいえ、「どうせ買い換えるならば良いものを買う」ということで地デジ対応の液晶TVに
買い換える際に3D対応のものを買うという人(3Dが目的ではないけど良いものを買ったら
結果として3D対応だったという人)は少なくないために3Dコンテンツ目的で買う人を
合わせたら普及台数はそれなりの規模に達すると思われるにょ。

とはいえ、本格的な普及はTV放送が3Dを標準化した後だと思われるにょ。
現在の地デジでマルチチャンネル化(3Dと非3Dの同時放送)は難しいために3D放送が
標準化するタイミングはスーパーハイビジョン導入後になりそうにょ。
現在はミドルクラス以上の高級品に止まっている3D対応の液晶TVはローエンドまで降りて
くるのは時間の問題であるため将来的には市場に出回っている大半のHDTVが3Dに対応と
なると考えられるにょ。(液晶パネル自体が高速なものというだけであってメガネは
当然別途必要となる)
とはいえ、そこまで来てもやはりTV放送は地上波では3Dで放送されず一部のBS、CS放送
のみであり、それ以外ではBlu-ray 3Dと3Dカメラで撮影したものを鑑賞するのに止まるため
「3D鑑賞が普通」というレベルには達することがないと思われるにょ。
したがって、現状では3Dは「必要or不要」という二択になっているものの近い将来(数年
後)には3Dは「観るor観ない」という二択になりそうにょ。

334マリモーマ:2010/08/12(木) 15:10:50
ここまで高くて 高性能なグラフィックカードは いらないな
現時点で最速のグラフィックスカード、Asus ARES

AsusのグラフィックスカードARES/2DIS/4GD5が今月発売されるそうだ
本製品のGPUにはATI Radeon HD 5870が2基、
グラフィックメモリにはHynix Semiconductor のGDDR5 (4GB)が搭載されており、
現時点で恐らく史上最速のグラフィックスカードであると言って間違いないだろう。
ベンチマークテストではRadeon HD 5970やNVIDIA GeForce GTX 480を容易に抜いており、
更に2枚挿しでCrossFire環境を構築することも可能とのことだ。

日本での予想価格は14万円前後となるようだ。
なお、詳細スペックやベンチマークについては4Gamer.netが詳しい。

http://slashdot.jp/it/article.pl?sid=10/07/12/0617229
http://www.unitycorp.co.jp/asus/vga/ati/pciex/ares_2dis_4gd5/ares_2dis_4gd5.html
http://www.4gamer.net/games/047/G004755/20100709069/

http://liv0.com

335御茶目菜子:2010/08/13(金) 13:52:38
コミケは参加することに意義がある
今日から明後日までの3日間は2010年夏コミ(コミックマーケット78)が開催されるにょ。
http://headlines.yahoo.co.jp/hl?a=20100813-00000009-mantan-ent

今年も徹夜で並んでいる人が大勢いた模様にょ。
とはいっても会場での徹夜行為は禁止されているけどね。
ニコニコ生放送やtwitterによって現地から直接レポートする人はかなり大勢いるために
会場に居なくてもどんな状態かは粗方分かるようになってきているにょ。

私はというとコミケに行き始めたのは97年からで2度サークル参加を果たしたにょ。
http://ww5.tiki.ne.jp/~ochame/CLUB/C58REPO.HTM
しかし、2000年の夏コミ(C58)を最後にコミケへの参加は滞っているにょ。
それは、金銭面の問題が大きいけど仕事の都合で時間が取れないというのもあるにょ。
日帰りは不可能な場所に住んでいるために連休をとらないとまず参加できないからね。

そこまでしてコミケに参加する意味は何なのか・・・?
主なサークルの同人誌(同人ソフト)に関してはショップへの委託販売があるため別に
コミケで無くても買うことはいくらでもできるにょ。
また、会場限定グッズ、委託を行わない同人誌に関してもプレミアム価格さえ許せば
主なものはヤフオクなどで入手可能にょ。
多少割高になったところで私の場合はコミケに参加すれば往復の電車賃(新幹線代)
だけで4万円になるため特定のグッズが欲しいためだけならば大変な思いをして行く
よりもトータルで考えれば割安になる可能性も十分にあるにょ。

やはり、コミケの一番の魅力は一般参加者と作り手(「売り手」となるサークル参加者)
との垣根が小さいということにょ。
誰でも売り手に回ることができるわけだからね。
そして、それによる人と人との繋がりにょ。
売り手との距離が近いために人と人との繋がりも強くなってくるにょ。
私が、かつてコミケに行っていたのはそこで買いたいものがあるということだけでは
なくそこに行けば会える人がいるということが大きかったにょ。
普段はネット上でしか会うことができない人とリアルで接する機会というのはなかなか
無いわけだし、参加者が多いコミケだからこそより多くの人と直に会うことができるにょ。

そういう観点からいうとコミケは一種の「オフ会」ともいえるにょ。
私が初めて参加したオフ会は96年のPJ-Rフェスタにょ。
PJ(ポケコンジャーナル)読者の集まりということで厳密な意味でのオフ会ではない
もののそれでも普段会えない人に会う機会というのは私にはすごく感動的に思えたにょ。
それが私がコミケに参加するようになった最大の要因だからね。(2000年代に入りコミケ
まで足を運ぶのが難しくなってからは毎年「大阪オフ」と称してかえるさんと会っていた)

とはいえ、儲けるためにコミケに参加するというサークルも少なくないにょ。
実際「壁サークル」(≒大手サークル)の中には1回のコミケで数100万円、もしくは
それ以上の金額を稼いでいるものもあるからね。
もっともそんなサークルはごく一部でありほとんどのサークルは良くてトントン(参加
するための交通費等が出れば良い程度)であり、私のように零細サークルは利益を出そう
とするのはまず不可能にょ。

私もまたサークル参加をしてみたいけど金銭面、時間面に加えて体力面で厳しくなって
いるために難しそうにょ。
夏コミの場合は暑さや熱中症対策を万全に行わないと非常に危険なレベルだからね。
行ったことない人には冗談に聞こえそうだけどホントのことにょ。
コミケ会場付近のコンビニの売場を見ればどんなものかが想像できると思うにょ。
http://twitpic.com/2dye3w
私自身10年前と比べて体力面が相当落ちているためにコミケに参加するような体力は
もうないかもしれないにょ。
それでも、死ぬまでにはあと1回はサークル参加をしてみたいにょ。

やっぱり、参加するとすればポケコンサークルか・・・?(今回の夏コミでポケコン
サークルは参加しているのだろうか)
今(今回の夏コミ)だったら「けいおん」で参加するかも・・・。
前回サークル参加をしてときはポケコンで参加したものの上記レポートを見てのように
それ以外のものが大半だったからね(笑)
何はともあれコミケに参加している人(参加予定の人)は事故や熱中症で倒れたり
しないように十分気を付けてにょ。




マリモーマさんへ
>ここまで高くて 高性能なグラフィックカードは いらないな

私も欲しくないにょ。
買うお金がないといえばそれまでだけど買ってもその消費電力による発熱、冷却の
ための騒音を考えるとまともに使えないにょ。
最大消費電力で200W少々の私の自作PCでさえ、最近は暑いからほとんど電源を入れてない
くらいだからね。

336御茶目菜子:2010/08/14(土) 14:02:56
便利なサービスほど危ない
先日mixiが3日に渡る大規模なシステム障害になったにょ。
http://www.itmedia.co.jp/news/articles/1008/12/news021.html
mixiは国内最大の加入者を誇るSNSであるためその影響はかなり大きかったにょ。
とはいえ、実際に個人的に何か問題あったのかというと別に大したことはないにょ。
それは私がmixiに頼った生活をしてないためにょ。
これがmixiに依存しているかどうかで変わってくると思われるにょ。

この障害を見て先日TVでも放送された映画「サマーウォーズ」(2009年劇場公開)を思い
出してしまったにょ。
「サマーウォーズ」ではネット世界でのシステム障害によって大きな問題が起きてしまった
からね。
というのも劇中では1つのネットサービスであるOZ(オズ)に全世界で10億人以上(劇中では
これは全世界の携帯電話の普及率とほぼ同等と表現された)が加入していて人々はOZに依存
した生活を送っているためにょ。
ただのコミュニケーションサービスだけではなく電気、水道、交通機関などのライフライン
までがOZに依存されているくらいにょ。
それで障害が起きれば影響がないわけがないにょ。

さすがにOZのように極端なものは現実には存在しないにょ。
とはいえ、様々なことができる便利なサービスであれば加入者はどんどん増えていくため
システム障害が起きたときのリスクも大きくなってしまうにょ。
ただの情報サイトであればそこを使用しないという選択肢があるけど例えばメールや
スケジュールなどを一括管理しているのであればシステム障害の間はそれが使用できない
ことになりかなり不自由となってしまうにょ。
そうならないためにメール、スケジュール管理は分散して行うという方法もあるけど
そうすると使い勝手が悪くなってしまう(管理が面倒になる)という問題もあるにょ。

OZは劇中描写から考えて1人1アカウントしか取得できない(利用制限のある仮アカウントは
複数取得可能)、数億人が同時にアクセスしても全く問題ないサーバと回線、そして、
2056桁の世界最高のセキュリティーシステムを誇っているためそれがライフラインと
密着しているのであれば利用者が増えるのは当然のことだと思われるにょ。(その暗号を
人間の手によって簡単に解いてしまったというのはさすがに無理があるけどこれは深く
考えないようにする)

OZは極端であるとはいえ、便利なサービスであればあばあるほど(そのサービスに問題が
無ければ)どんどん利用者が増えていくと思われるし、そうなった際にはセキュリティー
問題として万一の際の個人情報流出も考えないといけないにょ。
複数のサービスに分散してシステム障害が起きたときのリスクを減らそうとしてもそれが
かえって個人情報流出のリスクを高めるという結果になりかねないにょ。
世界最高のセキュリティーシステムだろうと内部からだとあっさり突破されてしまうからね。

Webというのは黎明期には情報発信、情報閲覧のためのものだったけど今は様々な用途に
活用されているにょ。
昨今、聞く機会が多い「クラウドコンピューティング」に関しても徐々に生活にとけ込んで
来ておりそれを意識して使っているという人はあまり居ないのではないかと思われるにょ。
特にケータイ向けサービスはすべてクラウドコンピューティングによるものと言っても
過言ではないからね。
しかし、便利なサービスがあるからそれに依存するかそれとも複数のサービスを併用
するかというのは難しい問題にょ。
あまり一極集中してそれに依存しすぎるというのは障害が発生したときのリスクを考えると
良いことだとは個人的には思えないにょ。

337マリモーマ:2010/08/15(日) 12:11:23
新しいアプリ
便利かどうか分からないけど 携帯に世界カメラzoomというのを入れたよ
http://plusd.itmedia.co.jp/mobile/articles/1003/30/news027.html
http://trendy.nikkeibp.co.jp/article/column/20100705/1032285/

ツィツターが見れたり 写真撮影とかできるけど
結構重くて使いにくいかも

http://liv0.com

338御茶目菜子:2010/08/15(日) 13:30:53
幽霊サイトはどうあるべき・・・?
おちゃめくらぶのWebサイトも誕生して昨年で満10年を迎えたけどこれもいつまで更新が
続けられるか分からないにょ。(サイト自体はきまぐれ更新だけどここの雑記の方は今の
ところほぼ毎日書いてる・・・とはいえこれも時間の都合次第で変わると思う)
ネット上には更新が数年間行われていないWebサイトやブログなどもかなり存在するけど
それらはユーザーによって見放された(時間等の都合で更新できない)というだけでは
なくユーザー自体がすでに亡くなっているという場合もあるにょ。

今は多くの人がSNSを利用しているけどユーザーが亡くなった場合はどうなるのか・・・?
http://slashdot.jp/article.pl?sid=10/08/14/0149212
私もmixiを含めSNSにはいくつか登録しているけどやはりこの点は気になるにょ。
単純に遺族が退会手続きを行うという方法もあるけど先日Twitterはユーザーが
亡くなった場合の対応ポリシーを発表したにょ。
http://www.itmedia.co.jp/news/articles/1008/11/news071.html
しかし、死亡証明を行う必要があるというのはハードルが高いにょ。

とはいえ、遺族がどのSNSに登録しているなんてことをすべて把握しているとは思えず
自動ログインでなければパスワードやアカウントを知っておく必要があるから退会手続きを
行うということもできないにょ。
亡くなったユーザーの情報をSNSの管理側が得ることは困難であるため亡くなったユーザーの
アカウント削除というのは難しいにょ。
確かに対策としては一定期間ログインしなければ自動的に削除という方法もあるにょ。
亡くなった人がログインすることはないためこれは確かに有用にょ。

ただし、ログインしなかっただけで勝手に消されるというのはあまり歓迎すべきことでは
ないと考えている人もいるにょ。
「1年で削除」という規定ならばその1ヶ月くらい前に通知メールを出すというように
いきなり削除ではなくワンクッション入れるという方法は必須だと思うけどそもそも
そのメールアドレス自体が生きている保証はないからね。

そもそも消すのが良いともいえないにょ。
おちゃめくらぶもポケコン情報を求めてやってくる人のためにいきなり削除なんてことは
極力避けたいからね。
自分が死んだあと消されることを望まないユーザーもいるということにょ。
一番いいのはドナーカードのようにユーザーが亡くなった後に削除するかそのまま残すか
という設定ができればいいのだけどそもそも上記のようにその死亡を管理側に通達する
方法が確立されてない時点でその方法は使えないにょ。

現状では「亡くなった後に消す」という方法は困難であるため亡くなった場合には更新
されずずっと放置状態になる場合がほとんどにょ。
「長期間放置されているサイト(ブログ、SNS)=ユーザーが亡くなった」というわけでは
ないけどやはり頻繁に更新が続いていたのが急に止まったらそう感じてしまうにょ。
第三者からすれば単に忙しくて更新できないのか亡くなってしまったのかというのは
判断ができないからね。
パスワード紛失などによってそのまま放置されたという場合もあるだろうしね。

仮に私が亡くなった場合はおちゃめくらぶは年間契約をしているプロバイダのサーバに
あるために年に1回の代金の支払いが滞れば自動的に削除されるかもしれないにょ。
掲示板の方は今のところそんなことはない(数年間書き込みのないTeaCup掲示板はたまに
見かける)ということで書き込みが一切無くなっても消える心配は無さそうにょ。
生きている時から死んだ後のことを考えても仕方がないけど人の命は儚いものであり
私が明日死なないという保証は誰にもできないにょ。
SNSの利用ユーザー数が増えるにつれてこのようにユーザー死亡後の対応が迫られる機会は
多くなってくると思われるにょ。
トチローが死亡した際に鉄郎がスイッチを入れハーロックに伝えたように死亡した際には
スイッチ1つでそれを伝える仕組みができればいいんだけどね。



マリモーマさんへ
>便利かどうか分からないけど 携帯に世界カメラzoomというのを入れたよ

最近はARが流行っているからね。
その中でもやはりセカイカメラが一番人気にょ。
面白そうだけど私のケータイでは対応してないにょ。

339御茶目菜子:2010/08/16(月) 13:22:53
ARは「次元」を越える技術か・・・
近年AR(拡張現実)が急速に注目を集めているにょ。
ARは現実空間にCGなどの仮想空間の情報を重ね合わせる技術のことだけど現実世界を
ベースにしているという点においてはCGをベースに構成されているバーチャルリアリティ
(仮想現実)とは根本的に異なる点といえるにょ。

ARというのは特別目新しいものというわけではなく古くからアニメや映画の中では
活用される場面が多く存在するにょ。
ARをフルに使ったものといえばやはりTVアニメ「電脳コイル」が挙げられるにょ。
「電脳メガネ」と呼ばれるヘッドマウントモニタ一体型の小型PCが広く普及しており
それを使って電脳空間のものを現実空間と重ね合わせて見ることができるにょ。
ペットもそのメガネを使ってしか見えない(もちろん物理的な干渉はできない)電脳
ペットが多く飼われており人々の生活の間にAR技術がとけ込んでいるにょ。

ARにはカメラが必要不可欠にょ。
ノートPCであれば大半のものにカメラが内蔵されているし、デスクトップPCであっても
USB接続で別途用意することもいくらでも可能なのだけどそうなるとARを活用できる場所が
限定されてしまうにょ。
そういうことで2年前に登場した初期の一般向けARソフトは自宅で楽しめる電脳フィギュア
だったにょ。
http://www.geishatokyo.com/jp/ar-figure/figure.html
ただ、内容から言ってもこれによってARが広く普及するとはいえなかったにょ。

ARがここ最近になって急速に注目を集めた原因としてはスマートフォンの普及が挙げられる
と思うにょ。
スマートフォンは持ち歩いた状態で使用できるしカメラを内蔵しネイティブアプリが動作
するためにARアプリを作ること気軽に使用することが可能になったにょ。
もちろん、スマートフォン自体の性能向上もあるし、アルゴリズムの改善によって低
スペックでも実用レベルの動作が可能になったというのもあると思われるにょ。

スマートフォンでARを普及させるきっかけとなったのはやはりセカイカメラにょ。
http://sekaicamera.com/ja/
スマートフォンに内蔵されたGPSや電子コンパスと連動によって電脳空間の情報となる
エアタグを現実空間(カメラで映し出された映像)とリンクすることで幅広い活用方法を
見いだすことが可能になったからね。
このセカイカメラはAndroid用だけではなくiOS(iPhone/iPad)用も用意され、ガラケー
ではドコモのPrimeを中心に使用可能となっているにょ。
機種が限定されるのはRawImageCaptureという機能を使用しているのでそれに対応している
機種でしか使用できないためにょ。
したがって、スマートフォンのように後からJAVAアプリとして自由に追加できるような
ものではないにょ。
対するauはBREW4.0対応の端末であればアプリとして追加できるにょ。
この辺はBREWが他のJAVAアプリで動作するガラケーとの設計思想の違いが影響していると
思われるにょ。

ARは秋葉原に等身大マジンガーZを出現させたり、ゲームの中に登場するカノジョを
実際の背景をバックに撮影したりとかいう単純なものだけではなく様々な用途に使用可能
となっているにょ。
http://plusd.itmedia.co.jp/lifestyle/articles/1008/06/news099.html
http://game.watch.impress.co.jp/docs/news/20100712_380170.html
ARは医療機関、交通機関では多く使われているけどやはり人々の間に浸透するとなると
日常生活に必要なものやエンターテイメント方面だと思うにょ。

携帯ゲーム機にもカメラが搭載されるようになりここ1年でARを体験できるソフトが多く
発売もしくは発表されたにょ。
ゲームは2Dのドット絵から3Dのポリゴンへ主流が移り変わったにょ。
そして最近は平面から3D表示(立体視)へと変革をしようとしているにょ。
それとは別の変化がARにょ。
仮想空間はどれだけ進化しても仮想空間でしかないからね。
http://www.itmedia.co.jp/promobile/articles/1008/13/news024.html
現実世界とリンクするというのは「リアルな仮想空間」とは別の意味での「リアルな空間」
といえるにょ。
三次元(現実空間)から二次元(仮想空間)へと行くことはできないけどARによって
(擬似的に)移動が可能になるというのは非常に大きいにょ。
将来的には「電脳コイル」の世界のように生活にARがとけ込むような時代がやってくる
可能性はあると思うけどそれを牽引するのはこのようなエンターテイメント方面だと
思うにょ。

340御茶目菜子:2010/08/17(火) 13:50:20
気軽だからこそモラルが重要になる
Twitterの利用者が増えていったため中には7月19日に書いたような「Twitter疲れ」を
感じている人が出てきているにょ。
ただのつぶやき(独り言)でいいのだから細かいことを気にせずじゃんじゃん書き込んで
しまえばいいのに・・・と思うかも知れないけどそれが必ずしも正しいとはいえないにょ。
それは気軽に書き込めるからよく考えないで書き込みをするからにょ。

そういったトラブルは頻繁に発生しているけど昨日実際にあった週刊少年ジャンプに
連載中の「ブリーチ」の作者である久保先生とその読者とのやりとりを例に挙げてみるにょ。
http://blog.livedoor.jp/insidears/archives/52357491.html

ブリーチの話の展開(およびキャラ)が気に入らない一部のファンからさまざまな無茶な
要求(「○○を殺せ」など)をされてから久保先生がツイートしたのを転載してみるにょ。

>時々勘違いしてる子がいるから言っとこうかな。
>読者にあるのは作品の話を変える権利じゃない。
>その作品を読むか読まないかを選択する権利だ。
>気に食わなければ読むのをやめればいい。
http://twitter.com/tite_kubo/status/21290369175

>もしBLEACHよりも面白いものが描ける才能があるなら、すぐに漫画家になるべきだ。
>面白ければ必ずBLEACHより成功する。絵が描けないと言うのなら、
>努力して編集者になって漫画家にアドバイスすべきだ。本当に能力があれば、
>どこへ行っても歓迎される。
http://twitter.com/tite_kubo/status/21290675930

>才能も無く、努力もせず、そのくせ与えられるものに不平を言って、
>努力する人間の足しか引っ張れないような奴は、目を瞑ってどっか隅っこに挟まって、
>口だけ開けて雨と埃だけ食って辛うじて生きてろ。
http://twitter.com/tite_kubo/status/21291085113

久保先生が言っていることが正しいか間違っているかというのの受け止め方は人それぞれ
だと思うにょ。
この久保先生のツイートを見て「面白い漫画が描けなければ批判してはいけない」と
言っているように感じている人も中にはいるにょ。
それならば下記(2chのレスから抜粋したもの)のようになってしまうにょ。

A「オマエはBLEACHよりおもしろい漫画が描けるんだな?描けないのに批判するな!」
B「漫画描いてみたよ、ほら」
A「なんだこれ、糞つまんねー」
B「ちょっと待て、俺の漫画を批判するのは俺よりおもしろい漫画を描いてからだ」
A「描いたぞ」
B「どっちがおもしろいか第三者に聞いてみないとな」
A「よし、Cに聞いてみよう」
B「ちょっと待て、それはCがおもしろい漫画を描いてからだ」

確かにこれは変なので「久保先生の言っていることはおかしい」と思う人も中には
いるかもしれないけど久保先生のツイートをちゃんと読んでいればこれは明らかに
ミスリードということが分かると思うにょ。

私は読者にはその能力の有無に関わらず批判をすること自体には問題がないと思うにょ。
ただ、ほとんどの批判(否定意見)は意見として成立してないにょ。
「自分が気に入らないから駄目」というのは意見でも何でもないからね。
さらに「駄目だから○○しろ」というのは助言ではなくただの命令や指図にょ。
指図というのは要するに上から目線であり、これは「お客様は神様です」ならぬ
「読者様は神様です」と言わんばかりの行為といえるにょ。

おちゃめくらぶのスタンス(=私のスタンス)として「否定意見は意見ではない」と
いうことを4月22日に書いたけどこれは否定意見は肯定意見とは比べ者にならないほど
難しいものであり、多くの場合は意見として成立してないからにょ。
否定意見そのものは意見ではなく「これは駄目(これは違う)」という感情論にすぎず
その否定するための正当な理由があってようやく意見として成立するにょ。

もっとも「独り言」であれば意見として成立させる必要性は全くないんだけどね。
だから普通にTwitterでつぶやいたり、自分のサイト、ブログ、mixiなどでただの不満、
不平(≠意見)を書くのは問題ないにょ。
つまり、意見になってない批判を行うこと自体に問題はないにょ。
個人的な中傷行為でなければ言論の自由が保障されているからね。(日本国憲法第21条)
批判をしている個人サイトに原作者自らが現れて「そんな文句を言うな!」というのなら
久保先生が言っているようにその漫画を読む・読まないの権利があるようにそのサイトの
内容を読む・読まないという権利があるため読まなければ良い(そんなサイトに
行かなければ良い)というだけの話にょ。

ただ、「言論の自由」というのは「どこで何を言ってもいい」というのとは違うにょ。
Twitterにおいて返信をするということはその人に直接言っているのと変わらないにょ。
道を歩いていて見ず知らずの人に文句を言われても気にしないなんていう人はほとんど
いないと思うにょ。
いや、こちらから向こうの顔が見えないために自宅にいて見ず知らずの人に電話で文句を
言われるという方が正しいかもしれないにょ。
ここまで来れば「言論の自由」を主張するのがおかしいことに気が付くと思うにょ。

確かに「間違っていることをしている」というのであれば隠れて行う批判ではなく直接
本人に伝えるということが必要になると思うにょ。
しかし、漫画の展開なんて表現の自由を逸脱してない限りは作者の自由にょ。
久保先生も自らが最善と思って描いていると言っているのにそれで文句を言われては
たまったものではないにょ。(独りよがりな作品にならないためにはファンの意見を
参考にすることも時として必要となるけど今回の件とは別の話)
私も「これがベストな方法だろう」と思ってやっていることに対して「これは駄目だ」と
感情論で否定されたらさすがに「はいそうですね」とは言えないにょ。(仕事上で上司
などから言われたのであればまた変わってくるけど)

Twitterは気軽に書き込めるため急速に普及したサービスにょ。
その気軽さ故に気軽に自分の感情を相手に押しつける結果になることにもなりかねない
というのが今回の例で分かると思うにょ。
この辺は確かに「気軽さ」がマイナスに働いているともいえるけど本質的にはモラルの
ない人(マナー不足の人)に問題があるわけであってTwitterに問題があるわけでは
ないにょ。
これは違法ダウンロードをしている人に問題があるわけであってP2Pソフト(Winny等)に
問題があるということではないのと同じにょ。

341御茶目菜子:2010/08/18(水) 13:10:55
3Dデジカメは普及するのか・・・?
3Dデジカメ「FinePix REAL 3D W3」が発表されたにょ。
http://dc.watch.impress.co.jp/docs/news/20100817_387565.html
これは昨年発売になった世界初の民生用3Dデジカメ「FinePix REAL 3D W1」の後継機種
となっているにょ。

主な改善ポイントは下記の3つにょ。

(1)HD動画(720p)に対応
(2)液晶パネルが23万画素(QVGA相当)から115万画素(WVGA相当)に
(3)HDMI mini出力対応

(1)に関して書くとW1が640x480だったのがW3が1280x720(720p)のHD動画に対応したの
だけど現在のデジカメにおいてHD動画はプレミアム性のあるものではなくスタンダードな
ものとなってきているにょ。(エントリーモデル以外の大半の機種でHD動画撮影が可能に
なっている)
そのためコンデジで実売6万円という最高級レベルの価格な割りにHD動画も撮れなかった
W1がやや辛いものだったけどW3になってようやく標準レベルになったというだけの話にょ。

とはいえ、PC画面やHDTVで見るならば480pと720pの差は大きいため大きな改善といって
良いと思われるにょ。

(2)に関して書くと現状では後述のように3D鑑賞が可能な環境があまり普及していないと
いうことを考えれば本体の液晶の解像度アップは必須項目といっても良いと思われるにょ。
せっかく高精細な動画が撮れてもそれが鑑賞できる環境がカメラ本体しかないという
ことは動画の解像度はカメラの液晶解像度依存した形(液晶パネルがボトルネック)に
なるからね。

4:3のスクエア液晶からワイド液晶へと変わったことでパネルサイズもそれに合わせて
2.8インチから3.5インチへと拡大したのも良いことにょ。
ワイドパネルの場合は同一インチ数だとどうしてもパネル面積が小さくなってしまう
ために「インチ数が同じ」だと「小さい」と感じるし、横が大きくなっても縦が小さく
なるためにインチ数で1割程度アップしても同レベルとしか感じないにょ。(ウチの
リビング用のTVは12年前に買い替えたけど25インチから28インチワイドということで1割
以上アップしているのに同レベルかやや小さくなったというイメージになった)
そうなると2.8インチから「大きくなった」と体感できるためには3.5インチ(インチ数で
25%アップ)くらいが必要だと思われるにょ。

また、サイズ、解像度だけではなくパネルの品質そのものも高まっている模様にょ。
特に裸眼3Dに関しては急速な進化をしているため1年前の製品はすでに旧世代といっても
いいレベルだからね。
すでに完成されてる普通の液晶パネルならば1年程度で大きく変わることはないけれど
まだ完成の域には達していない裸眼3Dは最新のものが望ましいにょ。
そのため後述(3)のように今は3Dは要らないけど将来は必要になるかもしれないと思って
いる人は今の時点で3Dデジカメに手を出す必要はなく必要になってから手を出すのが良い
ということもいえるにょ。

(3)のHDMI出力というのはあるのとないのとでは非常に大きな差があるにょ。
普通の(3Dではない)デジカメで撮影した動画はメディアに記録した動画をPCで読み込む
ことでどんな形式だろうと再生できるし、AVCHDで記録してあるならば家電としては
デファクトスタンダードな形式であるため各種Blu-rayプレイヤーやプレステ3などで
再生可能になるにょ。

しかし、3Dに関してはそう簡単にはいかないにょ。
それはデファクトスタンダードな形式のものがない上に8月12日に書いたように3D対応TVは
まだ普及にはほど遠いし普及の速度も極めて遅いものになっているからにょ。
頼みの綱であるPCにおいても3D液晶パネルが標準搭載のPCはまだほんの一部に過ぎないし
デジカメで撮影した3D動画のためだけに別途3Dモニタを買おうとする人はほとんど
居ないからにょ。

W1ではそういうこともあったのかHDMI出力は考慮されていなかったにょ。
どうしても大きな画面で鑑賞したければ専用の3Dフォトフレームを買うしかなかったにょ。
しかし、ここ数ヶ月でわずかながら3D液晶TVの普及率が上がってきているため3D対応TVで
鑑賞したいというニーズがあったのかW1が発売されて半年余り経った後に別途専用
プレイヤーが用意されたにょ。
http://dc.watch.impress.co.jp/docs/news/20100422_362943.html

さて、W3で気になるのは価格だと思うにょ。
3Dデジカメはレンズとセンサーのパーツに関していうとデジカメ2台分のコストがかかって
しまうためどうしても割高になってしまうからね。
W1は発売当初の実売予想価格が約6万円だったのに対してW3の実売予想は4.8万円となって
いるにょ。
安くなったというのはパーツ自体のコストダウンの影響もあるだろうけどやはり最初の
モデルは開発費が多くかかるということと販売数量が読みにくいという点があるため割高の
価格設定にせざるを得なかったというのが理由だと思われるにょ。

要するにW3は開発コストが下がった分に加えてW1の販売実績からある程度の量産を見込んで
いるために機能アップしたにも関わらず約2割の低価格化が実現できたということにょ。
ただし、これでもまだ3D機能を除いた場合に同クラスのデジカメと比較して割高感は
否めないにょ。
レンズやセンサーは2台分必要な時点で非3Dのデジカメと同価格を実現するなんて不可能
なのだけどこれは量産によって徐々に差は縮まっていくと考えられるにょ。

W3は価格は頑張っていると思う(とはいえ、価格がこなれたW1と比べれば高価になって
いるけどこれは1年前の機種だから仕方がない)けれど3D以外の面でやや不利になって
いる部分があるにょ。
それはサイズとバッテリ駆動時間にょ。
サイズは3Dデジカメ(デジカメ2台分)として考えればコンパクトだけど光学3倍ズームの
コンデジとして考えるならばセンサーサイズやレンズの明るさの割りに大柄であり、しかも
バッテリ駆動時間は公称(CIPA測定値)で150枚というのは近年のデジカメでは最低クラス
となっているにょ。
これは何度も書いているように「2台分だから仕方がない」と考えれば納得はできる
もののユーザー視点では「3Dが絶対に必要」という人を除けば選択対象外になって
しまいかねないものにょ。

現状では3D撮影ができるデジカメではオンリーワンといってもいい状態(WX5やTX9では
静止画の3D撮影はできるもののこれはスイングパノラマモードに限定される)だから
多少デメリットがあっても現状で3Dが必要という人にとっては心強いものになるにょ。
しかし、現在3D鑑賞環境を所持しておらず将来3Dで撮りたくなるかもしれないという
レベルであればおすすめしがたいにょ。
それはTVであれば10年間同じ機種を使う人は少なくないけどデジカメを10年間同じ
機種を使うという人はほとんど居ないからにょ。
確かに黎明期から発展期にかけて(90年代〜2000年代初頭)のような急速な進化はない
ため使おうと思えば10年間使えないほどではないとはいえ、3Dを使いたければ本当に
必要になった時に買うのがベストだと思われるにょ。

機能面やバッテリ駆動時間や多少の割高感が許容でき3D→2Dへの変換を手間だと感じない
人であれば将来のために3D写真、3D動画を撮り溜めておくというのはありだけど私は
気軽にPCなどで鑑賞できることがデジカメの最大の魅力と感じているためそれを
スポイルしてしまうような使い方はさすがにできないからね。(今は2Dしか使わないから
そんな手間を考える必要ないというのならばなおのことこの機種を選択する意味はない)
それを考えると3Dカメラはすでに3D対応TVを買っている人(もしくは近いうちに購入
予定の人)だけが買うべきものだと感じるにょ。
3D機能を使わなけばW3は特に魅力を感じるようなデジカメではないからね。(価格が
高価ということもあり、絞り優先やマニュアル露出機能がついているというのはやや
魅力だけどそれでこの機種を選択するようなレベルではない)

W3がヒットすれば他のメーカーも追従するだろうけど上記理由によってある程度の需要こそ
あれ、そこまでヒットするとは思えないのでほとんどのメーカーは現状では様子見だと
思われるにょ。
やはり、8月12日に書いたけど3D対応TVさえ普及していない現状では3Dは大きな「ウリ」には
なりにくいというのが最大の要因にょ。

342御茶目菜子:2010/08/19(木) 13:32:07
U3400搭載CULVノートは待つだけの価値はあったのか・・・?
セレロンU3400を搭載のCULVノート「UL20FT」が発売されるにょ。
http://plusd.itmedia.co.jp/pcuser/articles/1008/18/news029.html
CULVノートはモバイルノートを買うには予算的には足りないけどAtom搭載のネットブック
では性能面で物足りないという人にはおすすめの製品となっているにょ。
実際CULVノートに搭載のCPUはモバイルノート用のCPUと同じだからね。(同クロックの
場合において)
軽量化などにコストをかけてないために安価となっているわけにょ。

CULVノート向けのCPUは5月末にいくつかラインナップが発表されこの夏には多くの機種が
モデルチェンジをしたにょ。
Core2(Penryn)ベースのCPUからCore i(Arrandale)ベースのCPUへとモデルチェンジ
したわけだけどこれは新しい方が速いとは一概には言えないにょ。
それは7月8日にも書いたように新しいArrandaleベースのCPUの方がクロックが低いため
アーキテクチャの変更などを考慮しても速くなるとはいえないからにょ。
したがって、CPU性能で従来のPenrynベースのCULVノートより速いものが欲しければ
ターボブーストやHTTがあるCore i5以上を搭載した機種を選択すべきとなるわけにょ。
ただし、ターボブーストは廃熱が十分でないと機能しないためそれを過信するのも
あまり良くないにょ。

コスト優先でCULVノートを買うのであればやはり安価なセレロンモデルを買うのが最も
コストパフォーマンスで優れるにょ。
セレロンは性能がイマイチで省電力機能もないためにバッテリ駆動時間が短いという
問題点があったけど5月26日に書いたようにセレロンM以降は性能面の低さはほとんど
無くなりCULV用のセレロンSU2300ではセレロンとしては初めてSpeedStep機能が搭載
されたためにバッテリ駆動時間の短さも克服されたにょ。(SpeedStepはCore2と比べると
簡易的なものなので過信は駄目だけどそれでもあるのとないのとでは大きな違いがある)
したがって、コストを優先する場合セレロンSU2300搭載のCULVノートを買うというのは
「安かろう悪かろう」ではなく賢い買い方の1つといえるわけにょ。(実際にCULVノートで
最も売れたのはSU2300搭載モデルだと思う)

さて、そんなセレロンSU2300はArrandaleベースのセレロンU3400にモデルチェンジした
わけだけどSU2300が非常に優秀だっただけにその期待は高いにょ。
とはいえ、7月8日に書いたようにすでにCore i3のベンチ結果が分かっているために
U3400の結果はCPUコアは同じであることから予想はできているけどね。
それでもSU2300とU3400の比較レビューは今回が初めてだと思うのでじっくり見てみる
ことにするにょ。

        UL20A    UL20FT   UL20FT(Turbo33)
        SU2300    U3400   U3400+33%OC
 PC Mark05
  CPU     3096     2577     3435
  Memory    3181     3025     4084
  Graphics   1329     1673     1730
  HDD     4496     4980     5021

UL20FT(Turbo33)について書いておくにょ。
UL20AはセレロンSU2300(1.2GHz)なのに対してUL20FTはセレロンU3400(1.06GHz)で
UL20FTには独自に33%CPUのクロックを上げる(オーバークロック機能)が用意されて
いるにょ。
これはCPUに搭載されている機能ではなくソフトウェア的に行っているOCであるため
廃熱さえ十分であればフリーウェアによって他のノートPCでも実現は可能な機能であり
あくまで参考掲載とするにょ。

さて、この結果を見るとやはりCPUスコアは動作クロックがかなり影響していることが
分かるにょ。
SU2300とU3400の動作クロックは13%差でCPUスコアは20%差ということでクロックあたりの
性能ではU3400の方がやや低いといえるにょ。
測定誤差を考慮した場合でも良くてクロック当たりの性能は同レベルとなりそうにょ。
したがって、クロックが低いU3400はSU2300よりも性能が低いといえるかもしれないにょ。
もちろん、CPUによって得手不得手があるからあくまでPCMarkにおける場合だけど
下記のFFベンチでもそれが当てはまったためPCMark05が例外というわけではないと
思われるにょ。

ただし、UL20FTには上記のように33%のOCをするモードが用意されているにょ。
これはスライダー1つで使用可能になるため非常に簡単に使える(ただし、廃熱面には十分
気を付ける必要がありそう)けれどCPUスコアはこれによって33%アップとなりクロック
上昇に比例したスコアとなっているにょ。
これによってUL20FT(Turbo33使用)はSU2300の性能を超えているにょ。
CPU性能的にはU3400はSU2300より下といってほぼ間違いないけどUL20FTはそれを克服
しているため一概にU3400搭載機は性能が低いとはいえないにょ。

あと気を付けないといけないのはPCの性能はCPUだけでは決まらないということにょ。
7月29日にも書いたようにGPU性能も重要になってくるからね。
Core i3搭載のCULVノートは従来のPenrynベースのCULVノートより高い3D性能を持つと
いうことがベンチ結果から言えたにょ。(ただ、VAIO Yのベンチ結果は不自然なくらい
性能アップになっていたのが疑問だけど)
これはCPU性能が互角であるということを考えた場合であり、CPU性能が劣っている
SU2300とU3400ではまた結果が変わってくる可能性があるので見てみるにょ。

        UL20A    UL20FT   UL20FT(Turbo33)
        SU2300    U3400   U3400+33%OC
 3DMark06    727     1070     1044
 FFXI Bench3
  LOW     1841     1668     2256
  HIGH     1285     1148     1456

FFベンチの方を見ると上記のCPUスコアと同じようにUL20FT<UL20A<UL20FT(Turbo33)
となっているけどこれはFFベンチのスコアがCPU性能に大きく影響されてしまうためにょ。
CPU性能の影響をあまり受けない3DMark06の方を見てみるとUL20FTはUL20Aよりも明かな
性能アップが見られるのが分かると思うにょ。
これはU3400に内蔵のIntel HD GraphicsがSU2300のチップセット(GS45)に内蔵の
GMA4500よりも性能が高いということを意味しているにょ。
とはいえ、これはあくまで「比較した場合に高い性能がある」というだけであって
昨今の3Dゲームをするにはやはり性能不足は否めないにょ。(Aeroくらいなら十分に
快適動作する)

あと33%のOCをしたTurbo33使用時はスコアが下がっているけどこれは測定誤差という
可能性があるにょ。
もっともリンク先のレビューでの考察に書いてあるように廃熱が追いついていないため
クロックが上がってないということも考えられるけどね。

そういうわけでCULVノートのメインとなっていたセレロンSU2300搭載機は今後U3400搭載
へとモデルチェンジすることになるけどこれによって性能は下記のように変化するという
ことがいえるにょ。

   CPU性能   SU2300>>U3400
   GPU性能   SU2300<<<<<U3400 (※SU2300はチップセット内のGPU)
   (※不等号が1つあたり概ね1割の性能差)

次世代のCULVノート(ArrandaleベースのCPUを搭載の新機種)をわざわざ待って買うまでも
ないと5月26日に書いたのだけど今回ようやくCULVノートのメインとなるU3400のレビューが
出てきたことによってその考えは間違いではないと言えることになったにょ。
低価格で「少しでも高いGPU性能」を求めるのであればSU2300搭載機ではなくU3400搭載機が
発売されるのを待って買うという選択肢は間違いではないといえるけどそうでなければ
U3400搭載機は発売を待つだけの価値がないと今回の比較レビューで多くの人が感じたこと
だと思うにょ。

343御茶目菜子:2010/08/20(金) 13:23:59
Nikon D3100は最強のエントリー向けデジイチか!?
コンデジではHD動画が当たり前の機能になって久しいにょ。
ローエンドモデル(エントリーモデル)ではHD動画に対応した機種は皆無なのだけど
5年前から急速に普及しており今では搭載されているのが当たり前となる機能である
光学式手ぶれ補正さえ搭載していないのだからHD動画機能を搭載していなくても驚く
ことではないにょ。(エントリー向けの手ぶれ補正機能はほぼすべて電子式となっている)
これはコスト面もあるけど差別化のために実装していない可能性が高いからね。

それよりもむしろ驚くことはハイエンドなコンデジにHD動画が搭載されていない機種が
多いということだと思うにょ。
ローエンドならばコスト面の問題は確かにあるけどハイエンドではコスト面の問題は
少ないのに・・・。
これはハイエンドなコンデジを買う人は動画をあまり重視していないということもある
ためメーカー側もあえて実装していない可能性もあるにょ。
しかし、HD動画を求める声は徐々に増えているせいか、PowerShot S90の後継機種である
S95はHD動画機能が導入されたにょ。
http://dc.watch.impress.co.jp/docs/news/20100819_387759.html

コンデジではこのようにHD動画機能が当たり前になったのはここ2、3年のことだけど
動画機能そのものは90年代初頭から当たり前の機能になっているにょ。(当時は160x120で
音声無しとかいう非常に貧弱なものが多かったけど)
デジタル一眼では2年前に発売されたNikon D90によってようやく実現されたにょ。
デジタル一眼はセンサーサイズが大きく読み出し時間がかかる上に熱問題が大きい上に
撮影中はファインダーが真っ暗になるためライブビュー機能が必須だし、動画とは相性が
悪い位相差検出方式であるため動画を撮影するのに向いていないというのがD90まで
動画撮影可能な機種が登場しなかった理由だと思われるにょ。

しかし、ここ1、2年で動画撮影機能を搭載のデジタル一眼は急速に増えたにょ。
そのセンサーサイズの大きさを活かした動画は業務用の大型カメラで撮影したのと同じ
ような効果が得られるためハイアマチュアや一部のプロに受け入れられデジタル一眼で
撮影されたTV番組や劇場用映画も増えつつあるにょ。
http://dc.watch.impress.co.jp/docs/news/20100816_387085.html

世界初の動画撮影機能搭載のデジタル一眼D90を送り出したニコンだけどそれ以降大きな
改善はなく、今では追従したキヤノンの方が圧倒的に動画機能で勝っているにょ。
ハイアマチュア向けの中級機であればまだ動画なんて要らないという人もいることだろう
けれど入門機の場合はコンデジからステップアップした人も少なくないため動画が撮れる
かどうかを重視している人も多いにょ。
キヤノンの方はEOS Kiss X4は入門機としては最強の動画機能を持っているのに対して
ニコンの方は入門機下位のD3000は動画機能無し、上位のD5000も前年発売のD90と大差ない
動画機能だから動画でデジタル一眼を選ぶのであればニコンは対象外という状況だったにょ。

しかし、今回ニコン初のフルHD動画対応デジタル一眼レフ「D3100」を発表したにょ。
http://dc.watch.impress.co.jp/docs/news/20100819_387845.html
フルHDのH.264コーデックの動画が撮れるだけではなくビデオカメラのようにフルタイム
AFで撮影できるため撮影のハードルもかなり低くなったにょ。
動画を撮るならニコンは対象外という状況もこれで克服されそうにょ。

このD3100は型番的にはD3000の後継となると思われるにょ。
D3000は発売当初からボディ単体で5万円台の低価格だったけど発売されて1年近く経つ今では
3万円台まで下落しており動画が要らないのならば今回のD3100で旧機種になるとはいえ
依然としてお買い得感は高いにょ。
すでに1年経って価格下落している製品との単純比較はあまり意味がないけど発売当初の
価格でさえ1万円アップとなったのは少々辛いし、液晶が23万画素で据え置きというのも
いくら入門機といえ物足りない面もあるにょ。

動画は格段に従来機より高性能化しているけどやはりデジタル一眼ならば静止画が重要
だと思うにょ。
センサー性能自体はD3000、D5000は悪くないけどEOS Kiss X4を見た後では世代の違いを
感じてしまうにょ。(キヤノンは比較的ノイズの誤魔化し方が上手いのもあるけど)
D3100に搭載されているのは恐らくNEX-3/NEX-5に搭載されているものと同じものだと
思われるにょ。
NEX-5については5月21日に書いたけど描写性能に関しては大きな不満を持ったにょ。
とはいえ、これは無理に小型化したレンズの性能がボトルネックになっているというだけ
であって、センサー性能自体はEOS Kiss X4よりも上であると感じたにょ。
1400万画素のD3100であれば1800万画素のEOS Kiss X4よりもレンズに対する要求スペックが
低いためにレンズがボトルネックになりにくいというのは画素数が少ないことが逆に
場合でもアドバンテージといえるかもしれないにょ。

EOS Kiss X4の完成度があまりに高いのでD3100でようやくまともに戦えるようになった
というレベルにすぎないにょ。
今は(2年前に登場であるため)価格下落によって入門機並の価格帯になったD90がX4の
実質的なライバルであり、D3000は価格重視の人向けだったわけだけどようやくX4と同価格
帯でまともに戦える入門機が登場したということにょ。(D5000は価格面、性能面で
中途半端な感じ)

とはいえ、逆に言えば同社のD90とシェアを奪い合うハメになりかねないにょ。
私もD3100は少し欲しいかなと感じるけど買うとすれば多少の古さを考えてもペンタ
プリズムフィンダーを搭載の中級機であるD90にするかもしれないにょ。
D90もその後継機種(D95?)の登場が噂されているため価格面では入門機レベルではなく
なるけれどそうなると今度は価格が下落しているD300sとぶつかってしまうため中級機は
まとめて新機種へとモデルチェンジの必要性がありそうにょ。(D300sの後継機は年内には
登場しないらしいけど)

ソニーが8月24日、オリンパスが25日、キャノンが26日に新製品発表会を開く予定となって
いるにょ。
ソニーはα33、α55、オリンパスはE-P3、キャノンは中級機であるEOS 60Dを発表すると
噂されているにょ。
興味を惹く機種に関してはまたここで書くことにするにょ。

344御茶目菜子:2010/08/21(土) 13:21:25
紙の書籍だけでは生き残れない
7月23日には米国では条件付きながら電子書籍が紙の書籍を売上を超えたということを
書いたにょ。
日本においてはケータイ向けに雑誌や漫画やグラビアなどを配信しているもののまだ
本格的には書籍のネット配信サービスは開始されてないにょ。

電子書籍が紙の書籍を超えることなどできないから問題ない・・・という考えもあるけど
それは紙の書籍だけで商売が成り立っている間だけの話にょ。
今後5年で日本の書籍市場全体の売上は現在の3割減になるという試算が出ているにょ。
http://pc.watch.impress.co.jp/docs/column/mobile/20100820_388236.html

売上減が直接影響するのは販売店(書店)にょ。
ただし、書籍には再販制度と委託販売制度(返本制度)が導入されているにょ。
その2点をそれぞれ見ていくにょ。

まず、再販制度だけどこれは定価販売を強制する制度であり、著作物の一部が対象と
なっているにょ。
その一部というのが書籍、雑誌、新聞、音楽CDにょ。
この再販制度によって全国どこの書店に行っても同じ価格で書籍を購入することが可能に
なるだけではなく値崩れというものがないため古い製品も比較的買いやすくなって
いるにょ。

もしも再販制度が無ければ競争力は上がるだけどうけどその反面書店の店頭は売れ筋
以外は置かれなくなってしまうかもしれないにょ。
再販制度に関しては賛否両論あるけれど海外では再販制度を導入しているところは
徐々に減ってきているにょ。
また、再販制度にも時限制を導入している国も多いにょ。
日本においても音楽CDは再販制度の効力は1年の時限制となっているにょ。
ただし、後述の委託販売制度により値引きされずに返品されてしまうことが多いにょ。
書籍も時限制の再販制度になれば効力が切れた古い書籍はどんどん返本され古い書籍が
店頭から消えてしまう可能性が高いにょ。

次にあるのは委託販売制度、つまり、返本制度にょ。
書籍は出版社から取次店に出荷され、そして書店に出荷されるにょ。
出版社はその本が売れなくても取次店に出荷した時点で代金を受け取るのだけど書店は
返本が可能であるため一定期間をすぎたら返本するにょ。(週刊誌の場合は、当然
発売から1週間で返本となる)

返本された分に関しては出版社が代金を返す必要があるにょ。
ただし、その全額を負担するわけではないにょ。
というのも新しい書籍は随時販売されているためそれと相殺で計算されるためにょ。
ある程度は返本対策の予算をプールしておく必要はあるけどね。
かといって、すべての書籍に対して返本制度が導入されているわけではなく一部の書籍は
対象外となっているにょ。
それには受注生産となるOVA付きのコミックス等やハリーポッターなどがあるにょ。
ハリーポッターの日本語版を出版している静山社はハリーポッター以外に大きく売れる
出版物がないため上記のように返本代金を新たな出版物で相殺ができないにょ。
そのため返本不可にしているにょ。(その代わり卸値を下げている)
あとお客から特注の本に関しても同様に返本不可となっているにょ。

ここまで書くと書店、取次、出版社の役割分担が分かると思うにょ。
出版社にとって書店はお客へと販売するための大事な窓口であり、(出版社にとって)
取次は代金の支払いをしてくれる顧客であり、書店への配本を調整する役割も担って
いるにょ。

では、ここで売上が3割減になり書店が閉鎖した場合のことを考えてみるにょ。
ある程度の返本に対しては新規発行分で対応できるため問題ないけど閉鎖によって
大量返本があった場合は出版社が連鎖倒産してしまう可能性があるにょ。
もっとも上記のような小さな出版社の静山社のようなものでない限りはそれなりには
プールしているためよほどの数がない限りは大丈夫だろうけどね。
売上がどんどん減っていけば徐々に返本による影響が大きくなるためかなり厳しい状態に
なってしまうにょ。

さて、国内の音楽市場を考えてみるとCDの売上は2000年頃をピークに年々売上は減り続けて
いるにょ。

http://www.riaj.or.jp/data/cd_all/cd_all_m.html
 2000年 5239億円 41405万枚
 2005年 3598億円 30126万枚
 2009年 2460億円 21006万枚

しかし、CDを買う人が減っただけであってiPodの爆発的な普及、ケータイの着うたの
ダウンロードなどで音楽を聴く人自体はそれほど減っているわけではないと思うにょ。
ネット配信に関しては2005年以降の資料しかないけどそれを見てみるにょ。

http://www.riaj.or.jp/data/download/index.html
 2005年  343億円
 2009年  853億円

2005年と2009年において音楽CDとネット配信の合算を行うとこのようになるにょ。
 2005年 3941億円
 2009年 3313億円

確かに4年間では減っているもののネット配信があることでかなり救われているにょ。
ネット配信が無かったらCDを買っていたというユーザーもあるから単純に音楽配信分
だけ増えたとは言い難いけれどそれでも確実にプラスに働いていると思うにょ。
CDの売上が減ったのは違法ダウンロードによる影響を重要視する見方が多いけどそれが
正しいとすれば公式にネット配信をすることで違法ダウンロードユーザーの増加を抑制
しているということがこの結果から見えてくるにょ。

では、書籍はどうなのか・・・?
上記リンク先の試算では書籍のみで5年間で2700億円くらい売上が減ると予想されて
いるにょ。
また、これに雑誌の売上減も加えるとさらに大きくなるにょ。(国内の電子書籍&雑誌の
昨年度の全体売上は464億円)
書籍よりも雑誌の方が近年落ち込みが厳しくなっているからね。
これはWeb普及によって情報の多くがネットで入手可能になったため雑誌の相対的な
価値が落ちてしまったというのもあるにょ。
ぴあ(関西版)も10月発売号をもって休刊となるにょ。
http://www.asahi.com/national/update/0730/OSK201007300075.html
一部の雑誌では付録によって売上を大きく伸ばしているためやはりネットの影響が
大きいということがいえそうにょ。(現在の技術では立体物はダウンロード不可能)
http://blog.livedoor.jp/geek/archives/51047802.html

そうなると早めに手を打たないと本当に手遅れになってしまう可能性があるにょ。
書店が倒産してもアマゾン等のネット通販が生き残るもののそれだけで需要を十分に
満たすのは難しいにょ。
ネット配信サービスというのは店頭販売があって初めて生きてくるからね。
雑誌も定期購読しているものでなければ書店で立ち読みして気に入ったものを買うと
いう人も少なくないだろうから書店が無くなれば販売機会を失うことになるにょ。

現状で出版社が電子書籍に対してあまり本腰を入れないのはそういった書店保護という
考えはできるものの本質的なものはそこにはないにょ。
日本においては書籍の著作権管理が欧米よりも複雑だというのもあるけどやはり電子
書籍には紙の書籍にある再販制度が適用されないというのもありそうにょ。
再販制度が適用されないということは価格の拘束力がないわけなので書籍に対する
絶対的な価値(=額面価格)というものが無くなるにょ。

例えば紙の書籍で1000円の本が電子書籍で500円だったらその本の価値は500円程度と
ユーザーは感じてしまうにょ。
音楽もネット配信によってCDの価値が下がったことによる売上低下は否定できないにょ。
上記結果ではCD売上が下がっても配信が伸びているため問題ないと考えられるけど
書籍で同じようにできる保証はないにょ。
かといって電子書籍に再販制度を導入するのはナンセンスにょ。
紙の書籍で1000円の本を電子書籍として1000円で買いたいかというとほとんどの人が
そうは思わないだろうからね。
最初から自炊(=自分でスキャンしてデジタルデータにする人)目的で買う人ならばその
手間が無くなるため電子書籍の方が良いと感じるだろうけど・・・。

電子書籍が現時点でまともにネット配信されてなくても現時点でも自炊した人のデジタル
データがネット上に不正に流通しているため音楽配信のように公式配信がないと売上は
落ちる一方にょ。
音楽も配信の方が主流になりつつあるけどコレクターの人はやはり現物を買う(デジタル
データではなくパッケージ品を買う)ということもあるので完全には廃れないにょ。
紙の書籍も同じように「現物を買う」という人がいるため完全に廃れるような時代は当分
やってこないだろうけどそれまで何もしなければ出版社も生き残ることはできないにょ。

345御茶目菜子:2010/08/22(日) 13:48:58
上記の続き
(3)がやはり非常に大きいにょ。
中古を扱っているチェーン店は人気作品の配分数が少なめになってしまうと(2)に書いた
わけだし、そもそも新品ソフトで利益を出すこと自体が難しいにょ。
そうなると中古ソフトに頼らざるを得なくなるにょ。
スーファミ時代まではゲームソフトがROMカートリッジということもあり一旦新品の在庫が
無くなると数ヶ月後の再生産までユーザーは新品ソフトの入手はできなかったため
中古の意味合いは非常に大きかったにょ。

これはゲームの主流がCD-ROMに代わり最小ロットが小さくなっただけではなく生産までに
かかる時間が短くなったにょ。
昔は金曜発売がメインだったゲームソフトの発売日が木曜発売がメインとなったのは
発売日に売り切れや品薄になったソフトをすぐに発注をかけることでその週のうちに
入荷を可能にするためにょ。

それによってゲームソフトの販売は専門店から量販店がメインに変わっていったにょ。
量販店であれば品揃え、在庫量ともに豊富だからね。
これはすぐに生産が可能なCD-ROMだからこそできることであり、新品のみを扱うことで
優先的にメーカーから製品提供してもらっているお陰にょ。
中古には新品よりは安い(ただし、人気ソフトは新品中古の差はほとんど無いだけでは
なく異なるショップでの比較であれば新品、中古の価格逆転現象を引き起こしている
ことは良くある)、生産終了ソフトも入手可能、飽きたゲームやつまらないゲームを
買い取ってもらって新しいソフトの足しにするというユーザー側のメリットがあるにょ。

しかし、大手量販店での購入割合が増えたことや廉価版(ベスト版)の継続的投入などに
より新品ソフトの割合が増えているのは事実にょ。
中古ソフトはショップにとっては品揃えのため(人気ソフトは入荷が難しく、古いソフトは
コスト面を考えるとあえて新品を入荷するのが難しいため)だけではなく利益確保のため
でもあるにょ。
新品ソフトはワゴンセール(特価セール)になること無しに全品完売したと仮定しても
5%程度の利益しかないのに対して中古ソフトは20〜80%程度の利益があるからね。
つまり、回転率の高い人気ソフトは中古売価の80%程度の価格で買い取りして(超品薄
商品に関しては90%程度になることもある)、回転率の低い商品は中古売価の50%から
20%程度で買取をしているということにょ。(例えば中古売価3980円のソフトを半値の
2000円で買取して、そのソフトがしばらくして2480円に値下がりしたら利益率は約19%
となる)

それにゲームソフトは実際にプレイしてみないと自分にとって面白いかどうかは分から
ないため気に入らなければ中古ショップの存在を重要視している人もいると思うにょ。
しかし、最近は体験版の配信を行うゲームもあり、そのような状況は失われつつあるにょ。
新規作品はユーザーが敬遠して売上が伸びずヒット作品の続編ばかりになってきている
昨今のゲーム業界においてPSPの「ゴッドイーター」は体験版のダウンロード数が100万を
超えその影響で販売数もPSPの新規タイトルとしてはほとんどない販売数50万本突破を
記録したにょ。
このような体験版配信が増えれば(買ったものの自分に合わないため)発売直後に中古
ショップに流れるという事態はかなり回避できるのではないかと思うにょ。

また、WiiのVC(バーチャルコンソール)のようなネット配信も中古を扱うショップに
与える影響は大きいと思うにょ。
ネット配信自体は現時点ではパッケージ品と棲み分けができていると思うにょ。
ネット配信でパッケージ品と同じゲームが買えるPSPもgoの不振を考えるとあくまで
ネット配信はパッケージ品を補うだけの存在しかないと思われるからね。
VCはパッケージ品とはほとんど競合しないにょ。(プレイ時間を奪われるという面に
関してのみ競合となるけど)
影響があるとすればレトロ商材(生産終了した古いゲーム機用ソフト)を扱う中古
ショップにょ。
現行ゲーム機に関しては上記のように中古市場がかなり厳しくなっているために専門店の
唯一の生き残り策としてレトロ商材が人気を集めているけどその市場もネット配信に
よってかなり厳しくなってきているにょ。(現物をどうしても手に入れたいという需要は
確かにあるもののショップの運営費用を天秤にかけると存続は厳しい)

このように売上と利益率の双方でダウンしてしまった専門店はよほどライバル店が少ない
地域以外はどこも厳しい状況になっているにょ。
それらの要因が重なり合いここ10年でゲーム専門店は激減してしまったにょ。
恐らく今後も減り続けると思われるにょ。

とはいえ、このような専門店が無くなってもメーカーにとっては全く問題がないにょ。
昨日書いた書籍市場においては書店が閉鎖したりすればユーザーの目に触れる機会が
減るために売上が落ちるという出版社側のデメリットがあるもののゲーム専門店が
無くなったところでゲームを扱うショップ自体は無くなるというわけではない・・・と
いうかここ数年の流れでゲームの販売量は量販店などのゲーム売場を併設している
ショップの方が専門店よりも多くなっているくらいだからね。
これはメーカーによる新品ソフトの出荷コントロールの影響もあるし、中古ソフトは
予算の面や生産終了などの理由で現行ハード用の新品ソフトが買えないユーザー向けでしか
なくなっているというのも絡んでいるにょ。
スーファミ時代のような中古バブルはもう来ないにょ。



ちなみに今回書いた内容の一部のについては私が発行した「おちゃめ通信」の第8号、
第9号にさらに詳しく書いているにょ。(ともに99年発行)
第8号の内容はこんな感じになっているにょ。

 第8号 表面左 表面右 裏面左 裏面右

文字が小さくて読みにくい部分もあるけどサーバの空きの問題でこれが限界だったにょ。
空きがないため次に別のファイルをアップロードしたら消す予定にょ。
もしも、大きな字で読みたいとか別の号を読みたいという要望があれば適当なサーバを
借りてそこにアップロードしてみるにょ。

346御茶目菜子:2010/08/22(日) 13:50:09
ゲーム専門店はもう生き残れない
ゲームショップ「TVパニック」や「wanpaku(わんぱくこぞう)」を運営する業界No.1の
チェーン店を展開しているネステージが先日民事再生法の適用を申請したにょ。
簡単に言えば倒産したということにょ。(正しく言えば倒産直前だけど)
http://www.asahi.com/business/update/0812/OSK201008120138.html

ファミコンブームによって80年代後半からゲーム専門店が各所に多く作られ全国チェーン
展開する企業も多く現れたけどプレステが全盛時の90年代後半になって雲行きが怪しく
なり、1999年には「ブルート」が倒産したにょ。
それ以降、大型チェーン店の倒産が相次いだにょ。(97年には「カメレオンクラブ」を
運営する上昇が倒産したのが有名)
直営店に関しては別のチェーン店を運営する企業によって支援されたりということで
民事再生法によってすべてのチェーン店が閉鎖という自体にはなってない(今回の
ネステージもゲオの支援があるためいきなり全店閉鎖というわけではない)ものの厳しい
立場にあるのは確かにょ。

昨日は書籍売上に書いたけどゲーム市場に関して言えばここ数年ではオンラインゲームの
伸びが大きく、ここ1年ではソーシャルゲームの伸びが非常に大きいにょ。
http://www.8ing.co.jp/market/index.html
http://japan.internet.com/wmnews/20100628/2.html
肝心のコンシューマゲームに関してはほぼ横ばいといった感じにょ。
これはケータイなどに食われてなくて棲み分けができていることを意味しているにょ。
任天堂が新規ユーザーを開拓してようやく横ばいということは普通にコンシューマゲームが
進化していたら今はかなり減少していたという可能性もあるわけだけどね。

それもあくまでここ数年の話にょ。
もう少し遡ってみれば90年代半ばと比べると今は3分の2程度に落ち込んでいるにょ。
http://www.famitsu.com/game/news/2005/07/14/103,1121342453,41325,0,0.html
コンシューマゲーム機の場合はほぼ5年ごとにモデルチェンジが行われそれによって
市場規模が変わってくるにょ。
発売直後は新ハードの影響はあまりなく旧ハードのゲームの落ち込みを相殺できない
けれど発売して1、2年経つと新ハードが普及し、それによってソフトの売上が伸びていき
また4、5年経つとその伸びが落ちてくるというパターンを繰り返しているにょ。
90年代半ばはスーファミスーファミ黄金時代の最期であり、プレステとサターンが熾烈を
争う戦いを繰り広げられていた時期にょ。
旧世代のハードの市場が落ち込む前に新ハードで盛り上がっていたという希有な時期で
あるためこれは特例的なものだといえるにょ。

それを元に考えるとここ10年余りでゲームショップの閉鎖が相次いでいる理由は見えて
くるにょ。

主な理由は下記の3つにょ。

 (1)ショップ数が増えすぎた
 (2)流通の変化
 (3)中古ビジネスの崩壊

まず(1)から書いていくにょ。
ファミコン以前はゲームはおもちゃ屋の一角でのみ販売されていたけどファミコンブーム
によってゲーム単独でも商売として成立するようになったにょ。
それは任天堂がサードパーティ制を取り入れたために多くのメーカーがファミコン用の
ソフトを制作したというのが大きいにょ。
ソフトが多く発売されることで中古ゲームビジネスも成立するようになったにょ。

これによって「ファミコンゲームは儲かる」という認識が強まりゲームショップを
運営するオーナーは一気に増えたにょ。
それによって全国チェーン展開をするショップも出てきたにょ。
儲かるのが分かっていても商品供給の問題やノウハウの問題があり脱サラしてゲーム
ショップを始めるというのはハードルが高いものだったにょ。
そこで有用なのはフランチャイズ加入にょ。
これはゲームショップに限ったものではなくコンビニなど他の業種でも言えることだけど
直営店とFC(フランチャイズ店)があるにょ。

FCのメリットとしては上記のような商品供給とノウハウの提供(商品情報や商品管理の
システムの提供を含む)だけではなくチェーン店に加入するというメリットがあるにょ。
例えばコンビニでも初めて行くならば個人経営の名前の知らない店よりもセブンイレブンの
方が安心して店に入れるからね。
大手チェーンだと品揃えも安心できるからね。

ではチェーン店に加入することがプラスになるかというと一概にはそうとはいえないにょ。
例えば上記のwanpakuを例に挙げると加入するためには加盟金が100万円、補償金が
200万円必要になるにょ。(アパートでいえば補償金が敷金、加盟金が礼金に相当)
そして、開店するために必要な什器や商品も強制的に購入させられてしまうにょ。
確かにショップをオープンしたけど売るものがありませんとかでは話にならないので
チェーン店として相応しいレベルにしておかなくてはならないため仕方がないけどね。
あとオープン後は毎月12万円のロイヤリティと4.2万円のPOSレジ貸与料を支払う必要が
あるにょ。

チェーン店に加入するメリット、デメリットはあるものの金銭的負担が大きくても
90年代はゲームが売れている時期だったので十分に回収できる見込みがあったにょ。
また後述の(2)の流通の問題もチェーン店に加入することが重要となったからね。
これによりゲーム専門店は90年代に急速に増えていったもののコンシューマゲーム市場
そのものが90年代半ばと比べると3割減であるため需要に対して店舗数が増えすぎた
ために淘汰されていったということにょ。(市場規模3割減でショップ数が大幅増では
耐えられるはずがない)
フランチャイズ店がどんどん加入するうちは補償金がどんどん入ってくるためチェーン
展開をする本部も運営資金に余裕があるけど売上が低迷し、脱会すれば預かっている
補償金をFCのオーナーに返却する必要があるため資金面でどんどん厳しくなり今回の倒産に
至る最大の要因になったと思われるにょ。(実際wanpakuも1年以上前には補償金が返却
されないという内部トラブルが発生していた)

さらに大きいのは(2)の流通問題にょ。
ゲームというのはかつてはすべてが「メーカー→問屋→ショップ」という流れで出荷
してたにょ。(チェーン店の場合はチェーン店の本部が問屋も兼ねていた)
スーファミ初期〜中期は定価の63%〜68%くらいで問屋からショップに納品されていたにょ。
ただし、この納品掛け率は問屋やゲームタイトルによって大きく変わったにょ。
ドラクエ級になると定価の90%程度ということも少なくなかったにょ。
そこでゲーム業界に革新を起こしたのがソニーにょ。
プレステによってメーカー直送というのが実現されるようになったにょ。
つまり、商品の流れが「メーカー→ショップ」になったということにょ。

プレステは全商品一律定価の75%で納品だったということでショップにおいては良いこと
(スーファミ末期や64の時代は定価を下げるために78〜80%で納品されていた)とはいえ
問題はその流通のあり方にあったにょ。
中古ソフトを扱うショップには納品はかなりコントロールされたにょ。
当時はまだ中古裁判を争っていた時期であるためメーカーにとっては「中古=悪」で
あるためプレステソフトを扱うためには中古ソフトを扱わないことが条件だったにょ。
中古裁判で販売店側が勝利して久しい今でさえ中古を扱っているというだけで公然の
差別行為が行われているにょ。

例えば品薄時の本体やドラクエ、FFのような人気ソフトは自由発注ができず、配分制と
なっているにょ。
配分は基本的に実績配分となるため過去の発注数(発注金額)によって入荷数が決まる
けれど中古を扱っているというだけで扱ってないショップの半分以下の納品数となる
ということはザラにょ。

確かにいくら品薄でも仕入れる方法がゼロということはないにょ。
二次問屋には大抵揃っているからね。
二次問屋には一次問屋からの納品に加えてショップからの納品もあるため当然のこと
ながら普通にショップに卸す金額よりも高くなるにょ。
プレステのソフトであれば80〜85%が基本だからね。
品薄時のニンテンドーDS Liteも二次問屋で扱っていたけど納品の段階で定価16800円に
対して2万円近い価格(1.8〜1.9万円)となっていたにょ。(問屋の買取金額が17000〜
17500円だったから定価を超えるのは当然だけど)
「定価16800円のDS Liteを2万円で販売するのはボッタクリ」という見方をする人も確かに
否定はできないけど「多少高価であっても欲しい」というニーズに応えるために高価な
二次問屋経由で入荷したのならば必ずしもボッタクリとは言えないということにょ。

このようにメーカーが流通にまで介入することでショップに対して優位性を持つように
なったのだけどそれ故、それ以降独自流通を行うメーカーも増えたにょ。
コナミ、コーエー、セガなどは自社流通を持っているにょ。
自社流通を持っていないメーカーはPSP、PS3のサードパーティならばSCE一択という
わけではなく条件によっては自社流通を持っているメーカーに委託する場合もあるにょ。
納品掛け率は流通によって異なるけど現在では75〜80%となっているにょ。

ゲームソフトは書籍や音楽CDとは異なり再販制度や返品制度は導入されてないにょ。
したがって、自由に競争できる反面、売れ残ったら原価割れで売ることも珍しく
ないにょ。(ただし、SCEはゲームソフトには再販制度が適用されてないにも関わらず
一時期定価販売を義務付けていた)
メーカーが流通に介入して市場(ショップ)をコントロールするという方法もあるけど
実績配分ではなく分納によってコントロールするという場合もあるにょ。
注文数量を1回で出荷するのではなく分けて出荷することで商品のダブつきを抑えるという
役割があるにょ。

ただし、この分納は時としては逆にマイナスに働くことがあるにょ。
例えばニンテンドー64ソフト「ヨッシーストーリー」はクリスマス前のベストな時期に
発売されたももの初回入荷数は実績配分数の8%でしかないにょ。
つまり、100本納品予定ならば8本しか入荷しないというわけにょ。
残りの大半はクリスマス後、年明け以降に納品されたにょ。
需要のピークをすぎて大量入荷されたために本来であれば売れたであろうソフトなのに
一気にワゴンセール行きとなったにょ。

ゲームソフトは自由競争であるが故にギリギリまで価格を下げて売ることも珍しくなく
そのためにそのような売れ残り商品があると他の製品での利益が吹き飛んでしまうにょ。
仮に78%で納品した商品を定価から15%値引きして販売して5%のポイント還元をした
場合には利益率3%もないにょ。
会員に加入してない人、ポイントカードを紛失する人が合計で半分を占めていると仮定
しても利益率は5%程度にょ。(ちなみにゲーム機の本体は定価で販売しても5%程度の
利益しかないためポイントを付けたら利益はほぼゼロになる)
利益率5%の場合、新品ソフトを100万円売ったら5万円の利益があるかといえばそうでは
なくて返品ができないため20本仕入れた商品のうち1本が売れ残ったらそれで19本分の
利益が相殺されることを意味するにょ。
だからワゴンセールでも何でも売り切るということが重要になってくるわけにょ。
ダブついているソフトをそのままの価格で放置していても価値は下がる一方だからね。

さて、ここまでは大手チェーン店に属するゲームショップの話にょ。
仮に大手のFCからハズれて独自経営する場合には流通経路から確保しないといけないにょ。
スーファミ時代までは普通に問屋から納品だったけど今はメーカー直送となっている
からね。
高い補償金を払えば契約は可能だけど各流通に補償金を支払いなおかつそれぞれに提示
されている条件を満たすとなると個人経営の無所属ショップでは厳しいにょ。
そうなると二次問屋から納品することになるけどただでさえ新品は利益を確保するのは
難しいのに高価な二次問屋からでは新品だけでは難しいため無所属ではほとんどの場合
中古専門となっているにょ。
後述(3)で中古ソフトがかなり厳しい状態になっているため経営状態が芳しくないから
少しでも経費削減のためチェーン店を脱会するというのはこのような流通の変化によって
命取りになりかねない状態になっているわけにょ。

(下記へ続く)

347御茶目菜子:2010/08/23(月) 13:19:23
OPASのすべて!
久々にポケコンコーナーを更新したにょ。
更新したのはOPAS応用編の後編にょ。
http://ww5.tiki.ne.jp/~ochame/E500/TECH/opas_2.htm

前回(6月20日)には前編としてOPASで多ライン同時スクロールをする方法を書いたけど
今回はそれをさらに応用したものとなっているにょ。
このアニメーションとスクロールを同時使用することでドット単位でスクロールさせ
ながらアニメーション表示をする(画面上にあるオブジェクトを動かすなど)という
だけではなくアニメーションを使うことで64文字(384バイト)の制限を克服することも
可能になっているにょ。
また、縦方向に1ドットずつずらしたデータをアニメーションさせることで縦スクロールも
可能になっているにょ。
これを使えばドット単位で横スクロールするマリオタイプのゲームもBASICで十分な速度で
動作可能になるにょ。(リンク先に記しているようにOPASは表示オブジェクト数がどれだけ
増えても表示速度が落ちないため)

OPASは今から15年前(1995年)に私が命名したにょ。
OPASの元になっていたフォント書き換えはすでにPJ読者ならば常識的なテクニックに
なっていたにょ。
私はフォント書き換えでドット単位で動作させる方法を思いついていたのでそれを
使っておもしろいことはできないかと模索していたらPOKEで書き換えるフォント格納
参照アドレスを1変えることで表示が1ドットずれていることに気づきメインルーチン内で
そのアドレスを随時書き換えていけばドット単位でスクロールできるということに気が
付いたにょ。
そのアドレスを表示分だけ一気に変えたらアニメーションも高速に行えたにょ。
それがOPASにょ。

まだインターネットを利用していなかった当時、PJにもベーマガにもまだ発表されてない
ために勝手に私がOPASと命名したものを誌上で発表する機会を伺っていたにょ。
ただ、問題はOPASの威力が分かるゲームを作ろうとするとどうしてもメモリが多く必要に
なってしまいグラフィックを描くのも面倒なのでなかなか発表には至らなかったにょ。
そんな中PJ95年8月号に掲載されたたかじょゆうき。氏の「So Nervous」を見て無理に
1枚1枚アニメーションを描いていかなくてもパターン表示でやれば簡単だし、このような
アニメーション主体のゲームならばOPASの得意技だから分かりやすいということに気が
ついたにょ。

そういうわけでフォント書き換えの64文字(384バイト)制限の限界に挑戦されていた
この「So Nervous」を早速OPAS対応版として移植したところ約5倍の速さになったにょ。
当然のことながらそれをすぐに投稿はさすがにできなかったにょ。(同じプログラムを
同機種用に作り直したものを投稿して掲載されるはずがない)
というわけで再びOPASの威力を発揮できるゲームを考案する作業に戻ったにょ。
年は変わり1996年1月某日PJ編集部からPJ本誌で原稿を書いてくれないかという依頼の
電話があったにょ。
良い機会なので私が持っている高速化テクニックに加えてOPASを発表しようと考えたにょ。

単体投稿はできなかったけどOPASのサンプルゲームとしてであれば「So Nervous」の
OPAS対応版は問題ないだろうということでOPASのサンプルはこれですぐに決定したにょ。
そのままというのも何なのでPJ掲載版はオリジナルにない完成時の見本アニメを同時表示
することにしたにょ。(後にこのゲームのルールを変えた「パネルQ」を発表)
見本を表示することでゲーム自体がプレイしやくなった上に描画負荷が2倍になっている
にも関わらずオリジナルの約3倍速を実現できたにょ。

このOPASを発表したPJ96年5月号はPJ最終号となったにょ。
しかも、肝心のOPASを使ったプログラムのリストには誤植が多かったけど最終号であった
ために訂正しようがなかったにょ。
それ以降は自力でOPASを広めるべくOPASを活かしたゲームをどんどん作っていったにょ。
96年11月に作った「シュプール」では今回発表したアニメーションとスクロールの
同時使用のテクニックを用いているにょ。
この「シュプール」は97年に私が発行した「PJ増刊96」用に作ったけど後にベーマガに
投稿して採用されたにょ。

OPASはその後私が発行していたメルマガ「おちゃめ〜る」で詳細発表し、その記事は
後に立ち上げたWebサイト「おちゃめくらぶ」で正式コンテンツとしていつでも誰でも
見れる状態になったにょ。
これでOPASを使う人が増えるか・・・と思っていたら実はサイト上で発表されていた
サンプルプログラムに誤植(というかタイプミス)があることに7年経って発覚したにょ。
http://6502.teacup.com/ochame/bbs/133 (現在は修正済み)

これで、OPASがようやく誰もが使えるものになったけどもうポケコン(PC-E500系)を
使う人は激減していたにょ。
要望があれば「応用編を書くよ!」とサイト上に書いていたものの需要は無し・・・。
OPASを使ったゲームを発表してくれた鈴原透氏、上野雅博氏はすでにポケコン界から
去ってしまったようなのでなおさら難しいか・・・。
昨年10周年を迎え私が持っているBASIC高速化テクニックを(ほぼ)すべて発表したけど
OPAS関連だけはまだ心残りがあるという状態なのが個人的に気になったため今年になって
OPASの応用編を書くことを決意したにょ。

まずは今年の5月にはOPASを使った2LINEゲームである「2LINE UFO GAME」を発表したにょ。
OPASの理解を深めるにはシンプルなサンプルゲームが必要だからね。
今回のOPAS応用編で作ったサンプルプログラムも2LINE UFO GAMEのリストが部分的に
かなり活用されているにょ。
やはり、ただのサンプルというよりそれを使ったらこういうゲームができるという
具体的なものがある方が興味を惹きやすいしね。

さて、前回、今回の2回に分けたOPAS応用編を持ってOPASの使用テクニックに関しては
すべて公開となったにょ。
これによりOPASをフルに使ったゲームを作ることが可能になるにょ。
それだけではなくOPASの活用範囲が広がるためより多くの用途にOPASを使用できると
いうことにも繋がるにょ。
これで心残りなくこの世を去れる・・・ってことはないけど一安心できたにょ。
とはいえ、テクニックなんて覚えるだけでは意味が無く活用できなければ意味がないにょ。
活用範囲が広がってもどのように活用するかというのは実践経験を積まないと難しい
からね。
そういうわけでOPASを用いた実践的テクニックは今後も随時公開予定にょ。


実は、今回はあともう1つポケコンコーナーを更新したにょ。
みっぴゅ氏によるワンポイントテクニックの投稿にょ。(OPASの応用編と一緒に更新
しようと考えていたらすっかり遅くなってしまった)
http://ww5.tiki.ne.jp/~ochame/E500/TECH/TECH031.HTM
ワンポイントテクニックは随時募集しているたPC-E500のBASICで使用できるテクニックが
あれば要綱を見て投稿してほしいにょ。

348御茶目菜子:2010/08/24(火) 13:28:46
DDR4は必要なのか・・・?
PC用のメモリはDDR2からDDR3へ世代交代をしたにょ。
コストを優先するネットブックでさえDDR3に対応したAtom N455、N475搭載機によって
DDR3に対応したくたいだからね。
DDR2ではなくDDR3を使うメリットは下記のようなものが挙げられるにょ。

(1)コストダウンのため
(2)統合型チップセットの性能アップのため
(3)CPUに必要な帯域を十分に確保するため

(1)に関して書くと工業製品は量産化によってコストダウンすることが可能であるため
主流のものを使った方が安くなるにょ。
技術がこなれた旧世代の方が安くできそうだけど半導体の場合はそうではないにょ。
それはダイサイズが価格に直結するからにょ。
最新のプロセスルールは昨今ではフラッシュメモリの製造に使われることが多いけど
これはダイサイズを小さくすることでコストダウンをしているにょ。(同じダイサイズで
あればより大きな容量になる)
旧世代のプロセスルールを使用していたフラッシュメモリが最新のプロセスルールを
使用したために価格は一気に下落したにょ。(あとSLCからMLCへの移行による影響もある)

現在はDDR2とDDR3は大抵の場合は同じ製造プロセスで作られているにょ。
しかし、今後DDR3が主流になれば新しい製造プロセスでDDR2のメモリが作られることは
ほぼ無くなるためDDR3の価格は下がり、DDR2の価格は据え置かれるということで価格の
逆転現象が起きてしまうにょ。
製造量が極端に少なくなれば量産効果とは逆にコストアップに繋がるため価格アップの
可能性さえあるにょ。
登場時は生産量が少なくDDR2と比べて高価だったDDR3もすでに4GBのモジュールに関しては
DDR2とDDR3は価格が逆転しているにょ。
すべての容量のモジュールにおいて(といっても市販されているPC用のDDR3メモリは
1GB以上しかないけど)価格が逆転するのは時間の問題にょ。

(2)については7月29日に統合型チップセットとメモリの関係について書いたのを見て
もらえたらいいけどそれをまとめると旧世代のPC66の頃は2D描画でさえ不十分だったのが
DDRによって2Dなら不満のないレベルになったし、DDR2によって3D性能のアップにも貢献
できるようになったにょ。
DDR3の最大メモリ帯域はDDR2の2倍(主流となっているDDR2-800とDDR3-1600を比較した
場合)ということはメモリ帯域がボトルネックになりがちなGPUにおいてそのボトルネックが
緩和されることを意味するにょ。
ただし、GPUコア性能(統合されたGPUの性能)が不十分だといくらメモリ帯域が向上しても
性能アップには繋がらないにょ。

(3)に関しては難しいところにょ。
というのも広いメモリ帯域であれば性能アップに直結するGPUとは異なりメモリ帯域は
必ずしもCPUの性能アップに繋がらないからにょ。
とはいえ、マルチコアが当たり前となってきている昨今のPCにおいてはシングルコア全盛
だった頃とは比較にならないくらい必要メモリ帯域は増えているのも事実にょ。
しかし、4コア、6コアをフルに使うハイエンドな使用方法でないとその恩恵はないにょ。
とはいえ、CPUだけではほとんどの場合は十分とはいってもGPUが使うメモリ帯域を考えると
必ずしもそうとはいえないにょ。

PC66であれば普通に使っていてもメモリ帯域が大幅なボトルネックになっていたにょ。
これはXGAフルカラーの表示(リフレッシュレート60Hzであっても単純計算で135MB/sの
帯域が必要)でPC66のメモリ帯域(理論上で533MB/s)の大半が消費されているからにょ。
実際にi810を採用したPCでスーパーπを動作させればそれは明確だけどXGAフルカラーと
VGA16色では3割以上の速度差が発生するにょ。
今時2D描画でそこまで落ちることはないけど3Dであれば(2)で書いたように多くのメモリ
帯域が必要であるためCPU性能が十分に発揮できないことは十分に考えられるにょ。
もっともハイエンドなCPUで統合型チップセットを使って3Dゲームをプレイするという
ような状況はほとんどないだろうけどね。(CPUのコア数が多いほどクロックが高いほど
影響が大きくなるためCULVのように低クロックであればあまり影響はないと予想できる)

さて、PCの主流はDDR2からDDR3へと変わりつつあるけどDDR4もすでにその仕様が策定
されているにょ。
http://pc.watch.impress.co.jp/docs/column/kaigai/20100823_388253.html
製品として登場するのはあと2、3年後とはいえメモリの規格が定まらないとPCが設計でき
ないから策定は急ぐ必要があるにょ。
特に昨今はメモリコントローラをCPUに内蔵しているからね。
従来であればAMD(Athlon64など)を除きメモリコントローラはチップセット側にあった
ためメモリの仕様変更があっても柔軟に対応できたけど今はメモリの変更があった場合は
CPUそのものを作り直す必要があるにょ。
AtomでもPineViewからはCPUにメモリコントローラを内蔵しているためN450、N470のDDR3
対応版であるN455、N475を別途用意したくらいだしね。

DDR2からDDR3へと問題なく移行できたけどDDR4も・・・というとそうではないにょ。
それはメモリスロット数が1チャンネル当たり1本になるからにょ。
現在のPCの主流はデュアルチャンネルであるためメモリスロットは2本しか確保できない
ということにょ。
ノートPCであれば一般的な製品はメモリスロットが2本しかないため問題ないけどデスク
トップPCであればこれはかなり辛いにょ。
現在は1チャンネル当たり2本であるためデュアルチャンネルのCPUであれば4本(Core i7の
ハイエンドモデルにある3チャンネルのCPUであれば6本)メモリが搭載できるからね。
これによって4GBのメモリモジュールを使えば4GB×4=16GBのメモリを実装することが
できるようになるにょ。

今はまだ32bitOSのWindowsが主流になっているため4GB以上のメモリを搭載してもRAM
ディスク程度にしか使用できないけど徐々に64bit対応のアプリは増えつつありハイエンド
ユーザーは64bitOSに移行しているにょ。
現時点では高画素化の進んだデジタル一眼のRAW現像を大量に行う人やフルHDの動画
編集をする人のようにその恩恵がある使い方というものは限られているものの4GBの
メモリモジュールが現実的な価格(1本1万円以下)となっているため8GB以上搭載する
ことは珍しいことではなくなっているにょ。
実際安価なCULVノートでさえ64bit版Win7が搭載されている機種もあるくらいだしね。

しかし、DDR4世代ではメモリスロット数が半減してしまうため最大搭載量も半減するにょ。
現在のDRAMチップの主流は1Gbitから2Gbitに移行しつつあるにょ。
2Gbitのチップだとそれを16個使うことで4GBのメモリモジュールになるにょ。
ここ最近4GBのメモリモジュールの急激な価格低下はDRAMチップが2Gbitの急激な増産の
影響が大きいにょ。

ムーアの法則通りに約24ヶ月でプロセスルールが進むと仮定すれば2年おきにメモリは
倍増するかというとそういう単純なものではないにょ。
CPUとは異なりハーフノード単位で作られるためにプロセスルールが変わったからといって
必ずしも容量アップになる(2Gbitだったのが4Gbitになる)というわけではないにょ。
2倍の容量のメモリが急に必要になるということはないためプロセスルールの進化は
ダイサイズ縮小によるDRAMのコストダウンへと転化されることが大半にょ。

DDR4が市場に登場する頃はDRAMチップはようやく2Gbitから4Gbitへと移行しようとする
時期だと推測されるため安価で済ませるなら4GB×2=8GB、多くのコストを支払っても
最大で8GB×2=16GBになると予想することができるにょ。
XPでは試作品レベル、Vistaでようやく完成品レベル、7でようやく選択する価値がでて
きた64bit版Windowsだけど次の世代ではいよいよ64bitがメインとなると思われるにょ。
その64bit版がメインとなる次世代Windowsが発売されているであろう時期にそのメモリ
搭載量ではさすがに辛いにょ。

これはチップを積層化するという手段があるにょ。
実際フラッシュメモリはその方法によって大容量化しているからね。
32GbitのNANDフラッシュを8層×2によって64GBのSDXCカードは作られているにょ。
現在NANDフラッシュで量産化されているのは32Gbitであるため単純に考えると4GBの
SDHCカード、USBメモリしか作れないけど積層化によってその制限は緩和されていると
いうことにょ。(逆に言えば32Gbitが主流になることでSDカードは1GB、2GBと比べて
4GBはコスト的に大きな差は無くなっているともいえる)

確かに積層DRAMが量産化されれば最大搭載量の問題も改善されるけど問題はメモリ
コントローラがそれに対応する必要があるしレイテンシ増大も懸念されるにょ。
レイテンシの増大はメモリが速くなればなるほど大きくなる傾向があるからね。
PC100のCL2とPC133のCL3はあまり変わらない性能だったけどそれと同じようにDDR400と
DDR2-533は後者の方がメモリ帯域が増えているにも関わらず実効性能に有為的な差は
見られなかったにょ。
これはメモリ帯域の増大があってもレイテンシが増大しているためそれがボトルネックに
なっているためにょ。

恐らくDDR3からDDR4へと移行するときもこの問題があるためレイテンシの大きなチップや
クロックの低いチップではDDR4とはいえDDR3と比べてアドバンテージがあるとは言えない
と思われるにょ。
つまり、DDR4は速く無ければ意味がないということにょ。
DDR3もDDR4と同じように1チャンネル当たりメモリスロット1本という案が出ていたにょ。
それは製品では1本では高速なものも使用できるけど2本使用時には速度制限を課すことで
1チャンネル当たり2本までのメモリに対応したにょ。(1チャンネル2本使用時にはDDR3-
1333までしか対応しない等)

DDR4はDDR3の最高クロックと同じ2133Mbpsが最低速度(最初に用意されているチップの
速度)となっており今後はさらにその倍速まで上がる予定になっているにょ。
したがって、DDR3のように高速メモリを使用時は1チャンネル当たり1本だけど低速メモリ
使用時には2本使えるという裏技的な方法は使用できないにょ。
実際のところ8コア、16コアのCPUが主流になったり、CPUに統合されているGPUの性能が
飛躍的に向上しない限りはDDR3でも十分だけどマルチコア化はともかくとしてGPU性能は
今後大幅な性能アップが予定されているにょ。
AMDは現在のローエンドGPUを超える性能となるSP数400程度のGPUをCPUに内蔵するという
噂もあるくらいだからね。
そうなると速さを取るか容量を取るかでしばらくDDR3とDDR4が共存するという可能性が
高そうにょ。
DRAMチップが8Gbitになれば容量的に考えてDDR3のアドバンテージが無くなるためその頃には
DDR4が主流になると思われるにょ。

349御茶目菜子:2010/08/25(水) 13:57:28
速さだけがウリではない
デジタル一眼の新機種発表ラッシュの中、面白い機種が登場したにょ。
http://dc.watch.impress.co.jp/docs/news/20100824_388902.html
このα33、α55は「デジタル一眼レフ」だけどGH1のようにEVFを搭載し半透過型ミラーを
採用しているにょ。

一眼レフというのはミラーがあることでレンズから入った光(つまり撮影する被写体)を
ファインダーで見ることもできるし、フィルム(センサー)で捕らえることもできる
ようになっているにょ。
ミラーで反射された光はファインダーに導かれているのだけどシャッターボタンを押した
瞬間にミラーが跳ね上がり遮るものが無くなったためにセンサーに直接光が届くように
なり、そしてシャッターが閉じられたら自動的にミラーが元の場所に戻ることで再び
ファインダーで被写体を撮影できるようになるにょ。
ミラーの動く様子は実際に手元に一眼レフがあれば確かめてもらえれば一目瞭然だし、
ミラーが動作することで一瞬ブラックアウトになるというのも一眼レフユーザーならば
普通に体験していることなので今更書くようなことではないんだけどね。

しかし、このα33、α55は半透過型ミラーを採用しているためにミラーを動作させる
必要性がなくなっているにょ。
普通のミラーではなく半透過型ミラーを採用することによるメリットは下記の3つにょ。

(1)シャッタータイムラグが短い
(2)高速連写可能
(3)常時AFが可能

(1)半透過型ミラーを採用した一眼レフは古くから存在するにょ。
銀塩時代に登場したEOS RTは半透過型ミラー(ペリクルミラー)を採用によってシャッター
タイムラグ8m秒を実現したにょ。
上記のように一眼レフは複雑な動作をするミラーがあるためにシャッターボタンを押して
撮影可能になるまで多くの時間(といっても一瞬だけど)がかかってしまうにょ。
プロ機であっても20〜40m秒かかってしまうわけだし、入門機だと100m秒を超える機種も
少なくないにょ。
それを考えると8m秒というシャッタータイムラグの小ささはすごいといえるにょ。

野球を撮影する場合、時速144kmで投げられた(打たれた)ボールは秒速40mであるため
100m秒の間に4mも進んでしまうにょ。
天才的な反射神経の持ち主で打球がバットに当たる瞬間にシャッターボタンを押しても
4mも飛んでしまうためにバッターをアップで撮影したらボールが捕らえられないにょ。
これが8m秒であれば32cmで済むにょ。
つまり、シャッタータイムラグが小さいということは動体撮影において大きなプラスに
なるということにょ。

(2)連写についてもそれはいえるにょ。
ミラーの動きは高速かつ複雑であるため高速な連写に耐えられるようにするためには
非常に多くのコストがかかってしまうにょ。
そのため入門機では3コマ/秒程度、中級機で5〜7コマ/秒程度、プロ機で8〜10コマ/秒
程度となっているにょ。
しかし、連写の際にボトルネックになるミラーの動作が必要が無ければ連写性能は飛躍的に
アップするにょ。
今はセンサーがCMOSになっているため読み出し速度面では全く問題がなく唯一ボトル
ネックになるとすればシャッターの動作くらいだからね。

(3)一眼レフではミラーによってファインダーへ光を導いているだけではなく現在主流で
ある位相差検出方式だと測距用のセンサーにも導かれているにょ。
そのためシャッターボタンを押してミラーが上がってしまったらそれらに光が導かれ
なくなりAFも動作しないにょ。
動く被写体にピントを合わせてもそれはミラーが動作する前の段階でのピントであるため
シャッタータイムラグによってピントのずれが発生してしまうにょ。
しかし、それは銀塩時代に登場したα7700iから多くの機種で採用されている「予測駆動
フォーカス」によって緩和されたにょ。
それは被写体の動作速度からタイムラグ中にどの程度移動するのかを予測してその場所に
ピントを合わせるというものにょ。


半透過型ミラーは多くのメリットがあるのに採用例がほとんどないのはなぜなのか・・・?
確かにミラーが特殊であるためコストアップになるからというよりも暗所に弱くなったり
余分な光学系を通すために画質に与える影響が払拭できないからにょ。
ミラーによってフィルム(センサー)とファインダーに光を分断するため光を半々に
分けた場合にはファインダーが1段分暗くなってしまいセンサーに届く光も1段分弱くなって
しまうにょ。(1段分暗所に弱くなる)
透過率を上げれば暗所性能の問題は減るけど今度はファインダーが暗くなるという問題を
抱えているにょ。
やはり、半透過型ミラー採用機は普通に使うにはデメリットとなる部分が大きいため
それを使うメリットが大きい機種でないと採用しにくいというのが実情だと思うにょ。

しかし、それは銀塩一眼における場合でありデジタル一眼では必ずしもそうとはいえない
と思われるにょ。
α55では極めて透過率の高い薄型のミラーによって画質に与える影響はほとんど無くなって
そうにょ。(それでも100%の透過率ではなく1/3段程度は暗くなるという判断をしている
人もいるけど昨今の高感度に強いセンサーだと1/3段暗所に弱くなっても誤差の範疇だと
思われる)
そうなるとファインダーへはほとんど光が届かない(常時NDフィルターを使っている
ような状態)という問題があるにょ。
これはEVFでカバーできるにょ。
EVFならばセンサーが受光している被写体データを直接見ることができるからね。

それではミラーは何のために使われているのかというと位相差検出方式のセンサー用と
なっているにょ。
デジタル一眼も最近の機種はほとんどがライブビューに対応しているけどミラーがある
ため通常時はセンサーへの光は遮断されるのでライブビューを使用するためにはミラー
アップが必要不可欠となるにょ。
ミラーアップをするためにファインダーは当然ながら真っ暗で位相差検出方式が使えず
コントラストAFとなっているにょ。
昨今はコントラストAFも速くなったとはいえ、速度面では位相差検出AFには及ばないし
レンズ側がコントラストAFに最適化していないと十分な速度が出ないという問題がある
ために位相差検出AFがメインの一般的なデジタル一眼ではかなり不利な状況になって
いるにょ。
Panasonicのミラーレスカメラ(GH1、GF1などのマイクロフォーサーズ)がコントラスト
AFの割に高速なのもすべての交換レンズがコントラストAFに最適化しているというのが
大きいからね。

このα55は上記のように常時測距センサーへと光を導いているため常時ライブビューで
撮影しているにも関わらず位相差検出AFも常時使用可能になっているにょ。
とはいえ、この方法はミラーを使わず撮影センサー上に測距センサーを配置することでも
可能となるにょ。
7月22日に書いたFinePix F300EXRはミラーなんてないコンデジにもかかわらずその特殊な
センサーによって位相差検出AFが可能になっているにょ。
とはいえ、これはコンデジだからこそ許されることにょ。
F300EXRでも数万画素が測距センサー用として使われているけどこれがデジタル一眼ならば
さらに多くのセンサーを割く必要があるだろうからね。

それにすでにセンサーの画素ピッチがレンズの解像力を超えているコンデジであればその
画素欠損状態(測距センサーのある場所は撮影用に使えないため)なのは大した影響は
ないけどデジタル一眼の場合は解像力の高いレンズを使用時には画素ピッチ<分解能で
あるため画素欠損による明確な画質劣化が起きてしまうにょ。
元々ベイヤー配列ということで画素単位でRGBフルカラーの情報を持たず周囲の画素情報で
フルカラー画像を生成しているだけとはいえ、その影響は少なくないにょ。

α55は常時位相差検出AFが使えるというだけではなくミラーアップによるファインダーの
ブラックアウトもないためファインダーを覗いたまま撮影できるというメリットがあるにょ。
これは普通のデジタル一眼であればライブビュー使用時は背面の液晶モニタを見ながらで
ないと撮影できないという問題があるためライブビューを使用する場面は極めて限られて
いたにょ。
これが非常に有用なのは動画撮影にょ。
8月20日にも書いたようにデジタル一眼においても動画撮影機能の重要性は近年非常に
高まってきているにょ。
しかし、デジタル一眼で動画を撮るためにはライブビュー(ミラーを上げてコントラスト
AFを使用)の状態にする必要があるにょ。
それがこのα55であれば背面液晶もファインダーも使えるし上記のように位相差検出方式の
AFが常時使えるというメリットがあるにょ。

ここで問題なのはEVFそのものの性能にょ。
ファインダーは確かに光学式が最高なのには違いないけどそれにも優劣があるにょ。
一般的にはセンサーサイズによる影響で「フルサイズ>APS-C」だし、光学的な仕組みから
考えて「ペンタプリズム>ペンタミラー」となっているにょ。
入門機で用いられているAPS-Cセンサーでペンタミラー採用の光学ファインダーは構図を
確認する程度ならいいけど細かい部分を確認したり微妙なピントの確認を確認するには
あまり適しているとは言い難いにょ。
EVFも良いものと悪いものでは大きな差があるけどα55に採用されている144万画素のEVFは
現在市販されているデジカメ用としては最高クラス(GH1と同レベル)であるため下手な
入門機のデジタル一眼に採用されている光学ファインダーよりもピントの確認という観点
から見た場合はマシかもしれないにょ。

EVFは反応速度の面がネックだったけど近年はかなり改良されているし、拡大表示ができ
たり絞りや各種フィルターなどの設定による影響もファインダーに反映可能であるため
光学ファインダーよりも優れている面もあるにょ。
確かに画像処理をする分だけ遅延の発生があるからいくら良くなったとはいえ動体撮影
メインだと厳しいものがあるけど入門機に求めているレベルであればすでに達成ができて
いるのではないかと思われるにょ。
さすがに平均的なネオ一眼などに使用されているレベルのEVFだとさすがに一眼レフ用と
しては画素数の面でも速度の面でも使い物にならないけどね。

こうしてみるとα55、α33はかなり良いデジタル一眼に見えるけどそれは実際のレビューを
見るまでは分からないにょ。
いくら速いといってもあくまでは中身は入門機レベルだからね。
10コマ/秒の撮影ができるといってもAFの追従性がそこまで良いわけではないだろうし
透過型ミラーを採用によりEOS RTのようなものにシャッタータイムラグが短くなるかと
いえば入門機であるためそんなことはないだろうからね。
野球の打撃シーンのようにピントは定位置であれば10コマ/秒の高速シャッターが生きて
くるけど入門機であるためバッファ容量が小さそうなのですぐにバッファフルになって
しまう可能性があるにょ。
結局のところ入門機で速さだけが与えられても全体スペックを上げないとどこかで
破綻がくるということにょ。
これは実際に使ってみないと「使えるレベル」かどうか判断が難しいところだけどね。

また、ミラーレスカメラはミラーやファインダーがない分だけコストダウンになっている
けどこのようなミラー+EVFでは単純にEVFの分だけコストアップになっているにょ。
ペンタミラーによる光学ファインダーがない分だけ一般的な入門機のデジタル一眼より
コストダウンできている面もあるとはいえ、コストは「高性能EVF>ペンタプリズムに
よる光学ファインダー」だと思われるためコストアップは否めないにょ。
それが価格にも出ているにょ。
上位モデルのα55は本体だけで実売9万円台、α33は本体だけで7万円台の予定になって
いるからね。
せっかくの光学ファインダーも動画撮影時には使えない、コントラストAFは遅いという
一般的なデジタル一眼の問題点が克服されているためにコンデジからステップアップ
する人には入門機として考えた場合には多少割高(とはいえ連写性能を考えれば破格の
安さ)とはいえ最適な1台だと思われるにょ。

350御茶目菜子:2010/08/26(木) 13:15:31
Atomに過度な期待をしないでください
ネットブック向けのデュアルコアAtom「Atom N550」の出荷が発表されたにょ。
http://pc.watch.impress.co.jp/docs/news/20100824_388936.html
N550の存在は半年前から噂になっていて6月にはすでに出荷可能な状態になっていたにも
関わらず今になってようやく出荷開始されたというのはやはりネットブック・・・というか
ULCPCの制約のためだと思われるにょ。

ここで幾度も書いたようにネットブックはIntel側、MS側が制約を設けていてそれを満たす
ことでIntelはCPUおよびチップセットを安価に提供し、MSは安価なWindows(ULCPC版の
Windows)を提供しているにょ。
ネットブックは「安さ」が最大の価値であるため安くするためにその条件を満たした機種を
各社が作っているにょ。
それゆえ、仕様が各社でほとんど横並びになってしまうのだけどそれはやむを得ない
ことにょ。(小型PCでタスクマネージャが4本というのは非常に萌えるのでこのN550を
使ってギリギリまで小さくしたネットブックは見てみたい)

さて、MS側の制約だけど最大の難点だったのがULCPCの条件としてCPUはシングルコアのみ
となっていたにょ。
しかし、いつでも出荷準備OKだったネットブック向けのデュアルコアAtomが今頃になって
出荷開始されたのはやはりその条件が緩和されたのではないかと予測できるにょ。
Atomのような低速(低TDP)のCPUに限りデュアルコアでもOKとなったのだろうけどもしも
ULCPCとして認められず通常のWindowsであれば低価格が最大の魅力となっているネット
ブックの最大の魅力がスポイルされてしまうにょ。

Windowsの価格はULCPC版が30ドル、通常版(Home Edition)が100ドル程度であるため
価格差が販売価格にそのまま転化された場合には70ドル差となるにょ。(すでに1台
あたりの利益が非常に少ないネットブックではその差を吸収するのは不可能であり本体の
価格アップは必至となる)
実売300ドル程度の価格のものが主流となっているネットブックにおいてはこの差は非常に
大きいにょ。
70ドルアップとなればいきなり価格が2割増しとなるわけだからね。
ULCPCの条件というのは固定的なものではなく変動的なものであり、XPと7とではまた
基準が変わるためデュアルコアAtomがULCPCとして認められたとしてもWin7のみとなる
可能性が高いにょ。

ULCPC版のWindowsはXPは普通のHome Editionと機能面の差異は無かったけど7のULCPC版と
なるStarterは明確な差別化をしているにょ。
この差は気にならない人にとっては大した差ではないけどやはりXPでは機能面での制約が
無かったことを考えると気になる人はいると思うにょ。
この差が生まれた背景にはXPにおいてはASUSの取引(初代Eee PCのヒットによる影響で
Windows離れが懸念された)のために急遽用意する必要があったというのもあるけど
XPはすでに発売から年数が経過しており減価償却が終わったOSだから差別化をする必要が
無かったというのもあるからね。(別SKUのXPを用意する方が逆にコストがかかってしまう)
しかし、7は最新OSでありこれから開発費を回収しなくてはならないため「無茶な安売り」
なんてできないためあえて機能を制限したStarterを用意したということにょ。

デュアルコアAtom N550を搭載したネットブックは年内にも各社から発売予定になっている
けれどULCPC版のWin7(Starter)が搭載されるのであれば現行のAtom N475を搭載した
モデルとあまり価格差はないと思われるにょ。
ただ、問題は性能にょ。
4月23日に書いたようにN550は1.5GHzとクロックが低いために1.83GHzのAtom N475と
比べて性能アップになるとは限らないからね。
これは動作させるアプリによっても左右されるもののマルチスレッド(4スレッド)に
最適化してあるものでない限りはN475の方が性能面で上回るという可能性もあるにょ。

シングルコアとデュアルコアではベンチだけでは計れない差があるのだけどデュアルコアと
クアッドコアではそこまで大きな差はないにょ。
シングルコアAtomは論理デュアルコア(1コア2スレッドCPU)であるためそれが物理
デュアルコア(2コア4スレッドCPU)になった場合には「シングルコア→デュアルコア」の
場合のような明確な差は生まれにくくなってしまいそうにょ。
重いアプリを動作させそれと同時に別にアプリを動作させるという場合は確かに物理
デュアルコアが効いてくるけどAtom搭載のネットブックでそんなことを行う機会はかなり
限られると思うにょ。

実際にどの程度の性能になるかは製品が発売されてレビューが行われれば一目瞭然だけど
クロックを1.5GHzに落としたというのはTDPの問題もあるし、CULVとの差別化もあると
思われるにょ。
セレロンU3400が思ったほど(というか予想通り?)大した性能ではなかったため
1.83GHzのデュアルコアAtomであればその差はほとんど無くなるだろうからね。
現状ではHD動画の支援機能の有無という非常に大きな差がU3400とN550にはあるためそれ
だけで差別化はできているとは言えなくはないけどネットブック向けのAtomも来年登場する
次の世代のものからはHD動画の再生支援機能を内蔵してくるためそれは明確な差ではなく
なってくるにょ。

Atomは当初からのようにローエンドの下に新たに設けられた低価格を実現するためのもの
であるためローエンドを性能面で追い越すことは今後もないと思われるにょ。
デュアルコアAtomのクロックが2GHzくらいになり、セレロンU3400を脅かす頃にはCULV用の
CPUはさらなる高性能化しているということにょ。
もっとも、Atom N270(1.6GHz)でも十分に感じている人はいるわけだからローエンドより
下といっても侮ることはできない(人によっては十分に実用的に使える)というのは
決して間違いではないにょ。
昔とは異なりPCの使い方も多様化しているためローエンドより下であっても十分に使う
ことができるからね。(ノートPC用だけを考えても昔は同じ世代ではハイエンドとロー
エンドは2倍程度しか性能差がなかったけど今はハイエンドのCore i7 940XMとAtom N455
では5倍以上の性能差がある)

351御茶目菜子:2010/08/27(金) 13:22:03
後出しで勝てなかったら意味がない!?
さて、今月、来月はデジタル一眼の新製品ラッシュにょ。
基本的に入門機は年に1回、中級機は2年に1回の頻度でモデルチェンジがあるけどこの
時期に多くの機種が発表されるのは9月にドイツで開催されるフォトキナの影響もあると
思われるにょ。
ここ1週間に発表されたものを見るとニコンは大幅な改良が施された入門機のD3100、
ソニーは大胆な仕様の入門機のα55、α33が挙げられるにょ。(個人的にはD3100は
ちょっと欲しい機種、α55は買わないけど一度使ってみたい機種であり、本命はやはり
D90の後継機か)
やはり、そうなると世界最大シェアを持つキヤノンの動向が気になるところにょ。
この度、2年前に発売された中級機EOS 50Dの後継となるEOS 60Dが発表されたにょ。
http://dc.watch.impress.co.jp/docs/news/20100826_389278.html

この60Dは数ヶ月前までは出ないという噂さえあった製品にょ。
というのも中級機はすでにEOS 7Dがあるし、入門機は他社比べても十分高い性能を持つ
EOS Kiss X4があるからにょ。
この間に位置するであろう50Dの後継機というのは非常にニッチな需要になりそうだ
という意見も少なくなかったにょ。
しかし、D90に対抗するカメラは必要ということで出すことになったのだと思われるにょ。
D90は脱入門機の人を対象に売れているからね。(小型軽量を活かしてサブ機として
使うハイアマチュアやプロもいる)

 ◎クラス別に見たニコンとキヤノンのデジタル一眼の一覧
          ニコン     キヤノン      ペンタックス(参考)
 プロ機上位    D3X      EOS 1Ds MarkIII  645D(中判デジタル)
 プロ機下位    D3s      EOS 1D MarkIV
 フルサイズ下位  D700      EOS 5D MarkII
 中級機上位    D300s     EOS 7D
 中級機下位    D90      EOS 50D → 60D  K-7
 入門機上位    D5000     EOS Kiss X4
 入門機下位    D3100     EOS Kiss X3    K-x

シェアが小さいために多くの機種をラインナップできないペンタックスであれば1つの機種で
複数のクラスの相手をしなくてはならないけどニコンにできてシェアナンバーワンの
キヤノンにできないはずがないからね。(EOS 7DではD90の相手をするのはさすがに
無理がある)

さて、上記記事で仕様を確認してもらえたら分かるように60Dは単純に7DとKISS X4の間の
スペックと言っても間違いではないにょ。
唯一60Dの独自性があるのはバリアングル液晶とカメラ内RAW現像くらいにょ。(というか
他社製品では普通にできていたのに今までEOSではカメラ内RAW現像ができなかったのが
不思議なレベル)
では、肝心の50Dから見ると動画機能の追加と画素数が1500万から1800万へと増えたのが
主な違いにょ。(この2点に関しては60Dと同じくX4と7Dも対応している)

画素数が増えたことは賛否両論だけど解像力のあるレンズを使用すれば1800万画素の
性能は生かせるわけだし、画素数が増えたことによる暗所ノイズの増加はX4を見る限り
上手く処理されているので問題ないにょ。
ただ、50Dより画素数が増えたことで連写速度が6.3/秒から5.3コマ/秒へとダウンして
しまったにょ。
これは画像処理エンジンのDIGIC4がボトルネックになっていると思われるにょ。
EOS 7Dは8コマ/秒を実現するためにDIGIC4を2つ搭載しているくらいだからね。
60DでDIGIC4を2つ使わなかったのはやはりコストダウンのためだと思われるにょ。

さて、X4と7Dの間の性能で間の価格というのならばそれに合った人にとっては価値が
あると思われるにょ。
X4の発売当初の予価は本体9万円、7Dは本体19万円に対して60Dは本体13万円となっている
わけだから単純に価格で選ぶのもありとなるにょ。
しかし、X4は発売から半年余り、7Dも1年近く経つために価格下落しているにょ。
価格com最安値を見てみると今日現在はX4が59655円、7Dが113790円に対して60Dは現在
予定されている最安値は113990円でありこれは7Dの価格とほぼ同じにょ。
つまり性能は、X4<60D<7Dなのに価格はX4<<60D=7Dになっているということにょ。

後から発売された新製品が既存の旧製品より割高に感じることはPCなどにおいてもいえる
ことであり別に珍しいことではないにょ。
ただ、今回の場合は先に発売されただけというだけであるためPCの型落ち品のように
旧製品という考え方は正しくないにょ。
X4も7Dもそのランクにおける最新の製品だからね。
多くの場合は後出し製品は割高になってもその分先行発売よりも高性能にすることで
割高感を払拭していったにょ。
例えば先日発表されたニコンのD3100は入門機だけどどのニコン製品よりもすぐれた
動画撮影性能も持っているにょ。
これは後発のメリットにょ。

60Dには後発のメリットがないにょ。
正しくはカメラ内RAW現像などがあるためほとんどないというべきかもしれないにょ。
もしも60DにD3100のように後発の大きなメリットがあればX4や7Dではなく60Dを選択する
という人もいるだろうけどそれがほとんどない以上は価格面で7Dの実売価格よりも
明らかに安い価格になるように60Dは設定すべきだったにょ。
しかし、60Dの価格設定が間違っているというわけではなく7Dの価格下落が大きいと
いうだけの話にょ。
7Dの性能で実売11万円台というのは破格だからね。
7Dの価格が下がったのはX4の影響が大きいと思われるにょ。
X4を入門機の割りに高スペックにしたばかりに60Dの居場所がなくなってしまったと
いうことになるにょ。

60Dをあえて選択するというならばバリアン液晶やカメラ内RAW現像が目的ではなく
恐らく入門機は嫌だけど中級機の7Dは大きく重いから嫌という人の方が多そうにょ。
50Dまでのマグネシウムボディではなくプラスティックボディへと変わってしまった
けれどこれは小型軽量を望んでいるユーザーが少なくないというのかもしれないにょ。
実際中級機の割りに小型軽量のニコンD90は高い人気を集めているからね。
このことが理由となり記録媒体もCFカードからSD系カードへと変わったと思われるにょ。

60Dは居場所(実売価格で考えたポジション)は微妙であり、その存在自体を疑問視して
いる人は少なくないけれどサイズ、重量、スペックのバランスが良いために価格さえ
こなれてくればおすすめできそうな機種になりそうにょ。
ただし、現時点であればキヤノンのデジタル一眼は普通の人ならばX4がオススメだし、
スペック重視であれば7Dであり、60Dはコストパフォーマンスよりバランスを重視すると
いう極めて限られた人にしかオススメできない感じにょ。

352御茶目菜子:2010/08/28(土) 13:32:10
実用性を求める人にとっては微妙な機種だけど・・・
東芝のノートPC25周年記念として発表されたlibretto W100だけど6月24日に書いたように
私はコンセプトは明瞭だけど時代が追いついてないという感想を持ったにょ。
確かに興味深い機種ではあるもののバッテリ駆動時間や操作性の面の問題点があるため
ただのミニノートPCとして買うと失敗してしまう可能性も高いにょ。
W100がどの程度使えるものなのかはようやくレビューが公開されたのでそれを見て判断する
ことにするにょ。

(レビュー前編) http://plusd.itmedia.co.jp/pcuser/articles/1008/25/news020.html
(レビュー後編) http://plusd.itmedia.co.jp/pcuser/articles/1008/26/news025.html

やはり、真っ先に気になるのは操作性だと思うにょ。
http://plusd.itmedia.co.jp/pcuser/articles/1008/25/news020_2.html
折りたたみ式の2画面液晶は今まで発売されたPCには存在しなかったためにイメージで
語るしかないのだけどやはり現時点ではこのスタイルに最適化されたアプリがないため
イメージでしか語ることができないにょ。
センサーによって自動的に縦横切り替えが行われるみたいだけどそれが敏感で少しだけ
傾けても切り替えが発生し、その切り替えに数秒かかるというのはあまり良い感じが
しないにょ。(縦横を固定できる設定はあるのか?)

次にキーボードを見てみるにょ。
http://plusd.itmedia.co.jp/pcuser/articles/1008/25/news020_3.html
6月26日に書いたようにキーボードは必ずしも必要不可欠なものとはいえないにょ。
文字入力を頻繁にかつ大量に行うのであればハードウェアのキーボードは必須だけど
そういう人はそういう機種を買うかキーボードを別途持ち歩けば済むという問題であって
このようなキーボードレスの端末の存在を否定するというのは正しくはないからね。
しかし、そんなに大量に文字入力をしない人であってもまともに使えるレベルなのか
それとも外付けキーボード無しでは使えないレベルかというのはやはり大きな差だと
思われるにょ。
こればかりはレビューを見ても判断に苦しむため実際に店頭などで試してみるしかない
と思われるにょ。
ソフトウェアキーボードは自分好みの配列を選択できるというメリットがあるため
デフォのものを1つ試しただけでは判断はできないのが難点にょ。(ユーザーの手によって
追加可能なのであれば今後さらに使いやすいキーボードが登場する可能性もある)

あと難点はポインティングデバイスにょ。
タッチパッドもキーボードと同じくソフトウェアで実現しているけどこちらもキーボード
と同じく超えられない壁が存在するにょ。
立体的なキーボードであれば平面でしかないソフトウェアでは大きく劣るというのは
イメージ的に分かるだろうけど元々平面のタッチパッドであればソフトウェアで実現
したとしてもそれほど劣ることはないと考えている人がいるのではないかと思われるにょ。
タッチパッドに関しては8月7日に書いたようにアバウトな操作(画面の端から端まで
一気に移動)と細かい操作(1ドット単位での操作)を両立できるというメリットがある
もののソフトウェアタッチパッドでは液晶のdpiを超えるような操作はできないにょ。
正しくは液晶パネルとタッチパネルは独立したものだからタッチパネルの分解能を大幅に
高めておけば実現が可能なのだろうけどそこまでの精度も分解能もW100のタッチパネルに
ないために上記レビューのような評価に至ったのだと思われるにょ。
キーボードはこのようなタブレット型のPCを買う人だと使用頻度が低いだろうけど
ポインティングデバイスはWindowsを使用する限りは必要不可欠であるためポインティング
デバイスこそハードウェアで実装すべきだったと思われるにょ。(タッチパネルがある
から十分だと割り切れる人にとっては問題ないことだけど)

やはり気になるのは性能面にょ。
使用しているのはArrandale世代のPentiumということで同世代のセレロンであるU3400を
搭載したCULVノートよりも高スペックとなるにょ。
セレロンU3400に関しては8月19日に書いたようにクロックが従来のセレロンSU2300よりも
下がっている分だけ性能がダウンしているという残念なものだったけどW100はU3400の
1.06GHzよりもクロックが高いPentium U5400(1.2GHz)を搭載しているため従来のCULV
ノート並のCPU性能はあるにょ。
SU2300(1.2GHz)も低スペックなセレロンとはいえ、Atom N270(1.6GHz)と比べて
2〜2.5倍くらいの性能はあるため一般的なネットブックとは別格の性能といえるにょ。
まして、このW100クラスのサイズのネットブックは存在せずAtom Zを搭載のUMPCしか
ないためAtom Z530(1.33GHz)あたりと比べると3倍近い性能差になるにょ。

さらに大きいのがGPU性能にょ。
8月19日でもU3400はSU2300よりもCPU性能が下という結論を出したもののGPU性能に関しては
SU2300を搭載したCULVノートに使われているGS45に内蔵のGMA X4500よりもU3400に内蔵
されているIntel HD Graphicsの方が1.5倍くらい性能が上だったからね。
ベンチによって大きく左右されるけど大ざっぱにGPU性能を比較すると下記のようになるにょ。

  US15W   945GSE PineView GS45    Arrandale
  GMA500<<GMA950<GMA3000<GMA X4500<Intel HD Graphics
  (※不等号1つで1.5倍くらいの性能差)

UMPC(Atom Z)のチップセットUS15Wに内蔵のGMA500は軽めのオンラインゲームでさえ
動作させるのが厳しいレベル(というかAeroでさえ動作が重いレベル)なのに対して
Intel HD Graphicsは決して高性能とは言えないものの軽めのゲームならば十分に動作
させることができるくらいの性能があるにょ。(両者は1桁異なるくらいの性能差がある)
つまり、同クラスのサイズ、重量のPCと比較すればダントツのCPU、GPU性能を持っている
ということになるにょ。
常駐ソフトが多い関係上ここまでしないと快適には使えないためこのようなスペックに
なったのだと思われるにょ。

さて、ハイスペックの弊害となっているのがバッテリ駆動時間にょ。
http://plusd.itmedia.co.jp/pcuser/articles/1008/26/news025_2.html
何せ、BBenchで測定した場合でさえ標準バッテリで1時間22分、大容量バッテリで2時間48分
しか動作しないという結果だからね。
最大で1時間程度しか使用しない人ならば標準バッテリで十分だし、最大2時間程度の使用
という人ならば大容量バッテリで十分まかなえるとはいえ、多くの人が不十分と感じる
駆動時間だと思われるにょ。(私自身は実駆動3時間を最低ボーダーラインに設定して
いるため大容量バッテリ使用時でやや不足のレベル)
昨今のPCでここまで駆動時間が短いものはWILLCOM D4以来見たことがないにょ。
バッテリ駆動時間が短いのは軽量化のためであり、重くなっても6セルのバッテリが用意
されていれば標準バッテリの3倍くらいは駆動可能になると思われるけどそれでも2画面
というのがボトルネックになっているのかバッテリ容量当たりの駆動時間で考えても
一般的なモバイルノートよりもやや短めに感じるにょ。

あとハイスペックの弊害は音と熱に現れるにょ。
Atom Z530+US15WであればTDP4.5WだけどPentium U5400+QS57ではTDP21.4Wに達する
からね。
「TDP=発熱」ではないけどそれだけ熱設計が難しいことを意味するにょ。
強力な廃熱を行うためにファンを高回転で回したらそれは大きな音に繋がるし、ファンを
低速回転したら十分な廃熱ができず本体筐体から熱が放出されるため筐体温度の増加に
繋がるにょ。
一定の熱量を発する以上は静音と低発熱の両方を優先することなんてできないにょ。
まして、無理な小型化を実現するためにそれは非常に困難なものとなっているにょ。

実際、W100のレビューを見てもアイドル時で39db、高負荷時で47dbというのはお世辞にも
静音とは言い難いにょ。
レビューから想定した音の大きさ音質から考えると仮に使用している本人が許容できても
周囲の人は許容してくれないかもしれないというレベルだろうからね。(だから私は
モバイルに特化した端末は可能な限りファンレスを求めている)
また室温27度の環境下で動作時の筐体温度が最低の場所(下画面左)でも32度、最高の
場所(天面左)だと50度というのはファン付きのノートPCとして考えるとかなり高めと
いえるにょ。(ファンレスであればこれくらいに達する機種は確かにある)
手に触れる部分に関してはあまり温度が上がらないように廃熱の流れを工夫している
というのが唯一の良い部分だと思われるにょ。
これが温度が高くなる場所が普通に持って触れる部分であれば同じ温度であっても問題が
大きくなるにょ。(iPhone 4のアンテナ問題も普通に持って触れる場所にデッドスポットが
あったからこそあのように大きな問題へと発展してしまったわけだし)

やはり、タッチパネルを前提にして作られた非Windowsのタブレット端末(iPad等)と
比べてWindows7がいくらタブレット機能を強化していようがWindowsそのものがキーボードと
マウスを前提としたUIとなっているためやはり使い勝手はイマイチのようにょ。
それに何度も書いているように2画面タッチパネルは先進性が高いとはいえそれを生かせる
アプリがないために現状では折りたためるということしかメリットがないにょ。
確かに折りたたんだときの状態はほぼVAIO Pに匹敵する小ささであり、スペックを考えた
場合には非常に優秀とはいえその分だけ失うものも大きいにょ。
それらのデメリットとこのW100を使うことによるメリットを天秤にかけそれでもプラスに
なると考えた人でないと買ってから不平・不満が出ることが必至の端末といえるにょ。
サイズとスペックを考えれば決して高価でははないけどね。
また資金に余裕があり、コレクター目的で買える人であればこのようなPCは当分登場しない
ために買って損はないと思われるにょ。(そんな人がどれだけ居るのかは知らないけど)

353御茶目菜子:2010/08/29(日) 13:19:30
紙(アナログ)からデジタルへの移行はできるのか?
私が今使っているケータイ(Softbank 905SH)は購入して約4年になるにょ。
これは今まで私が使ってきたケータイで最も長期間の使用となっているにょ。
905SHは4台目のケータイだけど最初はデジタルツーカー、2台目はJ-PHONE、3台目は
vodafone、4台目はSoftbankとすべて社名こそ違うけどキャリア変更をしたことは1度も
ないにょ。
たまたま親会社が変更になったというだけの話だからね。
その流れからするとSoftbankから別の社名に変わった時が機種変のタイミング・・・と
思ってしまうけどさすがに今のところそんな様子はないにょ。

905SHのバッテリは死にかけていてバッテリがフルでないと数時間しか持たないという
実用レベルではない状態だったために4月に新しいバッテリを購入したにょ。
そのお陰で今のところは普通に使えるけどさすがにこのバッテリが駄目になるまでには
機種変更をしたいところにょ。
とはいえ、ガラケーで特に欲しい機種がないのがネックにょ。
そうなるとやはりスマートフォンか・・・?
http://plusd.itmedia.co.jp/mobile/articles/1008/27/news012.html

確かにここ1年でスマートフォンは急増したにょ。
特にドコモはスマートフォンに力を入れているにょ。
iPhoneを獲得できなかったというのもあるだろうけどね。
スマートフォンは維持費が高くキャリア独自機能などもほとんど搭載されていないため
国内では数年前までは一部のコアユーザーのみだったけど機種が増えることによって
選択の余地が出てきたのがやはり大きいにょ。
W-ZERO3を除けば事実上iPhone一択だった国内のスマートフォン市場においてもAndroidが
大躍進したのがその理由だと思われるにょ。
8月9日に書いたように世界市場で見れば2012年にはiOS搭載機(iPhone、iPad)をAndroid
搭載機が台数ベースで追い越すという予想も出ているくらいだからね。

しかしながら、国内では好んでスマートフォンを使う人もいれば逆にスマートフォンは
使いたくないという人もいるにょ。
それは価格面などの問題ではなくキャリア独自サービスが使えないということが
挙げられるにょ。(今はスマートフォンのパケット定額料金もケータイでフルブラウザを
使用時と同等まで下がったため1台のみの維持費はスマートフォンとガラケーはほとんど
変わらない)
ドコモは7月16日に書いたようにスマートフォンでspモードのサービスを開始したにょ。
要するにスマートフォン向けのキャリア独自サービスだけどdocomo.ne.jpのキャリア
メールが使えるようになるというのも大きいにょ。
ケータイ向けサービスは数多くあるけどメアドのドメイン名でケータイでの使用と
判断しているサービスもあるからね。(ケータイ用のメアドに登録用のメールを送り
それで登録することでそのサービスが使用可能になるという感じ)

また、スマートフォンはワンセグやおサイフケータイといったガラケーでは当然と
いえる機能にもほとんど対応されてないにょ。
これは現在のスマートフォンが元々海外で作られたものだからにょ。
ワンセグやおサイフケータイというのは国内の独自進化の段階で生まれたものであるため
それがガラケーのガラケーたる所以の1つともいえるにょ。
しかし、スマートフォンがより多くの人に受け入れられるためには国内産のガラケー的な
スマートフォン(国内のニーズにマッチしたスマートフォン)も必要になると思われるにょ。

このような理由によりスマートフォンは2台目持ち用として購入する人も少なくないにょ。
2台目用であれば通話のしやすさはそこまで要求されないし、国内向けの独自機能も
1台目のガラケーでまかなえば問題ないからね。
とはいえ、さすがに2台分の料金を支払うのはコスト面の負担が大きすぎるにょ。

私がスマートフォンを欲する理由はやはりネイティブアプリの使用が可能ということと
一般的なガラケーよりも遙かに快適なWeb閲覧が可能になるからということにょ。
ガラケーも初期のiモードのように1ページ2KBまでで画像はGIFのみといった著しい制限が
あった頃とは異なり今となってはかなり高性能化されているし、フルブラウザ登場に
よって一般的なPCサイトも閲覧することが可能になったというのも大きいにょ。
ここ数年はケータイの液晶画面はFWVGAが主流となっており、解像度の面においても一般
サイトを閲覧するのに大きな不満は無くなったしね。
とはいえ、解像度の制約が無くなれば逆にフルブラウザがサポートしている機能の貧弱さが
目立つ結果となったにょ。
所詮はフルブラウザもJAVAアプリにすぎないからね。

その点、スマートフォンであればかつてのPDAのように好きなアプリを導入可能になる
というのは大きいにょ。(iPhone用に関してはWebブラウザはアップル社の規定によって
作ることができないけど)
これはかつてのPDAのようなものにょ。
PDAは事実上姿を消したわけだけどこのようにスマートフォンに形を変えて今も尚、生き
ながらえているということにょ。

私は80年代より電子メモ(シャープのカナメモ)→電子手帳(PA)→PDA(PI、MIザウルス、
CLIE等)と使ってきたけどリナザウ(SL-C750)を最後に新しいPDAは買ってないにょ。
それはPDAは上記のようにスマートフォンへと姿を変えたためにPDAとしての選択肢が無く
なったというものもあるけどPDAの活用方法や認識の変化もあるかもしれないにょ。
当初はあくまで電話番号や住所やスケジュールを書いたいわゆるPIM用として活用して
いたものの徐々に音楽再生、動画再生、Web閲覧などのPC的な使い方のウェイトが大きく
なってしまったからにょ。(96年に購入したPI-6500によって紙の手帳を使うことが
無くなった)

仕事でも使えるからということでA5ファイルサイズのノートPCであるFMV6300MC(中古)を
買ってからはリナザウの出番はかなり減ったにょ。
それは座って使用できる場所では(当時としてもスペックが低かったFMVだけど)PCの方が
圧倒的に快適だからにょ。
しかし、そうなると立った状態でもPCが使えたら便利だろうということで買ったのが
VAIO UX(中古)にょ。

UXを買ってリナザウを持ち歩くことは無くなったのだけどそこで困ったのはメモを取る
という作業ができないことにょ。
普段持ち歩いているノートPCのR5は常時サスペンドであるため4秒くらいで起動するけど
UXはバッテリ駆動時間が短いので常時休止状態で使用しており起動まで40秒くらいかかる
ためにょ。
メモを取るのに40秒も待てないにょ。
自分が待つならまだしも電話越しに今から40秒+α(検索の時間)待ってくれなんて
とても言えないにょ。そういうことで昨年4月26日、今年の2月12日に書いたように再び
紙の手帳が活躍するようになってしまったにょ。

では、スマートフォンを買えば再びデジタルへと戻ることができるのか・・・?
確かにPDA的な使用ができるならばその可能性は高いにょ。
PCとは比べ者にならないくらい起動が速いし、Web閲覧だけを比較してもリナザウに搭載の
Webブラウザ(NetFront3.0)よりは圧倒的に快適だろうからね。
WindowsやIEに依存したようなWebサイトやマシンスペックを要求するようなWebサイトで
あればスマートフォンでは厳しいだろうけどAndroidもFlash10.1に対応したために
多くのサイトで問題なく閲覧ができそうにょ。
Flashに対応していないiPhoneなどはそういった面では厳しいけどYouTubeなどの動画
サイトは専用プレイヤーをで快適に閲覧できるしWebの主流がHTML5に移行すればFlash
非対応というのもそれほど問題ではなくなるにょ。
ニコニコ動画も9月末にHTML5に対応し、Flashに非対応のSafariでも普通に閲覧やコメント
入力が可能になる模様にょ。
http://www.itmedia.co.jp/news/articles/1008/27/news064.html

ただ、やはり手帳代わりにするならば電話機(ケータイ)とは物理的に分離していた
方が都合が良い場面も多いにょ。
そうなると結局ガラケーとスマートフォンの2台持ちという形がベストという結論になって
しまうにょ。
しかし、それは私の場合は資金面の都合で難しいにょ。
では、現状のガラケー+紙の手帳という状態を維持するのが良いのかというば、そういう
わけではないにょ。
要は通話機能の付いてないAndroid OSやiOS搭載機を買えば良いというだけにょ。
これならば月額料金は不要にょ。
通信に関してはPCで使う関係上Pocket WiFiがあるため無線LANさえ搭載していればいい
からね。

そこで私が最も注目しているのが、iPod touchにょ。(スマートフォンと差別化のためか
中途半端に大きなものが多い中、iPod touchだけが小型で高性能を維持している)
来月発表予定の新型はiPhone 4の網膜ディスプレイを搭載した機種になるだろうし、
iOS4が搭載されるだろうからマルチタスクに対応するため私が感じていた不満点はほぼ
解消されることになるにょ。(残りの不満点はFlashに対応していないという点だけど
これは上記のように今となってはそれほど致命的な問題ではない)
ただ、私はiOSを店頭以外でまともに使ったことがないため手帳の代わりになるレベルかは
実際に使ってみないと分からないということにょ。(せめてかつてのPI、MIザウルス並の
使い勝手があれば何とかなるだろうけど)
紙(アナログ)からデジタルへと再び移行できるかどうか判断するのはもう少し後に
なりそうにょ。

354御茶目菜子:2010/08/30(月) 13:19:35
USB3.0が普及するための課題
USB3.0もインターフェイスカードおよび対応機器の登場から数ヶ月経ちPCに実際に導入して
いる人も結構いることだと思われるにょ。
すでに高速バスといえばeSATAがあるのだけどUSB3.0のアドバンテージはやはりPCにおいて
デファクトスタンダードといっても良いUSB2.0/1.1と互換性があることだと思うにょ。
「USB3.0の普及は進むか?」というのは論じるまでもなく将来的には現在のUSB2.0が
USB3.0へと置き換わるというだけの話にょ。
そのレベルに達するためにはOSでの標準対応とUSB3.0ホストコントローラがチップセットに
統合されるのは必須といえるにょ。

USB1.1はWin98、USB2.0はWin2K SP4、XP SP1でようやく標準対応したわけだけどUSB3.0は
Win7 SP1から標準対応となるにょ。
ホストコントローラがチップセットに統合されるのはAMDは来年、Intelは再来年以降の
予定となっているにょ。
つまり、本格普及は再来年以降(2012年以降)となるというわえにょ。
したがって、現時点でUSB3.0は「気が付いていたらPCに搭載されていた」という形では
なく「USB3.0を意識的に導入する」という形がメインになるにょ。
PCによってはUSB3.0ホストコントローラを別途組み込むことでUSB3.0対応を謳っている
機種もすでに多く存在しているけどホストコントローラの価格を考えるとローエンドまで
普及するにはチップセットへの統合は不可欠といえるにょ。

さて、ここでUSB3.0に関して一部問題が発生しているにょ。
USB3.0は上記のように「下位互換性(USB2.0/1.1との互換性)がある」ということが
メリットであったけど下位互換のないインターフェイスカードが市場に出回っている
らしいにょ。
http://monoist.atmarkit.co.jp/feledev/articles/fline/02/fline02a.html
現時点での主流となっているUSB3.0のホストコントローラはルネサスエレクトロニクス社
(旧社名:NECエレクトロニクス)のチップだけどそれ以外の台湾ベンダーのチップでは
下位互換のないものが多く存在するため注意が必要になるにょ。
もっとも下位互換がないというだけで「USB3.0専用」として使うのであればそれらの
チップを搭載のインターフェイスカードでも問題はないにょ。

現時点ではUSB2.0インターフェイスを持たないPCは存在しないためUSB3.0専用として使う
のには大きな問題は発生しないにょ。(実際問題のチップを搭載したPCはすでに出回って
いるけどUSB2.0ホストコントローラはチップセットに統合されているものを使用されて
いるのでUSB3.0用とUSB2.0/1.1用と物理的に分かれているため問題ない)
さすがにチップセットに統合される段階でそれはまずいけどね。
「USB3.0専用コネクタなのでUSB2.0/1.1対応の機器は動作しません」なんていうPCが
ユーザーに受け入れられるとは思えないにょ。
現時点だとeSATAは付いているけどUSBインターフェイスは搭載されてないPCが普通に
使えるかどうかを考えれば予想はできると思うにょ。(再来年の時点でほとんどのUSB機器が
3.0専用になるなんてあり得ない話)

USB3.0ホストコントローラのチップセットへの統合は元々は来年に登場するSandy Bridge
世代で行われる予定だったにょ。
http://pc.watch.impress.co.jp/docs/column/interface/20100805_385435.html
それが1世代遅れる予定(まだそれさえも確定ではない)になったのはUSBの下位互換性を
持たせた複雑な転送モードをサポートするために手間がかかっているのではないかと想像
できるにょ。
昨年11月21日には私は「USB3.0はUSB2.0よりも普及が遅い」と予想したにょ。
これは2.0で大きな不満がないのが当時は理由として挙げていたのだけどチップセットの
対応の面からもUSB2.0と比べてUSB3.0の普及の遅れがあるといえるにょ。

USB2.0は規格上の上限速度は1.1の40倍、USB3.0は2.0の10倍と猛烈な勢いで速度が増して
いるけどPC用のインターフェイスの速度でここまで速度が急激に増しているものはあまり
例がないにょ。
1世代で1桁速度が上がっているのはEthernetくらいにょ。
http://pc.watch.impress.co.jp/docs/column/interface/20100819_387760.html
USBやEthernetは幅広く使われ、対応製品を提供するベンダー数が極めて多いために
頻繁に変えられないということで結局1世代で大きくジャンプアップする必要があると
いうわけにょ。

幅広く使われるからこそ互換性を維持するのが大変ともいえるにょ。
現時点では下位互換を重視するならばルネサスエレクトロニクス社製のホストコントローラ
チップ搭載のものを選んで買うしか自衛方法はあるけどまだ初心者が安心してUSB3.0を
導入できる環境下ではないといえそうにょ。(デスクトップPCであればインターフェイス
カードを挿すのに分解が必要であるため初心者が導入するとは思えないけどノートPCで
あればExpressCardスロットに挿すだけなので導入はそんなに難しくない)
「USBポートに正しく挿しているのに使えない」ということが発生してしまうからね。
今後ルネサスエレクトロニクス社以外にも下位互換性のあるホストコントローラチップを
製造するメーカーが現れても下位互換性のないホストコントローラチップは残り続ける
だろうから結局のところチップセットに統合されるまでは初心者でも安心して使える
とは言い難い状況になりそうにょ。

355御茶目菜子:2010/08/31(火) 13:33:47
ウォークマンはiPodを超えた!?
8月の国内販売台数はついにウォークマンがiPodを超える見通しが立った模様にょ。
http://www.itmedia.co.jp/news/articles/1008/30/news032.html
カセットテープ時代、MD時代は携帯音楽プレイヤーとして不動の首位ったウォークマンも
MP3プレイヤーの普及とともにその地位が絶対的なものではなくなってきたにょ。

MDプレイヤーもデジタルプレイヤーではあるもののデジタルであるためデータに劣化が
ないということ以外はメリットがなくカセットテープと比べて最大のアドバンテージは
曲の頭出しが楽になったということくらいだからね。
その点、MP3プレイヤーならばMDという物理的なサイズ面、容量的なサイズ面での制約が
なく自由にどんどん入れることができるようになり使い勝手の面で大きく変わったにょ。
確かに初期のMP3プレイヤーはフラッシュメモリが高価ということで容量的な面からも
カセットテープやMDを超えるような存在ではなかったにょ。
私も9年前からMP3プレイヤーを使っているけど当時はザウルスで使用していた予備のCFを
使用していたため30MBしかなく128Kbpsで7曲程度しか入れることができなかったにょ。

このようなフラッシュメモリの容量的な問題点をHDDでまかなったのが初期のiPodにょ。
5〜10GBという容量によってのは当時はフラッシュメモリで実現するのは現実的では
なかったからね。
これによって聴きたい曲をチョイスして入れるというものではなくライブラリ全体を
持ち歩くという革新的な進化が訪れたにょ。
これは初代ウォークマンが音楽を持ち歩くということを実現したのと同レベルのことにょ。

これを後押ししているのが楽曲管理ソフトのiTunesの存在が大きいし、さらにiTunes
Music Storeで本格的なダウンロード販売のシステムを導入したのも大きいにょ。
これらによって他の追従を許さないシステムが構築されて現在に至っているにょ。
この垂直統合のシステムは他社も実現したけどほとんどが上手くいかなかったのでいかに
難しいかということが分かるにょ。
iPodの大躍進によってウォークマンは超えられない2番手の座となってしまったにょ。

ピーク時には市場シェアの80%を獲得していたiPodを抜き去り今回ウォークマンが首位に
なった理由として考えられるのは以下の3つの理由が挙げられるにょ。

 (1)9月に新型iPodが発売されるため買い控え
 (2)iPhoneが好調であるため
 (3)ウォークマンは高音質かつ安価であるため

(1)単純に考えた場合はこれが最大の理由だと思われるにょ。
リンク先のグラフを見てのように昨年9月もiPodが圧倒的なシェアとなっているのは例年
9月に新機種が出るためにょ。
そのため8月はiPodのシェアが最も下がる月なのだけどそれでも今までずっと首位を
保っていたのが保てなくなったというのは別の理由があるためにょ。

(2)iPhoneはiPod touchが持っている機能はすべて持っているにょ。
そのためiPhoneユーザーがiPod touchを買うということは考えにくいにょ。(iPhoneの
割賦金が残っているけど最新の機能を使いたいために新型iPod touchを買うということは
十分に考えられるけどそれはあくまで例外)
容量的なアドバンテージがあるClassicならば買う人(iPhoneの内蔵フラッシュでは自前の
楽曲データがすべて入りきらない人)はいるだろうけどそれは限られるためiPhoneが
好調であることがiPodの売上増加を阻んでいると思われるにょ。

(3)は意外に重要な点にょ。
ウォークマンはiPodと比べて高音質というのは多くの人が感じていることだろうけど
価格面に関してはそうではないという人もいると思うにょ。
実際にライバル同士といえるiPod nanoとウォークマンSを比べてみるとiPod nanoの現行
モデルは価格com最安値で16GBが14696円、8GBが12789円なのに対してウォークマンは
16GB(S645)が11330円、8GB(S644)が9280円となっているにょ。
同一容量のモデルを比較した際にiPodの方が安かったということもかつてはあったけど
近年はウォークマンの価格低下によって実売ベースではここまでの差になっているにょ。

これによってウォークマンがiPodのシェアを奪っているとは一概には言えないけど台湾、
韓国メーカーのプレイヤーのシェアを奪っているのは十分に考えられるにょ。
かつては、iPod&ウォークマン&国内家電メーカー&台湾、韓国メーカーというような
感じで店頭での売場シェア争いが行われていたけど最近は台湾、韓国メーカーの機種は
地方都市ではほとんど店頭で見かけることが無くなったにょ。
これはウォークマンの価格低下によって価格的なアドバンテージが薄れてきたというのも
あるし、ウォークマンがD&D転送に対応したというのもあると思われるにょ。
iTunesを使用している人もD&Dに対応したお陰で楽曲転送できるようになったからね。

つまり、iPodはシェアを伸ばすのは難しい状況になってきているのに対してウォークマンは
どんどんシェアを伸ばしているというのが今回の逆転の最大の理由といえるにょ。
それに8月がiPodのシェアが最も下がる月だからというのが重なったというだけの話にょ。
このままの勢いが続けば8月以外の月もウォークマンが首位に立つことは十分に考え
られると思うにょ。

356御茶目菜子:2010/09/01(水) 14:01:52
ハイエンドよりもローエンドよりもミドルクラスの方が安価!?
最近は昔とは異なり自作PCのメリットは減っていると思われるにょ。
昔(90年代)だったら自作すればメーカー製PCより圧倒的な低コストで組めたり高性能な
PCを組めたりしたのだけど最近は一から組むなら直販で買ったのと大して変わらない
金額だったり、保証がない分だけ不利になっているとさえ言えるにょ。

使い回しが効くというのも自作PCの低コストの要因となってきていたのだけどそれも最近は
難しくなってきているにょ。
CPUはソケット規格がどんどん代わりCPUだけの換装は出来にくくなっているし、VGAカード
(ビデオカード)を替えようとすると消費電力アップのため電源交換が必要な場合もある
からね。
自作PCで高コストとなっていたOS(Windows)も使い回しが効かせるためにはFDDと一緒に
購入というパターンが多かったけどすでにFD自体が入手困難になりつつあり、マザー
ボードもFDDに対応しないものが増えているためそれもできないにょ。(USB FDDは
DSPライセンスの対象外)
それでも自作するのは「できるだけ安くしたい(=余分なものは不要)」「できるだけ長く
使いたい(=少しでも使い回せるものは使いたい)」という思いがあるからだと思うにょ。

「安物買いの銭失い」ということわざがあるけどそれならば高価なパーツを使えば
結果として得になるかというとそれも違うにょ。
自作PC用の高価なパーツ(=ハイエンドパーツ)はただ、多少性能がいいというだけの
話だからね。(粗悪品を買わない限りは壊れやすさは価格とはあまり関係ない)
しかも、ハイエンドパーツは価格変動も大きいにょ。
先日もそれまで5万円台で販売されていたCPUである「Core i7-950」がいきなり2万円台に
なったくらいだからね。
http://akiba-pc.watch.impress.co.jp/hotline/20100828/etc_intel.html

なぜいきなり半額近くまで価格が下落したかというとこれはIntelの卸値が562ドルから
294ドルに変更されたからにょ。(秋葉原のような激戦区では価格改定があってから
すぐに変更されるけど地方のPCショップでは高価な時に仕入れた分に関してはそれが
売れるまでは価格を変えないという場合もある)
これが1ドル=100円であれば294ドルのCPUは35000円前後になるだろうけど1ドル=80円台
という円高であるため2万円台となったと思われるにょ。

そもそも562ドルのCPUがいきなり294ドルになる自体がおかしい(徐々に値下げするのが
普通)と思うかもしれないけどこれはIntelのCPUがランクごとに価格を定めている
せいにょ。
このランクごとの価格について少し説明しておくにょ。
分かりやすく説明するために2万円、3万円、6万円の3種類のCPUしかないと考えるにょ。
それぞれが2.6GHz、2.8GHz、3GHzと仮定するにょ。
ここで新たに3.2GHzという従来のものより1ランククロックが高いCPUが販売開始
された場合には6万円よりさらに上・・・ではなくその3.2GHzのものが6万円で販売
されることになるにょ。
つまり、それぞれ1ランクダウンの価格で販売されるということにょ。

  《 CPU大幅価格変更の理由 》
  6万円のCPU 3 GHz  ここで   3.2GHz 新登場
  3万円のCPU 2.8GHz  3.2GHz登場 3 GHz ↓1ランクダウン(3万円ダウン)
  2万円のCPU 2.6GHz   →→→  2.8GHz ↓1ランクダウン(1万円ダウン)
                   2.6GHz → ディスコン

この例に挙げた3GHzのCPU(旧価格6万円のCPU)は6万円→3万円と一気に下がっているのに
対して、2.8GHzのCPU(旧価格3万円のCPU)は3万円→2万円の下落に止まっているにょ。
これはあくまで説明のために用意した例とはいえ、実際にハイエンドになればなるほど
1ランクの違いによる価格差は大きくなるので本質的な考えに差異はないにょ。(Core i7
においても562ドルの1ランク下が294ドルであるためi7-950が急激な値下がりをした
わけだし)

わずか半年の間に11万円→6万円→3万円と価格が変動したCore2Quad Q6600の前例を
考えれば今回のCore i7-950の3万円近い価格変動は大したことはないとはいえ、それが
大きいと考える人はハイエンドパーツを買うべきではないにょ。
ハイエンドパーツを買うというのは長く使うためではなく高コストでも「それが必要な人」
もしくは「自己満足」のためだからね。(コストパフォーマンスを重視する人には
ハイエンドはとてもオススメできない)

実際はCore i7だけ見ても「6コアのCPU」「4コア(LGA1366)」「4コア(LGA1156)」の
3つがありその中で各レンジごとに価格が定められているからハイエンドのCPUがミドル
以下の価格まで下りてくることは無くなってきているにょ。
数年前までのようにハイエンドからローエンドまで(シングルコアしかなかったため)
コア数やCPUソケットが同じという状態だったら10万円のCPUが時間が経てば2、3万円で
売られるということもあったけどね。

CPUはこのように四半期もしくは半年ごとに高クロックのものが登場し、これによって
1ランク価格ダウンしているのだけど新CPUというのはIntelの場合は2年サイクル(1年
ごとに「新アーキテクチャの導入→1世代製造プロセスを進める」というのを繰り返して
いる)で投入されているにょ。
そのため価格変動に関してはそれなりに情報を入手していれば事前に察知可能なことと
いえるにょ。
ただ、それだと待てば待つほど安くなるというのが分かるだけであって結果的に余計買い
にくくなるという人もいるかもしれないにょ。

300ドル弱というi7-950の価格帯は半年前ならばi7-860が該当したにょ。
そのため半年前であればi7-860が総予算10万円程度で新規に組む人にとって最もオススメの
CPUだったにょ。
では、i7-860を買うくらいであれば半年待ってi7-950を買うのがお得かというとそうでは
ないと思うにょ。
5万円台のi7-950が2万円台になることによってすごくお買い得感があるように見えるけど
実際は半年待つことによって得られるものは同じ価格で0.26GHzのクロック上昇(i7-860と
i7-950の比較)でしかないわけだからね。
その差は率にしてわずが8%程度でありベンチを実行してようやく分かる程度の差でしか
ないにょ。
ただ、それだけのために半年間待つくらいなら半年前に組んで半年間使い込む方が遙かに
有意義といえるにょ。
いつ組んでも数ヶ月先には確実に値下がりがある(もしくは1ランク上のCPUが同じ価格で
買えるようになる)わけだから「今は買うな時期が悪い」と言い出したらずっと買うことが
できなくなるにょ。

私は現在使っている自作PCは2年前(2008年6月)に組んだにょ。
数ヶ月後にはCore i7が登場するという時期だったのでそれを待って組むという手もあった
けれどCore i7は当初はハイエンドから投入ということだったので予算的に難しいという
のが理由にょ。
ミドルクラスのCore i7であるLynfieldが登場予定なのはさらに翌年だったためさすがに
そこまでは待てないというわけでヘタに待つくらいならさっさと組んだ方が得策という
ことで予算の許せる範囲内で最もコストパフォーマンスに優れたCore2Duo E8400(3GHz)を
購入したにょ。

ハイエンドパーツは価格変動も大きくコストパフォーマンスも悪いということで個人的
には2〜3万円のミドルクラスがオススメだけど1万円前後のローエンドはどうなのかと
いうとこれは良いか悪いかはその人次第といえるにょ。
ミドルクラスでは性能にお釣りがくるくらいでローエンドで余裕という人であれば問題ない
といえるのだけどそうでないならばトータルのコストや手間で考えないといけないにょ。

昔であればCPUは同じアーキテクチャのもの(同じ世代のローエンドとミドルクラスの比較)
であればクロックとL2搭載量だけを比較すれば良かったけど今はそれに加えてコア数
(実行スレッド数)が重要になってきているにょ。
現在のローエンドCPUは2コア2スレッドが主流であり、ミドルクラスは4コア8スレッドが
主流になっているにょ。
そのためクロックが同程度でも実効性能が2倍くらい異なる場合もあるにょ。
これは上記のi7-860とi7-950の比較のように体感できないレベルではなくしっかりと
体感できるレベルの差といえるにょ。

大ざっぱに比較すれば概ねこんな感じにょ。

 価格 ローエンド<<ミドルクラス<<<<<<ハイエンド
 性能 ローエンド<<<<<<ミドルクラス<<ハイエンド

ローエンドで組んで不満を感じたらこまめに組み直すという方法もあり(これも自作の
醍醐味の1つ)それを考えるとミドルクラスのCPUを買う予算でローエンドCPUは2〜4個
買えるためそれを変えることでトータル的にミドルレンジより安くすることは可能になる
かもしれないにょ。
とはいえ、昨今は冒頭に書いたように規格変動が大きいためマザーボードごと交換する
機会も多くその場合にはローエンドCPUを選択するコスト面のメリットは一気に失われて
しまうにょ。
それに加えて組み直す手間やその間はそのPCが使えないということも考慮しないといけない
と思うにょ。(ローエンドであっても新しいパーツ購入でわくわく感を感じる人や単に組む
という作業に楽しさを感じるレベルの人にとってはデメリットにはならないけど)

PCに必要としているスペックが年々上昇していることを考えると結果としてミドルクラスの
ものの方がローエンドよりも長く使えるため1年当たりのコストを計算するとミドルクラスが
最も安くなるにょ。
そうなると今後数年間は「性能面においてローエンドで十分」という人、もしくは
「予算面でローエンド以外はあり得ない」という人でない限りはミドルクラスが長期的に
トータルで考えたコストにおいてローエンドよりも優れており、コストパフォーマンスを
考えるとハイエンドよりも優れているにょ。

357御茶目菜子:2010/09/02(木) 13:07:38
新型iPod発表
日本時間本日未明にiPodの新機種が発表されたにょ。

まずはshuffleを見てみるにょ。
http://av.watch.impress.co.jp/docs/news/20100902_391089.html
こちらは元々シンプルな機種だけに機能の追加なんてものはないけどホイールボタンの
大型化などの操作性の向上が図られているにょ。
積極的に音楽を聴くというユーザーではなく通勤やランニングなどでBGM代わりに聴くと
いう使い方がメインだろうからこれはこれで完成されているしこれ以上容量を増加
させるよりは価格を抑える方がいいのでこれはこれで悪くない製品にょ。

今回最も大きな変貌を遂げたのがnanoにょ。
http://av.watch.impress.co.jp/docs/news/20100902_391085.html
筐体の大幅な小型化によってホイールパッドの省略が行われその代わりタッチパネルが
採用されたにょ。
操作性は全くの別物ということで賛否両論ありそうにょ。
それに前モデルで搭載されていたカメラ機能や動画再生機能も無くなっているからね。
大幅な小型化でクリップ式の筐体というのを見ると「リッチなshuffle」というような
イメージを受けるにょ。

これをnanoと思うから微妙に感じるからであって従来のnanoとshuffleの間を埋める
ような機種と思えば好感が持てるにょ。
shuffleはあまりに機能制限されすぎていてDAPとしては使えないというユーザーにとっては
最適の1台になりそうにょ。
個人的にはDAPはできるだけコンパクトなものが望ましいのでこの新型nanoは歓迎したい
ところにょ。(とはいえブラインド操作できないのは難点であるため購入はしないけど)
しかし、ウォークマンSシリーズがいきなり、Eシリーズと統合されるようなものであり
従来型を求めていた人から不満が出てもおかしくはないにょ。
これが480x480のモニタを搭載し、iPhone用アプリが動作する「iPod touch nano」という
べきような製品であれば一部のコアユーザーからかなり注目されるだろうけどコスト的に
無理だったのかもしれないにょ。

さて、やはり今回の発表会で個人的に最も注目していたのはtouchにょ。
http://av.watch.impress.co.jp/docs/news/20100902_391086.html
高性能A4チップ搭載、960x640の高精細の網膜ディスプレイ搭載、HD動画撮影搭載など
従来のtouchと比べて大幅な機能、性能の向上が図られているにょ。
まさに「3Gを非搭載のiPhone」といっても過言ではない内容にょ。
従来であればiPhoneとの差別化を行うためカメラ機能は省略されていたのだけど今回の
モデルは搭載されているわけだからね。(強いてiPhoneから削られた部分はGPSくらいか)
これによって無線LAN経由でのTV電話である「FaceTime」にも対応しているにょ。

確かに細かい部分を見ればiPhone4よりも機能ダウンや省略されている部分はあるけど
それがどうしても気になるという人であればiPhone4を一括購入し、Wi-Fi専用として使用
すればいいだけの話にょ。
機能的な差の分だけ安いというのもiPod touchの魅力だからね。
米国では8GBで229ドル、32GBで299ドル、64GBで399ドルということで日本のアップル
ストア価格だと従来基準であれば22800円、29800円、39800円になるところだけど円高の
影響か20800円、27800円、36800円となっているにょ。
米国では同一容量では従来機と価格維持となっていたけど日本では事実上値下げと
なったにょ。(これはフラッシュメモリの価格がここ1年ほとんど値下がりしていない
というのが原因なので今後大幅な値下げがない限りは来年のモデルでもメモリ搭載量は
現状維持になりそう)
iPhone 4の32GBは一括購入時は57600円であるためtouchはその半値となるにょ。
これならば多少iPhone 4から省かれた機能があっても十分に許容ができるにょ。

touchは登場時はDAPとして考えた場合には高価でデカイとあまり良い印象ではなかった
けれどiPhoneの登場によってアプリが急速に増えてその魅力は大きく増したにょ。
確かにDAPとして考えれば大きいけどこれは昔ザウルス等のPDAを使って音楽を聴いていた
ことを考えれば十分許容できる(むしろザウルスよりも圧倒的に小型軽量)と思うにょ。
それでも気になるのならばnanoを併用するという方法もあるからね。
恐らくnanoの今回の大幅なモデルチェンジはtouchを完全にメインに据えているからだと
思われるにょ。
8月31日にはiPhoneの普及がiPodの売上増加を阻んでいると書いたのだけどここまでnanoを
小型化すればサブ用、音楽専用として別途持ち歩く人がいるだろうからね。
だからこそiPod touchは音楽を重視したアピールをしなくても良くなるということにょ。
32GB版の27800円はPDA(小型なモバイル端末)として考えれば決して高価ではないにょ。
むしろここまでの機能、性能を考慮すれば安いとさえ感じるにょ。

そういうことでiPod touchといえばやはりアプリにょ。
iOS4.1搭載によってマルチタスクに対応したためにその価値はさらに高まるにょ。
各種PIMアプリを導入すればPDAとして使えるしね。
8月29日にスマートフォンは欲しいけど2台持ちになるとコストがかかるため導入には
踏み切れないということで通信などの専用端末が欲しいという私の要望にぴったり合った
端末ともいえるにょ。
touch+3G対応モバイルルータがあれば3G通信ができる場所であればどこでも通信が可能に
なるためtouchの活用範囲はさらに広がるにょ。
そのために私は4月にPocket Wi-Fiを導入したからね。

さて、問題は買うなら8GB、32GB、64GBのどれにするのか・・・ということだけどやはり
アプリを積極活用するとなれば8Gは論外にょ。
最小限のアプリだけ導入してPDA的に活用するのであれば8GBあれば十分使えるけど
ゲームとかもやってみたいとなると最低でも32GBは欲しいからね。
何せアプリは最大で2GBまで対応しているわけだから大容量アプリを導入したら8GBなんて
あっという間で埋まってしまうし、アプリは使わなくても音楽だけでも8GBくらいは
使用する人は多いだろうし、動画再生を行うとなれば厳しいにょ。
64GBと32GBの価格差は9000円であるため容量の差を考えるとこれは好みの問題にょ。
64GBは決して高価ではないからね。

とはいえ、ユーザーの手によるバッテリは交換不可(メーカー修理扱いで交換可能)と
いうことを考えると32GBで足らなくなりかもしれないという人で無ければ無理に64GB
モデルを買うまでもないにょ。
「バッテリの寿命=本体の寿命」というくらいの認識である必要があるためバッテリが
劣化したら買い換えるのがベストとなるからにょ。(それまでに32GBが埋まってしまう
と考えてしまう人は64GBを買うのがベター)
旧機種をわざわざメーカーにバッテリ交換を出してもコストの割りが合わないというだけ
ではなくその間は使えないという問題もあるからね。

iPod touchは上記のように金銭的な面でiPhone4を使えないという人に有用(softbank
だからiPhoneは使いたくないというのが理由であればモバイルルータを使うということが
許容できない人だろうから機能削減されたtouchを購入する理由は何もない)ということで
潜在的なユーザー数は多いと思われるにょ。
57600円払って通話機能の全くないiPhone4を手に入れたいという人はそれほど多くはない
と思うからね。
やはり、iPod touchの潜在的需要はかなり多いと思われるにょ。(8月29日にはiPhoneが
売れればtouchが売れなくなると書いたけどコスト面を考えれば需要が多くてもiPhoneを
導入しない人は多いため現実的にはiPod touchの需要増加の方が多いくらいだと思う)
そうなるとiPod touchは発売時には生産が需要に追いつけず争奪戦は必至となりそうにょ。

358御茶目菜子:2010/09/03(金) 13:06:01
nanoは主役ではなくなった・・・なの
今回発表されたiPodで最も変化が大きいものはnanoだけど今回の発表された内容を見る
限りは主役はtouch(iOS搭載機)に感じたにょ。
昨日も書いたようにnanoの大きな変化はtouchを引き立てるものとなっているわけだしね。
「nanoを買うかtouchを買うか」という選択はユーザーにとっては悩みの種だったけど
新型nanoではUIをtouchと同じくマルチタッチ対応のタッチパネルによるものに変わった
ため「両方を買う」という選択肢が従来より濃くなったと感じるにょ。
その理由を書いてみるにょ。

iPodはその革新的なコンセプトによって多くのユーザーの支持を得ており、それはシェア
にも現れているのだけど8月31日に書いたように8月の国内シェアは久々にウォークマンに
負ける結果となったにょ。
これは8月というiPodにとって新製品発表前の不利な時期というのを差し引いてもiPod
よりもウォークマンを支持している人が増えたということは事実だと思うにょ。
それはウォークマンがDAPとして優れているということを意味するにょ。

iPodを支えてきたものの1つとしては「操作性の良さ」が挙げられるけどこれはクリック
ホイールによる独自操作によるものが大きいにょ。
このアナログ操作による曲選択の快適さはカーソル操作によるデジタル操作では得ることは
できないものがあるからね。
しかし、新型nanoではそれを捨ててしまったにょ。

確かにタッチパネルにはタッチパネルの良さがあるけど指で操作した際に画面の大半が
隠れるような小さな液晶画面ではそれを活かすことはできないにょ。
私の体感だと指で操作するならば2.5インチ程度がまともに使用できる限界に感じるにょ。
タッチパネル搭載のPCを持っているならば1.5インチ程度のWindowsを作りその中にアイコン
表示をした場合に快適に操作可能か自分自身で確かめてみるといいにょ。
4.5インチWSVGA液晶(264ppi)のVAIO UXならば286ピクセル四方の領域がnanoと同じく
1.54インチに相当するにょ。(実際に試したけどとても満足行くようなレベルではない)
またDAPとして使うならば再生、停止、早送りなどはブラインド操作できるものが望ましい
けれどそれはタッチパネルで操作する以上はそれは無理になるにょ。

大きな支持を得ていたクリックホイールをやめてタッチパネル主体の操作に変えるという
ことはnanoを主力商品と考えていたらできないことにょ。(Classicもタッチパネル主体の
操作にするべきかとなるとあれは従来の方式を好んでいる人のためのものなのでありえない
わけだし、1.8インチHDDがボトルネックになるため全面液晶にしたら大きくて重いtouchに
なってしまう)
多くの人はnanoを大きすぎるとは考えてないし、小さくすることで筐体サイズで見た分類
ではshuffleと被ってしまう形になるにょ。

個人的にはDAPは「小さい方が望ましい」と考えているけどそれはある程度快適な操作性が
実現できた上での話にょ。
せめて、nanoも再生、停止、早送り、ホールドボタンをハードウェアとして実装していた
ならば評価が大きく変わっただろうけどこの第6世代nanoを見る限りかなり無理な小型化
と思えて仕方がないにょ。

では、それでもタッチパネル主体の操作になっているのはtouchと操作性を合わせている
ということにょ。
touchに慣れている人であればクリックホイールも良いとは言えないわけだし(多少は
慣れが必要であるため)そこまでハードウェアのボタンに拘る人も少ないと思われるにょ。
そこまでtouchを中心に考えるほど売れているのか実際のランキングで見てみるにょ。

 8月の携帯オーディオプレイヤー(BCNランキング)
 http://bcnranking.jp/category/subcategory_0004_month.html
 1位 iPod touch 32GB
 2位 iPod nano 8GB ピンク
 3位 iPod touch 8GB
 4位 ウォークマンS ホワイト
 5位 ウォークマンS ピンク
 (以下略)

確かに1位と3位(前月は1位、2位)ということで売れているというのには間違いない
けれどBCNランキングは色別に出ているため色違いがないtouchはランキング的には有利に
働くためこれだけでは何とも言えないにょ。
しかし、touchだけではなくiPhoneを加えると話は変わるにょ。
touchはiPhoneから3G通信などの機能を無くして安くしたものと考えられるため(順番から
いえばtouchの方が先だからtouchに3G通信その他を付けてスマートフォンとして売り出した
ものという方が正しいのだけどDAP視点ではこのようになる)事実上両者は同一ジャンルの
商品(iOS搭載の小型機)として考える必要があるからね。
touchはiPhoneが無かったらもっと売れているのは確実だろうけどiPhoneがあったからこそ
touchに注目が集まりだしたともいえるため両者は相乗効果で伸びているとも言えるにょ。

nanoはライバルであるウォークマンSがあまりに強いため端末だけで見るとかなり苦戦を
強いられているにょ。
「クリックホイールがあるからウォークマンSではなくiPod nanoを選んだ」という人は
かなり限られるのではないかと思うにょ。
やはり、ブランド力だけではなくiTSによる音楽配信などを理由に挙げる人の方が多いの
ではないかと思うにょ。

iPodの中から選択する場合、音楽しか聴かないからtouchの機能、性能は要らないし、
shuffleはあまりに機能が制限されすぎているということで消去法でnanoを選んでいる人も
最近は多いだろうからね。
そういう消極的な選択を行う人の場合はiPhoneを買ったらnanoを買うことはないにょ。
だからこそiPhoneを買ってさらにもう1台という形で違和感のないサイズ、操作性という
ことで考えられたのが今回の第6世代のnanoだと思うにょ。
ただ、それが良いかどうかは現時点では仕様だけから判断すると「微妙」としかいえず、
これが結果として良いか悪いかは発売後に実際に購入したユーザーからの反応や売上を
元に判断するしかないにょ。

359御茶目菜子:2010/09/04(土) 13:40:31
タブレット端末は本当に普及するのか?
さて、先日は新型iPodの発表があったのだけどこの度各社からiPad対抗となるような製品が
発表されたにょ。

東芝「FOLIO 100」
http://www.itmedia.co.jp/news/articles/1009/03/news029.html
サムスン「GALAXY Tab」
http://www.itmedia.co.jp/news/articles/1009/03/news026.html

写真だけでは分かりにくいけどすでに実際に使用している動画が公開されているので
それを見てサイズや動作の快適さを実感してみるといいにょ。
http://www.itmedia.co.jp/news/articles/1009/03/news083.html


さて、このようなタブレット型の端末は今後非常に多くの種類が発表、発売予定となって
いるにょ。
それらの多くは液晶サイズは7〜10インチ程度となっているにょ。
その理由となるのがタブレット端末は手に持って使う機会が多いため軽量なものが望ましい
ということに加えてあまり小型になりすぎるとスマートフォンとの棲み分けができない
という問題点があるからにょ。
実際スマートフォンはここ最近急増していて2015年には国内の携帯契約の半分近くを
スマートフォンが占めるという予想が出ているにょ。
http://www.itmedia.co.jp/promobile/articles/1009/01/news092.html

では、タブレット端末がスマートフォンと棲み分けをするといっても実際にどのように
行うかとうことが問題となってくるにょ。
すでに、タブレット端末として発売されており、唯一のヒット製品といっていいiPadだけど
価格comがiPadユーザーに対してアンケート調査をしてみたところ「7割弱(66.4%)が
自宅で使う」という結果になった模様にょ。
http://www.itmedia.co.jp/promobile/articles/1009/03/news080.html
これは自宅に居るときにノートPCなどの代わりにネット用の端末として主に活用している
ということがいえるにょ。

私を含め「自宅にいるならPCを使った方が便利」という意見の人も多そうにょ。
しかし、多くの人がPCがあるにも関わらずiPadを活用しているというのは「自宅に居ても
自分用のPCがない」という場合や「PCだと起動するのに時間がかかる」というのが
ありそうにょ。
前者においてはその役割はネットブックが担っていたにょ。
ネットブックがヒットすることで前者の意見の人はかなり減ったと思われるけどその
反面浮上してきたのが後者の意見だと思うにょ。
一般的に言ってPCは使うときに立ち上げ、使い終わったらシャットダウンという使い方が
メインとなっているからね。
さすがに常にコールドブートしていたら気軽に使うということはさすがにできないため
どうしても必要な時だけ使用するということになってしまいがちにょ。

Vista以降はスリープモードを搭載によってシャットダウンをするという人は減ったと
思われるけどネットブックにおいて主に使用されているOSはXPでありスリープモードは搭載
されてないにょ。
XPでもスタンバイ(サスペンド)を活用すればいいというだけの話とはいえ、実際常時
サスペンドでネットブックを活用している人はほとんどいないと思われるにょ。
私はLet'snote R5において常時スタンバイで運用しているけどこれはバッテリがフル
充電であれば10日〜2週間はメモリ保持ができるためであり、ここまでできるような
ネットブックは存在しないにょ。(R5をサスペンド状態で放置して試してみたら24時間
あたり8%のバッテリ消費となったため単純計算ではフル充電で約300時間となる)
XPのスタンバイはVistaのハイブリッドスリープとは異なりバッテリ切れでメモリ保持が
できなくなったら終わりだからね。

つまり、PCを常にコールドブートしているようなユーザーにとってタブレット端末は
高速起動の夢の端末になってしまうということにょ。
その上、1〜1.2kgもあるネットブックと比べ圧倒的に軽いし、バッテリ駆動時間も長い
ということで家庭内モバイルだけを見てもネットブックより多くの場所で活用が可能に
なるということがいえるにょ。
個人的にはiPadとネットブックが直接競合するわけではないと思ってはいるものの
iPad発売後はネットブックの売り上げが大幅ダウンしているということを考えるとやはり
ネットブックの代わりにiPadを使っているという人が多いといえるにょ。

タブレット端末は高性能スマートフォンと大して性能差はないとはいえ、自宅で使うのが
メインとなると画面サイズが大きなタブレット端末が有利になるにょ。
実際上記アンケート調査でもiPadユーザーはiPadを持ってない人と比べてiPhone所有率が
高くこれは言い換えるとiPhoneを持っていてもiPadを活用しているということになり
iPhoneがあるからiPadは不必要と単純に言えるものではないということにょ。
スマートフォンの多くは画面サイズが4インチ前後でWVGAの液晶モニタを備えているにょ。
それに対して現在発表されているタブレット端末の多くは7〜10インチでWSVGAの液晶
モニタを備えているにょ。
できること自体に大差がないといってもどちらが快適かというとそれは言うまでもない
ことだと思うにょ。

問題はタブレット端末はPCを持ってない人が買うべき端末ではないということにょ。
確かに「Windowsでないとできないこと」というのは近年減っているとはいえまだまだ
Windows PCが必要になる機会も多いからね。
実際iPadを最初に使う際にはアクティべーションが必要なのでPCは必需品といえるにょ。
これはタブレット端末の中でもiPadが例外といえることだけど実際に売れている端末の
大半がiPadであるため無視はできないにょ。
結局(非Windowsの)タブレット端末はPCを持っている人が買うべき製品ということにょ。
そうなるとネットブックがヒットしたということがタブレット端末の追い風になっている
ともいえるにょ。

さて、さらに問題となるのははその金額を投資するに値するような製品かどうかという
ことにょ。
自宅でしか使わないのなら別にタブレット端末は要らないという人も多いのではないか
と思うにょ。
実際、ネットブックの重量で家庭内モバイルで困る機会も少ないだろうしバッテリ駆動
時間が多少短くてもすぐに電源確保できるるからいざとなればACに挿して使えばいいと
いうだけの話だからね。
とはいえ、さすがにモバイルするとなると変わってくるにょ。
ネットブックのサイズ、重量でも持ち歩くのには不適と感じている人が多いのではないか
と思われるにょ。(というか、持ち歩く人が少ないからより使いやすいサイズに大型化
されてしまったわけだし)

その点、タブレット端末は重量面、サイズ面でネットブックより有利なものが多いにょ。
iPadは画面が大きいということがメリットだったけどその反面約700gという重量に不満を
持つ人が多かったにょ。(これもWindows PCの感覚でいえば画面サイズの割りに軽量なの
だけどアンケートでは移動中に使用すると答えた人は8.9%しかいない)
5月17日にも書いたように例え1kgであっても「実際に使うかどうか分からないようなPC」を
常にバッグに入れておくなんてなかなかできないからね。
しかし、上記のサムスン「GALAXY Tab」は7インチで380gという軽量化なものになって
いるにょ。
このサイズ、重量ではネットブックの持ち歩きに躊躇していた人にとっても有効活用
可能になるにょ。
iPadも来年には7インチ液晶搭載の小型軽量モデルが登場するという噂もあるからね。

持ち歩いて使えるというのであればPCを持っていても十分買う価値はあるだろうから
ヒットに繋がる可能性はあるにょ。
「ネットブックよりも小型軽量」であり「手に持った状態で使える」ため電車などでも
気軽に取り出して使うことができるというのはネットブックに対して大きなアドバンテージ
であり、スマートフォンに対しては「画面サイズや解像度で優れている」という
アドバンテージがあるわけだしね。
ただ、現時点では安価な端末はほとんど3G通信は内蔵されておらず無線LANのみ搭載と
なっているにょ。(3G通信が内蔵されても別途料金がかかるとなると微妙だけど)
そのためモバイルルータを別に買うか無線LANが使える場所で使わざるを得ない状況に
なっているにょ。
そのためモバイル時の通信ではスマートフォンの方が有利であるといえるにょ。
したがって、タブレット端末が普及するには通信インフラとそれを利用するためのコストが
重要となるにょ。

360御茶目菜子:2010/09/05(日) 13:03:44
新型iPod touchは私が求めていたPDAなのか・・・?
私は過去に8台のDAP(PDAの音楽再生機能は除く)を使ってきたにょ。
その経験から導き出された私がDAPに求めているものは4月24日に書いたような8つの項目が
あるにょ。

(1)最低8GB、できれば16GBの容量
(2)実駆動で最低10時間、できれば20時間以上
(3)小型・軽量
(4)曲名やアルバム名が確認できるくらいの画面解像度
(5)エクスプローラからD&Dで転送可能
(6)フォルダ管理が可能
(7)ストレスを感じさせない操作性
(8)予算は最大で2万円(できれば1万円以内)

先日発表された新型iPad nanoは一昨日書いたように操作性を疑問視しているため残念ながら
(7)を満たせないので私が求めているようなDAPではないにょ。(ただし、(5)、(6)は妥協
した場合)
旧nanoは(5)、(6)さえ妥協すれば残りの条件を満たすことができたにょ。(現時点で
すべての項目を満たせるのは普通に店頭入手可能な製品の中ではウォークマンSくらい
なので次にDAPを買うならば現時点ではウォークマンSが最有力候補となっている)
ではtouchはどうなのかというと(3)(7)(8)を満たせないにょ。
よって、touchはDAPとして考えた場合には私の理想には全然達しないにょ。
しかし、これがPDAとして考えた場合にはまた変わってくるにょ。

では、私がPDAに求めるものは何なのか・・・?
今から5年前の2005年8月9日〜11日の3日間に渡って書いたときは下記のようなもの
だったにょ。

◎ハード面
 (a)小型軽量(概ね5インチ×4インチ×1インチ、1ポンド程度)
 (b)長時間駆動可能(実駆動時間8時間以上)
 (c)それなりに使えるキーボード(PC-E500程度の使いやすさは欲しい)
 (d)解像度VGA以上の液晶
◎ソフト面
 (e)Webブラウザ(タブ機能必須、出来ればFlash対応)
 (f)PIM(MI、PIザウルス並の使いやすいもの)
 (g)テキストエディタ
 (h)音楽、動画再生機能(出来ればSD-VIDEO再生可能なもの)

しかし、これは普遍のものではなく時代や環境によって変化しており、現時点では下記の
ようなものになっているにょ。
5年前だとPCで動画再生するならPen3 1GHzくらいあれば十分だったけど今はそれでは
全く足りないわけだからスペック1つをとっても普遍であるはずがないということが分かる
と思うにょ。

というわけで、私がPDAに求めているものを改めて書いてみるにょ。

 《 私がPDAに求めるもの 》 ver.2010
 (1)無線LANによる通信が可能
 (2)WVGA以上の解像度の液晶画面
 (3)小型・軽量(モバイルランクAに相当するレベル)
 (4)実駆動8時間以上
 (5)それなりに快適にテキスト入力が行える
 (6)まともに使えるWebブラウザがある
 (7)使いやすいPIMアプリがある
 (8)安価(3万円以下)

(1)〜(5)がハードウェアに関するもの(5)〜(7)がソフトウェアに関するもの(8)はそれ以外
となっているにょ。
というわけで、以下はそれぞれの具体的な説明となるにょ。

(1)これは説明するまでもなく今は通信をするのに必要不可欠となるにょ。
必需品であるため「内蔵されていないもの」は自動的に対象外となるにょ。
とはいえ、今時の端末で内蔵されてないようなものはないだろうけど・・・。

(2)今時はケータイでもWVGAは当たり前といっていい状況なので少なくともそれくらいは
ないとPDAとしてケータイ以外のものを持ち歩く(ケータイと棲み分けをする)メリットが
全くないからね。
これはWeb閲覧などビューア目的で使用するためであり、PIM専用と割り切れるのであれば
QVGAでも問題ないにょ。
ただし、それならばカラー液晶である必要さえなく、反射型モノクロ液晶で十分となって
しまうにょ。
PIM専用の超安価なモノクロPDAなんてものがあればいいけどそれならば旧世代のPDAを
中古で買えばいいという話になってしまうにょ。(旧世代のPDAでも乾電池式であれば
PCとのシンクロを考えない場合PIM用途なら十分現役として使えるため)

(3)これはどの程度かという具体的な数値を持ち出さないと分かりにくいと思うにょ。
5年前に書いた「概ね5インチ×4インチ×1インチ、1ポンド程度」(ほぼリナザウサイズ)
というのが1つの基準となるにょ。
ここで問題となるのは当時はA5ファイルサイズのモバイルノートとの棲み分けとして
そのサイズを考えていたというのが大きいけど今ならばポケットに何とか収まる程度の
小型のWindows PC(PMやBXなど)が安価で入手可能だからね。
それにポケットサイズPCといえば私は現在VAIO UXを使っているにょ。
それらと棲み分けを行えるくらいの小型軽量なものを求めているということにょ。

私はモバイル機器にはサイズや使用頻度によってモバイルランクを定めているけど
ケータイはランクA、ポケットサイズPCはランクBとなり、もしも新しいPDAを買う場合は
限りなくランクAに近いB、もしくはランクAになるようなものにしたいということにょ。
UXを買ってからポケットサイズPCをPDA代わりに使うというのは幻想であることに気づいた
からね。
だから、ポケットサイズPCには良さがあるもののそれを持っていることを前提(それらとの
棲み分けが行える)PDAを考えた場合にはWindows PCでは実現不可能なサイズになるにょ。
ランクA並となるとモバイル機器ではないものの普段使っている手帳の外寸サイズは
10.5×8×0.8cm程度であり、最大でもこれと同レベルのサイズが求められるからね。

(4)Windows PCであっても今後はチップの統合によってさらに小型化が可能になれば(3)を
満たせるようになるだろうけどその場合であってもバッテリ容量を削る必要があるため
(4)を満たすのは難しいにょ。
現在もAtom Z搭載のWindows PCであってもARM搭載の端末の数倍の容量のバッテリを搭載
すれば同一レベルの駆動時間は実現可能になるにょ。
これは5月8日に書いたように実駆動2倍程度の消費電力の差があるからね。

それ以上に問題なのは動作時の消費電力ではなくサスペンド時の消費電力にょ。
昨日はノートPCを持っていても自宅でiPadを使用している人が多い理由として起動時間が
短いということが挙げられたけどこれは端末をコールドブートしているのではなく単に
サスペンドから復帰しているだけにすぎないからにょ。
Windows PCであってもサスペンドからの復帰であれば数秒で起動するけどWindows PCだと
サスペンド中の消費電力もバカにはならないにょ。

昨年12月7日に「私がポケットサイズPCに求めるもの」ということでサスペンド時の
メモリ保持1週間(24時間×7=168時間)可能なものというのを理想としてあげたけど
これができるようなポケットサイズPCはほぼないにょ。(Viliv S5くらい)
VAIO UXでもたったの40時間程度だからね。
サスペンド時のメモリ保持時間が50時間のPCを2日に1回充電する場合、実駆動8時間で
あっても実際に使える時間はゼロに等しいものになるにょ。(残量0%まで使えるとした
場合に単純計算で実駆動8時間駆動のPCが実駆動20分になってしまう)
OakTrailでこれは大幅改善されるだろうけど現時点で製品がない以上は比較対象に挙げる
ことはできないにょ。

(5)はソフトウェアとハードウェアの両方を意味しているにょ。
ハードウェアとしてキーボードを備えているのがベストだけどソフトウェア入力でも
十分に妥協できるレベルならばそれでも許容できるというわけにょ。
そもそも今となってはPDAはただのメモ書きやPIMの入力程度であるためそれさえこなせる
レベルであれば問題ないので「(ここで書いているレベルの)長文を入力する」なんて
ことは求めてないにょ。
したがって、6月11日に書いたようにハードウェアのキーボードがあるにこしたことはない
けれどそれがないことで薄型、軽量が実現できるのであれば「キーボードがない」という
選択肢を積極的に求めていきたいにょ。

(6)「まともに使えるWebブラウザ」とは何ぞや・・・という意見のある人がいるだろうけど
一般的にPC用として多く使われているレベル(IE8、chrome、Firefoxなど)であれば
十分ということにょ。
リナザウに搭載のWebブラウザ(NetFront 3.0)は今となってはお世辞にも「十分」とは
言えないレベルにょ。(今ならばFlash10.1、Ajaxなどに対応してないと・・・)
ケータイのフルブラウザの方がマシと思えるシーンさえあるからね。
ケータイの場合はPC用サイトが見れないとしてもケータイ向けのモバイルサイトを利用する
という方法もあるけどケータイではないPDAであればそのようなサイトは利用できない
場合もあるにょ。

Web閲覧なんてWin95+IE3.0で十分というような人であればPDAにそんな高性能なWeb
ブラウザは不要だろうけどケータイのフルブラウザ以下であればWeb利用としてPDAを
使用する意味はほとんどなくなってしまうにょ。(それこそモノクロPDAで十分となる)
Webの利用という観点だけをみれば「ケータイ<PDA<PC」のような感覚でありケータイと
PCは持ち歩いているということを前提に考えてPDAですべてのサイトが完璧に見れる必要は
ないけどあまり不満なく見れるということが重要になってくるわけにょ。

(7)「使いやすい」というのは主観が入るためどうしても難しくなってしまうにょ。
そのため実際に自分である程度使ってみないと使いやすいかどうかは分からないにょ。
「慣れの問題」か「自分に合わない」かというのは少し使っただけでは判断が難しい
場合があるからね。
そのため、この項目に関しては具体的にこうすべきというものはあえて挙げないように
するにょ。
個人的にはPI、MIザウルスのPIMは比較的使いやすかったにょ。

(8)なんといっても価格は重要にょ。
ただ、価格の基準は時代によってかなり変わってくるにょ。
実際PCの価格も昔と今では変わっているわけだしね。
PDAに関しては10年前は7万円、5年前は5万円が1つの基準だったけど今ならばそれは
3万円にょ。
5万円出せばポケットサイズのWindows PCが手に入る以上はそれよりも低コストで作れる
品に対して5万円以上を払う気にはなれないからね。(実際はPMは特売では3万円程度で
販売されていたわけだし)
つまり、3万円というのは無茶な要求ではなく現実的な要求であるといえるにょ。

「小さい方が高いのが当たり前」というのがかつてのモバイルPCでの一般論だったけど
これはネットブックが低コスト、大量生産によって安価に作れることが実証されたわけ
だからね。
Atom Nよりコスト面で不利だし、ネットブックほどの量産化がされてないAtom Zを用いた
ポケットサイズPCでも5万円程度となるとよほどコストをかけた小型化、軽量化でない
限りは高価になるという理由にはならないにょ。(モバイルノートが今も尚高価である
のは軽量化にコストがかかっているというのもある)
現状でAtom Zを用いたリナザウサイズ、重量のWindows PCを作れば高密度基板が必要
だし、メモリも高価でも高容量のものを使用することになるため結果として高コストに
なってしまうにょ。(安価で済ますならばPMのサイズとなるだけでありあれが今の技術の
限界というわけではない)
その点、ARM搭載端末であれば小型化においてWindows PCよりも容易にょ。

(1)〜(7)は実際のところ最新のハイエンドスマートフォンを買えばほぼ解決出来るレベル
であり決して難しいものではないにょ。
だから設けたのが(8)のラインにょ。
例えばiPhoneが欲しいと考えた場合、現在使っているガラケーと併用した場合には
「維持費がかかる」とか「回線がsoftbankだから」という理由で買わない人もいること
だと思うにょ。
ただし、PDAとして使う場合(つまり、通信回線は無線LAN経由でのみ使用する場合)
それらはネックにはならないにょ。

iPhoneを一括で購入し、回線契約を解約すれば済むという問題だからね。
昔は、端末代金は月々の使用料金を考慮した価格(簡単に言うとインセンティブの含まれた
価格)となっていたために新規即解はモラルに反するという認識も強かったけれど今は
少なくともsoftbankは一括購入時はインセが含まれない価格となっているため即解は
問題のあることではないにょ。(端末販売だけでも利益が出せる価格となっている)
iPhone4(32GB)を一括購入すると57600円となるにょ。
つまり、これだけ払えば無線LAN専用のPDAとしてiPhone4が手に入るわけにょ。(実際は
新規契約と初回分の月額使用料が必要)

つまり、PDAに5万円以上出せるという人であればスマートフォン全盛の今となっては
選択肢がいくらでもあるということにょ。
ただし、PDAとして使用する場合には使えない3G通信部分やその他のものに余分なコストを
支払うことになるにょ。
金はあるからそんなのは気にしないという人であればいいけど残念ながら私はそんなに
裕福ではない貧乏性なので使えないものに投資はできないにょ。
要するに私がPDAに感じている価値がその程度(3万円程度)だといえるわけにょ。

あと5年前に書いたような動画、音楽再生機能は要らないのか?というとそうではなく
「必要不可欠なもの」から「あれば利用する」という程度に変わっただけにょ。
というか、現在のAndroid、iOS端末でそれらが再生できないという端末もないしね。
それから、そういった動画や音楽の利用だけではなくアプリの積極的な利用を考えると
ストレージは最低でも16GBは欲しいにょ。
micro SDHCに対応しているならばそれでいいけど内蔵メモリだけであれば最低でも16GB
以上搭載されたものを望みたいにょ。

以上を元に考えるとiPod touchはほとんどの項目を満たすことが出来ていると思うにょ。
WebブラウザはFlashに対応していないという問題があるし、PIMアプリは本当に使い
やすいものがあるのか実際に使わないと分からないという不安要素もあるけどね。
しかし、定価27800円と従来モデルより2000円値下げされただけでなく液晶画面の解像度も
960×640へと大幅強化されたしね。
それにiOS4.1搭載でマルチタスクに対応したのも大きいにょ。
サイズ面も111×58.9×7.2mm、101gであるためWVGA以上の液晶を備えたPDA(ネイティブ
アプリが動作するWeb端末)の中では最小の部類になるにょ。

iPhone4との差別化のためGPSこそ内蔵してないけど各種センサーは同様に搭載しているし
カメラやマイクも備えているためそれらに対応したアプリも利用することが可能になった
というのは大きいにょ。(カメラ自体はiPhone 4より貧弱だけど搭載されているだけマシ)
従来のtouchでは内蔵されてないため「iOS搭載だけど使えないアプリ」というものが
結構あったのが無くなるということだけでもかなり良いことだと思うにょ。
現時点で唯一感じている難点といえば、脱獄しない限りはアップル認証のアプリしか導入
できないということかもしれないにょ。

361御茶目菜子:2010/09/06(月) 13:23:05
新しいデジカメを買った理由
新しいデジカメを買ったにょ。
買った機種はPanasonicのLUMIX FX66にょ。
http://dc.watch.impress.co.jp/docs/review/newproduct/20100408_359720.html
といっても4週間後の妹の誕生日プレゼント用だけどね。(保護フィルタとSDHCもセットで
プレゼント)
近所のキタムラで14400円の破格値だったにょ。(ちなみに色はピンク)
半年前の発売当初の価格は3.5万円くらいの機種なのでお買い得感は非常に高いにょ。

ここ10年くらいは毎年デジタル関係の品ばかりプレゼントしているけど今年の候補に
挙げたのはデジカメ、プリンタ、デジタルフォトフレームだったにょ。
昨年は写真加工用としてペンタブレット+2GBのDDR2メモリをプレゼントしたけどやはり
そうなると加工したもの飾りたくなるのではないかと考えたからにょ。
とはいえ、プリンタは4年前にプレゼントしたL版、ハガキサイズ用のものがあるため
それより大きなものにプリントしたいと思うかが重要にょ。
そうなるとまず大きなプリントをしたいと思わせるには元となる写真がキレイに撮れる
必要があるのではないかと考えたにょ。

妹が現在使っているデジカメは500万画素のFX7にょ。
さすがに6年前の機種ということで現在のものと比べるとかなり劣るとはいえ、普通に
使うのは十分なのでよほど理由がないと買い換えの必要性を感じないかもしれないにょ。
一応古い機種とはいえ光学式手ぶれ補正機能が付いているからね。
光学式手ぶれ補正機能は2005年くらいから採用機種が増えて今ではほぼすべての機種に
搭載されているもののエントリークラスの機種には電子式手ぶれ補正機能しか搭載されて
ない場合が多いから安くても「初心者向け」とは言い難いにょ。

そういうことで、デジカメをプレゼントしようと考えたけど実売1万円台のコンデジは
かなり多くの機種がある中でFX66を選んだのは下記のような理由があるからにょ。

(1)超解像に対応した1400万画素
(2)広角25mm(相当)からの5倍ズーム搭載
(3)SDXC対応
(4)クラス最速AF
(5)コスメティックモード搭載

(1)「高画素=高画質」ではないということはここで何度も書いたけどやはり画素数は
少ないよりも多いと考える人が多いからね。
1/2.3インチセンサーでは1000万画素以上ではまともに解像している機種は皆無とは
いえこの機種以降のPanasonicのデジカメは超解像モードが搭載されているにょ。
動画において超解像は非常に有用なのだけどそれは前後フレームのデータを利用できる
というのが大きいにょ。
静止画においてはその画像だけでは情報量不足で解像していないものを解像するという
のは不可能にょ。
したがって、超解像というのはシャープネスの一種にすぎないにょ。

とはいえ、一旦JPEGとして生成されたものにシャープネスをかけるというのとは異なり
内部で画像解析を行い部分的にシャープネスの度合いを変えるという仕組みのため
一般的なフォトレタッチソフトを用いて均一にシャープネスを高めるよりは遙かに効果的と
なっているにょ。(後からレタッチするのではなく一般的なデジカメでシャープネスを高め
撮影した場合でも線が太くなり、不自然な描写になってしまうことが多い)
解像してないものを解像するほどの効果はないけどぼやけて形が見えないものが何となく
見えるレベルにはなるため非常に有用にょ。
ただし、4月11日に書いたように1/2.33インチ、1400万画素センサーの場合はF2.7で回折
限界に達するにょ。
FX66の場合は広角側はF2.8でギリギリラインとなるけど望遠側はF5.9であり回折限界を
大きく超えているため超解像をONにしてもほとんど効果がないにょ。

(2)少し前までのコンデジは換算35mm付近からの3倍光学ズームというのが主流だったにょ。
しかし、ここ最近は広角対応の機種が急激に増えたにょ。
FX66は換算25mmからの広角ズームということで35mmよりは明らかに広い範囲を写すことが
可能になるにょ。
35mmでは撮れないような風景を撮ったり、狭い室内での集合写真を撮ったりなど広角に
対応しているというメリットは大きいにょ。
ただし、一般的には望遠側も良く使われるにょ。
35mmからの3倍ズームだと望遠側は105mmだけど25mmからの5倍ズームだと望遠は125mmと
なるため望遠側も劣ってないため非常に有用にょ。

(3)2006年以前の機種はSDカードのみ対応(SDHC非対応)だったにょ。
2006年からは一部の機種、2007年からはほぼすべての機種がSDHC対応(ファームアップ
可能な機種であれば2006年より旧機種でもSDHCに対応可能になっているものはある)と
いうことで現在も十分現役として使えるけど最大2GBのSDカードにしか対応していない
機種はさすがに厳しいにょ。
とはいえ、当時だと500〜700万画素ということで1000万画素が当たり前の時代となって
いる今よりは1枚当たりの容量は少ないけどね。

あと静止画だけならいいけど動画を撮るとなると2GBでは全然足りず昔はQVGAでしか
撮れない機種が大半だったにょ。
これは容量だけの問題ではなくビデオカメラとの棲み分けのためだろうけどね。
ビデオカメラ部門のないカシオやサンヨーはMPEG4採用によって積極的に動画をアピール
してきたけどビデオカメラにも力を入れている家電系メーカーや元々カメラを作っている
ため動画には力を入れてないカメラメーカー(ニコンなど)はQVGAの時代が長かったにょ。
しかし、最近のHD化の波によってここ2、3年に発売された機種は大半がHD動画撮影可能と
なっているにょ。(エントリーモデルとハイエンドモデルを除けばほとんどが対応)
今年発売になったFX66は当然のことながらHD動画対応にょ。(ただし、Motion JPEG)

SDHCならば32GBまで対応しているということでそれほど容量的には困らなくなったとは
いえ、SDXCならば規格上は2TBまで対応しているのでほとんど無制限というレベルまで
撮れるようになるにょ。
もっとも現時点では64GBまでのSDXCしかないし、それが4万円もするということでSDXCは
必須とはいえないけど今後5、6年使い続けるつもりならば価格的なデメリットがほぼない
SDXC対応の機種を選ぶ方がいいからね。

(4)AFが遅いというのが多くのコンデジの弱点だったけどFX66は0.25秒(広角時)という
コンデジとしては最速レベルのAF速度を実現しているにょ。
これを完全に超える速度となると位相差検出方式を採用したFinePix300EXRなどしかない
わけだからね。

(5)これはFX66以降のLUMIXに搭載されたモードにょ。
要するに肌をキレイに撮るものにょ。
具体的には画像解析をしてシワ、シミを目立たなくしてマツゲなどはシャープにした上で
肌の色も3段階に設定可能になるというものにょ。
これもフォトレタッチ技術のある人であれば後からでもいくらでも可能とはいえ、
カメラ任せのオートでできるということで搭載されていることを喜ぶ女性は多いのでは
ないかと思うにょ。

あとFX66に限らず最近のコンデジの特長として高感度に非常に強くなったということが
挙げられるにょ。
5、6年前のコンデジは最大感度がISO400までだったにょ。
デジタルの場合はゲインアップでISO1600や3200でもいくらでも可能とはいえ無理に上げた
としても使い物にならないからね。
当時はまともに使えるのはISO100までで最大のISO400ではすでに塗り絵状態になっていた
ためとても使えたものではなかったにょ。
しかし、昨今では1/2.3インチクラスのコンデジでもISO400がそこそこ使えるレベルに
なっているにょ。
裏面照射センサー採用や1/1.7インチクラスの大型センサー採用機ならばISO800でも
そこそこ使えるにょ。

私は昨年末に常時持ち歩き用のコンデジをCOOLPIX S1からCybetshot TX1に買い換えた
けれどこの高感度時の描写性能はかなり感動したからね。
センサーおよび画像処理エンジンの世代の進歩だけで上記のような非常に大きな差(私の
感覚的には2〜4倍くらいの差)があるのに加えて裏面照射で2倍効果、ノイズ低減効果の
ある手持ち夜景モードで撮影時にはさらに2〜4倍の効果があるからね。(S1のISO400は
使えないレベルだけどTX1の手持ち夜景で撮影したISO3200は使えるレベルの描写力)

というわけでFX7からFX66に変えることであらゆる状況下において確実に描写力アップに
繋がると想定できるにょ。
同じメーカー(同じ系列機種)であるため操作性にあまり差がないため違和感なく使える
というのもあるしね。
裏面照射センサー採用機は高感度には強いけど日中描写力ではまだ他のセンサー採用機
よりは劣るし、屈折光学系の機種だと使用時にもスリムで私は好きだけど構造上レンズ
性能を上げられないために場合によっては画素数が増えてもFX7の描写力より劣る可能性
さえあるにょ。(それに屈折光学系はレンズが飛び出さないため指で隠れていても分かり
にくく構え方に気を付ける必要がある)

これで、キレイな写真がたくさん撮れるようになったら来年はプリンタかな・・・?
そもそもでっかくプリントするというようなことをしないかもしれないけどね。
私もA4プリントでさえ年に数枚というレベルであるためプリンタは非常にコスト
パフォーマンスが悪いにょ。

362御茶目菜子:2010/09/07(火) 13:14:34
超解像がコンデジの新しいトレンドになる?
昨日はFX66について書いたわけだけど1/2.33インチ、1400万画素という極小ピッチ(画素
ピッチ1.35μm)のセンサーであるが故にレンズ性能が画素ピッチに追いついておらず
等倍鑑賞はかなり厳しいのだけど超解像技術によってそれはかなり緩和することは可能と
なっているにょ。(1400万画素で撮影して500万画素くらいにリサイズすればいい感じに
なるため画素数が多いということは必ずしも悪いことというわけではない)

この超解像モードはPanasonicのコンデジ(2010年発売モデル)にしか搭載されてなかった
けれどカシオのEXILIMも最新モデルでは搭載されているにょ。
というわけで、改めて超解像とはどんなものか、また、カシオの超解像技術はどの程度
なのかをこのEXILIM EX-S200のレビューを元に考えてみることにするにょ。
http://dc.watch.impress.co.jp/docs/review/newproduct/20100906_390981.html

◎光学端
 超解像OFF http://dc.watch.impress.co.jp/img/dcw/docs/390/981/31.jpg
 超解像ON http://dc.watch.impress.co.jp/img/dcw/docs/390/981/33.jpg

◎望遠端
 超解像OFF http://dc.watch.impress.co.jp/img/dcw/docs/390/981/32.jpg
 超解像ON http://dc.watch.impress.co.jp/img/dcw/docs/390/981/34.jpg


このS200はスタイリッシュな薄型モデルということでレンズ性能がそれほど高くなく
ただでさえ極小ピッチであるため広角端、超解像OFFだと等倍鑑賞はやや厳しい感じと
なっているにょ。
しかし、同じく広角端でも超解像ONのものを見てみると明らかに変わっているにょ。
両者において明確に異なる部分といえば背景にあるビルにょ。
超解像ONでは輪郭線がはっきり出ているということは両者を見ればひと目で分かると
思うにょ。
蓮の葉を見てもビルほどではないけど輪郭線がはっきり出ているようになっていると
思うにょ。(手前の葉が特に効果が大きい)

望遠端を見てみると広角端では絶大な効果があったビルの輪郭線は一応の効果はある
もののそこまで極端に効果はないにょ。
これはレンズ性能の問題(解像力と回折限界の問題)によって大きく解像感が不足して
いるために超解像では補正が間に合わないためだと推測できるにょ。(ピントが合って
ない部分なのか単に解像しきれてない部分なのかの判断が難しいため)
超解像というのは昨日書いたように画面均一にかかるシャープネス処理とは異なり画像
解析を行い部分ごとに処理を変えることで実現しているにょ。
それ故、効果が大きい部分と小さい部分がどうしても出てしまうにょ。

シャープネスは全体にかかるため輪郭線を強調するとノイズまで増えてしまうという
厄介な問題があるにょ。
それでは超解像はどうなのか・・・。

◎ISO50
 超解像OFF http://dc.watch.impress.co.jp/img/dcw/docs/390/981/44.jpg
 超解像ON http://dc.watch.impress.co.jp/img/dcw/docs/390/981/51.jpg

◎ISO400
 超解像OFF http://dc.watch.impress.co.jp/img/dcw/docs/390/981/47.jpg
 超解像ON http://dc.watch.impress.co.jp/img/dcw/docs/390/981/54.jpg

◎ISO3200
 超解像OFF http://dc.watch.impress.co.jp/img/dcw/docs/390/981/50.jpg
 超解像ON http://dc.watch.impress.co.jp/img/dcw/docs/390/981/57.jpg

ISO50の作例を見てみると無ノイズだけど等倍鑑賞では極小ピッチということを考えれば
こんなもんだろうという感じだったのが超解像ONにすることで明確な変化が出てきたにょ。
このように建物のようなエッジがはっきりしたものに関しては超解像の効果が極めて
大きいものであることが分かるにょ。

ISO400になるとノイズが増えそれを低減するために塗り絵チックになりつつあるにょ。
超解像をONにしてもISO50の時と比べたら輪郭線ははっきりでないものの十分な効果は
ある感じにょ。
しかも、ノイズが増加しているようには見えないにょ。

ISO3200はさすがに相当無理があるため超解像をONにしても目に見えて分かるような効果は
得られないにょ。
とはいえ、ISO800〜1600では高感度ノイズ低減によるディティール損失が大きいけど
超解像を使えば輪郭線がはっきり出るのでかなり有用といえるにょ。
このように超解像はシャープネスのように画面均一にかける処理ではないため効果は
部分を強調するために他所が犠牲になるということがなく超解像をONにすることによる
ことでノイズが増加するという問題もなさそうにょ。

超解像はズームにも活用されているにょ。
ズームには光学ズームとデジタルズームの2種類があるけど前者は無劣化なのに対して
後者はただのトリミングしたものを拡大補間するだけであり画質面では大きく劣るにょ。
例えば1200万画素のデジカメにおいて4倍デジタルズームを使うと1200万画素の4分の1の
300万画素を拡大するというイメージがあるかもしれないけど4倍ズームは縦横4倍である
ため画素数では16倍になるため75万画素となるにょ。(1200万画素のデジカメで4倍
デジタルズームを使用するということは75万画素で撮影したものを1200万画素に拡大補間
して記録しているということ)
1200万画素(光学4倍ズーム)と75万画素(4倍デジタルズーム)ではさすがに誰が見ても
その違いは歴然にょ。

S200は光学4倍ズームを搭載した1400万画素のデジカメであるため4倍デジタルズームを
使用時には16倍相当のズームになり、画素数は87万画素を拡大補間した1400万画素と
なるにょ。
http://dc.watch.impress.co.jp/img/dcw/docs/390/981/36.jpg
さすがに87万画素を16倍の画素数に拡大補間しただけなので等倍では見るに耐えない
感じにょ。

ならば等倍で使用せず縮小前提と考えればいいけどそれならばこんな画素数で記録する
必要はないし、拡大補間の時点で劣化しているのにそれをさらに縮小するという劣化の
繰り返しをするというのはあまり好ましくないにょ。
最大画素数で記録する必要がないのならばPanasonicのEXズームやソニーのスマート
ズームのようにセンサーの一部のみを使ったただのトリミングによるズームの方が
このような一般的なデジタルズームよりは遙かに有用にょ。

しかし、超解像を用いれば少しだけ解像力不足ならば十分補えるということは上記の
作例を見ても分かると思うにょ。
これを使ったデジタルズーム+超解像というものがあるにょ。
これはカシオは「超解像ズーム」と呼んでいるにょ。(Panasonicは「iAズーム」と
呼んでいる)
デジタルズームは最大4倍まで可能なのだけどこれを1.5倍まで(Panasonicは1.3倍まで)
と抑えることで超解像で解像力不足を補えるというわけにょ。

ただ、1.5倍ズームといっても画素数でいえば2.25倍にょ。
S200の場合は620万画素を1400万画素に拡大補間している状態にょ。
http://dc.watch.impress.co.jp/img/dcw/docs/390/981/35.jpg
これが実用になるかどうかは人によるけどさすがに超解像を用いても現時点のアルゴリズム
では1.5倍デジタルズーム(4倍光学ズームと合わせて6倍ズーム)はやや厳しいような
感じがするにょ。

超解像ズームの実用性はともかく超解像そのものはONにすることで特にデメリットとなる
部分はないと思われるにょ。
しかし、全くデメリットがないというわけではなく現時点では超解像は処理に時間が
かかるというデメリットがあるにょ。
S200でも1枚撮影後に3秒くらい処理に時間がかかるみたいだしね。
とはいえ、効果を考えれば妥協は可能だと思われるにょ。(私が普段使っているTX1の
「手持ち夜景モード」も処理に3、4秒かかるけど1〜2段分のノイズ低減効果は非常に有用に
感じている)

それにプロセッサ性能は年々向上しているので大きな問題でもないにょ。
今は当たり前のように搭載されている顔認識でも最初は1人の顔を追いかけるのが精一杯
だったけど今は16人でも余裕だからね。
これもプロセッサ性能の向上の賜にょ。
性能が向上すれば処理時間が短くなるだけではなくより高度なアルゴリズムを用いて
さらに効果的な超解像処理を行うことが可能になるにょ。
これは画素ピッチが小さなコンデジでは非常に有用になるにょ。
現時点では画素ピッチの面では余裕があるデジタル一眼でも画素数が増えていけば将来的
には超解像対応のRAW現像ソフトが登場するかもしれないにょ。

363御茶目菜子:2010/09/08(水) 14:10:19
スマートフォンとポケットサイズPCは棲み分け可能なのか?
9月5日には新型iPod touchはポケットサイズのWindows PCと棲み分けができるということを
前提に書いていったにょ。
ポケットサイズPCはWindows搭載であるが故にAndroid OSやiOSでは出来ないことも可能に
なるからそれ自体に間違いはないにょ。
ただ、AndroidやiOSがWindowsを駆逐するというわけではなく現実的な利用面において
「棲み分け」というほど明確な活用方法の違いを果たして見いだすことができるのか?

ポケットサイズPCでいえば、現時点で最も完成度が高いものはViliv N5だと私は感じて
いるにょ。
N5が先行していたPMやBXと比べて大きなアドバンテージとなったのは5月28日に書いた
ようにメモリを1GB搭載していることやSSDが交換可能なことにょ。
「スマートフォン時代」が訪れようとしている中、このN5が本当に実用的になるのか
モバイルに詳しい戸田氏のレビューを見てみることにするにょ。
http://trendy.nikkeibp.co.jp/article/column/20100903/1032829/

最初に書いておかなくてはならないのはリンク先レビューではN5は「ミニノート」と
記されているけどここでは「ポケットサイズPC」としていることにょ。
ミニノートに明確な定義はないけどLibrettoが発祥となった小型のノートPC全般を示す
ことが多いため私はポケットに入るくらい小型のPCに関しては「ポケットサイズPC」と
呼んでいるにょ。
呼び方に差異はあるものの戸田氏が言うミニノートと感覚的な違いがあるわけではないと
思われるにょ。(すでに小型のネットブックより「ミニ」であるというニュアンスで
用いていると思われるため)

まずは本体のサイズに関してにょ。
http://trendy.nikkeibp.co.jp/article/column/20100903/1032829/?P=2
388gというN5は非常に軽量で昔のPDA並といえるにょ。
実際パワーザウルスは本体だけで320gあったからね。
http://www.watch.impress.co.jp/pc/docs/article/970623/sharp.htm
私はカメラユニットを付けて持ち歩いていたけどこの時のサイズや重量はN5の方が小型、
軽量ではないかと思ってしまうくらいにょ。

いくらN5がPCとしては小型、軽量の部類とはいえポケットに入れて持ち歩くには無理がある
と思われるにょ。
ポケットに入るか否かということであれば昨年12月7日に書いたように私は自らの実験に
よって「奥行き+厚さ」が14cm以下であればほとんどのポケットに収まるためこれを
ポケットサイズPCの定義として採用したにょ。(手持ちのVAIO UXは合計13.9cmとなって
おり実際にポケットに突っ込んだらギリギリ入るサイズとなっている)
富士通はLOOX Uを発売するにあたって事前調査から「13cmがポケットサイズ」基準になった
ため私の「ポケットサイズPCにおける定義の14cm」はあくまで私の環境においてという
だけであってこれが必ずしも絶対的なものとはいえないということにょ。
そもそも「ギリギリ入る」というのと「余裕を持って入る」(普通に出し入れ可能)という
のとでもサイズの基準が異なってくるわけだしね。

次は液晶に関してにょ。
http://trendy.nikkeibp.co.jp/article/column/20100903/1032829/?P=3
ポケットサイズPCの多くは5インチ弱のWSVGA液晶が採用されているにょ。(N5、PM、BXは
4.8インチ、VAIO UXは4.5インチ)
解像度の面では多くのスマートフォンに採用されているWSVGAより一回り大きく、画面
サイズも一回り大きいにょ。
「文字が小さすぎて見にくいから使えない」と思うかも知れないけど4.8インチ、WSVGAの
N5は247ppiとなるためドコモのXperia(4インチ、FWVGA)の245ppiと大して変わらない
ためそれほど問題ないにょ。
iPhone 4に至っては(3.5インチ、960×640)326ppiとなっているためかなり厳しいと
思われるにょ。

また単純に「文字の大きさ」といってもシステムフォントの大きさが異なるために両者
(スマートフォンとポケットサイズPC)では単純比較はできないにょ。
確かにメニューなどに使われているシステムフォントの大きさはポケットサイズPCの
方がかなり小さいだろうけどね。
システムフォントの大きさ(表示dpi設定)はWindowsの場合はサイズ調整ができるため
それを変更すれば問題はないにょ。
文字の小ささが懸念材料となっているポケットサイズPCでは標準の96dpiではなく120dpiに
設定済みで出荷した方が良いと思うにょ。
VIAO UXではワンタッチ拡大ボタンがあるけどこれと同じようなボタンは他のポケット
サイズPCにもあっても良さそうにょ。
いくらdpi設定を変えてもすべてのアプリでその設定が反映されるわけではないからね。

またタッチパネルにおいても両者には静電容量方式と感圧式という違いがあるにょ。
スマートフォンは基本的に指で操作するものであるため静電容量方式が用いていることが
多いけどポケットサイズPCはほぼすべてが感圧式となっているにょ。
ポケットサイズPCでも静電容量方式を使えば指で軽く撫でただけでも反応可能になるけど
それを行わないのはポケットサイズPCの液晶パネルを指だけでポインティングするという
ことは事実上困難だからにょ。
Windowsはキーボードとマウスがあることを前提に作られているにょ。
つまり、マウスのような正確なポインティング操作ができなければWindowsは使うことが
できないということにょ。
スタイラスを使っても「容易ではない」と感じる人がいるのにそれを指で行うなんて
とても出来ることではないにょ。

キーボードに関してはN5はサイズの割りには優秀とこのことにょ。
http://trendy.nikkeibp.co.jp/article/column/20100903/1032829/?P=4
PMはキーがふにゃふにゃであり私はに少し店頭で使っただけなのに良いものには思えな
かったのでN5も早く一般店頭で売られるようになることに期待しているにょ。
とはいえ、ブラインドタッチは相当の熟練を要するため基本的には両手で持って親指
タイプという形になるにょ。
これだとサイズ的にも丁度いい感じだしね。
ただし、親指タイプであれば速度面でキーボード付きのスマートフォンと比べてあまり
アドバンテージがないにょ。
私はリナザウやポケコンはテーブルの上において3本指入力を行えば毎分300文字程度の
打鍵速度でタイプ可能だけど親指入力ならば速度が半減してしまうからね。

最後は動作速度の面にょ。
http://trendy.nikkeibp.co.jp/article/column/20100903/1032829/?P=5
N5に搭載のAtom Z520(1.33GHz)はポケットサイズPCの中では遅い部類ではなくPMの
Z510(1.1GHz)やBXのZ515(1.2GHz)と比べれば十分速いにょ。(Z510にはHTTがない
ためPMと比べるとクロック差以上の性能差がある)
それでもやはりWin7を動作させるには十分とはいえないにょ。
PMやBXはやはりXP搭載というのが大きかったからね。
N5はそれらと比べてメモリ1GB搭載というのがアドバンテージになっていたもののやはり
XPよりは多くのメモリが必要になる7において1GBでは十分とはいえないにょ。

N5にもXP搭載モデルがあるためそれを買うという方法もあるにょ。
しかし、XPにはSSD16GBモデルしか用意されてないにょ。
16GBではシステムに使われている領域、リカバリ領域を除くとユーザーが自由に使える
領域は半分もないにょ。
これが32GBモデルであれば空き領域が多くなるのだけど残念ながら32GBモデルにはXPは
用意されてないにょ。

また、XPは現在はULCPC版のみがOEM向けに提供されているもののこれはWin7が発売から1年後
となる今年の10月で終了するにょ。
つまり、今後はXPモデルは現在の流通在庫以外は入手が困難になり(proのダウングレード
によって搭載可能だけど価格が跳ね上がってしまう)今後は7が中心となるにょ。
9月4日にノートPCの代わりにiPadを使用する人の理由として「PC(Windows)は起動に
時間がかかる」ということが挙げられたけどこれはサスペンドを常用することで回避
可能になるにょ。

ただし、9月5日に書いたようにサスペンド中のバッテリ消費もバカにならないにょ。
その点に関してはN5は公称150時間のサスペンド時のバッテリ保持となっているため安心
して使用できるにょ。
実際の消費電力においても週刊アスキー9/21号で計測されているけどN5のサスペンド中の
消費電力は150mWとなっているにょ。
バッテリ容量から逆算して約105時間となるけどこれはACアダプタのAC→DC変換効率は
考慮されてないので変換効率が70%と仮定すると公称値の150時間に達するにょ。
ちなみにBXが270mWで逆算約70時間、LOOX Uが340mWで逆算約38時間、VAIO Pが270mWで
逆算70時間となっておりN5のサスペンド中の消費電力の小ささがよく分かると思うにょ。


以上を踏まえて考えてみるとポケットサイズPCとスマートフォンがとても競合するようには
思えないにょ。
しかし、いくらポケットサイズPCがPCとしては小型、軽量であっても別途持ち歩くので
あればそれに似合うだけのメリットがあるかどうかが重要になってくるにょ。

「どうしてもWindowsを使う必要がある」というであれば一般的なノートPCと比べて
快適さでは大きく劣るものの使う価値は十分にあるにょ。(一般的なモバイルノートが
1kg前後なのに対して400g程度というのは別格の軽さだし、筐体サイズが小さいことで
持ち歩きも容易になる)
しかし、現時点では7を快適に動作させるためのマシンパワーがないため非力なマシンでも
快適に動作するスマートフォンと比べるといくら性能で勝っていても体感速度では負けて
しまうという可能性があるにょ。
つまり、(動作速度の面で)快適性を求めたいからスマートフォンではなくポケット
サイズPCを選択するというのは正しい選択ではないということにょ。

スマートフォンはかつてのPDAの役割も担っているけど昨今は「Windowsでないと困ること」
というものがかなり減っているにょ。
これは多くのことがWeb中心となっているのに加えてスマートフォンに搭載されている
WebブラウザはPC向けのWebブラウザと比べて大きく見劣りすることが無くなったという
こともあるにょ。
何せAndroidでもFlash10.1がサポートされているわけだしね。(昔だったらPDA用には
サブセット版であるFlash Liteがサポートされるのがせいぜいだった)

私はモバイル機器に関してはモバイルランクを設定しているけど普通のモバイルノートが
ランクCなのに対してポケットサイズPCはランクBに設定しているにょ。
これは本体サイズが小さいことでポケットに収まるということと両手に持った状態で
使えるということが差別化の要因となっているにょ。
ランクBの機器は常時ポケットに入れて持ち運ぶわけではないけどいざというときに
ポケットに入れられるというのはメリットになるからね。

これは、「バッグが不要になる」というのではなく「バッグの使用頻度が低くなる」と
いうことを意味するにょ。
普通のモバイルノートPCであれば一旦使用する用事が済んだらバッグにしまうのだけど
それからちょっと使いたいというときに再びバッグから出したりとか使っている途中で
急に両手をフリーにする必要がある(電車やバスを降りなければならないなど)という
場合に「必ずバッグにしまわなくてはならない」かつ「必ずバッグから取り出さなければ
ならない」というのはやはり使用頻度を下げる要因にもなっているにょ。
ケータイをバッグに入れて持ち運んでいる人は電車に乗ってわざわざ用もないのに
バッグからケータイを取り出すという人はあまりいないだろうけどポケットやポーチ
などに入れている人であればすぐに取り出せるためちょっとした機会にすぐに取り出す
ことができると思うにょ。

また、ポケットサイズPCは両手に持って使えるというのがモバイルノートと比べて
大きなアドバンテージになっているにょ。
満員電車の中ではさすがに無理があるけど立ったままで使えるというときは歩いていて
さっと取り出して使うことができるということにょ。
店頭に欲しい商品があった場合にそれが本当に有用なのかをネットで調べたりという
ことがその場でできるからね。(モバイルノートだと座れる必要があるし、地べたに
座ってノートPCで何かをしていたらいかにも怪しい人に思われてしまう)

ただし、それはあくまでモバイルノートに対するアドバンテージにょ。
実際にその程度のことはほとんどスマートフォンでできてしまうからね。
立った状態でWindows用アプリを使う必要がある人、立った状態でアプリ開発を行う
必要がある人などのごく一部な例外を除けば少なくとも「立った状態で行うことで
Windowsで無ければならないこと」というのはほとんどないのではないかと思われるにょ。

そういうことを考えるとスマートフォンとポケットサイズPCの棲み分けというよりも
ポケットサイズPCがどのように活用するのかということになってしまうにょ。
スマートフォンを持っていなければ確かにポケットサイズPCの活用場面は非常に多い
けれどスマートフォンを持っていれば「どうしてもWindowsで無ければならない」と
いう場合以外にポケットサイズPCが登場することはほとんど無くなるだろうからね。

確かにキーボードレスのスマートフォンと比べれば一応は打てるレベルのキーボードを
持つポケットサイズPCは文字入力の面においてメリットがあるからそういう面では
活用する場面は多いと思うにょ。
それでも、それだけの文字数を立った状態で入力するという場面は私はごく希にしか
ないにょ。
大半は立った状態で行うことといえばビューアがメインであり文字入力といえば適当な
メモ書きや検索エンジンへの文字入力が大半にょ。

私の場合はランクB(ポケットサイズPC)に相当するVAIO UXに加えてランクCに相当する
Let'snote R5もほとんど毎日持ち歩いているにょ。
このため多くの文字入力をするという機会がある場合はUXを使わずに最初からR5を
取り出して使用するにょ。
しかし、モバイルノートを毎日持ち歩いている人というのはそれほど多くはないと
思われるにょ。
「少しでもまともに打てるキーボードが欲しい」とか「どうしてもWindowsを使う必要が
ある」という人であれば確かにポケットサイズPCは有効活用できる場面があるのだけど
そうでなければほとんどの場合はスマートフォンで間に合うにょ。

実際棲み分け以前にそのようなポケットサイズPCに4〜6万円払えるという人は限られて
いるだろうし、ポケットサイズPCはスマートフォンとは異なり単体で通信ができないため
別途3G通信アダプタ(もしくはモバイルルータ)を契約して持ち歩くか、無線LANが
使える場所へと移動して使う必要があるにょ。
これは9月4日に書いたスマートフォンに対するタブレット端末の問題と同様のものにょ。
投資コストに似合うかどうか、通信をどのように確保するかが重要であって棲み分け
以前の問題となっているにょ。
したがって、ポケットサイズPCはどうしても仕事上必要な人(モバイルノートは大き
すぎて持ち歩けないけどこのサイズであれば持ち歩ける人)を除けば小型ガジェット
好きのモバイルオタクだけが購入するに止まっていると思われるにょ。
要するにこのサイズでWindowsが動作するということに魅力を感じているという人で
なければ棲み分け(使い分け)というものは最初から存在しないということにょ。

364御茶目菜子:2010/09/09(木) 13:10:08
なぜ新型iPod touchは大幅に機能強化されたのか・・・?
昨日は急速に普及が進んでいるスマートフォンによってポケットサイズのWindows PCは
活躍する場面が無くなるため売れなくなるという予想に対して「結局欲しい人が買っている
だけ」という現状からあまり変わらないという結論を下したにょ。
スマートフォンは確かに便利だけどガラケーも捨てがたい・・・でも、2台持ちはコスト
面の問題が・・・という人のためのものといえばやはり何度も書いているようにiPod
touchの出番にょ。

スマートフォンがPDAから発展したものなのに対してtouchは元々はDAPから発展したもの
であり、ショップの売場においてもDAPコーナーで販売されているにょ。
8月にはiPodが久々にウォークマンにシェア1位を譲るという(8月は特別な月ということを
考慮しても)数年前までのような状況とは異なるというのは確かにょ。
実際iPodは低価格製品はウォークマンに苦戦しているけど高価格(1.5万円以上)では
依然として高いシェアを保っているにょ。
http://www.itmedia.co.jp/news/articles/1009/09/news015.html
高いシェアの要因となっているのは言うまでもなくtouchの存在にょ。
ソニーにはこれに対抗する製品はないからね。
それによって、9月3日に書いたようにnanoはtouchを基準に大幅な仕様変更が行われた
と推測しているにょ。

さて、touchといえば冒頭に書いたようにランニングコストがかからないスマートフォン
として(要するにPDAとして)使用するという人も多いのではないかと思われるにょ。
今回の新型では大幅に仕様強化されるためにその役割は更に高まっているけどそうなると
iPhone4との違いも気にしている人が多いのではないかと思うにょ。
iPhone4(32GB)を一括払いで買って解約して57600円(+諸費用)、iPod touch(32GB)は
定価27800円であるためiPhone4を「無線LAN専用」としてランニングコストゼロで使用する
場合でも端末コストは2倍になるわけだからね。
すでに旧touchを持っている人はそれから乗り換えするに値するものなのかということも
気になるところだと思うにょ。

サイズは表面積に関しては同じ3.5インチ液晶ということで新型iPod touchもiPhone 4も
それほど差はないにょ。
http://plusd.itmedia.co.jp/lifestyle/articles/1009/08/news021_3.html
ただし、厚さに関しては明確な差があるにょ。
iPhone 4は3GSより薄型化され9.3mmになったものの7.2mmだからね。
しかも、重量はiPhone 4が137gなのに対してtouchは101gということで一回り小型、軽量
といっても過言ではないにょ。(3割差あれば実際に持って体感できると思う)

動作速度の面を見ると新型touchは旧touchと比べて4倍の解像度になっているにも関わらず
描画速度は向上している模様にょ。
それはGPU性能の向上によるものが大きいけどCPUだけ見ても新型は旧型と比べて35%も
高速になっているにょ。(整数演算 旧227→新299、浮動小数点演算 旧281→新373)
ただし、メモリ搭載量に関してはiPhone4では従来から倍増となる512MB搭載されたのに
対して新型touchは旧型から据え置きに256MBとなっているにょ。
現状では256MBで動作が厳しいアプリはないためマルチタスク対応によって多くのアプリを
同時に起動するか否かが評価ポイントになると思われるにょ。

スペック表には記載されてないもののiPhone 4との大きな違いとなっているのはカメラ
機能にょ。
動画は両者とも1280x720のHD動画が撮影できるけど静止画に関してはiPhone 4が500万画素
(2560×1920)で撮影できるのに対して新型touchは960×720に止まっているにょ。
さらにカメラの機能としてもiPhone 4がAF対応なのに対してtouchはパンフォーカス
(使い捨てカメラやトイデジカメのようにピントが固定された状態)だからね。
これはコスト低減のためこうなったのだと思われるにょ。

液晶モニタも解像度こそiPhone 4と新型touchは同じだけどその違いは比べれば歴然にょ。
http://plusd.itmedia.co.jp/lifestyle/articles/1009/08/news021_4.html
iPhone 4はIPS液晶が搭載されているのだけどこの写真を見る限りでは新型touchは
TN液晶ではないかと思われるにょ。
この厳しいコスト低減はやはりiPhoneよりも利益率が低いからだと思われるにょ。
iPhone 4(16GB)の部品コスト(開発費、組み立てコスト、流通コストは除く)は
188ドルと推測されているからね。
http://www.itmedia.co.jp/news/articles/1006/29/news020.html
16GBのフラッシュメモリが27ドルなので32GBモデルは215ドルと推測されるにょ。
AT&TによるiPhone 4の一括払いの価格は699ドルであるため部品コストが価格に占める
割合は3割程度となっているにょ。

上記のコスト計算から新型iPod touch(32GB)のコストを計算してみるにょ。
3G通信関係非搭載、メモリは搭載量が半分なので価格半分、iPhone 4より品質が劣る
カメラと液晶はコストは半分と仮定して計算すると162.62ドルとなったにょ。
iPod touch(32GB)は299ドルであるため54%となるにょ。
すでに相場が下がっているパーツや(適当に半額と仮定したため)計算の誤差があると
想定すれば定価の5割程度が部品コストとなりそうにょ。
iPhoneと比べたら利益率が低い製品であるということが分かると思うにょ。

もしも、touchでiPhoneと同レベルの利益率を確保するためには540ドルくらいの価格設定を
する必要があり日本国内での販売価格は5万円弱になりそうにょ。
それが27800円で買えるわけだからiPod touchはバーゲンプライスといえるにょ。
まぁ部品コストが定価に近いというヘタをすれば売れば売るほど(本体だけで見れば)
赤字が大きくなる場合さえあるコンシューマゲーム機と比べれば売れば売るほど黒字に
なるため別に何の問題もないけどね。(コンシューマゲームはソフトによって回収する
ビジネスモデルとなっているためそれで問題はない)

しかし、そこまで厳しいコスト削減をしているのに各種センサー(3Gユニットに含まれて
いるGPSを除く)はiPhone 4と同様に搭載されているにょ。
旧touchはカメラさえ搭載してなかったのが新touchは搭載されているけどこれによって
iPhone用として作られたアプリのほぼすべてが動作するというメリットがあるにょ。
カメラやセンサーに依存したアプリというのも相当数あるからね。
つまり、「アプリを利用する」という点だけでいえば新touchは旧touchと比べて大きく
改善されており、iPhone4と比べてもほとんど遜色ないものといえるにょ。

新touchでアプリに拘ったというのはOSごとのシェア争いも大きいからにょ。
今年は世界で見ても前年比55%の増加を見せているスマートフォンだけどそのOSのシェア
争いは激化しているにょ。
http://www.itmedia.co.jp/news/articles/1009/09/news013.html
この業界では新入りとなっているAndroidとiOSだけどAndroidは2014年には現状の16.3%
から24.6%へと大幅なシェア増加が予想されているのに対してiOSは現状の14.7%から
10.9%へとシェア低下が予想されているにょ。

これは8月9日に書いたようにiPhoneが垂直統合のビジネスモデルとなっているからにょ。
iOS搭載機は一社からしか発売されないわけだからいくら現状より売れても市場全体が
大きくなった場合には大きなシェアを獲得するのが難しいということにょ。
これをカバーする存在となるのがiPod touchとなるにょ。
スマートフォンはキャリアとの契約が必要になるため新規購入や買い換えのハードルが
どうしても高くなってしまうにょ。
それに2年契約による「実質価格」では安価だけど一括購入すれば金銭的負担も大きい
からね。(2年契約の場合は2年間毎月支払う金額を考えると全然安価ではない)
したがって、コスト面を考えると現状使っているケータイから置き換えを迫られてくる
ことになるにょ。

しかし、キャリアとは無関係のiPod touchではそんな心配は要らないにょ。
Windows Mobileも元々はPDAなどの小型機器専用のOSとして作られスマートフォン用では
なかったのだけど今では製品のほとんどがスマートフォンでありかつてのようなPDAは
皆無となっているにょ。
それはPDAが高価で売れないからにょ。
PDAに3G通信機能を搭載したスマートフォンはコスト的には数10ドルの違いでしかない
けどそれが高価であってもどんどん売れている状態だから売れないPDAなんて作りたがら
ないというのがあるのかもしれないにょ。
ケータイにWebブラウザが搭載されていなかった90年代〜2000年台初頭だとPDAは高価で
あっても売れたけどこれも時代の流れにょ。

しかし、touchにはアップルブランド(iPodブランド)があるにょ。
PDAとしては興味がないけど単体通信(無線LAN搭載)のできる大容量のiPodを買ったら
iPhone用アプリも使えたのでハマったという人も大勢居るのではないかと思うにょ。
売れるから安くできるわけであり、安くできるから売れるというのが大きいにょ。
実際、touchはiPhoneと同レベルの台数売れているわけであり、ワールドワイドでは年間
1000万台を大きく超える売上となっているにょ。
1機種でそんなに売れるのはPDAとして考えれば驚異的なことにょ。(DSなどのコンシューマ
ゲーム機に匹敵するレベル)

スマートフォン市場の拡大によってiPhoneにしか搭載されてないiOSはシェア低下が予想
されているけどそれと同レベル売れているtouchがあるということは事実上iOS搭載機と
いうくくりで考えるとその2倍売れているということが言えるにょ。(これはスマート
フォン向けに提供されているOS搭載機としてはトップレベルのシェアになる)
確かに利益からするとiPhoneの方が大きいかもしれないけどシェアの拡大、そしてそれに
よるアプリやその他コンテンツの売上拡大を考えるとtouchの存在は無視できないことが
分かるにょ。(コンテンツ売上の影響力が大きいのは垂直統合のお陰)
それを考えると今回の新型touchの機能強化(コスト面の制約が大きいのに各種センサーや
カメラを省略しなかったこと)はすべて説明がつくにょ。

365御茶目菜子:2010/09/10(金) 13:23:39
ペンタックスK-rは最強の入門用デジタル一眼!?
ペンタックスがK-xの後継となる入門用デジタル一眼レフ「K-r」を発表したにょ。
http://dc.watch.impress.co.jp/docs/news/20100909_392090.html
K-xと比べて主に下記の点が改善されているにょ。

(1)スーパーインポーズ搭載
(2)6コマ/秒の連写速度
(3)AF補助光搭載
(4)専用電池が使用可能

(1)K-xの悲願だったのがこれにょ。
近年はAFの多点測距は当たり前のように搭載されているもののK-xではファインダー内で
どの部分にピントが合っているかは確認できなかったにょ。
一般的にはどの部分にピントが合わされているのかということをスーパーインポーズ機能
として測距ポイントの表示を行うことで解決されていたけどK-xにはそれが無かった
からにょ。
確かに一眼レフだからピントが合っているかどうかはファインダー内で確認可能なこと
だけど入門機のファインダーでは細かいピントを瞬時に確認するなんて無理だし、
そもそもピントが合っているかということとどこにピントを合わせているかということは
別問題だからね。

「カメラ任せのオートでしか撮影しない」という人であれば問題がないことだけど
少なくともデジタル一眼レフではこれは致命的な問題だったにょ。
したがって、せっかくの11点測距なのに事実上1点測距以外は使いにくいものがあり、
これだけの理由でK-xを敬遠していた人も少なくなかったにょ。
ようやくペンタックス(HOYA)にもこのことが伝わったのか、K-rではペンタックスの
入門機としては私が現在使っているK200D以来のスーパーインポーズが復活となったにょ。

(2)ペンタックスといえば連写に弱いというのがファンの間でも当たり前の認識だった
けれどK-rは何と6コマ/秒の連写速度を実現しているにょ。
同じ入門機でもα55が10コマ/秒を達成していることを考えると単純にスペックだけを
見れば最強とはいえないけどα55の場合は固定された半透過型ミラーを使ってようやく
実現できた速度だからね。

通常のクイックリターン式ミラー採用機で見ると入門機では最速にょ。
中級機までくくりを広げてもニコンD90(4.5コマ/秒)やキヤノンEOS 60D(5.3コマ/秒)を
超える連写速度となっているにょ。
私が使っているK200Dはバッファメモリが少ないため2.8コマ/秒で4コマまで(JPEGでもRAW
でも)という極めて貧弱なものであり事実上オートブラケット用としてしか使えない
感じだったけどK-rではJPEG25枚、RAW12枚まで連写可能であるためスポーツなどの
動く被写体にも対応できそうにょ。

とはいえ、動く被写体に対応できるかはAF速度に依存するにょ。
α55でも10コマ/秒はAFを使用しない時の速度であり、AFが追従するのは6コマ/秒まで
だからね。
動く被写体を撮る時はコンティニュアスAF(AF-C)で撮影することになるけど
ペンタックスの場合はAF-Cはレリーズ優先ではなくピント優先なので厄介にょ。
ただでさえAFは遅い(超音波モーター内蔵レンズを使用すればそこまで遅くはないけど
多くのレンズはボディ内蔵のモーターによってピントを合わせるため)ということで
動く被写体にピントが合わないとシャッターが切れないので高速で動作するものを撮影
するということはほぼ不可能になるにょ。

実際私が使っているK200Dも人がゆっくり歩く程度の速度であればAFが追従できるけど
それより速い速度になるともう追従が困難になるからね。
しかし、レリーズ優先の設定ができるK-rであればそれは解決にょ。
とりあえず、「シャッターが切れない」ということだけはなくなるからね。
とはいえ、AF速度が大きく改善されているとは思えない(キヤノンのAFが速いのはEOS用
レンズには基本的にモーターを内蔵しており、レンズごとに最適なモーターを搭載可能
ということが影響しているからね。(レンズに依存しない測距性能自体もペンタックスは
あまり速くはないけどこれは速度よりも精度を優先している影響だと思われる)

(3)ペンタックスのデジタル一眼レフの弱点ともいえるAF速度だけど暗い室内では特に
それが顕著になるにょ。
ヘタをすると一般的なコンデジの方がAFが速いとも思わせる速度だからね。
位相差検出方式は明るい場所では速いけど暗くなると精度や速度が大きく劣るという
問題があるにょ。
それを解決する1つの手段がAF補助光にょ。

しかし、ペンタックスの場合はAF補助光を使用するためにはフラッシュを光らせる必要が
あったにょ。
せっかくボディ内に手ぶれ補正機能があるため暗所でフラッシュを使いたくないという
場合にはAFが使えない(ほとんど役に立たない)ということもよくあったにょ。
私が持っているデジタル一眼では5年前に発売されたニコンD50でもAF補助光は搭載して
おり、これは価格が問題というよりもメーカーの開発思想の問題にょ。
この度、K-rではAF補助光が内蔵されたことは非常に喜ばしいにょ。

(4)「K-xは単三だから買わない」という人もいたからね。
個人的には単三電池が使えるということにメリットを感じているけどこれは使い回しが
効くというメリットがあるからにょ。
専用電池(リチウムイオンバッテリ)だと基本的にその機種専用となるからね。
安価なものでないため予備バッテリを買うのも躊躇してしまうにょ。
しかし、単三であれば他の機器で使えるため安心して買えるにょ。(それに安いし)
旅行に出かける際にも単三で統一していればどの機器でバッテリが切れても使い回しが
効くわけだし、アルカリ電池に対応していればいざというときにコンビニで入手可能
というメリットは大きいにょ。

とはいえ、単三は汎用性が高い反面デメリットもあるにょ。
まず1つ目は充電管理の問題にょ。
アルカリ電池は残量を把握するというのは容易ではない(乾電池の場合は徐々に出力
電圧が落ちているのでそれを元に把握するしかない)エネループでも1%単位での細かい
残量は把握できないにょ。
その点、専用電池であれば正確な残量を把握することが可能にょ。(ユーザーにそれを
知らせる時点で機器側が数段階にしているだけであって内部では正確な残量が把握されて
いる)
これによって、充電する必要があるか否かというのが分かるにょ。(エネループにも
対応しているK200Dの残量はアバウトであるため残量メーターがあまりあてにならない)

またパワフルかつ小型というのも専用電池のメリットとなるにょ。
6コマ/秒という連写速度は単三ではかなり厳しいからね。(単三を8本使うか、4本ならば
消費電力を無視して昇圧して使うかしかしないと難しい)
K-xは本体だけなら515gだったけど単三アルカリ電池を使用時には615gとなり入門機の
中では重い部類だったにょ。
それがK-rでは本体のみで544gと重くなったものの専用電池のお陰で使用時の重量は
598gへと軽量化されたにょ。
私のような単三愛好家へはオプションの単三電池ホルダーを使うことで単三電池が
使えるため「専用電池が使える」というメリットが生きてくるにょ。

肝心のセンサーだけど1200万画素に画素数は据え置かれたことによって高感度性能は
上がってそうにょ。
確かに画素数が1800万画素に増えてもEOS KissX4は高い高感度性能を誇っていたけれど
いい変えれば画素数をそこまで増やさなければさらに高感度性能が上がる可能性がある
ということも言えるからね。
K-xはすでにクラス最高レベル(KissX4が出るまではトップ)だったためそれより高く
なるということ再びトップに立つ可能性があるにょ。
K200Dの頃はセンサーそのものが高感度に強くなかったため同時期の他のメーカーの
機種と比べて高感度性能は大きく劣っていたからね。
それに1200万画素であるが故にレンズ性能もそこまで高いものが要求されなくて済むと
いうメリットがあるので扱いやすいかもしれないにょ。

また、K-rで話題になっているのは120通りのカラーバリエーションにょ。
K-xの100通りからさらに増えたけどこの度発売になるDA35mmF2.4は10色のカラバリとなって
いるためにそれと組み合わせると何と1200通りのカラバリとなるにょ。
個人的には一眼レフを買う際にはスペックやレンズが重要であるため色は気にしないの
だけどこれだけ組み合わせがあるといろいろ試してみたくなるにょ。
http://www.camera-pentax.jp/k-r/simulator.php
このシミュレーションでいろいろ試してみるだけでも面白いかもしれないにょ。
某所で見かけた組み合わせでちょっと面白かったのがこれにょ。
http://www.camera-pentax.jp/k-r/simulator.php#040108
「すごくドムです・・・」

このように遊び心溢れた一眼レフだけどそれが斜め上にいってついにゲーム機能まで
搭載されたにょ。
バーコードバトラーのようにExifデータを元にパラメータを決めてそれを戦わせる
というものだけどK-rユーザーがこのゲームをプレイするようなことが果たしてやって
くるのか・・・?
まぁこれによってコストが上がっているとは考えにくいので要らなければ使わないという
だけの話だけどね。
遊び心に溢れても中身はしっかりしている良い入門機だと思うにょ。(とはいえ、
ペンタックスのシェアが低いが故にレンズを置いている店が少ないのが難点だけどこれは
レンズセットを買って終わりの入門者なら問題にはならない)
このレベルを維持してくれたら中級機であるK-7の後継機と予想されているK-5が楽しみに
なってくるにょ。

366御茶目菜子:2010/09/11(土) 13:35:05
高価だと売れない・・・負のスパイラル
先日Xbox360用のKinectの国内での販売価格が14800円に決定したけどやはりこの価格では
普及は難しそうにょ。
http://pc.watch.impress.co.jp/docs/column/kaigai/20100910_392597.html
Kinectというのが何なのかということをまず書いておくと開発コード「Project Natal」
という名称で作られた画像認識による入力デバイスにょ。
このKinectに近い入力デバイスといえば真っ先に思い浮かぶのがプレステ2用のEyeToyにょ。
EyeToyはコンシューマゲームの新しい方向性の1つを示したものの「精度が低い」「使用
するだけでCPUパワーの大半が奪われてしまう」という問題によって単純なゲームしか
作ることができず、メインの入力デバイスになることは無かったにょ。

それから数年・・・コンシューマゲーム機の世代も代わりSCEからではなくMSから満を
持して発売することになったのがKinectだけどその際に最も大きな壁になるのは価格の
問題にょ。
リンク先に書いているように100ドルを切ることが普及のためには必要だけど精度を高く
してなおかつCPUパワーを奪われないようにカメラ側に専用チップを使用しているため
149ドルの価格になってしまったからにょ。

「99ドルが普及のためのボーダーライン」というのならば無理をしてその価格で売れば
いいと考える人もいるかもしれないにょ。
実際、コンシューマゲーム機本体はそのような売り方をしている場合もあるにょ。
しかし、本体と周辺機器では考え方が異なるにょ。
ゲーム機本体は製造原価割れで販売したとしてもサードパーティのソフトから得られる
ライセンス収入で補填ができるためある程度の赤字であれば十分にビジネスとして成立
するにょ。
それに、ゲーム機の場合は発売当初は部品構成数が多くても製造プロセスの微細化など
によってチップが統合されコストダウンも可能なので「本体が普及してソフト販売数が
増える」ということに加えて「量産効果や効率化による大幅なコストダウン」も見込む
ことができるにょ。

しかし、周辺機器の場合は発売当初からそれで赤字にならないような価格設定をする
必要があるにょ。
ここで問題となるのは赤字になるかどうか(採算が取れるかどうか)というのは部品
コストだけの問題ではなく開発費や宣伝費なども重要になってくるにょ。
ゲーム機本体は決して赤字販売をしないという任天堂でさえ、Wiiに関しては宣伝費を
込みだと発売当初は赤字になっていたらしいだからね。

それに納入掛け率の問題もあるにょ。
本体の場合は定価の95%程度で販売店に卸されるため定価を安くすることが可能になる
けれど周辺機器の場合は概ね75〜80%で卸されるためメーカーからしてみれば同じ価格
であっても定価ベースで考えると高価になってしまうということにょ。(サードパーティ
製の周辺機器の場合はメーカーによって変わるものの60〜70%程度)
卸値9500円の製品があった場合、それがゲーム機本体であれば定価が1万円、周辺機器
ならば定価1.2万円くらい(サードパーティ製ならば定価1.5万円くらい)となるからね。
あとゲーム機本体の場合は大量生産を前提にした価格設定となることが大半だけど周辺
機器の場合はそこまでの大量生産を前提にしていない価格設定となっている場合も多い
ということが使用されている部品コストの割りに周辺機器が割高な理由となっているにょ。

高価な周辺機器は売れなくても需要に合わせた価格設定をしているならばメーカーに
とってはあまり問題はない(あまり売れなくても赤字にはならない)といえるかもしれない
けど問題はそこではないにょ。
その機器が売れなければ「その機器があることを前提にしたゲーム」というものに力を
入れるサードパーティはいなくなってしまうにょ。
ゲームソフトが売れるかどうかは内容や宣伝力によるものが大きいけどパイの大きさと
いうサードパーティの手の施しようがない差はどうにもならないにょ。

どんなに優れたゲームソフトであってもそのハードを持っている人が全員買うという状況
にはならないためゲームビジネスを成功させるには500万台くらい売れている必要がある
と思うにょ。
過去の歴代ゲーム機で(国内で)500万台程度の販売となるとニンテンドー64(550万台)や
セガサターン(560万台)が相当するにょ。
それらは「大ヒットした」というイメージや「こけた」というイメージではなく
「そこそこのヒット」というイメージを持っている人が大半ではないかと思うにょ。
しかし、それはあくまで本体の話にょ。
周辺機器でいえば恐らくファミコン用のディスクシステム(450万台)がトップではない
かと思うにょ。(※1万円を超える周辺機器において)

つまり、最低でもディスクシステム程度の普及台数に達しない限りはサードパーティが
力を入れてKinect用のソフトを開発するのは難しいということにょ。
キラーソフトの影響はかなり大きいためソフトによって販売台数を増やす(つまりパイの
大きさ自体を大きくする)ということは可能だけどそのようなキラーソフトはごく一部に
止まり、サードパーティは売れている本体だからソフトを開発する、ユーザーはソフトが
豊富にそろっているからその本体、その周辺機器を買うということになると思うにょ。
したがって、高価で売れない周辺機器はサードパーティも敬遠するため「あまりソフトが
揃わない→ソフトがあまりないからその機器を買わない」という負のスパイラルに陥る
危険性があるというわけにょ。

それを回避する最善策は本体と一緒に強制的にユーザーにその機器を買わせるという
ものにょ。
本体と同数売れるためにその機器も本体と同じく量産前提の価格設定が可能になるため
別々で販売するよりは安価にできるからね。
それによりサードパーティの対応も大きく進むと思われるにょ。
例えば、かつてプレステでSCPH-7000以降の本体にアナログコントローラを同梱するこで
一気にアナログ対応のゲームが進んだからね。
本体と強制的にセット販売されるということは普及期の本体においてソフト対応の面では
極めて大きな影響があるといえるにょ。

Wiiはリモコンとヌンチャクを標準装備にすることでそれに対応したソフトが売れたからね。
もしも、標準がノーマルコントローラーでリモコンととヌンチャクがオプション扱いで
あったらリモコン対応のゲームは一部に止まると思われるにょ。
といっても絶大なる勢力を持つ任天堂のゲームは対応するだろうからWiiに関してはその
「一部」がかなり大きいものになるけどリモコンでないと面白さが伝わらないゲームと
いうものが多いためオプションを使えばより楽しめるというものになってしまいそれでは
楽しさというものは伝わらないにょ。
Kinectも普通のコントローラでもプレイできるけどKinectを使用すればより楽しめる
という程度のゲームであればKinectを生かし切ったゲームを作るのは難しいし、普通の
コントローラでも普通にプレイできるのであればあえてKinectを買う人もかなり減って
しまうことになるにょ。
しかし、本体を買った時からKinectが付いていたとなればそのソフトの面白さを十分に
体験可能になるにょ。

Wiiについてもう少し書いておくとコンシューマゲームは1世代ごとに1桁性能が上がって
いるのに対してWiiはGC(ゲームキューブ)と比べて2倍の性能差もなかったにょ。
そのためWii用ゲームのほとんどのものが画面表現的にはGCで実現可能なレベルにょ。
つまり、GCのオプションとしてリモコン、ヌンチャク、本体装着用ユニット(BT受信機と
フラッシュメモリ、SDカードスロット、無線LANを内蔵したもの)をセットで15000円
くらいで売り出せばWii用と同レベルのゲームは十分に作ることができたということにょ。
それをしなかったのはそれだとパイの大きさ(GCの販売台数)から考えて厳しいからにょ。
「新世代のゲーム機」ということで新たに仕切直すことでパイの大きさを一から変える
ことが可能にしたわけにょ。
それが結果として大ヒットに繋がったにょ。

それではKinectはどうなのか・・・?
現在の価格でも興味がある人は買うだろうけど対応ゲームソフト1本買えば2万円という
価格は非常に辛いにょ。
それでもキラーソフトがあればそれなりには売れると思われるにょ。
MSもKinectには力を入れているみたいであり、本体セットも発売されるにょ。(上記の
ように本体にセットにした場合は安価に設定可能であるため別途買えば14800円なのに
1万円アップの価格設定となっている)
これならば普及のためのボーダーライン価格ギリギリになるにょ。
とはいえ、この価格はあくまでこれから本体を買う人に限られるにょ。
やはり、高価な機器は当初より本体とセットで販売するか新たな仕切直しをしないと
普及を見込むのは難しそうにょ。

367御茶目菜子:2010/09/12(日) 14:00:02
スマートフォンの普及にはガラケー化が必須か!?
国内でもいよいよスマートフォン時代が到来しようとしているにょ。
W-ZERO3で国内でも広くの人に知れ渡ったスマートフォンはiPhoneの登場で(PDAやデジタル
ガジェットに今まで興味が無かった)一般人までが購入し、Androidの大躍進によって
ガラケーがスマートフォンに置き換えられるかのような感じさえするけどそんなに簡単に
いくものではないにょ。
それは、私の主観で考えれば下記のような3つの問題があるからにょ。

 (1)電話機としての使い勝手
 (2)キャリア独自サービス
 (3)ガラケー独自進化

(1)電話機として見るとやはり一般的な形状のケータイの方が形状的に使いやすいという
のは間違いないと思うけどこれは筐体サイズがそんなに大きく無ければ致命的という
ものではないにょ。
ガラケーは折りたたみ式のものが多くスマートフォンはフラットな1枚板のものが多い
けれどそれだけしかないというわけでもないしね。
問題となるのは電話がかけやすいかどうかというものだけではなく着信問題もあるにょ。

着信といえば、昔は電話機に内蔵された固定着メロだけだったのが、着メロのダウンロード
機能が追加され、今は着うたがどのケータイでもサポートされているにょ。
着信相手によって着メロ(着うた)を変えるというのもできるし、もちろん着信音の
音量調節もできるし、あと必須といっていいマナーモード(バイブレーションモード)も
ワンタッチでできるにょ。
私はマナーモードのオン、オフを多用しているためこのマナーモード設定がハードウェア
ボタンで行える一般的なガラケーは非常に便利に感じるにょ。

あと着信があったことをイルミネーションで伝えるというのもガラケーでは当然の機能と
して備わっているにょ。
もっともスマートフォンでも画面を見ればそんなことは一目瞭然だけど自分が通信、通話を
しようとするとき以外に画面を見るという機会なんてないにょ。
その点、イルミネーションが光っていれば嫌でも目に入るからね。

(2)キャリア独自サービスの最大のポイントはキャリアメール(docomo.ne.jpなど)だと
思うにょ。
では、スマートフォンでキャリアメールを必要としているのがどの程度いるのかという
とアンケートでは以下のようになっているにょ。

http://k-tai.impress.co.jp/docs/readers/odaibeya/20100910_392672.html
 絶対必要・・・・・・・48.6%
 あってもいい・・・・・29.9%
 要らない・・・・・・・21.5%

キャリアメールが使えないと利用できないモバイルサイトもあるし、メアドの変更自体が
嫌というのがやはり大きな理由になっているにょ。
とはいえ、キャリアは固定ではなく変えることが多いためG-mailなどの方が便利と考える
人もいるもは事実にょ。
G-mailもiPhoneでプッシュ受信が可能になったからね。
http://www.itmedia.co.jp/enterprise/articles/0909/23/news004.html
それに、キャリアメールが必要なモバイルサイトなんてスマートフォンを使用していれば
利用することはないと考える人もいるため絶対必要という人は半数に止まっているわけ
だけどこのようなアンケートに答えるという(平均レベルよりは)コアなユーザーで
あっても絶対必要と答えている人が約半数いるということに注目にょ。
ライトなユーザーであればメアドが変わるとか、使えないサービスが出てくるという
だけで嫌ってしまう人もいるのではないかと思うにょ。
もっともそこまでライトなユーザーだと何が出来て何が出来ないかということさえ
知らないでスマートフォンはカッコイイから(すごそうだから)スマートフォンにすると
いう人もいるかもしれないけどね。

また、キャリア独自サービスといえばコンテンツにょ。
これは開始当初は低機能なi-modeが成功した1つの要因となっていたにょ。
有料コンテンツの請求がキャリア一括で行われるというためユーザーは全く支払いの
手間がかからないからね。
便利なサイトは有料だったけど有料サイトの利用者は多かったにょ。
その決済代行の代金として利用料金の一部がキャリアにも入ってくるためキャリアに
とっては有料コンテンツの利用というのは非常にありがたい話にょ。

フルブラウザ搭載で有料サイトを利用する人は減ったと思われるけどJAVAアプリの
販売や着うた、電子書籍の販売などで大きくコンテンツ売上を伸ばしていったにょ。
従来はパケットが従量制であったことがそういうコンテンツを利用するための足かせ
となっていた(J-PHONEではアプリサイズは最大で256KBあったけど通常契約だとその
アプリを落とすだけでパケット代金が600円以上かかっていた)けれどパケット定額が
どのキャリアでも選択できるようになってからはサイズを気にせず利用する人も
どんどん増えたからね。

スマートフォンで一番売れている機種であるiPhoneはiTunes storeからアプリなどの
コンテンツはダウンロードできるけどこれはキャリアは無関係となっているにょ。
iPhoneだけではなくスマートフォンはネイティブアプリが動作するためにそのOSに
適用するアプリであれば自由に使えるというメリットがあるにょ。(とはいえ、iPhoneに
関しては脱獄しない限りはアップル社が認証したアプリ以外を使うことはできないけど)
それがお手軽さを逆に無くしているにょ。(iPhoneの場合は融通が利かないデメリットは
あるけどアプリが一カ所に集結しているし、決済もプリペイドカードで行えるため
有料アプリの利用しやすさは上かもしれない)

このようなキャリア独自サービスをスマートフォン上で行うためにドコモは7月16日にも
書いたように今月よりspモードを開始したにょ。
要するにスマートフォンでキャリアメールが使え、スマートフォン用のコンテンツの
決済ができるサービスだけどこれによってスマートフォンを利用する上での問題点が
かなり緩和されたにょ。
問題が多かった着信面に関しても先日のアップデートで大幅改善されたしね。
http://plusd.itmedia.co.jp/mobile/articles/1009/10/news099.html

このspモードの影響からかドコモのXperiaが先週の売上ではiPhone4(16GB)を抜き2位に
なったにょ。
http://plusd.itmedia.co.jp/mobile/articles/1009/10/news078.html
何せ発売以来iPhone4(32GB)、iPhone4(16GB)のワンツーフィニッシュ状態が続いて
いたからね。

(3)ガラケーといえば日本独自進化をする上で出来たものだけど人によってはこれは
海外メーカーの参入を拒んでいるため「悪」と捉えている場合があるにょ。
2G時代に日本独自のPDC方式を用いた時点で海外メーカーが参入しずらくなったために
そのようにガラケーを捉えている人がいるというだけであってそれがガラケーの本質
ではないにょ。
日本の場合はキャリアが端末メーカーにケータイを作らせているというのが海外と根本的に
異なる点だと思うにょ。

要するにキャリアの収益性が上がるような端末を作ったらガラケーになったということが
いえるにょ。(高価な端末を安価でユーザーに販売するためにインセをだし、そのために
SIMロックがかけられたけどこれにはコンテンツ利用促進効果も含まれている)
したがって、(3)だけがガラケーではなく(2)もガラケーとしては重要なものとなっている
というわけにょ。(ただし、今回は端末機能とキャリアサービスは分けることによって
分かりやすくするため(2)、(3)は分離した)

海外ではショートメールしか利用できないような時代に日本ではi-modeで簡易的とはいえ
Webブラウザを搭載し、すべてのケータイでインターネット機能(Web閲覧とEメールの
使用)が可能になったにょ。
海外では低機能な端末と高性能なスマートフォンに二極化してくことになったけど
日本では上下差はあるもののすべての端末が独自の高性能化を進めていったにょ。
その際に出来たのが上記のキャリア決済代行によるコンテンツにょ。
これらによって日本ではケータイによるWebの利用や有料コンテンツ利用のハードルは
かなり低くなったにょ。(ハードルが低くなったことにより小中学生の利用において
問題も多く発生しているけどこれはまた別の問題)

あと日本独自進化部分といえば、おサイフケータイやワンセグなどが挙げられるにょ。
これはメアド以上に必要・不必要がはっきりでるため人によって大きく意見が分かれる
部分だと思うにょ。
必要な人は絶対に必要、要らない人には不要となると思うにょ。
私はワンセグは週に数回使っているため無いとさすがに不便に感じるにょ。
ワンセグ機能の端末はケータイとは別に持っているし、PC向けのワンセグチューナーは
あるけどケータイは常に手元にあるというのが最大のメリットだからね。

要するにガラケーというのは幕の内弁当的な進化ということができるにょ。
「幕の内弁当のおかずは自由に選べないから駄目」というならば自分で弁当を作る
しかないにょ。
それがスマートフォンだと思うにょ。
自分好みにできる反面どうしてもハードルが高くなってしまうし、必ずしもおいしい
ものになるわけではないからね。

幕の内弁当があるからこそ自作のメリットやデメリットが分かるのと同じくガラケーが
あるからこそスマートフォンのメリットやデメリットが分かってきているということは
言えると思うにょ。
結局のところ幕の内弁当が多くの日本人に合うように作っているようにガラケーも
多くの日本人に合うように作られているにょ。
これがガラケーの独自進化部分であり、ガラケーのガラケーたる所以だと思うにょ。
したがって、ガラケーの独自進化を否定するということは日本人好みにするという部分
まで否定することになりかねないにょ。

スマートフォンは確かに今後は今よりも売れるのは確実であり携帯契約者数に占める
割合は増えていくと予想できるにょ。
しかし、それは今のままだと一定ラインでストップすることになるにょ。
やはり、スマートフォンに対する不満を抱いている人は少なくないからね。(上記の
アンケートでも半数の人がキャリアメールが使えることが必要と答えている)
2台目用としてみれば現状のスマートフォンでも特に不満はないけどそれは1台目に
ガラケーを使っているという2台持ちをした場合に限られるにょ。
さすがにそこまでコストをかけてスマートフォンを使用する人は多くはいないと思うにょ。

スマートフォンが今後大きく普及するためには1つはガラケー的な日本人好みに合わせた
進化することであり、もう1つはネット環境がPC、ケータイの区別が無くなることにょ。
前者は国内メーカー発案のスマートフォンが増えることで改善されていくだろうけど
後者を改善することは容易ではないにょ。
日本ではガラケーによるネット接続者が多いため企業側もPC向け、ケータイ向けの
サイトを両方作っているのをやめるなんてなかなかできないし、個人ではPCメールは
着信拒否しているような人も少なくないにょ。
スマートフォンのガラケー的な進化が進まない限りは日本でスマートフォンが当たり前の
時代は訪れないと思われるにょ。

368御茶目菜子:2010/09/13(月) 13:14:20
「フリーの法則」が通用しなくなった無料ホームページサービス
すでに知っている人も多いことかもしれないけど楽天が運営する無料ホームページ用の
レンタルサーバであるinfoseek iswebが10月31日をもって終了するにょ。
http://plaza.rakuten.co.jp/usersupport/diary/201008250000/
無料ホームページ用のサービスといえば草分け的存在となったGeocitiesは米国では
昨年にサービスを終了したにょ。(日本では終了はまだアナウンスされていない)

95年に登場したWindows95は標準でインターネットに必要なTCP/IPプロコトルを選択でき
Webブラウザソフトを導入するだけで簡単にインターネット接続ができるようになり
インターネットの世界を身近にしたにょ。
Win98では標準でWebブラウザソフトであるIE4.0が組み込まれているためさらにその
ハードルが低くなったにょ。
これによって90年代後半はインターネットは個人が全世界に向けて情報発信できるもの
として多くの注目を集め個人サイトがどんどん作られていったにょ。

その個人サイトを作る上で必要になるのが設置するサーバにょ。
プロバイダから与えられている容量は限られているし、家族共用で使用しているPCや
プロバイダであればプロバイダ提供のもの以外で使いたいという人が大勢いたために
それに応えるためホームページ用のレンタルサーバ提供サービスを行う企業はどんどん
増えていったにょ。

さて、ここで問題なのはどうやってそれを賄うのかということにょ。
企業が奉仕で行うわけがなく利益が望めるから行うわけだからね。
多くのWeb上の無料サービスは広告収入によって賄われているにょ。
あと最小限の機能を持つ無料サービスに加えてリッチな有料サービスを用意し、無料
サービスを利用しているユーザーを有料サービスに引き入れることで収益アップを
図っているにょ。
これは「フリーの法則」とも呼ばれているにょ。
無料ユーザーが95%であっても5%の有料ユーザーから収益を上げれば全体として
ビジネスとして成立するというものにょ。

このフリーの法則でいえば、まずは無料で「誰もが利用してみたい」と思えるような
サービス展開をし、さらにそのうちの5%が有料でもより便利に使いたいと思えるように
しなくてはならないということにょ。(これが5%ではなく20%や30%になるとその
無料サービスが魅力的ではないということが言えてしまう)
最近ではこのフリーの法則で成功したものといえばニコニコ動画が挙げられるにょ。
コストばかりかかって収益を上げるのが難しい動画配信サイトだけど2010年第2四半期に
四半期ベースとしては初の黒字化を達成したからね。
http://internet.watch.impress.co.jp/docs/news/20100514_367041.html
4月現在の全会員数1670万人に対して有料会員は77.2万人となっておりその割合は4.6%で
「5%」というフリーの法則の理想にかなり近いものとなっているにょ。(これで黒字化
できないのならば有料会員の料金設定そのものに問題があるといるかもしれない)

では、なぜiswebがサービス終了を行うことになったのか・・・。
それには2つの理由が考えられるにょ。

 (1)広告収入が減り無料サービスを維持できなくなった
 (2)有料会員が減り、無料サービスの分を維持できなくなった。

この辺の数字は発表されてないたいえ推測に止まるけど広告収入は時代の流れで減少して
いるのに加えてiswebではCGIが使えるためアップローダなどで活用されるケースも多く
無料サービスからの広告収入はほとんど得ることができないということが原因ではないか
と思われるにょ。(CGIが使えることで負荷が高くなりより多くのコストがかかって
しまうため無料を維持するには有料サービスからの収益に頼るしかなくなっている)
有料サービスの方を見てみると今となってはギガバイト単位でのレンタルサーバが格安に
なっている今、本格的にサイト運営しようという人にとっては物足りないものになって
いるのではないかと思われるにょ。(フリーの法則でいう5%を大きく下回っているのでは
ないかと予想できる)

確かに90年代は情報発信をするならば「個人サイトを作る」ということがベストな選択肢
だったけど今は情報発信をするだけならばサイトをわざわざ作る必要はないにょ。
mixiのようなSNSやブログを利用すればサイト制作に必要なHTMLなんて覚える必要もない
(もしくはホームページ作成ソフトを使う必要もない)わけだし、さらにお手軽な情報
発信手段としてはtwitterのようなものまであるからね。
つまり、ライトユーザーが無料ホームページ用のサーバを利用する機会が激減したし
コアユーザーは有料サービスを利用するならばより便利で応用性の高いレンタルサーバを
活用するか、自前でWebサーバを用意すると思われるにょ。

それを考えると今回のiswebの終了はただこれが終了したというだけではなく無料サービス
全体に関わってくる問題になってくると言えそうにょ。
かつては、プロバイダ提供のサービスだとプロバイダを変えた時点でサイト移転しなく
てはならないから無料サービスを活用するのがベストと思われていたけどその無料サービス
というのがどれも終了の危機に瀕している可能性があるといえる時代になってきている
ということにょ。

「おちゃめくらぶ」は現在プロバイダ提供の場所を活用しているけどここが10MBという
今となっては信じられないような狭さだから何度も移転を検討したけど今回の件を元に
考えると移転をしても無料サービスならばいつ無くなるか分からないという問題が浮上
してきたにょ。
もっとも企業が倒産なんて考えれば有料サービス利用だろうと同じことだといえるわけ
だけど今回のiswebの対応を見ても真っ先に切られるのが無料サービスの方だからね。
時代の流れ(他のサービスの登場)や広告収入の減少化というのもあるけど無料ホーム
ページサービスというものに関して言えばフリーの法則が通用しなくなってきているのが
今回の件においては最大の理由だと思われるにょ。

369御茶目菜子:2010/09/14(火) 13:30:31
デュアルコアでも高価になるなら意味がない
先日Intelより発表されたネットブック用のデュアルコアAtom(Atom N550)だけど早くも
国内メーカーから搭載機種が登場したにょ。
N550を搭載しているのはNECから登場の「LaVie Light BL550/CS」であり、その下位機種
となる「BL350/CW」にはシングルコアのAtom N475が搭載されているにょ。
http://pc.watch.impress.co.jp/docs/news/20100913_392962.html

肝心の価格はというとオープンプライスながら実売予定は約8.5万円となっているにょ。
量販店ではこれより幾分安くなるとはいえこの価格はネットブックとしては驚異的に
高価といえるにょ。
それもそのはず、OSがULCPC用の7StarterではなくHome Premiumが採用されていることで
1万円程度は高価になっているわけだし、MS Officeの製品版(2年版ではなく永続使用
可能な製品)が搭載されていることで2万円程度高価になっているからにょ。
それらが無ければ5.5万円程度の価格は実現できるにょ。
基本スペックだけを見ても一般のネットブックよりも多いメモリ2GB(ULCPCの上限は1GB)、
HDD320GB(ULCPCの上限は250GB)に加えてモニタがWSVGAではなくWXGAであるためその
プレミアム性を価格に反映しているならば納得が出来るレベルの価格といえるにょ。

では、肝心のAtom N550の性能を見てみるにょ。
http://pc.watch.impress.co.jp/docs/column/hothot/20100914_393530.html
Atom Nは元々HTT搭載によって2スレッド同時に動作可能であるためデュアルコア化で何と
4スレッド同時に動作可能になるにょ。
そのタスクマネージャでもCPU使用率を示すグラフは4つ表示されるにょ。
http://pc.watch.impress.co.jp/img/pcw/docs/393/530/html/02.jpg.html
別に大したことではないけどクアッド気分を味わえるのは悪くないにょ。

問題はデュアルコアで性能がどの程度上がるかということだけどデュアルコアCPUという
ものはここで何度も書いたように「性能アップのため」ではなく「遅くなりにくくなる」
というのが主要なメリットとなるにょ。
昨今はマルチスレッド対応アプリが増えたためそのようなアプリでは性能向上に貢献
できるもののそうではない(マルチスレッド非対応アプリ)も未だに多く存在するわけ
だからね。
そういう場合でもWindowsがマルチタスクOSである以上は複数のアプリを同時に使用する
機会はいくらでもあるわけだからそういう場合にはデュアルコアCPUが有用になってくる
というわけでベンチ結果が必ずしも快適性を表しているわけではない・・・けれど
やはり気になるので見てみるにょ。

          LaVie Light BL550/C Eee PC T101MT
          Atom N550 (1.50GHz) Atom N450 (1.66GHz)
          Win7 Home Premium   Win7 Home Premium
 ◎PCMark05
   PCMark Score     1767         1617
   CPU Score       1665         1420
   Memory Score     2174         2419
   Graphics Score     542         528
   HDD Score       3630         4933
 ◎FINAL FANTASY XI Bench 3
   LOW          1074         1250
 ◎Windowsエクスペリエンスインデックス
   プロセッサ       3.1         2.3
   メモリ         4.7         4.4
   グラフィックス     2.9         3.1
   ゲーム用グラフィックス 3.0         3.0
   プライマリHDD     5.4         5.7

では、まずPCMark05のCPUスコアを見てみるにょ。
N550を搭載したLaVieはN450を搭載したEee PCと比べてCPUクロックは10%劣っているにも
関わらずベンチスコアは17%上回っているにょ。
これはクロック当たりでいえば30%もの性能差となっているにょ。
これはPCMark05に用いられているテスト内容がマルチスレッドに対応しているためだと
想定されるにょ。(エクスペリエンスインデックスのCPUスコアはさらに大きな差に
なっているけどこちらはただの単純演算を元にしたものであるためHDBenchなどと同じ
ようにコア数増加が如実に表れているため)
つまり、一般的なマルチスレッド対応アプリではN550はN450と比べて10〜20%高速に
動作するといえそうにょ。

では、マルチスレッド非対応アプリではどうなのかというとFF XIベンチを見れば予想が
つくにょ。
FF XIベンチはゲームベンチだけどある程度のGPUを搭載していればCPUのシングルスレッド
性能でスコアが左右されるからね。
ベンチスコアはN550が1074なのに対してN450は1250であり14%劣っているにょ。
CPUクロック差が10%なのに14%劣っているのは同じGPUとはいえドライバのバージョンの
違いや常駐アプリの差もあるし、FFベンチの場合は測定誤差も2、3%程度あるというのが
影響しているにょ。
だから、シングルスレッド性能はその動作クロックに応じたレベルしかないと思って
いれば問題ないにょ。

ちなみにFFベンチを比較する場合には7、Vista(NT6系)よりもXP(NT5系)の方が
スコアが大きくなる傾向があるため単純比較はできないにょ。(上記の比較は両者とも
Win7だったから問題なく比較可能)
レビューに記載されているもう1機種(Eee PC 1005HA)を見てみると1世代古いAtom N280、
945GSEにも関わらずXPであるためFFベンチは1537となっているにょ。
CPUコアはN280とN450は同等とはいえ、GPU性能は945GSE(GMA950)<GMA 3150であるため
何ともいえないけどこのスコアではGPUがボトルネックになっているわけではない(GMA950
より低い性能であるGMA900搭載のPenM1.2GHzのノートPCでもFFベンチは2000を超える)と
いうことでこの差はOSによるものといえるにょ。

N550のCPU性能を見るのが今回の目的だったけどとりあえず他の項目も見てみるにょ。
GPU性能はN450とN550は同等であるため唯一の違いとなるとやはりメモリにょ。
N550はN455、N475と同じくDDR3に対応しているからね。
メモリ性能を見てみるとPCMark05ではDDR3(PC3-8500)を搭載したN550の方がDDR2(PC2-
5300)よりもスコアで劣っているにょ。
これはたまたまPCMarkではこうなったというだけであってエクスペリエンスインデックス
の方を見てみると順当にN550の方が上になっているにょ。

この辺はDDR3の方が順次読み出しでは速くなっていてもレイテンシが大きくなっている
ためベンチによってDDR2よりもスコアで劣ることは十分考えられるため1つのテスト
だけで優劣は判断できないということにょ。
もっとも、このクラスのCPU性能においてはこのメモリの差が影響することはほとんど
ないけどね。
ネットブックがDDR3に対応したのは高性能化が目的ではなくDDR3の供給量が増えたため
安価に入手可能になったので対応したというだけの話にょ。

今回はデュアルコアAtomであるN550の性能を見てきたけどやはり4月23日に書いた予想
そのまんまだったにょ。(コアが同じでシングルコアからデュアルコアになるだけだから
誰でもあのような予想になるだろうけど)
PCMark05のCPUスコアを見てのようにマルチスレッド対応アプリであればクロック当たりの
性能はシングルコアAtomの3割り増しの性能とはいえクロックは低めの1.5GHzであるため
Atom 1.95GHz相当の性能でしかないにょ。
シングルコアAtomでは厳しいWebブラウザ上でのYouTube720pの動画再生はデュアルコアの
Atom N550ならば・・・と期待している人もいるだろうけど1.83GHzのN475でも厳しい
ものが(マルチスレッド対応ということを考慮して)1.95GHz相当のN550で再生できる
ようになるかというと難しいのではないかと思われるにょ。

結局のところN550はN450に対しては性能の優位性はあるけどN475に対してはほとんど
優位性はないと思われるにょ。
それは、N550が得意とするマルチスレッド対応アプリでも1割差にも満たないレベルの
小さな速度差(ほとんど互角のレベル)であるためほとんど体感できないからね。
逆にシングルスレッド性能で2割劣るN550はマルチスレッド非対応のゲームなどではN475
と比べて体感できるほどの遅さになると思われるにょ。
つまり、「アプリの動作が高速になる」という理由でN550搭載機を選ぶのは正しくないと
いうことがいえるにょ。(N475相手ならN550の方が遅くなることの方が多いと思われる)

とはいえ、最初に書いたようにデュアルコアCPUいうのは「遅くなりにくい」というのが
最大のメリットといえるにょ。
アプリの実行速度が問題ではなく複数のアプリを同時に使用時の体感速度に問題がある
というのであればデュアルコアは非常に有用といえるにょ。
この辺は使用方法にもよるためどっちが優れているかということは言いにくいけどそう
いった体感に関しては数値では表せないため実際に使ってみるしか方法はないにょ。

そういうことでN550はN475搭載機とあまり価格差がないのであれば十分に選択する価値は
あると思うにょ。
そういう面で考えるとLaVie Light BL550/Cは微妙にょ。
高価になる要素がたくさんあるためそれらを考慮していけば一概に高価とはいえないものの
ネットブックは「安いこと」が最大のメリットだからね。
付加価値によって高価になったネットブックはそのメリットを失うことになるにょ。
それらが必要不可欠なものであるならばまだいいけどそうでないならばなおさらにょ。

そもそもネットブックは安価にできた理由はOSが安価ということがあるにょ。
MSのULCPCの基準を超えないようにすることで安価なULCPC向けのWindowsの提供を受ける
ことができたからね。
安価な部品の寄せ集めであるネットブックにおいて最も高価であったWindowsが安価に
なるということは非常に大きくそれが価格に大きな影響をもたらしたにょ。
このことから、Intelはネットブック用のデュアルコアAtomはいつでも出荷できる状態に
あったにも関わらず最近になってようやく出荷を始めた理由として8月26日に書いたように
従来はULCPC用として認められなかったデュアルコアもAtomに関しては認められるように
なったのではないかと予想したにょ。

しかし、今回のBL550/Cを始めすでに発表されている他のメーカーの機種は軒並みULCPC用
となるStarterではなくHome Premiumを採用しているにょ。
そのために価格の高騰が起きているにょ。(Starter採用ならばOSの価格差だけを考えて
みても1万円程度安くできる)
この辺はMSからULCPCの基準緩和がされてないためなのか、メーカー側がネットブック
とはいえ上位モデルを安く売りたくないためHome Premiumを採用しているかは判断に
苦しむけど恐らく前者の方が正解ではないかと思われるにょ。
もちろん、ネットブックを2モデル以上ラインナップしているメーカーであれば後者の
ニュアンスも含まれていると思うにょ。

確かにデュアルコア化によってシングルコアモデルよりも高付加価値を付けて売り出す
というのは間違いではないけどそうなるとさらに上位となるCULVノートとの価格差も
失われることになるにょ。
ネットブックとCULVノートとの価格差はCPUの価格差3000円程度の差(CULV用の最下位
モデルとの差)しかなくなるからね。
もっともこれは部品コストの話だから売価ではその2倍程度にはなるだろうけどそれでも
性能差はそれよりも大きいからね。
セレロンSU2300であってもYouTube720pをWebブラウザ上でコマ落ちなく再生できる程度の
CPU性能はあるし、GS45に内蔵されている再生支援機能を用いることで1080pの再生も
可能になるにょ。

ネットブックであっても一旦ローカルに保存した後で軽量なプレイヤーで再生するならば
720pの動画は十分再生できるけどネットブック用Atomでは最も性能が低いN270(1.6GHzの
シングルコア)であっても720pは十分再生できるため「ローカルに保存したファイルを
再生するからN550で十分でCULVの性能は不要」というのであれば「N270でも十分」という
ことも同時に言えてしまうにょ。(実際はN270とSU2300はCPU性能だけを見ても2〜2.5倍
程度の差があるけどそのような理由によってN270とSU2300の有為的な差はないと主張する
人は実際に存在する)
それならばN550ではなく中古のN270搭載機を買うのが一番だし、中古が嫌というので
あれば新品で安価なN450搭載機を買うのが一番となるにょ。
要するにAtom N550搭載機において現状で価格に似合った(CPUだけではなく)処理性能が
あるかと聞かれたらないということにょ。

高性能もしくは高コストパフォーマンスは求めないけど適度に安価で快適に使いたいし、
持ち運びたいから一般的なCULVノートのサイズは論外で普通のネットブックサイズが良い
という人にはAtom N550搭載ネットブックは最適といえるけどそれらの条件を満たせない人に
とってはかなり微妙な存在であることがいえるにょ。
N550はクロックが低い分だけN475よりアプリの動作速度は期待できないけど(数値には
現れない)体感では上回るというだけの話でありCULVノートであればそれと比較して
明らかに高速動作かつ快適動作が可能ということを考えればあえてN550を選ぶという
メリットは極めて小さいと思われるにょ。

確かに一般的なネットブックとCULVノートとのサイズ差、重量差は小さいものではない
とはいえ、ネットブックは持ち歩き用ではなく家庭内モバイルがメインとなっている
現状においてはそのサイズ差はそれほど目立ったものではないにょ。
4月18日に書いたようにネットブックを所有している人のうち持ち歩いている人は5%程度
しかいないからね。
これはアンケート結果が古いということもあり、iPad登場などによってさらに減っている
と推測されるにょ。
その中で、ネットブックのサイズであれば持ち歩けるけどCULVノートのサイズになると
持ち歩けないという人はごくわずかだと思われるにょ。
全体からすると1%いるかいないかといレベルではないかと思うにょ。
しかし、価格はすべてのユーザーに影響してくるにょ。
したがって、「安さ」という最大の武器を捨てたネットブックには存在意義をあまり
感じることはできないにょ。

370御茶目菜子:2010/09/15(水) 13:27:31
Sandy Bridgeが出るのを待つのがベターなのか・・・?
Intelが次世代CPU「Sandy Bridge(開発コード名)」の詳細を明らかにしたにょ。
http://pc.watch.impress.co.jp/docs/news/event/20100914_393660.html
登場は来年1月初頭の見込みにょ。

Sandy Bridgeの主なポイントを挙げると下記の2つになるにょ。

 (1)GPUダイをCPUダイと統合することによる高性能化&省電力化
 (2)AVX命令を搭載

(1)GPU統合なんて別にめずらしいことではないと思っている人は多そうにょ。
ARMだと際限なく存在するのでx86CPUという条件を加えても97年に登場のMediaGX以来
多数あるわけだからね。
さらにIntelという条件を加えると今年の初頭に登場したPineView以来ということで
これでも「初」というわけではないにょ。
とはいえ、どれも低価格化や低TDPを狙いとしたローエンドや組み込み向けのx86CPU
であり、メインストリームとなるCPUではなかったにょ。(Atomは数量こそ出荷されて
いるもののローエンド以下の市場でしかない)
そういうわけでSandy BridgeはPCのメインストリーム向けCPUとしては初のGPU統合と
なるわけにょ。

現行のClarkdale(Arrandale)もメインストリームCPUも同一パッケージ内にGPUダイを
内蔵したとはいえやはり別ダイということが消費電力的にも性能的にも足かせになって
いるにょ。
メモリアクセスにおいてはメモコンをCPUコアに内蔵したCore i7(Bloomfield)は確かに
Core2と比べて性能向上に貢献したけどそれが32nm世代のClarkdale(Arrandale)では
再びCPUコアから分離したため性能面のアドバンテージは薄れることになったにょ。
しかし、Sandy Bridgeでは再びCPUコアと同一ダイに搭載されることになり性能アップに
貢献できるようになるにょ。

メモリレイテンシが短くなるというだけではなく従来はノースブリッジはCPUと比べると
1〜2世代遅れた製造プロセスで作られていた(ArrandaleもCPUは32nmなのに対して
ノースブリッジは45nm)けれどそれが同一世代になるということにょ。
つまり、1〜2世代分一気に進むわけだけどそれによって得られるものは省電力化もしくは
高性能化にょ。
1世代分進むと単純計算で搭載可能なトランジスタ数は倍増するにょ。

CPUの場合はトランジスタ数を増加させても性能向上はその平方根分でしかないという
ポラックの法則が影響するにょ。(トランジスタ数が4倍になっても性能は2倍にしか
ならない)
ポラックの法則は経験則なのだけどこれはCPUの命令の並列性がそこまで高くない(命令の
同時発行数や演算機を倍増しても性能が倍増するわけではない)というのが原因となって
いるにょ。
それに対してGPUは並列性が高くSP数に割くトランジスタ数が倍増する(要するに同一
アーキテクチャならばSP数が単純に2倍になる)ならば性能はほぼ2倍になるにょ。
したがって、製造プロセスの進化はGPU性能に如実に影響してくるにょ。

ここで出てくるのがムーアの法則にょ。
これも同じく経験則が元になっているけどIntelの場合はほぼ2年で1世代CPUの製造
プロセスを進めているにょ。(つまり、ダイサイズが同じであれば2年ごとに倍増して
行く計算になる)
CPUに関しては最新の製造プロセスを使用していたけどチップセットに関しては旧世代の
製造プロセスを使用していた関係上ここ最近だけを見ると1年ごとに1世代の性能アップに
なっているにょ。
http://pc.watch.impress.co.jp/img/pcw/docs/393/660/html/09.jpg.html
これは年々倍々ゲームでGPU性能が上がっていることを意味するにょ。

それで、CPUに内蔵されるSandy BridgeではついにCPUと同じ製造プロセスを使用する
ことになるわけだけどSandy Bridgeでは前年の2倍ではなく4倍の性能アップになる
(2006年比で10倍ではなく25倍)ということを上記のグラフではアピールしているにょ。
実際にそんなことができるのかということが問題になるわけだけどCPUと同一ダイに
GPUあることで高速なCPUキャッシュをGPUが使用できるということがやはり性能アップに
貢献している模様にょ。

そもそも統合型チップセットのGPUというのは世代的には完全に遅れたものが搭載されて
おり、865G(855GM)に内蔵されているIEG2はDirectXの機能的には6〜7の世代に相当
するわけだけど登場時にはすでにDirectX9が主流になりつつあったにょ。
しかし、その後継である915G(915GM)に内蔵のGMA900でそれは変わったにょ。
バーテックスシェーダこそCPUによるエミュレーションだけどピクセルシェーダは
ハードウェアとして搭載しておりDirectX9世代のGPUになっているからね。
それ以降の性能アップは上記のグラフを見ての通りにょ。

どれも登場時のローエンドにも劣るとはいえ、最新のゲームでも軽いものならば十分に
プレイ可能なレベルであり統合型チップセットのGPUは「それなりに使えるレベル」に
なったにょ。(ただし、IntelのGPUの場合はCPUによるエミュレーション部分が多いため
性能を発揮するためにはそれなりのCPU性能も必要になる)
十分に高速なCPUを搭載していればClarkdale(Arrandale)に内蔵のGPUであるIntel HD
Graphicsは2005年頃の単体ミドルクラスGPUであるRADEON X700(Mobility X700)に近い
性能を発揮するにょ。
X700はSM2.0世代であるためSM4.0世代であるIntel HD Graphicsの方が有利に働く場面
さえあると思われるにょ。

そこからさらに4倍の性能となるSandy Bridgeに内蔵のGPUは相当の高性能になりそうにょ。
最新の単体ローエンドGPUをも超える性能になるかもしれないにょ。(もっともこれは
ピーク性能だろうから実効性能で単体ローエンドGPUを超えるものになるとは思えない)
GPUに力を入れるのはGPUがゲームに使用されるだけではなくIE9でもレンダリングを行う際に
GPUが使用されるようにGPUが重要になる場面が今後は多くなるためにょ。
http://plusd.itmedia.co.jp/pcuser/articles/1003/18/news048.html

AMDもLlano(開発コード名)でGPUダイをCPUダイに統合する予定になっているにょ。
このLlanoは現在はまだ詳細は明らかになってないけどSP数は400〜480に達するという
見方もあり、もしもこれが実現されるのであれば現行のミドルロークラス(RADEON HD5570
クラス)の性能に達し、単体ローエンドGPUを超える性能になるにょ。
重量級ゲームをプレイしないのであればもはや単体GPUは不要になってくるにょ。

(2)このAVX命令こそSandy Bridgeの目玉となる新機能にょ。
Pen3に搭載されたSSEは当初は対応ソフトがないと効果が発揮できず、Pen3は同一クロックの
PenIIと比べて大きな優位性を発揮できなかったわけだけど徐々にSSE対応のアプリが
増えていくことでその考えは一変したにょ。
SSEは新設された128ビットレジスタを使い32ビット演算(単精度浮動小数点演算)で
あれば一度に4つ計算可能になるためCPUに内蔵されたFPUを大きく超える演算性能を
発揮できるようになったにょ。
SSEはPen4/PenMに内蔵されたSSE2で新命令が追加され、SSE3、SSE4と今日に至っている
わけだけどそれがSandy Bridgeでは256ビットのAVXが搭載されるにょ。
これはPen3に搭載されたSSE以来の大きな改革といえるにょ。

SSEと同じくそれを活用することで飛躍的な性能向上が期待できるにょ。
最も有用なのはエンコ用途にょ。
HD動画のエンコは6コア12スレッドのCore i7のフラッグシップモデルであってもまだ
十分といえるレベルには達してないからね。
これはGPGPUで徐々に改善されつつあるとはいえ、まだGPGPUは十分に活用できてない
ためCPUに頼る必要があるにょ。
http://pc.watch.impress.co.jp/docs/news/event/20100915_393755.html
このリンク先にSandy Bridgeと現行のCore i7/i5/i3などとの比較動画があるのでAVXを
使用時の高速性についてはそれを参考にするといいにょ。

現行のClarkdale(Arrandale)より省電力&高性能化がされるということがこれで分かる
と思うけど問題は価格やラインナップにょ。
とはいえ、価格帯においては9月1日に書いたようにIntelの場合はある程度固定化されて
いるためほぼ現行よりワンランク上の製品が同一価格で買えるのではないかと予想
できるにょ。
現在の予想ではこのようなラインナップとなっているにょ。
http://pc.watch.impress.co.jp/docs/column/ubiq/20100915_393886.html
相変わらず、SKUが複雑でCore i7/i5/i3の明確な違いというのが分からないというのが
最大の難点かも・・・。

さて、私は自作PCに関して言えば2年少々前に組んだCore2Duo E8400(3GHz)で特に不満を
感じてないのでSandy Bridgeで組むことは無さそうにょ。
とはいえ、今から組もうと考えている人で一回組んだらある程度長期間(3年以上)組み
直すことがないという人であれば今は「Sandy Bridge待ち」の方がいいかもしれないにょ。
「自作PCだからCPUだけ交換すればよい」という考えもありそうだけどSandy Bridgeでは
ソケットが変わるため今組んだら「CPUを変える=マザーボードも変える」という必要が
あるからにょ。(長期間使い続けることでAVX対応アプリが増えその恩恵が出てくる)
もちろん「ハイエンドしか興味がない」とか「自作PCは毎年組み替える」とかいう人で
あれば待つ必要なんて全くないにょ。
欲しい時に組むのが一番にょ。(といっても9月1日に書いたような大幅値段変更があるため
価格を気にする人はこまめにチェックする必要はあるけど)

371御茶目菜子:2010/09/16(木) 13:37:52
上記の続き
(9)記録メディアに関しては「記録媒体そのもの」よりも「容量」と「速度」が重要になって
くるにょ。(もちろんその記録メディアの入手性や価格も重要だけど)
SDカードのみ対応(SDHC非対応)であれば最大2GBということで今時は静止画だけの撮影
といっても十分ではない(RAW+JPEGであれば1カット20MB近くに達するため1枚で100カット
程度しか撮れないため)とはいえ、SDHCに対応していれば静止画であれば全く問題ない
といっても良いと思われるにょ。
動画であれば確かに容量が大きい方がいいのだけど容量の問題ではなく速度の問題で
SDXC対応のメリットがあるにょ。

SDXCは現行規格(UHS-I)でも規格上の最大転送速度は104MB/sに達しているにょ。
SDカードはその規格上SDでもSDHCでも25MB/sが上限(SandiskのExtreamは独自対応で
30MB/sに達したけど専用カードと専用リーダが必須となる)となっているけどRAWで
連写をした場合にはバッファフルとなった後に書き込み待ち時間がかなり長く発生して
しまうにょ。
高画素化が進めば進むほど連写速度が上がれば上がるほどより高速なカードが求められる
けれどSD(SDHC)は規格上満足いくようなものではないためプロ機やハイアマチュア向け
ではSD系のカードは採用されずCFが採用され続けているにょ。
しかし、中級機も画素数が増え、連写速度もかつてのハイアマチュア向けモデルと
同等以上になってきている今となってはSDHCでは力不足にょ。
高速なSDXCカードが安価に手に入るようになればそれ一本に絞られるだろうけど現状では
SDダブルスロットが速度面の要求に応える最善の方法かもしれないにょ。
もっともそこまでやるなら最初からCFにしておけという話もあるだろうけど高速なCF
カードは価格面で非常に手を出しづらいし、コンデジからステップアップする人に
CF採用機はハードルが高いためコンデジと同じSD系がベターだからね。

(10)重量に関しては唯一D7000がD90と比べて負けている部分だけどこれはエンプラボディ
だったのが部分的とはいえマグネシウム合金ボディとなったためやむを得ないにょ。
防塵防滴など重量増の要素がありここまでスペックアップしてなおかつ70gしか重くなって
ないというのは評価できるポイントだと思うにょ。
上位モデルとなるD300sと比べるとこれでも120g軽量となるため差別化は可能だと思うにょ。


さて、以上の10点においてD7000を見てきたけどやはりD90との大きなスペックアップは
非常に魅力となるにょ。
私自身K200D、D50の2台のデジタル一眼を使用しているため次に買うならばD90かK-7の
後継機種と考えていたけどD7000のスペックならば何の不満もないにょ。
D90は底値に近づいているためD7000が発表された今であってもお買い得感があるけど
さすがに古さを感じていている(支払うコスト分だけD50やK200Dより明確なメリットが
あるかと言われたら微妙)からね。
D90ではなくD300sを買えば作りそのものが別物だから十分買う価値はあるとはいえ、
やはり、価格面と重量面がネックだからね。(D300sは重いとはいえ、手にしっくりくる
ボディ、APS-Cの中では最高レベルのファインダー、気持ちのいいシャッター音に
加えてプロ機と遜色ない剛性など今でもその価格に似合うだけの価値はある)

大幅なスペックアップが図られたD7000と比べるとライバルであるキヤノンEOS 60Dと
方向性が逆であることが分かるにょ。
EOS 60DではEOS 50Dでマグネシウム合金ボディだったのを7Dとの差別化を図るため軽量化を
行う際に全面エンプラボディにしてしまったにょ。
これは「差別化」という面ではありだけど従来のD90が入門機やコンデジを卒業した人
向けの入門用中級機(?)だったのにD7000ではそのターゲットがハイアマチュアまで
広がったからね。(D300sの後継となるD400は一体どんなスペックになるのか!?)
逆にEOS 50DはハイアマチュアまでがターゲットとなっていたけどこれはEOS 7D登場で
その座を譲ってしまったのか従来のD90のターゲットと同じような入門用中級機に
格下げされたイメージがあるにょ。

D7000はその噂が出たときにはD5000とD90の間を埋める上位入門機という感じだったため
ボディにはAF駆動用モーターが内蔵されず現在(というかD40以降の)入門機と同じく
モーター非内蔵のレンズはAFで使用できなくなるのではという話になっていたにょ。
ところがどっこい実際に出てきたD7000はD90を完全に凌ぐ仕様だったにょ。
ニコンFマウントは50年の歴史があるためAF用モーター内蔵・非内蔵という前にMFレンズ
対応の問題もあったにょ。
今年の3月13日に書いたようにマウントを維持しながら50年間使い続けていたために
Fマウントは複雑怪奇になり、その互換性のため廉価な入門機では古いレンズとの互換性を
排除しているにょ。

しかし、D7000ではD90で搭載されていたAF駆動用モーターだけではなくD90には搭載されて
いなかったMFレンズ用のAE連動ピンまで搭載したにょ。
D90ではMFレンズは一部のCPU内蔵レンズ(レンズ情報が埋め込まれたチップを搭載した
もの)だけに使用が限られていたけどD7000ではAiニッコールレンズすべてが使用可能に
なったにょ。
これは現行機あればプロ機であるD3系を除くとハイアマチュア向けであり、DX(APS-C)
フラッグシップとなるD300sのみしか搭載されてなかったにょ。
古いレンズとの互換性が切られていく中、逆に古いレンズとの互換性を強化するという
ことは明らかに狙っているユーザー層が変わっているということがこの1点だけ見ても
分かるにょ。(あとダイヤルに「撮影シーン」を示す絵文字が排除されたことからも
入門機ではないということが分かる)

個人的にここまではパーフェクトといってもいい感じだけど問題は価格にょ。
発売時の予価14万円(ボディのみ)となっているからね。
D90の発売当初の価格より約2万円高価となるにょ。
確かに性能を考えれば安いくらいだけどさすがに本体に10万円以上払うのは金銭的に
厳しいため少なくとも私はD7000は10万円を切るまでは買うことがないと思うにょ。
あとはK-rのスペックを見るとK-7の後継となるK-5のスペックも楽しみになってくるため
「K-5とD7000のどっちを買ったらいいんだ!?」という嬉しい悲鳴を上げることになる
かもしれないにょ。

372御茶目菜子:2010/09/16(木) 13:41:18
ついに本命「D7000」登場
ニコンが中級機となるデジタル一眼「D7000」を発表したにょ。
http://dc.watch.impress.co.jp/docs/news/20100915_393756.html
私も待ち望んでいたD90の後継となる機種にょ。
メーカー発表の位置づけからするとD90よりも上でD300sよりも下に位置するけど現在
価格が大きく下がってきているD90はもはや在庫限りとなるためD90はD7000へと取って
代わる時期は遠くないと思われるにょ。

さて、肝心のスペックを見てみると2年前に発売されたD90からだとこのように変化して
いるにょ。

            D90         D7000
 (1)画素数       1230万画素   → 1620万画素
 (2)ISO感度       ISO100〜6400  → ISO100〜25600
 (3)防塵防滴      無し      → あり
 (4)動画機能      720p(MF)   → 1080p(AF)
 (5)ファインダー視野率 96%      → 100%
 (6)AFポイント     11点      → 39点
 (7)最高シャッター速度 1/4000(X 1/200) → 1/8000(X 1/250)
 (8)連写速度      4.5コマ/秒   → 6コマ/秒
 (9)記録メディア    SD/SDHC     → SD/SDHC/SDXC(ダブルスロット)
 (10)重量        620g      → 690g

では、それぞれについて書いていくにょ。

(1)画素数に関してはコンデジにおいては何度も書いているように「高画素=高画質」
ではないにょ。
しかし、これがコンデジよりも1桁大きなセンサーサイズを持つデジタル一眼ならば
まだそれは変わってくるにょ。
画素数を見てのようにコンデジ(1/2.33インチセンサー搭載機)でさえすでに1400万画素に
達しているけどそれよりも13倍くらいのセンサーサイズであるAPS-Cのデジタル一眼が
それとあまり変わらない(1200〜1600万画素)画素数なわけだからね。

とはいえ、レンズ一体型によってすべて専用設計にできるコンデジと汎用性の高い
デジタル一眼ではコンデジの方が有利な面もあるにょ。
したがって、センサーサイズが13倍だから画素数も13倍まではOKという単純なものには
ならないにょ。
それに一眼レフでコンデジと同レベルの高感度性能や等倍鑑賞時の画質では一眼レフを
使う意味もかなり失われているからね。

高感度性能に関してはセンサーと画像処理エンジンの影響が大きいため適正な画素数と
いうものは時代によって変わってくるにょ。
とはいえ、画素数が増えれば配線幅によって実質的なセンサー1画素当たりの大きさ
(つまり搭載可能なマイクロレンズの大きさ)が画素数に反比例したものよりもさらに
小さくなってくるにょ。
特にこれはコンデジにおいては顕著であり、センサーの受光側を配線のある裏側に
設置した裏面照射型センサーが非常に有用になってくるにょ。
コンデジより1桁大きなセンサーを搭載のデジタル一眼の場合はまだそこまで配線幅が
与える影響は大きくないため現在のセンサー性能と画像処理エンジンの性能をもって
すれば「1600万画素は多すぎる」ということはないにょ。

あとは、レンズ性能の影響にょ。
画素数が多くなればなるほど要求されるレンズ性能(解像力)は高くなるにょ。
確かに絞れば実効解像力はアップする(これは実効解像力であり、収差の全くない理想的な
レンズであれば絞れば絞るほど解像力はダウンする)とはいえ、問題は回折限界があると
いうことにょ。
多くのズームレンズレンズはF11程度でピークになるように設計されているにょ。
これは開放F値がF5.6のレンズが主流であり、開放から2段程度絞ることでようやく各種
収差が減りそれが解像力アップに貢献しているというだけの話なのだけど画素数が
増えればこれが厄介になるにょ。

例えば現在APS-Cサイズでは最大画素数となるEOS 7D/60D/Kiss X4の1800万画素で考えると
画素ピッチが4.3μmであるためF8.6で回折限界を迎えるにょ。
そのためF8まででピークが来るようなレンズでないと1800万画素の性能を発揮することが
できないにょ。
当然のことながらレンズセットに付いているキットレンズしか使わないような人であれば
1800万画素はほとんど無意味にょ。
しかし、中級機となると高性能な単焦点レンズを使用する人も増えるだろうから必ず
しも画素数が多いから駄目と言えるものでもないにょ。
それでも「気兼ねなくF8で使える」ということを考えるとやはり1800万画素あたりが
APS-Cの限界になると思われるにょ。

(2)設定可能感度から高感度性能は分からないにょ。
D90も発表された当時は非常に高感度性能に優れた機種だったとはいえさすがにこの業界で
2年前といえば完全に過去の機種にょ。
確かにまだ第一線で活躍できる性能(高感度性能)を持っているとはいえ、高い性能が
あると言われていたのがボーダーライン上にあるというレベルまで下がってきているのは
否めない事実だと思うにょ。

この2年間でセンサー性能と画像処理エンジン性能は大きく改善されたにょ。
その結果がEOS Kiss X4で1800万画素という画素数にも関わらず高感度性能はAPS-Cの中で
トップレベルになったわけだしね。
D7000に搭載されているセンサーの詳細は不明だけど恐らくソニー製のセンサーだろうから
α55と共通(もしくはニコン用にチューニングされたもの)だと推測されるにょ。
すでにα55の撮影サンプルは各所で公開されているし、国内大手サイトでレビュー記事が
掲載されたらここでも採り上げようと思っているけど高感度性能に関してはX4に負けて
いないにょ。

ニコンの画像処理エンジン次第ではX4以上のものになるかもしれないにょ。
ISO25600はあくまで非常用だろうけどISO3200までなら常用(A4で問題なく使えるレベル)
であり、ISO6400でも人によっては十分使えるのではないかと思われるにょ。
D90の場合は常用可能だったのがISO1600まででISO3200ではやや厳しくなり、ISO6400では
カラーノイズが盛大に出るのでL版や2L版でないと厳しいレベルになっていたからそれと
比べると確実に1段分以上は向上しているのではないかと推測されるにょ。

(3)防塵防滴は人によって必要・不要があるだろうけどやはり中級機であるならば必要
ではないかと思われるにょ。
入門機であればコストの方が優先されるし、「防塵防滴機能があるからこれくらいならば
大丈夫」という判断はある程度の経験がないと難しいからね。(防水ではないため
完全に水没してしまったらアウトになる)
私が使っているK200Dは入門機としては極めて珍しい防塵防滴機能を搭載にょ。

とはいえ、防塵防滴機能は本体にだけあっても意味がないにょ。
レンズの方にもないと結局は雨の日は別途対策を行う必要があるからね。
そうなると本体だけではなくレンズの方にも防塵防滴機能を搭載する必要があるのだけど
ニコンの場合はまだまだレンズ側の対応の方が不十分にょ。
この点ではペンタックスやオリンパスの方が上だと思われるにょ。

(4)世界初の動画撮影機能が搭載されたD90だったけどさすがに事実上フルマニュアルで
撮影することになるためとても素人が手を出せる代物ではなかったにょ。
しかし、8月20日に書いたようにHD動画に対応した入門機であるD3100が登場し、今と
なっては動画でAF、AEが当たり前のように使えるようになりおまけ程度の動画から完全に
脱却しつつあるにょ。
動画を快適に撮影するならばフルタイムAFに対応したα55の方が確実に有利だろうけど
D7000も「素人お断り」と言わんばかりのD90よりは圧倒的に使いやすいものになっている
と思われるにょ。
他社が動画機能に力を入れているのに「ウチ(ニコン)はやりません」というのは
なかなかできないので「動画なんて要らないから安くしてくれ」というのも難しいかも
しれないにょ。(H.264エンコードチップなんて今は格安になっているので動画機能を
外したところで価格は1000円単位でしか変わらないと思う)

(5)中級機の証といえばペンタプリズムファインダーにょ。
入門機に採用されておりピントの山が掴みづらいペンタミラーファインダーとは異なり
MFでのピント合わせは抜群に優れているからね。(とはいえ、MFを使用すること自体が
入門機を使用する人にはほぼ想定外であるため入門機には価格面で有利になるペンタ
ミラーが搭載されている)
ここで、問題なのはその視野率にょ。
銀塩時代はネガフィルムであればプリント時にどうせ切られるから視野率100%なんて
無意味でありリバーサルフィルムを使わないとその意味はあまりなかったけど今は撮った
写真をPC鑑賞する場合はリバーサルと同じく写真の隅から隅まで鑑賞可能になるため
100%が無意味ではないにょ。
センサーに入った映像を液晶モニタ上で見ているコンデジであれば視野率は実質約100%
なのだから視野率100%(見えている範囲がそのまま撮影される)というのが常識に
なりつつあるにょ。

しかし、視野率約100%を謳っているEOS 7Dも実際に測定したら96〜97%しかなかったと
いう話もあるにょ。
高々3、4%は誤差の範囲内と言ってしまえばそれまでだけどファインダーに見えなかった
ものが3、4%余分に写っているというのを気にする人は多いにょ。
デジタルなんだから最初からトリミング前提と考えればいいけどそれならば28mmで撮った
写真は24mmをトリミングしても同じとかいうことにまで発展してしまいかねないにょ。
画角の重要性、写真は引き算であるということを考えれば視野率100%がベストなのは
確実にょ。

とはいえ、視野率100%を確保するには精度の高さが要求されるにょ。
そのため視野率100%はフラッグシップ機(もしくはプロ機)にしか採用されることは
ほとんどないにょ。
ペンタックスK-7は独自の「センサーが浮いている構造」なのを活かしてファインダー側に
高い精度を求めることなくセンサーの位置を微調整するだけでほぼ100%の実効視野率を
達成したにょ。
D7000の実効視野率は製品登場後に明らかになるけどほぼ100%(99%〜100%)が実現
できているのならばこれはフラッグシップ機といっていいレベルの機種になるにょ。

(6)AFポイントが多ければいいというものではないけどカバーできるエリアが広い方が
良いに越したことがないにょ。
D300の51点の測距エリアはファインダーのほぼ全域をカバーするというすさまじいもの
であり、画面上のどこに被写体があっても問題なくAFでピント合わせが可能だったにょ。
D7000の39点はそれと比べれば劣っているとはいえ、D90の11点と比べるとその差は歴然
となるにょ。
D90の場合は11点のうちクロスセンサー(縦線にも横線にも対応できるセンサー)は
中央1点のみだったけどD7000は39点中で9点がクロスセンサーになったにょ。
ライバルになるであろうEOS 60Dは9点の全点クロスであるため測距ポイントだけを見ると
完全にライバルを上回っているにょ。

ちなみに私が使っているニコンD50(2005年発売)は5点測距でそれほど不満はないとは
いえさすがにフレーミングの自由度はあまり高くないにょ。
それに対してK200D(2008年発売)は11点測距離(全点クロス)は大幅にそれが緩和されて
いるから39点測距のD7000はK200Dと比べてもかなり快適に撮影できそうにょ。
もっとも静物メインであるため私は測距点選択を手動で行うためあまり測距点が多いのは
かえって不便になるけどそれはD300と同様に39点すべてではなく必要に応じて減らせる
ために多いことがデメリットにはならないにょ。

(7)シャッター速度の最高速を見てみるとやはり1/8000秒にまで対応したのがうれしいにょ。
F1.4のレンズを使用していると日中は1/4000でも開放では撮れないことがあるからね。
すでに入門機でもK-rで1/6000秒まで対応している今となっては中級機で1/4000秒まで
というのはやや不満が残っていたにょ。
それとX接点(フラッシュ同調速度)が1/250秒になったのはうれしい仕様にょ。
フォーカルプレーンシャッターはスリット幅を狭くすればいくらでもシャッター速度が
上げられる(ただし、幅を狭くすればするほど高い精度が要求される)けれどフラッシュ
使用時にはスリットが全開である必要があるためシャッター幕の速さが要求され高級
モデルにしかX接点1/250秒は採用されなかったにょ。

X接点が速いと日中シンクロが容易にできるなどフラッシュを使用時の撮影の幅が大きく
広がるにょ。
暗所で「暗いからフラッシュを使う」というのであればX接点1/60秒であっても何ら
問題はないにょ。
フラッシュそのものは数千〜数万分の1秒しか発光しないため被写体ブレやカメラぶれ
(手ぶれ)を防ぐのに十分な効果が発揮できるからね。
ちなみにD50はX接点1/500秒という現在のプロ機を超える仕様となっているにょ。
これはCCD電子シャッターであるから実現可能になっているにょ。
あとはFP発光によってシャッター全速でシンクロ可能にするという方法もあるけどこれは
それに対応したフラッシュが必要になるにょ。(ただし、高速シャッターを使えば使う
ほど実効光量は低下するため注意が必要)

(8)連写速度に関しては数字ではっきり区別できる中級機の入門機に対するアドバンテージ
ではないかと思われるにょ。
入門機は3コマ/秒前後という機種が多く存在するにょ。
中級機はそれらと明確な差別化を行うために5〜7コマ/秒という速度を実現している機種が
大半になっているにょ。
それはここ最近の話であり、少し前は異なっていたにょ。

ニコンの場合を見てみるとプロ機であるD1、D2に加えてハイアマチュア向けとなる
D100が登場したとはいえ、まだまだデジタル一眼は価格的なハードルが高かったにょ。
そこで登場したのがD70にょ。
10万円そこそこで買える廉価なデジタル一眼としてヒット商品になった(レンズキット
としてレンズセットで安く買えるようになったのはD70が初めて)けれどデジタル一眼が
徐々に普及したことでそこから枝分かれが出来たにょ。
D70の下位機種となるD50の登場とD70の上位機種(実質後継機種)であるD80の登場にょ。
事実上の入門機の座はD50が譲り受け、入門機では物足りないけどハイアマチュア向けの
D3桁シリーズ(当時はD200)では予算的な面などで厳しいという人向けのカメラとして
登場したのがD80にょ。

D90はそのD80の後継として登場したのだけど下位である入門機の性能が向上しているため
その上位となるD90は中級機であるためスペックの向上を行ったにょ。
さて、ここで気になるのは入門機と中級機との線引きにょ。
どこまでが入門機でどこからが中級機かというのは明確な線引きはないにょ。
一般的には価格で見る方法もあるけどデジタル製品であるが故に価格は時代によって
大きく変わるためやはり「ペンタプリズムファインダー搭載」「サブ液晶搭載」「2ダイヤル
採用」というのが入門機と中級機の境目ではないかと思われるにょ。

ただし、スペックの向上をさせるとハイアマチュア向け(D90の時代ではD300が相当する)
と差別化も考えなくてはならないにょ。
その両者との板挟みの結果実現されたのがD90では4.5コマ/秒だったということだと
思われるにょ。
しかし、その後登場したD300sによりボディだけで7コマ/秒(グリップ搭載で8コマ/秒)
まで達したためD7000ではD90の4.5コマ/秒を大きく超える6コマ/秒になったにょ。
入門機であるα55では半透過型ミラー採用で10コマ/秒、ペンタックスK-rは入門機で
ありながら普通に6コマ/秒であることを考えるとD7000の6コマ/秒というスペックは
大したことはないけどライバルであるキヤノン60Dが従来機よりも遅くなったとはいえ
5.3コマ/秒ということを考えるとD7000はD90から据え置きで4.5コマ/秒ではさすがに
厳しいということがいえそうにょ。


(下記へ続く)

373御茶目菜子:2010/09/17(金) 13:39:44
iPodはウォークマンのライバルではなかった!?
新型ウォークマンが発表されたにょ。
http://av.watch.impress.co.jp/docs/news/20100915_393610.html
個人的には買うとすれば本体サイズ、記録容量、予算の関係でウォークマンSの16GBモデルが
第1候補となるにょ。
従来のウォークマンSはどうもデザイン(というか色)が気に入ったものがなくこれが
いいと感じたのはソニスタ限定の8GBモデルだったにょ。
今回のモデルはこのライトピンクがなかなかいい感じにょ。
http://av.watch.impress.co.jp/img/avw/docs/393/610/html/sony1_20.jpg.html
買うならば間違いなくこの色にするにょ(笑)

さて、ウォークマンといえば近年iPodに押されっぱなしでDAP(携帯音楽プレイヤー)市場
ではずっと2位に甘んじていたけど先月は久々の国内シェア第1位を獲得したにょ。
理由として考えられるものは8月31日に書いたようなものがあるにょ。

 (1)9月に新型iPodが発売されるため買い控え
 (2)iPhoneが好調であるため
 (3)ウォークマンは高音質かつ安価であるため

これらに関しては「たまたま8月だからシェアが逆転した」ということだけではなくやはり
iPodではなくウォークマン自体に注目が集まっているからだと思われるにょ。
価格comのページビューでもiPod発表時は圧倒的な注目を集めているけど時間が経てば
拮抗しているからね。
http://www.itmedia.co.jp/news/articles/1009/17/news013.html
これから考えてもシェアを逆転したのは(1)が理由でたまたま起きたというわけではない
ということが予想できると思われるにょ。

もちろんアップル社もそんなことは分かっていると思うにょ。
シェアを伸ばすには一般的に2つの方法があるにょ。

 (1)弱点を克服する
 (2)強い部分をさらに強化する

iPodの弱点といえば「アップルのサポート」「修理代が高価」「耐久性が微妙」「使用する
ためにはiTunesが必須」「そのiTunesが元で問題が起こる」などが挙げられるにょ。
それらは徐々に改善に向かいつつあるものも含まれているけど今回の新モデルではやはり
(2)が顕著だったにょ。

最大の強みはiOSとそのOS上で動くアプリにょ。
iPod touchはそれによってワールドワイドで年間1000万台超の売上を記録したにょ。
同一のOSが動作するiPhoneもtouchと同レベルの台数売れているわけだからiOS搭載機と
いうのが莫大な勢いで増えていることが分かるにょ。
それによってアプリ市場も猛烈な勢いで拡大しているにょ。
玉石混淆状態なのは個人制作のアプリが多いためやむを得ないのだけど急速に増えている
アプリに対してアップル社はついにガイドラインを公開したにょ。
http://japanese.engadget.com/2010/09/10/app-store/

今までガイドラインが公開されて無かったということ自体が不思議なくらいだけどこれを
見ると相当厳しいものであることが分かるにょ。

2.9 「ベータ」「デモ」「トライアル」「テスト」バージョンは却下。
2.11 すでにApp Store にあるアプリと(機能が) 同じアプリは却下される可能性がある。

フリーウェア制作者なら経験あることだけどいきなり完成版(ver.1.00)をWebで発表する
ことはあまりないにょ。
多くの場合は少しずつ完成させながらWebでユーザーの意見をフィードバック(および
バグ取り)しながら完成へと近づけていくことだと思われるにょ。
しかし、これはApp Storeではアウトになってしまったにょ。
有料アプリを作っているユーザーは機能を制限した無料版を公開しようと考えても
それもアウトにょ。
それだけでなくすでにあるものと似たようなアプリはアウトになる可能性さえあると
いうことにょ。
これが「App Storeで公開できないだけ」というのならば仕方がないけどiOS搭載機の
場合は基本的に「App Storeで公開できない=そのアプリは一般公開できない」という
ことだからね。
意訳すれば「ゴミのようなアプリ(売上に貢献できないアプリ)はノーサンキュー」と
いうことかもしれないにょ。

もっとも、これは「これだけの制約をしても十分に勝てるほど強い」という強気の現れ
だと思われるにょ。
新型nanoはタッチパネルを搭載しただけではなくこのiOS用アプリが動作するのであれば
iPod touch nanoというべき一部コアユーザーから支持を得そうなものになったはずだけど
実際はtouch(iOS)のUIを真似て作られただけの全くの別物にょ。
それでもUIが似ているというだけでtouchユーザーであればあまり違和感なく使えそう
ともいえるけど従来のnanoユーザー(かつtouchやiPhoneを所持してないユーザー)から
考えるとこれは大きなマイナス要素にょ。
この辺については9月3日に書いたのだけどやはりDAPとして購入するならばブラインド操作
できないということはデメリット以外の何者でもないからね。

しかし、nanoもシャッフル再生専用機として考えるとまた考えが変わってくるにょ。
聴きたい曲を選択するのではなくBGM代わりにシャッフル再生を行うのであればブラインド
操作の重要性はかなり下がるからね。
これはshuffleの役目そのものにょ。
つまり、iPod nanoは名称に「nano」と付いているけど「iPod shuffle deluxe」とでも
言うべき製品になっているということにょ。
これは上記リンク先の価格comのページビューを見ても明らかでshuffleの注目度は低く
それは「nanoがshuffleを食ってしまった」と考えると理由が説明できるにょ。

実際超軽量、クリップ式のスタイルの新型nanoはshuffleと同等の使い方ができるわけ
だからね。
いや、同等ではなく必要ならばタッチパネルによって好きな曲を選択することさえできる
ということはshuffleにない大きなアドバンテージといえるにょ。
価格面でshuffleより高価だけどタッチパネル付き液晶モニタやフラッシュメモリの容量が
多いなどのメリットがあるためshuffleの代わりにnanoを買うという人も大勢現れそうな
予感がするにょ。
液晶モニタが付いているということはこんな使い方もできるしね(笑)
http://japanese.engadget.com/2010/09/10/ipod-nano-ilovehandles/

9月9日に書いたように新型touchのスペック強化はアプリの強化に繋がっており、nanoは
touchがメインになった影響でtouchのサブ機として使いやすいものに変えられてしまった
と考えていたにょ。
しかし、nanoがshuffleの弱点補強のために路線変更をしたというのであればまた変わって
くるにょ。
touchによって高価格DAPでは不動のシェアを獲得したけどその反面廉価DAPでは売れ筋の
ウォークマンSに対抗できる製品が無くなってくるにょ。
nanoがshuffleを含む廉価DAPを食っていくのであればこれはまた異なるものになるにょ。
ただし、現実的にはnanoの価格ではそれは厳しそうにょ。
廉価なshuffleやウォークマンEを購入候補に挙げている人にnanoを買わせるのは価格的に
厳しいからね。

それを考えるとやはり弱点補強というよりも「強みを強化しただけ」という当初の考えの
方が正しいかもしれないにょ。
新型nanoはshuffleユーザーの乗り換え先ではなくtouchユーザーを増やすための布石と
考えた方がいいだろうからね。
そうなるとライバルとして考えられているウォークマンとiPodだけど実はライバルでも
何でもなく「今回の新型では棲み分けが強化されただけ」に思われてしまうにょ。

374御茶目菜子:2010/09/18(土) 14:14:54
なぜiPod touchは売れているのか?
9月3日に書いたようにアップル社はiPod touchにかなり力を入れているにょ。
touchがこんなに売れるということは私は(touchが発売された当初には)想像して
いなかったことだけどこれは私が当初はtouchをただの「高価格な多機能DAP」として
捉えていたからにょ。
その考えはiPhoneの状況を見て徐々に薄れていったにょ。
touchは本体価格はDAPとして考えれば高価だけどiPhoneなどのスマートフォンよりは
安価(ただし、スマートフォンの場合は2年契約、2年分割払いによって端末の見かけ上の
実質価格はそれほど高価というわけではない)、そしてキャリアに左右されないという
メリットがあるにょ。(要するにただのPDAとして使える)

ここ最近touchの売上が伸びているのは下記の2点が大きいと思われるにょ。

(1)アプリの充実
(2)通信環境の改善

(1)においては昨日も書いたようにアップル社は「質の低いアプリ、目新しさがない
アプリは要らない(←意訳)」と言っているくらいだからね。(それくらいすでに十分な
ラインナップがあるということ)
確かにApp Storeに登録のアプリは急増しており「端末が売れる→アプリが増える→
端末が売れる」という好循環をそのまま反映している形となっているにょ。

それによってtouchが売れるというのは良いことだけど従来のtouchにはカメラ等が搭載
されておらずそういったアプリを利用することができないという問題があったにょ。
そのため新型touchではカメラ搭載によって利用できないアプリというものはかなり
減り、アプリ制作者もより多くの人が使えるために特定ハードに対応させないと遠慮
する必要性も減ったにょ。(touchしかもって無くてもカメラ対応アプリが作れるように
なった)
これは様々な機種が存在するAndroid端末では非常に難しいことにょ。
特定ハード(加速度センサーなど)に対応したアプリを作るとそのハードを搭載している
機種でしか動作しなくなるからね。
Android端末は急速に伸びているものの特定ハードに対応したアプリを作ると単一仕様で
1000万台単位で販売されているiOS搭載機よりもそのアプリを利用できる人はかなり
減ってしまうにょ。

(2)touchで通信を行うには無線LAN経由である必要があるにょ。
近年は都心部を中心に無線LANスポットがどんどん増えているものの5月24日に書いた
ように地方と都会では無線LANスポットには大きなギャップがあるにょ。
地方では「利用者が少ない→無線LANスポットが増えない→利用者が増えない」という負の
スパイラルに陥っていると思われるためこれが今後大幅改善されるのは難しそうにょ。

その救世主となるのがモバイルルータにょ。
私も今年の4月にイーモバのPocket WiFiを購入したにょ。
モバイルルータは2年前にはPHS300くらいしかなかったのが現在は国内で入手可能な
製品だけでこれだけの種類があるにょ。
http://k-tai.impress.co.jp/docs/special/sp_cata/20100917_394268.html
これだけあると自分に適したキャリアの製品があるし、SIMフリー端末もあるのでそれを
使えばキャリアも自由に選べるにょ。(とはいえ、SIMフリーといってもソフトバンクが
データ通信が青天井であるため実質ドコモ専用となっている状態だけど)

つまり、touchに対するユーザーの評価の変動はtouchそのもののスペックアップにもある
けどアプリや通信といった本体以外の改善点が非常に大きいということが分かると
思うにょ。
確かにモバイルルータを買えばtouchの通信が非常に便利になってくるのだけど結局
「毎月維持費がかかる」という現実から避けることはできないにょ。
モバイルルータはtouchのみで使うならば割安とはいえず、他の機器と共用して初めて
そのメリットがあるわけだからね。

とはいえ、最近は無線LAN対応(Wi-Fi)機器なんて非常に多く存在するにょ。
むしろtouchユーザーでtouchしか無線LAN対応機器を持ってないという方が非常に珍しい
のではないかと思われるにょ。
PCを持ち歩いている人であればUSB接続の通信端末で十分だろうと考えるだろうし、
私もCF型のPHS通信端末から乗り換える際は一時はUSB接続の端末にしようかとも考えた
けれど他の機器と共用を考えるとモバイルルータの利便性は大きいということで4月29日に
書いたようにPocket WiFiを購入するに至ったにょ。

モバイルルータは確かに様々な無線LAN対応機器で共用できるというメリットがある
ものの5月27日に書いたような駆動時間の問題もあるにょ。
ケータイよりも待ち受け時間が圧倒的に短いためこまめにON、OFFを使い分ける必要が
あるからね。
いざとなればUSB給電もできるためUSB給電に対応した予備バッテリを持ち歩くという
方法もあるけどそれを面倒に感じる人もいるかもしれないにょ。

「touchしか持ち歩かないのに別途モバイルルータを持ち歩くなんて煩わしい」「touch
にはないGPSなどの機能を使いたい」「通信だけではなく通話(IP電話不可)にも使用
したい」となると選択肢はtouchではなくiPhoneになってしまうにょ。
でも、ソフトバンクでは電波が弱くて・・・と思っている人も多くいることだと思うにょ。
単にtouchでは機能面で物足りなくてデータ通信しかしないというのであればiPhoneを
一括購入して解約してモバイルルータを使うという方法もあるけどモバイルルータを
別途持ち歩くのは面倒とか通話用としても(つまりスマートフォンとして)使いたい
というのであれば最終選択肢はSIMフリー版iPhoneとなるにょ。

ただし、SIMフリー版iPhoneは一部の国でしか売られておらず入手するにはかなり大変な
個人輸入を行うか、ごく一部のショップで少数売られている高値の輸入版に頼るしか
方法は無かったにょ。
しかし、この度iPhone用のmicro SIMも販売している日本通信が輸入代行店eXpansysと
提携したためにその入手性はアップしそうにょ。
http://k-tai.impress.co.jp/docs/news/20100917_394601.html
国内版のiPhoneを一括購入するよりもかなり割高になるとはいえ、入手のしやすさは
アップすると思われるため「どうしてもiPhoneを使いたいけどソフトバンクは嫌」と
いう人はこういう方法を活用すると良いと思われるにょ。

ただ、今回の新型touchの機能アップで「すべて1台でまかないたい」という人を除けば
touchで十分と感じることだと思うにょ。
特にすでにモバイルルータを持っている人であれば余分な通信費用がかからないという
ことは非常に大きなメリットとなるにょ。
確かに今からモバイルルータを買ってまでtouchを使うというのは微妙だけど上記の
ように無線LAN対応機器は多数あるためtouch専用と考える必要はないので決して高価
というわけではないにょ。
もっとも無線LANスポットが多数ある都市部在住であればそれを活用することでモバイル
ルータが無くても十分快適な通信を行うことができるけどね。

このようなアプリ&通信の変化が絡み合ってtouchの売上が伸びたと思われるにょ。
それにより、昨日も書いたようにアップル社はtouchを主軸におきnanoをサブになるような
形にしたのだろうからね。

375御茶目菜子:2010/09/19(日) 14:02:08
雑誌は「有料」、Webは「無料」・・・って正しいのか?
雑誌「週刊アスキー」800号(記念号)を買ったにょ。
創刊から21年か・・・。
「週刊アスキー」という誌名になったのは13年前からだけどPC雑誌で週刊化して大丈夫
かと当時は思っていただけにこれだけ長く続くとは予想してなかったにょ。
私は今となっては週刊アスキーは興味深い記事が掲載されている号しか購入してない
けどその前身となった「EYECOM」の頃は毎号買っていたにょ。(週刊化されてから
しばらくしてから毎号買うのをやめた)
EYECOMを買っていた当時は「ベーマガ」「PJ」「Oh!PC」「98Magazine」「Hello!PC」
なども買っていたにょ。
さらに遡ると(EYECOM創刊前)PioやI/Oやプログラムポシェットなども買っていたにょ。
しかし、12年前(1988年)に引っ越したとき95年以前のPC系雑誌はベーマガとPJを除き
ほとんど処分してしまったにょ。

さて、PC雑誌って本当に必要なのか・・・となると今となっては微妙にょ。
ベーマガやPJのような投稿プログラムを掲載している雑誌は昔は貴重な存在だったにょ。
投稿によって小遣い程度(税金込みでPJが1ページ5000円、ベーマガが1回1万円)とは
いえお金がもらえるのはうれしかったし、市販の雑誌に自分が作ったものが掲載
されているということ自体に喜びを感じるというのもあるけど結局のところ不特定
多数の人に向けて公開するのは「雑誌」という媒体を使うしかなかったということが
1つの理由といえるにょ。
PJが96年に休刊したのは単に個人でポケコンを使う人が減っただけ(つまり、雑誌
製作かかるコストがペイできなくなった)だけどベーマガの場合はやはり大きいのは
Webの存在にょ。

個人サイトを作れば自由に作ったものを公開できるからね。
ただし、2000年代初頭はWebサーバ容量の都合もあるし、まだダイヤルアップがメイン
ということもありWebで公開されているアプリも1MB(もしくはそれ以下)を超えるような
のアプリを公開するのは難しかったけどすでにVectorのようにフリーウェアを扱う
サイトがあったのでそこで公開するという方法もあるにょ。(シェアレジ導入でシェア
ウェアも気軽に公開可能になった)

読者投稿型のPC雑誌はWebの普及で厳しくなたけどそれならば情報系のPC雑誌はどうか
といえばさらに厳しいと思われるにょ。
今は情報はWebでリアルタイムで入手可能だからね。
雑誌になった時点ですでに過去の情報となっているためWeb上で情報をチェックして
いる人ならば雑誌の情報はほとんど価値のないものといえるにょ。
いくらそれが週刊誌になったところで大きく変わるものではないにょ。
それでも週刊アスキーが休刊せずに今に至っているということはPC系のニュースサイトを
じっくり読んでいるようなコア層ではなくライト層をターゲットにしているからだと推測
されるにょ。

とはいえ、雑誌を買う場合はお金がかかるのに対してWebの情報は基本的には無料と
いうことで雑誌がWebに勝つ(書店で買ってもらう)ことは容易ではないにょ。
雑誌として生き残る方法には下記のようなものがあるにょ。

(1)Webでは読めないディープな内容
(2)紙媒体であることを生かした内容
(3)付録で売る

(1)Webではハイパーリンクがあることによって1つ1つの記事は単純なものになりがちと
なっているにょ。
これはWebのメリットではあるけど逆に言えばWebで長文は読む人のが大変という配慮にも
なっているにょ。
とはいえ、ここは内容の割には無駄に長文になっているわけだけど(笑)

やはり、それにはPC画面上で長文を読むのが大変と感じている人が多いというのも
1つの理由になっているにょ。
それは日本語が普段は縦書きだけどWeb上では横書きになっているというのもあるし
PCの画面では一覧性に乏しいというのもあるにょ。
新聞、書籍を読み慣れている人であれば横書きの長文は確かに読みづらいというのは
否めないにょ。
それにPC画面ではIEの文字サイズ「中」であればせいぜい横40〜60文字程度(フルHDに
特化したようなWebサイトはほぼないため)、縦はPCの解像度やWebブラウザにもよるけど
WXGAならば25〜30文字程度にょ。
つまり、Webサイトの文字はぎちぎちに詰まった状態で1画面で1000文字少々しかない
ということにょ。
これは新聞や雑誌の1ページに収まる文字数と比べると圧倒的に少ないにょ。

では、Webメインになってから読む文章量は減ってしまったのか・・・?
「活字離れ」という言葉が聞かされるようになって久しいけどWeb全盛の今は昔(Webが
普及する前)と比べて文字(あえて「文章」とは言わない)に接する機会が増えている
と私は感じているにょ。
Webサイトだけではなく多数のメールもあるわけだしね。
1つ1つの量は少なくてもトータルでは決して少なくはないということにょ。
「活字離れ」というのはあくまで印刷物(新聞や本)に限定しているためその言葉
自体は誤りではないにょ。
8月21日に書いたように書籍売り上げはどんどん落ちているわけだしね。

(2)紙媒体ならではとなるとやはりWebで読むには抵抗のある文字数のもの・・・となる
けどそれだと(1)と被ってしまうため別のニュアンスでいくにょ。
ジャンルが変わり、PC雑誌ではなくアニメ雑誌においても雑誌の生き残りは熾烈なもの
となっているけどアニメ雑誌の場合は最新情報という観点だけではなくグラビア的な
ものも重要になってくるにょ。
最新アニメの情報だけが欲しければWebサイトで十分だけどアニメ雑誌に求めているものは
それだけではないからね。

それを顕著に表しているのが「メガミマガジン」や「娘タイプ」などのグラビア系の
アニメ雑誌にょ。
その雑誌のために書き下ろしたキャラのピンナップを全面に打ち出した雑誌はそのため
だけに購入する人が多くいるからね。
となると(1)は文字メイン、(2)は絵がメインと考えることができるにょ。

(3)やはり最近増えたのがこれにょ。
雑誌の付録というと古くからポピュラーなものであり、学研の「科学」と「学習」を
はじめ現在でも子供向け雑誌では多く取り入れられているにょ。
雑誌付録に関しては「素材についての規制」「コストについての規制」があったけど
それらが緩和されたため従来では考えられなかったものも多く導入されているにょ。
付録で成功した例は電撃G'sマガジンの2010年8月号だけど付録目的でその号を買った人が
非常に多かったけどそれでユーザー自体が増えたわけではないためその後の号は以前と
変わらないような状況となっているにょ(8月号は発売日にほぼ完売したけどそれ以降は
以前と同じく翌号が出る時期まで在庫が残っている)

以上のようにWebと雑誌の棲み分けができるというのが私の考えだけど発行部数が減った
場合はそうは言っていられないにょ。
実際、雑誌は広告費があるからあの価格で販売できるわけだけど発行部数が減った場合は
広告代も下げざるを得ないし、広告そのものが減ってしまうと雑誌の維持に必要な広告費
さえも減ってしまうために雑誌の維持が難しくなるにょ。

そもそも雑誌は書店に足を運んでお金を出して購入する必要があるのにWebならば
基本的に無料というのが厳しい理由となっているにょ。
上記の方法によって棲み分けができるといっても情報をウリとしている雑誌はそれに
よって危機的な状況にあるにょ。
ではなぜ雑誌は有料でWebは無料なのか・・・?
それは媒体による違いが大きいにょ。
印刷というのはコストがかかるし、流通コストもバカにはならないからね。

しかし、雑誌とWebで記載情報にそれほど差異がないならばユーザーはそのようなコスト
問題は考慮してくれないにょ。
ただ、Webの情報も個人が趣味でやっているようなサイトを除きコストがかかってない
なんてことはないにょ。
実際は多くのコストがかかっているけどそれは広告費で何とか運営できているという
だけの話にょ。

ただ、広告費でまかなうためには多くのPV(ページビュー)が必要になるにょ。
そのためPVを稼ぐため記事は長文ではなく細かく分けてかけられるにょ。
したがって、Web上の記事の1ページ当たりの情報量が少ないというのはユーザーへの
配慮もあるけどそのような理由もあるということにょ。
9月13日に書いたようにiswebの無料ホームページサービスが終了するのは個人サイト
ではPVが少ないものが大半であるために広告費だけでは維持できないためにょ。

完全無料化(広告費のみで運営)が難しければ最終的にとる手段は有料化しかないにょ。
ニューヨークタイムズのオンライン記事も2011年から有料化になると今年の1月に発表
されたにょ。
http://japan.cnet.com/news/media/story/0,2000056023,20407060,00.htm
雑誌ではコストが大きいからWebならば・・・ということでWebに力を入れる企業も
少なくないけど今はWeb上でも競争が激化しているため広告費ですべてをまかなうという
ことは難しくなってきているためニューヨークタイムズだけに限ったことではなく
今後は多くのWebサイトで導入される可能性があるにょ。
「Webの情報は無料」という認識が当たり前の時代に終わりが来る日はそれほど遠くない
かもしれないにょ。

376御茶目菜子:2010/09/20(月) 13:41:17
iPhoneはゲーム用として最適なのか・・・?
9月16日〜19日に開催された「東京ゲームショウ2010」は来場者が20万人を超えて過去最高
となったにょ。
http://game.watch.impress.co.jp/docs/news/20100920_395254.html
コンシューマゲームは5、6年ごとに世代交代するため本来であれば世代交代の時期を迎えて
いるような時期になっていると思われるにょ。
しかし、実際に次世代機を発表しているのは任天堂の携帯ゲーム機「ニンテンドー3DS」
だけに止まっているにょ。(任天堂は東京ゲームショウには出展しないため3DSの詳細は
9月29日開催の「任天堂カンファレンス2010」で発表されると思われる)

これは開発コストの増大でプラットフォームの寿命が延びた(伸ばさざるを得ない)と
いうのもあるし、それを見越してSCEは「PS Move」、MSは「Kinect」のような新しい
インターフェイスを導入しようとしているわけだからね。(世代交代が間近なゲーム機
ならば多くの開発費や宣伝費をかけてそんなことはできない)
一時期流行った言い方をすれば「プレステ3 ver.2.0」「Xbox 360 ver.2.0」になったと
いうことになるにょ。
そういうことで今はコンシューマゲーム機にとっては世代交代前の衰退期ではなく成熟期
であると言えそうにょ。

ゲーム市場全体で言えば衰退どころか拡大傾向さえあるけどそれを支えているのが
ソーシャルゲーム市場とスマートフォン用アプリ市場にょ。
特にソーシャルゲームは前年比7.5倍ということで非常に大きな伸びを見せているけど
ここではスマートフォン用アプリについて書いてみるにょ。
スマートフォン用アプリだとiPhone(iOS搭載機)がやはり最も優れているのではないか
と思うにょ。
TGS2010でもiPhone用アプリとして単独ステージが設けられているくらいだしね。
http://game.watch.impress.co.jp/docs/news/20100919_395238.html
国内大手ゲームベンダーもiPhone用アプリに力を入れているというのが分かるにょ。

さて、iPhone(iOS搭載機)がAndroidをはじめとする他のスマートフォンよりも優れて
いるかというと下記の2つの点が大きいと思われるにょ。

 (1)プラットフォームの安定性
 (2)App Storeによる流通

(1)確かにスマートフォンにおいてAndroid OS搭載機は最近非常に増えておりアナリストも
2012年にはシェアがiPhoneを超えると予測されているけど問題はシェアが大きくてもパイが
大きいといとは限らないということにょ。
それはPCで考えてみると分かりやすいにょ。
2009年のPC出荷台数は国内だけでも約1300万台、世界では約3億台となっているにょ。
それならPC向けのゲームを作れば国内1300万台、世界3億台がパイの大きさ(というか
前年までに出荷されている数を合わせるとその数倍)となるかといえばそうではないと
いうことが分かるにょ。
すべてのPCがゲーム用として使われるわけではないというのもあるけどそれ以前の問題
としてその中で FF14が快適に動作するPCが一体どれだけあるかということを考えた場合
「ゲームプラットフォームとしてのPC」のパイの大きさはそれほど大きくはないという
ことが分かると思うにょ。

そのような観点からAndroid OS搭載機を見てみると確かに多くの機種が発売されており
トータルの台数でiPhoneを抜くとしても機種毎の仕様の違いが大きいという問題がある
ためゲーム用プラットフォームと考えた場合には成功しにくいにょ。
一定以上のスペックを求めるとPC向けのFF14のように動作可能機種が減るためにいくら
そのOSを搭載した機種が多く出荷されていてもパイはそれほど大きくはないにょ。
それならば低スペックに合わせるという方法もあるにょ。
それはPCでいえばネットブック専用ゲーム(ネットブックに最適化されたゲーム)を
作るというのと同じようなものにょ。
ネットブックの場合は仕様がほぼ統一されているので動作確認の心配は要らないという点に
おいては3月16日にも書いたように「ネットブック専用」とすることで売りやすくなるけど
それでビジネスとして成功するかというと別問題にょ。
それなのにその仕様さえ異なる低スペックAndroid OS搭載機ではネットブック専用ゲーム
よりもさらに成功は難しいにょ。

それに低スペック端末用ゲームではハイスペックな端末においてはせっかくのスペックを
活かすことが出来ないばかりかそれに搭載のハードウェア(各種センサーなど)の機能も
活かすことが出来ないという問題があるし、さらに言うと動作確認も非常に大変になって
くるにょ。
PCであれば無数に存在するため「動作スペックを満たしているすべての機種で動作確認」
ということは不可能だけどスマートフォン用アプリで数種類の機種で動作確認を済ませる
だけというのもさすがに問題となるにょ。

そのためパイを広げようとする(より多くの機種で動作するようなアプリを作ろうとする)
ならば動作確認の手間(コスト)だけでも非常に大きなものとなってしまうわけにょ。
ケータイアプリにおいてもiアプリは基本的に世代ごとで大きな仕様変更はあるというのは
分かると思うけど端末毎にも仕様の違いが大きく同じ世代の機種でありながら同じアプリで
動作する機種としない機種が存在するにょ。
それは国内の限られたベンダーしか出荷してないから「動作の可否」というのは簡単に
分かることだけどワールドワイドで多数存在するAndroid端末でそれはベンダー側で把握
するというのは上記のように非常に難しいものとなっているにょ。

もっともOSのバージョン、CPU、GPUの種類、メモリ搭載量の違いで粗方動作するかどうかは
分かるため必ずしもすべての機種で動作確認をする必要性はないのだけどPCのように単純に
スペックで動作の可否を購入前にユーザーに知らせるという方法はスマートフォンでは
難しいにょ。
PCとは異なりそのスマートフォンに搭載されているCPU、GPU、メモリなどは知る方法は
ないし、知ったところでPCのように拡張する方法もないからね。(PCでも普通にできる
拡張はメモリ程度であり、GPUははデスクトップPCでのみ可能)
これがフリーウェアならばあきらめがつくけど有料アプリで買ったけどまともに動作
しないというのではさすがにユーザーも納得がいかないためAndroid搭載機はゲーム
ベンダー視点からゲーム用プラットフォームとしてみると魅力を感じないのではないか
と思われるにょ。

それではiPhoneはどうかというとiPhoneは同じ世代であれば仕様は1つしか存在しない
からね。(フラッシュメモリ搭載量の違いがアプリの動作に与える影響は皆無であるため
ここでは同一機種と見なす)
そんな同一機種が年間1000万台単位で出荷されているにょ。
これは他のスマートフォンでは考えられないレベルにょ。
それだけ売れていてもiPhone 4専用だとパイが小さいと考え、3G、3GSでも動作する
アプリを作ろうとしても動作確認は3機種で行えば済むにょ。
これは8月9日に書いたようにiPhoneは垂直統合の強みといえるにょ。
これによって動作の心配をすることなくハードウェアの機能をすべて使ったアプリを
ベンダーは提供できるようになるにょ。

標準搭載の機能をフルに使えるというのは非常に大きなメリットとなるにょ。
iPod touchでも従来はカメラを搭載していなかったためにカメラを使うことを前提にした
アプリは動作しなかったけど新型touchではカメラを搭載したためによりパイの大きさが
広がったといえるにょ。
しかし、Android OS搭載機では仕様だけではなく搭載している機能も端末ごとに異なる
ものとなっているにょ。
これのためAndroid OS搭載機で行うならば例えばXperiaの性能・機能をフルに発揮させれば
事実上のXperia専用ソフトになってしまうにょ。(でないと、そのセンサーが有っても
無くても動作するようなゲームを作る必要がある)
したがって、いくらトータルでAndroid OS搭載機が増えてもゲームプラットフォームの
安定度としてはiPhone(iOS搭載機)の方が勝るといってもいいと思われるにょ。

(2)問題となるのはアプリの流通方法と課金方法にょ。
Android OSの場合はAndroid Marketで主に流通しているにょ。
iPhoneの場合はアップル社の認証アプリしか基本的にインストールできないためすべての
アプリがApp Storeで提供されているけどAndroid OSではそのような縛りはないため
Android Marketではすべてのアプリが公開されているとはいえないにょ。
それにAndroid Marketそのものが使い勝手が良いものではないために国内のキャリアも
独自のAndroid用アプリの販売方法をとっているにょ。

これには課金方法も大きく絡んでくるにょ。
iPhone用アプリにしろAndroid用アプリにしろ販売金額の3割が販売委託料として胴元に
支払われる(アプリ制作側には販売価格の7割が手に入る)という感じになっているの
だけどユーザーからどのようにしてそれを支払ってもらうかが重要になるからね。
ケータイ用アプリ(コンテンツ)が国内において大きな発展を遂げたのは日本において
ケータイはキャリア主導であるということが大きいにょ。
これは「ガラパゴスケータイ」などと言われて批判する人もいるけどこういう方面から
考えると発展に大きく貢献しているにょ。

キャリアがコンテンツプロバイダ(アプリベンダー)から代行してユーザーに対して代金を
請求し、その代金はキャリアに支払われる基本料金とまとめて支払うことができるため
支払いのためのハードルは極めて低いものとなっているにょ。
スマートフォンにおいてもそれと同じようなことをやろうとしているにょ。
自由度が極めて高いのがガラケーとは異なるスマートフォンの利点なのだけど「自由
すぎる」というのは市場形成において必ずしも良いこととはいえないというわけにょ。
特にガラケーからスマートフォンへと移行した人であればそれはより大きく感じると
思われるにょ。

アップル社がキャリアから独立して課金システムで成功しているのはiTunes Storeからの
実績があるからにょ。
支払い方法もAndroid Marketのようにクレジットカードオンリーではなくプリペイド
カードによっても可能ということで支払いのハードルも低いからね。

この課金問題もあるせいかAndroid用アプリにおいて無料アプリが占める割合は60%と
なっているにょ。
それに対してiPhone用アプリは無料アプリは20%となっているにょ。
http://jp.techcrunch.com/archives/20100303mobclix-compares-android-and-apple-android-devs-more-likely-to-give-their-work-away/
無料アプリが多いならそれはユーザーにとっては良いことだけどゲームベンダーにとって
良いこととはいえないにょ。

それは「無料が当たり前」という認識が大きいからにょ。
昨日書いたように「ネット上の情報は無料」というのが大多数の考えだろうけどそれが
ある故にネット上の情報の有料化はしたくでもなかなかできないというのが企業側の考え
ではないかと思われるにょ。
有料化しても十分に収入が望めるようなコンテンツであれば有料化に踏み切るだろうけど
閲覧者減少による広告収入の減少を考えると有料化は必ずしも良いということではない
ということにょ。
これは9月13日にも書いた「フリーの法則」で記されているように5%程度の人が有料
サービスを利用してそれで賄えるようなシステムを作る必要があるからにょ。

要するにお金を払うに値するアプリを作れば良いだけの話とはいえ、ユーザーの認識を
変えるのは容易ではないし課金方法や流通方法を考えるとiPhone用アプリではなくAndroid
用アプリを選択するメリットは何もないにょ。
App Storeにさえ登録しておけば課金問題もないし、そこ1カ所ですべての流通を抑える
ことができるから手間だけではなくコスト削減にも繋がるにょ。(ダウンロード販売では
なくリアルの商品で考えるとメーカーと販売店とで個別の契約を結び独自に流通経路を
増やしていくというのはいかに手間とコストがかかるかが分かると思う)
iPhone用アプリにおけるApp Storeからしか供給されないという縛りはゲームベンダー側
からすると逆にメリットになるというわけにょ。


国内においてはすでにケータイアプリでダウンロード販売によるアプリは一定の支持を
獲得しているにょ。
しかし、それは上記のように国内ではキャリア主導であるため課金システムが確立して
いたというのが最大の理由となっているにょ。
ただし、近年スマートフォンの普及によってそのケータイアプリ市場というものが微妙に
なってきたにょ。
キャリア側からすると今までケータイアプリの支払い代行で得ていた収入が無くなると
いうのも大きいし、ゲームベンダー側からすると今度は市場全体が縮小傾向にあると
いうことで積極的にアプリ提供するのが難しくなってきているにょ。
性能アップにしたがい開発費も増大しているしね。
そのためガラケーではその性能を活かしたアプリというのは皆無になってきているにょ。

それならばスマートフォン用アプリを作れば良いにょ。
ガラケー用とは異なり、スマートフォン用アプリであればワールドワイドの展開が可能で
あるため開発費が増大してもその投資分を回収できる可能性は大きくなるからね。
実用アプリとは異なりゲームであれば言葉の壁を越えることは難しいことではないにょ。
現状でゲーム用プラットフォームとして優れているのはAndroidとiPhoneだけど上記の
ようにiPhoneの方が優れている面が多いためゲームベンダーはiPhone用アプリに力を
入れているのだと思われるにょ。

377マリモーマ:2010/09/20(月) 14:36:06
iPhone/iPadを 持ってないけど調べてみた
iPhone/iPadアプリを作るには macが必要みたい
もちろん iPhone/iPadも必要だけど 公開にも金がかかるらしい

http://www.atmarkit.co.jp/fwcr/design/tool/iphonesdk01/01.html
http://www.atmarkit.co.jp/fwcr/design/tool/iphonesdk02/01.html
http://www.atmarkit.co.jp/fwcr/design/tool/iphonesdk03/01.html
http://journal.mycom.co.jp/column/iphone/001/index.html
http://iphone.longearth.net/2008/12/25/iphone%E3%82%A2%E3%83%97%E3%83%AA%E9%96%8B%E7%99%BA%E3%81%AB%E5%BF%85%E8%A6%81%E3%81%AA%E3%82%82%E3%81%AE/

アプリ
http://d.hatena.ne.jp/moto_maka/20081118/1226953067

http://liv0.com

378御茶目菜子:2010/09/21(火) 14:14:45
K-5 vs D7000 最強中級機はどっち?
ペンタックスから中級機となるデジタル一眼「K-5」が発表されたにょ。
http://dc.watch.impress.co.jp/docs/news/20100921_395252.html
先日ニコンから発表されたD7000と同じランクに相当する製品にょ。(発売当初の予想実売
価格も同じく約14万円だしね)
キヤノンEOS 60Dは同じ中級機(っぽい)デジタル一眼だけどそれらとは若干ユーザー層が
異なるカメラにょ。(価格やスペックから分類すると中級機だけどメーカー側は入門機の
上位機種として掲げている)
60DはD7000と比べると確かにスペックで劣る面があるけど「1万円程度安い」というのは
メリットにょ。

一眼レフの場合はレンズが資産になってくるため「このカメラはいい」といっても簡単に
買えるのは最初の1台のみにょ。
予算が非常に多く複数のマウント用のレンズを購入できるのであればカメラ本体だけを
見て選択してもいいけど使い続けてレンズが増えてくるとそのレンズ活かすかカメラを
変えてレンズも新しく購入するかの二択を迫られてくるにょ。(新しいカメラを買っても
自分が良く使うレンズが無ければ結局使う機会が限られてくるためカメラ本体だけでは
なくレンズの予算も考慮しないといけない)

私の場合は現在ニコンD50、ペンタックスK200Dを使っている関係上これらのメーカーで
あれば問題ないにょ。
逆にキヤノンの場合はレンズをすべて買い直す必要があるにょ。(とはいっても、私は
安物レンズしか買ってないので買い直すのは難しくないけどそれでもコスト的に小さい
ものではない)
私はキヤノンの一眼レフではMF時代のFDレンズなら持っているけどAFの(銀塩時代の)
EOSからマウント変更となったために「キヤノンに縛られる必要がない」ということで
デジタルではキヤノン以外を使ってみたくなったにょ。(同スペックではキヤノンの
本体の方が高価だったのも理由だけど)

この度発表されたK-5がいいか、D7000がいいかというのはペンタックス&ニコンの両方を
使っているユーザーならば強く感じているだろうけどではどの程度の違いがあるかを
まとめてみたにょ。

            K-5               D7000
(1)画素数       1628万画素           1620万画素
(2)最高感度      通常ISO12800(拡張51200)    通常ISO6400(拡張25600)
(3)手ぶれ補正     ボディ内蔵(センサーシフト)  レンズシフト
(4)動画撮影      フルHD 25fps(Motion JPEG)   フルHD 24fps(H.264)
(5)防塵防滴      有り              有り
(6)ファインダー視野率 約100%             約100%
(7)AF測距離点     11(9点クロス)         39(9点クロス)
(8)シャッター速度   最高1/8000(X接点 1/180)    最高1/8000(X接点 1/250)
(9)連写速度      7コマ/秒            6コマ/秒
(10)記録メディア    SD/SDHC(※SDXC)        SD/SDHC/SDXC/ダブルスロット
(11)重量        660g              690g

では、それぞれについて書いてみるにょ。

(1)画素数は少し前までならば「APS-Cは1200万画素がベスト」と私自身も思っていたにょ。
ニコンもそう考えていたのか頑なに1200万画素を死守してきたからね。
というか、APS-Cの2倍のセンサーサイズであるフルサイズセンサーにおいても1200万画素
というのはさすがに高感度画質を重視しすぎという面もあったけど・・・。
1200万画素というのは300dpiならばB4サイズ、250dpiならA3サイズでプリントできるため
個人が使うのであれば十分な画素数を持っているにょ。
あと画素ピッチが5.5μmであるため単純に回折限界を計算した場合にF11まで使えると
いうのも大きいにょ。

とはいえ、コンデジのように1μメートル台の極小ピッチセンサーとは異なりセンサー
性能の向上によって高画素化の余地は大きくなったにょ。
そのため需要がある高画素化が進むのは当然の成り行きであり、自前でセンサーを作って
いないメーカーの場合はその需要の流れに乗っかるのは仕方がないにょ。
自前でセンサーを作れるキヤノンやソニーが高画素化の道を歩んでいるわけだしね。
K-5もD7000も恐らくソニー製センサーだからセンサー自体の基本性能は同等だと思うにょ。

(2)最高感度だけでは善し悪しは判断できないけど個人的にはISO3200でそこそこ使える
レベルであれば全く不満はないにょ。
ニコンのフルサイズセンサー搭載のプロ機「D3s」が最大感度ISO102400というのが話題に
なったけどむしろISO6400でもそこそこ使える画質というのが私にとって魅力だったにょ。
D3sが登場して1年間のセンサー性能の向上を考えればフルサイズの半分弱のサイズで
ISO3200がそこそこ使えるレベルになるというのは別に高いハードルでも何でもないにょ。

拡張設定による最大感度はあくまで飾りにょ。
D3sのISO102400でもコンデジで撮影したISO3200の写真のようにそれ単体ではとても
実用になる画質ではないにょ。
しかし、ISO102400だからこそ撮れる被写体があるのも事実にょ。
月明かりがあれば明るい単焦点レンズを使えばノンフラッシュでの手持ち撮影も可能に
なるレベルだからね。
これはISO3200とは別次元にょ。(最大感度ISO100の時代にISO3200で撮影できるのと
同じわけだからね)

ペンタックスはサムスン製のセンサーを搭載していた時代は「高感度に弱い」という
イメージだったけどK-xでソニー製センサーを採用し瞬く間に業界トップレベルになった
ため今回のK-5もかなりの期待が持てそうにょ。
というわけで、K-5とD7000で優劣を付けるならばセンサー自体の性能は互角でもK-5の
方が上かもしれないにょ。(これはあくまで現時点の予想だけど)

(3)手ぶれ補正機能は今となっては当たり前の機能だけどメーカーや機種によって手ぶれ
補正機能がボディ内にあるのきあレンズ内にあるのか異なるにょ。
ペンタックスは基本的にボディ内、ニコンはレンズ内にあるにょ。
どちらが有利かは用途次第だけどどのようなレンズを買っても手ぶれ補正が効くボディ
内蔵タイプ(センサーシフト方式)の方が私は便利に感じるにょ。
確かに望遠レンズの場合は手ぶれ補正がレンズ内にあった方がファインダーが安定する
ためにレンズシフト方式の方が望ましいのだけどセンサーシフト方式の機種であっても
レンズシフト方式のレンズは使用できるにょ。
つまり、手ぶれ補正の選択の余地があるわけにょ。

(4)デジタル一眼においてついてて当たり前の時代になりつつ動画撮影機能だけど今と
なってはAF対応、フルHD撮影可能というのも標準化しつつあるにょ。
スペック的には両者互角・・・といいたいけど根本的な違いは使用コーデックにょ。
編集を考えるとMotion JPEGの方が対応ソフトが多いし、PCに要求されるスペックも低く
なるといいことだらけとはいえ、さすがにフルHDでMotion JPEGはSDカードの記録速度や
FAT32の制限(1ファイル最大4GB)を考えると望ましいものではないにょ。
将来的には高速、大容量なSDXCカードが安価で手に入るだろうから問題ないけど現時点では
フルHD撮影を行うならばD7000などに使われているH.264の方が良いのではないかと思うにょ。

(5)防塵防滴に関しては有無だけではなくどれだけのものかというのとレンズの対応面の
問題も重視する必要があるにょ。
中級機であれば防塵防滴はあって当たり前ともいっていい機能だけどその機能はプロ機に
ついているものと比べて大きく劣るにょ。
とはいえ、防水機能のようにJIS何等級という基準はなく自社基準でしかないにょ。
あくまで「防水」ではなく「防滴」であるため水没した場合には十分な効果は得られない
わけだからね。

ペンタックスの場合はK-7で小型軽量ながらK20Dで培われた高い防塵防滴機能を搭載して
いたにょ。(入門機でさえ、K200Dで防塵防滴を取り入れていたくらいだし)
そしてやはり大きいのは簡易防滴機能を搭載したWRレンズを標準化したことにょ。
D7000発表時にも書いたことだけど防塵防滴というのはボディのみに搭載していてもあまり
意味があるものではなくレンズとセットになって初めて効果を発揮するにょ。
レンズのみ雨濡れ対策をしてボディは雨ざらしということは普通はないため結局ボディが
防塵防滴対応だったとしてもレンズとセットで雨濡れ対策をせざるを得ないからね。
そういった環境下でも撮影しなくてはならないプロカメラマンのためにプロ向けとも
言える高価なレンズは各社とも防塵防滴対応しているにょ。
しかし、安価なレンズ、特にレンズキットとしてセットで販売されているレンズは
普通は防塵防滴には対応していないにょ。
そんな中、ペンタックスは対応しているためボディの防塵防滴が活きてくるにょ。

(6)ファインダー視野率に関しては視野100%はフラッグシップ機、プロ機の特権だった
けれど最近は増えつつあるにょ。
この度の両機種も視野率約100%だけど(EOS7Dのように)大きな誤差がある場合もない
わけではないため本当に100%かどうかは発売されてみないと分からないにょ。
ということでこれは互角と見なすにょ。

(7)測距ポイント数だけで見るとD7000の圧勝だけど実際に使ってみると11点でもそれほど
不満を感じることはないにょ。
実際私自身K200Dの11点測距で困ったことはないからね。
これがD50の5点測距になるとフレーミングの自由度は大幅に下がるためさすがに十分とは
いえなくなるにょ。

ここではポイント数だけではなくAF速度も加味しようと思うにょ。
とはいえ、現時点では情報に乏しくどちらが優れているという判断は付きにくいにょ。
確かにK-5はメーカーの謳い文句であればK-7と比べて大幅改善されたみたいだけどK-7の
時点でキヤノンやニコンと大きな遅れをとっていたためそれが詰め寄ることができたか
どうかというレベルではないかと思われるにょ。

しかし、「ペンタックスはAFが遅い」というのはペンタックスがボディ内モーターに
よってレンズのAF動作をしているというのも原因となっているにょ。
やはり、レンズに合わせて最適設計ができるモーター内蔵レンズの方が速度面において
有利なのは確実だからね。(とはいえ、レンズ内にモーターを内蔵していれば速いという
わけではなくあくまで一般論としての話だけど)
私が使っているD50はK200Dと比べて3年も古い機種でありながらAF速度では圧倒的に
K200Dより速いのは私がD50で普段使っているAF-S18-135mmが超音波モーター内蔵という
のが非常に大きいと思うにょ。

ペンタックスは手ぶれ補正にしろAF駆動にしろボディ内に拘っていたためレンズ内に内蔵
されているものはほとんどないにょ。
しかし、この度、K-5では本体セット用レンズとしてAF駆動用モーター内蔵のものが発表
されたにょ。
http://dc.watch.impress.co.jp/docs/news/20100921_394640.html
このDA18-135mmはフルサイズ換算だと28-200mmに相当する非常に使い勝手のよいレンズ
といえるにょ。
私自身普段D50で同じ焦点距離のズームレンズを使用しているけど普段撮影している
被写体の9割以上がそのレンズ1本でカバーできるからね。
135mm(換算約200mm)で足りないという場合は滅多になくその場合は換算400mm以上が
欲しくなるため結果的には1本でカバーするのが難しくなるにょ。18-270mmならば換算
400mmまでカバーできるけどレンズそのものが大きくなるし画質にも難があるにょ。

とはいえ、ペンタックスにおいてモーター内蔵のレンズのレンズは選択肢に乏しいのは
事実であり、やはりAF速度面においてはD7000には及ばないと考られそうにょ。

(8)シャッター速度は中級機では最近は最高1/8000秒が当たり前となってきているけど
その点においては両者とも互角にょ。
しかし、フラッシュ同調速度においてはやはり1/180と1/250では1/2段差がありこれは
明確な差といっても良いのではないかと思われるにょ。

(9)連写速度に関しては入門機のスペックが底上げされたせいか中級機も最近は大幅に
スペック向上しているにょ。(唯一前機種よりダウンしたのがEOS 60Dくらい)
連写速度が速ければ良いというわけではないけどフィルム1本で24〜36枚しか撮影できない
銀塩一眼とは異なりデジタル一眼では枚数をあまり気にすることなく撮影できるため速いに
越したことはないにょ。
問題はそこまでの実際の撮影においてそこまでの速度が出せるかどうかということと
バッファメモリの関係で連続撮影可能な枚数が決まってしまうということにょ。
従来であればペンタックスはAF-Cでもピント優先であったため5.2コマ/秒のK-7も実際は
1〜2コマ/秒でしか撮影できなかったけどK-r、K-5ではレリーズ優先が選択できるように
なったため(ピントが合っているかどうかは別として)連写性能は大幅に向上していると
思われるにょ。

(10)K-5は今の時期に登場しながら標準でSDXCに対応していないというのが難点にょ。
ファームアップでSDXCに対応予定とはいえ、高速転送のUHS-Iに対応しているかが問題にょ。
D7000ではUHD-Iに対応しているためSDXCカードではフルスピードで転送可能だし、SDHCも
高速転送のUHS-Iに対応しているものであればSDXCと同様に高速転送が可能になるにょ。
高速転送が可能になるということはバッファフル状態から開放されるまでの時間が少なく
なるだけではなバッファがフルになるまでの枚数も増える可能性が高いにょ。
その上、D7000はダブルスロット搭載で例えばRAW+JPEGではそれぞれ別メディアに書き込む
ということも可能だろうから書き込み待ちの時間はかなり緩和されていると予想され
これに関してはD7000の圧勝となるにょ。

(11)重量は両者の差は30g・・・ということでこれは体感できる差ではないため互角と
するにょ。


さて、全11項目において現時点で分かっている情報を元にK-5とD7000とで主観的な観点で
優劣を付けてみたけどその結果K-5の成績は(1)から順に△、○、○、×、○、△、×、×、
○、×、△(○:勝ち、×:負け、△:引き分け)、4勝4敗3引き分けでこの勝負は
引き分けに終わったにょ。
D7000はD90と比べて大幅なスペックアップがあり、このクラスでは最高と思われたけど
K-7は元々スペックだけは高かったためD7000ほどのインパクトはないけど十分にハイ
スペックということが分かると思うにょ。
もっともこれは私の個人的判断を元にしているため人によって大きく評価が分かれる
部分があるだろうし、D7000が圧勝している項目があるけどK-7がそこまで圧勝している
部分というのがない(強いて挙げるならば手ぶれ補正くらい)ために勝敗制ではなく
ポイント制にすればD7000が勝っていたかもしれないにょ。

個人的にはK-5、D7000のどっちを勝っても後悔することはないとは思うけどやはり
カメラである以上はどのような写真が撮れるかということが重要であり、それに対して
考慮する必要があるにょ。
個人的にはペンタックスの絵作りは好きだし、ファインシャープネスがなかなかすごい
ためK-5は魅力に感じるにょ。
ファインシャープネスは普通のシャープネスと比べ輪郭線が不自然に強調されずそれで
いてシャープになっているにょ。(ちょっと違うけど超解像に近い感じ)
K-7ではそれを改良したファインシャープネス2が搭載され、K-5ではそれをさらに改良
したエクストラシャープネスがどんなものかが楽しみではあるにょ。

しかし、ペンタックスを使ってみてAFの遅さとレンズの入手性の悪さも実感できたにょ。
K-5でそれが大幅に改善されていたとしても(7)で書いたようにまだまだキヤノンやニコンと
比べて大きな差がありそうな気がするにょ。
レンズも地方だと店頭にほとんど並んでないため取り寄せが基本となるにょ。(当然ながら
取り寄せの場合は安価で入手するのが難しい)
中古やジャンクでオールドレンズを買うというのも1つの方法(ペンタックスの場合は
MF時代のレンズであっても制限なく使用可能)だけどそれはあくまで趣味的なものであり
そのカメラの性能を活かすことはできないにょ。
そういうペンタックスの弱点を考えるとD7000と心が動いてしまうにょ。

あとは実売価格次第にょ。
両者ともにスタート時の予価は14万円(量販店で12万円台)とされるので私が買うであろう
1〜2年後の価格が購入する際の大きな分かれ目になるかもしれないにょ。



マリモーマさんへ
>iPhone/iPadアプリを作るには macが必要みたい
>もちろん iPhone/iPadも必要だけど 公開にも金がかかるらしい

登録料がかかるのは仕方がないとはいえ、やっぱり作るのにMacが必要という段階で
個人的にはかなり辛いにょ。
わざわざアプリ制作のためだけにMacを買おうとは思わないからね。
やはり、自分で作って気軽に公開したいという人はiPhone(iOS搭載機)ではなく
Android OS搭載機の方がいいかもしれないにょ。

379御茶目菜子:2010/09/22(水) 14:15:52
APS-Cで4600万画素をついに実現!?
フォトキナが開催・・・ということで連日書きたいネタがたくさんありうれしい悲鳴を
挙げているにょ。
それらを全部書き連ねてもいいけど別に新製品を紹介するサイトにするつもりは全くなく
私が感じたことをそのまま書くというのが本来の目的であるため本当に書きたいもの
だけを厳選することにするにょ。

シグマが防塵防滴ボディの「SD1」を発表したにょ。
http://dc.watch.impress.co.jp/docs/news/20100921_394996.html
あくまで開発中ということであり、発売は恐らく来年以降になるのだけどぶっ飛んだのは
そのスペックにょ。
何とAPS-Cサイズのセンサーを搭載しながら「4600万画素」だからね。
とはいえ、これはRGB三層構造になっているFoveonセンサーを搭載しているということで
三層を別々の画素として計算しているため4600万画素といっても4800×3200ピクセルに
過ぎないにょ。
したがって、一般的な画素数(ピクセル数)でいえば1536万画素となるにょ。

1536万画素といえば「普通」と感じてしまうの最近発表されたデジタル一眼が軒並み
1400〜1600万画素であることが大きいと思われこれはは昨今の高画素化がもたらしたもの
だといえるにょ。
ただし、画素数で解像感を比較できるのはセンサーサイズとセンサー構造が同じ場合に
限られるにょ。(無論レンズ性能も重要だけどそれは別に考える)
1/2.33インチセンサー搭載のコンデジとAPS-Cセンサー搭載のデジタル一眼とで同じ
1400万画素であれば同じような解像感になるというものではないからね。

あと解像感に大きく異なる原因となっているのはセンサー構造の違いにょ。
一般的なデジカメはRGGBのベイヤー配列のセンサーが採用されているにょ。
各画素は輝度情報しか持っておらずそれをフィルターを通すことでR、G、Bいずれかの
色情報へと変換され、周囲の色情報を元にRGBフルカラーの画像を生成しているにょ。
このためできあがった写真(JPEG画像)はベイヤー配列を意識する必要はないのだけど
ベイヤー配列であるが故に偽色や偽解像が発生しやすくそれを軽減するためにローパス
フィルターを装着して意図的に解像感を落としているにょ。
詳しくは3月17日に書いたのだけどこのために1200万画素のセンサーで1200万画素を
ピクセル単位で解像するのは不可能であり、それが数分の1まで落ちてしまうにょ。
ローパスフィルターの強さも異なるため一概には言えないけど実効解像力はセンサーの
画素数の2分の1〜4分の1程度になってしまうにょ。
つまり、1ピクセルでRGBすべての色情報を持つセンサーでローパスフィルターを使用して
いなければベイヤー換算だと実質解像力は2〜4倍になるということにょ。
これは実際の撮影サンプルを元に私が感じた結果だけどベイヤーの場合はR、Bの画素数が
全体の画素数の4分の1、Gは2分の1しかないことからも裏付けられているにょ。

さて、1画素でRGBの色情報を持つセンサーといえばやはり有名なのはFoveonセンサー
だと思うにょ。
このセンサーを搭載のデジカメはコンデジタイプのDP1、DP2、一眼レフタイプのSD14、
SD15がシグマから発売されているけど現行の機種は460万画素しかないにょ。(460万画素
であっても三層であるためスペック上は1400万画素となる)
それを考えると460万画素のセンサーというとしょぼい気がするけど1画素でRGBすべての
色情報を持つためベイヤー換算だとその2〜4倍の画素数を搭載した機種と同レベルに
なるにょ。

900万〜1800万画素となるけど比較をすればさすがに1800万画素搭載のEOS 7Dとかと比べて
負けることが大半であるため「4倍」はベイヤーにとってはワーストケースといえるにょ。
460万画素のFoveonセンサー搭載機は4倍の1800万画素ベイヤー機には(解像感で)勝て
ない場合が多いとはいえ2倍の900万画素のベイヤー機には多くの場合において勝っている
と感じているのでスペック上の1400万画素は決して伊達ではないといえるにょ。
もっとも「ベイヤーの○倍の性能」というのは被写体によって大きく変わってくるため
どんな場合でも成り立つものではない(片方に都合の良い条件で撮影すれば簡単に覆る)
のであくまで参考程度にとどめておく方がいいにょ。

それを元にこのSD1の1536万画素(三層構造で4600万画素)を考えてみるとベイヤーで
このセンサーと同レベルの解像感を得るためには最低でも2倍の3000画素以上はないと
話にならないだろうし、3倍の4600万画素程度は必要になるにょ。
APS-Cで現在最高画素数なのは1800万画素のEOS 7D/60D/Kiss X4だけど3000万画素や
4600万画素というのがいかに途方もないものかが分かるにょ。
それでも「将来的には達成できるのでは?」と考えている人がいるかもしれないにょ。
確かにセンサー性能はどんどん上がっているため高画素化はまだまだ可能なのだけど
問題はそのセンサー性能にレンズ性能が付いてこないということにょ。
デジタルの性能アップに比べてアナログ(光学系)の性能アップは微々たるものである
ため無意味な高画素化はコンデジのような「(解像しないため)画素数アップは
ファイルサイズアップになっているだけ」というような状況になってしまうにょ。

それに回折限界という物理的な限界はどうしようもないからね。
APS-Cセンサーで4600万画素であれば単純計算ではF5.6で回折限界になるにょ。(1/2.33
インチ1400万画素の極小ピッチのコンデジであればF2.8で回折限界となるけど望遠側で
F2.8より明るい機種なんて皆無であるためどれだけ高性能なレンズを搭載してももはや
解像するのは不可能になる)
一般的なズームレンズであれば絞り解放で収差の全くないパーフェクトなレンズである
必要があるにょ。

しかし、そんなものは存在しないし、今後も登場することはないにょ。
F2.8クラスのレンズであれば多くがF5.6付近でピークを迎えるものがあるけどF2.8
ズームが標準化することはありえないにょ。
現状の1800万画素でさえすでにレンズを選んでしまうものになっているのに4600万画素
まで画素数が増えてしまうと「縮小前提」と考えないと使えないものになるにょ。
しかし、1536万画素のSD1であればベイヤーで3000〜4600万画素クラスの解像感を持つと
考えられるけどレンズに求められるのは1536万画素となるにょ。
これは1800万画素のEOSよりは要求スペックは低いので何とか実用の範疇に収まるにょ。

ただしFoveonセンサーには4月9日に書いたような4つの問題点があるにょ。
 (1)色分離が不完全
 (2)高感度に弱い
 (3)小型化しにくい
 (4)シグマの開発力の問題

恐らくこれらの問題はこのSD1においても当てはまると思われるにょ。
(1)の色分離は長年同じセンサーを使い続けることで徐々に改善されてきたため最新機種
ではそれほど気になるレベルにはなってないけどこのSD1には再び新規設計のセンサーが
採用されているためこの問題が再び浮上しそうにょ。
(2)の高感度性能に関してもベイヤーに対して解像感で優れる反面、3層構造であることが
感度に対してネックになっているし、ベイヤーセンサーの場合はソニーは毎年のように
前年比で性能がアップしたセンサーを発表しているけどシグマはそんなことはできない
ため徐々に高感度特性を上げたものを作るというのは難しいからね。

確かに460万画素(三層で1400万画素)のFoveonセンサーを搭載したSD14は2006年に登場
したときはすごかったにょ。
2006年当時はEOS 30D(820万画素)、Nikon D80(1020万画素)が最新機種だったからね。
460万画素のFoveonセンサーでもその2〜3倍の画素数のベイヤーセンサー並の解像感が
得られるため当時の最新のベイヤーセンサー搭載機よりも解像感では優れていたにょ。
しかし、4年間Foveonセンサーのの進化が止まっているのに対してベイヤーの進化はずっと
続いていたのでその状況は変わったにょ。
1600万〜1800万画素のベイヤーセンサー搭載機と比較して460万画素のFoveon搭載機を使う
メリットはなくなってしまったにょ。

確かに等倍鑑賞では依然として優位性は変わらないけどベイヤーセンサーの場合は画素数が
多い分だけそれをリサイズすればいいし、最初から少ない画素数で撮影することで良好な
結果が得られることもあるにょ。
ペンタックスのK20Dから搭載された「ファインシャープネス」は解像感アップに貢献
しているけど「ファインシャープネス」を設定して1400万画素のK20Dを600万画素で撮影
するとFoveonに負けないくらいのピクセル単位で解像可能になるにょ。(通称名
「なんちゃってFoveon」)
私が使っているK200Dは元が1000万画素であるため「ファインシャープネス・600万画素」
であってもK20Dほどではないにしろ等倍鑑賞をしてもFoveonと比べてそれほど劣って
いるようには感じないにょ。

とはいえ、この1536万画素の新型Foveonセンサーによって再び大きくFoveonの評価は変わる
のではないかと思うにょ。
しかも、今回はベイヤーの画素数の進化が一時期ほど大きくないし上記のように将来的に
考えても難しいと思われるため解像感でこれを超えるようなAPS-Cセンサーは当分の間
(少なくとも4、5年の間)登場しないのではないかと思われるにょ。
そうなるとこのSD1に解像感で勝てそうなのは中判デジタル一眼くらいにょ。
来年にはフルサイズセンサー搭載の機種が一新されるだろうからその際には3000万画素
オーバーの可能性もあるにょ。
APS-Cの2倍以上のセンサーサイズを持つフルサイズセンサーであれば3000万画素でも十分
実用になるだろうけど(ただし、要求されるレンズ性能は極めて高い)それでも1536万
画素のFoveonセンサーに勝つのは難しそうにょ。

ベイヤーセンサーでは現在は中判デジタル並、近い将来に進化した35mmフルサイズ
センサーでようやく互角以上になれるという感じだろうからAPS-Cサイズで1536万画素を
実現した恩恵は非常に大きいにょ。
ただし、問題は一気に3倍以上の画素数増でダイナミックレンジが確保できているのか
とか、まともな発色が期待できるのかというのが懸念材料ではあるにょ。
現在のFoveonセンサーは当初はRAWで細かい調整をしてようやくまともに使えるレベルに
なっていたのが最近になってようやくカメラ内JPEG生成されたものもまともに使える
レベルになっていたからね。
恐らく新開発のセンサーであればまた実用レベルになるまで数年かかりそうにょ。
登場当初はまた同じく「解像感番長」になるのではと予想されるにょ。
しかし、どんな写真が撮れるのか早く見てみたいにょ。

380御茶目菜子:2010/09/23(木) 14:05:29
X100はミラーレスカメラに勝てるのか!?
フォトキナで発表されたシグマ「SD1」はびっくりしたけど富士フィルムから発表された
「PinePix X100」もなかなか魅力的なデジカメにょ。
http://dc.watch.impress.co.jp/docs/news/20100922_395566.html
このクラシカルなスタイルは個人的にはかなり興味をそそられるにょ。
しかし、それよりもむしろ中身の方に興味があるにょ。
APS-Cサイズのセンサーを搭載し、EVF、OVF(光学ファインダー)を兼用しているという
点もすごいにょ。

画素数だけなら普通のコンデジでも1400万画素に達し普通の人はまったく不満を感じる
ことが無くなったとはいえ、やはりコンデジで1000万画素オーバーはレンズに対して
完全にオーバースペックであり、センサーが小さいこともあってどうしても暗所に
弱かったり露出コントロールがあまりできないなどカメラ好きな人にとっては物足りない
面も多いにょ。
普通にL判で鑑賞するなら全く問題ないし、絞りのコントロールなんて普通の人には興味が
ないだろうから普通のコンデジでそれほど問題になることはないかもしれないにょ。

とはいえ、やっぱり「コンデジでは物足りない」と感じている人は少なくない(PCで等倍
鑑賞する人が増えているため画素数だけ増えたコンデジは粗が非常に大きいということが
分かるようになった)しそれらの人がデジタル一眼に流れるかというとそのサイズや重量の
問題で一眼レフは敬遠するという人は少なくないのではないかと思われるにょ。
そういう人たちに向けて作られているのが最近流行になりつつあるミラーレスカメラにょ。
古くはライカなどのレンジファインダー機でコンパクトスタイルのレンズ交換式カメラは
発売されていたけどデジタル全盛になってからはファインダー代わりに液晶画面が用いら
れるようになってオリンパスE-P1のようなカメラが登場したにょ。
それ以降はPanasonicのGF1、ソニーのNEX-5/NEX-3が登場し、キャノンやニコンも現在
開発中という噂もあるにょ。

ミラーレスカメラは基本的にデジタル一眼と同じセンサーが使われているにょ。
LX5、GRDIIIなどの高級コンデジは価格が高価であっても標準的なコンデジより1周り大きな
センサー(標準的なコンデジは1/2.33インチ程度なのに対して高級コンデジは1/1.6〜1.7
インチセンサー)を搭載しているもののデジタル一眼と比較すればその差はどんぐりの
背比べ程度になってしまうにょ。
そういう意味では高級コンデジはミラーレスカメラ登場によって厳しい立場に立たされたと
いえるかもしれないにょ。
筐体サイズでは有利ではあるものの性能差を詰めるほどではないからね。
とはいえ、センサーサイズによってはっきりとした性能差が出てくるのは暗所撮影時にょ。
明るい日中の屋外ではセンサーサイズの大きな差ほどは性能差はないにょ。
レンズ一体型ということを活かして専用設計にできる高級コンデジの方がレンズ交換式の
ミラーレスより解像感で有利になるためにょ。(あとイメージサークルが小さいために
レンズの解像力を上げやすいためセンサーサイズほどの差は付きにくい)

さて、その中に登場するのがこの度発表されたX100にょ。
安価なミラーレスカメラが登場前であったらこのような大型センサー搭載のコンデジ
スタイルは多くの人に歓迎されたと思うにょ。
ライカなんて一般人には手の届くような製品ではないわけだしね。
レンズ交換式ミラーレスカメラとは異なり一体型であるためレンズも最適化したものが
搭載可能というメリットはあるもののそれだけではもうインパクトは薄いにょ。
それに大型センサー搭載と言えばシグマのDP1のような機種もあるけど多くの人に受け入れ
られているとは言い難いにょ。(これはシグマというメーカーがカメラメーカーとして
知名度が低いことに加えてある程度知識のある人であるとFoveonセンサーというのが
ユーザーを選んでしまうというのも原因だけど)

X100はレンズ交換ができないということがデメリットになる(広角の単焦点というのは
光学ズームが当たり前の今となってはユーザーを選ぶ)のに筐体サイズもそれほど小さい
というわけではないからね。(換算35mm、F2のレンズを搭載しているということを考えると
悪くないサイズだけど)
これはNEX-5が登場でAPS-Cサイズのセンサーを搭載してもボディは小型化できると証明
されてしまったのが原因にょ。
EP-1がコンパクトなのはAPS-Cの6割のサイズのフォーサーズセンサーだったと思っていた
人が多かったけどそうでは無かったからね。
NEX-5が発売されてしまったためにAPS-Cサイズのセンサー搭載機はそれを基準に考えて
しまうにょ。

そのためX100は筐体サイズ面から考えるとそれほど魅力というわけではないにょ。
X100のNEX-5に対してアドバンテージとなりそうなのはレンズと操作性にょ。
NEX-5は本体が小型化されてもセンサーがAPS-Cサイズということでレンズの小型化は
難しいにょ。
6月4日に書いたように本体の小型化が活かせるパンケーキレンズは性能が芳しくないにょ。
センサーがAPS-Cよりも小型なフォーサーズ(マイクロフォーサーズ)ではレンズを小型化
しても十分な性能が得られそれは5月21日に書いたようにE-PL1の作例を実際に見てみれば
よく分かるにょ。
ズイコーデジタルのレンズが解像力に優れているというのとE-PL1がローパスフィルタが
弱いということもあってAPS-Cセンサー搭載のEOS Kiss X4をも超える解像感を実現して
いるからね。
X100に搭載のフジノンレンズの性能は分からないけどこのカメラに特化したものである
ため相当期待はできそうにょ。
そして最新のAPS-Cセンサー搭載であるため高感度性能も期待できそうにょ。

あと操作性に関してはNEX-5は小型化のためと想定しているコンデジ代替を考えている
ユーザー層に向けたためかほとんどの操作をメニューから選択して行う必要があるにょ。
このため「オート専用」と割り切って使うならば問題ないけど設定を変えながら撮影して
いく人にはとても快適に使用できるとはいえないにょ。
その点、このX100はシャッターダイヤル、絞りリダイヤルまで独立しているというのは
明らかにNEX-5とはユーザー層が異なると感じさせられるにょ。

さて、このX100の一番のウリとなると最初に書いたEVF、OVF兼用ファインダーにょ。
OVF、EVFのどっちが優れているかというと数年前までならOVFがほとんどの面で優れていた
(私が使っていたオリンパスC-730ultraやPanasonic FZ-5のEVFはさすがに良いものとは
言えなかった)けれどEVFの性能向上によって昨今はOVFとの差はかなり縮まったにょ。
それでもまだ「EVFは嫌」という人がいるためかは分からないけどこのX100ではOVFも可能に
なっているにょ。
とはいえ、一眼レフのようなレンズからの透過像ではなく銀塩コンパクトカメラのような
構造という単純なものにょ。
決定的な違いはOVF上にEVFのような各種情報を載せることができるということにょ。
EVFはファインダー内の情報量が多いというのが1つのメリットになっているけれどその
メリットがOVFでも使えるということにょ。
これなら「EVFは要らないのでは?」と感じてしまうけどパララックスがある関係上
視野率が低いため視野率を100%が可能なEVFが便利になる場面もあるためOVFとEVFが
自由に切り替えられるというのは大きなメリットとなるにょ。(視野率100%のデジタル
一眼においてはEVFのメリットはかなり小さい)

個人的にはミラーレス+パンケーキレンズよりも安いならばX100は欲しいけど残念ながら
価格は12〜15万円程度の予定になっているにょ。
これは「コンデジでは物足りない」というライトユーザーを主な対象としているミラーレス
カメラとは異なり、X100は見た目や操作性はある程度の経験者を対象としているためにょ。
ユーザー層の違いからNEX-5のようにヒットするとは思えないしコストもかなりかかって
そうな造りになっているためこの価格はやむを得ないけどこの価格によってますます
ユーザーを選んでしまいそうにょ。
もっともこれでもライカと比べれば格段に安いのでカメラ好きな人であれば問題ないような
価格だと思われるにょ。(一般的な中級機のデジタル一眼ボディ並の価格だし)

私は普段コンデジ(TX1)を毎日持ち歩いているにょ。
しかし、コンデジでは性能面では物足りないけどデジタル一眼をいつも持ち歩くのが難しい
ため撮影目的で出かける場合を除き一眼レフを持ち出すことはないにょ。
そのためこういったカメラは1台あると便利に感じるけどX100は価格面が(私にとっては)
障害となってしまうにょ。
やはり安価なミラーレスカメラが一番ということか・・・。
NEX-5は操作性とパンケーキレンズの性能がネックなので現時点だとE-PL1あたりが最も
無難な選択になるにょ。(E-PL1はGF1よりも高感度画質と解像感において優れている)

381御茶目菜子:2010/09/24(金) 13:30:36
iPod touchの罠・・・?
9月18日にはiPod touchが売れている理由を「アプリ」と「通信環境」の2点について変化
したのを理由に挙げたにょ。
アップル社もアプリに力を入れているのは確実で新型iPodの発表会でも売られている
アプリの数などをアピールしていたからね。

さて、すでに入手した人もいるであろう新型touchだけどやはりカメラ、マイクなど
従来のtouchには内蔵していないデバイスの搭載というのはアプリ面から考えると非常に
有用になるにょ。
それは何度も書いているようにiPhone用として作られたアプリ(touchで動作しない
アプリ)も動作するであろうことが予想されたからにょ。
では、実際にはどうかというとそういう簡単なものではなかったみたいにょ。
http://pc.watch.impress.co.jp/docs/column/config/20100924_395851.html

アプリ側ではカメラの有無を事前にチェックしてそれでカメラ機能を持たない従来touch
ではカメラ必須のアプリは使用できないようになっている・・・と思いきやそうでは
ないということにょ。
「iPhone」か「touch」かでカメラの有無を判別しているみたいだからね。
このような判別方法はさまざまなレギュレーションがあるPC用アプリでは考えられないけど
従来はtouchにカメラ機能が搭載されてなかったのでこれで全く問題なかったにょ。
しかし、この方法ではカメラを内蔵していても最初の段階で新型touchは動作機種から
外されてしまうことになるにょ。

つまり、touchでカメラ必須のアプリを使う場合には現時点ではちゃんとカメラの有無で
判別しているアプリに限られるということにょ。
上記の記事を書いた山田氏が試す限りそれは最初から内蔵されたアプリしかなかったみたい
だけどね。(主要なアプリでさえ機種でカメラの有無を判別しているということになる)
したがって、アプリの手直しをしないと現在のカメラ必須アプリは従来のtouchと同様に
使えない(可能性が高い)ということにょ。

iOS4から加わった「マルチタスク」だけどこれもPCで想像するマルチタスクとは異なり
バックグラウンドに回ったアプリは動作が一旦停止してしまうにょ。
これではWebラジオを聞きながらネットサーフィンというのはできないということにょ。
しかし、新しく加わったAPIを使用することでバックグラウンドに回ったアプリでも断続
動作が可能になるにょ。
要するにこれは「新しい機能に対応するにはソフトの手直しが必須になる」というのは
やむを得ないということにょ。
もっともtouchにおけるカメラ機能が「新しい機能」に相当するかは微妙だけど従来は
無かった物が加わるという観点からすると大差はないからね。
少なくとも現時点のアプリでは「touchにはカメラがない」ということを前提に作られて
いるわけだしね。

とはいえ、アプリの手直しをすれば動作すると思われるので悲観的になる必要はないにょ。
カメラを内蔵していない従来touchの場合は何をしようがカメラ必須アプリは動作する
ことはないわけだからね。
それにカメラ付きtouchが発売された以上はこれから作られるアプリに関しては単純に
機種(iPhoneかtouchか)で判別ではなくカメラ機能の有無で判別するようになるだろう
からそのまま新型touchで動作するものがメインになると思われるにょ。
しかし、すでに公開されているアプリの中にどうしても使いたいアプリがありそれが
カメラ必須であるために新型touchを買おうとしているのであればそのアプリが新型touchに
対応するのを確認してからの方がいいかもしれないにょ。
手直しをすれば動作するといってもみんなが手直しをしてくれる保証はないからね。

iPhone/touch用アプリといえば先日「ATOK Pad for iPhone」が発売されたにょ。
http://k-tai.impress.co.jp/docs/news/20100921_395371.html
PCではMS-IMEではなくATOKを使用してる私としては非常に興味が惹かれるものだけどこれは
実はただのメモアプリにょ。
PCのように日本語入力システムそのものを標準のものと置き換えることができないため
このようなアプリ+日本語入力システムという形を取っているにょ。

「せっかくのATOKもそのメモアプリでしか使えないなら意味がない」と感じる人もいる
かもしれないけどiOS4から加わったマルチタスクが活きてくるにょ。
PCを使いmixi、ブログ、掲示板などに書き込む場合は直接入力フォームに書き込むのでは
なくテキストエディタで書いたものをコピペする人が多いと思うにょ。(少なくとも
私はそうだし)
iOSがマルチタスクに対応したことでそれと同じことを行えば良いというだけであり
全く問題はないにょ。
ただし、Twitterのように書き込める文字数が極めて少ないものに関してはわざわざその
ようなことをするのは面倒に感じるけどTwitterへの転送機能は備えているみたいなので
その辺は問題なさそうにょ。

アップル社が情報を開示し標準日本語入力システムと置き換えができるようになるのが
一番だけど山田氏の記事にあるようにそうなると様々な問題が発生することになるからね。
端的に言えばセキュリティ面で脆弱となるような行為をしたくないということにょ。
FlashをiOS(というかSafari)でサポートしないのもFlashはアップル社がコントロール
できない代物であるというのが最大の理由だからね。
http://journal.mycom.co.jp/news/2010/04/30/003/index.html
コントロールできないということはFlashそのものに脆弱性があっても手出しできないと
いうことになるにょ。

ユーザーにとっては不利益となることだけど企業としてしまえば「余計な問題点を抱え
たくない」というのが本音ではないかと思うにょ。
そういった企業側の本音がどうであろうとユーザーには選択する権利があるにょ。
自分が使いたいものでなければ別のものを買えばいいというだけの話だからね。
Flashがどうしても使いたければAndroid OS搭載機を買えばいいし、(現時点で)カメラ
必須のアプリを使いたければ新型touchではなくiPhoneを買えばいいというだけの話にょ。

382御茶目菜子:2010/09/25(土) 14:16:35
ネット配信がTVを滅ぼす!?
米国のビデオレンタル大手Blockbusterが経営破綻をしたにょ。
http://av.watch.impress.co.jp/docs/news/20100924_395966.html
日本と米国では置かれている状況が異なるとはいえ、根本的な面ではそんなに違いはないと
思われるにょ。
どこのレンタルビデオ店も苦戦しているけどその理由となっているのは恐らく下記の2つの
理由によるものにょ。

(1)ネットレンタル
(2)ネット配信(VOD)

(1)レンタルビデオの最大のネックは借りたり、返却したりする手間がかかることにょ。
借りに行くときは特定の作品が決まってないと店頭で選択するだけだから大して時間は
かからないとはいえ、それでもその特定の作品を見つけ出すのは大変だし、目的があって
行ってその目的となるタイトルの品がレンタル中だったらショックだからね。
適当に気に入ったものを探してそれをレンタルするだけというならば借りるのに「手間」を
感じることはないけど返すのは手間だからね。
もっとも返すついでにまた借りるというのを繰り返すならばそれも手間ではなくなるため
頻繁にビデオレンタルを利用する人であれば問題はないにょ。

日本は米国と比べたら面積当たりのビデオレンタル店は遙かに多いにょ。
私がいる地方都市でさえも5km四方に3軒のレンタルビデオ店があるにょ。(ここ数年で
かなり減ってしまった)
仕事帰りの道にはないけど少し寄り道をすれば十分に行けるにょ。
それでも私はここ数年レンタルビデオ店に行ってないにょ。
これは特に見たい作品がないというわけではなく普段録画している番組を視聴するので
一杯というのもあるし、本当に見たい作品であればレンタルではなくDVDやBDを購入する
のでレンタルを使用する機会がないということにょ。

とはいえ、TVで放送はしてない作品、かつ、買うには至らない作品というものであれば
やはり、レンタルなどに頼る必要があるにょ。
そういう時に便利なのがネットレンタルにょ。
在庫数も豊富だし実際に店頭まで行って借りようとして貸し出し中・・・なんて事態も
起こらないからね。
返却も郵送するだけだからわざわざ店頭まで行き返却ボックスに入れるよりは楽にょ。
店頭でパッケージを見ながら選択するというわくわく感はないものの作品を見るだけに
徹するならばビデオレンタル店の存在価値はかなり薄れていると思われるにょ。

(2)ネットレンタルも結局はネットを利用したレンタルビデオ店であり根本的な面はそれ
ほどリアル店舗とは変わらないにょ。(比較すればメリットが大きいというだけ)
その存在価値さえ脅かしてしまうのがネット配信にょ。
ネット配信にもさまざまなものがあるけど「レンタル中になる可能性はゼロ」でなおかつ
「自宅ですぐに見れる」というのが大きいにょ。
ネットレンタルでも仕事が休みの日に合わせて事前にレンタルをしておく必要があるけど
すぐに見れる動画のネット配信であればそんな心配は不要にょ。
データのみの配信だからレンタルビデオより割安にしてもらいたいところだけどこれは
サーバや回線維持費がかかるからやむを得ないか・・・。

ブロードバンドが普及して以来急速にネット配信サービスは増えたと同時に画質面でも
大幅な改善が図られるようになったにょ。
昔(2000年代初頭まで)はストリーミング配信では56Kモデムでも見れるような低ビット
レートであり、とても満足のいくようなものではなかったし(私は当時地元で放送して
いなかった「りぜるまいん」を毎週ナローバンドによるネット配信で見ていた)、一旦
ローカルに保存して再生できるようにした場合はDRMの管理が難しいということで利用する
のにハードルが高い(ダウンロードに時間がかかる)というのが理由ではなく著作権者
側の問題で普及には至らなかったにょ。

しかし、今では先進国のブロードバンド普及率は80〜90%になっており多くの人がまともに
ネット配信サービスを利用できる環境下にあるといっても良いにょ。
ネット配信といえばVODサービスによっていつでも好きな作品を見れるものがポピュラー
だけどそれでも見れない作品があるというのは否めないにょ。
そういうものはレンタルビデオの方が有利か・・・と思いきやそういったタイトルは
特殊なものが多いためビデオ化されてない場合も少なくないにょ。
昔の作品(80〜90年代)であればVODでも取り扱っている場合が少ないけどそういう作品は
レンタルビデオ店にも置いてない場合も多いにょ。
面積に限りがあるレンタルビデオ店の場合は回転率の低い作品は店頭から取り除かれる
運命にあるからね。
タイトル数がまだ少ないのがネット配信の難点だけどそれは時間が解決してくれると
思われるにょ。

ビデオレンタルにはないネット配信のメリットはまだDVD化されてないTV放送作品の配信にも
あるにょ。
私は主にアニメを見ているのだけど最近多い1クール(3ヶ月)もののアニメの場合は
放送が始まって約3ヶ月後にDVDの第1巻が発売されることが多いにょ。
つまり1クールアニメの場合は放送が終了する頃(もしくは放送を終了してから)ようやく
そのアニメのDVDを入手可能ということにょ。
これはコレクターであれば問題はないけど見たい作品を3ヶ月待つ必要があるというのは
かなり辛いにょ。

昨今はHDDレコーダーが普及しており、録画した番組を繰り返してみるということは
VHS時代よりは遙かに楽になっているにょ。
そのためそういったTV放送された作品のDVDは高画質(とはいえ、HDの地デジの普及に
よって画質を求めるならばDVDではなくBDを買わなくてはならないけど)、もしくは
コレクター目的となっているにょ。(アニメの場合はTV放送から画像を修正している場合も
あるのでそれを目的としている人もいる)
したがって、その作品がTV放送されてない地方に住んでいてその作品に興味がある人は
(レンタルにしろ購入にしろ)見るためだけに3ヶ月待つ必要があるにょ。

そういうときに便利なのがネット配信にょ。
昨今はP2Pによる動画共有や違法な動画配信サイトも少なくないけど公式に認められている
ものだけでもアニメの場合バンダイチャンネル、アニメワン、ニコニコアニメチャンネル
などがあるにょ。
それらを活用すればまだDVD化されてない最新アニメをネット上で見ることができるにょ。
これはTV放送にかかる金額よりもネット配信にかかる金額の方が安いことが理由になって
いるにょ。

アニメの場合は、TV放送は主に「DVDを売るための宣伝」となっており、より多くの地域で
放送することがより大きな宣伝効果を生むにょ。
しかし、そのために多くのコストがかかり損益分岐点も上がってしまうにょ。
かけただけの金額を回収できればいいのだけど現実問題からいって地方までカバーする
というのはコストに合わないためよほどの作品を除き深夜アニメは東名阪を中心に
放送されているにょ。
東名阪をカバーすれば人口比率では7割くらいあるわけだしね。
つまり、地方民にとっては東名阪よりもよりネット配信の重要性が高いということにょ。

こうやって考えるとリアル店舗のレンタルビデオ店のメリットは昔と比べてかなり薄れて
きていることがよく分かるにょ。
それと同時にTVの存在価値も薄れているにょ。
ネットレンタルにしろ、ネット配信にしろ「TV放送された作品」を見る場合であっても
リアルタイムで視聴するわけではないからね。
「TVを見る」というのは視聴が無料だから(実際はNHKは料金を払っているから完全に
無料というわけではないけど)というのが主な理由だと思うにょ。

昨今は視聴率低迷が続いており、広告収入の減少が輪を掛けてTV局を悩ませているにょ。
実は厳しいのはレンタルビデオ店ではなくTV局なのかもしれないにょ。
もしも、上記アニメ配信のように最新話は1週間無料、それ以前のものは一定料金で
視聴可能ということがすべてのコンテンツに当てはまればTV放送を見る人は激減する
のではないかと思われるにょ。(「れでぃ×ばと」のように最新話はTV放送と同じ時刻で
リアルタイム配信されるとなお良い)
BGM代わりにTVをつけているという人を除けば見たい放送があるから見るという人が
大半だろうからね。
「TV放送を見たい」のではなく「作品(コンテンツ)を見たい」ということにょ。
とはいうもののTV局から離れて作られるアニメとは異なりバラエティ番組などはTV局が主導
となっているためTV局が無くなればコンテンツそのものが作られにくくなってしまうため
そういう「ネット配信で解決」という単純なものではないので難しいところにょ。

383御茶目菜子:2010/09/26(日) 13:56:42
小さいものが良いとは限らない
ケンコーが超小型のレンズ交換式デジカメを発表したにょ。
http://dc.watch.impress.co.jp/docs/news/20100925_396108.html
ケンコーはデジカメ用のアクセサリーメーカーとしては有名だけどまさかケンコーが
デジカメ、しかもレンズ交換式のデジカメを発表するとは驚きにょ。

本体サイズは明かされてないけどホットシューのサイズから判断すると概ね10×6×2cm
くらいに見えるにょ。
一般的なコンデジと比べてそれほど大きな差はないサイズにょ。(E-PL1やGF1は小さいと
いってもコンデジと比べたら明らかにサイズが大きい)
「ちっちゃいもの好き」の私としては興味が惹かれるにょ。
レンズ交換式となると問題はレンズラインナップだけど汎用のCマウントであるためそれは
問題ないにょ。
Cマウントは古くは16mmビデオカメラで使われており今でも防犯用カメラなどで使われて
いるため一般人が交換レンズを目にする機会こそないけど市場には多くの品が出回って
いるにょ。
とはいえ、入手性が良いというわけではないのでこの6mmの標準レンズがセットで売られる
ことになっているにょ。

さて、「6mmが標準レンズ」となるとかなりセンサーサイズが小さいようなイメージになる
けれどセンサーサイズはどのくらいかを考えてみるにょ。
まず、「標準レンズ」というのがフルサイズ(35mmカメラ)換算で何mmかということから
考えなくてはならないにょ。
一般的に50mmが標準レンズとされているけどそれは人間の目で普通に眺めた視野角に
近いためにょ。
それで考えると50÷6≒8.3でありフルサイズと比べて対角が1/8.3のセンサーとなるにょ。
フルサイズはセンサーサイズは対角約43mmであるためその1/8.3となると対角5.2mmにょ。
このケンコーのデジカメに4:3のセンサーが搭載されていると考えるとセンサーサイズは
1/3.5インチくらいになるにょ。

とはいえ、標準レンズが50mmというのは35mmカメラの基礎を作ったライカが標準レンズと
していただけであってそれは絶対的な基準ではないにょ。
一般的にはセンサーサイズの対角が標準レンズとされており、中判、大判カメラでは
それが基準となっているために全体からするとむしろ35mmカメラが例外とも言えるにょ。
昔は一眼レフ用のレンズとして広角レンズは技術的に作るのが難しかったために50mmが
標準レンズとなっただけ(昔は55mmの標準レンズというものも多かった)でありそれで
考えると対角6mmのセンサーは約1/3インチとなるにょ。

ここでの標準レンズというのは画角的な意味(望遠レンズの特性と広角レンズの特性が
弱まった中間的なもの)ではなく最初の1本として使いやすい画角であれば換算35mm前後の
焦点距離という可能性が高いにょ。
ズームレンズが無かった昔のコンパクトカメラの多くが35mm前後のレンズを搭載していた
というのはその汎用性が極めて高いからだしね。
それで、考えるとセンサーサイズは約1/2.4インチになるにょ。
これだと現実味を帯びてきたにょ。
このカメラのためだけに新センサーを用意するなんてことは考えにくいため汎用品を
使うだろうし、「1400万画素」となると後述のイメージサークルとの兼ね合いを考えた
場合に1/2.33インチのものしかないためそれを使うと予想されるにょ。
それなら最初から計算なんてする必要は無かったか・・・(笑)

レンズ交換式とはいえコンデジと同じセンサーというのは微妙に感じるかもしれないにょ。
そもそもCマウント自体が1/2〜1/3インチのセンサーを想定したイメージサークルとなって
いるためにそれより大きなものに装着する場合は画面周辺がけられてしまうにょ。
フランジバックが短いことで各種のマウントアダプターが発売されたマイクロフォーサーズ
だけど4/3インチセンサーを搭載しているフォーサーズであっても周辺部まではカバー
できてないからね。(これはこれで面白い写真になるけど)
http://dc.watch.impress.co.jp/docs/review/dressup/20100521_367121.html
2/3インチくらいのセンサーだと良かったけど無い物ねだりをしても仕方がないか・・・。

仮に1/2.33インチというのが正しいと考えてみると画素ピッチから考えて回折限界は
F2.7になるにょ。
つまりF2.8以上の暗いレンズを装着した場合には回折現象により徐々に解像しなくなって
しまうにょ。
幸いにしてCマウント用のレンズはどれも明るいものばかりにょ。
単焦点ならばF1.4なんて普通だし、F0.75の単焦点やF1.4のズームレンズも存在するにょ。
したがって、F2.8以上を使わなくても十分に絞りのコントロールは可能になるにょ。
ただ、明るいレンズで絞り開放を使うためには1万分の1以上の超高速シャッターが必要に
なる場合もあるけどそれは難しいだろうからNDフィルターをボディ内に内蔵もしくは
ISO25くらいの超低感度に設定できるようにして欲しいところにょ。

これをコンデジ代わりに使おうと思っている人がいるかもしれないけどCマウントは電気
接点を持たないためにフルマニュアル(完全手動式)で行うことになるにょ。
絞りもピント合わせも手動だけど絞りはいいとして問題はピント合わせにょ。
光学ファインダーを持たないデジカメにとって重要となるのは液晶画面にょ。
フルオートでも撮影できるマイクロフォーサーズなど(マウントアダプターを使ってMF用の
レンズを使うのはあくまで趣味的なものにすぎない)とは異なり完全マニュアルでしか
撮影できないためこの使い勝手が商品価値を決めてしまうからね。
マニア受けを狙う商品であれば高精細液晶で拡大表示によるピント合わせをサポートして
いるということが重要になると思われるにょ。

カメラ自体は小型でレンズも明るさの割りには小さいもののやはり手動ということで
ピントリングや絞りリングがある関係上レンズは薄型化はできないにょ。
そのためレンズ装着時の厚さはパンケーキレンズを装着時のミラーレスカメラよりも
厚くなると思われるにょ。
レンズが明るいため絞りのコントロールの幅が大きいとはいっても画質面を考えれば
一体型の方が有利にょ。
コンデジがあの極小センサーで十分使えるレベルの画質になっているのはセンサーに
合わせてレンズが作られそれを最適化された画像処理エンジンによって支えているお陰にょ。
9月23日に書いたFinePix X100も一体型にしたのは画質を重視するためだからね。
つまり、画質を重視するならばレンズ交換式ににするよりも一体型にする方が有利と
いえるわけにょ。

したがって、「レンズ交換式だから一眼レフ並の画質がある」というわけではなくむしろ
その逆だと言うことがいえるにょ。
汎用性と性能を両立させるのは難しいし、小型化と性能を両立させるのも難しいわけだから
このケンコーのデジカメに高性能(ここでは高画質)を期待するのは間違っているにょ。
オリンパスのズイコーデジタルはフォーサーズというAPS-Cよりも小さいイメージサークル
用として作られているために高解像力を持つようにイメージサークルが小さい方が
レンズ設計においては解像力では有利になるけどこれは最初からデジタル用として設計
されているのに加えて高画素化が進んでいるAPS-Cセンサーと比べて画素ピッチがそんなに
変わらないというのが影響しているにょ。
いくら専用設計かつイメージサークルが小さいことが解像力にプラスに働いたとしても
コンデジのように画素ピッチが狭いと画質面では不利になるにょ。

しかし、コンデジを改造してCマウント用レンズを取り付けられるようにして遊ぶという
ユーザーもいるわけだし、そこまで改造するスキルがないという人が遊びで使うには
なかなか面白いものだと思うにょ。
カメラである以上は画質は重要な要素だけど撮っていて楽しいかどうかも重要になって
くるからね。

384御茶目菜子:2010/09/27(月) 14:21:25
新型iPod touchでモバイル環境は一新する!?
地元では未だに店頭で見る機会のない新型iPod touchだけど店頭販売が確認されしだい
購入予定であるため金欠状態の今月に買わなくて済みそうにょ。(まぁ毎月金欠だけど)
ちなみに私が現在持ち歩いているモバイル機器は下記のような感じにょ。
http://ww5.tiki.ne.jp/~ochame/test/mobile10.jpg
この中で通信機能を持つ端末だけを抜き出すならばこのようになるにょ。

 モバイルランクA ケータイ 905SH
 モバイルランクB VAIO UX
 モバイルランクC Let'snote R5

新型touchを買うことで最も大きいのはケータイを買い換えずに済むということにょ。
今のケータイに大きな不満はなく(ちょっと分厚いのと3年間使ってきたせいで外装が
ボロくなってきたくらい)性能面で不満に感じるのはネット機能くらいにょ。
標準Webブラウザは制限が多いし、フルブラウザも搭載しているのが初期のjigブラウザ
であるためこちらも制約が非常に多いにょ。
あとWeb閲覧するならばWQVGAという狭い画面もネックだし、何より通信料金もネックに
なるにょ。

今はソフトバンクのケータイに加えてイーモバイル(Pocket WiFi)にも支払っている
けれどパケット料金に上限があるとはいえ、両方を上限まで使うとコスト的な負担が
大きいためケータイのパケット料金はなるべく抑えるようにしているにょ。
そのためPocket WiFiによる通信を主に行っているけどそこで出番がくるのがVAIO UX
となるにょ。
UXを用いてPocket WiFi経由で通信を行えば必然的にケータイで通信を行う機会は減り
(ほとんどメールくらい)パケット料金節約にも繋がっているにょ。
実際これでケータイの方はほとんど基本料金の範囲内(パケット定額の下限で賄われて
いるにょ。
それならばパケット定額さえ要らないのではと思う人もあるかもしれないけど定額
プランに入らなければパケット料金そのものが現状の5倍に跳ね上がるため結果的に
割高になるだけではなく不意に使った際に高額請求の心配も要らなくなるため外すことは
できないにょ。

こうなると実はtouchによって一番影響を受ける可能性が高いのはケータイではなくUXの
方かもしれないにょ。
UXの不満は筐体サイズ、バッテリ駆動時間、起動にかかる時間などにょ。
WinXPでもサスペンドからだと5秒くらいで復帰できるもののサスペンド状態でのバッテリ
消費が無視できないほど大きい(フル充電でも40時間程度しか持たない)ために普段は
休止で運用しているからにょ。
そのため起動には40秒くらいの時間がかかってしまうにょ。(OSの復帰だけであれば
メモリが512MBしかないため25秒くらいだけどその後15秒くらいはキーを受け付けて
くれないためトータルでは約40秒になる)
さすがにこれは気軽に使おうとする場合には抵抗があるレベルにょ。
筐体サイズは冬であればコートのポケットにすっぽり収まるものの服やズボンのポケット
だどギリギリであるため入れるのには躊躇するレベルにょ。

さて、UXの不満点はメモリが512MBしかないため複数のアプリを同時に使う場合にやや
厳しい(というかGoogle Chromeでタブを数個開いただけで512MBを大きく超えてしまう)
だけでなくキーボードの出来が最低であるということにょ。
これは昨年12月10日に書いたようにキートップに木工用ボンドを盛りそれでキークリック
感を上昇させることでわずかながら改善したにょ。
とはいえ、UXのそれらの不満はいつもLrt'snote R5を持ち歩いていることで気にならない
ようになっているにょ。

R5のスペックはCore Solo 1.2GHz、メモリ1.5GBということで今となってはネットブックに
毛が生えた程度の低スペックだけどモバイル時での使用に限って言うならば(XPの場合)
Atom+メモリ1GBで十分に感じるのでこれで不満はないにょ。
もっとも「モバイル用」としてだけではなく「自宅でのサブ機」としてもR5は活躍して
いるものの自宅サブ機として使うならばYouTubeのHD動画はWebブラウザ上でまともに再生
できない(一旦ローカルに保存すれば4月26日に書いた方法によってフルHD動画もR5で
ほぼコマ落ち無く再生できる)というCPU性能不足に加えてメモリが「1.5GBしかない」と
いうのも不満になっているにょ。

モバイル時では1GBで十分で自宅で使うならば1.5GBで不満というのはなぜかというと
やはり使い方の違いが大きいからにょ。
私は趣味でPCを使って絵を描いているけど昔であれば縦×横のピクセル数で言えば200〜
300万画素程度のサイズだったのが今は800万画素以上になっているからね。
先日描いた絵も可逆圧縮されたpsd形式でも60MBを超えており、それを開くだけで600MB
以上のメモリが必要になったにょ。
当然のことながらメモリ1.5GBでは編集時はスワップの連続にょ(笑)

フルHD液晶、メモリ4GB搭載、の自作PCがあるのだからそっちで描けばいいけど自作PCは
部屋の隅にあるためスイッチを入れるのが面倒なのに加えて部屋の隅にあるが故に液晶も
22インチにもかかわらず10.4インチのR5の方が体感的に大きく感じるくらいにょ。
メモリ768MBのR3で不満に感じたからR5に買い換えてメモリを1.5GBにして快適になった
と思いきやそれに合わせて使い方まで変えた(変わった)ので結局快適ではなくなって
きているということにょ。
とはいえ、これも別にメインノートや自作PCがあるからこそR5が活用できているとも
いえるにょ。(重い作業をR5でしていたらとてもお絵かきなんてしているスペック的な
余裕はない)

お絵かきについて少し補足をすると昔は自作PCで描いていたものの急な停電やコンセント
抜けによるデータ損失の経験を幾度もしたために同じメモリ512MBのPen3ノートで書く
ようになったにょ。
その後、メモリ768MBのPenMノートで書くようになりそれと同じだけメモリを搭載した
Let'snote R3で描くようになったにょ。
これによって、自宅の好きな場所で描けるようになっただけではなく常時サスペンド
状態であるため少し描いて一旦終了しても続きをすぐに描けるようになるというメリットが
出てきたにょ。
そして、メモリ1.5GBのR5で描くようになり現在に至っているわけにょ。
したがって、高性能な自作PCがあるのにR5で描いている点に関してはおかしな話に感じる
かもしれないけどそういった経緯をふまえると別におかしなはなしではないにょ。
もっともメモリが増えるごとに作成サイズが大きくなったので相殺されているために
メモリが増えても全然快適にはなってないけどね(笑)

これらをまとめてみるとケータイの不満はUXでカバー、UXの不満はR5でカバー、R5の不満は
自作PCでカバーとなっているにょ。
それらは単体で見ると不満は大きいけどお互いを補うことで現状ではうまくバランスが
取れているにょ。
さて、ここにtouchが入ったらどうなるのか・・・?
単純にプラスだと持ち物が増えるだけなので何かと置き換えになるにょ。
そうなると真っ先にリストラ対象となるのはUXにょ。

ただ、UXを無くせばR5を持ち歩いてい無いときにWindowsアプリが使いたい場合には困る
という問題があるにょ。
昨今はWindowsに依存する機会は減ってきてるためそういった機会はほとんど無くなって
いるけど現状よりマイナスになるという要素は極力無くしたいからね。
それは400g程度のポケットサイズPCを買うことで改善できるにょ。
400gに約100gのtouchをプラスしてもUXと同じ500g程度になるからね。
これで重量面は維持したまま現状よりも改善できるにょ。

しかし、その場合はR5の登場が激減しそうにょ。
UXの不満であるキーボードと駆動時間が克服されているようなポケットサイズPCであれば
約1kgのR5を別途持ち歩く価値は大きく減ってしまうからね。
十分に棲み分けはできるとはいえ、それを持ち歩くに値するかどうかが重要にょ。
iPadがネットブックよりも軽量な約700gという重量であってもそれを持ち歩くのに値する
かどうかとなると大半の人は持ち歩くには値しないと判断しているわけだからね。
現在はUXのキーボードの不満があまりに大きい上に連続2時間も使用できないということで
モバイル時のR5の使用頻度は極めて高いにょ。
ただ自宅メインで使うならばR5のサイズは必要ではないにょ。
B5用紙サイズは私が普段持ち歩ける限界サイズとはいえ、たまに持ち出す程度であれば
12.1インチ液晶のモバイルノートでも十分だからね。

別にわざわざ減らす必要が無くtouchが便利であれば単純にその分だけ増やせばいいと
考えるかもしれないけど「便利だから持ち歩く」というのであれば持ち物は際限なく増えて
いくことになるにょ。
結局はそれを持ち歩くのに値するかどうかということになるわけにょ。
ネットブックがあれだけ売れているにもかかわらず持ち歩かれないのは1kgオーバーの
機器を持ち歩くのが大変というのもあるけどケータイ(スマートフォン)があるから
それで十分と考えている人が多いともいえるにょ。
要するに別途持ち歩くのに値するかが重要だからね。
その考えでいくとネットブックが仮に1kgではなく500gでも大きく変わることはないにょ。
ただ、ろくにWeb閲覧機能のないケータイであれば通信機能がある端末は有用になってくる
ように同じ機器を持ち歩く場合でも別途何を持ち歩くかによっても変わってくるにょ。

つまり、touchが加わることで単純に持ち物を増やすのでないならばtouch導入によって
私のモバイル環境の大きな再編が必要となるということにょ。
今の環境になるまでも何度も失敗を繰り返し、それによって私がモバイル機器にモバイル
ランクをつける原因となったにょ。
しかし、touchを導入すればすぐではないにせよ大規模な再編をすることになると思うにょ。

385御茶目菜子:2010/09/28(火) 14:14:52
GALAPAGOSは独自ではなく標準を目指す!?
シャープが電子ブックサービス「GALAPAGOS(ガラパゴス)」 を発表したにょ。
http://pc.watch.impress.co.jp/docs/news/20100927_396414.html
GALAPAGOSは電子ブックの配信サービス名と端末名称となっているけどガラパゴスと言えば
ガラパゴスケータイ(ガラケー)をイメージする人も多いのではないかと思うにょ。
とはいえガラケーという呼び名も元々「ガラパゴス諸島」の「ガラパゴス」から取られた
もので独自の進化を遂げたもののことにょ。
しかし、ガラケーの実態を合わせて本来であれば「独自な進化」がガラパゴス化であるはず
なのに「閉鎖的」というのをガラパゴス化と考えている人も少なくないにょ。

閉鎖的であるなら完全な垂直統合なiPhone(iOS搭載機)もガラパゴス化といってもいい
ものになるにょ。
これはAndroid OS搭載機と比べると制約が多いからね。
つまり、ガラパゴスを「閉鎖的」という意味で捉えていたらiPhoneはガラパゴスケータイに
なってしまうということにょ。
「独自進化≠閉鎖的」なのに・・・。

とはいえ、ガラパゴスにネガティブなイメージを持っている人も少なくないのにサービス
名や端末名にそれを用いるというのはかなりの英断だったと思うにょ。
http://pc.watch.impress.co.jp/docs/column/gyokai/20100928_396398.html
もっとも、「そういう人がいる」というだけであってみんながそう思っている(それが
多数派)というわけではないためそれは問題ないにょ。
しかし、「ガラパゴス=独自の進化」と考えると「進化するGALAPAGOS」というのは一体
何なのかと思ってしまうにょ。
これは、ガラパゴスと言う言葉が日本では一人歩きをしているため上記のように本来とは
異なる意味で用いている人が多いという点があるからだと思うにょ。
そのためシャープは「GALAPAGOS is not ガラパゴス」というのをスタンスにしている
模様にょ。

さて、名称はともかくとして重要なのはサービスと端末にょ。
GALAPAGOSのメインとなるのは次世代XMDFフォーマットにょ。
まずはXMDFについて書いておくと要はXMLをベースとした独自フォーマットにょ。
今は国際フォーマットとして認められているとはいえ、使用するにはシャープに利用料を
払う必要があるにょ。
「そんな独自規格を使うより利用が無料なオープンな規格の方がいいに決まっている」
と考えるかもしれないけどオープンだと広く普及はしても商業的には成功するとはいえ
ないにょ。
それはデジタルにつきもののコピー問題が付きまとうからね。
iPhone用アプリは基本的にApp Storeで入手したアプリでないと使用することができない
けどこれによって大手ゲームベンダーも積極参入しているわけにょ。
これがオープンでコピーフリーだと積極参入するはずがないからね。

コピー対策として用意されているのがDRMにょ。
DRMはどのように実装するかはコンテンツによって異なるけど子コピーはできても孫
コピーはできないとかアカウントや端末に紐付けされているなど様々にょ。
App StoreやiTunesストアではアカウントに紐付けされているし、DSiウェアや一般的な
ケータイアプリや着うたは本体に紐付けされているにょ。
したがって、他人にデータだけを渡した場合でも使用することはできないにょ。

XMDFでは暗号化、改ざん防止、フットプリント機能などが導入されているにょ。
コピーは制限無くできるもののフットプリント機能、つまり、そのデータに埋め込まれた
刻印によってその持ち主の特定ができるため不正コピーをしてもその出所が分かって
しまうにょ。
またそれを書き換えようとしても改ざん防止機能や暗号化機能があるため容易ではない
からね。
とはいえ、どんなコピー対策をしたところでそれを破る人がいるため100%安全なもの
というものは存在しないにょ。
Blu-rayなどに用いられている強固であるHDCPもマスターキーが流出してしまったために
それを破るのが簡単にできてしまうようになったからね。
http://www.itmedia.co.jp/news/articles/1009/20/news004.html

XMDFはそのようなコピー対策に加えて日本語を禁則、ルビ、外字など紙の書籍で実現
可能なことはすべてサポートしているにょ。
これは日本発のフォーマットだからこそできることだといえるにょ。
それでも「独自仕様だから駄目」というのであればAmazonのKindleもAppleのiBooksも
駄目になってしまうにょ。
オープンでありながらDRMでしっかり管理されているというのは相反することにょ。
とはいうもののシャープとそれらの端末では数が違いすぎるにょ。
独自仕様(独自形式)であろうとそれが売れていれば問題ないにょ。
シェアを取ったものがデファクトスタンダードになるからね。

電子書籍に関しては日本は北米と比べて大きな遅れを取っているというイメージがある
けど日本の電子書籍市場は決して小さくはないにょ。
ただし、すでに専用端末であるKindleが大ヒットしている北米とは異なり、日本では
そのような専用端末は今まで数多く出てきたもののヒットには至らなかったにょ。
では、日本では電子書籍はどこで売れているのかというとケータイ向けとなっているにょ。
XMDFはケータイではデファクトスタンダードとなっているフォーマットにょ。
http://special.nikkeibp.co.jp/ts/article/a00i/106510/p1-4.html
つまり、日本人にとってはiBooks形式やKindle形式よりも遙かに馴染みが深いフォーマット
ともいえるわけにょ。
これも日本発ということで日本語を読むのに適しているということがいえるからにょ。
次世代XMDFに関しては詳細は分からないけど要するにこのXMDFにマルチメディア機能を
強化したものだと考えられるにょ。

要するにこのGALAPAGOSは「今までケータイ向けとしてキャリアがやっていたサービスを
シャープが専用端末向けにやりますよ」という程度のことでしかないにょ。
とはいえ、すでにシャープは99年にスタートしたSharp Space Town以来電子書籍の配信を
行ってきておりGALAPAGOSが電子書籍の新規スタートではないにょ。
今までのシャープのパターンからすると開始当時はそれなりに力を入れているけど徐々に
それは薄れてくるようなイメージがあるにょ。
したがって、「今回もスタートだけ力を入れるのでは?」と懐疑的になっている人もいる
かもしれないにょ。
私自身も7月24日に書いたようにシャープを全面的に信頼しているわけではないからね。
とはいえ、昔(10年くらい前)と今では置かれている状況が変わっているにょ。
日本でもケータイ向けに電子書籍の需要が増え、そして北米ではKindleが大ヒットに
加えてiBooksまでスタートしたためその影響が日本にも現れ始めているからね。
紙の書籍には再販制度があるけど電子書籍にはそれがないということで敬遠していた
出版社も8月21日に書いたようにそろそろ重い腰をあげなくてはならない時期になっている
と思われるにょ。

さて、肝心の端末だけど要はただのAndroid OSを搭載のタブレット端末にょ。
Kindleのような専用端末は小型化かつバッテリ駆動時間を伸ばすという面においては
優位性が高いもののそれ専用で高価な端末を買うというのはかなり抵抗があるからね。
端末が売れないことにはコンテンツが売れないという問題も出てくるにょ。
その点、汎用性の高いAndroid OSということで当然のことながらWeb閲覧機能を持つため
Web端末として電子書籍も活用したいという人には適していると思われるにょ。(ただし
現時点ではAndroid Marketには非対応となっている)

5.5インチSWVGAの端末と10.8インチWXGAの端末の2種類が発売されるけどこれは正解だと
私は思うにょ。
5.5インチの端末は十分に持ち歩けるサイズだけど画面サイズの関係上雑誌や新聞を読む
ためにはスクロールや拡大縮小が頻発して読みやすいものとはいえないし、10.8インチの
端末は雑誌や新聞を読むにはいいけど持ち歩くには大きすぎるからにょ。
自分がどの程度なら持ち歩けるのかは人によって異なるし、持ち歩く頻度も異なるため
1つの機種ですべてを賄うことはできないにょ。
iPadはいくらネットブックより小型軽量とはえ、持ち歩きに適しているとは言い難いし、
それより下のサイズとなるとiPod touchやiPhoneとなってしまうにょ。
いくらiPhone4で960x640の高解像度化したといっても画面サイズの違いによる使い勝手の
違いは克服することができないため来年初頭には小型化した7インチクラスのiPadが発売
されるという噂もあるくらいにょ。

GALAPAGOS端末も5.5インチでも持ち歩きはできないと考える人もいるかもしれないにょ。
しかし、GALAPAGOS自体がただのAndroid OS搭載機であるためアプリさえあればスマート
フォンでGALAPAGOSに対応した次世代XMDFコンテンツを利用することは可能だと思うにょ。
実際にそれができるように現在協議中だしね。
それが完了すればKindle、iBooksに並ぶ世界標準フォーマットになる可能性があるにょ。
日本ではKindleもiBooksも正式サービスを行ってないので現時点は一部の出版社が独自で
電子書籍を発行しているにょ。
紙の書籍で例えるならば出版社が一般書店を通さずに出版社が直販するような感じにょ。
しかし、紙の書籍ならば一旦買ってしまえば「読むのに困る」ということはないのだけど
電子書籍の場合はフォーマットによって読める端末(もしくはアプリ)が異なるという
問題があるにょ。
そのため規格乱立は用意する端末数、アプリ数の増加を招いてしまうにょ。

GALAPAGOSは進化することで生き残りをするという意図が込められたネーミングだけど
「商品とサービスの進化」「ビジネスモデルの進化」「環境適合力の進化」という3つの
進化は簡単なものではないにょ。
本当にそれができるのかは現時点では分からないにょ。
「強い者が勝つのではない。勝った者が強いのだ。」という名言があるように強いメーカー
(ブランド)が必ずしも勝てる(シェアを取れる)というものではないにょ。
いくら独自形式であろうとそれがデファクトスタンダードになってしまえば文句は
出なくなるわけだしね。(良いものが普及するとは限らない)
GALAPAGOSが独自進化ではなくデファクトスタンダードになる日は果たして訪れるのか!?
デファクトスタンダードになるということは電子書籍においては非常に重要なことにょ。
専用端末、アプリが必要な電子書籍において「(見る手段が失われた)書籍データ」と
いうのはプレイヤーのない音楽レコードと同じようなものだからね。

386御茶目菜子:2010/09/29(水) 14:07:16
上記の続き
さて、ハイパフォーマンスモデルは標準でLバッテリ(6セル)が付属し、スタンダード
モデルは標準でSバッテリ(4セル)が付属するのだけどこれはユーザーにとっては嬉しい
配慮となるにょ。
というのも従来であれば「6セルモデル(R3〜R5)においては6セルも要らないからもっと
軽量にして欲しい」という要望があったし、「4セルモデルにおいては6セルバッテリを
搭載してもっと長時間駆動できるようにして欲しい」という要望もあったけどRシリーズ
では原則的に同じ世代ではバッテリは1種類しか用意されずユーザーのニーズに応える
ことはできなかったにょ。
しかし、Jではようやく他のメーカーと同じくSとLが選択可能になったにょ。
ハイパフォーマンスモデルにSバッテリを装着すれば何と900gで8時間駆動というすごい
スペックのモバイルノートになってしまうにょ。
これで2〜3kgある普通のデスクノートと全く変わらない性能だからね。

ハイパフォーマンスモデルではLバッテリを標準にし、スタンダードモデルではSバッテリを
標準にした理由だけど恐らく重量が大きく絡んできていると思うにょ。
1kg以下で長時間駆動させるというRシリーズの宿命がJシリーズにおいてもにも生きている
と思うからね。
SバッテリとLバッテリの重量差は約90g(公式の仕様より)であるためスタンダード
モデルがSバッテリで970gなのでLバッテリを標準搭載してしまうと1kgオーバーとなるにょ。
ハイパフォーマンスモデルはSSD搭載によって軽量化が出来たために6セルバッテリを搭載
しても1kgを切ることが可能ということで6セルバッテリが標準となったと思われるにょ。
ただ、これもSSDを普通に装着するのではなく側の部分を取り外し基盤のみを装着する
ことで軽量化してようやくアンダー1kgが実現できたにょ。

ここまで見てみるとアンダーB5サイズ、アンダー1kgのノートPCとしては非常に高いCPU
性能と駆動時間を実現したJ9だけどR9と比べて劣っている部分が無くはないにょ。
HDD容量はなぜか250GBから160GBへと減ったにょ。
これはコストダウンの影響とも考えられるけど250GBのHDDと160GBのHDDの価格はほとんど
変わらないにょ。
恐らくハイパフォーマンスモデルがSSDとはいえ128GBだからその影響がありそうにょ。

あとR9からの変化はPCカードスロットがついに廃止されてしまったにょ。
PCカードスロットなんて昨今は使う機会はかなり減っているにょ。
昔だったら拡張はほとんどの場合PCカード経由で行っていたし、通信カードもCFなどで
提供されることが多くCFに簡単に変換できるPCカードスロットは有用だったにょ。
しかし、今では3G通信やモバイルWiMAXは本体に内蔵、USB接続、WiFi接続(モバイル
ルータ)がメインでCFタイプの通信カードはほぼ絶滅してしまったにょ。
PCカードスロットが無くなってExpressCardスロットか・・・と思われたけどExpress
Cardも依然としてあまり普及しているとは言い難いためか拡張スロットは用意されず
USB2.0ポートが1つ増えたにょ。(従来のR9では2つだったのがJ9では3つになった)
「PCカードはもう使わない」という人にとっては嬉しいことだけどPCカードが必須と
いう人はRシリーズを使い続けるしかないにょ。
どうしても拡張スロットが欲しいという人は直販モデルのJ9では割高だけどExpressCard
スロット搭載を選ぶことができるのでそれを利用するといいにょ。(店頭モデルでExpress
Cardスロットが搭載されてないのはコストダウンのためというのもあるけど搭載することで
1kgを超えてしまうからだと思われる)

また、J9は従来よりも堅牢性が大きく落ちてしまったにょ。
従来のR9が76cmからの落下衝撃に耐えられていたのが非常に堅牢性が高かったというだけ
であり30cmからの落下衝撃というR5以前のものに戻ってしまったのは残念だけどこれは
軽量化のためだと思われるにょ。
R6はR5と比べて堅牢性が前述のようにバッテリを除く本体重量は約30g重くなってしまった
からね。
J9でもR9と同レベルの堅牢性を実現するならば少なくとも30gは重くなってしまい
スタンダードモデルもハイパフォーマンスモデルも1kgオーバーしてしまいかねないにょ。
もっともハイパフォーマンスモデルはバッテリを4セルにすることでアンダー1kgを実現
できるけどスタンダードモデルはそれでも微妙であるため2セルバッテリ(SSバッテリ)を
標準搭載せざるを得なくなってしまいそうにょ。
しかし、それではカタログスペックで4時間駆動に満たないため堅牢性が落ちたのは仕方が
ないことかもしれないにょ。(堅牢性を上げるよりも後述のジャケットを付属させる方が
コスト的に安上がりだったのだろうし)

ただ、堅牢性が落ちたといってもそれをジャケットでカバーしているにょ。
ジャケットを装着時には200g程度重くなるけど従来モデルと同レベルの堅牢性を確保
できるみたいだからね。
「そこまで高い堅牢性は要らないから少しでも軽くしてくれ」という人にとってはこれは
良いことと考えることもできなくはないにょ。
ジャケットを装着時には片手で持てるようにストラップがが付いているものの重量が
約1.2kgになるため片手で保持し続けるのはかなり厳しそうな感じにょ。

J9はR9と比べて性能アップというのが大きいけどコストダウンの影響が要素が随所に
見られるためそれが許容できるかどうかが重要になるにょ。
OSも従来のR9は店頭モデルもWin7Proだったのがこの度のJ9ではWin7HomePremiumに
変わってしまったしね。(個人的にはモバイル機でProが必要になる機会はほとんどない
ためこれで問題はないけど)
OSが変わったのはJ9は個人用を重視しているためだと思われるにょ。
Let'snoteの場合は過半数が法人向けとして販売されているため個人向けとなるのは半分
以下となっているにょ。
しかも法人向けとして売れているのは12.1インチ・14.1インチ液晶を搭載のモデルである
ため10.4インチ液晶を搭載のRシリーズは法人よりも個人で購入する方が多かったにょ。

しかし、昨今ではネットブックやCULVノートの影響があって個人でモバイルノートを買う
という人は激減してしまったにょ。
そこまでこだわりがなく小型のノートPCが欲しければそれらで十分だからね。
そういう面を考慮して再び個人需要を喚起させるべく一新したのがJ9となるにょ。
個人需要を伸ばすには女性の取り込みも重要になってくるけど従来のRシリーズのような
無骨なデザインは敬遠する女性ユーザーも少なくなかったにょ。
メーカー発表でも女性ユーザーは8%しかいないみたいだしね。

そのためJ9は堅牢性を落とす代わりにデザインを重視したにょ。
本体のデザインを重視したというよりはジャケットと一体化させることで見た目を良く
したという感じだけどね。(本体自体は私はR9よりもチープなデザインに感じるけど
もしもJ9を買ってもジャケットは使わないと思う)
Rシリーズの後継となる機種だろうけどユーザーターゲットは明らかにRシリーズとは
異なっているにょ。

それでも「アンダーB5サイズ」「アンダー1kg」のモバイルノートとなるとこれしかない
ためにそれを欲している人はこれを買わざるを得ないにょ。
ネットブックではアンダーB5かつアンダー1kgの機種はあるけどネットブックではやはり
5〜6倍のCPU性能差は非常に大きいしね。
しかし、モバイルノートにそこまで拘りをもっている人はごく一部だろうし新規需要を
狙って従来ユーザーが敬遠してしまったらそれは売上減少に繋がってしまうため新規需要を
狙うのはリスクも大きいにょ。
Rシリーズをそのままの状態にしても売上は減る一方だからリスクは承知だろうけどね。

従来のRシリーズを使っている人の中にはJ9は通常版ではなく超低電圧版CPUを採用した方が
良かったという意見も一部にはあるくらいにょ。
確かにCULVノートは安いけどこれもネットブックと同じく一定条件を満たすことで
Intelから通常の半値くらいで卸してもらえるということが影響しているにょ。
その条件は分からないけどLet'snoteが廉価機種とは思えないのでCULVの条件を満たせる
とは思えないにょ。
したがって、超低電圧版でもU3400のように最下位CPUを搭載しない限りは安く作るのは
無理になるにょ。
ULVのCore i7なんて搭載したらJ9よりも性能ダウンで価格はアップになってしまうからね。
逆に言えば価格ダウンで性能アップを図るには通常版を搭載せざるを得ないということに
なるにょ。

バッテリ駆動時間に関しては上記のR9とJ9のバッテリ駆動時間計測結果で分かるように
しっかりパワーマネジメントを行えば通常版と超低電圧版との間に明確な差はないにょ。
もしも両者に差が生まれるとすれば重量と筐体サイズ(厚さ)にょ。
重量はCPU自体の重さはほとんど変わらないけど放熱構造はTDP18WとTDP35Wでは全く異なる
からね。
おそらくそれだけで数10gは重くなったと思うにょ。
そのTDPの違いは筐体の厚みにも影響が出るにょ。
より優れた分厚い冷却ファンを搭載するためにより厚くなってしまうからね。
筐体がデカイ方が熱設計の面で有利とはいえJ9のフットプリントがいくら大きくなっても
R9からのTDP上昇を補えるほどではないため薄く作るのは難しくなってしまうにょ。
そうなるとJ9にもしも超低電圧版CPUを搭載していたら今より少し軽く、薄くなる反面
性能ダウンで価格アップになるということにょ。

モバイル性アップのために軽く、薄くなるということは大歓迎・・・となるけど個人用途を
重視している機種において価格と性能はかなり重要になるにょ。
J9の段階でCULVノートと比べて500〜600gのアドバンテージがあるのが仮に50gの軽量化が
出来て550g〜650gのアドバンテージに変わったところでほとんど差はないと言っても
過言ではないからね。(実際ネットブックでもここまで軽い機種はほとんどない)
しかし、通常電圧版CPUを搭載によってCULVノートと比べて3倍のCPU性能(ネットブックと
比べたら5〜6倍のCPU性能)となったのは非常に大きいと思われるにょ。
スタンダード版ではプレミアムモデルよりも性能は落ちるとはいえそれでもCULVノート
と比べたら2倍、ネットブックと比べたら4倍の性能があり、それで12万円程度というのは
決して高価ではないにょ。(国内メーカー同士の比較の場合)
J9と同レベルのサイズのネットブックのLaVie Light(Win7HomePremium搭載モデル)は
Atom搭載にも関わらず8万円前後の価格だからね。
http://kakaku.com/item/K0000151008/
J9はジャケット無しの場合見た目がしょぼくなり堅牢性がダウンしたのは残念だけど
それ以外は私は個人的にはかなり好印象に感じるにょ。(というか、オンリーワンの存在
には代わりないわけだし)

私はRシリーズはR2、R3、R5と使ってきて現在に至っているけどR5は一昨日に書いたように
モバイル時には特に不満を感じないけど自宅のサブ機(自宅に限らずゆっくり時間が取れる
場所であれこれしたい場合)として使うならばCPU性能やメモリ搭載量において不満を
感じているにょ。
そのためR8H(R8の最終モデル)が中古で5万円切ったら買おうと考えていたところにょ。
R8HがいいのはR9よりもバッテリ駆動時間が長いことに加えてCore2Duo SU9600(1.6GHz)
搭載によっていくらクロック当たりの性能でCore i7が優れていても1.06GHz〜1.2GHzの
R9ではこのR8Hよりも劣る場面が少なくないからにょ。
それに加えてR8HはR8の中で唯一標準でWin7を搭載しているのが大きいにょ。

私が普段持ち歩けるモバイルノートといえば「アンダーB5サイズ」かつ「アンダー1kg」を
満たせるものだけどそれは上記のようにLet'snote Rシリーズしかなかったにょ。
だから、その中で性能が高く予算的に買えそうなものを選択する必要があるにょ。
しかし、新たに発表されたJ9を見ると「J9が中古で5万円を切るまで待つか・・・」と
思ったにょ。
CPUの性能アップもうれしいけどようやくHDMIが搭載されたからね。
これで自宅で使用時には大画面の液晶モニタを使うことができるにょ。(アナログ接続
だと文字が若干滲んでしまうので小さくても内蔵液晶の方が良く思えてしまう)

とはいうものの9月15日に書いたように来年初頭にには現在のArrandaleよりも省電力かつ
高性能なSandy Bridgeが発表される見込みとなっているにょ。
したがって、それを搭載したJ10が春モデルとして登場すると考えるとそっちの方が
ベターに思えてくるにょ。
そうなると今度はUSB3.0が標準搭載するまで待った方が・・・ともなってしまうため
買うのはさらに難しくなるにょ。
予算的にも新品では買えないため中古で5万円程度まで下がるのを待つとすれば一体あと
何年間ガマンしないといけないのやら(笑)

387御茶目菜子:2010/09/29(水) 14:08:52
J9はRシリーズの後継になれるのか・・・?
Let'snoteに新シリーズLet'snote Jが登場したにょ。
http://pc.watch.impress.co.jp/docs/news/20100928_396076.html
http://pc.watch.impress.co.jp/docs/news/20100928_396348.html
これは10.1インチWXGA液晶を搭載ということで従来のRシリーズの置き換えを狙ったモデルと
なっているにょ。
Rシリーズが無くなってしまうのは個人的に非常に残念なことだけどこれも時代の流れ
だから仕方がないか・・・。
XPの末期である4〜5年前から各社ともPCは4:3のスクエア液晶から16:10(もしくは16:9)の
ワイド液晶へと変更し始めたにょ。
法人需要がメインとなるLet'snoteはそんな中頑なにスクエア液晶を守り続けていたの
だけどスクエア液晶の生産が減ってきていることもあり、1年前にTシリーズ、Wシリーズを
置き換えるワイド液晶搭載モデルNシリーズ、Sシリーズが登場したにょ。

さて、そんな中もはや生きた化石と言っても過言ではない10.4インチXGA液晶を搭載して
いたRシリーズだったけどついにJシリーズによってその役目を終わりそうな感じにょ。
Rシリーズの後継としてワイド液晶搭載機がなかなか登場しなかったのはやはりサイズ面と
液晶解像度の問題があったからだと思われるにょ。
8年前に登場したR1以来一貫している「アンダーB5サイズ」「アンダー1kg」「長時間駆動」
というものがあるからにょ。

アンダーB5サイズを実現するためにはRシリーズ並のフットプリントを維持するという
必要があるにょ。
私が持っているR5の横幅は229mmとなっているけどこれを維持するためには液晶サイズは
8.9インチ液晶が限界にょ。
これでWXGA液晶(1366x768)を搭載するならばドットピッチは176ppiに達するにょ。
人間の目は300ppiと言われており6月14日に書いたように私の実験でもそれがほぼ正しい
ことが証明されたもののそれは30cmの距離から使用した場合にょ。
基本的にテーブルの上に置いて使うであろうこのようなPCの場合は画面までの距離は
50〜60cmに達するため150〜166ppiが実用限界レベルとなるにょ。
長時間(ほぼ一日中)連続して使うならば私の体験上120〜130ppi程度が限界となるょ。

解像度がWXGAではなくWSVGAであれば133ppiであるため全く問題はないとはいえ、ネット
ブックであればWSVGAが許せるけど高価なモバイルノートにおいてさすがにWSVGAは厳しい
からね。
Win7であればXPよりも高解像度が求められるため余計厳しいにょ。
DPI調節をすれば高ドットピッチでも問題なく使用できるとはいえ、それだと全体的な
情報量が減ってしまうということで根本的な解決にはならず一定以上の高解像度を活かす
ためにはある程度の液晶サイズが求められるということにょ。

とはいえ、R5はB5用紙サイズと比べて横幅に余裕があるため8.9インチよりも大きな液晶を
搭載することは可能だと思われるにょ。
8.9インチよりも大きくB5用紙サイズのPCに物理的に搭載可能な液晶は入手性を考えると
10.1インチ(高解像度のネットブックに使用)、10.6インチ(VersaPro UltraLite タイプ
VSに使用)、11.1インチ(VAIO Xに使用)くらいしかないにょ。
しかし、11.1インチ液晶は表示領域だけで単純計算で横幅が246mmとなりB5用紙の長辺が
257mmであることを考えるとアンダーB5サイズに抑えることはかなり厳しいにょ。
実際VAIO Xは横幅が278mmもあるにょ。
これが、10.6インチであれば235mm、10.1インチであれば224mmとなり搭載できる可能性が
高くなるにょ。
ちなみに10.6インチのタイプVSは258mmとなっているためこれでもまだ微妙だけど10.1
インチのネットブックはコスト削減のため設計に余裕を持たせるため260mm程度の横幅と
なっているもののLaVie Lightは横幅253mmとなっておりB5用紙よりも横幅が小さいモデルも
存在するにょ。

さて、横幅はギリギリクリアできる目処が付いたけど問題は奥行きにょ。
Let'snoteの場合は円形のホイールパッドの影響で奥行きを小さくするのは極めて困難
だからね。(パッドを小さくすれば操作性に大きな影響が出る)
これをスティック型のポインタにすれば十分小型化はできるけどパッドを維持したまま
だと数mm小さくするのがやっとだと思われるにょ。
そうなるとフットプリント自体の大型化は避けられない(横幅は2cm以上大きくなるのは
確実であるため)ということで重量増も起きてしまうにょ。

Rシリーズは筐体サイズは大きく考えてR1〜R2、R3〜R5、R6〜R9に分けられるにょ。
最初に登場したR1は当時としては実用限界のサイズである10.4インチXGA液晶を搭載した
最小のモバイルノートであり、これを実現するためにバッテリは4セルに止まったにょ。
しかし、R3では大幅な軽量化が実現でき6セルバッテリを搭載しながらアンダー1kgが
可能になったにょ。(横幅が一気に1cm以上小さくなった)
R6からはキーボード防滴構造や耐衝撃性が大幅にアップした影響で筐体が重くなり(R5が
バッテリを除き680gなのに対してR6は710g)アンダー1kgを実現するために4セルバッテリ
となったにょ。(2セル減らすことで90gの軽量化が可能であるためトータルではR5よりも
軽くなった)
R9が930gであるため多少筐体サイズが大きくなったら1kgを切れるかは微妙なところにょ。


以上のことを踏まえてJ9のスペックを見てみることにするにょ。

J9はアンダーB5サイズ、アンダー1kgを実現しながら、10.1インチWXGA液晶を搭載して
いるにょ。
10.1インチWXGA液晶は155ppiだけど昨年7月15日および上記のように長時間連続して使用
するのは厳しいけどそうでないならば(個人的には)何とかなるためワイド化(つまり
高解像化)は歓迎するにょ。

J9には2種類のモデルが用意されているにょ。
1つが従来と同価格帯のハイパフォーマンスモデル、もう1つが廉価版ともいえる
スタンダードモデルにょ。

それを比較すると下記のようになるにょ。

      Let'snote J9        Let'snote J9
      スタンダードモデル     ハイパフォーマンスモデル
 OS    Win7HomePremium       同左
 CPU    Core i3-370M(2.40GHz)    Core i5-460M(2.53GHz)
 メモリ  2GB(最大6GB)        同左
 ドライブ HDD(160GB)         SSD(128GB)
 サイズ  251.9x171.7x27.3〜35.1mm  同左
 重量   970g            990g
 バッテリ Sバッテリ(4セル)      Lバッテリ(6セル)
 駆動時間 7.5時間           12時間
 想定価格 12万円           18万円


両者の違いは見ての通りCPUとシステムドライブと価格にょ。
価格差は6万円あるとはいえこの違いで6万円差となると微妙にょ。
今時18万円のPCとなると割高感は否めないけどハイパフォーマンスモデルは従来のR9と
同価格帯ということを考えるとそうでもないにょ。
スタンダードモデルがLet'snoteとしては安いので相対的に割高感を感じるというだけで
あって逆に言えばスタンダードモデルのコストパフォーマンスが高いといえるにょ。
とはいえ、スタンダードモデルでも海外メーカー製のCULVノート2台分の価格、ハイ
パフォーマンスモデルならば3台分の価格と考えるとかなり高価になってくるにょ。
もっともCULVノートも国内メーカー製だと10万円前後となるためスタンダードモデルは
それよりちょっと高価というくらいでそれらと比べて明確に小型軽量であるため価格差
だけの違いは十分にあるにょ。(横幅で2〜3cm差、重量だと500〜600g差は大きい)
10.1インチ液晶を搭載のネットブックでは最小となるLaVie Lightと比べても横幅は
1mm小さいしね。

サイズ、重量だけでもCULVノートと差別化できるけどCPUの差も大きいにょ。
ではどの程度なのかレビューを見てみることにするにょ。
http://pc.watch.impress.co.jp/docs/column/hothot/20100928_396464.html
http://plusd.itmedia.co.jp/pcuser/articles/1009/28/news024.html

ちなみにレビューで用いられているのはハイパフォーマンスモデルよりさらに高性能な
プレミアムエディション(直販であるマイレッツ専売品)となっているので注意が必要と
なるにょ。(CPUが2.8GHzのCore i7-640Mとなっている)

それではJ9とR9との比較に8月19日に書いたCULVノート(ASUS UL20FT)も加えて考えて
見ることにするにょ。(PCMark Vantageは各項目がすでに総合結果であるためドライブが
SSDということで各項目のスコアに大きな影響を与えており単純なCPU性能比較にもGPU性能
比較にも使えないため割愛する)

         J9      R9      UL20FT
 CPU    Core i7-640M  Core i7-640UM Celeron U3400
 PC Mark05
  CPU     8622     4782     2577
  Memory    6455     4620     3025
  Graphics   2392     1754     1673
  HDD     30735     24405     4980 (R9、J9はSSD搭載モデル)
 3DMark06    1395     1222     1070
 FFXI Bench3
  LOW     4186     2405     1668
  HIGH     3125     1683     1148

これを見るとまさに別格の性能にょ。
J9はR9と比較しても1.8倍、CULVノートであるUL20FTと比較すれば3.3倍の性能となるにょ。
これもTDP18Wの超低電圧版(ULV)CPUを搭載しているのではなくTDP35Wの通常電圧版CPUを
搭載している影響にょ。
同レベルのサイズであるネットブックと比べたら9月14日に書いたデュアルコアのAtom
N550を搭載のLaVie Lightと比較しても5.2倍の性能となり別格の性能にょ。(シングル
コアのN450との比較ならば6倍以上の差)
廉価なスタンダードモデルはこのベンチに使用されているモデルと比べてクロックが
14%低くTBにも対応していないため少しランクは落ちるとはいえ、それでもPC Mark05の
CPUテストでは6466となっており、これはCULVノートの2.1倍の性能であり、Atom N450と
比べると4倍以上の差になっているにょ。

FFベンチを見てもCPU性能の違いが大きいことが分かるにょ。
FFベンチは一定以上のGPUであればCPU性能がベンチに与える影響が大きいのだけどJ9の
スコア(LOW)はR9と比べて1.7倍、CULVノートと比べて2.5倍あるからね。
PC Mark05のCPUテストほど差が出てないのはPC Mark05ではマルチスレッド対応であるため
HTTによって論理4コアとなっているCore i7が有利に働いているのに対してFFベンチは
マルチスレッドには非対応となっているためだと思われるにょ。

FFベンチが高いのはGPU性能の影響も大きいと考えられるもののGPUは3機種ともCPUに
内蔵のIntel HD Graphicsとなっているにょ。
3DMark06のスコアを見てみるとJ9はR9の1.14倍、CULVノートの1.3倍となっておりGPU
性能に大きな差はないことが分かるにょ。
3DMark06はCPUが与える影響は小さいためこの差はCPUの差よりもメモリ性能の違いによる
ものの方が大きいのではないかと思われるにょ。

通常電圧版CPUを搭載したらバッテリ駆動時間が短くなる・・・と考える人もいるだろう
けど昨今はアイドル時の消費電力は通常電圧版とULV版ではほとんど差がないためCPU負荷の
大きな作業をしないと駆動時間に明確な差は出てこないにょ。
それに、上記ベンチを見てもULV版と比較してCPUパワーが1.8倍〜3.3倍高いため同じ作業を
やっても短時間で済むことを考えるとトータルの消費電力では小さくなる可能性さえある
しね。
さて、実際にどれだけの駆動するのかを見てみると上記のレビューではBBench(Web巡回
あり)ではR9が7時間49分なのに対してJ9が12時間4分(1.54倍の駆動時間)となっており、
連続動画再生時でもR9が3時間26分なのに対してJ9は4時間58分(1.44倍の駆動時間)と
なっているにょ。
元々R9にも3100mAhという高容量セルが採用されていたのが同じ容量のバッテリを使用
しながらさらに1.5倍程度駆動時間が伸びたのはバッテリが4セルから6セルへと変わった
というのが理由にょ。
したがって、標準が4セル(Sバッテリ)のJ9スタンダードモデルはR9と同レベルの駆動
時間だと思われるにょ。

(下記へ続く)

388御茶目菜子:2010/09/30(木) 13:42:38
3DSが25000円になったワケ
昨日の任天堂カンファレンス2010でついにニンテンドー3DSの詳細が発表されたにょ。
http://game.watch.impress.co.jp/docs/news/20100929_396921.html
日本での発売日は2011年2月26日、価格は25000円にょ。
11月に2万円程度で発売と予想していただけに予想が大きく外れたにょ。
価格も任天堂が設定しているコンシューマゲーム機の上限金額に達したにょ。(スーファミ
64、キューブ、Wiiの当初の価格と同じ)
発売時期の方は本体の生産状況から想定してこの時期にしたのだろうと思われるにょ。
尖閣諸島問題によって中国からの部品の入手が難しくなったというのも発売の遅れに影響
しているかもしれないにょ。
無理に年内に発売してあまりに品薄だったり、品質が落ちたりされても困るしね。
しかし、価格はやはり「25000円は割高に感じる」という人が大半かもしれないにょ。

現在分かっている3DSのスペックはこんな感じにょ。(3DSのスペックは公式発表された
ものではなくリークされているものを含んでいる)

        ニンテンドー3DS        ニンテンドーDS
 CPU     ARM11系デュアルコア(266MHz) ARM7(33MHz)+ARM9(66MHz)
 GPU     PICA200(133MHz)VRAM 4MB   VRAM 656KB
 メモリ   64MB              4MB(DSiは16MB)
 ストレージ 1.5GBフラッシュメモリ     なし(DSiは256MB)
 液晶    800x240&320x240        256x192x2枚

これを見てスペックが大幅に上がっているから高価になっても仕方がないと考えるのは
早計にょ。
DSと3DSの発売時期の差は約6年あるからね。
6年前と比べて今のPCは圧倒的に高性能だから6年前より高価であっても仕方がないと
考える人はおらず高性能なのが当たり前と考える方が大半なのではないかと思うにょ。
それと同じだから「高性能だから高価になる」ということは単純にはいえないにょ。
DSは64並、3DSはGC並の性能と言われているけどDSから3DSの間隔は約6年、64とGCの間隔も
約6年であり、64とGCが同じく25000円ということを考えるとDSが3DSへと高性能化された
ことは価格に与える影響は時代の流れでほぼ相殺可能と考えられるにょ。

とはいえ、性能に似合った価格かどうかとなるとそれぞれのパーツの部品価格が不明
であるため何ともいえないにょ。
部品コストといえば9月9日にiPhone4のコストを元に新型iPod touchのコストを計算
したにょ。
32GBモデルの部品コストは162.62ドルとなり、299ドルの定価に占める割合は54%と
なったにょ。(同じ計算方法だと8GBモデルの部品コストはフラッシュメモリが少ない
分だけ安くなるため122.12ドルとなり、同割合は53%になる)
定価の半分弱が利益になるかというとそうではなく組み立てコスト、流通コスト、開発
コスト、宣伝コストが分からないとどの程度利益が出るかは分からないにょ。

iPodに限らず部品コストが定価に占める割合はこういった電子機器の場合は半値程度で
あることが多いのではないかと思われるにょ。(定価から大幅値引きされるような製品で
あれば定価ではなく実勢価格を元に考える)
しかし、コンシューマゲーム機の場合はそうとは限らないにょ。
場合によっては部品コストが定価を超えてしまう(逆ざや状態)ということもあるにょ。
プレステ3も発売当初は599ドルの定価に対して800ドル以上の部品コストがかかっている
と試算されていたからね。
http://techon.nikkeibp.co.jp/article/NEWS/20061116/123816/

部品コストの段階で定価を超えていたらそれだけで「作れば作るほど赤字」という状態で
あり、組み立てコストや流通コストを考えるとさらに赤字が膨らむことになるにょ。
それで、ビジネスとして成り立っているのはサードパーティが発売するゲームソフトの
ライセンス収入があるからにょ。
スーファミ時代はROMカートリッジの容量によるけど概ね定価の3割程度、プレステでは
それが1割程度となったにょ。(当初は定価に対してではなくディスク1枚につき800円
という感じで支払っていたけど定価に対して支払う形になったためSIMPLE1500シリーズの
ような低価格ソフトがどんどん発売されるようになった)
つまり、ゲーム機本体を原価割れで販売したとしても十分プラスになる要素があるという
ことにょ。

しかし、任天堂の場合はそういう「本体は赤字でもOK」というビジネスモデルは嫌って
いるにょ。
そのため本体の価格を定めてその範囲内のコストで実現可能なゲーム機を作っているにょ。
その本体の価格の上限金額が最初に書いた25000円にょ。
これは子供がお年玉などで買える限界の金額だろうということで今までこれだけは死守
されてきているにょ。

サードパーティというと任天堂のゲーム機はサードパーティのゲームが売れず「任天堂
ハードで売れるのは任天堂ソフトばかり」ということがよく言われているにょ。
これは上記カンファレンスでも岩田社長の口からも出されたにょ。
http://game.watch.impress.co.jp/img/gmw/docs/396/921/html/n50.jpg.html
確かにそれはこのグラフを見れば一目瞭然にょ。
http://game.watch.impress.co.jp/img/gmw/docs/396/921/html/n51.jpg.html
DSとWiiだけサードパーティの割合が低いからね。
これは「今後はよりサードパーティとの関係を密にする」という反省を込めた内容だと
思われるけど別のグラフ(全体を100としたものではなく実数を表したグラフ)を見ると
単純にサードパーティの問題ではないことが分かるにょ。
http://www.4gamer.net/games/107/G010761/20100929011/screenshot.html?num=022
特にはっきり言えるのがDSだけど最もサードパーティソフトが売れているのがDSだからね。
つまり、サードが弱いのではなく任天堂が強すぎるというだけにょ。(これが相対的に
見た場合にはサードが弱いという形で見られてしまう)
絶対的な数量比較ではファーストの売上本数を見る限りPSPやPS3とは桁違いなのがグラフ
からでも分かるからね。

さて、価格の話に戻ると6年前にDSの価格が発表されたときは本体で赤字を出さないという
任天堂の考えを元に19800円程度で販売されるであろうと予想されたにょ。
しかし、結果は15000円だったにょ。
これはやはりライバルであるPSPの存在があったためにょ。
アナリストの予想ではDSが19800円、PSPが29800円だったけどDSが予想外に安い15000円
だったためPSPが29800円ではいくら性能が高くても苦戦は必至になってしまったにょ。
それが理由かは定かではないけどPSPの価格発表は予定より17分間遅れたにょ。
これは「空白の17分間事件」と呼ばれているにょ。
http://plusd.itmedia.co.jp/lifestyle/articles/0409/24/news107.html
PSPの価格は19800円(税込20790円)となったけど当時であればあのスペックを考えると
定価4万円と言っても良いくらいの製品だったにょ。

しかし、今回はライバルとなる存在はないにょ。(iPhoneの影響はあるだろうけど後述の
ように3DSとは棲み分けが行われると考えている)
そのため無理をする必要はないにょ。
恐らくPSP2が発表されていたら3DSの価格は20000円になっていただろうけどそれがない
以上はそこまで利益を削って価格を抑える必要はないからね。
北米で販売する場合は1ドル100円で考えるため日本で定価25000円のゲーム機であれば
向こうでは249ドルとなるにょ。
円相場が100円前後を推移していれば全く問題ないけど1ドル83円で計算すると249ドルと
いうのは20667円になるにょ。

「北米では299ドルで販売すれば問題ない」と考えるかもしれないけどその場合は北米に
おける上限ライン(249ドル)をオーバーしてしまうにょ。
私はこの円高が価格高騰の原因の1つではないかと考えているにょ。
そもそも任天堂が四半期ベースで赤字になった原因も資金を「円」ではなく「ドル」で
所有している影響だしね。
国内市場がメイン(原料を輸入で賄っている)もしくは「円」で資金を所有している
ならば円高は価格下落へと繋がるけど外貨資本の日本企業では円高は価格高騰を
引き起こす原因となっているにょ。

それだけだと25000円になった理由にはならないにょ。
DSの場合は19800円で売るべきところを無理をして15000円にしたのだけど上記だと
25000円で売るべき所を無理をして20000円では売らず普通に25000円で売ることにしたと
いう理由にしかならないからね。
では、つじつまの合わない5000円の値上げの原因は一体何なのか・・・?(DS本体発売
当初の価格との比較だと1万円の値上げだけどDSは当初無理をしていたため徐々に価格
アップしてしまったということを考えると当初の販売価格は19800円とすべきだったし、
それから考えると5000円の値上げとなる)

値上げの最大の理由はやはり3D液晶だと思われるにょ。
これもコストを考え最も安いものを選んでいるだろうけどそれでも1000円くらいは
アップしているだろうからね。
あとはカメラ(DSと比べて3個プラス、DSiと比べて2個プラス)とモーションセンサーと
ジャイロセンサーのコストアップになっているにょ。
iPhone4の部品コストを見るとカメラが1個1ドル、ジャイロセンサーが2.6ドル、モーション
センサーが0.6ドルとなっているにょ。
しかし、合計6.2ドルであるため多めに見積もっても600円のアップにょ。

本体の基本スペックアップは時代の流れで相殺すると考え、後は付属品のコストを考えて
みるにょ。
付属品は、ACアダプタ、タッチペン、ARカード6枚、SDカード(2GB)となっているにょ。
ARカードはAR対応ソフト(本体にAR対応ゲームが標準搭載されている)を使うための
ものだけどただの紙だろうからほとんどコストはかからないにょ。
SDカードは2GBとはいえこれは定価では2800円の品にょ。
本体の価格25000円から2800円(SDカードの価格)を引くと22200円となり実質5000円
アップだったのが実質2200円アップに変わるにょ。
部品コストが上記のように1600円アップしているため定価で2200円アップしてもこれは
73%となり上記iPodの原価率から考えて十分許容できるレベルにょ。
以上をまとめるとライバル不在&円高により5000円アップ、本体のコストアップで2200円
アップ、SDカード付属で2800円アップと考えるとDS発売当時から1万円高価な25000円に
なった理由が説明できるにょ。

SCEの場合はプレステ3をあれだけ原価割れの定価を付けたのは量産効果を見込んで
いたためにょ。
工業製品は作れば作るほど1個当たりの金額は安くできるからね。
しかし、量産効果は内製率が低いとあまり効果がないにょ。
量産効果の影響をモロに受けるのは自社製品だけだからね。
そういう面ではSCEは任天堂と比べて内製率が高いためあのような価格付けができたと
いうわけにょ。
実際プレステ3も今では部品コストが定価よりも安くなっているからね。(定価は当初と
比べて半値以下になっているけどコストダウンはそれよりも大きいということ)

それに加えて最新のものか枯れた製品かというのによっても変わってくるにょ。
自社製品でない場合でも最新の高性能部品を使っている場合は量産効果で安く入手が
可能になるからね。
枯れた製品ですでに量産されている場合には年数が経っても価格はあまり変わらないにょ。
コンシューマゲームは数年間に渡って同じもの(より低コストで作れるようにしている
ため中身は異なるけど基本的には同じもの)を作ることで量産効果が発生しているの
だけど任天堂は枯れた部品を使うことが多いためいくら大量に売れても量産効果による
値下げはあまり期待できないにょ。(とはいえ、開発コストがペイできればその分の
値下げは可能になる)
したがって、最初に無理な価格を設定するとそれがずっと影響してくることになって
しまうにょ。
そういう意味では3DSの25000円は任天堂にとってはすごく健全な価格ともいえるにょ。

さて、価格については一旦おいといてそれ以外の面を見てみると3DSの本体の色はアクア
ブルー、コスモブラックの2色が用意されているにょ。
これはDS発売当初の1色よりは良いものの色的に黒と白あたりが無難なのにブルーという
のがどうかと考えてしまうにょ。
裸眼3D液晶を搭載している関係上目にかかる負担を減らすためにはどうしても上半分を
黒にする必要があるため下半分はそれにマッチした色にしなくてはならないという制約が
あるにょ。
本体色のコントラスト比を考えると白は難しいということで恐らくこのブルーになったの
ではないかと思われるにょ。
そうなると3色目はクリムゾンブラック(赤黒)あたりか・・・?

本体の基本機能も大幅に強化されているにょ。
カメラは3D写真を撮ったり、ARに使ったりするだけではなく写真を撮影してMiiを自動
作成できるようにもなったり、QRコードの読み取りにも使えるにょ。
http://www.4gamer.net/games/107/G010761/20100929078/
あとはHOMEボタンがゲームプレイ中でも効くためいつでもメニュー画面に戻ることが
でき、Webブラウザも標準搭載だからゲームをプレイしながら攻略サイトで情報を集める
というマルチタスク処理も可能になったにょ。(WebはWiFi経由のみだけど)

あとは通信の大幅強化があるにょ。
ドラクエIXではすれ違い通信がのべ1億人に達したことで話題になったけどすれ違い通信は
お互いが同じゲームをプレイしてスリープ状態であるという条件が必要だったにょ。
そのためミリオンセラークラスの大ヒットソフトでないとすれ違い通信はなかなかできず
大ヒットではないソフトやスリープ状態で置いておかれないソフトではそれを全く活かす
ことができなかったにょ。
しかし、3DSではプレイしたことあるゲームではすべてすれ違い通信が可能になったにょ。
さらにWiFi経由だけとはいえ、無料ゲームや最新情報などをプッシュ配信により自動的に
取得可能になったにょ。
つまり、3DSは通信をする意味がより大きくなったということにょ。
あとはVC(バーチャルコンソール)への対応も大きいにょ。

さて、25000円という価格が安いか高いかというのは結局スペックだけではなくどのような
ことができるかというのかでも変わってくるにょ。
いくら高性能でもそれが自分に不要な要素で高価格化を招いているならば高価と感じて
しまうからね。
単純な性能だけならば新型iPod touch(8GB)の方が高いし、価格も安いにょ。
したがって、それを基準にすれば3DSは上記のような理由によって25000円を正当化した
ところで高価なことには代わりがないにょ。

確かにiPod touch、iPhoneというiOS機は9月20日に書いたように大手ゲームベンダーも
力を入れ始めているとはいえ、ショップでパッケージソフトを買って差し込めばプレイ
可能になるというコンシューマゲーム機と比べるとゲーム開始までのハードルが高いにょ。
もしも、ゲームソフトがパッケージソフトからネット配信がメインへと変われば両者は
競合することになるけど現時点ではその域には達してないためまだライバルとはいえない
状況にょ。

もしも、PSP2がPSP goのようにダウンロードアプリ専用となるのであればiPhoneと競合
することになるだろうけどgoの失敗を考えるとやはりダウンロード専用というのは
通信を前提としたスマートフォンだから成功しているのであってコンシューマゲーム機に
おいてはまだメインとなるには時期尚早だと思われるにょ。
したがって、やはり25000円という価格になった最大の理由はライバル不在というのが
最も大きいのではないかと私は思うにょ。
3DSよりも高性能なPSP2が26800円とかで販売開始されたら無理をしてでも2万円以下の
価格にするだろうからね。

とはいえ、過去の例からすると据え置き機は3万円を切ってから普及が開始するけれど
携帯機だと2万円を超えて普及した例はないにょ。(普及の基準は国内300万台程度)
そう考えるともしも3DSを普及させるためには早期に2万円を切ることが求められてくる
わけにょ。(「携帯機は安いのが当たり前」という認識が多くのユーザーにある)
3DSは話題性により当初は売れるだろうけどライバル不在だからといって25000円で売り
続けた場合はDSのような爆発的ヒットは難しいと思われるにょ。
やはり、DSのヒットの1つの要因は15000円という価格の影響(つまりソフトを1本買って
2万円でお釣りが来る)というのが大きかったからね。

もっとも、3DSの価格が25000円であるお陰で年末商戦における現行DS本体の買い控えと
いうのはあまりないかもしれないにょ。
もしも、20000円であれば現行機との価格差を考えた場合に最も大きい年末年始で買い
控えが起こる可能性があったから「発売時期を遅らせざるを得なかった」ということが
25000円という価格になった原因の1つと考えられるかもしれないにょ。

389御茶目菜子:2010/10/01(金) 14:02:18
α55は理想の入門用デジタル一眼!?
9月10日に発売となったα55だけどようやく国内の大手サイトでレビューが公開されたので
見てみることにするにょ。
http://dc.watch.impress.co.jp/docs/review/newproduct/20100929_396624.html
α55がどんなデジタル一眼かというと8月25日にここで書いたのだけど半透明ミラーを
用いることでミラーを高速に動かすという必要がないため入門機に位置するにもかかわらず
10コマ/秒という高速連写が可能になったというだけではなくミラーを動かさないため
常時位相差検出方式で高速AFができるというメリットがあるというものにょ。
では果たしてそれがどの程度の実力なのか・・?

α55の特徴の1つといえるのがミラーがあるにもかかわらずEVFを採用しているという
ことにょ。
http://dc.watch.impress.co.jp/docs/review/longterm/20100910_392686.html
EVFにはコマ落ちや遅延があるという問題が依然として残っているもののここ数年前間で
格段の進歩を遂げているにょ。
私も店頭でα55を少し使ってみたけどこれならEVFで問題ないとさえ感じたにょ。
入門機でEVFを採用するのは下記のようなメリットがあると思うにょ。

 EVFのメリット
 (1)情報がすべてファインダーの中にある
 (2)細部が見やすい
 (3)絞りの効果などが分かりやすい

(1)は意外に重要にょ。
というのもコンデジからデジタル一眼へとステップアップした人にとってはファインダー内
情報の貧弱さを感じる人も多いと思うにょ。
昨今のデジタル一眼ではライブビューが行える機種ばかりであるためそれを用いれば
コンデジライクの背面液晶を使いながら撮影するということができるもののそれでは
デジタル一眼のメリットは発揮できないにょ。
それは手ぶれによってせっかくの高画質を駄目にしてしまうからにょ。
確かにライブビューは便利だしそれを使うことで撮影の幅が広がるのは確かだけどそれが
メインになっては駄目ということにょ。
それだとEVFを標準搭載しておらず背面液晶のみのミラーレス機を全否定するような感じ
だけどミラーレス機は軽いし、重量バランスはデジタル一眼のように前の方(使用者の
視点だと奥の方)にないし、ミラーがないため「ミラーショック」によるブレもないために
デジタル一眼よりは背面液晶を使うことで生じる手ぶれは少ないにょ。

EVFがあることで必要な情報はすべてファインダー内で確認できるということで常に
ファインダーを覗きながら撮影するという習慣が付くことが入門機におけるEVFを使用する
最大のメリットであると思われるにょ。
この辺は銀塩時代から写真を普通に撮っている人にとっては全く理解しづらい領域にょ。
デジタル一眼においてもシーンモードを使用せず、絞り優先AE、シャッター優先AE、
マニュアル露出で撮影している人にとっては余分な情報など要らないという人さえいる
だろうけど基本はオートでシーンモードでいろいろ楽しみたいという人は背面液晶を
見ながら操作するしかなくわざわざ覗き変えるならば背面液晶のみで撮影した方が気が楽
という人がいても不思議ではないにょ。

(2)EVFも昔のネオ一眼のように数万〜10数万画素しかないような時代だったら何が写って
いるのかを確認する程度(つまり構図の確認程度)にしか使用できなかったけど今は
100万画素を超えているものも多く存在するにょ。
EVFや背面液晶の画素数いうのはちょっと問題でRGBのサブピクセルを1画素として計算して
いるにょ。
したがって、VGA解像度の場合は640x480で約31万画素となるのではなく640x480x3で
約92万画素となっているにょ。

例えばAPS-Cセンサー搭載でファインダー倍率(50mmレンズ装着時)0.7倍というデジタル
一眼があるとするにょ。
APS-Cセンサーでは50mmレンズ使用時には水平画角は約27度となり、その場合は30cm離れた
被写体は水平方向には約13cmの範囲で写るにょ。
人間の目の分解能が300dpiとすると1500x1000ピクセルつまり、450万画素程度のEVFが
必要になる計算になるにょ。
とはいえ、ファインダー越しに300dpiの分解能力はないため半分の150dpi程度確保できれば
それほど遜色がないレベルは確保できるにょ。
画素数でいえば4分の1になるわけであり、112万画素となるにょ。
この数字はα55に搭載されているEVFの画素数(115万画素)とほぼ同等にょ。
それで不満であればEVFの場合は細部を拡大することが可能であり単純に細部の確認が
できるという面に関してはEVFの方がOVFよりも有利になると思われるにょ。

また、EVFでは原理上は視野率100%というのが大きいにょ。
最近はフラッグシップ機ではなく中級機でも視野率100%のものが登場しており、それを
使えばファインダー内で何が写り何が写らないのかを確認できるものの入門機の多くが
90%少々の視野率しかなく誤差も無視できないレベルにょ。(視野率92%ならば8%も
余分なものが写るということ)
銀塩カメラでネガフィルムを使っている人であればどうせプリント時に切られるから
視野率100%のファインダーは無意味だったけど今は写ったものをPCで細部まで確認可能と
なっているため昔と異なり視野率100%の恩恵は大きいにょ。

(3)一眼レフに少し慣れてくると絞りのコントロールなどに魅力を感じると思うにょ。
昔のコンデジでは広い露出コントロールが可能だったにょ。
私が持っているCOOLPIX 990でもF2.8〜F11くらいまで設定が可能だからね。
しかし、画素数が増えて画素ピッチが上がったためそれはできなくなったにょ。
1/2.33インチ1400万画素という今では普通のコンデジでは計算上F2.7で回折限界となり
F1.0クラスの明るいレンズを使わないと絞りのコントロールは有効にはならなくなって
しまったにょ。(F値が変えられる機種はあるけどそれらはすべてNDフィルターによる
ものであり絞りのコントロールは事実上できない)

さて、その絞りの影響だけど入門機のデジタル一眼に一般的に採用されているのは中級機の
ペンタプリズムではなくペンタミラーによるファインダーという点がネックになるにょ。
これによって絞りの効果が分かりにくくなっているにょ。(実際にどの程度ボケるのかが
ファインダーでは分かりにくい)
それはMFでピント合わせをするという場合でも有用にょ。
ペンタミラーファインダーではピントの山がつかみにくくMFではピント合わせをするのも
困難だけどそれはできの良いEVFであれば多少はマシになるにょ。

ということで、今後は中級機以上は視野率100%のペンタプリズムファインダーで入門機は
EVFになっていくのではないかと思われるにょ。
できの良いEVFであれば入門機に使われているペンタミラーよりは格段に良いとはいえ
まだコスト面での問題があるのですぐには取って代わるのは難しそうにょ。(EVFは
ファインダー中に電子水準器を表示できるなど中級者にとってもメリットがあるため
中級機ではFinePix X100のようなOVF、EVFを併用するハイブリッドファインダー搭載機が
出てきそう)

とはいえ、EVFも改善されているけどまだまだ問題点が多いにょ。
その1つがタイムラグにょ。
http://bbs.kakaku.com/bbs/K0000140390/SortID=11957905/
これはOVFでいえば真にリアルタイムで確認できるのだけどEVFではセンサーから情報を
読み出してそれを表示するため絶対にワンテンポ遅れてしまう(タイムラグが発生して
しまう)からね。
これは読み出し速度が遅かったCCDとは異なり今のCMOSは高速読み出しが可能とはいえ
それでも0.03秒くらいかかってしまうにょ。
とはいえ、これは使用者の反射神経(人間の反射神経は0.1〜0.2秒)よりは短いため極端に
気になるレベルではないにょ。

この読み出しはセンサーの小さなコンデジであれば問題ないけどセンサーの大きなデジタル
一眼の場合は「発熱」という問題が顕著になってくるにょ。
昨今はデジタル一眼に当たり前のように搭載されている動画撮影機能だけど動画撮影時に
おいてはセンサーから断続的に高速読み出しが行われているためこの発熱問題がさらに
厄介になってくるにょ。
α55においてもこれは大きな問題となっているにょ。
http://dc.watch.impress.co.jp/docs/news/20100930_397047.html
周辺温度が30℃であれば6分で限界となるみたいだからね。
これはボディ内の手ぶれ補正機能を無効化することで13分まで延長できるとはいえやはり
発熱の問題が大きいことには違いがないにょ。
EVFで遅延を無くそうと読み出し速度を上げた場合はこの発熱問題と戦う必要があるにょ。
表示の高速化は技術の進歩で可能だけど熱問題を克服するのは容易ではないにょ。

さて、α55といえば10コマ/秒というプロ機並の高速連写がウリの1つとなっているけど
店頭で試した時点ではすごい感動的だったにょ。
何せ私が普段使っているD50にしろK200Dにしろ3コマ/秒程度の速度しかないからね。
しかし、連写ができてもそれが使い物になるかは別問題にょ。
店頭では高速に動作する被写体を撮影なんてできないのでレビューを見てみることに
するにょ。
http://dc.watch.impress.co.jp/docs/review/longterm/20100924_395965.html

やはり、入門機ということでプロ機と比較するのはさすがに可愛そう・・・と思ったけど
過度な期待さえしなければそこそこ使えるみたいにょ。
私は店頭で使ってみたα55は標準ズームが遅いせいかAFの速度はあまり速く感じなかった
けれど動体撮影する場合には一般的なデジタル一眼ではミラーを動作させる必要があり
その間は測距ができないため動体予測機能に頼ることになるけどミラー固定のα55の場合
常時位相差検出方式でAFが行えるためプロ機との超えられない性能差があるにも関わらず
それなりに使えるレベルになっているということが言えそうにょ。

ただ、EVFにはタイムラグがあるし、上記レビューにある動画を見ても動体はEVFでは
遅延以外の問題があるのが分かると思うにょ。
http://www.youtube.com/watch?v=-t9SuPkddr0
色ずれ問題やシャッターを押した瞬間に一瞬スローモーションのような状態になったり
するというのは将来的には改善されるだろうけど現時点では速度とコストの問題を考えた
場合は難しそうにょ。

α55は速度ばかりに目がいっているけど最新のセンサーだけあって高感度にも強いにょ。
どの程度まで許容できるのかは人それぞれなので実際にどこまで使えるかは自分の目で
確かめるのが一番にょ。

 ISO800   http://dc.watch.impress.co.jp/img/dcw/docs/396/624/031.jpg
 ISO1600  http://dc.watch.impress.co.jp/img/dcw/docs/396/624/032.jpg
 ISO3200  http://dc.watch.impress.co.jp/img/dcw/docs/396/624/033.jpg
 ISO6400  http://dc.watch.impress.co.jp/img/dcw/docs/396/624/034.jpg
 ISO12800  http://dc.watch.impress.co.jp/img/dcw/docs/396/624/035.jpg

個人的にはISO1600までは全く問題ない(A4ならば問題なく使える)と感じているにょ。
ISO3200になるとノイズリダクションの関係でディティールが失われている部分が多くなる
けどこれくらいならば十分使えそうにょ。
ISO6400になるとカラーノイズが多く出てくるためL版、2L版で使うかブログに使うくらい
であれば問題はないけど普段の使用にはためらわれるレベルにょ。
ISO12800になるとISO6400より目に見えてノイズがひどくなるにょ。
さすがにこのレベルだと「非常用」限定になりそうにょ。
ミラー固定ということでいくら透過率の高いミラーを採用しているとはいえ、1/3段程度
不利になっていると思われるため高感度では不利なのは否めないけどさすがに最新の
センサーだけあってそのデメリットを帳消しにするくらいのレベルはあるにょ。

さらにα55ではマルチショットNRを搭載しているのが大きいにょ。
これはすでにソニー製のデジカメでは標準搭載といっても過言ではない手持ち夜景で使用
されているもの(名称は異なるけど他社も同様の技術を使ったものがある)であり要するに
マルチショット(ソニーの場合は6ショット)の画像をうまく合成することでノイズを
減らすというものにょ。
これは私が持っているTX1に搭載されているけどその効果は絶大にょ。
ISO1600でも並のコンデジのISO400クラスの低ノイズだからね。
これは私が持っているD50やK200Dというデジタル一眼と比較してもそれほど劣らないという
優れものにょ。

これが夜景以外(オート以外)でも使えるのがマルチショットNRであり、ソニーのデジタル
一眼レフではα55で初搭載されたにょ。(ミラーがあってもその役目を果たしてないα55を
「一眼レフ」と呼ぶのは難しいと考えもあるけどそれはとりあえず今は保留としておく)
これは、マルチショットNRには高速連写が必要であるため一般的な一眼レフでは搭載する
のが厳しいからにょ。

 ○マルチショットNRなし(通常撮影)
 ISO12800  http://dc.watch.impress.co.jp/img/dcw/docs/396/624/036.jpg
 ○マルチショットNRあり
 ISO12800  http://dc.watch.impress.co.jp/img/dcw/docs/396/624/037.jpg

マルチショットNRを使わない通常撮影では上記のようにISO12800は非常用以外には使えない
レベルだけどマルチショットNRありだと通常撮影のISO6400よりも低ノイズでISO3200に
迫るくらいのものにょ。(ISO12800はフルサイズのプロ機であるニコンD3sよりも上かも)
これならばマルチショットNRを積極的に使ってもいいのではと感じさせるにょ。
もっとも、画像を合成させるということが必要であるため静止している被写体でないと
使えないけどね。(静止していても手ぶれを起こしていたらうまく合成できないので低
ノイズを実現させるには極力手ぶれをしないことが重要になる)

α55を見てきて最初は速度(カタログスペック)だけのカメラだろうと思っていたけど
意外に使えることが分かったし、店頭で見てもEVFが想像していたものよりずっと良かった
上にこのマルチショットNRはすごく魅力を感じているにょ。
ということでもしも入門機でどれか1台選べと言われたらα55を選んでしまいそうにょ。
EOS Kiss X4は発売から半年経つとはいえ依然としてそのスペックは最新入門機にひけを
とらないし、ニコンD3100はニコンらしくバランスが取れた良い機種だし、ペンタックス
K-rは入門機とは思えないハイスペックな部分を含んでいるしカラーもいろいろ選べると
とうのが魅力であるため他の機種にも良い部分はあるけどね。

390御茶目菜子:2010/10/02(土) 14:09:57
Slate PCは普及するのか・・・?
iPad発売以降、雨後の筍のようにどんどん発表されているタブレット型端末だけど先日
国内メーカーからついにWindowsを搭載のタブレット端末(Slate PC)が発表されたにょ。
http://pc.watch.impress.co.jp/docs/news/20100928_396565.html
Slate PCは今後大きな拡大が期待されているけど本当にそうなのか・・・?
やはり気になるのは以下の2つの点にょ。

(1)タブレット型である必要があるのか
(2)Windowsが必要か否か

では、それら2点について考えてみるにょ。

(1)そもそも需要がないところに供給はないわけであってそれなりに大きな需要(パイの
大きさ)があるからこそ各社がこぞって発表しているだろうから「自分に必要ない」
ということでそれ自体を否定はできないにょ。
もっとも、タブレット端末というのはiPadが起源なんてことはなく古くから存在するにょ。
業務用では手に持って使えるデバイスというのは昔から一定数の需要があるからね。
しかし、あくまで業務用がメインということでそれらは安価とは言い難かったにょ。
比較的安価なのが6月8日にも書いたようなOrigamiにょ。
ただ、Origamiはヒットには至らずその「安価な個人向けの小型PC」という考えはネット
ブックへと受け継がれたにょ。

業務用であればタブレット端末の需要がそれなりにあるというのは分かると思うけど問題
となるのは個人需要にょ。
あれだけ多くの機種がすべて業務用(法人向け)として作っているというわけではない
からね。
タブレット端末がキーボード一体型(通常のクラムシェル型)と比べてアドバンテージが
あるとすれば「タッチパネルが使いやすい」ということと「軽い」ということにょ。

普通のクラムシェル型でもタッチパネルは使えなくはないけど「タッチ操作をするときは
キーボードが邪魔」ということに加えて「重心」の問題があるにょ。
クラムシェル型の場合は液晶はヒンジによって前後に自由に動くためタッチをすると
液晶画面が動いてしまったり、手に持った状態でタッチするならば重心変動により不安定に
なってしまうにょ。
これはある程度以下の小型軽量の端末であれば緩和されるけど片手(指2本くらい)で楽々
持てるようなサイズ、重量でない限りはやはり厳しいと思われるにょ。
サイズ、重量が一定以上の場合はうまく腕を使って固定しようにもキーボードが邪魔である
ためそれもできないからね。

そのためクラムシェル型でありながらタッチパネルでの操作を重視した機種はコンバーチ
ブルスタイルを採用しているにょ。
これならばタッチ操作をするにもなどによってキーボードが邪魔にならず液晶がぐらぐら
しない状態で使えるようからね。
コンバーチブルスタイルは2軸ヒンジによって液晶モニタを左右に回転させる機種が大半
だけどDellは別の方法で実現している機種を発表したにょ。
http://www.itmedia.co.jp/news/articles/1009/15/news042.html
この縦方向への回転はあまり採用例がないけどコンバーチブルスタイルだと原理上どう
しても奥行きが長くなってしまうのを防ぐことができそうにょ。

確かにコンバーチブルスタイルだと「タブレット端末はキーボードがない」「クラムシェル
型だとタッチ操作する場合にキーボードが邪魔」という問題点が解消されるとはいえ、
タブレット端末よりもキーボードの分だけ重くなっているだけではなくコンバーチブル
スタイルにするためにさらに重くなっているという問題があるにょ。
この余分なサイズ増、重量増は手に持って使う端末としては致命的といっていいにょ。
これが業務に必要であれば妥協できるけどそうでないならば必ずしもコンバーチブル
スタイルが良いとは言えない状況にょ。

ここまで来ればだいたい分かると思うけどタブレット端末が普及するためにはキーボードの
有無というよりもタッチ操作による重要性が広まることに加えて立った状態、もしくは
両手に持った状態で使うという使用方法がどれだけ普及するかにかかっているにょ。
テーブルの上に置いて使うのがメインであればクラムシェル型の方が遙かに使い勝手が
いいわけだからね。
ただ、それに関してはまだ未知数にょ。
将来的には電子ブックの普及などにより小型軽量なタブレット端末が普及するだろうけど
現時点では需要より供給が先行しているように私は感じているにょ。
すでに小型軽量なタブレット端末といえばスマートフォンがあるけど何度も書いている
ように一定以上の情報量を確保するにはある程度の画面サイズが必要になるためスマート
フォンの解像度がいくら上がってもほとんど無意味になるにょ。(3.5インチフルHD液晶の
スマートフォンが仮にあったとしてそれでA4見開きの雑誌が読めるというわけがないと
いうことを考えれば分かると思う)

(2)これがすごく重要なことにょ。
ネットブックは「Windowsが動作する」から売れたというのは間違いないにょ。
それは安価で小型のPCとして購入する人が大半だからにょ。
ここで「PC」というのは一般的なWindows PCであり、これがLinux搭載であったら少なく
とも日本ではそこまで大ヒットに繋がることは無かったと思われるにょ。

では、タブレット端末でも同じことが言えるかというとYESでもありNOでもあるにょ。
確かに制約が少なく(普段からPC使っている人ならば)普段使っているアプリと同じものが
使えるということがWindows搭載のタブレット端末(これは「Slate PC」と呼ばれている)
にはメリットはあるもののそれはWindowsを動作させることを考慮したネットブックだから
こそ成功したのであってタブレット端末においてはその考えは通用しないにょ。
それは、Windowsというのが基本的にマウスとキーボードで操作するOSだからにょ。

ネットブックの場合はキーボードとマウス(タッチパッド)を標準で備えておりスペック
面(CPU性能、液晶画面解像度)の問題を除けば普通にPCとして使うのに何ら問題もない
からね。
これがタブレット端末だとまた変わってくるにょ。
OSがマウスとキーボードを要求するということでアプリもほとんどのものがそういう
造りになっているからね。
ただ、業務用であればタッチパネルでの操作が前提となるためタッチパネルで使いやすい
アプリを利用する(というか業者に発注して作ってもらう)という方法があるものの
一般ユーザーはすでにあるアプリが使えるからWindowsのメリットがあるのにその使い勝手に
難があるのではタブレット端末を使用するメリットがあるとは言い難いにょ。

確かにXP→Vista→7と徐々にタブレット機能が強化されてきており、キーボードやマウス
という機器は徐々にその存在が薄れかけているとはいえ、肝心のアプリの方が対応できて
ないのでどうしようもないにょ。
タッチ操作に最適化したアプリを作ろうにも現時点では業務用以外には需要が少ないので
あまり作られず、そういうタッチ操作に最適化したアプリがないためSlate PCというものは
個人向けとしてはあまり良いものではないにょ。
その点、最初からタッチパネルを前提としているiOSやAndroid OSはその辺が全く異なる
ためタブレット端末の恩恵は大きいにょ。
http://pc.watch.impress.co.jp/docs/column/config/20101001_397112.html

さらに言うならばOS自体の重さも異なるにょ。
リッチなハードウェアで動作させるのが前提のWindowsは快適動作させるためには必要な
スペックがどうしても高くなってしまうにょ。
これは一般的なネットブックより遙かに低スペックのAndroid OS端末が快適に動作して
いるのを見れば明白だと思うにょ。
ハードウェアに高い性能を求められないということは価格を抑えることができるという
ことにも繋がり、省電力で動作するということでバッテリ容量が抑えられるためそれは
軽量化にも繋がるにょ。(消費電力と重量の関係は5月8日に詳しく書いた)
(1)でも書いたように手に持って使う機会が多いであろうタブレット端末においてこれは
大きなアドバンテージになるにょ。


以上を元に考えると現時点において「Slate PC」は必ずしも良いものとは言えないことが
分かると思うにょ。
やはりキーボードレスのSlate PCはどうしてもユーザーを選んでしまうからね。
それが必要な業務であれば最初に書いたように大きなメリットとなるにょ。
あと価格も今回発表されたオンキヨーの3機種は業務用として考えるならばかなり安価で
あるため一定数の需要はありそうにょ。

 TW317A5 Atom N450 1GB SSD32GB 11.6インチWXGA 1.0kg 69800円
 TW217A5 Atom Z530 1GB SSD32GB 10.1インチWSVGA 850g 59800円
 TW117A4 Atom N450 1GB HDD160GB 10.1インチWSVGA 990g 49800円

スペックだけを見るとネットブックからキーボードを取っただけということもあって
「キーボードがない分だけ軽くなったネットブック」でしかないけどそれでもかなりの
問い合わせが来ている模様にょ。(USBが付いただけでも喜ばれるということは他の選択
候補となったのはとなったのはiPadか!?)

ただし、キーボードレスのWindows PCであるため「キーボードがないのがメリット」と
感じることができず「キーボードがないのがデメリット」と感じている人であればやはり
Slate PCを使うべきではないということにょ。
しかし、特定の使い方しかしない業務用ではなく汎用的に用いる個人用途であればやはり
(2)で書いたようにWindows PCにおいてキーボードがないことがデメリットに感じている
人が多いのはやむを得ないことだと思われるにょ。

Slate PCはWindowsが使えることによって便利な面があるもののやはりそれを普及させる
ためにはWindowsそのものが変わるかユーザーの使い方が変わるしかないにょ。
恐らくWindowsのUIをタッチパネルに特化させることは少なくとも今後しばらくの間は
期待できそうにないのでユーザーの使い方が変わる方を期待するしかないにょ。
もっともiPadの普及で徐々に変わりつつあるし、スマートフォンの普及によって画面サイズ
というのが情報量に与える影響が大きいということも徐々に気づくと思われるためユーザー
側の変革はすでに始まっていると思われるにょ。

つまり、iPadのような非Windowsのタブレット端末とスマートフォンが普及することで
キーボードレスに対する不満点が徐々に薄れる(キーボードを使わない使用方法という
ものをユーザーが分かってくる)ため「Windowsが使える」ということにメリットを見い
だせる人にとってSlate PCを選択するメリットが生まれてくるということに繋がって
くるにょ。
確かに、文書作成、プログラミングなどのコンテンツ作成を目的をした場合にはキーボード
レスの端末を選択するのはあり得ないけどそうでないならば6月26日にも書いたように
徐々にハードウェアとしてのキーボードの存在役割は減ってきていると思うにょ。
「1つの端末ですべてを賄う」というのはやはり無理があるので「用途で使い分ける」と
いうことが出来るかどうかが今後はタブレット端末の普及に大きく関わると思われるにょ。

「Slate PC」というのはそれがメインの存在になるわけではなく1つの候補(キーボード
レスでも困らないけどWindowsアプリが使えないのは困るという人向け)としてその役割を
担っていくと思われるにょ。
ただし、現時点では何度も書いているようにWindowsがタッチパネルに特化したOSではない
ため業務用途以外で使うには自分の需要を満たせるかちゃんと吟味する必要があるし、
ハードウェアの関係上消費電力が大きいため「バッテリ駆動時間が短い」もしくは「重い」
という問題があるにょ。(上記のようにネットブックと比べて重量がシビアになる)
Slate PCを一般に普及させようとするならばまずはそのバッテリ問題が解決されてからに
なりそうにょ。(だからこそ次世代AtomのOakTrailに期待したい)

391御茶目菜子:2010/10/31(日) 04:15:16
10.1WXGA液晶は10.4XGA液晶より情報量が少ない!?
先日発表されたLet'snote J9だけど2chでの評価は賛否両論・・・というか否定する人の
方が圧倒的多数に感じるにょ。
デザイン等は主観であるためどっちが良いかは客観的判断はできないものの「堅牢性」
というLet'snoteの大きなウリを損ねているというのが否定する理由の大半にょ。
堅牢性が落ちたといっても一般的なネットブックやCULVノートに負けるようなレベルでは
ないと思うけどやはり「安心感」という付加価値をLet'snoteに求めている人にとっては
非常に大きいにょ。(ジャケットを装着すれば従来機並の堅牢性を確保できるとはいえ
一回り大きくなり、重量も重くなるためせっかくの小型軽量が損ねられてしまう。

さて、堅牢性以外にも否定する人がいるのはワイド化にょ。
Let'snote Rシリーズは4:3のスクエア液晶を前提にして作られたといっても過言ではない
計算しつくされた筐体サイズ(10.4インチのスクエア液晶を用いてフットプリントを
どこまで小さくできるかを実現したようなもの)だったために9月29日に書いたように
筐体サイズを維持するためには同一インチ数のワイド液晶を搭載した場合にはフット
プリントの大型化は避けられなかったにょ。
普通に考えたら同じインチ数であればワイド液晶の方がスクエア液晶よりも面積が小さい
(単純計算でワイド化することで11%面積が小さくなる)から筐体サイズは本来であれば
小型化可能になるにょ。
それが10.4インチよりもインチ数で3%、面積では6%さらに小さな10.1イン液晶(トータル
16%で面積が小さい液晶)を用いて小型化できないということはいかにRがスクエア液晶に
最適化されていたかということが分かると思うにょ。

TVの場合もスクエアからワイドに買い換える場合はインチ数で1割大きなものにすべきと
いうのはこのような計算を元にして考えられていると思われるにょ。
そうすることでワイド画面は縦方向に小さいため小さく感じるという問題点が無くなる
というわけにょ。
PCでいえば10.4インチスクエア液晶のRから買い換える場合は同じような考えで12.1インチ
ワイド液晶のものにすれば「画面が小さくなった」と感じることは無くなるにょ。
しかし、モバイルにおいて筐体サイズや重量は非常に大きな要素であり、個人的には
10.4インチのRシリーズと12.1インチのモバイルノートは別物に感じるにょ。

ある程度の距離を離れて観るのに加えて一点を注視するのではなく画面全体を観るTVの
場合はインチ数の違いが視覚情報に大きな影響を及ぼすのだけどPCの場合は視覚情報に
大きな影響を与えるのはサイズよりもむしろ画面解像度だと思うにょ。
HDTVでもフルHD(1920x1080)とハーフHD(1366x768)では情報量が異なるけどそれは
一点を観た場合に分かるというだけであって普段の視聴においてはそれほど大きなもの
ではないにょ。(解像度の差よりも液晶のインチ数の方が視覚的影響は大きいということ)
しかし、PCにおいては画面解像度はTVとは異なり明確な差となって現れてくるにょ。
10.1インチWXGA液晶は10.4インチXGAより面積が16%減ったために「情報量が16%減った」
なんてことはなくXGA→WXGAで33%情報量が増えたというのが正しい見方となるにょ。

しかし、それは必ずしも正しいとはいえないにょ。
それは実用解像度がどれくらいなのかというものが大きく影響してくるからにょ。
一般に人間の目は300dpi程度の分解能を持つと言われておりそれは6月14日に私が自ら
行った実験でもほぼ正しいことが実証されたのだけどやはり実用解像度は以下の4つに
よって左右されると思うにょ。(昨年7月15日にも同様のことを書いたけどさらに詳しく
考えていくことにする)

(1)使用距離
(2)使用用途
(3)使用場所
(4)使用時間

(1)はここで何度も書いているけど300dpiという人間の目の分解能は30cm離れて見た場合
だから距離によってこの分解能はほぼ反比例するにょ。
PCの場合はまずデスクトップPC(本体と画面が分離しているもの)かノートPCかによって
変わってくるにょ。
モニタが本体とは分離している場合は好きな距離に設置できるから見やすい距離に調整
して終わりだからね。
しかし、ノートPCの場合はそのような調整はできないにょ。
そのため画面までの距離は一定以上近づけることはできず体格やPCを使用時の姿勢で左右
されるもののその距離は概ね50〜60cm程度ではないかと思うにょ。
30cmの距離で300dpiであれば50〜60cmの距離では150〜166dpiとなるにょ。

これが手に持って使える端末(スマートフォンやポケットサイズのPC)では変わって
くるにょ。
見えなければ画面を目に近づければ良いというだけの話だからね。
15cmまで近づければ600dpiまで可能とはいえ、それはさすがに目に負担がかかりすぎる
ためにやはり30cm以上は離す必要があるにょ。
そうなると人間の目の分解能である300dpiがそのまま適用可能になるにょ。

(2)大きく考えると「閲覧のみ」か「編集作業をする」かということにょ。
閲覧の場合はぶっちゃけ細部が見えなくても粗方把握可能だからね。
テキストを見る場合は例えば「ば」と「ぱ」の違いなんてほとんど気にならないにょ。
というのも人間には高度な補完能力があるためにょ。
意味不明な言葉の羅列であれば細かい部分を見るけど脳内にある単語の場合は自分にとって
都合の良いものに勝手に置き換えられてしまうにょ。
「かんぱんむすめ」は「かんばんむすめ(看板娘)」と解釈してしまうということにょ。
画像閲覧の場合でもピクセル単位で見るなんてことはなく形や色が分かれば問題ない
わけだからね。

しかし、編集作業を行う場合はそうもいかないにょ。
「どうせ閲覧者は細かい部分を見ない」ということでそれを蔑ろにするなんてことは
さすがにできないからね。
テキストか画像かさらに使用するソフトは何かによって変わってくるものの閲覧するのと
編集作業を伴う場合には許容できるドットピッチには大きなずれがあるということにょ。
ケータイやスマートフォンでは閲覧が圧倒的にメインだろうからドットピッチを高める
ことは非常に意味はあるにょ。(少なくとも300ppiまではリニアに影響すると言っても
いいと思う)

(3)意外に気になるのは場所、つまり周囲の環境にょ。
自宅で自分の部屋で固定して使う(もしくは室内の職場で固定して使う)という場合には
ほぼベストな環境であるため高いドットピッチでも問題なく使えるにょ。
しかし、モバイルノートの場合は持ち出して使うという機会が多くなるためそのような
ベストな環境で使えるとは限らないにょ。
例えば屋外で使う場合には使いやすい位置(建物の中など)に入ってわざわざ使うという
ことは難しい場合もあるし、移動中に電車やバスなどの中で使う場合には光線状態を
選ぶことはできないにょ。

さらに移動中に使う場合は振動も馬鹿にはならないにょ。
比較的安定している新幹線であれば全く苦痛にならないけどバスの中で使用する場合は
やはり振動が大きいからね。
振動が液晶画面に対する見やすさを損ねるというのは実際に使ってみないと分からないこと
だけど手ぶれ補正機能のないデジカメを用いてスローシャッターで撮影するというのを
想像して貰えたら分かりやすいと思うにょ。

(4)30分使うのと8時間使うのでは同じ環境であっても疲れやすさは別物にょ。
店頭で2、30分使ってみて「これくらいなら問題ない」と判断するのは早計にょ。
例えば、「2kmならば10分あれば十分に走れる」という人がフルマラソンを210分(3時間
半)で走れるかというとそうとは言えないのと同じにょ。
8時間連続して使うことが予想される場合は8時間連続して使ってみないと分からないと
いうことにょ。

また、「疲れやすさ」というのはマラソンでの体力とは異なりストレートには現れて
来ないために1回8時間使えたからといって安心はできなにょ。
要するに1日しかPCを使用しないのではなく毎日PCを使用するならば「フルマラソンを完走
できるかどうか」ではなく「毎日フルマラソンを完走できるかどうか」ということに
なってくるというわけにょ。
フルマラソンは毎日無理でも2kmのジョギングならば毎日続けても問題ないという人は
多くいることだと思うにょ。
それと同じく(本来は目にかなり負担がかかっているであろう)高いドットピッチの
PCでも毎日短時間であれば問題なく使えると思うにょ。
つまり、そのPCを何時間程度連続して使うのかということが非常に重要な要素となって
くるということにょ。


人間の目の分解能(≠視力)は人によって大きな個人差はないと思われるにょ。
しかし、(1)〜(4)の「距離・用途・場所・時間」は当然のことながら人によって全く
異なるものだと思うにょ。
編集作業がメインというのであれば人間の目の分解能がボトルネックになるためいくら
ベスト環境であっても実用可能ドットピッチには限界による影響が大きくなる(長時間
使うのであれば個人的には分解能の8割くらいのものにしたい)、そうでないならばドット
ピッチを超えても十分に実用になるからね。(「疲れやすさ」というのも個人差がある)

300dpiという人間の目の分解能を元に166ppiがボーダーライン(50cmの距離で使用)として
長時間使用を目的としてボーダーラインが8割に下がると考えるならば133ppiとなるにょ。
つまり、その前後くらいが私が長時間使用する場合においては限界となるラインといえる
わけにょ。
私が使っているR5は10.4インチXGAであるため123ppiとなっており、計算上からも実際の
使用の面からも長時間使用において問題はないにょ。
ちなみに12.1インチWXGAのLet'snote Sシリーズ、Nシリーズは125ppiであるためRシリーズ
から買い換える場合はドットピッチだけを見ればスムーズに移行できると思うにょ。

さて、このような点を踏まえてR9(Rシリーズ)とJ9を比較してみるにょ。
R9は123ppiに対してJ9は155ppiとなっているにょ。
166ppiを下回っているため編集作業がメインでも十分に使えると予想できるけど長時間使用
におけるボーダーラインの133ppiを超えているため長時間の編集作業は厳しそうにょ。
もっともテキスト編集の場合は「白地に黒文字」もしくは「黒地に白文字」で設定している
人が大半であると思われ白黒の場合は分解能は300ppi/30cmではなく400〜480ppi/30cm
程度に達するため8割であっても200ppi/50cmを超えてしまうのだけどこれは便宜上300ppiの
8割として書いているだけであって実際は「モノクロ基準で480ppiの5割」が長時間使用
可能なボーダーラインとして解釈して欲しいにょ。

133ppi(私の場合のボーダーライン)を超えた場合には長時間使用が難しいといっても
液晶の解像度変更や表示DPIの変更を行えば問題なくなるにょ。
その場合は、いくら解像度が高くても表示できる情報量が減ってしまうことになるにょ。
そに結果として生まれたのが「10.1インチWXGA液晶のJ9はは10.4インチXGA液晶のR9よりも
表示できる情報量が少ない」ということだと思われるにょ。
上記(1)〜(4)の4つの条件は人によって大きく異なるためある人が「問題ない」と感じて
別のある人が「問題あり」と感じても全くおかしなことではないということにょ。
13.3インチでフルHDを実現したVAIO Zでも単純に画面解像度が増したということが情報量
増加と感じる人もいるし、DPI設定を変えないと使えない人にとっては同じ13.3インチ
だから表示情報量は変わらないと感じる人もいるというわけにょ。

しかし、「実際に使ってみないと自分にとって使えるかどうか分からない」というのは
かなり厄介な問題にょ。
最悪の場合は上記のように表示DPIを変更すれば良いといってもそれではせっかくの
高解像度を十分に活かせるとは言えなくなってしまうわけだからね。
現在13.3インチWXGA(118ppi)のPCを使っていて13.3インチフルHD(166ppi)のPCに
乗り換えを考えている場合には現在そのPCを50cmの距離で使用しているならばその
1.4倍の70cmで使用することで166ppiを体感することができるにょ。
それで長時間使用していて問題ないならば買い換えても大丈夫にょ。(上記のように疲れは
徐々に蓄積されてくるため1日ではなく1週間くらい連続して使用を薦める)

392御茶目菜子:2010/10/04(月) 13:26:07
「いつの間にか通信」は究極のマジコン対策!?
さて、先日ついに発売日、価格が発表されたニンテンドー3DSだけど「発売されたらすぐに
買う」という人もいれば「しばらく様子見をする」という人もいるかもしれないにょ。
携帯機なのに25000円という高値(これより高い国内の携帯ゲーム機はPCエンジンGTくらい)
であるため「安くなってから買う」という人もいるかもしれないにょ。
私はGB、GBポケット、GBカラー、GBA、GBASP、GBミクロ、DS、DS Liteと任天堂の携帯機は
ほぼすべて買ってきた(買ってないのはGBライトとDSiくらいか)けど世代交代を行った
場合と小型化された場合に限っては100%買っているので3DSも時期は分からないけど
確実に買うと思うにょ。

さて、3DSの最大のウリといえば「裸眼3D」にょ。
TVの対応が必須の据え置き機の3Dとは異なり携帯機では本体を買えば誰でも3Dを楽しむ
ことができるしソフトも3D対応であり「ハードウェア」「コンテンツ」の両方が一気に
揃うことになるため「3Dがなかなか普及しない」という原因を完全に克服しているにょ。
また、「3D(立体視)そのものに問題がある」という指摘もあるかもしれないけど
6月17日に書いたようなメリットがありこれはゲームにとってはただのおまけではなく
「モノクロ→カラー」とか「2D→3Dポリゴン」とか以上に大きな変革になるにょ。
確かに3D(立体視)液晶は6月21日に書いたような問題点はあるけどそれは手に持って
プレイすることが前提の携帯機だから3D(立体視)表示の問題は緩和されているにょ。

それ以外の3DSのウリといえばやはり9月30日にも書いたような通信関係にょ。
「すれ違い通信」も従来だとプレイしているゲーム(カートリッジが挿されているゲーム)
だけに有効だったけど今までプレイしたゲームすべてに有効になったわけだからね。
それを支えているのが本体に内蔵されたフラッシュメモリだと思うにょ。
リーク情報では1.5GBあるとされている内蔵フラッシュだけど1.5GBというと少ないように
見えるけどWii(512MB)の3倍、DSi(256MB)の6倍の容量だからね。
しかし、内蔵フラッシュはほとんどがシステム用に使われる模様にょ。
そのためコンテンツ利用のためにSDカード(2GB)が付属しているくらいだからね。

システムが高度化、複雑化すればするほどそれに穴が出てくるにょ。
そのシステムの脆弱性は多くの場合メーカーにとっては不利益な方法に悪用されてしまい
がちとなっているにょ。
これによって自作アプリの動作が可能になるというだけではなくバックアップされた
ゲームソフトを自由に使用可能になるにょ。
著作権法の観点から考えると個人的な使用において(コピーコントロールを回避させる
方法をしない限り)バックアップを取ることは何ら問題はないためそれ自体には法的な
物は絡んでこないけど問題はそのバックアップされたゲームがネット上に多く出回って
いるということにょ。

これは6月19日にも書いたけどかなりの量になっているにょ。
小学生でも今やネットは普通に扱える時代であるためそのような違法ソフトは90年代の
ようなアングラなものではなくなっておりそれを普通に使用しているのが当たり前のような
認識を持っている子供達も今では少なくないにょ。
例えるならば「皆が万引きしているから自分が万引きしても悪いことだと思わない」と
いう認識が広まっているということにょ。
万引きと違って「物理的に存在しない」ということに加えて「捕まることはほぼない」
ということがより拡大を促進していると思われるにょ。

DSでバックアップというと通称「マジコン」と呼ばれる機器を使用する必要があるけど
これらを本当にバックアップ目的で使うのであれば上記のように問題はないにょ。
しかし、多くの場合は違法アップロードされたゲームをプレイするのに使用されている
という現状があるにょ。
さて、そのマジコン対策を何もしていないのかというとそうではなくまずはソフト側で
マジコンを使った場合には正常にバックアップできないという措置をしているものが
あるにょ。
しかし、本体側での対応が行われないとどうしようもないにょ。

DS→DS Lite→DSiとモデルチェンジを行ってきたDSだけどそれはマジコン対策という
側面を併せ持っているにょ。
しかし、その対策をしたところですぐに対応機器が登場するためいたちごっこ状態にょ。
PSPの方もシステムの脆弱性を付いてCFWを導入によってバックアップされたゲームを
プレイ可能になるけどPSPはシステムを更新しないと最新のゲームはプレイできないと
いう措置によってCFWの拡大を阻止しているもののそれもあまり効果はないにょ。
つまり脆弱性が見つかった時点ですぐに塞がないと駄目ということにょ。

3DSの「いつの間にか通信」はプッシュ型のコンテンツ配信であり、動画や情報などを
スリープ中にダウンロードしてくれるというすごいものなのだけどシステムの脆弱性を
自動的に塞いでくれるという側面を併せ持っていると考えられているにょ。
PSPの場合はユーザーの手によってシステムの更新をする必要があるため更新するかどうか
というのはユーザーの手にゆだねられているにょ。
3DSは「いつの間にか通信」によってユーザーは「システムの更新」というものを考える
必要なく最新の状態に保てるということにょ。
もっとも、それにはネット環境とスリープ状態で使用するという2つの条件が必要になって
くるにょ。

ネット環境は今となってはほとんどの家庭にあるけど問題はいかにスリープをユーザーに
使用させるかということが重要となってくるにょ。
スリープ機能はGB、GBAでは使用されておらずDSで初めて導入されたのだけどこれによって
ようやく携帯ゲーム機としての本領が発揮出来るようになったにょ。
従来であれば外出先でゲームをプレイしていてやめたいけどセーブできないという場面に
おいては泣く泣く電源を切るか電源を付けたまま放置で自宅に帰るまでバッテリ切れに
ならないのを祈るという二択しかなかったけどこれがスリープ状態にすることで大幅に
緩和されたからね。
しかし、モバイルノートでスリープを使用せずシャットダウンを行う人がいるように
携帯ゲーム機においてもスリープは使用しないという人もいることだと思うにょ。

DSではスリープ状態にすることで「すぐに終了・再開できる」というメリットがあるだけ
ではなく「すれ違い通信」というメリットによってスリープをすることをユーザーに
促進していったにょ。
すれ違い通信対応のゲームをプレイしているユーザーであればそうでないユーザーと
比べてスリープの使用率は圧倒的に高いのではないかと私は予想しているにょ。
ただ、スリープは外出先ではメリットが大きいけど自宅ではそのメリットは薄れてくる
からね。
それはスリープのメリットであるすれ違い通信は基本的に自宅では使い物にならない
からにょ。(家族間や個人所有の複数のDSを用いてすれ違い通信を行うという方法も
あるけど)

自宅などのWi-Fi通信環境がある場所でスリープを行うように促進させるにはどうするのか
ということで考案されたのが「いつの間にか通信」だと思われるにょ。
自宅でスリープ機能を使わせるにはそうすることでより便利になるというものをユーザーに
与える必要があるからね。
これによってユーザーは特に意識することなくシステムは常に最新の状態を保つことが
可能になると考えているにょ。

ただ懸念されるのがスリープ中の消費電力にょ。
動作時の消費電力は任天堂のことなので従来のDSと同レベルの駆動時間を実現できるまで
抑えているだろうけど3DSではスリープ中に行えることが遙かに増えたのでスリープ中の
消費電力増大が予想されるにょ。
モバイルノートでもスリープ中の消費電力はかなり重視している私にとってはこれは
かなり気になる部分だけに出来るだけ抑えるように努力してもらいたいものにょ。
自宅でスリープさせるならばクレードルの上に載せているだろうから消費電力の問題はない
ためにAC使用時のみ「いつの間にか通信」を行えば解決といっても自宅にはWi-Fi環境が無く
出先で使用している人もいるからそれは解決策とはいえないわけだからね。

393御茶目菜子:2010/10/05(火) 13:10:39
ついにスマートフォンのガラケー化が始まった
スマートフォンは急速に普及しており、9月4日に書いたように2015年には国内においても
スマートフォンのシェアが半数近くに達することが予想されているけどスマートフォンの
普及はそのような簡単なものではないにょ。
確かにそれが必要な人がいるため一定数の需要があるけど「必要だから買う」という
人は実際にはそれほど多くはないし、ガラケーで当たり前のように出来たことが出来なく
なるということを考えると普及は難しいと思われるにょ。
したがって、スマートフォンを普及させようとするならば9月12日に書いたように
スマートフォンをガラケーのように進化させる必要性があるにょ。

そんな中、ついにワンセグ、おサイフケータイ機能が搭載されたスマートフォンが発表
されたにょ。
http://k-tai.impress.co.jp/docs/news/20101004_397518.html
今回auから発表されたIS03だけどやはりウリは「『1台目』の携帯電話」にょ。
スマートフォンは確かに便利な面を持っているけど主に海外メーカーが開発したもので
あり、世界的需要を狙って作られたものが多いため日本の実態を把握しているとは言い難い
ものがあったにょ。
それはUIの問題もあるけどやはり大きいのはガラケーでは出来て当たり前の機能を搭載
していないということにょ。

そんな機能は「無くても問題ない」と考えている人はすでにスマートフォンに移行している
だろうし、「無いと困る」という人は1台目にガラケー、そして2台目にスマートフォンと
2台持ちをしていると思われるにょ。
しかし、2台持ちはコストの負担が大きくスマートフォンの普及を大きく阻害してしまう
ことになるにょ。
「新しいことができる」というメリットよりも「今まで出来ていたことが出来ない」という
デメリットの方が大きいと感じる人の方が多いと思われるためスマートフォンにおける
ガラケー的進化(日本の需要に合わせた独自進化)は普及において必要不可欠だと
思われるにょ。

この発表会の様子を見ても現状では「2台持ち」になりがちなスマートフォンの不満点を
解消するために1台でカバーできるようにするというauの意気込みが伝わるにょ。
http://k-tai.impress.co.jp/docs/news/20101004_397973.html
「ワンセグ、おサイフケータイ機能が搭載されたらそれでOK」というわけではなく細部も
しっかり作り込まれている様子だからね。
メール機能においてもちゃんとezweb.ne.jpのキャリアメールが使えるだけではなく
デコメールやCメールというキャリア独自のメールも問題なく使用できるからね。
この辺のキャリア独自サービスへの対応はドコモも先月より開始したspモードで改善されて
いるにょ。
「スマートフォンだから世界仕様に合わせる」なんて手抜きをせず、きちんと国内の
ユーザーの実態や需要を考えてローカライズさせるということが普及においては重要に
なってくるということにょ。

しかし、海外メーカー製の端末の場合はソフト面のローカライズはできてもハード面の
ローカライズは難しいにょ。
それができるのはやはり国内メーカー製の端末の強みだと思われるにょ。
今までガラケーによって長年培われたものがあるからね。
ガラケーはキャリア主導で進化が行われたため世界的に見ると特異的に思えてしまう
(だからこそ「ガラパゴスケータイ」、略して「ガラケー」と呼ばれている)けれど
それが日本においては完全に定着している以上はそれを否定はできないにょ。
「自分に必要ないもの=(日本では)要らないもの」というわけではないからね。
自分に要らないだけならそれが搭載されてない端末を買えばいいだけの話にょ。

IS03はワンセグ、おサイフ機能ばかりに目を奪われがちだけど基本スペックも充実して
いるにょ。
3.5インチで960x640というiPhone 4と同等の液晶を備えるだけではなく画面下部に搭載
されているメモリー液晶もかなり便利にょ。
折りたたみ式端末と異なりストレート端末では液晶画面が直に見えるためサブ液晶は
不要と考える人がいるかもしれないけど電源(液晶画面)OFFの状態でも見れるという
メリットがあるからね。
カメラ機能も9Mということでハイエンドなガラケーよりは劣るものの必要十分(というか
これ以上画素数増えてもレンズ性能がボトルネックで無意味)だし、ガラケーと同じく
カメラボタンが独立しているので使い勝手も良さそうにょ。
まさにガラケー的(日本の需要に合わせた)スマートフォンといえるにょ。

IS03がソフトバンク用として登場すればiPhone4ではなく私は間違いなくIS03の方を
選ぶと思うにょ。
私がiPhone4を買わない最大の理由は「2台持ちになるから」であり、それによるコストの
増大が最大のネックとなるにょ。
これは通信用であればiPod touchで代用できそうと考えているためコスト重視で新型
touchを購入予定となっているにょ。
今後、スマートフォンが普及するためには冒頭に書いたようにガラケー化が必要不可欠
だと思われるためauが先手を打ったものの各キャリアが追従するのは間違いないにょ。

394御茶目菜子:2010/10/06(水) 14:18:53
モバイルノートに通常版CPUを搭載するワケ
先日発表されたLet'snote J9はあのサイズで超低電圧版(ULV)のCPUではなく通常版の
CPUが搭載ということがすごいと感じたけど従来は日本のモバイルノートは超低電圧版の
CPUが主流だったけどここ最近は通常版CPUを搭載するのがトレンドになっているという
ことを考えるとそれほど驚くことでもないにょ。
http://pc.watch.impress.co.jp/docs/news/20101005_397497.html
http://pc.watch.impress.co.jp/docs/news/20100929_396599.html
dynabook R730、LIFEBOOK PHいずれも通常版CPUが採用されているにょ。(R730はその前身
となった今年の夏モデル「RX3」ですでに通常版CPUを搭載していたけど)

12.1インチクラスというのは日本では超低電圧版CPUが高い勢力を持っていたのだけど
Let'snoteも昨年登場のN8、S8で通常版CPUを搭載機種にモデルチェンジをしたにょ。
ThinkPadをはじめとする海外メーカーでは古くから通常版CPUを採用しており超低電圧版
CPUを搭載機種は一部に止まっていたけど日本では多くの機種に採用されていた背景には
日本のモバイルノートは「薄型」「軽量」「長時間駆動」というのが武器になっていた
からにょ。
それなのに通常版CPU搭載機種がここ最近急増している背景には下記の3つの理由がある
と思われるにょ。

(1)通常版CPU搭載でも長時間駆動が可能になった
(2)超低電圧版CPUのプレミアム性が無くなった
(3)CULVノートなどとの棲み分けのため

(1)超低電圧版CPUというのは文字通り駆動電圧を低くすることで消費電力が低くなって
いるにょ。
同じアーキテクチャであれば計算上の消費電力はクロックに比例し、駆動電圧の2乗に比例
するからね。
消費電力がほぼ熱へと変わるCPUはその消費電力がTDPに与える影響が大きいにょ。
つまり、消費電力が大きなCPUほど熱設計電力(TDP)も大きくなるというわけにょ。
もっともこれはCPUの場合はグループ毎に設定してあることが多いため超低電圧版、
通常版という枠の最上位クロックのものがそのTDPの上限近くの消費電力に達するものの
下位クロックのものはTDPよりも低めの消費電力となっているにょ。(これはCPUの
クロックによってPCの設計を変えなくても良いという配慮のため)

超低電圧版CPUはクロックが低い故にシングルコアCPU時代は通常版CPUのTDPが25〜27W
だったのに対してTDP5Wだったにょ。
これならば5倍消費電力の差があるかというと必ずしもそうではないにょ。
それは「CPUの消費電力ががシステム全体に占める割合はそれほど大きな物ではない」と
いうことに加えて「通常の使用時においてCPUはアイドル時の時間が長い」ということが
理由となっているにょ。
単体GPUを搭載していないモバイルノートにおいてはCPU以外の消費電力は5W〜10W程度
あるためCPUがフルスピードで動作している場合(フルロード時)であれば通常版CPUは
超低電圧版CPUに比べて大幅に駆動時間が短くなるもののCPUの消費電力に比例して短く
なるというわけではないにょ。

さらにCore2からは消費電力を抑えるためにCPUの動作クロックだけではなく駆動電圧も
動的に変化させる仕組みが取り入れられたにょ。
このためアイドル時の消費電力は超低電圧版CPUとほとんど変わらなくなったにょ。
つまり、動作時の消費電力さえ何とかできれば駆動時間において超低電圧版CPUよりも
短くなるという心配は要らなくなるにょ。
この辺は各社が長年培ったパワーマネジメントのノウハウが重要になるにょ。
それに通常版CPUの場合は動作クロックが高いから2倍の消費電力でも半分の時間で処理が
完了すればトータルの消費電力は変わらないからね。(CPU以外の消費電力を考えると
「2倍のクロック」で「2倍の消費電力」であるならば逆にトータルの消費電力量を減らせる
可能性さえある)

(2)超低電圧CPUは低電圧駆動を実現するためにかつては選別品が使われていたにょ。
実際、ULV PenM 900MHzは電圧を通常版CPUと同じに設定すれば通常版CPUよりも高クロック
動作が可能になるという良質のコアが採用されていたわけだしね。
超低電圧CPUは駆動電圧を下げることで低消費電力を実現しているわけだけど駆動電圧を
高めれば高クロック動作は可能になるにょ。
これは通常版CPUでもデフォ設定よりもよりも高い動作電圧を与えることでよりデフォより
高いクロックで安定動作させることも可能になるにょ。(要するに活入れによるオーバー
クロック動作をさせるということ)
つまり、超低電圧版は低電圧耐性を持っていると同時にすぐれたオーバークロックの
マージンを持ち合わせているという素晴らしいCPUといえるにょ。

そんな選別品CPUであるが故に超低電圧版CPUは割高な価格設定となっていたにょ。
これは通常版CPUとして販売すれば高クロックのハイエンドCPUとして販売可能な製品で
あったためそういう観点から考えるとやむを得ないことにょ。
しかし、超低電圧版CPUも10月19日に書いたように最近はプレミアム性がかなり失われて
来ているにょ。
各世代ごとに最高クロックのCPUの動作クロックとTDPを下記にまとめてみたにょ。

             超低電圧版CPU   通常版CPU   クロック比(TDP当たり)
 130nm PenM(Banias) 1.1GHz TDP5W   1.7GHz TDP25W   1.55倍(0.31倍)
  90nm PenM(Dothan) 1.3GHz TDP5W   2.26GHz TDP27W   1.74倍(0.32倍)
  65nm CoreDuo     1.2GHz TDP9W   2.33GHz TDP31W   1.94倍(0.56倍)
  45nm Core2Duo    1.6GHz TDP10W   3.06GHz TDP35W   1.91倍(0.55倍)
  32nm Core i7     1.33GHz TDP18W   2.8GHz TDP35W   2.11倍(1.08倍)

これを見ての通り最上位クロック同士の比較だと世代ごとに超低電圧版CPUと通常版CPUの
クロック差はどんどん開いていっているにょ。
こうなったのはクロックを高くするのは容易だけど大幅な低電圧駆動させるのは難しい
ためにょ。
製造プロセスの微細化によってトランジスタのスイッチング速度を上げることは可能に
なるもののトランジスタでスイッチング動作を行うには一般的には0.6〜0.7Vの電位差が
必要になるからね。
そのため超低電圧版CPUは動作電圧が1Vを切ってからはその駆動電圧の低下の度合いは
極めて緩くなったにょ。

微細化によってリーク電流が顕著化しているけどリーク電流には大きく分けてゲートリーク
とサブスレッショルドリークの2種類があるにょ。
低電圧駆動の場合はサブスレッショルドリークが特に顕著化してくるにょ。
そのため微細化によって低電圧で駆動するCPUを作ることは簡単になったけどTDPの枠内に
抑えるためには通常版CPUとのクロック差はどんどん広がる一方となっているわけにょ。
要するに今の超低電圧版CPUはプレミアム品でも何でもなく通常版CPUの動作速度制限版
でしかないということにょ。(上記のように通常版CPUであってもアイドル時には動作
電圧を下げているため低電圧版駆動によって消費電力を低減している超低電圧版CPUの
メリットはほとんどなくなっている)

性能面のアドバンテージであった電力当たりの性能(ワットパフォーマンス)においても
上記のTDP当たりのクロック比(「TDP=消費電力」ではないけど各世代の最高クロックに
おいて考えるならば両者の値は近いものになるためここでは「TDP=消費電力」として
考える)を見ての通りPenMの頃は通常版CPUは超低電圧版CPUの0.3倍程度の性能だったにょ。
これは言い換えると超低電圧版CPUのワットパフォーマンスは通常版CPUの3倍あったと
いうことになるけどこれは世代毎に低くなりCore i7ではワットパフォーマンスはついに
逆転してしまっているにょ。
これはCPUにGPUが内蔵された影響で単純計算ができなくなったためだけどそれを差し引いて
考えても超低電圧版CPUの性能面におけるメリットはほぼ無くなってしまったにょ。

ちなみにワットパフォーマンスで考えるならばAtom NはCore2Duoの4分の1の消費電力で
3分の1の性能を実現できているためCore2Duoの1.3倍程度のワットパフォーマンスがあり
IntelのCPUの中では過去最高レベルとなっているにょ。(Atom Nよりクロックが高い
Atom Z550は頂点のワットパフォーマンスとなる)
しかし、それによって「Atomの性能が高い」と感じる人はいるとは思えず、PCにおいては
ワットパフォーマンスではなく絶対パフォーマンスの方が重視されるといえそうにょ。

(3)「低電圧で駆動するCPUは簡単に作れるようになった」でも「高クロック動作をさせる
のはTDPの関係で難しい」ということを(2)で書いたけど問題は十分な供給ができても
需要が無ければ意味がないということにょ。
しかし、本来はMIDや小型端末で使用することを考慮していたAtomがネットブックで爆発的
ヒットをし「安い」ということが大きな需要を喚起することが分かったにょ。
そこで動作クロックの低い超低電圧版CPUをAtomの上位として一定基準を満たすことで
安価に販売することにしたにょ。
それがCULV(コンシューマ向けの超低電圧CPU)にょ。

これによって「Atomでは性能的に物足りないけどモバイルノートは高価で買えない」と
いう人には非常に有用なCULVノートが誕生したにょ。
CULVノートは国内メーカー製だと10万前後と高価だけどASUSやACERのような海外メーカー
だと安価に販売しており安い機種だと5〜6万円で入手可能になるにょ。
ACER 1410は発売当初にセレロンSU2300(1.2GHz)搭載で49800円という破格値であった
ために大ブレイクを起こしたにょ。
CPU性能はAtomの2倍以上なのに加えてチップセットに内蔵のGPUはAtomで広く用いられて
いた945GSEに内蔵のGMA950とは異なりHD動画の再生支援機能も有しているということが
やはりネットブックとの差別化において有用になったにょ。
あとは、ネットブックは10インチWSVGA液晶が主流だけどCULVノートは11.6〜13.3インチ
WXGA液晶が主流であるため使い勝手もネットブックよりも格段に良くなったからね。

そうなると最もダメージを受けるのはネットブック・・・ではなくモバイルノートの方
だといえるにょ。
というのも搭載しているCPUはAtomのように完全な格下CPUではなくモバイルノートに
使われているものと何ら変わらないCPUだからね。
本体が軽いというアドバンテージが依然としてモバイルノートにあるものの軽いという
要素に対して2倍も3倍もの金額を出してくれる人はごくわずかしかいないにょ。
したがって、性能で差を付ける必要があったにょ。
それが通常版CPUの採用の大きな理由だと思われるにょ。

幸いにして(1)で書いたように通常版CPUでも消費電力低減によってちゃんとパワー
マネジメントを行えば超低電圧版とほとんど変わらないレベルになっているにょ。
実際通常版CPUを搭載のLet'snote J9は超低電圧版CPUを搭載のR9と比べて電力当たりの
駆動時間はほぼ同レベルだしね。
問題は熱設計だけにょ。
逆にいえばそれさえ克服できれば性能面で大きな差が付いており、プレミアム性も失われて
きている超低電圧版CPUを搭載する必要もなくなるわけだしね。(ULVのCore i7はCPU単体で
3万円を超える高価なCPUだけど通常版CPUのローエンドにも劣る性能でしかない)


つまり、以上の「通常版CPUで長時間駆動可能になった」「超低電圧版には価格に似合う
価値が無くなった」「CULVとの差別化が必要になった」という(1)〜(3)の理由によって
昨今は国内のモバイルノートにおいて通常版CPUを採用機種が増えていると考えられるにょ。
超低電圧版CPUはCULVノートにおいて大きな需要があるだけではなくAtomでは厳しいので
もう少しパフォーマンスが欲しいという用途で熱設計が難しい小型、薄型のPCにおいては
有用になるものの12インチクラスであれば熱設計技術の進化によってTDP35WのCPUを載せる
ことは容易になったにょ。
しかも、これは従来と異なりCPU+ノースブリッジでTDP35WであるためCPU単体でTDP35W
であったCore2Duoと比べて熱設計の面では有利になっているにょ。
逆に超低電圧版はCore2DuoがTDP10Wなのに対してCore i7は一気に18Wへと増加している
ため熱設計の見直しが必要になったにょ。
もしも、超低電圧版CPUがCPU+ノースブリッジで従来と同じTDP10Wであれば採用する
メーカーも多かっただろうけど熱設計を変更を迫られてしまったことも通常版CPUを搭載
するきっかけに繋がったのではないかと思われるにょ。

したがって、単に(3)のCULVとの差別化という安易な考えによってモバイルノートに通常版
CPUを搭載するようになったのではなく各要素が絡み合うことで必然的に通常版CPU搭載へと
繋がったと考えられるにょ。
もしも、(1)で通常版CPUのアイドル時の消費電力が高かったり、(2)で超低電圧版CPUが
順調に進化していきTDP10Wで2.4GHzというTDPを維持して通常版の3倍のワット
パフォーマンスが実現出来ていたら超低電圧版CPUは高値で十分通用しただろうけど実際は
そうならなかったわけだからね。(3倍は無理でも価格を考えると2倍以上はないと厳しい
と思う)

確かに薄型、軽量を実現するためには超低電圧版CPUは有利だけどそのために安価なCULV
ノートと性能は大差がなく2倍のコスト(国内メーカー製だとCULVノートが10万円前後
なのに対してモバイルノートは20万円前後)となるとさすがにユーザーを選んでしまう
からね。
ユーザーが限られるため開発コストをペイするためには安価にはできないということで
さらにユーザーを選ぶという結果になっているにょ。
これは量産化によって安価が実現できそれによってユーザーが拡大したネットブックとは
逆のものといえるにょ。
通常版CPU搭載のモバイルノートは高価であっても軽量かつ高性能であるためコスト
パフォーマンスという観点からするとCULVノートには負けないものになっているにょ。
これならばCULVノートと棲み分けは十分に行えそうにょ。

395御茶目菜子:2010/10/07(木) 13:17:48
JungleはPSP2キラー!?
ニンテンドー3DSの発売日と価格が発表され各所で大きな話題となっている中でPanasonicが
新しい携帯ゲーム機「Jungle」を発表したにょ。(まだ詳細は発表されてないけど)
http://gamez.itmedia.co.jp/games/articles/1010/05/news112.html
王者任天堂がDSから3DSへと世代交代をしようとしているけどライバルであるSCEはPSP2の
目処が立ってない状態であるためまだまだ勝機はある・・・と考えたのは定かではない
けど成功するためには「ゲームのラインナップ」と「本体価格」が重要になるにょ。

3DSは現行DSのソフトがほぼすべて使える上に世界最強ゲームベンダーである任天堂の
ゲームがプレイできるというメリットがあるし、現状のサードのラインナップを見ても
過去の任天堂のゲーム機において例がないくらいの充実振りにょ。
まったく隙がないといっても過言ではないかと思うにょ。
現状において唯一の懸念材料は価格にょ。
9月30日に書いたように25000円は十分納得できる価格ではあるものの携帯ゲーム機として
考えるならば高価と感じている人が多いにょ。
ITmediaが実施したアンケート調査でも9割の人が「高価」と答えているからね。

 http://gamez.itmedia.co.jp/games/articles/1010/04/news082.html
 ・高いけど買います・・・44%     左記のアンケート結果より
 ・安いから買います・・・ 5%  →  ・高い91%、安い9%
 ・高いから買いません・・47%     ・買う49%、買わない51%
 ・安いけど買いません・・ 4%

やはり、価格がすべてではなく多少割高に感じていてもやりたいものがあれば買うという
人はそれなりに多いということにょ。

さて、上記を踏まえてPanasonicが発表した「Jungle」を見てみるにょ。
Panasonicのゲーム機といえば3DO以来16年ぶり(3DOの後継となるはずだったM2は開発は
されたけど発売には至らなかった)のことだけどまさか今度は携帯ゲーム機を登場させる
とは・・・。
確かに据え置き機はコストばかりかかってしまうし(M2で失敗したPanasonic自身が一番
感じていると思う)、現状で売れているのは携帯機の方が多い(DS発売前は本体もソフトも
売上数ベース携帯機が据え置き機を超えることは瞬間的なものを除き一度も無かった)と
いうことを考えるならばこの選択は妥当かもしれないにょ。
ただし、3DSを相手に戦うのは簡単にはいかないにょ。
SCEも実験的な意味合いを多く含んだPSP goを販売して様子を探っていたけどコンシューマ
ゲーム機においてダウンロード販売オンリーというのは現時点では厳しいと悟ったのでは
ないかと思われるにょ。(もしもgoがまともに売れていたらUMD無しのPSP2はすでに発表
されていると思われる)

しかし、Jungleは携帯ゲーム機としては初のオンラインゲーム専用機となっているにょ。
オンラインゲーム専用機であればネットに繋がっていることが前提であるためダウン
ロード販売のハードルは低くなるにょ。
しかし、携帯機でオンラインゲーム専用となると最大のネックは通信にょ。
据え置き機なら移動して使うということがないため自宅でのブロードバンドによるネット
環境がそのまま使えるけれど携帯機ではWi-Fi接続可能な場所に限られるからね。
自宅外でのWi-Fi通信環境(フリースポットなど)はそこまで普及していないにょ。

そうなると考えられるのは3G通信を内蔵することにょ。
これならばWi-Fi接続ができない場所であっても通信が可能になるのはいいけどその
通信コストはどうなるのかという問題が発生するにょ。
ユーザーがキャリアに対して月額料金を払うようなシステムだと普及はあり得ないにょ。
そうなるとキャリアとタイアップしてソフトの代金に含んでしまうという方法が最も
有力な選択肢となりそうにょ。
AmazonのKindleもそうすることでユーザーは別途キャリアへ通信料金を支払うことなく3G
通信が可能になっているにょ。

3G通信内蔵は携帯ゲーム機の可能性を大きく広げてくれるけどそこには下記の2つの問題
点があるにょ。

(1)通信コストの問題
(2)スマートフォンとの棲み分け

(1)いくらネットゲーの通信量はそれほど多くはないといっても1回買えば終わりの電子
書籍とは異なり断続的な通信が発生してしまうためコストを抑えるのは難しいとにょ。
仮に1冊1MBと仮定した場合でも日本国内で多く使用されている1パケット0.084円(定額
サービス加入時のパケット単価)で計算すると1冊672円となるにょ。
確かに大きな金額だけどタイアップすることで料金を10分の1くらいに割り引いてもらって
いると仮定すれば十分に回収できる金額にょ。

それが常時通信が必要なネットゲーの場合は携帯機ということで仮に平均1KB/s程度の
通信に抑えていると仮定しても1日4時間のプレイを30日間行った場合には約430MBになり
パケット単価0.084円で計算すれば約29万円になるにょ。
実際は1KB/sでは収まらないだろうし、4時間を超えてプレイする人は多くいるだろうと
考えるとそれが10分の1の金額になっても100分の1の金額になっても厳しそうにょ。
それこそパケット定額と同じ4000円くらいの料金をゲームの料金と別途に支払うような
形でない限りは全額メーカー負担では厳しいにょ。

このゲーム機のために1回線別途契約をして、わざわざ定額料金を払うなんてことは
ほとんどの人ができないと思われるにょ。
一昨日にも書いたように日本においては現状のスマートフォンは2台持ちをしなくては
いけないと感じている人が多いためにそのコスト面の問題で普及が厳しいと私は考えて
いるからね。
世の中には特定のネットゲーでのアイテム入手をするのに数万円費やす人もいるから
通信コストが4000円程度別途かかっても安いものと考えることもできるけどそれはあくまで
一部のコアユーザーだけの話であってそれをもって通信コストは問題にならないなんて
ことはとても言えないにょ。

(2)近年飛躍的に伸びているオンラインゲームやソーシャルゲームだけどやはりそれは
通信環境が備わっているからにょ。
「基本はWi-Fi接続だけど資金面に余裕がある人は別途3G契約をしてください」というので
あればそれはゲームそのものの考え方が変わってくるにょ。
いくら通信メインの使用方法であってもiPod touchがiPhoneの代わりにはならないからね。
もちろんモバイルルータを使用することでこれは軽減できるものの他に使う目的があって
すでに購入している人ならばいざ知らずこのゲーム機のために購入するならば別途通信
契約をするのと変わらないにょ。

そういう意味ではユーザーすべてが3G契約を行っているスマートフォンの方がオンライン
ゲーム用途の携帯機としては優れているといえるにょ。
Jungleの3G契約がオプションならばせっかくの携帯ゲーム機なのにWi-Fi接続環境のある
場所でしかゲームができないという事態に陥ってしまうにょ。
DSやPSPはオンラインプレイはメインではなくあくまでオフラインプレイがメインである
ためにWi-Fi接続だけで問題はないけどJungleの場合はオンラインゲーム専用機だからね。

コスト面の負担は大きいけどJungleは3G契約を必須にすると考えた場合には今度は
スマートフォンとのシェア争いをかけた戦いが待っているにょ。
昨今の高性能スマートフォンはPSPを凌駕する性能でありゲームをプレイするには十分な
性能があるからね。
9月20日に書いたようにiPhoneは閉鎖的であるが故にゲームベンダー参入がしやすい環境と
なっており、実際大手ゲームベンダーも積極的にアプリを発表しているにょ。
スマートフォンと比べると入力インターフェイス面のアドバンテージがあるにょ。
通常のゲーム機と同じく方向キーやボタンがあるだけではなくQWERTY配列のキーボード
まで用意されているからね。

ただし、スマートフォンの場合は電話機として購入するため1台目のケータイとして購入
している人であれば事実上の負担金はゼロ(生活に必要だから買っているものをエンター
テイメント用として活用している)なのに対してJungleは本体価格に加えて別途通信
料金も支払わなければないらない(可能性が高い)にょ。
噂ではJungleの価格は400ドル程度らしいにょ。
スマートフォンであれば一括購入で400ドルは格安の部類だけどこれが携帯ゲーム機と
考えると3DSの25000円でさえ割高に感じる人が9割いるという現状を考えると厳しい
ような気がするにょ。
そもそも、スマートフォンは電話機であるため常時持ち歩くのが必須であるのでJungleと
スマートフォンのどっちを持ち歩くかなんていうライバル関係にはなり得ないしね。

3G通信を搭載すると予想されるゲーム機ということでスマートフォンとの棲み分けを
考えてみたけどやはり上記のような理由によってスマートフォンとは棲み分け以前のもの
であると感じてしまったにょ。
そうなると他の携帯ゲーム機との比較になってしまうけど(1)で書いたような通信コストの
問題が何らかの方法で克服されない限りはコスト面において非常に不利になってしまう
と予想されるにょ。
もっとも「(企業努力によって)通信料金はメーカー負担で行う」とか「オフラインでも
普通にプレイできるゲームになる」とかいう可能性があるため現時点でそれについて
批判はできないけどね。

正直言ってこのようなゲーム機はPanasonicではなくSCEが出すと私は考えていたので最も
厳しい立場に立つのはSCEの方かもしれないにょ。
SCEはPSP2で3DSともJungleとも差別化をしないといけなくなってしまったからね。

396御茶目菜子:2010/10/08(金) 13:24:12
CULVノートは高価になっては意味がない・・・?
一昨日書いたように最近はモバイルノートには超低電圧版ではなく通常電圧版CPUが搭載
するのが普通になってきているけどこれはモバイルノートとCULVノートの価格差を考えると
重量が軽いくらいでは埋まらないから時代の流れからすると当然といえるにょ。
さて、CULVノートと一口に言っても最も下位に位置するセレロンU3400のものと中堅クラス
となるCore i3ではそれなりに性能差はあるにょ。
それらと通常版CPUとの性能差比較ということでUL20FT-2X330Vのレビューを見てみるにょ。
http://pc.watch.impress.co.jp/docs/column/hothot/20101007_398478.html

これは、8月19日に書いたUL20FTのCore i3搭載モデルとなっているにょ。
U3400搭載版と同じくワンタッチでソフトウェアによって33%のOC(オーバークロック)が
行えるTurbo33を備えているため1.6GHz相当で動作させることも可能となっているにょ。
というわけで、このTourbo33モードの有無に加えてUL20FTのU3400モデルとLet'snote J9の
スタンダードモデル(下位機種)と比較してみるにょ。
J9のスコアのソースはこちらにょ。
http://plusd.itmedia.co.jp/pcuser/articles/1009/28/news024_4.html

        UL20FT-2X330V UL20FT-2X330V UL20FT     Let'snote J9
        Core i3-330UM Core i3-330UM Celeron U3400 Core i3-370M
         1.6GHz相当    1.2GHz     1.06GHz    2.4GHz
        (Turbo33 ON)  (Turbo33 OFF)
 PC Mark05
  CPU       4306      4153      2577      6466
  Memory      4346      4299      3025      5250
  Graphics     1716      1741      1673      2230
  HDD       5078      6659      4980      4307
 FFXI Bench3
  LOW       2445      1811      1668      3658
  HIGH       1636      1245      1148      2271

PC Mark05のCPUスコアを見てみるとU3400とCore i3-330UMはクロック差が13%しかない
にも関わらずスコア差は61%となっているにょ。
クロック当たりのスコアでは1.4倍もCore i3の方が優れている理由はやはりHTTの有無
だと思われるにょ。
8月19日に書いたようにU3400は旧製品のSU2300よりも性能が下という残念な結果に終わった
けれどこれは従来よりも動作クロックが下がったことが最大の原因にょ。(アークテクチャ
変更だけではその差を吸収できていない)
その点Core i3-330UMはSU2300と比べて動作クロックが同じであるためスコアがダウンする
要素がなくHTTがあることでマルチスレッド性能は飛躍的に伸びており、SU2300よりも上の
性能が欲しければ最低でもCore i3搭載モデルを買うべきだと思われるにょ。

33%のOCを実現しているTurbo33をONで測定するとさらにスコアが4%アップしているという
のが分かるけど33%アップなのにスコアが4%アップというのは妙な感じにょ。
これはとりあえず保留としておいて、CPUのシングルスレッド性能の比較であればFFベンチ
LOWが最も分かりやすいにょ。(i3にTBがあれば熱設計の問題でTBが正常動作できていない
という理由も考えられるけどそれがない以上は議論のしようがない)
デフォ状態(1.2GHz)だとU3400よりも8%アップのスコアになっているけどTurbo33をONで
測定するとデフォ状態よりも35%アップ、U3400より47%アップのスコアになっているにょ。
FFベンチには数%の測定誤差があるけどほぼクロックに比例したものになっていると
いっていいのではないかと思われるにょ。

では、このFFベンチを通常版CPUを搭載のJ9と比較してみるにょ。
2.4GHzのクロックであるため同じCore i3とはいえ、1.2GHzのUL20FTと比べても約2倍の
スコアになっているにょ。
Turbo33をONにした状態と比べても1.5倍のスコアにょ。
この差は決して小さいものではないにょ。
超低電圧版CPUと通常版CPUの比較というのは数年前までは無意味だった(両者には選択の
余地が無かった)けど一昨日も書いたようにモバイルノートでは通常版CPUの搭載が標準
となりつつあるためUL20FTのような12.1インチ液晶搭載モデルならば通常版CPUとの
性能比較というのは「当然行うべきこと」だといえるにょ。

さて、ワンタッチで33%のOCが行えるTurbo33だけどこれは8月19日にも書いたように
ハードウェアで行っているのではなくソフトウェア上から行っているものであり、原理は
フリーウェアによるOCと何ら代わりがないにょ。
ただ、OCは魔法でもなんでもないにょ。
CPUそのものが33%のOCに耐えられる保証はないし、33%OCすれば単純計算で33%消費
電力(≒発熱)が増えることになるにょ。

ただ、超低電圧版CPUはTDPを枠内に抑えるのが難しいため動作クロックが低くなっている
わけでありTDPの枠内に抑えられない(実消費電力18Wオーバー)でよいならばほとんどの
石が1.6GHz程度ならば十分に動作すると思われるにょ。(一昨日も書いたけど数年前とは
異なり今の超低電圧版CPUは選別品ではないためはずれを引かない限りは問題ない)
したがって、CPU側の問題はあまりなくそれを安定動作させるためには本体の熱設計さえ
しっかりしておけば良いということにょ。

超低電圧版CPUは「クロックが低い分だけ低消費電力(=低発熱)」となっているのに
わざわざ発熱を大きくして使うというのはナンセンスという考えもあるけどたかが33%
とはいえ、その差は小さくないからね。(33%というと1〜2ランク上のCPUの性能になる)
問題はその代償に似合うかどうかにょ。
しかし、IntelもTBのようにTDPの枠内とはいえOCによって性能をアップさせる行為を標準
機能として取り入れているにょ。
これは、その方が結果として電力効率が高くなるからにょ。
仮にCPUのクロックが2倍になりCPUの消費電力が2倍になったとしてもシステム全体の
消費電力は2倍になることは決してないために処理にかかる時間が半分になればトータルの
消費電力量は小さくなるためにょ。
確かにTBは性能強化(クロック上昇による性能アップ)がメイン要素ではあるものの
副次的には省電力にも貢献しているということにょ。
つまり、「クロックが上がるからバッテリ駆動時間が短くなる」という単純なものでは
ないにょ。

そういう点ではTurbo33も同じ・・・だけどTurbo33の場合はONにすると省電力機構が
働かないという面があるにょ。(省電力機構を使うにはOFFにするしかないという方が
正しいかもしれないけど)
そして、CPUのベースクロックそのものが上がってしまうためCPUそのものの電力効率が
低下してしまっているのはバッテリ駆動時間を計測しなくても確実にいえるにょ。
通常版CPUでも超低電圧版CPUとあまり変わらない駆動時間が実現できるようになった今と
なっては、それより性能が低い超低電圧版CPUでTurbo33をON、OFFを考えながら使うという
ことはあまり良いものではないと感じるにょ。
普段はOFFで使っていても負荷が高まったときには自動的にONになるようなオートモードが
あれば有用だけど手動しかないからね。
普段Turbo33をONの状態で使う人であれば通常版CPUでしっかりパワーマネジメントを
働かせた方が駆動時間は長くなるだろうし、性能面でも確実に上となってしまうにょ。
そして、Turbo33で動作時の発熱に耐えられるためCPUのTDPよりも余裕を持たせて設計
する必要があるからね。


ネットブックは「安い」「小さい」PCとして大ヒットに繋がったというのは記憶に新しい
と思うにょ。
ただ、そこまでの小ささを求めてない人が多いせいか使い勝手を考えてすぐに10インチ
WSVGAが主流になったにょ。
そのネットブックは価格が安い分だけ性能はやはり高いものとは言えなかったけどネット
ブックでは性能面で物足りないという人の前に現れた救世主といえるのがCULVノートにょ。
下位であるセレロンSU2300でさえAtom Nの2倍程度の性能を持つために性能面でネット
ブックに不満を感じていた人には非常に有用になったにょ。
これを支えているのがIntelが超低電圧版CPUを安価かつ大量に供給可能になったという
ことが挙げられるにょ。(これは一昨日も書いたように超低電圧版CPUが選別品ではなく
なったということが非常に大きい)

ただ、ネットブックが高価になったら意味がないというのと同じくCULVノートも高価に
なっては意味がないにょ。
今回採り上げたUL20FTの価格comでの最安値を比較すると今日現在においてはセレロンU3400
搭載モデルが47200円、Core i3-330UM搭載モデルが65800円となっておりその差は18600円
もあるにょ。(他にスペック差がないため純粋にCPUの違いによるものの差)
確かにU3400よりは確実に上であるため高価であっても仕方がないけどそれが18600円差で
あっても許せるかどうかは微妙なところにょ。
CULVのCore i3を搭載するのではなく通常版のCore i3-370M(2.4GHz)を搭載していれば
上記の比較を見てもU3400の2.5倍くらいの性能はあるために価格差が許容できる人も多く
なりそうだけどね。

CULVノートは「コストのかかる軽量化はしない」「TDPが低いために廃熱機構を簡略化」
というメリットはあるにょ。
しかし、UL20FTの場合はTurbo33で安定動作させるためにTDP18Wで設計しているのではなく
TDP25W以上を想定して設計していると思われるにょ。
それならばTDP35Wで設計して通常版CPUを搭載するという選択肢は十分に有りだと思うにょ。
価格面を考えても両者にはそれほどの差はないからね。
U3400ならば元々安い上にIntelが定めた条件を満たせばさらに半額程度になると考えると
Atomとの価格差もわずかしかないためU3400を搭載の安価なCULVノートは(SU2300より
性能ダウンしたのは残念とはいえ)非常に存在価値が大きいけどCore i3搭載によって
高価になり熱設計に余裕があるとなれば話は別にょ。

ASUSで通常版Core i3搭載となるとU30Jcがあるにょ。
これはCore i3-370M(2.4GHz)を搭載で価格com最安値は73232円となっているにょ。
ただし、こちらは光学ドライブ内蔵に加えて単体GPUまで搭載しているにょ。
それを考えるとCULV版Core i3を搭載のUL20FTの65800円というのは割高に感じるにょ。
それならばU30Jcを買えば良いというだけに感じるかもしれないけどこちらは重量が2.1kg
あり重量差は540gに達するにょ。(2.1kgが許容できるならばU30Jcの方がお買い得)
これは13.3インチ液晶を搭載ということで筐体サイズが大きくなっている分だけ重く
なっているのに加えて、光学ドライブやGPUを内蔵している影響にょ。
もしも、12.1インチ、光学ドライブなし、GPUはCPU内蔵のみというのであればUL20FTと
大差ない重量になると思われるにょ。
もちろん、価格も光学ドライブやGPUがない分だけ安価になるにょ。
恐らく価格的にはCULVだろうと通常版だろうとあまり変わらないと思われるにょ。
それでいて性能差は2倍だからね。

Intelの値引きを考慮すれば通常版CPUよりも圧倒的に安くなるU3400であればそれを搭載に
よって安価なものになっているCULVノートは非常に有用だと思うにょ。(Atomを搭載の
ネットブックと比べて価格に似合う性能差は確実にある)
しかし、CULVノートにCore i3を搭載して高価になるならば通常版CPUを搭載しても良いの
ではないかということが今回のレビューで強く感じたにょ。
ただ、それをやってしまうとせっかくモバイルノートに通常版CPUを搭載しCULVノートと
比べて「CPU性能」という誰の目から見ても明らかなもので差別化が出来ていたのが
出来なくなってしまうため厄介にょ。(再び「重量」や「堅牢性」のみで差別化しないと
いけなくなる)
したがって、モバイルノートとの性能差が大きくなりU3400と比べて性能差の割に高価と
なってしまったCULVノートはその存在価値が微妙なものになってしまったということが
いえそうにょ。

397御茶目菜子:2010/10/09(土) 13:13:14
2TB超のHDDは普及するのか・・・?
今年6月にSeagateから3TBのHDDが発表され先日はWDからも3TBのHDDが発表されたにょ。
http://pc.watch.impress.co.jp/docs/news/20101006_398369.html
「1TBでさえ一生かかっても使い切れない」と感じている人もいるかもしれないけど
30年近く前は20MB(「GB」ではなく「MB」)程度のHDDでさえ使い切れないという人がいた
ような時代だったからね。
PCの使い方が変われば使う量も変わってくるにょ。
私の場合はHDDは主にTV録画で消費しているにょ。
アナログ放送ということで4Mbpsで録画しているもののそれでも年間1.5〜2TB消費している
わけだからね。
これが地デジ録画をしてればビットレートから考えて4.5倍だし、録画数が2倍ある人で
あればさらにその2倍で9倍の容量が必要になるにょ。
そのためTV録画で年間に10TB〜20TB必要としている人も多くいるのではないかと思うにょ。
そうなるとHDDの台数増加も気になるため少しでも大容量のHDDが欲しいというのは必然的
流れだと思うにょ。

さて、そういう状況下でありながら3TBのHDDを売っているのを見たことがないにょ。
これには2つの理由があるにょ。
http://gigazine.net/index.php?/news/comments/20101007_3tb_hdd/

(1)起動用ドライブとしては使える環境がほとんどない
(2)PSEを取得しないと外付けドライブとして国内流通ができない

(1)HDDには昨年1月29日に書いたように2TBの壁があるにょ。
FAT32では2TBしか扱えない(NT系OSの標準では32GBまでしかフォーマットできない)けれど
NTFSでは問題ないのでファイルシステムの問題ではないにょ。
もっと根底にある管理上の問題にょ。
それはMBRを32ビットで管理しているため現状の一般的なHDDに採用されている1セクタが
512Bの場合には512B×2^32=2TBとなり、2TBが管理上の限界となるからにょ。

そうなることは事前に分かっていたためXP 64bit版でGPT(GUIDパーテーションテーブル)が
導入されたにょ。
そのGPTによって2TB超のHDDはPCで使用可能になるにょ。

 ◎2TB超のHDDの使用可否
 XP 32bit   ブート不可        データドライブで2TB使用可
 XP 64bit   ブート不可        データドライブで使用可
 Vista 32bit  ブート不可        データドライブで使用可
 Vista 64bit  EFI搭載マザーでブート可  データドライブで使用可
 7 32bit    ブート不可        データドライブで使用可
 7 64bit    EFI搭載マザーでブート可  データドライブで使用可

これを見ての通り、XP 32bitで無ければデータ用としては使えるにょ。
ただし、起動用ドライブとして使うためにはEFIと64bitOSが必須になるにょ。
64bitOSは徐々に普及しているもののEFI搭載マザーボードはまだごく一部に止まるにょ。
そのためベアドライブとして購入した際には接続しても起動用ドライブとして使用できない
という場合が大半にょ。
したがって、現時点では2TB超となっている「3TBのHDD」は主に外付けドライブとして販売
されているにょ。

(2)外付けドライブとして販売すれば起動ドライブとして使用できないという問題は解決
できるものの国内のPCサプライメーカーの場合はベアドライブが入手できなければそれも
できないにょ。
全く流通してないというわけではなく極めて限られるというだけだろうけど十分に製品が
流通しないことには販売ができないにょ。
それならば海外から外付けドライブを輸入すればよいというだけになるけどその場合は
PSE取得問題が絡んでくるにょ。

2001年に改正された電気用品安全法によって国内で流通させるためにはPSEマークの取得が
義務づけられたけどこれは猶予期間を経て2006年より完全に義務化したにょ。(多くの
製品に関しては5年間の猶予期間だったけど一部製品は7年、配線は10年の猶予期間)
その際には「条文に明示されてなかった中古も禁止」ということになってしまったため
中古を取り扱うリサイクルショップは大ダメージを受けてしまったにょ。(後に法律改正
前の製品は対象外となったもののすでに手遅れだった)
PSEマークの取得には時間とお金がかかるため最初から日本で流通させる目的がない限りは
取得されない可能性があるにょ。(PSE取得は販売業者はできず、製造業者が取得必要が
あるもののPSEは電源と配線部分に科せられているためACアダプタによって電源供給する
機器であれば輸入業者が別途PSEマークを取得したACアダプタを添付すれば問題ない)


以上2点の問題があるけどこれではいつまで経っても2TB超のドライブは普及しないにょ。
すでに1プラッタ750GBになっており、1プラッタ1TBのHDD(つまり4プラッタ使用で4TB)の
HDDも来年には登場すると思われるにょ。
起動ドライブは2TBあれば十分とはいえ起動ドライブには使えないし、GPTでないと扱えない
というのは厄介にょ。
それを克服するために登場したのが4KBセクタ(ビッグセクタ)によるAFT(アドバンス
ファイルテクノロジ)採用のHDDにょ。
MBRが32ビットで管理されているということはそのセクタサイズが8倍になるために2TBの
壁が16TBの壁へと変貌するにょ。
これだとEFIと64bitOSが普及するまでの時間稼ぎはできそうにょ。

ただし、Vista以降は512Bを超えるビッグセクタに対応しているため問題ないけどXPでは
対応していないため使用できなくなってしまうにょ。
また、使用できてもファイルシステムを管理するツールの中には「セクタサイズ512B」と
いうことを前提として作られているものがあるためそれが変わってしまうと動作しなく
なってしまうにょ。
そのためその移行措置として現在はセクタサイズは物理4KB、論理512BのAFTが採用されて
いるにょ。

このAFTは2TB超のHDDだけに止まらず、2TBのHDD(実質1.8TB)や1TBのHDD(実質0.9TB)
でも一部採用されているにょ。
http://akiba-pc.watch.impress.co.jp/hotline/20091212/etc_wd.html
しかし、物理4KBであるためXPでは標準フォーマッタを使用した場合にはその性能を発揮
できないにょ。
これはXPではフォーマットした際に開始セクタが63セクタ目からになるので「4KBセクタ=
512Bで8セクタ分」なのに63が8の倍数ではないため書き込みのずれによって1セクタの書き
換えに2セクタ分書き換えが必要になることで大幅なパフォーマンス低下が発生している
と思われるにょ。
したがって、AFTを採用のHDDをXPで使用するためには専用フォーマッタを使うかVista/7
搭載の他のPCでフォーマットした後にXP搭載のPCに取り付けるということが必要になって
くるにょ。

ただ、論理512Bでは結局2TBの壁を越えることはできず、現状のAFTでは起動ドライブとして
使用するにはEFIが必須になるにょ。(効率アップとエラー訂正率が向上するという効果が
あるため無駄ではないし、来年以降はAFTが標準化するため新製品においてはAFT以外の
選択の余地が無くなる)
したがって、2TB超のHDDを起動ドライブとして使用するならばEFIもしくは物理、論理
ともに4KBセクタのHDDが必要になるにょ。
4KBセクタであれば上記のように16TBまで大丈夫であるため年率1.3倍で容量が増加して
いってもあと6年間は最大容量のHDDでもEFI無しで起動ドライブとして使用することが
可能になるにょ。(データ用ならばVista、7であれば、EFI、GPT無しで普通に使用可能)
ただし、物理、論理ともに4KBセクタのHDDは完全にXPでは使用することが出来なくなって
しまうにょ。
現状では依然として6割のシェアを持つXPを閉め出すのはさすがに難しいためしばらくは
一時しのぎである論理512Bがメインとなりそうにょ。
とはいえ、AFTがメインになると上記パフォーマンス低下問題によってXPを使い続けるのは
かなり厳しくなってしまうにょ。
HDDを購入する際にも注意しないといけないにょ。

398御茶目菜子:2010/10/10(日) 13:21:04
これでようやくXPの普及が終了か・・・
10月22日をもってWin7が登場して1年になるにょ。
ここで注意しないといけないのはこれによってXPの提供が完全終了するということにょ。
XPにはHome、Proの2つのSKUがあるけどXPの店頭販売はパッケージ版、DSP版両方とも
終了しているため入手方法はプリインストール(つまりOEM版)に限られるにょ。
ただし、入手方法もHomeとProでは異なるにょ。

XP Homeはご存じのようにネットブックを買うことで入手できるにょ。
ネットブックに搭載されているXPはULCPC版のXP Homeとはいえそれはライセンス上
ULCPC版となっているものの中身は通常のHomeと何ら変わりはないにょ。
XP Proは7Proのダウングレードによって入手可能にょ。
ダウングレードというのは7のライセンスでXPを使用できるようにするものでありpro以上の
SKUに備わっているものにょ。
すべてのメーカーがXPへのダウングレードを行っているというわけではないけどダウン
グレードの権利自体はOSに付随しているにょ。
ただし、ここで問題なのはそのダウングレードに関してにょ。

7月15日に書いたようにXPへのダウングレード権終了日が当初の予定から大幅に延長され
7proのサポート終了日となる2020年1月14日まで延長されることになったにょ。
これでXP搭載PCが2020年まで入手可能かというとそれは別の話であり、あくまで権利は
あるけど上記のように今年の10月22日以降はXP自体がメーカーへと供給されないためXPの
リカバリディスクを添付、もしくはプリインストールの状態で出荷することができなく
なってしまう模様にょ。
直販系のメーカーであるマウスコンピュータでも10月18日の注文を最後にXPを選択できなく
なっているからね。
http://www.mouse-jp.co.jp/campaign/1009/windows_xp_end.html

そうなると10月22日以降にダウングレードによってXPを使用する場合はユーザーの手に
よって自ら行う必要があるにょ。
ダウングレードにはXP proの正規版ディスクを用いて手動アクティべーションが必要になる
ためユーザーを選んでしまうにょ。
XPプリインストールのPCしか持ってない(XPそのもののインストールディスクを持って
いない)という場合はダウングレードができないにょ。

もっともダウングレードは法人向けにどうしても特定アプリが新しいOSでは動作しない
という場合に行うだろうから個人ユーザーでこれから新規にPCを購入してダウングレード
する必要がある場合はほとんどないだろうけどね。
OS無しの旧式PCを中古で買ってそのPCでは7の動作が厳しい場合でなおかつ手元にXP proの
正規版ディスクがあり、そのOSは他のPCで使用しているためライセンス上使用できないと
いう場合に7proを購入してそのPCで7proのラインセスを用いてXPをインストールするという
場合が考えられるけどそういうった状況はかなり少ないのではないかと思われるにょ。

旧式ではないけど現状で7の動作が快適とはいえない低スペックのネットブックにおいては
XPを使用する意味はあるにょ。
22日でXPの提供が停止するために現状ではすでにXP搭載のネットブックは在庫限りと
なっているにょ。
手元にXP proの正規版ディスクがありこれを使ってダウングレードをしようにもネット
ブックは7proを搭載の機種はほとんど無くて大半がStarterであるためダウングレードは
できないにょ。
ただ、7ではステップアップグレードが可能であるためその辺の心配は要らないにょ。
ただし、7Starter→7proには2万円弱のコストがかかってしまうにょ。
これだとDSP版の7proを購入するのと金額的にあまり変わりないにょ。

そもそもネットブックを買うというのは「安価で済ませたいから」というのが理由だろう
からそれに対して2万円の投資はあまりに大きいにょ。
すでに持っているのではなくこれから買おうとしているネットブックに2万円追加するの
ならばその予算でCULVノートが買えるし、CULVノートであれば7も問題なく動作するわけ
だしね。
どうしても「XPを使用しなければいけない」かつ「ネットブックで無ければならない」と
いうので無ければ7搭載のネットブックをわざわざXPへとダウングレードする必要性は
全くないにょ。
「XP搭載のネットブックでなければならない」という人であればXPを搭載した現行ネット
ブックを早めに買うのが一番にょ。

XPはすでに発売して9年も経つOSにょ。
それなのに未だに現役稼働している6割程度のPCにXPが搭載されているにょ。
2002年におけるWin3.1、2004年におけるWin95の使用状況を考えればこれは驚異的にょ。
2004年の段階ではWin95搭載PCをメインで使っている人は皆無だっただろうし、95、98、
Meをひとまとめで考えたWin9xでも6割残っていたか微妙なところにょ。
これは5年余り後継OSとなるVistaが登場しなかったこともあるけど「XPで十分」と考えて
いる人が多いのが原因ではないかと思われるにょ。

元々OSをアップグレードしてPCを使うというのはある程度ユーザー数が限られていた上に
XP→Vistaは大幅に要求スペックが上がりPCの買い換えを余儀なくさせられてしまったのが
Vistaが普及しない原因の1つとされているにょ。
それに加えて昨今は5年以上前のPCであっても普通に使えるため「PCの買い換えの必要性」
というのも低くなったにょ。
ネットブックがヒットしたのは「2台目需要」というのが大きかったけど5年前に発売の
モバイルノート並の低スペック(CPU性能だけを見ればAtom N270はULV PenMと比べても
同等以下でしかない)であってもネット程度であれば十分に使えるということが大きかった
からね。

ただ、XP使用者が現状でまだ多いということがPCのハード面、ソフト面の進化を遅らせて
いるにょ。
ハード面では昨日書いたようなHDDの問題があるにょ。
XPのシェアが低ければXPを切り捨てて物理、論理4KBセクタのHDDを作れば2TBの壁は
簡単に超えられる(16TBまで大丈夫になる)けどさすがに6割の人を切り捨てるという
ことはなかなかできないからね。
それにアプリもXPのシェアが高いためにXPでの動作サポートをしなくてはならないにょ。
ゲームに関してもXPがDirectX9までしか対応していない関係上DirectX10以降が必須の
ゲームはごく一部に止まっているにょ。

ユーザーはXPで特に困らないからXPを使い続けてしまうにょ。
上記のようにXP提供が完全に終了してこれからは7のシェアが急増するだろうからXPの
シェアが5割を割るのは時間の問題となるにょ。(8月3日に書いた予想ではシェア減少から
単純に計算してXPのシェアが50%を切るのは再来年になると書いたけどそれよりは早まる
可能性が高くなった)
ソフト、ハードベンダーは6割のユーザーを切り捨てられないからXPのサポートをし続けて
いるわけだけどそれによって「XPで問題ない」からXPのユーザーがなかなか減らないという
ことも逆に言えてしまうにょ。
とはいえ、この辺はソフトベンダーも分かっているだろうから今はXPを切るタイミングを
見計らっている状態ではないかと思うにょ。
そのデッドラインが2014年のXPの延長サポート終了日にょ。
私は2014年にはXPのシェアは3割を切るくらいまで下がっていると予想しているにょ。
これくらいならば十分切り捨てられるのではないかと思われるにょ。
昨日書いた2TB超のHDDもこの頃までには本格的に普及してそうにょ。

399御茶目菜子:2010/10/11(月) 13:52:21
マジコン規制は必要だけど・・・
すでに小学生の間でも普通に使われているマジコン(国会議員である蓮○氏の息子も
使用しているらしい)だけどマジコンは本来はバックアップ目的であるのだけど大半が
コピーソフトの動作用に使用されているというのが現実にょ。
その被害額は4兆円にのぼると予想され法律改正も行われることになりそうにょ。
http://sankei.jp.msn.com/affairs/crime/101011/crm1010110041002-n1.htm
なぜならばマジコンそのものは国内の現行法では違法でも何でもないからにょ。

DSでは正規品のカートリッジしか動作しないようなアクセスコントロールが導入されて
いるためにコピーソフトは動作しないようになっているにょ。
しかし、マジコンを装着した際にはそのアクセスコントロールが無効化されるにょ。
DSもモデルチェンジ毎にそのマジコン対策をしてきたけど新しいモデルに対応した
マジコンが発売になるだけといういたちごっこ状態が続いていたにょ。(10月4日に書いた
「いつの間にか通信」が3DSでは最強のマジコン対策になる)
個人的には本当にバックアップ目的で使用しているならばマジコンはそんなに非難される
ようなものではないのだけど上記のように違法ダウンロード(もしくはP2P)で入手した
ソフトの実行用に使っている人が大半だからどうしようもないにょ。
「包丁では人が殺せる」という理由で包丁を規制するのとはわけが違うにょ。
もしも、包丁を「人殺しの道具」として使用するのが大半であればそれは規制される
だろうけどね。(実際銃刀法では刃渡り5.5cm以上の刃物の携帯は禁止されている)

ならばその大元である「ネット上に違法アップロードされたソフト」を何とかすべきと
いう考えもあるけどそれはなかなか難しいにょ。
著作権者のアップロードを行う行為(公衆送信権)は著作権法23条1項で規制されている
ものの著作権法違反というのは親告罪であるため8月6日にも書いたように著作権者からの
親告がない限りは罪には問われないにょ。
厳密にいえば画像1枚や文章の1文にも著作権はあるためそれをネットで公開するには
本来であれば著作権者から許可をもらう必要があるにょ。
著作権者からすればどこまで許せるかはそれぞれとはいえ細かい所まで許可を求め
られてもかえって困ってしまうにょ。
これが親告罪で無くなったら「何気なくブログで書いた一文がある楽曲の歌詞の一文と
同一だった」とか「絵を描いて公開したらアニメ(ゲーム)のキャラに似ていた」と
いう第三者の親告によっても著作権法違反となってしまいかねないにょ。
著作権の適用範囲が広いからこそ親告罪が用いられているにょ。

では、すでにネット上に氾濫している違法サイトなどは著作権者が野放しにしている
(親告罪であるため罪に問うてない状態)のかというとそうではないにょ。
対策をしていても追いつかないというだけの話にょ。
そこで今年の1月に改正著作権法が施行され著作権者の許可無くアップロードされている
違法サイトからのダウンロードも著作権法違反になったにょ。(P2Pは著作権法においては
キャッシュに含まれるファイルは対象外であるためダウンロード専用として使えば合法
だけどこの1月の著作権法改正によってそれも違法となった)
ただし、この改正も著作権法違反が親告罪なのに加えて違法ダウンロードに関しては
現時点では罰則規定がないため本当に効果があるかどうかは微妙なところにょ。
とはいえ、今までは法的にはグレーゾーンだった違法ダウンロードが完全に黒になった
というのは心理的に与える影響はゼロではないけどね。

ただ、ダウンロード違法化も「赤信号の時は横断歩道を渡ってはいけない」というのが
分かっただけであって「車が通ってなければ問題ない」と考える人が多いという状況と
変わらないにょ。
「赤信号みんなで渡れば怖くない」という言葉があるように「悪い」という認識があった
としても「みんながやっているから」ということで「大丈夫」と勝手に思ってしまう
から厄介にょ。
ヘタをすると「みんながやっているから」ということで「やるのが当たり前」であり
「やらないと仲間はずれにされる」という状況にまで陥っていることもあるにょ。
つまり「ダウンロード違法化」をしたところで違法入手したソフトをマジコンを使って
プレイする小学生が減少するわけでもないということにょ。
さらに言うと子供が仲間はずれにされないようにするため親の方から子供にマジコンを
与えているというパターンさえあるにょ。(だから一番の原因はモラルのない親の方にある
と思う)

つまり、著作権法が改正されてダウンロードそのものが違法化になってもマジコンがある
限りはどうしようもないということがいえるわけにょ。
そこで任天堂はソフトメーカーと協力してマジコンの輸入販売する業者を訴えて差し止めを
要求してマジコンは店頭から消えた・・・と思いきやそうではないにょ。
あくまでマジコンそのものが違法ということではないため現在も細々と販売されている
という状況にょ。

「マジコン規制法」というのはさすがに作れないので現行の著作権法を改正してマジコンが
違法になるようにするしかないにょ。
銃刀法では上記のように刃渡り5.5cm以上の刃物の携帯は違法となっているために包丁を
携帯する行為は違法となるけどそれをマジコンで考えてみるにょ。
マジコンは本来であれば正規品のカートリッジでないと動作しないようなアクセス
コントロールが使用されているけどマジコンではこれを無効化することでコピー品の
起動を可能にしているにょ。
そうなるとアクセスコントロールを無効化したりする行為を「違法」となるように法律
改正をすればマジコンは自動的に排除可能になるにょ。
さすがに「違法品」となれば扱う販売店はほぼ無くなるだろうからね。

ただ、現行の国内の著作権法では違法とはなっていないアクセスコントロールを無効化
させる行為を違法とするならばその影響はマジコンだけではなく広範囲に起きてしまう
ことになるにょ。
例えば、DVDに用いられているアクセスコントロールであるCSSだけど現在はCSSを無効化
してリッピングを行う行為は少なくとも国内では合法となっているにょ。
そのため購入したDVDをISO化してHDDにため込んでいる人もいるのではないかと思うにょ。
現時点ではコピーコントロールを無効化してコピーすることは違法となっているけど
アクセスコントロールは「コピーさせないためのもの」ではなく「特定機器でのみ動作を
行うためのもの」であるため現在では違法となはらないにょ。

つまり、アクセスコントロールを無効化することが違法になれば本来想定していない機器で
動作させることが違法になり得るにょ。
例えばDVDで新しいアクセスコントロール技術が搭載された場合にはそれに対応していない
プレイヤーを使うことは違法となりかねないし、特定の地域でのみの再生を目的として
導入されたリージョンコードもそれを無効化するリージョンフリーのプレイヤーは違法
となってしまうわけにょ。(CCCDをリッピングするのも違法だし、iTunesStoreで購入した
DRM付きの楽曲をCD-Rに焼くのも違法)
アクセスコントロールを無効にする行為を違法化してしまえばマジコンだけに止まらず
多くのものに影響が出てしまうにょ。
マジコン使用者の拡大を防ぐには法規制によって行うしかないとはいえ、それによる
影響を考えると「アクセスコントロールを無効」とすること自体を違法化するような法律
にはして欲しくはないにょ。

400御茶目菜子:2010/10/12(火) 13:26:41
コンピュータは人間を超えられるか・・・?
コンピュータがついに将棋でプロ棋士に勝利したにょ。
http://pc.watch.impress.co.jp/docs/news/20101012_399491.html
チェスにおいては1996年にIBMのスパコン「ディープブルー」を用いて世界チャンピオンに
対して勝利を収めているけど将棋の場合は手数がチェスよりも桁違いに多いため
コンピュータがプロ棋士に勝つのは当分先と思われていたにょ。
そしてついに今回その歴史的瞬間になったわけにょ。
次は男性棋士、そしてそれに勝てればトップ棋士との対局を予定しているにょ。

使用されたマシン「あから2010」のスペックを見てみるとXeon 2.8GHz(4コア) 109台、
Xeon 2.4GHz(4コア) 60台の合計169台(676コア)というスパコン並の性能を持つクラスタ
コンピュータにょ。
人間のように感覚によって数手先まで読んでいるのとは異なり、コンピュータの場合は
数値化されたものからしか判断ができないため思考ルーチンが非常に重要となってくると
同時にマシンスペックも重要になってくるにょ。
何せ読む手数が増えれば増えるほど指数関数的に分岐が増えていくからね。

「打てる箇所が少ない」かつ「最大60手で試合終了」となるオセロの場合は将棋よりも
圧倒的に少ない分岐になるにょ。
そのためすでにスパコンなんて使わなくても世界チャンピオンに勝てるレベルに到達して
いるにょ。
というのも中盤以降は最終手まですべての手を読み切ってしまうからにょ。
さすがに第1手からすべての手を読むというのは現時点でもまだ難しいけどすでに6x6の
盤面サイズでは最善手順が分かっており(両者が最善手を差せば16対20で後手が必ず勝つ
らしい)8x8の一般的な盤面サイズにおいてもそうなるのは時間の問題だと思われるにょ。

オセロはシンプルなゲームであるが故に昔からコンピュータ対戦がよく行われたにょ。
簡単な思考ルーチンであればプログラムサイズは数KBで済むためにメモリが少なかった
8ビットのパソコンやポケコンにおいても良く作られたにょ。
私もポケコンでオセロを作ったこともあるにょ。
さて、思考ルーチンというと言うと難しく考えるかもしれないけど単純に自分ならば
どう打っていくかというのをコンピュータで行えば良いので難しいことではないにょ。
ただ、その際には「何手読ませるか」ということも重要になると思うかもしれないけど
それは「まともな思考ルーチン」(後述の「評価関数」)があってこそ意味があるにょ。

実はオセロの場合は序盤は(極論を言うと)あまり相手の駒を取らない方が有利になる
ため単純に「より多くの駒が取れるような場所に置く」というのは先読みすることで弱く
なる可能性があるにょ。
実際に私はポケコン(PC-1350)を用いて友人が購入した最新鋭のパソコン(PC-8801SR)
とでお互いがBASICで作ったオセロプログラムで対決したけど友人は取れる駒を考えた
1手先読み機能付き、私は駒を全く考えない盤面評価のみで対決して私の方が勝利した
くらいだからね。

盤面評価というのはどんなものかというと下記のように盤面にあらかじめ点数を付けている
ものにょ。
そして駒が置ける中で「最も点数が高い場所に置く」というごく簡単なものにょ。(同じ
手を繰り返さないように各場所にあらかじめ0〜1の乱数をプラスしておく)

 9 1 8 6 6 8 1 9
 1 1 7 3 3 7 1 1
 8 7 5 5 5 5 7 8
 6 3 5 0 0 5 3 6
 6 3 5 0 0 5 3 6
 8 7 5 5 5 5 7 8
 1 1 7 3 3 7 1 1
 9 1 8 6 6 8 1 9

これを見てのように四隅は点数が高いので優先的に取るようになっているし、その隣は
四隅を相手に与えないように低めの点数になっているというのが分かると思うにょ。
このような盤面評価も序盤と中盤、終盤では価値が変わってくるため一律ではなく変える
方がより有利になるにょ。
また、盤面だけではなく置いた駒によっても評価値は随時変動させていく必要があるにょ。
強い思考ルーチンを作るためにはより良い評価関数を作ることがまず最重要課題となる
わけにょ。

良い評価関数が出来た場合に先読みすることでさらに思考ルーチンが強化されるわけ
けだど1手先読みするごとに指数関数的に手順が増加する(10カ所置けるならば6手先読みを
すれば1000000も探索する必要がある)ためにマシンスペックが有限である以上はすぐに
限界が訪れるにょ。
縦型分岐において評価値が相手にとって低く自分にとって高いものを選択するという
minimax(ミニマックス)法はポピュラーだけどその場合は不必要な分岐も探索することに
なるため考案されたのがαβ法にょ。
この場合はあらかじめ自分にとって低く、相手にとって高くなるような分岐は探索しない
(αカット、βカット)をすることで探索する数を減らすというものにょ。
これによって、先読みした場合の思考時間を大幅に減らすことが可能になるにょ。
単純に考えると人間が考えた思考ルーチンだからコンピュータが人間に勝てるわけがない
と思うかも知れないけど実際は人間はすべての手順において探索しているわけではない
(最善手を打っているわけではない)ために一定以上の性能のPCがあれば人間(その思考
ルーチンを作ったプログラマ)よりも強いものができてしまうにょ。
オセロの場合はその「一定以上」という基準が低いために一般的なPCであれば「自分より
強いオセロゲーム」を作るというのはそんなに難しくはないにょ。

さて、ここでコンピュータ将棋に話を戻すにょ。
私はコンピュータ将棋を作ったことはないけど評価関数を作り、縦型分岐で探索するという
基本的な流れはオセロも将棋も変わらないと思われるにょ。
評価関数を作るのが難しいというのと分岐数が多いというだけの話だからね。
確かに、強くするにはアルゴリズムの改善も重要だけど持ち時間がある以上はマシン
スペックも重要になってくるにょ。
コンピュータの進化(高性能化)によってこの度ついにプロ棋士に勝つことが可能になった
ということが言えるわけにょ。
今回勝ったことで数年以内にはトップ棋士に勝てる見込みが出てきたけどそうなると次は
囲碁の番かもしれないにょ。
囲碁は将棋と比べて遙かに置ける場所が多いため現在はプロ棋士どころかアマの有段者
相手に勝つのも厳しいレベルだからね。
しかし、このままコンピュータが進化し続ければいつかは囲碁においてもトップ棋士に
勝てる時代は訪れると思われるにょ。

人間は将棋をすべての手を読んでいるのではなく感覚やセンスによって分岐枝を減らし
短時間でより効果の高い思考をしているにょ。
しかし、コンピュータの性能向上によってその感覚やセンスを演算速度でカバー可能な
レベルになってきているということがが分かるにょ。
ボードゲームから離れるけどGoogleが自動運転カーのプロジェクトを発表したにょ。
http://www.itmedia.co.jp/enterprise/articles/1010/10/news002.html
「コンピュータは(思考ルーチンにバグがない限り)ミスをしない」ために人間と同じ
ようなレベルで判断可能であればコンピュータの方が安全といえるにょ。
1つのことに特化されたコンピュータが完全に人間を超える日がやってくるのは時間の問題
といえそうにょ。

401御茶目菜子:2010/10/13(水) 13:55:50
ゼロからのスタートとなるWindows Phone 7
ついにWindows Phone 7端末が発表されたにょ。
http://k-tai.impress.co.jp/docs/news/20101012_399513.html
Windows Phone 7は従来のWindows Mobileの後継となるOSだけど従来とは大きく異なる点は
最初からスマートフォンをターゲットとして作られたOSということにょ。
Windows MobileはWindows CEがベースになっているにょ。
Windows CEはPC向けのWindowsとは異なり、小型端末や組み込み機器用のOSとして作られた
ものにょ。
かつては、H/PCやPocket PCというPDAで多く採用されていたもののPDAは衰退化をたどり
それに取って代わる存在となったのがスマートフォンにょ。

スマートフォン用のOSといえばSymbian OSの方がWindows Phone(およびWindows Mobile)
よりも歴史もシェアもあるにょ。
それなのに国内ではSymbian OS搭載のスマートフォンはほとんど出回ってないにょ。
しかし、これはあくまでスマートフォンとして出回ってないというだけでFOMA端末は
Symbian OS上で動作しているためガラケーだからOSが全面に出てないだけといえるにょ。
実際、ガラケーはネイティブアプリが実行できないという点以外はスマートフォンと
システム面から見ると大きな差はないからね。
これも当然の話であり、OS無しであそこまで高性能な端末を開発するというのは無理がある
からね。

ただ、このスマートフォンもここ2、3年で大きく情勢が変わったにょ。
それはiOS搭載機(つまり、iPhone)とAndroid OS搭載機の登場によるものにょ。
iOS搭載機はアップル社以外から登場することは恐らくないために8月9日に書いたように
今後も現状のシェアを維持するのは難しいと思われるにょ。(台数は増加しても
スマートフォン市場が大幅拡大されるのでシェア自体は低下が予想されている)
シェアを考えた場合には最近の状況を見ての通りAndroid OS搭載機が今後数年間においては
最も伸びると予想されているにょ。

ここまでAndroid OS搭載機が伸びた背景にはOSのライセンスやアプリ開発の自由度が
大きいと思われるにょ。
OSのライセンスが無料でなおかつライセンスに縛りがないからね。
ライセンスに縛りがないからスマートフォンに限らずさまざまな端末が登場し、無料
だからどんどん端末に搭載されているにょ。
アプリ開発もMacでしか開発できないiPhoneとは異なり、XP以降のWindows、Mac、Linuxで
開発可能であるため有利だし、しかもiPhoneとは異なりアプリの審査もなく誰でも公開
できるというメリットもあるにょ。

Windows Phone 7はAndroid OSと比べてどうなのかというと私はメリットを感じないにょ。
Windows Phone 7はWindows Mobileで長年作られたアプリがあるけど後継OSではあるけど
互換性のないOSであるため従来のアプリは動作しないにょ。
そして、UIも一新したために長年Windows Mobileを使い慣れていたからといっても
Windows Phone 7端末を選ぶ意味はあまりないにょ。
Windows MobileのベースであるWindows CEはPC用のWindowsと似たUIを持ち一部のAPIに
おいて互換性があるというメリットがありWindows PCを使い慣れている人が使うには
悪くない端末だったにょ。(似て非なる点が多かったので逆に使いにくいとい人もいる
だろうけど)
ただ、Windows Mobileは元々スマートフォン用に作られたOS(スマートフォンを考慮して
作られたOS)ではないためスマートフォン用のOSとして考えると優れているとは言い難い
ものがあったにょ。

Windows Phone 7において従来とアプリ互換性を無くしUIを変えたのはWindows Mobileも
今後はスマートフォンがメインとなると予想されるため中途半端に互換性を保ち使い
にくいものを作り続けるよりはスマートフォン用としてゼロから作り直した方が良いと
MSが判断したためだと思われるにょ。(過去よりも現在や未来を優先したということ)
この考えは決して間違いではないにょ。
ただ、ユーザーからしてみるとアプリ互換性が無いとなるとあえてWindows Phone 7端末を
選択するメリットはなくなるにょ。
しかも、3月にOSの仕様が発表された時には初期のiPhoneと同じくコピー&ペースト機能
が無いことが明らかになっにょ。(iOS 3.0からコピペに対応した)
これは来年のアップデートで対応見込みとはいえ、iPhoneにおいてあれだけユーザーの
要望が強かったのに不要と判断していたのはさすがに私には信じられないにょ。
http://japanese.engadget.com/2010/10/11/windows-phone-7-2011/

PCにおいてはWindowsはアプリ資産があるので今後もシェアをそれほど大きく落とすとは
思えないけれどスマートフォンにおいてはそれが上記のようにゼロからの出発であるため
かなり厳しいことになりそうにょ。
さて、Windows Phone 7は従来のWindows Mobileは異なりライセンスするにあたってある
程度のハードウェア要件を求めているのでどんな端末でも搭載可能というわけには
いかなくなったにょ。
Windows Mobile搭載の端末がすべてWindows Phone 7を搭載するというわけではなく
従来アプリを使いたい人向けやハードウェア要件を満たせない端末向けにはまだWindows
Mobileはライセンスされているにょ。
実際、Windows Mobile搭載のPDAが未だに新発売されているわけだしね。
http://k-tai.impress.co.jp/docs/news/20101012_399514.html
「Windows Phone 7が本当に普及するのか」また「Windows Mobileがどうなるのか」という
点に関しては現時点では判断が難しいためしばらく様子を見る必要がありそうにょ。

402御茶目菜子:2010/10/14(木) 13:34:22
TVはインターネットと共存可能か・・・?
米国ソニーからインターネットTVが発表されたにょ。
これは「Apple TV」に対抗の「Google TV」を製品化したものにょ。
http://av.watch.impress.co.jp/docs/news/20101013_399669.html
一家に1台・・・いや1人に1台のPCがあるこのご時世にTVでインターネットを楽しむという
人がどれだけ居るのか疑問という考えを持つ人がいるかと思うにょ。
それももっともな意見にょ。
インターネット機能(Webブラウザ内蔵)を持ったTVはダイヤルアップ接続の時代から存在
していたけどことごとく失敗してきたからね。

Win95ではインターネットに必要なTCP/IPプロコトルを最初から実装しWebブラウザさえ用意
すればインターネットが楽しめWin98ではWebブラウザが最初から内蔵されインターネットが
さらに身近な存在になったけど90年代後半PCがようやく十分普及期を迎えた時代であり
各家庭にあるというものではなかったにょ。
そんな時代に数10万円も出してインターネットのためだけにPCを買う(安価なものは10万円
くらいで買えたけど標準的なものは10〜30万円だった)ということはなかなかできるもの
ではなかったにょ。
上記インターネット機能内蔵TVも安価ではなかったということが失敗の原因だと思うにょ。

そういう中で登場したのがこのような外付け機器にょ。
http://internet.watch.impress.co.jp/www/article/980831/stb.htm
新規にPCやインターネット機能内蔵TVを安くインターネットが楽しめるためそれなりには
受け入れられたにょ。
98年にはコンシューマゲーム機として初のインターネット接続機能を持つドリーム
キャストが登場したにょ。
標準で33.6kbpsのモデムを内蔵し、プロバイダも自社で用意するという力のいれ具合で
PCは持ってないけどドリキャスでネットを楽しんでいるという人も多かったのではないかと
思われるにょ。

しかし、TVでインターネットを楽しむというのが普及するような時代は少なくとも現時点
では訪れてないにょ。
それには下記の3つの理由があると思われるにょ。

(1)設置面の問題
(2)機能面の制約
(3)買い換えサイクル

(1)ダイヤルアップ接続にしろADSLにしろインターネットに接続するためには別途モジュラー
ジャックへとケーブルを繋ぐ必要があるからね。
TVというのは普通は設置の段階でACやアンテナを考慮した場所に設置してあるものであり
モジュラージャックの場所を考慮されてないにょ。
もっとも近年では無線LANのルータ機能をもった親機が安価で購入可能になってきている
ため機器側に無線LANさえ内蔵してあれば設置面の問題はほとんどなくなってきているにょ。

(2)PCではない機器のWebブラウザはかつては非常に貧弱なものだったにょ。
私が10年前に使用していたザウルス(MI-310、MI-610)においても当時としては最新とは
いえないけど必要にして十分なHTML3.2の機能をほぼ実装していたとはいえ、制約が非常に
多かったにょ。
Webブラウザ上で開ける画像サイズは640x480まで(JPEG、GIFのみ対応)1ページ当たりの
データ量は128KBまで(HTMLソースサイズは32KBまで)という感じのスペックからくる制約
というものだけではなく当時すでに増えつつあったJavascriptやFlashによる動的な
コンテンツには全く対応できないという制約もあったにょ。

PDAの場合は「モバイルだから」ということで妥協が出来た(当時はまだケータイにおいて
i-modeのサービスさえ始まっておらず「Webブラウザ搭載」というだけで重宝した)
時代だったから良かったけど自宅でしか見れないTVなどの大型機器でそのような制約は
非常に大きなものだといえるにょ。
2000年代に入りPCはいよいよ一家に1台というレベルまで普及してきたけどそうなれば
中途半端なWebブラウザしか搭載していないTVでは見れないコンテンツも増えてきており
続きは別の部屋にあるPCで見るというのならば最初からそのPCを使った方がマシという
感じになってきていたにょ。

(3)一般的にPCの買い換えサイクルは5年程度と言われている(昨今はゲームや動画編集など
重い作業をやらない限りはさらに長い年数使える)けれどTVの場合は壊れるまで使い続ける
という人も少なくないのではないかと思われるにょ。
私の自宅もリビングのTVは購入して12年だし、自室のTVに至っては25年経っているにょ。
実際それで壊れてないから買い換える必要性がないにょ。(唯一あるとすればアナログ
放送の完全終了したときだけどその時には「TVを見ない」という選択肢もある)
基本的にアップデート不可なTV内蔵のネット機能は10年経つとほとんどまともに使える
レベルではなくなってしまうにょ。
最初から必要最小限の機能しか搭載していなかった上に10年間の進化に対応できていない
わけだからね。


では、今回ソニーが発表した「Google TV」搭載のTVを見てみるにょ。
といっても要するにただの「Android OSを搭載したTV」というだけなんだけどね。
(1)の問題は無線LANを内蔵することで解決、(2)の問題はWindowsやIEやx86に依存した
コンテンツ以外は問題ないだろうし(Android OSは2.2からFlash10.1に対応しているため
YouTubeの動画もそのまま再生可能だし再生支援によってHD動画も普通に再生できる)
(3)は今後はアップデート対応で何とかなる(かもしれない)にょ。

こうしてみると「ちょっと高性能(高機能)になったインターネットTV」と考える人も
いるかと思うけどほんとうにそれだけだと売れるとはとても思えないにょ。
すでにPCは一家に1台の時代から1人1台の時代を迎えようとしているからね。
ネットブックが売れたのもそんな時代の流れを反映してのことにょ。
ネットはケータイやスマートフォンでも利用できるけどある程度長時間使用するならば
やはりサイズはそれなりにあった方が使い勝手がいいからね。
特にWindowsやキーボードに拘りが無ければiPadという選択肢もあるにょ。
つまり、最初からインターネットのみが目的であればそれらの端末を使う方が便利であり
TVで楽しむ意義というのはあまり感じられないのではないかと思うにょ。

TVというのは今更言うまでもないけど映像を楽しむための機器にょ。
地上波だけではなくチューナーさえあればCS、BS放送も楽しむことができるにょ。
インターネットというのはTCP/IPを通して行われる通信にすぎず、それらは別物と考える
人が普通だと思うにょ。
しかし、見る側からすれば受信方式や通信方式は関係ないにょ。
重要なのはコンテンツだからね。
UHFで送られてくる電波だから地上波を見るなんて考えている人は居ないと思うにょ。
視聴が無料だからという理由で地上波のみを見ている人は少なくないとは思うけどこれは
あくまでコストな問題であり受信方式は関係ないにょ。(BS、CSアンテナが無料設置で
視聴料金も無料であれば見たいという人は多いと思う)

TV放送を見るという行為とYouTubeの動画を見るという行為は本質的な差はないにょ。
逆に言うと「TV放送」というものも数あるコンテンツの中の1つでしかないといえてしまう
わけにょ。
従来のインターネットTVというものは「TV」と「インターネット」で画面を切り替える
必要があり、「TVとインターネットは別物である」という認識が強かったにょ。
TVも多チャンネル化を迎え視聴率争いが昔と違って激化しているけどそういう時代だから
こそGoogle TVのようなものが受け入れられるようになると思うにょ。

「YouTubeなんて素人が作った動画ばかりだから見ても面白くない」という人もいるかも
しれないけどネット上にある動画はYouTube以外にも様々あるにょ。(それに「素人だから
面白くない」というのは正しくはなく「素人だからこそ他にない面白いものが作れる」
けれどこれは主観の問題なのでひとまずここでは保留しておく)
9月25日に書いたようなネット配信も最近はかなり増えているしね。
TV放送された番組もネット上で見れる時代になってきているということはますますTVと
インターネットの境目は小さくなってきているにょ。
また、インターネットとTVが融合することで動画だけではなく天気予報やニュースなどの
情報も画面内に混在させることが可能になるにょ。

Google TVはTV放送用に作られた映像を垂れ流しにするしかできなかった従来のTVとは
異なり、映像を主体としたコンテンツビューア、情報ビューアとして非常に便利な側面を
持つので期待が持てるけど日本においてはそれは厳しいものといえるにょ。
それは日本においてはARIB(社団法人 電波産業会)の規定があるからにょ。
http://plusd.itmedia.co.jp/lifestyle/articles/1002/08/news018.html
TV放送はアスペクト比を変えたり、別のコンテンツやヴィジットを同時に表示することは
規定によってできないからにょ。(アスペクト比を維持したまま縮小表示を行い空いた
スペースにヴィジットを表示することは現在でも可能だけどオーバーレイ表示は不可)

TVが純粋にTV放送のみを楽しむ端末という時代はもうそれほど長くないかもしれないにょ。
Google TVだけではなくIntelも家電へとx86CPUを浸透させようと頑張っているからね。
「TV放送は数あるコンテンツの1つにすぎない」という認識が多くの人に広まるのはもはや
時間の問題ではないかと思われるにょ。
そうなった時に上記のような規定によって閉鎖的になっている日本はどうなるのか・・・?
そんな時代がやってくるまでには規定が変わっているということも考えられるけど今の
ままだと時代の流れについていくことができないにょ。
いよいよアナログ放送終了まであと9ヶ月余りとなったわけだけどデジタル放送においては
「コピーワンス」が「ダビング10」へと緩和されたとはいえその暗号化システムとB-CAS
カードの存在によって録画コンテンツを他の機器で楽しむにはハードルが高くなっている
ためTV放送というもの自体の魅力が薄れているわけだしね。

規定や著作権保護によってTV放送を守ることはTV放送をそのまま殺してしまうことに繋がり
かねないにょ。
DVDなどのコンテンツ販売ビジネスがメインのアニメにおいてはTV放送は宣伝のために
行っているだけどコストを払って宣伝の価値さえないとなればTV放送ではなくネット配信が
メインとなる時代がやってきてしまうにょ。(それでなくても2006年以降はそのような
コンテンツ販売のビジネスモデルに限界が来ておりTVアニメ制作本数は減少傾向にある)
「1つのコンテンツ」としてインターネットと共存できるかそれにさえなれないのかという
のとでは大きな差となるにょ。

403御茶目菜子:2010/10/15(金) 13:41:42
高級コンデジは高級ネットブックと同じ!?
デジタル一眼の新機種発表ラッシュがあった8〜9月だけど高級コンデジも各社とも新機種を
発表しているにょ。
一般的なコンデジは半年〜1年のサイクルで新機種が発表されているけど高級コンデジに
関しては1年〜2年サイクルとなっているため一斉に出そろうのは珍しいことにょ。
9月に発表さえれた高級コンデジといえばキヤノンのPoweShot G12、Panasonic LX5、ニコン
COOLPIX P7000が挙げられるにょ。
http://camera.itmedia.co.jp/dc/articles/1010/14/news013.html
http://camera.itmedia.co.jp/dc/articles/1009/28/news014.html
http://dc.watch.impress.co.jp/docs/review/special/20101004_397448.html

さて、このような高級コンデジに共通する部分は以下の3点にょ。
(1)画素ピッチが広い
(2)マニュアル操作がしやすい
(3)作りがしっかりしている

(1)コンデジはすでに1/2.33インチセンサーを搭載した標準的な機種も1400万画素に達して
おり、ケータイのカメラでさえ最大で1300万画素に達しているのにこのような高級コンデジ
では1000万画素に抑えられているにょ。
しかも、センサーサイズは1.6〜1.7インチということで標準的なコンデジのセンサーと
比べて2倍近い面積となっているにょ。
2倍のセンサー面積があるにも関わらず画素数が1/1.4しかないというと1画素あたりの
面積では標準的なコンデジの3倍弱になるにょ。(画素ピッチはその平方根になる)

標準的なコンデジに用いられている1/2.33インチ、1400万画素のセンサーは画素ピッチが
1.35μmと狭くそれ故にレンズに求められる解像力は極めて高いにょ。
回折現象によってF2.7以上では徐々に画像ぼやけてくるためにそれより明るく370本/mm
というすさまじい解像力を持つレンズを搭載しない限りは1400万画素の価値はなくなる
からね。(実現するのはコスト的にほぼ不可能)
かつて、コンデジも500〜600万画素程度の時代までは画素数アップが解像感アップに
繋がっていたけど今となっては「画素数アップは解像感とは全く関係ない」と言っても
過言ではないにょ。(画素数よりもレンズ性能とデジタル処理の影響力が遙かに大きい)

1/1.7インチセンサーで1000万画素となると1/2.33インチでは500〜600万画素程度の画素
ピッチとなるためこれくらいであればレンズに求められる解像力もかなり現実的なものに
なってくるにょ。
回折限界もF4.5くらいまで軽減されるしね。
さらに大きいのがダイナミックレンジの増加にょ。
LX5もそれをウリとしているからね。
http://panasonic.jp/dc/lx5/sensor.html
つまり、「高画質を実現するために画素数を抑えている」ということにょ。

(2)このクラスのコンデジを買う人は少なくとも初心者ではないためフルオートでしか
撮らないというのは想定されてないにょ。
一般的なコンデジはフルオートを前提に作られており、いかにオートで使いやすいものに
なるかが重視されているけどこのような高級コンデジの場合は各種設定切り替えのしやすさ
というものが重視されているにょ。
ダイヤル数の多いG12はデジタル一眼の入門機よりもマニュアル操作の使い勝手においては
上ではないかと感じるにょ。
これはデジタル一眼とはいえ入門機は画質面などでコンデジでは物足りなくなった人が
対象となっているためオートでも使いやすいように設計されているからにょ。

(3)ボディの質感はやはり一般的なコンデジと「格の違い」があるし、やはり大きいのは
レンズの作りの違いにょ。
高い性能を発揮するならば単焦点がベストだけどそれだとさすがにユーザーを選んでしまう
ためズームレンズとなっているけど無理に小型化や高倍率化をしていないため非常に
光学設計でも優れているにょ。
LX5はズームレンズの望遠端でもF3.3であるため回折限界にはまだ達していないわけだし
(一般的なコンデジの場合は上記のようにF2.7で限界となるため広角側でさえギリギリ
だし望遠端では待ちがない無く限界を超えている)、やや暗めのG12でも望遠端はF4.5で
あるため回折限界に収まっているにょ。


こうして見ると優れているような気がする高級コンデジだけどやはり最大のネックとなる
のは価格にょ。
一般的なコンデジは発売当初の価格は2〜3万円であり、発売から数ヶ月経てば1万円台へ
価格が下落しているのだけどこのような高級コンデジの場合は5万円台という価格が
付けられているにょ。
新機種同士の比較でも並のコンデジの2倍の価格、機種を問わずならば並のコンデジの
3〜4倍の価格となると確実にユーザーを選んでしまうにょ。

「2倍のセンサーサイズだから2倍の価格までなら問題ない」とセンサーサイズに比例した
価格付けで問題ない人も中にはいるかもしれないけどそうなるとフォーサーズだと一般的な
コンデジの約8倍のセンサー面積だから8倍の価格まで許せるし、APS-Cだと約13倍の
センサー面積だから13倍の価格まで許せるのかというとそうではないと感じると思うにょ。
つまり、「センサー面積あたりの価格」という観点からするとコストパフォーマンスは
悪いといえるにょ。

やはり、この高級コンデジと購入比較をするならば一般的なコンデジではなく今だと
小型のミラーレスカメラだと思うにょ。
従来だと「コンデジの上」の大型センサー採用デジカメとなるとデジタル一眼レフを除けば
ライカのようなレンジファインダー機やシグマDP1くらいしかなかったけどライカは高価
すぎるし、DP1はあまりにユーザーを選んでしまうということで選択肢はほぼ無いに等しい
状態だったにょ。
しかし、オリンパスのE-P1発売以降多くのミラーレスカメラが発表されたからね。

とはいうもののミラーレスカメラはボディが小さくてもレンズを付けたら嵩張るという
弱点があるにょ。
3倍標準ズームを装着していたら厚さは8〜9cmに達するからね。
パンケーキレンズであればそれが5〜6cmに抑えられるために有利にはなるけど単焦点は
撮りたいものが決まっているならばいいけど汎用性を考えると厳しいにょ。(もっとも
レンズ交換が可能であれば必要に応じて交換すれば良いというだけであって単焦点の
コンデジとは大きく異なるけど)

レンズを小さく設計すればよいだけの話とはいえセンサーサイズ(というかイメージ
サークル)が大きくなればなるほど小型化するのは難しくなる(10倍ズームレンズを
搭載のコンデジがあそこまでコンパクトサイズになるのはセンサーサイズが小さいお陰)
わけだし、無理に小型化するとNEXのレンズのように解像力が乏しくなってしまうため
大型センサーのアドバンテージが無くなってしまうにょ。
したがって、レンズ込みのサイズを考えるとミラーレスカメラと十分に棲み分けは可能な
レベルにはなると思われるにょ。

問題となるのは一般的なコンデジの画質で物足りないという人がこのような高級コンデジ
ならば満足できるのかということにょ。
私自身、1000万画素のコンデジ(TX1)を毎日持ち歩いておりスナップや記録写真程度で
あれば大きな不満はないものの画質面での不満はあるため出来ることならばまともに
「写真として残したい」という場面においてシャッターを切りたくなるようなデジカメが
欲しいところにょ。
高級コンデジは(一般的なコンデジと同じく)レンズ一体型であるが故にレンズ設計や
デジタル処理(画像処理エンジンの最適化や各種収差のデジタル補正など)において有利に
なっているもののミラーレスカメラと比較するとセンサーサイズの大きな差を覆すのは
難しいにょ。
高級コンデジは「高いコストパフォーマンスは求めない」「ミラーレスカメラでさえ持ち
歩くのには大きすぎる」という人にとっては良いカメラだけどやはり一般的にはオススメ
し辛いにょ。

個人的には型落ちで安くなっていれば買ってしまうかもしれないけど5万円以上払うならば
それなりのセンサーサイズを搭載したものにしたいにょ。(FinePix X100のように
大型センサーを搭載の一体型カメラがどんどん登場すればさらに選択肢が増えてくる)
これは6万円払って高級ネットブックを買うか並のCULVノートを買うのかというのに
似ているかもしれないにょ。
高級コンデジ(ネットブック)の性能で許容できミラーレスカメラ(CULVノート)の
サイズが許容できない人は高級コンデジ(ネットブック)を買うのが良いというだけの
ことだからね。
自分が求めているものが明確に分かっていればでどちらが自分に適しているか迷う必要は
ないにょ。

404御茶目菜子:2010/10/16(土) 14:36:35
Slate PCの最大の強みはWindowsであり、最大の弱点もWindows
Windows搭載のタブレット端末は「Slate PC」と呼ばれており10月3日に書いたように国内
メーカーではオンキヨーが最も早くそれを発表したにょ。
タブレットPC自体は昔からあるのであくまでタブレット端末という観点から見てみると
「Slate PC」というのは特別な存在ではないにょ。
では、今回オンキヨーから発表された製品がどの程度の実力を持つのかのレビューを元に
Slate PCを考えてみることにするにょ。
http://pc.watch.impress.co.jp/docs/column/hothot/20101015_400035.html

過去に多く存在しているタブレットPCとは異なりこのオンキヨーの製品の場合は最も下位に
位置するモデル「TW117A4」は49800円からという安価になっていることが挙げられるにょ。
これはiPad(16GB)のWi-Fiモデルの48800円とほぼ同じ価格であり、5万円程度で買える
タブレット端末を探している人にとっては有力な選択肢の1つとなりそうにょ。
タブレットPCが個人に普及しない最大の理由は価格面によるものだったからね。
企業で大量導入する場合でも価格が安価というのは非常に魅力になるにょ。

このSlate PCはここで何度も書いているように「キーボードがないネットブック」でしか
ないという感じにょ。
基本スペックを見てもネットブックそのまんまだからね。
従来のタブレットPCが高価だったのは部品コストが高価だったというのもあるし、ほぼ
100%(特定業種向けの)法人需要であるため大量受注は見込めないということで高めの
価格設定をしていたと思われるにょ。
したがって、この「TW117A4」の49800円という価格は構成から考えるとそれほど安いと
いうわけではなくむしろ妥当な金額ではないかと思われるにょ。(Starterであれば4万円
程度のネットブックにHome Premium搭載で1万円アップでこの価格と考えると台湾メーカー
と互角の価格であり国内メーカーとして考えると安いと考えることはできるけど)

価格面でライバルになるであろうiPadと比べてみるとサイズはこんな感じにょ。
http://pc.watch.impress.co.jp/img/pcw/docs/400/035/html/06.jpg.html
http://pc.watch.impress.co.jp/img/pcw/docs/400/035/html/07.jpg.html
10.1インチワイド液晶ということで9.7インチスクエア液晶のiPadと液晶面積はほぼ互角で
ありフットプリントには大きな差はないにょ。(横幅が広く縦幅が短い)
ただし、厚みを比べると一目で分かる差があるにょ。
http://pc.watch.impress.co.jp/img/pcw/docs/400/035/html/08.jpg.html

しかし、厚みよりも気になるのは重量にょ。
iPad(Wi-Fiモデル)が680gに対して990gだからね。
iPadでさえ片手で支えていたら「重い」と感じるわけなので990gはとても長時間支えて
おくのは無理にょ。
私が持っているLet'snote R5(999g)とほぼ同じ重量なわけだからね。
タブレット端末は基本的に両手に持って使う(片手で支えてもう一方の手で操作する)と
いうことを考えると普及させるには軽量化は不可欠だと思われるにょ。
ただし、本体の軽量化にはコストがかかるし、現行のAtom Nは消費電力が大きいため
バッテリ駆動時間を伸ばすには大容量のバッテリを搭載する必要があるにょ。
5月8日にも書いたように軽量化には省電力が必要不可欠となるわけにょ。

サイズや重量はとりあえずおいといて、あとはWindowsを搭載ということを見てみるにょ。
多少重量が重くてもWindows7を搭載しているということにメリットを感じているならば
問題ないと考えている人もいるだろうからね。
iPadではPCとは同じように使うためには苦労が必要だし、Android OS搭載機はiPad(iOS
搭載機)ほどの制約はないものの手持ちのWindows資産を重視するという人も少なくない
だろうからね。

ただし、Windowsを搭載で使いやすいか・・・というとむしろ逆だと思われるにょ。
その理由は下記の2つにょ。

(1)Windowsはタッチパネルを前提に作られてない
(2)ネットブックでWin7は荷が重い

(1)これはすでに何度も書いているけどWindowsはキーボードとマウスで操作することを
前提としたOSにょ。
したがって、ポインティング操作しかできないタッチパネルオンリーでは決して使い
やすいものとはいえないにょ。
さらに問題となるのはそのタッチパネルの構造にょ。
主に「電磁誘導方式」「抵抗膜方式(感圧式)」「静電容量方式」が挙げられるにょ。

電磁誘導方式はタブレットPCで広く用いられており専用のペンを使用することで正確な
ポインティング操作が可能になるにょ。(筆圧検知も可能になる)
感圧式はDSや銀行のCDなど一般的によく用いられており圧力を掛けることで座標が検知
可能であるため道具は特に用いる必要がないというのが広く使われている理由にょ。
DSやPDAではタッチペン(スタイラスペン)を使うことでそこそこ正確な座標検知も可能
だからタッチパネル対応のPCでもよく使われているにょ。
そして、やはり欠かせないのが静電容量方式にょ。
これはiPhoneをはじめとするスマートフォンでは広く用いられているけど感度が良いことに
加えて多点検出も可能というメリットもあるにょ。

この「TW117A4」は静電容量方式を用いることで感圧式のように一定以上の力を掛けて
パネルを押さえつけなくても反応するというメリットはあるもののWindowsの弱点をより
明確にしてしまうことになるにょ。
それは静電容量方式は基本的に指でしか操作できないからにょ。
Windowsはマウスというかなり精度の高いポインティングデバイスを使用することを前提に
作られたUIであるため普通に操作するだけで精度の高いポインティング操作が要求されて
くるにょ。
このためレビューにもあるように最大化ボタンを押すつもりが閉じるボタンを押すという
ミスが頻発してしまうわけにょ。
ボタンサイズは設定で変えられるけどただでさえ広いとはいえないWSVGA液晶をさらに狭く
してしまうことになるにょ。

(2)「TW117A4」は基本的スペックは上記のようにネットブックと同等にょ。
これはXPであれば十分快適に動作させられるもののWin7では荷が重いにょ。
これはAtomの性能が1つの指標となるエクスペリエンスインデックスで2.3しかないことに
起因しているにょ。
エクスペリエンスインデックスはマルチスレッド動作における性能比較であるためOSその
ものを快適動作させるためにはシングルスレッド性能の高さが必要でありHTT込みで2.3
しかないということを考えると普通に使うのに3以上のスコアが必要と考えるとどう考え
てもCPUの性能不足ということが分かるにょ。

もっとも、7も軽量化すればAtomで使えないこともないにょ。
これは登場時「重い」と言われたXPでさえ工夫すればPenIIで十分動作したわけだから
当然のことにょ。
ただ、軽量化にも限界があるし、それによって動作に支障が出る可能性もあるためやはり
ある程度で妥協は必要になるにょ。
まぁ最もお手軽なメモリ増設という高速化方法もあるけどね。
メモリを増やしても速くなるわけではなく大容量のメモリを使うアプリや複数のアプリを
使う場合のみ効果があるとはいえ1GBでWin7はメモリ不足に陥る場合が多いため2GBへと
増設することはほぼ確実に高速化に繋がるにょ。


やはり、それらの苦労をしてまでWindows資産を使いたいという人であればSlate PCは
良い存在になりそうにょ。
それでなおかつ10月3日に書いたように「キーボードがない」ということにメリットを
感じる必要があるけどね。
Windowsの資産は確かに魅力だし、現状でどんな形式の電子書籍にも対応できるのは
Windowsしかないしね。
ただ、電子書籍閲覧用としては使いやすいとはいえないみたいにょ。
これはハードやOSだけではなくアプリも原因になっているにょ。

Windows用アプリは決して使いやすいとは限らないからね。
http://pc.watch.impress.co.jp/docs/column/config/20101015_400042.html
万能な存在だけど個々のアプリを見ていくと他のOS用のものの方が使い勝手が良いという
ものは多くあるにょ。
これはWindows PCが「1つの用途に特化されてない」というのが理由だと思われるにょ。
解決方法がたくさんあるけどそれがかえってデメリットになっているというわけにょ。

iPadは制約が非常に多いiOSを搭載だけど使い勝手がWindowsに劣っているというわけでは
ないと感じる人が多いと思うにょ。
これは自由度の高さが使い勝手の良さに比例しないということにょ。
結局のところサイズ、重量面の問題だけではなくWindowsを搭載したSlate PCの場合は
Windows資産を使えるというメリットはあるけどWindowsのデメリットがより全面に出て
しまっている状態にょ。
これを多くの人が許容できるかどうかで今後Slate PCが普及するかに影響してくるのでは
ないかと思われるにょ。
現時点のままだと一部の層には受け入れられてもネットブックのように広い層にまで
受け入れられることはないと思うにょ。

405御茶目菜子:2010/10/17(日) 13:19:20
ファームアップでNEX-5は変身する!?
コンデジでは物足りないという人でなおかつ一眼レフでは大きすぎるという人にとっては
一昨日も書いたようにミラーレスカメラが最有力候補となるにょ。
その中でも大型なAPS-Cセンサーを搭載のNEX-5/NEX-3は期待された状態で登場したものの
6月4日に書いたように問題点は少なくないにょ。
それらをまとめると下記のような4つの問題点があるにょ。

(1)Aマウントレンズを使用時にAFが出来ない
(2)動画がオート専用
(3)静止画も操作性が悪く事実上オート専用
(4)パンケーキレンズの解像力が低すぎる

しかし、今回の大規模ファームアップによって(1)〜(3)はかなり改善されたにょ。
http://dc.watch.impress.co.jp/docs/news/20101014_400031.html

(1)α用のレンズ(Aマウントレンズ)資産がある人にとってはMF専用というのは非常に
残念な仕様だったにょ。
もっとも本体側にAF駆動用モーターを内蔵していないためモーターを内蔵していない
レンズはAFができないのは仕方がないけどモーター内蔵レンズ(通常モーターのSAM、
超音波モーター内蔵のSSM)で出来ないというのはやはり納得できないという人も結構いた
わけだしね。
これがマウントアダプタ経由で他社のマウントのレンズを装着しているのであればその
仕様が公開されてないためAFはできないというのは仕方がないけど自社製品であるため
できないというのはただの開発上の都合でしかなかったわけだからね。

さて、今回ようやく念願のAレンズ(モーター内蔵に限る)のAF化に対応したわけだけど
AFで2〜7秒というのはさすがに遅すぎるにょ。
位相差検出方式に特化されたレンズでコントラストAFを使用すれば遅くなるのは仕方が
ないとはいえ、「とりあえず対応しました」というレベルでしかないにょ。
これは今後のファームアップで高速化が不可能ではないとはいえ、そのためにはレンズ側の
ファームアップも必要になるかもしれないにょ。

(2)大型センサーを搭載のデジカメで動画を撮るメリットはやはりボケを活かした描写
だと思うにょ。
確かに画質面で有利に働く面もあるけど画質はレンズよりもデジタル処理の影響が大きい
ためセンサーサイズの小さなビデオカメラの方が優れている面も多いにょ。
ボケの大きさはセンサーサイズが大きいほど大きくなる(実焦点距離や撮影距離も絡んで
くるけど根本的には大型センサー搭載機で撮影するのがベスト)とはいえ、明るい場所で
プログラムオートで勝手に絞る(被写界深度が深くなる)とボケの量が小さくなるため
大型センサーのメリットが無くなるにょ。
しかし、絞り優先AEで撮影できるようになったためその縛りは無くなったにょ。

(3)NEX-5はコンデジからのステップアップを考慮しているためか基本的にオートでしか
撮影しないと言わんばかりのUIだったにょ。
一眼レフであれば同じ設定でずっと使う(プログラムオート専用で使う)という人は
少ないけどコンデジであればそれが普通であるため設定の煩雑さというのはあまり気に
してなかったのかもしれないけどね。
しかし、発売してみればコンデジからのステップアップというよりも大型センサーを
搭載の小型デジカメということで一眼レフユーザーからもかなりの支持があったにょ。
だからこそ操作性の悪さは致命的問題として考えられていたにょ。

メーカーもそのようなユーザーの反応を知ったためか改善してきたにょ。
具体的にはソフトキーがカスタマイズ可能になったためよく使う機能はそのキーに割り
当てをすればいいし、メニュー画面でもカーソル移動が画面上下で繋がったため少ない
ボタン押し回数で移動できるようになったし、最後にカーソルがあった位置も記録する
ようになったので設定をこまめに変える人にはかなり有用になったにょ。


(1)〜(3)の改善によってNEX-5の評価は大きく変わるかもしれないにょ。
まだ十分とはいえないけど当初に比べたら劇的な改善となっているわけだからね。
ただ、(4)だけはファームウェアではどうにもならないにょ。
これはレンズを無理な小型に設計したことが原因となったわけだからね。
より良いレンズが登場するのを待つか多少嵩張るもののアダプタ経由でAマウントレンズを
使うしかないにょ。
今回のファームアップに加えて新色のピンクが追加されたためNEX-5はさらに売れそうな
感じにょ。
あとはEマウントレンズの充実が期待されるだけにょ。

ミラーレスとして先行するマイクロフォーサーズ陣営もPanasonic GF2やオリンパスの
PENシリーズの新機種も登場するのは間近であるためそれらライバル同士の争いでより
良いものになることに期待にょ。
キヤノンやニコンも拡大しつつあるミラーレスカメラ市場に参入する意向を示している
ため競争はさらに激化しそうな感じにょ。

406御茶目菜子:2010/10/18(月) 14:46:11
ネットブックが売れなくなったワケ
デュアルコアAtomにWXGA液晶を備えて直販価格49800円のネットブック「Mini 210-2000」
だけど何とWindows7のStarterを搭載しているにょ。
http://pc.watch.impress.co.jp/docs/column/nishikawa/20101018_399982.html
9月14日にはAtomがデュアルコアになってもそれによってULCPC(ネットブック)用として
安価にWindowsが提供されず、価格が高騰してしまったらネットブックの意味がないと
書いたけどどうやらデュアルコアAtomはULCPCの規定では問題ないということが分かり
一安心したにょ。

このスペックを考えれば49800円は安い・・・と一瞬思ったけどよく考えたらそうでも
無かったにょ。
もしも1年以上前に登場していたら絶賛していたであろうスペック、価格だけど今と
なってはスペックと価格を天秤にかけた場合にそれほど安いとは感じなくなってしまって
いるにょ。
これはやはりAtomの高性能化が他のPC用のCPUと比べて非常に遅いせいだと思われるにょ。

Atomだけではなく近年PC用のCPUは全般的に性能向上が少なくなったように感じている人も
いるかもしれないにょ。
エンコなどではCPUパワーはどれだけあっても足りないわけだけど一般的な用途であれば
すでに十分な性能となっているためそこまで無理に性能向上をさせる必要がないという
こともいえるにょ。
では、イメージではなく実際にはどうなのかということを見てみるにょ。

CPUの価格というのは9月1日に書いたように1ランク上のCPUが登場することで価格帯が
1ランクスライドして安くなっているにょ。
そのため同一価格帯で性能比較することがCPUの性能向上において最も判断しやすい
指標になるにょ。
最近3年の10月10日前後の秋葉における平均CPU価格で比較してみることにするにょ。
注目したのは3万円と1万円にょ。
これは「ミドルクラス」「ローエンド」を意味するものにょ。
コア数が異なると性能比較がしにくいためミドルクラスはクアッドコアのみ、ローエンドは
デュアルコアのみで見てみることにするにょ。

      3万円以下で買える     1万円以下で買える
       クアッドコアCPU      デュアルコアCPU
2007年  [※Core2Duo E6750(2.66GHz)]??Pentium E2140(1.6GHz)
   http://akiba-pc.watch.impress.co.jp/hotline/20071013/p_cpu.html

2008年   Core2Quad Q8200(2.33GHz) Pentium E5200(2.5GHz)
   http://akiba-pc.watch.impress.co.jp/hotline/20081011/p_cpu.html

2009年   Core i7-860(2.8GHz)    Pentium E6500(2.93GHz)
   http://akiba-pc.watch.impress.co.jp/hotline/20091010/p_cpu.html

2010年   Core i7-950(3.06GHz)   Pentium E6800(3.33GHz)
   http://akiba-pc.watch.impress.co.jp/hotline/20101009/p_cpu.html

これを見てのようにCPU性能は「かなり上がっている」といってもいいと思われるにょ。
ローエンドデュアルコアCPUにおいて2007年→2008年の伸びが大きいのは45nmで製造される
ようになった影響が大きいにょ。
これによって、高クロック化が容易になっただけではなくメインストリームへのクアッド
コアの急速な普及が行われたにょ。
2007年には3万円で買えるクアッドコアCPUが存在しなかったためデュアルコアCPUを記した
けれどその2年後にはそれよりも高性能(PentiumはL2が少ないけどクロック差で十分に
性能逆転できる)となるデュアルコアCPUが1万円以下で買えるということを考えてみても
高性能化というのが小さくないことが分かると思うにょ。

32nmとなるClarkdaleだけど現状では1〜3万円のデュアルコアCPUが中心となっている
ため上記のリストアップでは32nm化の影響は反映されてないにょ。
次世代のSandyBridgeはClarkdaleと同じ32nmで製造されるもののほぼすべてのレンジの
CPUで投入されるためクアッドコアのさらなる高クロック化やクアッドコアの低価格化も
期待できるにょ。

上記はCPU単品入手が容易であり価格が分かりやすいということでデスクトップPC用CPUで
比較したのだけどモバイル用であっても状況はそれほど変わらないにょ。(TDPの制約が
大きいためクアッドコアCPUがデスクトップPCよりは進んでないという程度の違い)
では、ネットブックで見てみることにするにょ。

ネットブックは従来高価だった小型のノートPCを安価で発売することで爆発的なヒットに
繋がったにょ。
安価に出来た要因は特定条件を満たすことでネットブック用に安価でCPUの提供をして
もらえ、低価格PCにおいて最も価格に対する割合が大きいOSもMSが定めた条件を満たす
ことで安価にWindowsを提供してもらったからね。
そうすることで各社ともに仕様統一し部品を大量生産することでさらに低価格化が進む
ことになったにょ。

さて、その肝心のネットブック用のAtomだけど元々Windows PCで使用することを考慮した
CPUではないためあまり性能が高いというものではないにょ。
しかし、ネットブックは基本的にWindowsを使用しているため一般的なPC用のCPUと同じく
どんどん高性能化していく必要性があるにょ。
ではAtomが登場して2年余りでどれだけ進化したかというと下記のような感じにょ。

 2007年  A110(800MHz)
 2008年  Atom N270(1.6GHz)
 2009年  Atom N280(1.66GHz)
 2010年  Atom N475(1.83GHz)、Atom N550(1.5GHz)

A110は厳密にいうとネットブック用のCPUではないけど使用用途から考えるとAtomの前身
となったものにょ。
DothanベースのCPUであり、シングルスレッド性能は同クロックのAtomの2倍程度あるため
クロックが半分であってもシングルスレッド性能ではほぼ互角となるにょ。
上記デスクトップPC用のローエンドCPUの価格変遷を見てみると2007年→2010年の3年間で
シングルスレッド性能は2倍に伸びているにょ。
ミドルクラスはそれと比べて小さいもののそれでも2年間で1.5倍の伸びがあるにょ。
それに対してAtomは3年間でのシングルスレッド性能の伸びは1割少々でしかないにょ。
デュアルコアであるN550ではデュアルコア化によってマルチスレッド性能は大幅に伸びて
いるもののシングルスレッド性能は3年前のA110と同等以下にょ。

ローエンドのCPUは上記のように3年間でこのように高速化していったけどこれはノートPC用
であるモバイル版においても同じようなことがいえるにょ。
それを考えるとただでさえ大きかったノートPCとネットブックの性能差が3年間でさらに
大きく開いたということになるにょ。

その穴埋めとして登場したのがCULVノートにょ。
イメージ的には下記のような感じになるにょ。(<の数はイメージを示しているだけで
あり性能に比例した数量というわけではない)

 ネットブック<<<<<ローエンドノート
 ネットブック<<<<<<<<<ローエンドノート
           ↑ここにCULVノートが加わる

CLUVノートは10月6日に書いたような登場理由があるけどそれに加えてネットブックが
あまりに性能向上が遅いために空いてしまった空洞化を埋める役割もあるということに
なるにょ。

では、ネットブックが現在のCULVノート・・・というか1世代前に相当するセレロンSU2300
搭載機に追いつくのはどれくらい先のことなのか・・・?
セレロンSU2300は1.2GHzとはいえAtomとセレロンではシングルスレッド性能には2倍くらいの
差があるにょ。
それでセレロンSU2300はデュアルコアだからね。
シングルスレッド性能でいえばAtom2.4GHz必要にょ。
マルチスレッドではAtomの場合はシングルコアでもHTTがある関係上マルチスレッド対応の
アプリの実行速度は馬鹿にできないレベルにはある(シングルスレッド性能で劣るはずの
ULV PenMを超える性能を発揮する場合がある)とはいえ、相手は物理的デュアルコアCPU
であるためその差はさらに広がりマルチスレッド性能で考えた場合はシングルコアAtom
ではN270の2.5倍(4GHz)相当の性能が必要になるにょ。
AtomがSU2300と「互角」と呼べるためにはデュアルコアAtomであっても2GHzはないと話に
ならないにょ。

Intelの場合は、同一世代、同一価格帯でコア数が2倍だとクロックが2割程度落ちるにょ。
実際2007年のCPU価格で3GHzのCore2Duo E6850と2.4GHzのCore2Quad Q6600はほぼ同一の
価格だったしね。
それを考えるとシングルコアのN475とそれよりも2割クロックが低いデュアルコアのN550は
同クラスの製品であるといえるにょ。(実際はN550の方が若干高価だけど)
これを元に考えるとAtom2.5GHzを実現する頃にはデュアルコアAtomが2GHzに達するといえる
わけにょ。
クロック上昇率(年率6%程度)を考えるとシングルコアで2.5GHzに達するのは5〜6年後
となるにょ。
つまり、5〜6年後のネットブックでようやく1世代前のCULVノートに性能で追いつくという
可能性があるわけにょ。

それならば5〜6年後にはCULVノートが不要になるのかというとそうではなくローエンド
ノートの性能は現在より格段に上がっているだろうしその技術をそのまま使ったCULV
ノートの性能も格段に上がっているためネットブックはCULVのポジションを奪い取る
というのは無理にょ。(むしろ現状よりもさらに差が広がる可能性の方が大きい)

ネットブックの最大のアドバンテージは価格であるため価格を重視するのは当然のこと
だと思われるにょ。
CULVノートは型落ち品を除けば6〜10万円であるためOSがStarterであるということを考慮
した場合にはハイスペックなネットブックでも5万円以上では厳しいにょ。
冒頭に書いたMini 210-2000が49800円で「安いはずなのに安くないと感じる」のは絶対
価値ではなく相対価値で判断しているからにょ。
性能向上が大きいPCにおいてはそのコア部分となるCPU性能の違いが相対的価値に与える
影響は少なくないにょ。

ネットブックのアドバンテージとなっていたサイズの小ささは初期の頃のネットブックと
異なり10.1インチが標準化されたため11.6インチのCULVノートとの差は差別化できるほど
大きくはないにょ。
実際Mini 210-2000は発売当初59800円(一部ショップでは当初から49800円)という格安で
登場したACERのCULVノート「Aspire1410」と比べて筐体サイズは1cmくらいの差しかないし
6セルバッテリ搭載によって重量は同じになっているからね。
せめて10.1インチ液晶の枠ぎりぎりまで小型化しアンダーB5サイズを実現して重量も
1kg程度に抑えられていればCULVノートと棲み分けができるだろうけどそんな機種は現在
ほとんど存在しておらず、ネットブックとCULVノートの棲み分けは価格でのみ行われて
いると言っても過言ではない状況にょ。

ネットブックは非力なAtomでもOSがXPであるため快適動作できたにょ。
Win7発売から1年経ち10月10日に書いたようにXPの提供が完全に終了するため今後は
ネットブックも7オンリーとなるにょ。
しかし、ネットブック用のAtomでは7は快適動作するとは言えず(デュアルコア化によって
多少はマシにはなるというレベル)、かといってAtomの性能向上も期待できない状態に
なっているにょ。

やはり、ネットブックはCULVノートでは実現できないくらい安価である必要があるにょ。
同一メーカー間で2、3万円くらいの価格差があればCULVノートではなく多少動作が重く
てもネットブックを選ぶ人はいるだろうけど実際はOSの価格差とCPUの価格差程度でしか
なくCPUもCULVノートはIntelから格安提供されるため売価で2万円以上の差を出すため
にはメーカーが利益を削る必要があるにょ。
ネットブックを安く売るのには限界がある(薄利多売にはすでに限界が来ている)ため
付加価値を付けて価格を上げようとしているくらいだからね。
ネットブックは登場した頃が最もお買い得感が高くそれ故に売れていったけど徐々に
そのお買い得感が薄れてきたというわけにょ。(デュアルコアAtom、WXGA液晶で49800円
といってもStarter→Homeの価格差を支払えば2倍近い性能のCULVノートが買えてしまう)
ネットブックが売れなくなったのは一般層に行き渡ったというだけではなくそのように
考えると納得がいくにょ。
2、3年前とあまり変わらない性能、価格のPCが売られている場合にそれを買うかと言えば
買わない人が大半だろうからね。

407御茶目菜子:2010/10/19(火) 13:43:02
ケータイにおいて通話機能が不要になる・・・?
auが冬モデルを発表したにょ。
http://k-tai.impress.co.jp/docs/news/20101018_400416.html
やはり、今回の注目は何と言ってもスマートフォンにょ。
10月5日に書いたおサイフ機能やワンセグを搭載で「ガラパゴススマートフォン」という
感じのIS03をはじめ多数のスマートフォンが発表されたからね。

今回の新作発表会ではさらに「ガラパゴススマートフォン」が2機種拡充されたにょ。
IS04とIS05にょ。

 ◎REGZA Phone IS04(富士通東芝モバイルコミュニケーション製)
 http://k-tai.impress.co.jp/docs/news/20101018_400384.html
 ◎IS05(シャープ製)
 http://k-tai.impress.co.jp/docs/news/20101018_400411.html

すでに「全部入り」のIS03が先行発表された影響でインパクトは薄いけどIS03より一回り
コンパクトサイズだしFWVGA液晶で十分という人もいるだろうから選択の余地は多い方が
いいからね。
そんな「日本独自の機能」なんて要らないという人向けのグローバルタイプのスマート
フォンも健在にょ。

 ◎SIRIUSα IS06(Pantech製)
 http://k-tai.impress.co.jp/docs/news/20101018_400414.html

従来型のガラケー(auは「フューチャーフォン」と呼んでいる)も当然のことながら多数
発表されたにょ。

 ◎Cyber-shotケータイ S006
 http://k-tai.impress.co.jp/docs/news/20101018_400412.html

ついにケータイのカメラが1620万画素とは・・・。
裏面照射センサーであるため高画素化のデメリットはあまりない(通常のセンサーだと
配線部分がボトルネックとなり画素数が2倍増えたら1画素の面積は半分を大きく下回る
サイズになる)とはいえ、レンズ性能を考えると解像するとは到底思えないため無意味
にもほどがあるにょ。(デメリットがないだけであってメリットがあるわけではない)
画素混合で感度を上げ実質400万画素相当で使えるというのならば悪くは無さそうだけどね。

新機能といえば話題になっているのは「標準でSkypeを搭載」ということにょ。
http://k-tai.impress.co.jp/docs/news/20101018_400792.html
このSkypeアプリによってAndroid端末だけではなくBREW端末(ガラケー)でもSkypeが
使用可能になったにょ。
デフォで通話機能を持つケータイで「Skypeを搭載して何のメリットが・・・?」と思う
かもしれないけどSkypeにはSkypeしかないメリットがあるからね。

PCを使ってSkypeを使用するというのはマイクとヘッドフォンが必須であるため使い勝手が
良いものではないにょ。
そういう人のために用意されているのがSkypeフォンにょ。
電話機のような形状であるため通話はしやすいものだからSkypeを多用する人であれば
勝って損はない機器だといえるにょ。
しかし、Skypeフォンを使用しても単体使用はできないということにょ。
あくまでPCを併用することが前提だからね。(PCレスで使えるSkypeフォンもあるけど
少々割高になる)

その点ケータイにSkype機能を搭載すれば単体運用が可能になるためPCと併用することも
無くなるし、3G通信を内蔵によって(圏内であれば)どこからでもSkypeによる通話が
可能になるということが非常に大きいにょ。
「Skype同士の通話は無料」だけどやはり通信料金がかかってしまうにょ。
この料金体制は分からないけど回線交換接続であるため従量制になるかもしれないにょ。
ならば通信料金が要らない「無線LAN経由で使用すればいい」と考えるかもしれないけど
それはできないにょ。
それはキャリアにとっては大きな障害となるからにょ。
無線LANが使える場所では通話、通信が無料になってしまいキャリアには1円も入ってこ
ないからね。

電話とSkypeは別物(利用シーンが分かれる)と判断しているauだけど無線LANでは使用
できないようにしているところをみるとやはりSkypeによるARPU減少を危惧しているのでは
ないかと思われてしまうにょ。
これは国内のキャリア主導の端末であるからやむを得ないにょ。
海外製のスマートフォンであれば端末メーカー側の方が強いため無線LAN使用時に制限が
あるなんてことはないわけだからね。

iPhone 4にはFacetimeによるビデオ通話機能が備わっているにょ。
6月10日にはあるライターがiPhoneをガラケーと比べて批判していることについて書いた
けどその中の1つにあったビデオ通話に関してガラケーのTV電話と同じという考えに
対して私はそれは異なるものだという認識を示したにょ。
それこそがこの無線LANへの対応にょ。
ガラケーの場合はキャリア主導であるため基本的にキャリアのメリットにならないことは
極力導入しないからね。
(通信料金が別途かかると推測される)3G通信専用Skypeと無線LANによる無料のSkypeが
同じものとなってしまうにょ。

ただ、現時点では料金体制は発表されてないため何とも言えないにょ。
もしも、Skype同士の通話が「通信料金含めて無料」というのであれば本当にサプライズ
といえるにょ。
これは事実上au同士の通話も無料になるということを意味するからね。
Skypeアプリを立ち上げた状態だとバッテリがすぐになくなるため常時待ち受けを行う
のは難しいという問題もSkype社と共同開発したアプリによって克服されているとのこと
だからそこまで心配しなくても良いかもしれないにょ。
したがって、本当にサプライズになるかどうかは料金体制が発表された後の話にょ。
しかし、無線LANで使用できないことが分かっているため「通信料金を含めて無料」と
いうのはかなり望み薄と思われるにょ。

さて、多機能化が進んでいるケータイにおいては最も大きな不満要素は使わない機能が
あるということみたいにょ。
http://mainichi.jp/select/biz/it/news/20101015mog00m020013000c.html
通話ではなく通信(メールやWeb)をメインに使っている人は実際に少なくないし、知人と
通話をしたいという場合でもSkypeができれば十分という人にとっては音声通話さえも
不要になるかもしれないにょ。
現状ではSkypeはSkype同士では無料であっても携帯電話への通話にはかなり割高料金と
なってしまうにょ。(固定電話へ通話ならば月695円でかけ放題のプランがある)
緊急発信やフリーダイヤルも使えないため完全に電話が要らないというわけにも行かない
けれどそれで困らないという人にとっては問題ないわけだからね。(おサイフ機能も
それを必要としている人には無くては困るけどそうでない人は無くても問題ないわけだし)
そういう意味では携帯電話における通話機能も「数ある機能の1つにすぎない」という
時代になりつつあるのかもしれないにょ。

408御茶目菜子:2010/10/20(水) 13:32:23
タブレット端末の普及のための準備はついに整った!?
iPadなどのタブレット端末は2014年には世界で2億台販売されるという予想が出ているにょ。
http://www.itmedia.co.jp/enterprise/articles/1010/18/news021.html
iPad以外はそこまでヒットをしているようには現時点では思えないけどそれは単にまだ
国内では普通に売られていないせいかもしれないにょ。
売られているのは秋葉の電気街のiPadモドキのようなものばかりだからね。

ネットブックでもその地位を獲得するのは簡単ではなかったにょ。
マザーボードメーカーとしては世界最大手が出したEee PCでもブランド志向の強い日本
では「ASUSって聞いたことがないメーカー」ということで最初は苦戦したわけだからね。
そしてブランド作りをして今の地位までたどり着いたにょ。
ネットブックがある程度売れ始めてからは国内メーカーもネットブックに参入したにょ。
価格的には台湾メーカーが4万円なのに大して国内メーカーが6万円ということで割高感が
非常にあったもののそれでもブランドを重視する人には受け入れられたにょ。

Windows PCの場合はどこのメーカーであっても「Windows PC」には変わりないということが
分かりネットブックはすぐに一般層に浸透していったけどタブレット端末の場合は事情が
異なるにょ。
それはOSが「Windowsとは限らない」という点にょ。
Android OS搭載のタブレット端末の場合はブランド(メーカー)の問題に加えてさらに
OSを認知、普及させることが重要になってくるにょ。
もっとも、特定OSに依存するアプリ(ネイティブアプリ)よりもそれに依存されないWebの
方にシフトしている傾向もあるためそういう意味ではようやく非Windows、非x86の端末が
広く受け入れられる下地が出来たともいえるにょ。
数年前までだとこのような端末に搭載のWebブラウザは10月14日に書いたように制約が
大きかったし、Web上のサービスも今ほど充実していなかったからね。
したがって、「今まで成功しなかったから今後も成功しない」というものでもないにょ。

タブレット端末の普及において重要になるのはノートPCとの差別化にょ。
「絶対的な安さ」をウリにしてヒットに繋げたネットブックだけどそのアドバンテージも
一昨日に書いたように薄れているからね。
ネットブックで行うことがノートPCと同じであるが故にスペック面の弱さが目立ってしまい
CULVノートの登場などによって価格面の差があまりなくなったことと相まって現在は厳しい
立場に立たされているにょ。(ASUSもデスクトップ用のデュアルコアAtomやIONを採用で
スペックアップを図ってはいるものの価格上昇をしてしまえば厳しいと思われる)

タブレット端末は「形状によってノートPCとは差別化できている」とも考えられるけど
それだけでは差別化は難しいにょ。
というわけで、差別化を行うのであれば下記の2つが重要になると思われるにょ。

(1)サイズ・重量
(2)価格

(1)すでに高性能なPCを持っている人が買い増しをする場合にタブレット端末とネット
ブックのどっちが便利かということを考えてみるにょ。

しかし、考えても答えは出ないと思うにょ。
それは用途や目的が分からないからにょ。
可搬性があれば良くネットブックの重量で問題なければネットブックを買うのが良いと
なるけど軽い物でも1kgの重量があり、平均では1.2〜1.3kgになるネットブックは決して
軽いものではないにょ。
実際ネットブックを持ち歩いて使うという人はわずかしかいないわけだしね。
ネットブックは持ち歩き用ではなく価格が最大のアドバンテージだから当然にょ。

重量を見るとモバイルノートだと1kg前後の機種は多いため最初から持ち歩き前提で購入
する場合にはこういったモバイルノートを使用する人が多いため結果的にネットブックを
持ち歩くユーザーの割合が小さくなっているというだけにょ。
ただモバイルノートは「仕事上必要だから持ち歩く」という人が多いためそれを除けば
持ち歩いているユーザー割合はかなり少ないと予想されやはり1kg程度であっても毎日
持ち歩くのには厳しいと考えられるにょ。
しかし、キーボードの制約がある以上は小型化すれば使い勝手が悪くなるため小型軽量な
ものはあるけど一般ユーザーの支持を得られているかは微妙なところにょ。(明らかに
B5よりも小さいサイズのPCで売れている機種といえばVAIO Pくらいか)
その点、タブレット端末であればキーボードの呪縛から逃れることができるにょ。

手に持って使うことが前提の端末であれば高dpiでも耐えられるため結果として小型化
しても高解像度が維持できるにょ。
例えば7インチWSVGAのネットブックを発売したとすればそれは170dpiに達するにょ。
これは10月3日に書いたように普通の人の目だと常用限界が150ppi〜167ppiであるため
それを超える解像度で使用する場合にはかなりの負担になるにょ。
しかし、手に持って使えるタブレット端末では目からの距離は自在に調整可能にょ。
30cmまで寄せればケータイと同じく300ppiまでは耐えられるからね。

ただし、手に持って使うことが前提になると軽量化が迫られるにょ。
私の経験上両手持ち端末で500g、片手持ちであれば300gが実用限界にょ。
週刊誌を読むように両手で持つなら500g、電車のつり革を掴んで片手で文庫本を読むように
持つならば300gが限界ということにょ。

昨日書いたauの新機種発表会では7インチのAndroid端末「SMT-i9100」も発表されたにょ。
http://pc.watch.impress.co.jp/docs/news/20101018_400817.html
ドコモも先日7インチのAndroid端末「GALAXY Tab」を発表したにょ。
http://k-tai.impress.co.jp/docs/news/20101005_398065.html
ただ、auの「SMT-i9100」には3G通信が内蔵されてないにょ。
無線LAN環境下では使えるもののさすがにそれしか使えないというものをキャリアで売る
わけにはいかないと判断したのか、モバイルルータ「Wi-Fi WALKER DATA05」とau端末を
モバイルルータ化するアダプタ「NEX-fi」も発表されたにょ。
http://k-tai.impress.co.jp/docs/news/20101018_400808.html
http://k-tai.impress.co.jp/docs/news/20101018_400813.html

7インチWSVGA液晶というのはタブレット端末の落としどころとしては悪くないにょ。
タブレット端末の場合はキーボードが非搭載であるが故にサイズ面での縛りが無くなる
ためベストなサイズというものは存在しないからね。
これがキーボード付きだとキーピッチにはベストなサイズが存在するためにそれから
逆算してベストなサイズも決まってしまうにょ。

7インチWSVGAというのは上記のようにキーボードの関係でノートPC(ネットブック)と
して販売する場合には幅広い層に受け入れられるのは難しいけどタブレット端末の場合は
全く問題がないからね。
逆にこれ以上小さくすると今度はスマートフォンに喰われてしまうにょ。
(手に持って使う端末の場合は)人間の目が300dpi程度まで耐えらるためWSVGA液晶でも
4インチのサイズで使用することは十分に可能にょ。
しかし、指のサイズだけはどうにもならないため4インチ程度のスマートフォンではWSVGA
液晶を搭載してもUIの関係で限界があるにょ。
したがって、7インチWSVGAのタブレット端末であれば3.5〜4インチのスマートフォンと
十分に棲み分けが可能になるにょ。

しかし、ジョブズ氏は「7インチは小さすぎる」と言っているにょ。
http://www.itmedia.co.jp/news/articles/1010/19/news097.html
これは10インチクラスのiPadで成功を収めたから言えるセリフだけどユーザーの反応を
見るとサイズ面の不満はそれほど大きくないけど重量面の不満は大きいにょ。
http://www.itmedia.co.jp/promobile/articles/1006/17/news052.html
その理由は簡単でiPadは10インチクラスの端末では700g程度と軽量ではあるものの上記の
ような私の体験上の限界である重量の500gを大きく超えているからね。
魔法でも使わないかぎりサイズを維持したまま500gを切ることはできないため軽量化には
本体サイズ(≒液晶サイズ)を小さくするしかないにょ。
7インチ液晶の「SMT-i9100」は450g、「GALAXY Tab」は380gであるため重量面で大きな
不満を感じることはないと思われるにょ。
まぁジョブズ氏の駄目出しは「より良く改良したものを出す」という合図にもなりつつ
あるので恐らく使い勝手のよい7インチiPadを出してくれるのはこれで濃厚になったと
考えることも可能になるにょ。

(2)Windows PCでも古くからタブレットPCなどのタブレットタイプの端末は存在するけど
ヒットしていない最大の原因は価格にょ。
そう言う意味ではオンキヨーが発表したSlate PCはネットブックと同レベルの価格という
ことで価格面の問題はなくなったにょ。
とはいえ、上記のようなサイズ、重量の制約を考えるとオンキヨーのSlate PCがWin7
Home Premiumを搭載で49800円とう破格の安さ(iPadとほぼ同レベルの価格)であっても
どうしてもWindowsが必要という人(業務上必要な場合など)以外は厳しいと思われるにょ。
重量面だけではなく10月16日に書いたようにタッチパネルを前提として作られていない
Windowsのデメリットもあるわけだからね。(そのデメリットよりもWindowsが使えると
いうメリットが大きいという人にとってはこの製品は非常に有用となる)

価格といえば国内においてネットブックの普及に大きな貢献をもたらしたのは3G通信
アダプタとセットで販売することで格安(100円PCなど)で販売したことにょ。
あれからもう2年経ち2年縛りが解けるユーザーも多くなっているにょ。
そうした時の買い換え対象として何があるのかということが重要になるにょ。
ネットブックの性能は2年前と比べて2割程度しかアップしてないにょ。
したがって、わざわざネットブックからネットブックに買い換える人はかなり限られて
くるのではないかと思われるにょ。

XPから7への変更はかなり大きいと思うけどOS変更によって動作が重くなっているという
ことが問題になるにょ。
一般的なPCの買い換えサイクルを5年とした場合に重くなった新しいOSを搭載したPCで
あっても5年間のPCの性能向上で十分カバーできるため「新しいOSだから重い」という
ことはほとんどないにょ。
いくら7が前世代(Vista)より軽くなったとはいえ、XPより重いのは事実だし、ネット
ブックの2年間の性能向上がそれをカバーできてないのも事実にょ。

恐らく2年間ネットブックを使用していれば自分が求めていたものが自ずと見えてきてくる
と思われるにょ。
PCとして使用するためにスペック面で物足りないと感じればCULVノートへの移行が考え
られるし、スペック面で不満がないなら「わざわざ買い換える」という選択肢はないにょ。
「重い」などを理由に持ち歩きを重視するのであればネットブックと明確なサイズ差、
重量差があるタブレット端末であれば買い換えに十分意味があると思われるにょ。

そういう意味で今後タブレット端末が3G通信カード(SIMカード)やモバイルルータと
セットで格安販売されるようになってからが本格的な普及期に入ると思われるにょ。
実際すでにauやドコモはそのための端末を用意しているわけだしね。
キャリアとは無関係にそのような端末をPCメーカーもすでに用意しているにょ。
現状では単体購入の場合は4万円以上ということでネットブックと比べて価格面のアドバン
テージはない状態だけどこれも大量生産が可能になればネットブックよりは確実に安く
なるにょ。
実際中国製の無名メーカー製端末であれば7インチ液晶のAndroid端末は1万円程度で入手
可能なわけなので将来的にはネットブックより確実に安くなるにょ。
ネットブックではすでに限界に達しているためこれ以上の値下がりは期待できないにょ。
そういう面からすると今後安価になればタブレット端末はネットブック以上の普及になる
といってもおかしくはないにょ。


(1)(2)の理由によりノートPC(ネットブック)十分差別化できるタブレット端末が将来的
には爆発的な普及の可能性があるとはいえ、問題となるのは9月4日に書いたような通信
インフラとコストにょ。
現状では無線LANで使用できる場所はかなり限定されているため3G通信が必須となるからね。
ローカル上での作業を重視しているPCであればそれで通信は無線LANが使用できる場所のみ
でも構わないけどAndroid OSなどを搭載のタブレット端末の場合は主な使用用途がWebで
あるためそれでは支障が出るにょ。
しかし、3G通信契約を別途行う場合にはコストアップとなり安価な端末のメリットは
かなり薄れてしまうにょ。

しかし、これもネットブックからの買い換えであれば問題はないにょ。
上記のようにネットブックを購入する際に3G通信アダプタをセットで購入してその2年
縛りが解けるついでに別の通信アダプタとタブレット端末をセットで購入すれば負担金が
増えるわけではないからね。
とはいうもののそれでは「ネットブックを3G通信アダプタとセットで買った人」が
タブレット端末のパイの上限になってしまうにょ。
したがって、重要になるのがモバイルルータの普及にょ。
さすがにモバイルルータを別途買うという人は限られているけどその機能をケータイに
内蔵したり、auの「NEX-fi」のようにモバイルルータ化するアダプタもあるためそれを
使用するという手もあるからね。

ここ2、3年で通信環境は大きく変わったにょ。
これから2、3年でも同じく大きな変革が訪れると思われるにょ。
したがって、タブレット端末の普及はこの通信環境の変革と合わせて大きな普及をもたらす
のではないかと思われるにょ。
現状ではまだiPadのみがブランド力によってヒットしているにすぎないタブレット端末
市場だけどそれはこれから変わってくるため現状だけで単純に判断できないにょ。

409御茶目菜子:2010/10/21(木) 14:33:15
11.6インチMacBook Air発表
新型のMacBook Airが発表されたにょ。
やはり注目は11.6インチ版にょ。
http://pc.watch.impress.co.jp/docs/news/20101021_401429.html
http://plusd.itmedia.co.jp/pcuser/articles/1010/21/news019.html
Mac史上最軽量となっているからね。

昨日も書いたように近年は「Windows用アプリがどうしても必要」という人を除いて
Windowsの必要性は薄くなってきているにょ。
古いアプリを使っていてそれが欠かせない人であってもそれがWin7で動作しないので
あればWindows PCを新調するメリットはないにょ。
どうせ動作しないのならばそのアプリは古いPCでのみ使用しそれと併用できるような
小型のMacを買うというのは有用にょ。

またiOS用のアプリを開発する場合にはMacは必需品だし、今のIntel MacであればWin7を
インストールすることも可能なのでどうしてもWindowsが使いたいという場合はそういう
方法をとることが可能にょ。
逆にWindows PCにMac OSのインストールも可能だけどライセンス違反となってしまう
(Apple製品以外にはインストールできない)ためにそれを使うことはできないにょ。

この11.6インチのMacBook Airの大きなメリットは下記の3つにょ。
(1)薄型・軽量
(2)低価格

(1)初めてMacBook Airが発表された時にはその薄さに驚かされたけれど今回のMacBook
Airも最薄部3mm、最厚部17mmだからね。
とはいえ、最薄部なんて外側に徐々に薄い形状にしておけばいくらでも薄くできるため
見た目のデザインを除けば最薄部○○mmというのは何の意味も持たないにょ。
鞄に入れて実際に持ち運ぶならば平均、もしくは最厚部の方が重要だからね。
しかし、最厚部でも17mmならば十分薄いにょ。

そしてやはり有用なのはこの重量にょ。
11.6インチで1.06kgというのは軽量化を重視した国内のモバイルノートに匹敵する軽さ
だからね。
もっとも軽量化には液晶サイズが重要となっている(液晶サイズが小さくなれば筐体
サイズの小型化ができるためそれが軽量化に繋がる)ため11.6インチ同士で比較すると
11.6インチ液晶では軽量モバイルノートは存在せず安価なCULVノートしかないにょ。
11.6インチ液晶を搭載した一般的なCULVノートが1.3〜1.5kgということを考えるとこの
軽さがよく分かるにょ

(2)標準構成の88800円という価格も魅力にょ。
CULVノートと比較すると最新のArrandaleベースのCPUではなく1世代前のPenrynベースの
CPUとなっているわけだけど8月19日に書いたようにArrandaleベースのCPUは全体的に
動作クロックが下がっているため必ずしも性能アップにはなっているわけではないにょ。
確かにGPU性能の比較であれば旧世代のCULVノートのGS45に内蔵のGMA X4500は現行の
CULVノートに内蔵のIntel HD Graphicsと比べて劣るためCPUだけを見たら旧世代の方が
お得ともいえるけど総合面では微妙になるからね。

しかし、MacBook AirではGeFoece 320Mを搭載しているにょ。
いくら320Mが統合型チップセットとはいえ、Intel HD Graphicsと比べて別格の性能である
ためCPU(チップセット)が旧世代だから性能面で劣るということはなくむしろ最新のCULV
ノートよりも優れているにょ。
320Mは9400Mの3倍のSP数(48基)であり実性能においても約2倍の性能となっているわけ
だからね。
12インチ未満の液晶サイズのPCでこれを超える性能なのはAlienware M11x(GeForce GT335
搭載)しかないにょ。
M11xは同じ11.6インチとはいえ、重量は約2kgに達するにょ。(GPU性能は2倍以上だけど)
そしてM11xは安いといっても99800円するからね。
M11xはGPU性能が高くでもゲームにおいてはCPUがボトルネックになっていることが多く
それを考えるとこのMacBook Airの構成はバランスが取れているとも考えられるにょ。

さらにこの88800円は64GBのSSDを搭載時の価格であるということが大きいにょ。
一時期は年々半額以下となっていたフラッシュメモリの価格もここ1年余り停滞気味である
ため依然として64GBのSSDとなると部品コストだけでも1万円近くに達してしまうにょ。
これは500GBの2.5インチHDDよりも高価なものにょ。
在庫処分品で特別安く売られているPCを除けば「64GBのSSD搭載」の全PCの中で最も安価
ではないかと思われるにょ。
これは大量注文による部品コストのダウンと店頭値引きがほとんどない(仕入れ掛け率が
高い)ということが理由だと推測するにょ。
ちなみに128GBモデルも2万円アップの108800円で用意されているにょ。
部品コストの2倍の価格と考えればこの2万円アップは妥当なところかもしれないにょ。


MacBook Airは薄型、軽量で安価PCを探している人には最適であり、GPU性能を含めた性能を
考慮したら多少CULVノートより高価でも割安感があるにょ。
これは北米では999ドルとなっており、円高の影響で88800円となっていると思われるにょ。
1ドル100円弱で推移していたら99800円になったのではないかと思われるにょ。
ただし、MacBook Airが必ずしもオススメとはいえないにょ。
従来のMacBook Airでも指摘していたような下記の3つの問題点があるからね。

(a)フットプリントが大きい
(b)拡張性がない
(c)バッテリ交換できない

(a)フットプリントだけどやはり気になるのはその横幅にょ。
横幅は約30cm(29.95cm)に達しており、これはA4用紙の長辺(29.7cm)よりも大きいにょ。
11.6インチのCULVノートの場合は概ね横幅28〜29cm程度の機種が多いし、12.1インチ
液晶を搭載したLet'snote N9やFMV PH770が横幅28.2cmということを考えると明らかに
大きいといっても良いレベルだと思うにょ。
これは(1)で書いたように薄型化を実現するためデザイン上の問題でこうなっているにょ。
寸胴にすればさらにフットプリントの小型化はできるけど美しくないからね。
Let'snote J9は見た目は美しくないけどその代わり10.1インチ液晶搭載PCの中で最小の
フットプリントになっているにょ。
11.6インチ搭載のMacBook Airと比べると液晶サイズ(対角線)は1.5インチ差だけど
筐体の横幅は約5cmも小さいからね。
この5cmというのは13.3インチMacBook Airと11.6インチMacBook Airの差よりもさらに
約2倍も大きいにょ。

MacBook Airの11.6インチモデルのフットプリントが大きいのはデザイン上の理由だけでは
なくやはり操作性も考慮されているせいだと思われるにょ。
一般的な19mmキーピッチのキーボードを搭載すれば横幅は必然的に30cmくらいになる
からね。
指のサイズは日本人ではなく欧米人を基準にしているだろうからキーボードを縮小して
小型化という考えはないと思われるにょ。
それでなくても先日ジョブズ氏は「指を削らない限りは7インチのタブレットは使えない」
と言っているくらいだしね。

(b)初代MacBook AirはUSBポートが1つのみという構成だったことを考えると2つあるため
特に不自由さはないにょ。
実際このような小型ノートでUSBを使うとすればHDD、光学ドライブ、USBメモリを使う時
だけに限られてくるだろうから3つ以上同時に使う方が希だからね。
ただ、やはり不安なのはメモリにょ。
標準で2GBから重い作業をしなければ問題ないけれどWin7でも複数のアプリを立ち上げたら
2GBにはすぐ達してしまうわけだし、何より次世代の「Lion」がまともに動作するかどうか
ということが商品寿命に大きく影響してくるからね。(Mac OSはWindowsよりもサポート
期間が短いためこまめにアップデートしておかなくてはならない)
「そんな装備(メモリ2GB)で大丈夫か?」と聞かれて「大丈夫だ、問題ない」と即答
できる人でなければ直販で4GBモデルを買う方が無難だと思われるにょ。
SSDは(新品SSDを買って殻割りすれば)ユーザーの手によって交換は可能だけどメモリは
基盤直付けであるため事実上交換はできないからね。(とはいえ、SSDもピンが特殊形状で
あるため市販品の入手は難しそうだけど)

メモリがユーザーの手によって交換できないとなるとWin7のDSP版を使うのが困難になって
しまうにょ。
XPならば7に乗り換えたためライセンスを余らせている人も多いだろうけどWin7でそれは
考えにくいためWin7を使いたいためにわざわざ購入する場合はライセンスの都合上安価な
DSP版を使えずパッケージ版が必需品となるにょ。
DSP版を使用するための最も手軽な方法はメインメモリの増設のついでに購入すること
だからね。
これによってメモリが増え、新しいOSも快適に動作するという一石二鳥にょ。

しかし、メモリスロットのないMacBook Airではこの方法を採れないにょ。
SSDを交換するしかないけどSSDは高価であり「安価だからDSP版を買う」というメリットが
無くなり使用しなくなったときに使い回しが効くパッケージ版の方が有利といえるにょ。
したがって、冒頭に書いたように「Intel MacではWindowsも使える」というメリットを
活かすためには3〜4万円の追加投資が必要になるにょ。
資金に余裕があれば「一番いいのを頼む(メモリ4GB、SSD128GB、Core2Duo 1.6GHz)」と
いう方法があるけどさすがにそれだと安価とは言えなくなってしまうのが難点にょ。
SSDだからこそメモリは十分搭載しておきたいからね。(SSDの寿命は書き換えデータ量で
決まってしまうけどスワップが頻発すると書き換え量が極めて大きくなるため)

(c)MacBook Airのバッテリ駆動時間は5時間だけどこれは国内で販売されているPCで
計測用に使われているJEITA測定法によるものではなく無線LANをONの状態で測定された
実測値となっているにょ。
JEITA測定法の場合は測定方法は定められているもののその内容は現実的なものではなく
しかも思い切りカスタマイズした状態で測定してもお咎め無し(BIOSでクロックを落とした
状態で測定しても不可にはならない)というものであるためメーカーによっては軽い
Web閲覧をするだけで公称駆動時間の半分以下になるものさえあるにょ。

MacBook Airは公称5時間ということは極めて軽いWeb閲覧程度であれば5時間動作すると
推測されるにょ。
この駆動時間が実現されているのは軽量な本体の割りには35Whの大容量リチウムポリマー
バッテリが搭載してあるからにょ。
これは2400mAhの丸形セルのバッテリだと4セル相当になるにょ。
Let'snote J9(ハイパフォーマンスモデル)が公称12時間駆動なのは3100mAhの高容量
セルに加えて6セルバッテリ搭載というのが大きいにょ。
バッテリ駆動時間に関してはどのように省電力管理が進んでも同じようなパーツ構成の
場合であればある程度で限界がくるためバッテリの容量で駆動時間が決まってしまうにょ。
J9は68.82WhというMacBook Airの2倍近い容量であるため長時間駆動が可能になっている
というだけの話にょ。(J9もMacBook Airも省電力管理はかなり優れていると推測される)
もっとも省電力管理が駄目だとバッテリ容量が多くても長時間駆動するとは限らない
けどね。

さて、このMacBook Airの駆動時間で十分と感じる人であれば問題はないけどやはり問題と
なるのはバッテリは消耗品であるということにょ。
ただ、消耗品といってもHDDなどのように「使える」「使えない」の2択ではなく使っている
うちに「徐々に駆動時間が短くなる」というだけだから「使おうと思えば使えるけど
少々不便」となるだけのことにょ。
一般的な使い方をすれば2、3年で駆動時間は半減すると思われるにょ。
したがって、「公称5時間で問題ない」というのではなく「2、3年使えればいい」もしくは
「公称5時間の半分使えればいい」という感じになるにょ。(自宅での使用がメインであり
「1時間程度使えれば十分」という人にとってはほとんど関係ない話だけど)

バッテリ駆動時間に不満が出てきてもメーカー修理扱いで新品バッテリに交換可能だけど
有償であるのはやむを得ないけど「壊れてないPCなのに修理に出している間は使用する
ことができない」という問題があるにょ。
たまに使っているだけだから数日間修理に出しても影響ないという人でない限りは
バッテリ交換だけのために修理扱いというのは解せないと思うにょ。
「バッテリの寿命=本体の寿命」と割り切って2、3年置きに新機種を買うという人で
あればそれも関係ないだろうけど私の場合は現在使っているR5は買った時点で2年半前の
機種(中古)だったからね。
「2、3年程度前の機種だからスペックが低くて使えない」という人であればそもそも
このようなULV版CPU搭載のMacBook Airを買うべきではないにょ。


さて、このように見ていくとMacBook Airの11.6インチ版は魅力的な機種ではあるものの
私のニーズを満たす機種ではないにょ。
私はフットプリント至上主義であるため薄型でフットプリントの大きな機種は使い勝手が
良くないからね。(薄くてもフットプリントが大きければ大きなバッグが必要になるし
使用するためには広いスペースが必要になるのに対して鞄に入れている時はR5程度の厚さ
であれば厚すぎて不便と感じることはあまりない)
とはいえ、Macを1台買う必要性に迫られた場合には購入の最有力候補になりそうなもの
ではあるにょ。

410御茶目菜子:2010/10/22(金) 14:22:17
7インチiPadは登場しない・・・?
新型MacBook Airも発表&発売され非常に盛り上がっているのだけど次の注目は新型iPad
だと思うにょ。
iPadでコンシューマ向けタブレット端末として成功を収めたのだけど「重い」という
ユーザーの不満は少なくないからね。
したがって、7インチ程度に小型化し、アンダー500gの新型iPadを出すという噂が以前から
出ているにょ。

ところが、先日ジョブズ氏はすでに多くの機種が発表されている7インチのAndroid OS搭載
タブレット端末に対して「製造元は、自分たちのタブレットは小さすぎたというつらい
教訓を学ぶだろう」と述べたにょ。
また「7インチを売るなら紙ヤスリも同梱しないと無意味。ユーザーが指を1/4サイズに
削れるように」と述べたけど「1/4」という数字は一旦おいておく(実際には10インチと
7インチではサイズは長さで1.4倍、面積では2倍のため「1/4」という数字は恐らくピンと
こないと思う)として要するに欧米人の手に対して7インチでは小さすぎるというので
あれば多くの人に理解できるのではないかと思うにょ。

「7インチで小さすぎるならばスマートフォンはどうなるんだ?」という意見もあると
思うにょ。
これはスマートフォンが小さな画面に合わせたUIを採用しているため問題ないにょ。
3.5インチ液晶と7インチ液晶では単純計算で面積比は4倍になるにょ。
では、4倍の情報量かというとそういうものではないにょ。
10月3日には「10.1WXGA液晶は10.4XGA液晶より情報量が少ない」という人が一部にいると
いうことを書いたけどこれと同じようなことが起こるからにょ。
高ドットピッチの液晶の場合はそれが常用できる人でない限り解像度を落としたりDPI
設定を変えて使用する必要があり、それが結果として情報量低下を招いているということ
だけど大きなタブレット端末であってもスマートフォンと同じアイコンサイズであれば
スマートフォンと同じような操作性しか得られないということになるにょ。
したがって、「スマートフォンと明確な差別化を行うならば10インチ程度必要となる」と
ジョブズ氏が言いたかったのではないかと思われるにょ。

それでは7インチiPadは出ないのかというとそういう単純なものでもないにょ。
何せ過去においてジョブズ氏は自分の言ったこととは反対のことを何度もやってきたわけ
だからね。
http://japan.cnet.com/news/commentary/story/0,3800104752,20421690,00.htm
例を少し挙げるだけでもこの程度あるにょ。

 ◎iPodは動画に対応させない→ビデオiPod
 ◎携帯電話は作らない   →iPhone
 ◎人は本を読まない    →iBooks

このように「騙す」というか、いい意味で「裏切る」のがジョブズ氏のやり方といえる
ため7インチのタブレット端末を口撃することで逆に7インチタブレットを販売することが
濃厚になったとも私は考えているにょ。

しかし、その唯一の問題となるのは互換性にょ。
それについて書く前にもう1つのAndroid OS搭載端末の問題点指摘としてジョブズ氏が
挙げていることがあるにょ。
それはAndroid OSとiOS(iPhone)は「オープンVSクローズド」と言われることが多いけど
そうではなく「分断VS統合」であるということにょ。
これは視点の違いから出ることであり両方の意見は間違ってないにょ。
私自身も9月20日に「Phoneは閉鎖的(クローズド)だからゲームベンダーが参入しやすい」
と書いたし、8月9日に「垂直統合によって成功している」と書いているにょ。
私自身が8月9日と9月20日で意見が根本的に変わったということはなくそれは今でも
両方とも同じであると感じているにょ。
「同じものを見ても視点によって形が変わる」なんてことはいくらでもあるんだけどね。
ごく簡単な例を挙げるならば円柱は「上から見たら円」だけど「横から見たら四角形」で
あるため「どちらか片方だけの意見が正解であるというわけではない」ということはよく
分かると思うにょ。

確かにアプリを作る側としてはAndroid OS搭載機の「分断」は少々厄介な問題にょ。
9月20日にも書いたけど機種毎に異なるシステム構成やOSのバージョンの微妙な違いを
どうするのかというのは悩みの種だからね。
ジョブズ氏はAndroid OS搭載機は244種類の端末と100のOSのバージョンがあると指摘して
いるにょ。
http://japanese.engadget.com/2010/10/20/android/
確かにアップル社しか作ってないiPhoneとは異なり多種多様の端末が存在するAndroid OS
搭載機は端末数が多いというのは事実だけど100のOSというのは一体何なのかというと
1.6、2.1、2.2というバージョンの違いだけではなく機種毎に細かいカスタマイズがして
いるということを理由に挙げているにょ。
果たしてそれは正しいことなのか・・・?

では、とりあえず「ゲーム」という観点から、Windows PCとコンシューマゲーム機で
考えてみるにょ。
コンシューマゲーム機は誰の目からみてもクローズドな環境であり、Windows PCはOS自体は
オープンとは言い難いけど本体を自作できる(パーツを自由に組み合わせて作ることが
できる)うえにMSの許可無しでも自由に自作アプリを発表できるということでオープンな
例として考えるにょ。
その場合にコンシューマゲーム機は(例えばDSにおいて)1種類しか存在せず、Windows PCは
無限種類(実際は有限だけど非常に多いし、パーツの組み合わせが何種類あるのか全く
把握できてないため無限としておく)となるのかというとそうではないからね。
確かに特定デバイスの特定ドライバで動作しないということがあるためCPU、GPUが動作
スペックを満たしていてもすべての環境で正常動作ができる保証はないのだけどそれは
詭弁の中にある「ごくまれな反例」にすぎないにょ。

確かに固定プラットフォームである方が開発する側としては有利なのは間違いないにょ。
コンシューマゲーム機は固定であるが故にその性能を100%発揮することで低いスペックで
実用レベルになっているからね。
これが汎用性が高いWindows PCではコンシューマゲーム機と同じスペックでは同じレベルの
グラフィック表現や動作速度が実現できないし、何より特定デバイスに依存するゲームは
そのシェアを考えると作ることができないにょ。
タブレット操作に特化したアプリはそのシェアからいって特定の業務用にわざわざ作った
場合を除きほとんどないのはそれが理由にょ。
それゆえ、Slate PCは10月16日に書いたように苦戦を強いられるにょ。

固定プラットフォームであれば特殊デバイスを搭載していてもそれをすべての端末に
おいてそれを搭載しているため「そのデバイスがあることを前提としたアプリ」という
ものも気軽に作ることができるにょ。
私は長年ポケコンでアプリ制作をしてきているけどポケコンというのは固定プラット
フォームに近いにょ。
では、本当に固定かというとそうではないにょ。
PC-G800系の場合は解像度の違い、グラフィック表示のサポートの有無、そしてCPU速度の
違い挙がげられるにょ。
そういった違いがないPC-E500系(どの機種も240x32のフルドット表示であり、どの機種も
2.304MHzのSC62015というCPUを搭載している)であってにROMバージョンの違いがあるにょ。
G800系の違いはAndroid OS搭載機でいう細かい搭載デバイスの違いと等しく、E500系の
違いはAndroid OS搭載機でいうカスタマイズされたOSの違いと等しいにょ。
Android OS搭載機において機種毎にカスタマイズされた100のOSを考慮してアプリを作る
というのはPC-E500系において7つのROMバージョンを考慮してアプリを作るというのと
同義になってしまうにょ。(実際にここまで意識しなくてもごく一部の例外を除いて
問題になることはほとんどない)

実はコンシューマゲーム機も1機種で1種類というわけではないにょ。
DSの場合は初代DSとDS Liteではシステムのバージョンの違いがあるし、DS、DS Liteと
DSiでは搭載メモリが従来の4MBから16MBに増加し、カメラを搭載というハードウェアの
違いもあるにょ。
これはDSに限ったことではなくどのコンシューマゲーム機においてもいえるにょ。
iOS搭載機はどうなのかというと1.0、2.0、3.0、4.0だけではなくさらに4.1などの細かい
バージョン違いが存在するにょ。
ジョブズ氏は現行と1つ前しか認めてないため2種類といっているけどね。
そして厄介なのはハードウェアの違いにょ。

固定プラットフォームであるというアドバンテージがあるiOS機だけどそれでも年間1機種
ずつ登場している(フラッシュメモリの搭載量の違いはアプリの動作には影響しないため
1機種としてカウントする)わけだし、さらにiPod touchとiPhoneの違いも無視できない
といえるにょ。
iPhoneにしか搭載していないデバイスがあるためtouchでは動作しないアプリも多いにょ。
それに加えて液晶の解像度、アスペクト比ともに異なるiPadが登場したからね。
Android OS搭載機で244端末100バージョンのOSというのならばiOS端末は「2つ」ではなく
「8つ」というのが正しいにょ。
OSのバージョンを入れると「8つ」がさらに数倍に膨れあがるにょ。

重要なのはOSのバージョンではなくメインストリームがどれだけあるのかということにょ。
今更初代iPhoneに特化したアプリを作っている人は極めて限定されるけどこれは初代
iPhoneを使っている人が少ないせいもあるにょ。
(細かく考えた場合)100バージョンのOSがあるとジョブズ氏が言っているAndroid OS
だけど実際の端末のシェアを見るとトップの2.2だけで半数となり2.1からアップデート
したものが約3割(ここまでですでに8割)、そして上位5つで合計約99%となるにょ。
だからそれさえ考慮しておけば100バージョン以上をすべて考慮する必要なんてないにょ。
それでも残りの1%を切り捨てると考える人もいるだろうけどそれだとPC-E500用のアプリを
作る際に7つのROMバージョンすべてを考慮したものでないと切り捨てたことになって
しまいかねないにょ。

同じPC-E500系でもエンジニアリングソフトウェアで使用しているEVALがPC-1480Uで使用
できないとかU6000/E650で搭載された構造化命令はそれ以前の機種では使えないという
違いはあるものの特定命令を使わなければほとんどソフトウェア的には互換性が維持
されているにょ。
それと同じくカスタマイズされたAndroid OSであってもその機種の独自カスタマイズ
されたものを使わない限りは大きくわけた1.6、2.1、2.2のどれかに分類できるため
「ごくまれな反例」を除けばOSのバージョンの種類なんてたかが知れてるにょ。(むしろ
独自デバイスの方が厄介なくらい)


さて、ここで7インチiPadが登場する場合にどうなのかを再び考えてみるにょ。
まずインチ数とアスペクト比から単純計算して液晶サイズとドットピッチを算出したにょ。

    インチ数 解像度 アスペクト比 長辺×短辺  ドットピッチ
 iPad?? 9.7インチ XGA   4:3    19.7×14.8cm 132ppi
 iPhone 3.5インチ 960x640 3:2     7.4× 4.9cm 326ppi(※メーカー公称値)

iPhone4で従来より大幅に解像度が高まりこれによってiPadのXGA(1024x768)という
解像度のアドバンテージが薄くなってけどそれでもサイズを見る限りは十分な差別化が
可能であると判断可能だと思うにょ。
今度は、7インチ端末で計算してみたにょ。

       インチ数 解像度 アスペクト比 長辺×短辺  ドットピッチ
 Android端末 7インチ WSVGA  16:9.4    15.3× 9.0cm 170ppi
 iPad mini?? 7インチ XGA    4:3    14.4×10.7cm 183ppi

ここでは7インチiPadを「iPad mini」という名称に置き換えて考えてみるにょ。
iPad miniはiPadよりインチ数が小さいだけあって小型化されているにょ。
しかし、同じ7インチでもAndroid OS搭載機の方が横幅が長いことが気づくと思うにょ。
これはワイド液晶とスクエア液晶の違いがあるからにょ。
ワイド液晶はアスペクト比の関係上同じインチ数であっても短辺がより短くなり長辺が
より長くなるにょ。
したがって、同じインチ数であってもソフトウェアキーボードを使用する場合には
キーピッチが広くなるため有利になるにょ。
たかが9mm・・・されど9mmだからね。
では、iPad miniのインチ数を7インチではなく8インチにすれば7インチワイド液晶の端末の
長辺よりも長くなると考えることができるけど今度はiPadとの差別化が難しくなって
しまうにょ。
iPadが9.7インチXGA、iPhoneが3.5インチ960x640の液晶になった時点でiPad miniの入る
場所が無くなってしまったということにょ。

では、iPadのワイド化を考えてみるにょ。
iPad、iPad miniそろってワイド化すればそのインチ数の差である1.4倍は維持されるため
何とか棲み分けができそうな気がするにょ。
つまり、新型iPadは10.1インチWXGAになるということにょ。
しかし、「iPad」を名乗るためにはXGAは必須であるため7インチワイド液晶のiPad miniを
作るためにはWXGA液晶を搭載する必要があるにょ。
そうなると224ppiに達するにょ。
それは現行iPadの2倍近いドットピッチになるにょ。

iPhone4は3、3GSと比べてドットピッチが一気に2倍に高まったにょ。
高解像度でアイコンサイズが小さくなれば使い勝手が悪くなるためアイコンの縦横の
ドット数を2倍にしてアイコンサイズは維持しており、解像度が高くなったからといって
操作性が悪くなったということはないにょ。
ゲームにおいてもiPhone4専用の高解像度ゲームはアイコンが小さくなるということはなく
解像度が高くなった分だけアイコンサイズを大きくしているにょ。
では、従来の3GS用のゲームをiPhone4でプレイする場合は拡大表示によって高解像度と
相殺されアイコンサイズは維持されているにょ。
それでは拡大表示が行われず実寸サイズで表示を行う(つまり、960x640の中の4分の1の
領域を使って480x320の表示を行う)ということしかできない場合はどうなのか・・・?
ソフトウェアの互換性があってもまともに使えるという認識はできないにょ。

上記のように7インチのiPad miniを作るということは7インチWXGAの液晶を搭載するという
ことであり、それは現行iPadの2倍近いドットピッチであるためiPhone4で3GSのアプリを
原寸大で表示するようなものということがいえるにょ。
さて、ここまで来たらジョブズ氏が言った「紙ヤスリで指を1/4に削らなくてはならない」
という「1/4」の根拠が見えてくるにょ。
10インチと7インチでは面積では半分でしかないけどスクエア→ワイド化で同一インチ数
では面積が1割減になるのに加えてWXGAが必須になるためドットサイズが3割減となり、
結果的には1ドットのサイズが約1/4になってしまうからにょ。

そうならないためにはiPad用ではなく「iPad mini専用」といえるアプリを作る必要が
出てくるにょ。
iPhone4もその解像度を考慮した専用アプリによって高解像度でも快適に操作できている
わけだからね。
ただし、iPhone4が3GSと代わる存在なのに対してiPad miniがメインストリームとなると
限らないという点が異なるにょ。
今後はiOS用のアプリはiPhone(iPod touch)とiPadの2ラインになると思われるけど
それに加えてiPadが通常版とminiがあれば事実上3ライン(現行iPadを入れると4ライン)
となってしまうにょ。
多種多様の端末があるAndroid OS搭載機に対して統合によって自社製の2種類のみの端末
というのが強みと考えているジョブズ氏にとってこれは大きな問題点にょ。

そうなるとジョブズ氏がとるべき選択肢は2つにょ。

(1)iPadを約10インチのまま500g以下に軽量化する
(2)現行iPadを亡き者にしてUIを7インチ用に最適化する

(1)は物理的に現在では不可能に近いし、(2)は簡単にできるけどユーザーの反応が厄介にょ。
何せ1世代で切り捨てだからね。
私は(2)が濃厚(つまり、10インチと7インチの2種類をラインナップはしない)と感じて
いるにょ。
時間が経った後に「7インチを出す」となると切り捨てられるユーザーも多くなるため
さらに被害が拡大してしまうにょ。
したがって、「切り捨てることが分かっている」というのが前提ならば1世代で切り捨てる
ことがベストとなるにょ。
7インチを出すなら今しかないし、この機会を逃すとさらに出すのが難しくなるにょ。

411御茶目菜子:2010/10/23(土) 13:48:31
目の付け所がシャープではなかった・・・
シャープがついにPCから撤退したにょ。
http://pc.watch.impress.co.jp/docs/news/20101022_401808.html
最後の製品となったのは昨年10月に発売されたネットブックPC-NJ70B/80Bだったにょ。
この製品のウリとなったのは光センサー液晶にょ。
シャープはネットブックへの参入はPCメーカーとしては最後発ということで期待は大きい
ものだったけど昨年6月に発売のNJ70BのXPモデルNJ70Aはかなり苦戦をしたにょ。
何せ発売当初の予価は8万円(Office付きのNJ80Aは10万円)だったからね。

2008年に登場したネットブックはピーク時にはノートPCの3割のシェアを占める大きな
普及を果たしたけど低価格化で薄利となり、メーカーは苦労していたにょ。
シャープは低価格競争には乗らず光センサー液晶を武器に新規参入したけど高価という
のが障害になり(売れないためかすぐに実勢価格は下がっていったけど)、その上バッテリ
駆動時間が短いなど高価なことだけが敗因ではなかったにょ。
10月には7Starterを搭載したマイナーチェンジモデルが発売されそれでシャープのPC
事業は終焉となったにょ。

今思えばシャープの全盛時は70年代末〜80年代半ばの8ビットパソコン全盛時だったと
思われるにょ。
30代以上の人であればMZシリーズやX1シリーズは所持していたもしくは使用した経験が
あるという人は非常に多いのではないかと思われるにょ。
MZで採用された「クリーンコンピュータ」は半導体が高価だった80年頃は非常に有用
だったしね。
高価なROMだとバグがあった時に修正するのに作り直しが必要だから莫大な費用が
かかるし、8ビットパソコンの64KBという限られたメモリ空間を有効活用する上でも
クリーンコンピュータは有用だったにょ。
しかし、半導体の価格低下やバンク切り替えで64KBがフルに使えるようになってからは
起動が遅いというデメリットだけが目立ちクリーンコンピュータというのはアドバンテージ
ではなくなったにょ。

それでも、高速、ハイスペック指向の人にX1やMZは受け入れられたにょ。(X1といえば
PCエンジンが合体した「X1twin」という変わり者があるけど光センサー液晶を搭載のNJ70B
にはDS機能を内蔵したら話題性だけはもっと出たと思う。シャープはスーパーファミコン
内蔵TVやツインファミコンで任天堂と共同開発した経験もあるし。)
MZ-2500はFM-77AVなどと並んで最強スペックの8ビットパソコンだったからね。
それと比べたら当時はシェアだけ大きかったPC-88シリーズはスペック面では見劣り
していたにょ。
とはいえ、今のWindows PCのように基本アーキテクチャは同じで細かい違いはOSやドライバ
によって吸収され異なるメーカー間でも同一アプリが動作するというものではなくメーカー
単位、機種単位で動作するアプリが異なっていたため「シェア」というのは非常に大きな
武器となっていたにょ。
いくらMZ-2500は最強でもアプリが少なかったからね。

ハイエンドだけではなくローエンドではMZ-1500にクイックディスクを採用したけどFDが
高価だった当時カセットテープよりも圧倒的に高速でFDよりも安価というのは大きな武器
だったにょ。
このクイックディスクはファミコンのディスクシステムにも採用されている(形状が若干
異なるので相互の互換性はない)ので馴染みのある人も多いのではないかと思うにょ。
このクイックディスクはポケコン用の「ポケットディスク」としても使われているにょ。
こちらはサイズが全く異なるけど原理はクイックディスクそのものにょ。
クイックディスクは安価だったけど両面で128KBしか記録できないとか、ランダムアクセスが
できずシーケンシャルアクセスしかできない(これによって動作が単純化されているため
ドライブが安価に製造できたわけだけど)とかいう問題があったからね。
そのような問題に加えてFDの低価格化が進みクイックディスクは短命となったにょ。
ファミコンのディスクシステムも両面で約1Mbitという大容量だったのがウリの1つだった
けど容量はすぐにROMカートリッジに抜かれてしまったからね。(書き換えの安さがあった
ため長らく書き換えサービスは続いていたけど)

80年代後半には8ビットパソコンは衰退し、時代は16ビットへと向かったにょ。
16ビットといえば国内ではPC-98シリーズのシェアが圧倒的だったにょ。(シャープも
エミュレーションによって一部のPC-98ソフトが使えるMZ-2861を作っていた)
しかし、海外ではIBMがPC-ATが仕様を公開しAT互換機が圧倒していたにょ。
個人・法人ともに人気が高かったPC-98のNEC、FM-Rの富士通(個人向けにはFM TOWNSが
発売された)、そして独自日本語化でAT互換機を作った東芝を除いた国内電器メーカー
数社が共同してAXパソコンを作ったにょ。
もちろんその中にはシャープは含まれていたにょ。
AXパソコンはデフォで日本語表示ができないAT互換機に漢字ROMを搭載することで高速な
日本語表示を可能にしたにょ。
しかし、PCの高速化によって漢字ROM無しでも日本語表示が可能なDOS/V登場によって
AXパソコンはそのアドバンテージを失ってしまったにょ。

Win3.1登場によって国内のPCもWindowsが主流になったにょ。
Win95以降一気にWindows PCは普及して最大シェアを誇っていたPC-98でさえもAT互換機へと
歩み寄り98NXでほぼ「AT互換機」といっていい仕様になり現在に至っているにょ。
シャープは法人向けではなく個人向けではX68000シリーズが一部のマニア層を中心として
絶大な支持があった(主にビジネス用途を考慮されているためグラフィック、サウンドが
貧弱なPC-98と比べて「最強の16ビットパソコン」と言っても良かった)けどこれも
Windowsの普及によって完全に駆逐されたにょ。(パワーユーザーの手による拡張カードが
登場するなど近年まで根強い人気があった)

Windowsが普及してからは一気に低価格化が進んだにょ。
「液晶のシャープ」というのを武器にノートPCでは一時期はそれなりのシェアを誇って
いたけどPCの価格下落によって高価な高性能液晶をPCに搭載することはできないので
シャープのPCだから液晶品質に優れるということは無かったにょ。
シャープが注力したのは非Intel製のCPUにょ。
やはり、コスト面を考えるとAMDなどの互換CPUを搭載した方が有利だからね。
モバイルにおいてはCrusoeが登場し、Intelの牙城を崩しつつあったけどその後継である
Efficeonは思うように供給されずシャープのMURAMASAシリーズで搭載された程度で終焉して
しまったにょ。
Crusoe対抗で出したULV PenIIIに続いて登場したULV PenMによってEfficeonは完全に
とどめを刺されたからね。

低価格化のために非Intel製CPUを積極採用していったシャープだけどCPU供給問題が起きて
しまったにょ。(IntelのCPUを一定割合以上使用するように指示する内容だけどこれは
後にIntelの独占禁止法違反であると明らかになった)
シャープのPCシェアは落ちる一方で大ヒットのネットブックでシェア回復を狙ったけど
これも冒頭に書いたように失敗に終わったからね。
「価格競争ができない」「付加価値を付けて高価格でも売れない」というのであれば
撤退するしかないにょ。

シェアを見るとシャープは現在は0.3%で16位のメーカーだし、生産を打ち切る前の2008年の
時点でさえ1.6%で11位のメーカーだからね。
http://www.asahi.com/digital/bcnnews/BCN201010220012.html
Panasonicもシェアは大したことがないけどモバイルに特化することで生き残りをかけて
いる(モバイルノートでは国内シェアNo.1)わけだし、それには法人向けでは高い支持を
得ているというのが大きいにょ。(モバイルに特化し、法人向け需要がある限りは
Panasonicは当分安泰といえる・・・とはいえ、J9の登場を見ると法人需要だけでPC部門を
維持するのは難しくなってきていると言えるかもしれない)
シャープにはその「強み」が無かったのが原因にょ。
圧倒的なブランド力や薄利多売に耐えられる資本力や販売ルートがない上に一芸に秀でて
いる(数%の人からは絶大な支持がある)というわけでも無ければ生き残りができなくて
当然にょ。

412御茶目菜子:2010/10/24(日) 14:12:15
MacBook AirはMac版ネットブックなのか・・・?
先日発表&発売されたMacBook Airだけどすでに購入しているという人も多いのではないか
と思うにょ。
http://www.gizmodo.jp/2010/10/11macbook_airno.html
公称5時間というバッテリ駆動時間に不安を抱く人も中にはいるかもしれないけど無線LAN
ON、バックライト最大で動画再生を行い3時間33分持てば立派にょ。
これは10月21日にも書いたように丸形セルで4セル相当の容量になる35Whのバッテリを搭載
しているためにょ。
国内メーカー製PCで動画再生を行った場合大抵の場合は公称値の半分も駆動しないにょ。
したがって、もしも国内で標準となっているJEITA測定法でMacbook Airを測定したら最低
7時間以上になると思われるにょ。
4セルバッテリ搭載のモバイルノートであれば7〜9時間駆動だからMacbook Airもそれと
同レベルであると推測されるにょ。

では、今回は以下の2点について考えてみるにょ。
(1)MacBook Airの立ち位置
(2)MacBook Airの後継

(1)このMacBook Airを見てMac版ネットブックと考える人があるかもしれないにょ。
「ジョブズはiPadを出した時にネットブックを批判していたくせにそれと同じようなものを
出すとは嘘つきだ」と言っている人もいるくらいにょ。
しかし、それは正しくないにょ。
http://av.watch.impress.co.jp/docs/series/rt/20100128_345358.html
見てのようにジョブズ氏がネットブックを批判していたのは「安いPCでしかない」という
ことにょ。
最新のOSを動作させるのに十分な性能がなく二世代前のOS(XP)を使っているわけだし
HD動画も満足に再生できない(スペック不足&液晶の性能不足)わけだからね。
ネットブックに搭載されているのがPC用のWindowsであるため普通のPCと同じものを
ユーザーが求めてしまう(アプリも普通のPC用と同じである)ということでスペック不足が
否めないにょ。

CPU性能だけを見ればULV PenMと同レベルであるため6〜7年前のモバイルノートPC、8〜9年
前の据え置き型ノートPCと同レベルでしかなく速度面に不満があって当然にょ。
体感に影響するHDDが現行品であるということと新品であるため保証の面で有利という
アドバンテージを考えなければ1万円程度で購入可能なSonoma世代のモバイルノートの
中古の方が価格面でも性能面でも有利になるにょ。(実際私はネットブックが発売されて
からPenMノートを買ったし)
ULV版Core2Duoを搭載のMacBook Airで最新のMacOSが快適に動作するかは私には分からない
けどWin7 64bit版と同程度であればCPU、GPU性能は問題なくメモリだけはデフォの2GBでは
やや心許ないというレベルだと思われるにょ。

MacBook Airの11.6インチモデルに搭載のCore2Duo SU9400がAtomと比べてどの程度の
差があるかということを見てみるにょ。
Atomに関しては9月14日に書いたLaVie Light BL550/C(Atom N550、1.50GHz)、 Eee PC
T101MT(Atom N450 、1.66GHz)、Core2Duo SU9400は機種は異なるけど下記リンク先の
レビューのEndeavor NA501Eから転載するにょ。
http://pc.watch.impress.co.jp/docs/column/hothot/20100128_345149.html

        LaVie Light BL550/C Eee PC T101MT    Endeavor NA501E
        Atom N550 (1.5GHz)  Atom N450 (1.66GHz) Core2Duo SU9400(1.4GHz)
 ◎PCMark05
   PCMark Score     1767         1617         3404
   CPU Score       1665         1420         3632
   Memory Score     2174         2419         3657
   Graphics Score     542         528         1495
   HDD Score       3630         4933         5712
 ◎FINAL FANTASY XI Bench 3
   LOW          1074         1250         2615

これを見てみるとAtomとの性能差は一目瞭然にょ。
PCMark05のCPUスコア(マルチスレッド処理を含んだ実アプリ性能)を見るとCPUシングル
コアであるN450と比べて2.6倍、デュアルコアであるN550と比べても2.2倍のスコア
だからね。(ちなみにCore Solo 1.2GHzで1900程度のスコアになるためシングルコアAtom
より3割程度高い性能となる)
シングルスレッド性能の指標になるFFベンチ(LOW)のスコアを見るとシングルコアの
N450と比べて2.1倍、デュアルコアだけどクロックが低いN550と比べると2.4倍となって
いるにょ。

一般的に3割程度の性能差があれば体感可能であるため2倍を超える性能差があるAtomと
ULV版Core2Duoは体感速度で別格といえるにょ。
もっとも元が快適な状態からであれば3割程度の性能差は体感できない(ゲームでいえば
60fpsと78fpsは体感できない)ということでAtomで十分に快適動作が可能なことしかしない
というのであれば体感差は得られないけど旧世代のOSであるXPであってもAtomより上だと
体感できないかというとそうではないからね。

SU9400のさらに2倍以上のスコアとなると通常電圧版のCore i7が必要になるにょ。
9月29日に書いたJ9の直販モデルで選択できるCore i7-640M(2.8GHz)のCPUスコアは8622
でありSU9400の2.4倍のスコアとなっているにょ。
したがって、「MacBook Airはネットブックと変わらない(=AtomとSU9400が大した差では
ない)」というのであればノートPC用としては最高レベルの性能である「Core i7でも
SU9400と大した差ではない」ということが言えることになるため正しくないということが
分かると思うにょ。
ちなみにCULVノートで用いられているSU2300(1.2GHz)は3000程度のスコアだからそれ
よりも2割程度性能が高いといえるにょ。

実はネットブックと性能面で大きな差があるのはCPUはなくむしろGPUの方にょ。
初期の頃のネットブックはチップセットである945GSEに内蔵のGMA950であり、現行の
ネットブックはCPUに内蔵のGMA3150がGPUになるわけだけどこれらは極めて性能が低い
からね。
それに引き替えMacBook Airに搭載されているのはGeForce 320Mにょ。
これは統合型チップセットということでチップセットに内蔵されたGPUだけどIntelの
ものとは比べ物にならないくらい高性能にょ。

GMAとGeForceの違いが最もよく分かるのはN10Jcにょ。
これは旧世代のAtom N270+945GSEと言う構成のネットブックだけど別途PCI-E(1x)で
接続されたGeForce 9300MGSを搭載しているからね。
この9300M GSはSP数が8という当時としても最下位に位置するGPUだけど3DMark06のスコア
(1024x600)は1574でありこれは945GSEに内蔵のGMA950のスコア89と比べると18倍の
スコアになるにょ。
http://journal.mycom.co.jp/articles/2009/02/17/n10jc/002.html
9300M GSは単体GPUとしては最低ランクであるためこれが別格の性能というわけではなく
単に945GSEの性能が低い(Napa世代の標準的なノートPCが同じGMA950を搭載しているけど
400MHzで動作しているのに対して945GSEでは133MHzであるというのが大きい)という
だけにすぎないにょ。

現行Atom(PineView)に内蔵のGMA3150は名称はGMA950と大きく異なるけど中身は単に
GMA950を1.5倍速の200MHzで動作させているだけである模様にょ。
だからGPU性能も1.5倍にょ。
http://pc.watch.impress.co.jp/docs/topic/feature/20100106_340674.html
上記レビューでは3DMark06のスコアは154となっておりこれはN10JcのGMA950と比べると
1.7倍のスコアだけど解像度が800x600でありN10Jcの1024x600よりも低いのが原因だと
思われるにょ。

では、MacBook Airに搭載のGeForce 320Mがどの程度の性能か・・・となると国内メーカー
で採用された機種がないため海外のベンチサイトを見てみるとGeForce 320Mを搭載機種の
3DMark06のスコア(XGA)の平均値は4508となっているにょ。
http://www.notebookcheck.net/NVIDIA-GeForce-320M.28701.0.html
ネットブックの1.6倍の解像度で測定しても30倍近い性能でありこれを「同レベル」と
見なす人はまず居ないと思うにょ。

その桁違いの性能差に加えてHD動画の再生支援機能の有無の差もあるからね。
特にCPUパワー不足のネットブックにおいてはこれは非常に辛いにょ。
工夫をすれば720pの動画は再生できるもののYouTubeの動画だと一旦ローカルに保存する
必要がある(FlashプレイヤーはCPU負荷が大きすぎてまともに見れない)わけだし
その動画を軽いプレイヤーソフトと軽いコーデックを入れてようやく見れるようになる
わけであり、ある程度の知識がないと「ネットブックは使い物にならない」という認識が
生まれてくるにょ。
CPU性能がネットブックより低いiPad(Core2Duo 1.4GHzの5分の1以下の性能)であっても
YouTubeであればYouTube再生アプリを用いればGPUに内蔵された再生支援機能によって何も
考えなくてもコマ落ち無く720pの動画が再生出来てしまうにょ。

とはいえ、これはネットブックが別格に性能が低いということ(単に安いPCである)と
いうだけにすぎないにょ。
ネットブックと通常のノートPCの間を埋めるものとして登場したCULVノートがあるからね。
スペックから考えるとMacBook AirのライバルはネットブックではなくCULVノートである
ということは一目瞭然にょ。
CPUもCULVノートと同じもの(とはいえ一世代前の上位モデル)が採用されているわけ
だからね。
スペック的に異なるのはやはりGPUにょ。
一世代前のCULVノートのチップセットであるGS45に内蔵のGMA X4500、現行(Arrandale
ベース)のCULVノートのCPUに内蔵のIntel HD GraphicsはともにHD動画の再生支援機能を
持っているにょ。(その再生支援性能には差はあるけど)
したがって、やはり差があるとすればGPUそのものの性能にょ。

ベンチマークなどの情報サイトである蹴茶によると3DMark06のスコア(XGA)のベンチ
平均はGS45で683、Intel HD Graphicsで1516となっているにょ。
http://kettya.com/notebook2/gpu_ranking_mark06.htm
そうなるとMacBook Airの(3DMark06における)GPU性能は一世代前のCULVノートと比べて
6.6倍、最新のCULVノートと比べて3倍の性能といえるにょ。
これでも非常に大きいけど実ゲームではこれ以上の差になるにょ。
というのもIntelの場合はCPUでエミュレーションしている部分があるためCPU性能が
あまり影響しないベンチでは高スコアが出るけどそうでない場合はCPUにパワーを奪われる
ためにスコアがダウンしてしまうにょ。
CPU性能のシングルスレッド性能の指標と考えているFFベンチのLOWでもAtom N270搭載の
N10Jcは1400程度のスコアだけど同じCPUでGeForce 9300M GSでは2000を超えるからね。
945GSEでもOCすればリニアにクロックに比例してスコアが伸びるためGPUがボトルネック
というわけではないのが分かるにょ。

まとめるとMacBook Airのライバルは性能的に考えてネットブックではなくCULVノート
だけどそのCULVノートよりもGPU性能が圧倒的に高いというアドバンテージがあるという
ことが言えるわけにょ。
さらに最厚部で17mmという薄さに加えて平均的なCULVノートより400〜500g程度軽量、
標準で64GBのSSDを搭載しているというアドバンテージがあるにょ。
その分、平均的なCULVノートよりは高価だけど性能差を考えればむしろ安いくらいにょ。
CPU性能だけを見るとライバルはCULVノートだけどサイズ、重量、性能、価格を考えると
ライバルは存在しないにょ。
サイズ的には同クラスでGPU性能が高いAlienware M11xはMacBook Airの約2倍の重量だしね。

(2)MacBook Airを見て旧世代であるCore2Duoを搭載ということをネックと考えている人も
少なくないにょ。
また、「安いのは旧世代の投げ売りCPUのお陰」と考えている人もいるにょ。
しかし、それは正しくはないにょ。
というのも、TDPの問題で現在のArrandaleベースのCPUは搭載が難しいからにょ。
確かにULV版のCore2DuoのTDPは10Wだから現行のArrandaleベースのULV版CPUの18Wよりも
低いけどArrandaleはGPUやメモコンなどノースブリッジの機能を内蔵しているためそれを
考えるとシステム全体のTDPでは両者に差はないにょ。
それでなぜ差が生まれるかというと合計TDPはIntelの統合型のGPU使用することを前提と
して考えているからにょ。

ArrandaleベースのGPUにGeForceを搭載するとなるとCPUにノースブリッジ機能が内蔵
されているため統合型チップセットのGPUではなく単体GPUを搭載する必要性があるにょ。
そのため単純に単体GPUのTDPの分だけ増えてしまうにょ。
またその分だけ単純にコストアップに繋がるにょ。
あの価格や薄さが実現できたのは単体GPU搭載ではなく統合型チップセットのお陰だけど
それはArrandaleベースのCPUでは極めて難しくなってしまうにょ。

では、次世代のSandyBrigeではどうなのか・・・?
確かに省電力にはなるけどこれは全体的な消費電力を抑えているのではなく電力管理の
進歩やアイドル時の消費電力低減によって実現されるためTDPは変わらないと思われるにょ。
したがって、現行のArrandaleベースのCPUに単体GPUを搭載するのと設計面やコストで
変化はないにょ。
しかし、SandyBrigeではGPUの大幅な高性能化が見込まれているにょ。
これならば単体GPUは不要になるかもしれないけどそれでもSandyBrigeに内蔵のGPUが
GeForce 320Mより性能で劣る可能性の方が高いにょ。

そうなると「多少性能が劣ってもそれが許せるかどうか」という問題になるにょ。
すでにMacBook Airは従来機よりもクロックが低い1.4GHzを搭載という低性能化を行って
いるからそれと同じことだという人もいるかもしれないにょ。
しかし、これは正しくないにょ。
11.6インチMacBook Airにおいては「従来機」なんていうものが存在してないからね。
MacBook Airの11.6インチモデルは新設されたものにょ。(12インチクラスのMacは久しく
登場した)
これは、(ネットブック登場によって)「Windows PCは大幅な低性能化を行った」と言う
ことと同じようなものであり、それが正しいかどうかを考えれば分かるのではないかと
思うにょ。
ネットブックは従来機種より低性能になったのではなくローエンドPCの更に下に新しく
できたジャンルだからね。
そのネットブック内であれば性能の上下を比較することに意味はあるにょ。

せめてサイズや価格のレンジが同じでないと比較する(従来機よりもアップしたとか
ダウンしたとかいう比較)ということには意味を持たないにょ。
つまり、Intel製CPUを使う限りは次世代のMacBook Airはサイズアップや価格アップは
避けることができないということになるにょ。
AMDはIntelのSandyBrigeよりも遙かに高性能なGPUを内蔵のLlanoを予定しているけど来年
半ば降の出荷予定でありすでに度重なる延期が行われてきたということを考えると供給面の
不安がありAMDに乗り換えるのは難しいにょ。
したがって、来年新モデルが登場するとしても「高価格化、かつ、サイズアップ」もしくは
「GPU性能ダウン」の二択が迫られるけど恐らく前者ではなく後者を選ぶのは確実だろう
から「性能が高くなるであろう次モデルを買う」と考えている人は注意した方が良いかも
しれないにょ。


MacBook Airは初代機は高価だし、拡張性はUSB1つだけという問題点があり「薄い」という
ことと「Macの割りには軽い」というメリットしかなかったにょ。
それがこの度の新型MacBook Airは11.6インチモデルの追加に加えて大幅な価格ダウンと
ギリギリ妥協できるレベルの拡張性が確保(USBポートが2つに増えた)されたという
ことでお買い得感は飛躍的に高まったにょ。
これと競合するのはCPU的にはCULVノートだけどGPU性能や薄さ、軽さでは圧倒的な
アドバンテージがあり、まさに孤高の存在と言っていいかもしれないにょ。
こうして見ると「Mac版ネットブック」と考えるのは明かな間違いであるということが
よく分かると思うにょ。
ネットブックは安さを追求し、価格を抑えるため凡庸な仕様となっているわけだしね。

413御茶目菜子:2010/10/25(月) 13:31:51
そろそろ7に移行しなイカ?
10月22日はWindows7が発売されて1周年だったゲソ。
1周年イベントも行われたけど1年間で2億4000万本の売り上げということで侵略・・・
もとい普及も順調に進んでいるゲソ。
http://pc.watch.impress.co.jp/docs/news/event/20101025_402409.html
要するに「そろそろ7に移行しなイカ?」ということゲソ。
http://akiba-pc.watch.impress.co.jp/hotline/20101023/image/ssevb1.html

先日、3TBのHDDも外付けではなく単体での出荷が開始されたゲソ。
http://pc.watch.impress.co.jp/docs/news/20101020_401166.html
10月9日に書いたように3TBのHDDをまともに使うにはVistaか7が必須になるゲソ。
ブート用として使うならばVistaや7であっても64bit版が必須だしEFI搭載マザーのPCが
必要になるけどXPの場合はデータ用としても2TB超は使えないからね。
データ用であればVista、7であれば何の問題もなく3TBのHDDは使用できるゲソ。
セクタサイズが物理4KBとはいえ論理512BであるためXPでも使用は可能だけど3TBのHDDを
約2.2TB(←「1K=1024」で丁度2TB)として使う必要があるゲソ。
ブート用、データ用と2基のHDDを内蔵できるデスクトップPCであれば特に問題はないけど
1基しか内蔵できないノートPCの場合は「ブート用として使えない=使用ができない」
という問題があるゲソ。

現在の2.5インチHDDの最大容量は750GBゲソ。
年率30%で容量アップすると計算した場合には5年後に2TBを超えてしまうゲソ。
だからそれまでにノートPCにおいてEFIと64bitOSが普及する必要があるのではなイカ?
64bitOSは普及しそうだけどEFIの普及は厳しいゲソ。
これはXPの互換性を捨てる(論理512Bセクタをやめる)ことで2TB制限が16TB制限になる
ため期間を伸ばすことは可能ゲソ。
年率30%であれば2.5インチHDDが16TBを超えるのは13年後となるゲソ。
別の方法としてはSSDのコストさえ安くなればブート用に128〜256GBのSSDを内蔵して
2TB超のHDDはデータ用として活用するという方法もあるゲソ。
SSDならば体積が小さいためノートPCであってもHDDと共存可能になるゲソ。
とはいえ、やはりHDDの大容量化を考えるとXPから7への移行をするべき時期になっている
のではなイカ?

しかし、どうしても諸事情でXPを使わないといけないという人もいるかもしれないゲソ。
そういう人には7proに搭載の「XPモード」を使うという手もあるゲソ。
とはいえ、これはただの「Virtual PC」にすぎないゲソ。
そのためVirtual PC上で動作しないソフトや周辺機器は使うことがでいないゲソ。
XPモードの唯一のメリットは「XPのライセンスが不要」ということゲソ。
普通にVirtual PCを使用すればVirtual PC上で動作するOSも別途ライセンスを用意する
必要があるからね。(「XPモード」は7proのライセンスでXPも使用可能になっている)

どうしても、「XPがインストールされたPC」が必要になるという人でPCが故障やスペック
不足で買い換えを余儀なくされてしまったという場合は10月10日に書いたように最後の
切り札であった「XP Homeを搭載のネットブック」「ダウングレードによってXP proを
プリインストールしたPC」は7発売1周年の10月22日以降販売終了になったため新品では
XPプリインストールPCを入手することはできなくなったゲソ。
うまく売れ残った在庫品を手に入れるという方法もあるけど時間が経つにつれそれも
厳しくなるゲソ。(最終手段は中古で購入だけど保証やサポート問題があるため万人向け
というわけではない)

ライセンスが有効なXPを持っていれば新規にPCを購入して自らXPを導入するという方法も
あるけどプリインストールのOS以外はメーカーサポートがないため完全に自己責任となる
わけだし、そもそもライセンスが余ってないという人も多いのではなイカ?
パッケージ版WindowsであればどのPCにもインストール可能であるためPCが故障した際に
別のPCで使い回しができるけどDSP版の場合は同時購入したパーツを使用しない限りは
ライセンスの問題があるゲソ。
HDDを同時に購入した場合、別のPCに乗り換えたらそのHDDを取り出して新しいPCでもOSと
同時に買ったHDDを使用しなくてはならないゲソ。
これが自作PCであれば内部に余裕があるため旧HDDを内蔵できるけどけどノートPCでは2基の
HDDを内蔵できる機種なんてほぼないゲソ。
最終手段としてはUSB接続で旧HDDを使用すれば問題ないゲソ。(USB接続した機器を含めて
1つのPCと見なすならば問題ないけどそれでもUSBから取り外した時点でライセンス違反と
なってしまう)

やはり、そこまでしてXPを使うならば素直にダウングレードを利用した方がいいゲソ。
ダウングレードはプリインストールの状態で出荷はできなくなったけどサービス自体は
7proのサポートが終了する2020年まで有効ゲソ。
したがって、ライセンスの有効・無効関係なくXP proのインストールディスク(ただし
正規品に限る)さえ持っていれば7proを購入することでXPを導入することが可能になるゲソ。
ただし、そのダウングレードはMSに直接電話をかけて手動アクティべーションをする必要が
あるためややハードルが高いゲソ。

それならばダウングレード代行サービスを使用しなイカ?
http://akiba-pc.watch.impress.co.jp/hotline/20101023/etc_ms2.html
個人でやれば無料であるため自分でOSをインストールするのが当たり前の自作ユーザーが
このようなサービスを利用することはないけどメーカー品やショップブランドなどで
OSを導入済みの出来合品しか買ったことがないという人であれば上記のようにダウン
グレードはややハードルが高いため8000円払う価値があるという人であれば利用するのも
ありではなイカ?

とはいえ、XP proのインストールディスクがないと話にならないゲソ。
ダウングレードの場合は正規品ディスクとプロダクトシールがあれば良いのでライセンス
自体は他のPCで使用していても問題ないゲソ。
そのため「正規品ディスク(+プロダクトシール)」をヤフオクなどで落札するという
方法もあるゲソ。
とはいえ、新しいPCの場合はXPのドライバ自体がない場合があるためXPを導入しても
一部機能が使えなかったり、まったく使い物にならない場合もあるため汎用パーツが
使用できる自作PC(ショップブランドPC)でない限りは厳しくなってきているゲソ。

現在XPを使っている人の大半は「XPでないと困る」というのではなく「XPで特に困って
ないから」ではなイカ?
これから新規にPCを導入するならば「XPでないと困る」という人でなければやはり7を
導入するのが一番ゲソ。
VistaもSP1、SP2と改善して悪くは無くなったけどサポート期間を考えるならば新規PCに
Vista導入はありえないゲソ。(ライセンスがあまったVistaを所持していてそれを活用
するという場合を除く)
特にVista Homeは現時点ではサポート期間終了がXPよりも早いからね。(XPが2014年4月に
対してVista Homeは2012年4月)
これが7であればHomeでも2015年1月、proならば2020年1月まで確定しているゲソ。

414御茶目菜子:2010/10/26(火) 14:17:28
PSP goの失敗はダウンロード販売のせいなのか・・・?
PSP goが16800円に値下げされたにょ。
http://game.watch.impress.co.jp/docs/news/20101025_402489.html
従来は26800円だったので一気に1万円値下げされたことになるにょ。
コンシューマゲーム機が量産効果で値下げされることは珍しくないけどPSP goは量産効果で
値下げされたというわけではないにょ。
というのも発売して1年経つけど累計販売台数は12万台程度だからね。
現行PSPは国内だけでも年間数100万台規模で売れているためこれは「極めて少ない」と
いえるにょ。
PSP goは初年度だけで100万台の販売予定だったため初回生産だけでも15万台あったにょ。
つまり、PSP goは未だに初回生産分が売れ残っているということになるにょ。
要するにこれは「量産効果で値下げ」ではなく「販売不振による値下げ」ということにょ。

では、なぜPSP goはそんなに売れなかったのか・・・?
PSP go販売によるそれぞれの立場からのメリット、デメリットを昨年6月5日に書いたにょ。

◎SCE
メリット・・・コピー対策、中古対策
デメリット・・サーバコスト

◎メーカー
メリット・・・コピー対策、中古対策、開発の敷居が下がる
デメリット・・販促問題、開発費回収問題

◎販売店
メリット・・・なし
デメリット・・中古というかソフト自体の取り扱いがなくなる

◎ユーザー
メリット・・・新作が安く買える、売り切れの心配がない
デメリット・・購入の敷居が高い、中古で売れない、貸し借りができない、所有感がない
       従来のUMDメディアのソフトがプレイできない、将来的サポートの不安

本体が売れるかどうかというのはユーザー側の考えが重要になるのでその点をもう少し
考えてみることにするにょ。

 ◎PSP goが売れなかった理由
 (1)本体が高価
 (2)ソフトが高価
 (3)プレイしたいソフトがない

(1)まずは価格の面を再検証してみるにょ。
PSP goが発表された時の通常のPSP(PSPー3000)の価格は19800円だったにょ。
その差は7000円にょ。
16GBのフラッシュメモリを内蔵ということでその価格を考えれば妥当という金額だった
けれどPSP goが発売開始される前にPSP-3000は16800円に値下げされたためその差は
1万円になったにょ。
16GBのメモステDuoは普通に買えば純正品は1万円程度だから1万円差はおかしくないという
考えもあるけど安い店だと純正でも32GBが1万円で買えてしまうし、16GBは非純正だと
5000円以下だからね。
「妥当」ではなく明らかに割高感があるにょ。

またPSP goでは採用されているのがM2(メモリースティックマイクロ)にょ。
発売当初は同一容量だとDuoと比べて2倍近い価格差があり割高感が否めなかったけど
今はDuoより少し高価というレベルになっているにょ。
それでも16GBで足りない使い方をすればメディア分の差額がどんどん上乗せになっていく
ためさらに割高感が加速していくにょ。
「16GB余るくらい」というならば通常のPSPに8GBのDuoを買う方が圧倒的に安いにょ。
したがって、どんな使い方をしようが本体価格が高価であるというのを覆すことはでき
ないといえるにょ。

(2)PSPではパッケージ版で発売されているゲームのダウンロード販売を行っているけど
価格を見ると概ねパッケージ版ソフトの定価の2割引程度となっているにょ。
税込定価5040円のゲームであれば3980円程度が基本となるにょ。
計算しやすいように定価5000円、販売価格4000円として考えるにょ。
一般的な店頭価格では10〜15%引きが普通だから定価5000円のゲームの場合は4250〜
4500円となるにょ。
こうしてみるとダウンロード販売の方が安いというイメージがあるかもしれないけど
再販制度のある書籍とは異なりゲームソフトは価格がどんどん変わっていくにょ。
つまり、発売当初のみダウンロード販売の方が安いけどそれもすぐに逆転してしまう
ことになるわけにょ。

それならばダウンロード販売も徐々に価格を下げていけば良いということになるけど
なかなかそういうわけにはいかないにょ。
返品制度のないゲームソフトの場合はメーカーは出荷してしまえばそれで店頭価格が
いくらであろうと一定の割合(機種、メーカーによるけど定価の75〜80%)で売り上げが
期待できるけどダウンロード販売で値下げを行えば売り上げ金額減少を招いてしまう
からね。
あと過度の価格下落は小売りへの納品金額と大きなギャップを産んでしまうことになる
ためなかなかできないというのもあるにょ。
パッケージで廉価版(ベスト版)が発売されたソフトであればダウンロード販売でも
それに合わせて値下げは可能だけどそうでない場合はなかなかできないというのが現状
だと思われるにょ。

また、パッケージソフトの場合は、ユーザーからすると中古があるというのが大きいにょ。
中古があるということはそれを安く買うことも出来るし、新品ソフトを買う時も中古を
買取してソフト購入の一部に充てることができるからね。
人気ソフトの場合は定価5000円のソフトの買取は3000円〜3500円になるにょ。
4500円で新品ソフトを買い3500円で売れば実質1000円で新作ソフトをプレイ可能になる
ということがいえるにょ。

それに実態のないデータに約4000円も払えるという人自体がそれほど多くないというのも
ありそうにょ。
昨年6月5日に書いたようにPSP用のソフトを使用するには認証が必要になるにょ。
このためゲームをダウンロード購入してもその所有権があるというだけであって使用権が
保証されているわけではないにょ。
どういうことかというとアカウントを失った場合には認証ができないし、将来SCEがゲーム
事業から撤退した場合にも使用できなくなるということにょ。
これがパッケージ版であれば壊れない限りは使い続けることができるという安心感が
あるからね。

(3)これはさらに2つに細分化されるにょ。
1つはすべてのPSP用ソフトがダウンロード販売されているわけではないということともう
1つは手持ちのUMDソフトがプレイできないということにょ。
PSP go発売以降はSCEのゲームはほぼすべてパッケージ版とダウンロード版の両方が用意
されるようになったけどサードパーティ製のゲームはまだまだだからね。
そして、少し古めとなるとSCEでも用意されてないものがありサードパーティのものは
ほとんど壊滅にょ。

また、PSP goが初めてのPSPなら問題ないけどすでにUMDソフトを複数持っていた場合に
それが使えないというのが難点になるにょ。
これは例えるならばDSiが発売されたときに「従来機と互換性はあるけどカートリッジと
形状を変えたので今までに発売されたゲームが欲しい人は新しく買い直してね」という
のと変わらないにょ。
すでに持っているゲームを買い直すことに何の抵抗もない人ならいいけど大半の人は
「互換性があるのに使えない」というのに大きな不満を感じると思うにょ。
その上従来ソフトはすべて新型カートリッジで発売されているわけではないというので
あればなおさらにょ。
そうなるとユーザーに残された選択肢は「そんな本体は買わない」ということにょ。


さて、今回の値下げによって(1)の問題点は改善されたものの(2)、(3)が改善されたわけ
ではないからPSP goが主軸になることはありえないにょ。
値下げによって小型軽量を活かしてPSPをすでに持っている人が2台目用として買うのは
ありにはなったけどね。
例えるならば据え置きノートPCを持っている人がネットブックを買うような感覚にょ。

PSP goは今後発売されるであろうPSP2の試金石として投入されたのは間違いないにょ。
しかし、「新世代の機種として発売し従来機と一部互換性がある」というのであれば許容
できるかもしれないけど上記「DSと(架空の)DSiの例」のように同じ世代のゲーム機で
あっても使えないというのはユーザーの大きな不満が大きく不買になるのは最初から目に
見えていたことにょ。
したがって、「試金石」として見て考えた場合でも何の参考にもならないにょ。
これを鵜呑みにすればダウンロード販売は(少なくとも現時点では)失敗するという
ことになるからね。

しかし、スマートフォンではそれが普通になっているにょ。
ネットに繋がっていることが前提のスマートフォンではダウンロード販売のハードルが
低いからといえばそれまでだけど「ダウンロード販売だから売れない」というのではなく
他の理由もあるにょ。
いくらiPhone用アプリが売れているといっても中心価格帯は1000円以下にょ。
パッケージ版ソフトであれば5000円のゲームでミリオンセラーに達するものは年間に
何タイトルも発売されている(ポケモンBWもすでに400万本超えている)けれどダウン
ロード販売でこの価格帯でそこまで売れたタイトルは過去にないからね。
それがパッケージ版とダウンロード販売におけるユーザーの認識の差にょ。

しかし、これはデータに対して大金(4000円程度)を払うのが嫌というわけではないにょ。
アイテム課金のMMOやソーシャルゲームのように1回に支払う金額は少なくてもそのゲームを
プレイするのにかかった総額で考えると1万円単位になる場合が実際にあるわけだからね。
要するにそのゲームが面白ければ投資するのは惜しくはないけど買う前に面白いかどうか
判断ができないのがゲームの怖いところにょ。
これはPSPだと体験版のダウンロードを積極的に行っていることで克服できているにょ。
体験版で100万ダウンロードの大人気ということでそれがパッケージ版ソフトの販売数を
大きく底上げした(前人気と比べて販売数が予想を超えたため発売当初はずっと売り切れ
状態だった)けれどダウンロード販売の底上げに繋がったかというと微妙にょ。

ダウンロード販売を主軸に考えているなら今こそ「@barai方式」復活の時にょ。
これはどういうものかというとかつて販売されたドリキャス用ソフト「エターナル
アルカディア」の場合は通常版が6800円のところ@barai版は1000円だったにょ。
ある程度プレイして続きをプレイしたい場合はキーを有料ダウンロードすることで最後まで
プレイできるようになるにょ。

ただ、この@baraiは販売店からもユーザーからも嫌われたにょ。
というのも店側は@barai版のゲームは定価1000円のゲームを売るのと同じだけしか
利益が得られないからにょ。
同じ本数売れるとすれば定価6800円のゲームの方がいいのは明確にょ。
ユーザー側からは@barai版は中古で売れない(買い取って貰えない)というのがネックに
なるにょ。
パッケージソフトの最大のメリットである売買によって少ない金額でプレイ可能になる
ということができないため@barai方式は全く普及しなかったにょ。

しかし、ダウンロード販売で導入するならば店側にとっても不利益はなくユーザー側も
ダウンロード販売だと元々実体のないデータだから中古で売れないのはデメリットでは
なくなるにょ。
失敗した@barai方式がダウンロード販売では成功すると考える理由は下記の2つにょ。

 (a)ダウンロード版ソフトを購入するユーザーのネット利用率は100%
 (b)キー購入ができなくなるリスクが少ない

(a)ネットなんてほぼすべての家庭に普及しているけど問題はネット接続だけではなく
課金方法にもあるにょ。
ケータイがアプリなどのコンテンツ販売で成功しているのはキャリアが代金を一括請求
しているからだしね。
しかし、ダウンロード販売を利用しているユーザーであれば最もハードルが高いその
課金問題をすべてのユーザーがクリアしているにょ。

(b)@barai方式では続きをプレイするために認証キーを購入しないといけないけどその
販売は一定期間で終了してしまうということにょ。
http://game.watch.impress.co.jp/docs/20020107/atbarai.htm
メーカー側もサーバ維持費がタダではないためやむを得ないことにょ。
これはダウンロード販売の場合は上記(2)で書いたようにパッケージ版と比べてネックに
なっている部分だけど@barai方式はダウンロード販売で導入した場合はすべてのソフトで
導入可能であるためSCEが撤退するまでは続けられる可能性が高くなるにょ。

また、@barai方式は最初1000円で残りが全額という組み合わせだけではなく細かく設定
することでより多くのユーザーに受け入れられるようになると思われるにょ。
RPGだと1章ごとの課金にしたり、アクションゲームであれば1ステージごとや1モードごと
ということもできるにょ。
ユーザーをそのゲームをプレイしてみて続きをプレイしたり、その別のモードをプレイ
したくならなければ追加購入しないという選択権を得られるわけにょ。
そうやって見ていくとアイテム課金とそれほど大差がないことが分かるにょ。
@barai方式はパッケージ販売では受け入れにくいビジネスモデルだったけどダウンロード
販売では抵抗が無くなるというのがこれで分かると思うにょ。

PSP goは誰の目から見ても「成功した」とはいえないにょ。
しかし、これには上記のような大きな理由がありダウンロード販売がユーザーに受け入れ
られなかったと単純に解釈するのは早計だということにょ。
PSP goそのものに問題があるし、ダウンロード販売においても現在のSCEのやり方は良い
ものとはいえないためそれらの問題が今後改善されていけば十分成功の可能性はあると
私は思うにょ。

415御茶目菜子:2010/10/27(水) 14:16:46
トリミングが許されるのは鳥撮りだけ・・・?
デジカメの画素数は依然として止まることがないにょ。
長らくAPS-Cサイズのセンサーでは1200万画素を維持していたニコンも新機種D3100で
1400万画素、D7000では1600万画素になったにょ。
キヤノンはすでに1800万画素だけど恐らく次の機種ではAPS-Cで2000万画素、フルサイズ
では3000万画素に達するのではないかと思われるにょ。
センサーの大きなデジタル一眼であればまだ一定以上の高解像力レンズを装着時には
ちゃんと細部まで解像するため無意味ではないけど解せないのはケータイのカメラの
画素数にょ。
1000万画素オーバーをしたと思ったら先日auから「Cyber-shotケータイS006」ではついに
1600万画素に達しているにょ。(レンズの解像力を考えると明らかに画素数が無駄に多い)

さて、この高画素化の背景には依然としてCPUでのクロック競争のように「画素数でしか
優劣を判断できない」という人が少なくないためだと思われるにょ。
「画素数が少ない方が良い」とも言えないけど画素数が多くなることによる弊害を考えると
「画素数が多い方が良い」とは一概に言えないのが現状だからにょ。
そんな高画素化のメリットの1つには「トリミングで有利」というものがあるにょ。
確かに十分な性能のレンズを装着していればトリミングに耐えられるけど果たしてそれが
本当に良いことなのか・・・?

「デジカメの撮影画像に対して、トリミングをすることがありますか?」
http://dc.watch.impress.co.jp/docs/enquete/20101026_402511.html
 する  ・・・・ 82.1%
 しない ・・・・ 17.9%

トリミングを「する」「しない」という二択アンケートであったため前提条件がないのが
やや問題だけど条件無しで「しない」と答えている人が17.9%もいることに驚きにょ。
というのも人によってこれはどのように答えるか受け止め方が異なるからにょ。
それを「普段から常用している」か「やむを得ない場合に使用したことがある」かという
のでは雲泥の差があるからにょ。

野鳥の撮影などでは600mmが「標準レンズ」と言われているにょ。(一般的な標準レンズは
50mm)
アップで撮ろうとすれば800mm、1000mm、もしくはそれ以上の超・超望遠レンズが必要に
なることも少なくないからにょ。
しかし、そのクラスのレンズは他の用途で使用する機会がないためそれ専門で撮影して
いる人でなければ購入は躊躇してしまうのではないかと思われるにょ。
そのためトリミングに頼るという人が居るのはやむを得ないにょ。(鳥撮りだけに
トリミングはありか・・・?)

しかし、それが普段でも当たり前となってしまうのは厄介にょ。
その被写体を撮影するのに十分なレンズがありながら「とりあえず広めに撮っておいて
後からトリミングすれば良い」というトリミング前提になってしまうと写真撮影の根底が
変わってくるからにょ。
「写真は引き算」という有名な言葉があるにょ。
これは何かというとメインとなる被写体(主題)を引き立てるためにそれ以外の何を
残すかということがフレーミング(構図)において重要になるということにょ。
いろいろ写りすぎて「何が主題なのか分からない」というのは失敗写真となってしまう
わけにょ。

銀塩時代はトリミングは自家暗室を持ってない人は利用する機会が少ないものだったと
思われるにょ。
デジカメの画素数が増え、PCのスペックアップもあって手軽に1000万画素クラスの写真
加工が可能になりそのハードルは大幅に下がったにょ。
したがって、「写真は引き算」という言葉は知っている人であっても撮った後に
「調整する」というのは自然な流れかもしれないにょ。
それにデジタル一眼の場合はプロ機や中級機の一部の機種を除き「視野率100%」でない
ためにシャッターを押す段階で注意していても自分の意図しないものが写り込んでいる
という場合も少なくないからね。
したがって、「調整レベル」のトリミングであればやむを得ないにょ。

しかし、「調整」を大きく超えるトリミングをしているならばそのときは問題にょ。
これは特定の人にプレゼントするためにその人がアップになるようにトリミングという
場合ではなくて「自分の作品」としてWebなどで発表する場合においてトリミング前提では
問題になるということにょ。
ここで「作品」というものに対する人それぞれの違いが出てくるにょ。

(a)シャッターを押した瞬間を捕らえることが重要だから「無加工」派
(b)感性によるものだから良くするためなら「加工は必要」派

この(a)(b)両者がお互い分かり合うことはあり得ないにょ。
(a)は自分撮る瞬間にいかにイメージに近い構図、露出、シャッター速度、絞りを調整
できるかが重要になるし(b)はいかにイメージに近いように加工できるかが重要になる
からにょ。
とはいえ、撮りたい被写体をいかに効果的に魅せるかという点では同じにょ。
そもそもデジカメの写真というもの自体が画像処理エンジンによって生成されるデータに
すぎない(設定によって発色だけでなくシャープさなどの面まで変更される)という
ことで(a)と(b)はカメラ内で自動的に加工されるか手動で行うかという違いでしかないにょ。
そもそも無加工派であってもRAW現像をする時点で色彩、明暗調整のレタッチを行うことに
なるわけだしね。

私は個人的には基本的には無加工派でありシャッターを押す時点で何を残し何を省略するか
(=「写真は引き算」)というのを考えながら撮影しているにょ。
技術が伴ってないため失敗作品も多いけどそれ故にきっちり決まった時の感激も大きいし
技術的な向上心も芽生えてくるにょ。
しかし、「調整」を超えるトリミング(写真を撮った後で何を引き立てさせるかを決める)
というの加工派、無加工派とはまったく別物にょ。

デジカメの進歩によって写真の知識はなくても誰でも簡単に一定レベルの写真が撮れる
ようになったにょ。
したがって、同じ被写体を撮影する場合はユーザーによって大きく変わるのは構図のみ
といっても過言ではないかもしれないにょ。
だからこそ、撮るときには主題や構図を大切にしたいにょ。(70年代は「一眼レフなのに
シャッターや絞りをカメラ任せにするプログラムAEは駄目なのか」というのが議論されて
いたのが懐かしい)
さすがに構図を自動で行うというのは現時点では無理だけど将来画像認識技術が飛躍的に
向上した場合には可能になるかもしれないにょ。
そうなったら、写真を撮ることがつまらなくなってしまうと感じるのは私だけではないと
思うにょ。
「記録写真」ではなく自分の意志が入った「作品」なわけだからね。

こう考えれば鳥撮りのように望遠側が足りないからトリミングでカバーするというのと
撮った後で主題を決めてトリミングするというのでは同じトリミングでも全く異なると
いうのが分かると思うにょ。
確かに後から行う場合でもカメラ任せやソフト任せではなく「自分の手でトリミング」を
するのだから「ユーザーの意志が入り込んでいる」かもしれないけど写真を撮る時の
わくわく感や上手く撮れた時の達成感はそれでは得られないからね。

416御茶目菜子:2010/10/28(木) 13:23:39
カセットは永遠に不滅・・・なのか!?
アニメ「けいおん!!」の劇中歌などを収録したアルバム「放課後ティータイムII」の
初回限定版を買ったにょ。
このCDはオリコンアルバムランキングで昨日現在のデイリー1位となっているにょ。
http://music.jp.msn.com/news/article.aspx?articleid=435617
私が買った初回限定版の方には何とカセットテープが付いているにょ。
これは劇中で実際に軽音部のメンバーが自分たちの音楽を収録するのに使ったカセットを
を再現したものということでファンにとっては心憎いアイテムといえるにょ。

ただ問題なのはカセットを再生する環境がない人が多いということにょ。
私も家の中を探せばどこかにまだ転がっているだろうけど何せここ10年カセットなんて
使ってないから例え見つかってもまともに使える保証はないにょ。
ホコリなどによってヘッドが痛んでいるという可能性もあるし機械的に稼働する部分は
定期的に使っていた方が調子を維持できるということで10年間動作させてないラジカセは
かなり厳しいのではないかと思われるにょ。

カセットといえば70年代〜80年代は必須アイテムだったにょ。
もちろん筆頭なのは音楽用にょ。
70年代は自宅にはレコードプレイヤー(というかステレオ一式)はあったけどお金に困って
売却したためカセットが唯一の音楽再生機器だったにょ。
当時小遣いで自分の欲しいシングル/アルバムのカセットを買うなんて出来なかった
ということでラジオの音楽番組をエアチェックしてそれを録音して自分だけのアルバムを
作っていたにょ。
70年代〜80年代学生だった人はそういう使い方をしている人は非常に多いと思われるにょ。

音楽だけではなくTV録音用にも使っていたにょ。
まだビデオデッキというものが自宅に無く(たとえあっても当時はテープも高くて買え
なかった)好きなTV番組はTVのスピーカーの前にラジカセをセッティングして録音して
いたにょ。
当然録音だけであるため映像はなくTVの音ではなく周囲の環境音も録音されるため
TV録音をするときは家族の同意が必要だったにょ(笑)

そして、欠かせないのがデータレコーダ用としての利用にょ。
8ビットパソコンやポケコンではプログラムの保存としてカセットテープを用いていた
からね。
しかし、300ボー(≒300bps)という速度しかサポートしていなかった古いポケコンは
2、3KBの自作プログラムをカセットに記録するだけで数分かかったにょ。
カセットに記録したものにはエラーがつきものなので照合も必要だったしね。
それでもデータレコーダさえない時は手書きでリストを残していたからそれと比べると
格段に速くて正確にょ(笑)

さて、そんな「カセットの天下」も長くは続かなかったにょ。
自宅にも80年代半ばにはビデオデッキが導入され、カセットでTV録音をする必要は無く
なったからね。
音楽用もCDラジカセの導入によってカセットはメイン媒体では無くなったにょ。
ポータブルCDプレイヤーなんて持って無かったし、予算的に音楽CDはよほど気に入ったもの
だけしか買えずレンタルが中心だったということでモバイルはカセットが中心だったけど
10年前からMP3プレイヤーに乗り換えたためそのモバイル環境もカセットでは無くなって
しまったにょ。

ポケコンも1988年に登場したPC-E500によって激変したにょ。
RAMファイル機能によってポケコンのメインメモリをFDやHDDのように記録用として使える
ようになったからね。
これによって1度に1つしか作成できず、新しいソフトを作る場合には泣く泣く本体メモリを
「NEW」で消去する必要があったという事態から回避されたにょ。

とはいえ、E500はメインメモリはポケコンとしては多い32KB(後に出たE550、E650でさえ
64KB)だけどそれは肥大化されたソフトでは簡単に埋まってしまったにょ。
E500は速度向上のため数値は内部で8バイトの十進数で記録(1桁の数値でも8バイト必要)
ということでBASICプログラムのメモリ効率が従来(PC-1350)比で約1〜2割悪くなった
(これは実際に私が1350用プログラムをE500に入れたときに感じた)というだけではなく
速度向上によってようやくBASICでまともにグラフィックを使ったゲームが作れるように
なったというのもそれに輪をかけて大きくしているにょ。

したがって、メモリがすぐに一杯になったけどこれはRAMカードでカバーしていたため
カセットで記録する機会はかなり減ってしまったにょ。(私は当初はグラフィックを
ふんだんに使ったゲームを作っていたけど途中からメモリ効率重視になったため本体
メモリ+RAMカード2枚でほぼ問題無くなった)
ただ、RAMカードもあくまでメモリであるため簡単にデータが壊れてしまい後に悲劇を
産んでしまったにょ。(数年間作り貯めたものをすべて失ってしまった)

私自身は音楽用ではここ10年間使ってないし、ポケコンの記録用でも2000年の夏コミで
販売したもの以来使ってないカセットだけどやはり世間でも需要が激減しているためか
先日ついに音楽カセットを使用したウォークマンが生産終了したにょ。
http://av.watch.impress.co.jp/docs/news/20101022_401936.html
需要を考えると今まで作っていた方がすごかったけどやはり今となってはカセットの
メリットはほとんど無くなってしまったからね。
ランダムアクセスができ、何百、何千曲も本体に収まるDAPが格安で手に入る時代である
ため少なくとも国内では過去の互換性を重視する人(最近の曲は聴かず昔ため込んだ
カセットのみを聴く人)、PCを持ってない(使い方が良く分からない)という人くらい
しか利用しないだろうからね。(MDという選択肢もあるけど普及台数が少ないし、市販
ソフトが供給されてないためカセットの完全代用にはならない)

そんな時代背景の中、現代が舞台の「けいおん!!」に出てくるメンバーが普通に録音用
としてカセットを選択したのは・・・これはあまり意味はなく単に部室に転がっていた
古いラジカセを利用したというだけなんだけどね(笑)
ハイテク機器(最新のデジカメやケータイ)が登場する反面、アナログ機器も活躍する
ということが「けいおん!!」の「ありふれているけど何となく懐かしい」という世界観を
構築しているかもしれないにょ。
iPodなどのDAPが音楽を聴く面では圧倒的に便利なのは間違いないけどカセットで音楽を
聴くというのもノスタルジーに浸れるため悪くはなさそうにょ。
まともに動作するかどうかは分からないけど今度自宅を捜索して使えそうなカセット
デッキ(ラジカセ等)を見つけ出してみることにするにょ。

417御茶目菜子:2010/10/29(金) 14:00:28
どんなゲームにもバグはある
アニメ「神のみぞ知るセカイ」の今週の放送はかなり酷い話みたいにょ。
酷いのはアニメそのものではなくそのアニメの中に登場したゲームの話にょ。
http://yunakiti.blog79.fc2.com/blog-entry-7040.html
2003年4月20日にはバグがないプログラムを一晩で作り上げたしーぽんのことを書いたけど
これはアニメであるというから「天才プログラマ」というのを強調するために作られた
話だといえるにょ。
「神のみぞ知るセカイ」に登場したゲーム「くれよん〜空の芸術〜」もアニメの中の話に
すぎないと考える人が多いことだと思うにょ。
バグのないプログラムを作り上げるというのはただの空想上の産物なのだけどバグが
ありまくりのゲームは実際に存在するから困るにょ。

基本的にプログラムにおいて「バグはあるもの」といっても過言ではないにょ。
バグがないことを証明はできないからね。
あることを証明するより無いことを証明する方が難しいためにょ。
無いことを証明するのは「悪魔の証明」と言われているけど上記の一晩でバグがない
プログラムを作ったしーぽんよりもそのプログラムにバグがないということをすぐに
見抜いた先生の方が遙かにすごい天才だといえるわけにょ(笑)

バグを修正する作業は「デバッグ」と言われるけどそれにはいくつかの工程があるにょ。

 (1)バグを見つける
 (2)バグの発生源を探す
 (3)バグの原因を特定する
 (4)原因を元にバグを修正する

(1)デバッグは多くの場合は力任せになってしまうにょ。
RPGだと1日中ひたすら壁にぶつかって抜けられるような場所がないかと調べたりしなくては
ならないため単純作業といえるにょ。
とはいえ、経験が豊富なデバッガーや天才デバッガー(天才テストプレイヤー)だとそれを
すぐに見抜いてしまうこともあるにょ。
レースゲームでも抜けられないはずのコースに「カン」で抜け道を探しコースアウト判定を
逃れるような抜け道を見つけるような人もいるからね。

(2)バグが見つかっても問題はどこで起きているのかということはすぐには分からないにょ。
BASICで作ったゲームであってもエラーが発生した場合にそのエラー発生行に問題がある
とは限らないにょ。
これも経験によってある程度絞り込みが可能になるにょ。
経験が無ければ二分探索によって少しずつ調べていくしかないため膨大な時間がかかって
しまうにょ。

(3)発生箇所が具体的に分かったら次はそうなるに至った原因を見つけ出すことが重要に
なるにょ。
BASICで作られたゲームにおいてゲームオーバーを判断しているIF文に問題があった場合
にはその「条件判断に使う数値がおかしい」と分かったらそのおかしくなっている原因を
探る必要があるからね。

(4)(1)〜(3)の手順を踏んでようやくその対策が可能になるにょ。
このためにはそのプログラムを完全に把握しておく必要があるにょ。

しかし、デバッグ作業の(1)の段階であってもBASICであればBASICそのものに問題がある
ことがあるし、Cであれば組み込むモジュールに問題があることもあるためプログラムには
何の問題もないけどバグになることがあるにょ。
さらに特定環境でのみ起こるバグというのもあるため厄介にょ。
これは個々の端末で異なる仕様となっているWindows PCなどでは顕著にょ。
基本仕様が固定となっているコンシューマゲーム機であっても型番による違いで発生する
問題もあるにょ。
仕様が固定であるポケコンPC-E500シリーズであってもROMバージョンに依存してしまう
処理を行うと問題が発生してしまうくらいだからね。

ただ、「バグ」というのは客観的なものではなく主観的なものである場合も多いにょ。
では、下記のごく基本的なBASICプログラムにおいてバグの有無を見てみるにょ。

10 INPUT "R=";R
20 S=R*R*3.14
30 PRINT "S=";S

これは半径の長さを入れたら円の面積を表示するという何の変哲もないプログラムであり
一見何の問題もないように見えるけど実は落とし穴があるにょ。
それは10行のINPUT命令にょ。
ここでは数値変数Rに半径の値を入力するように求めているけどここで数値ではなく文字を
入力した場合にはSyntax errorとなってしまうにょ。
制作者側からするとここは数値を入れるのが当たり前であり、文字を入れるのは想定して
いないけれど使用する側は必ずしもそうではないからね。

使用者側のギャップがあるため制作者側がバグをバグと認識しない場合があるにょ。
このような場合は「仕様」と言われるにょ。
上記プログラムでは文字を入力したらエラーになるというのはバグではなく仕様である
というわけにょ。
どこまでを仕様と見なし、どこからをバグと見なすのはその制作者側にゆだねられている
ため基準は特にないにょ。

さて、こうなると「バグがあるのが当たり前」となってしまうにょ。
しかし、制作者側は(特に有料である場合は)基本的にバグが無いことを目指さなくては
ならないと思われるにょ。
やはり、「バグ」といえば避けて通れないのがいわゆる「エロゲー」と言われるPC向けの
18禁ゲームソフトにょ。
何しろ発売されるゲームタイトルが多いけど明らかなバグがある状態で発売している
ものも非常に多いからね。

国内でパッケージ向けPCソフトといえばこのエロゲーが主流になっている(廉価版を除いた
新作だけでも年間500タイトル余り発売)わけだけどこれはアニメ、マンガなどの二次元
文化が諸外国よりも進んでいるということもあり80年代から目立ちつつあったにょ。
80年代後半ばからは8ビットパソコンから16ビットパソコンへと移り変わったけどその
際にはPC-98シリーズが圧倒的なシェアを獲得し、多くのゲームがPC-98用に作られたにょ。
そのためPC-98をエロゲー用PCと感じている人も多かったにょ。
もっとも、91年の沙織事件があるまでは各社の自主規制でありエロゲー(18禁)ではなく
「美少女ゲーム」と呼ばれていたわけだけどね。

さて、このエロゲではなぜバグが多いかというとそれには2つの理由があるにょ。

 (a)制作元が零細企業が大半
 (b)追加パッチで簡単に修正が可能

やはり顕著な理由が(a)にょ。
何せあれだけのたくさんのソフトが作られながら上場企業はないからね。
8ビットパソコンの時代は光栄やエニックスも今で言うエロゲーに分類されるような
ゲームを作っていたけどそれは黎明期の話であり大手企業になってからは会社の歴史からも
抹消されているにょ。
さて、エロゲーメーカーが零細企業ばかりというのは「エロ」というものの社会的地位の
問題もあるけど根本的には「零細企業でも作れる」というのが理由だと思われるにょ。

コンシューマゲームであればプレステ3であれば3億円以上はかかってしまうにょ。
これでは1本で3000円の利益が得られても10万本の売り上げが必要になるにょ。
大作であれば数十億円の開発費が必要となるため100万本は売っても利益が出ないという
ものもあるにょ。(シェンムーがドリキャスで70億円の開発費をかけたという有名な
話もあるけどプレステ3でそこまで作り込めば100億円の大台に行きそう)
平均的なエロゲーであれば開発費は1000万円で出来てしまうにょ。
これは少人数で作られているというのもあるし、コンシューマゲームのように長い開発
期間をかけてないというのも理由になっているにょ。
例えば5人で半年がかりで作ったゲームであれば人件費が1人につき月25万円、会社の
運営費(家賃、光熱費、通信費、雑費)が月に20万円かかったとして合計で870万円と
なるにょ。
最近はボイスが入っているのが当たり前だけどよほど大人数の声優を使わない限りは
1000万円で収まるにょ。

もちろん、これに加えて製造費用や広告費用がかかるわけだけど仮にすべて込みで
2000万円で出来たとするにょ。
エロゲーは定価が高いため1本4000円の利益があるとした場合(エロゲーの場合はショップ
への納入価格はメーカーやタイトルによって変化するけど定価の60〜75%となっている)
5000本が損益分岐点となっているにょ。
エロゲーの場合は1万本売れたらヒット、3万本売れたら大ヒットと言われるような業界で
ある(10万本オーバーはここ10年で数タイトルしかない)ため5000本は厳しいという
感じもするけどコンシューマゲームのように売れるゲームはミリオン、売れないゲームは
数千本という極端なものではないためエロゲーの場合は大抵のゲームは数千本は売れて
いるにょ。
つまり、コンシューマゲーム機と違って市場が小さいため莫大な利益を得るのは難しいけど
コストさえ掛けなければコンシューマゲーム機で発売するよりも遙かに低リスクという
ことにょ。

しかし、ここで問題となるのがデバッグ作業にょ。
デバッグは基本的に人海戦術であるため人手と時間が必要になるにょ。
エロゲーではそれがないために主要なバグさえも見つけられない状態で発売されることが
多いということにょ。(「みずいろ」のようにアンインストールすることでHDDを初期化
するバグなどがある)
さらにそれに輪を掛けているのが(2)の問題にょ。

ROMで提供されているコンシューマゲーム機用ソフトとは異なりPC用ソフトというのはHDDに
インストールして使用するために修正パッチを充てることでバグが修正可能になるにょ。
するため修正前提として発売することもあるにょ。
つまり、バグがあることを認識しても発売日に出すことを優先するということにょ。
発売日を変えるとさらなる告知に余分な費用がかかってしまうからね。
ヘタをするとバグどころか未完成と思われる状態で発売されることさえあるにょ。
「サマーデイズ」では修正パッチだけでも2.3GBあったけどこれはゲームに必要なファイルが
DVD-ROMに入ってなかったせいにょ。

では、コンシューマゲーム機用ソフトではそんなバグがないのかというとそういうわけ
でもないにょ。
基本的に修正パッチで修正するのが困難なコンシューマゲーム機の場合はクリア不可能
という場合であれば回収されることがあるにょ。
ただし、多くの場合は回避可能であるためこれは「仕様」として扱われることが大半にょ。
例えばWii用ソフト「メジャーWiiパーフェクトクローザー」でも画面と音が合ってない
とか、バッターがピッチャーの反対方向を向いていることがあるとかいうあからさまに
おかしな状態でも「演出」といってしまえばそれまでだからね。
最近はコンシューマゲーム機であってもインストールして使用可能になっているため
さらに修正パッチに頼るという状況が増えてくると思われるにょ。

神のみぞ知るセカイに登場したPFP用ゲームソフト「くれよん〜空の芸術〜」はこの紹介
を見るとすごさが分かるにょ。
http://ansaikuropedia.org/wiki/%E3%81%8F%E3%82%8C%E3%82%88%E3%82%93%E3%80%9C%E7%A9%BA%E3%81%AE%E8%8A%B8%E8%A1%93%E3%80%9C
アンサイクロペディアであるためネタサイトだけどこれは実際の作品内での設定そのまんま
だからね。
ここまで酷いバグはエロゲーでも10年に1度のレベルでありコンシューマゲーム機では
あり得ないレベルだけどどんなゲームであってもバグはあるわけであり、それが無い状態で
発売するのは無理であるためそれが許容できるレベルかということがすべてとなるにょ。

418御茶目菜子:2010/10/30(土) 14:36:59
MacBook Airは本当にお買い得なのか?
10月24日にはネットブックとMacBook Airの比較ということでMacBook Airと同じような
スペックのWindows PCを用いてネットブックと圧倒的な差があるということを書いたにょ。
では、MacBook Airの実機にWindows7を導入した場合に本当にそれだけの性能があるのか
というとこれは実際に試してみないと分からないにょ。
そういうわけで、実際にWindows7を導入した比較レビューを見てみることにするにょ。
http://plusd.itmedia.co.jp/pcuser/articles/1010/29/news072.html

            MBA   MBA1.6 MB   MBP   RX3   J9   UL20FT
 ◎CINEBENCH R10
   Multiple CPU   2954  3408  5060  8621  N/A   N/A   N/A
   Open GL      3154  3209  4439  5924  N/A   N/A   N/A
 ◎iTune ベンチ(単位:秒)
   AAC変換      34.4  30.1  20.4  16.0  N/A   N/A   N/A
   iPhone変換    116.5  101.6  74.8  54.1  N/A   N/A   N/A
 ◎PCMark05
   PCMark Score   4997  5123  4838  7594  8340  5096   N/A
   CPU Score     3283  3872  5914  8403  7318  6466  3435
   Memory Score   3319  3423  4890  6739  6189  5250  4084
   Graphics Score  4145  3775  4289  6277  2870  2230  1730
   HDD Score    21728  25145  3994  3668  30732  4307  5021
 ◎3DMark06
   3DMarks      4195  4290  4779  7488  1895   N/A  1044
   SM2.0       1665  1678  1725  2931   575   N/A   320
   SM3.0       1894  1876  2028  2992   771   N/A   320
   CPU        1269  1457  2137  3202  2668   N/A  1306
 ◎FINAL FANTASY XI Bench 3
   LOW        5207  5851  7371  10117  4012  3658  2256
   HIGH       4188  4394  5828  8079  2597  2271  1456
 ※測定結果が記載されていないものはN/Aとしている

略称   機種名    CPU          GPU     ストレージ  価格
MBA・・・MacBook Air Core2Duo SU9400(1.4GHz) GeForce 320M  128GB SSD 10.88万円
MBA1.6 ・MacBook Air Core2Duo SU9600(1.6GHz) GeForce 320M  128GB SSD 12.86万円
MB ・・・MacBook   Core2Duo P8600(2.4GHz)  GeForce 320M  250GB HDD  8.88万円
MBP・・・MacBook Pro Core i7-620M(2.66GHz)  GeForce GT330  500GB HDD 18.98万円
J9 ・・・Let'snote J9 Core i3-370M(2.4GHz) Intel HD Graphics 160GB HDD  約12万円
RX3・・・dynabook RX3 Core i5-520M(2.4GHz) Intel HD Graphics 128GB SSD  約24万円
UL20FT ・UL20FT    Celeron U3400(1.06GHz)Intel HD Graphics 320GB HDD  5.98万円
 ※上記ベンチにおいてUL20FTは33%のOCをしているため1.4GHz相当で動作している

まず同じMac内での比較を見るにょ。
CINEBENCHやiTunesベンチを見るとMacBook Airの相対性能が分かるにょ。
CINEBENCHはマルチスレッドに特化したベンチであり、iTunesベンチ(AAC)はマルチ
スレッド非対応であるためこれを見ればCPUのマルチスレッド性能とシングルスレッド
性能が分かるにょ。
デュアルコアのAtom N550を搭載のネットブックより2.2〜2.4倍高性能なCPUを搭載の
MacBook Air(1.4GHzの標準モデル)現行PCの中ではそんなに高くはないにょ。
とはいえ、最上位となるMacBook Proとの比較ではマルチスレッドに特化したCINEBENCHで
2.9倍の差、シングルスレッドのiTuneベンチで2.1倍の差というのはクラスが違うから
当然といえば当然にょ。(これはネットブックとMacBook Airの比較比と同じレベルで
あるため「ネットブックとMacBook Airも別クラス」と言えることになる)

次に、Windows環境において他のWindows PCと比較してみるにょ。
PCMark05のCPUスコアを見てみると3283となっており、これは10月24日に書いた同一CPUを
搭載のWindows PCが3632であったことから考えるとそれよりも10%も低いため誤差の範疇を
完全に超えているにょ。
Boot Campの影響も若干はあるだろうけど他の要因もありそうにょ。

では、同じMacBook Airでの比較をしてみると1.6GHzモデルと1.4GHzモデルのスコア差は
18%になっているにょ。
CPUのクロックは14%の差であるため4%の誤差があるにょ。
これくらいならば誤差としても十分考えられるけど今回のMacBook Airの1.4GHzモデルは
やや低めのベンチ結果と考えた方が良さそうにょ。

そういうことで1.6GHzモデルと他機種を比較してみるにょ。
MacBook Proとの比較ではさすがにCore i7が相手ということでPCMark05のCPUスコアは
2.2倍となっているけど通常電圧版とはいえCore i3を搭載したJ9(最下位に位置する
モデル)であれば1.7倍程度にょ。
個人的にはCPU性能は「3割変われば体感できる差」「2倍変われば別格の差」と感じている
けど1.7倍であればその中間であるため体感は十分できるけど別格(別クラス)という
レベルの差かというと微妙になってくるにょ。(今回のベンチ結果からのみ見れば1.4GHzの
MBAならばJ9は2倍の性能となっているけど)
UL20FTは33%のOCによって1.4GHz動作しているものの3435であり、MBA1.6GHzより13%低い
性能となっているにょ。
これは33%のOCがあっても尚14%クロックで負けているということを考えると妥当なもの
といえるかもしれないにょ。

PCMark05はマルチスレッドにも対応しているけど実アプリベースということでマルチ
スレッドに対応していないものも含まれているためマルチスレッドに特化しているという
わけではないにょ。
そういう面を考えると完全にマルチスレッドに特化した3DMark06のCPUスコアはマルチ
スレッド性能を見るのに適しているにょ。
MBA1.6GHzのスコアは1457であり、MBPはその2.2倍、RX3が1.8倍のスコアとなっているにょ。
ここでも同じくUL20FTはMBA1.6GHzより下回っているにょ。

CPU性能のシングルスレッド性能の指標としてよく活用しているFFベンチ(LOW)だけど
これは一定のGPUで動作させた場合には大抵の場合はCPUがボトルネックになっている
というのが理由にょ。
でも、FFベンチ(LOW)の結果を見てみるとMBA1.6GHzは5851ということでこれはCore i3を
搭載したJ9どころか、Core i5を搭載したRX3をも超えるスコアとなっているにょ。
CPU性能だけを見るとJ9やRX3の方が圧倒的上なのは他のベンチ結果から明かにょ。
それなのになぜスコアが大幅にMBAの方が高いかというとIntelのGPUは描画処理の一部を
CPUによってまかなっているからにょ。
FFベンチではバーテックスシェーダで頂点演算をしているけど統合型GPUなのに単体GPU
と同じくバーテックスシェーダをハードウェアで搭載しているGeForce 320MはCPUの負担が
ないせいでボトルネックの一部が解消されているためにょ。
したがって、これではCPUの性能比較には使えないにょ。
逆に言えば旧世代のゲームにおいてCPUで劣っていてもGPU性能でカバーできるため最新の
Intel製の統合型チップセット搭載機よりは遙かに快適にゲームができるということが
いえるわけにょ。(昨今のゲームであればその傾向はさらに強くなるけど今度はCPU側が
動作スペックを満たせない場合があるためゲームタイトルによって異なる)

では、CPUからGPUへと話が変わったので今度はGPU性能をもっと見てみるにょ。
最も分かりやすいのは3DMark06の総合スコアにょ。
MBA1.4GHzとMBA1.6GHzは上記CPU性能ではクロック差以上に大きな差となっていたけど
ここではわずか2%の差ということで差が極めて小さくなっているにょ。
これは若干の測定誤差は含んでいるものの基本的に3DMark06があまりCPU性能に影響され
ないというのが原因となっているにょ。
つまり、純粋なGPU比較には便利といえるわけにょ。

それで比較してみるとさすがにミドルクラスのGPUであるGT330(VAIO Zと同じ物)を搭載
しているMBPはMBAの1.8倍の性能となっているにょ。
しかし、MBAはIntel HD Graphics搭載のRX3と比べると2.2倍、UL20FTと比べると4倍と
なっているにょ。
Intel HD Graphicsは従来のGS45に内蔵のGMA X4500と比べると大幅に性能が上がったとは
いえさすがにGeForce 320Mと比べると大きく劣っており上記FFベンチのように実アプリ
ベンチや実アプリにおいてはさらに大きな差になっているにょ。

GeForce 320Mであっても最新ゲームが快適には動作しないけど設定を落とせば最新の3D
ゲームやMMOなども普通にプレイできるレベルにはなるからね。
設定を落としてもまともに遊べないゲームもあるIntel HD Graphicsよりは圧倒的に有利と
なるにょ。
また昨今はOSやアプリも積極的にGPUの使用を行っているためにそういう対応したアプリ
での動作であればGPU性能が高い方が快適動作が期待できるにょ。

すでに書いていたのと比べて若干ベンチ結果は変わっているとはいえ、こうやって実際に
同じWindows環境で比較するとMacBook Airの立ち位置が見えてくると思うにょ。

さて、続いてはストレージ性能にょ。
デフォでSSDを搭載というのがMBAの強みの1つとなっているけどここで旧AirとRX3との
比較した物をみてみるにょ。

 ◎CrystalDiskMark
             MacBook Air  旧Air  dynabook RX3
  シーケンシャルリード  216.70    99.28   193.10
  シーケンシャルライト  167.30    57.04   177.40
     ランダムリード  198.30    95.23   178.20
     ランダムライト  137.20    12.11   170.50

RX3のSSDはSSD搭載PCの中でもかなり早い部類に位置するのだけどそれと比べてほぼ互角
といっていい速度があるにょ。
さすがにRAID0で最大4基のSSDを搭載可能なVAIO Zはこれよりも圧倒的に速いけどそういう
例外を除けばPCに標準搭載しているSSDとしてはトップレベルの速度といっても過言では
ないにょ。(これよりも速いSSDはいくらでもあるけど価格が高価になるし、本体がSATA2
ではバスがボトルネックになるので活かすことができない)
本体価格が10万円程度という価格帯を考えれば「驚異的な速度」といってもいいかも
しれないにょ。

では、バッテリ駆動時間を見てみるにょ。
すでに動画再生で3時間半という報告があるけど同一環境下における他機種の比較を行う
ことでより分かりやすくなるからね。

  MacBook Air  226分(3時間46分)
  Macbook    364分(6時間4分)
  MacBook Pro  274分(4時間34分)
  Dynabook RX3  353分(5時間53分) ※6セルバッテリ

さすがにMBAは公称5時間ということで駆動時間の短さを感じる人もいるかもしれないにょ。
とはいえ、RX3は公称16時間の6セル(大容量)バッテリを使用時のものにょ。
16時間と比べたら5時間というのが短いように感じるにょ。
しかし、公称値では3.2倍の差があるけど実駆動時間では1.56倍の差しかないにょ。
これは測定方法の違いによるものが大きいので公称値同士の比較には何の意味も持たない
からね。(国内PCはJEITA測定法で比較しているとはいえRXシリーズは初代モデルから
あり得ない設定で公称値のみ伸ばすようにしているため何の参考にもならない)
MBAには10月21日に書いたように丸形セルでは4セル相当の容量になる35Whのバッテリを
搭載しているにょ。
それを考えると「公称値同士の比較」は無視してセル数のみの比較をしてみればMBAと
RX3の駆動時間の差がこのようになったのは極めて当然のことだといえるにょ。

とはいえ、バッテリ交換ができないということがやはり大きなネックになるにょ。
普通に交換ができれば多少駆動時間が足りない人は予備バッテリを持ち歩くという方法も
あるし、バッテリがへたってきたら新品のバッテリに交換するということも気軽にできる
わけだからね。
あと、基本モデルで88800円からというのはGPU性能、薄さ、重量を考慮すればバーゲン
プライスといっていいレベルの安さだけどそれに価値を見いだせないという人にとっては
高価に感じてしまうにょ。
とはいえ、10万円前後という価格は国内メーカー製のCULVノートと同レベルであり
それを考えると決して高くはないにょ。

しかし、MBAでWin7を使うとなるとパッケージ版のWin7を別途用意しないといけないし
OS Xと共存するにはSSD128GBモデルがほぼ必須になるためWin7での使用を考えている
人であれば割安感は一気に無くなってしまうにょ。
それこそ国内メーカー製のモバイルノートに手が届く金額になってしまうからね。
そこまでの予算はなく特に薄型・軽量に拘りがないというのであればやはりWin7を使うのに
最もコストパフォーマンスが高いのが海外メーカー製CULVノートにょ。(据え置き前提
ならばデスクトップ代替のオールインワンノートがいいのでここではそうでない場合を
想定)

先日ACERから発表のAS1830Zはなかなかいい感じの機種にょ。
http://pc.watch.impress.co.jp/docs/news/20101028_403118.html
やはり、CPUが従来機のセレロンU3400からPentium U5400に変わったことが大きいにょ。
セレロンU3400は8月19日にも書いたようにクロックが下がったということが影響して
従来機であるセレロンSU2300よりも性能が下がってしまうという残念な結果になって
しまったからね。
これがPentium U5400ならば少なくともSU2300よりは上の性能になるにょ。
それで、価格が5.5万円だからね。
同時発表されたAtom N450搭載のネットブックAspire Oneは3.7万円だけどOSが7Starterと
いうことで劣るし、液晶は一般的なネットブックと同じWSVGAだからね。
差額1.8万円で別格の性能と別格の作業快適性(液晶解像度の違い)が得られるという
ことを考えると例えStarterでガマンできるという人であってもお得とは限らないにょ。
まして、OSをHome Premiumにアップグレードしたら差額は1万円以下になるためなおさら
お買い得感は無くなってしまうにょ。

薄さ・軽さには拘りがないけどMBAはGeForce 320Mという高性能GPU搭載がうらやましいと
いう人はいるかもしれないにょ。
そういう人にお勧めなのが「Inspiron M101z」にょ。
http://pc.watch.impress.co.jp/docs/column/nishikawa/20101025_401909.html
Athlon II Neo K325の性能はセレロンSU2300と同レベルだけどRS880Mに搭載のRADEON
HD4200はGeForce 320Mと比べたら劣るもののIntel HD Graphicsと比べたら格段に上(特に
実アプリにおいて)だからね。
それで59800円ならば決して高くはないにょ。

結局PCを買う場合は何を重視するかによって高価に感じたり安価に感じたりするという
ことにょ。
Atomの性能およびWSVGAで困ることがないというのであれば相対価格ではなく絶対価格で
安価なネットブックがお買い得だし、最低WXGA、Win7がそこそこ快適に使えとYouTubeのHD
動画も問題なく再生できるレベルが必要というのであればCULVノートがお買い得になって
くるにょ。
また、軽さ・薄さ・GPU性能・SSD性能・デザインなどを重視すればMacBook Airはお買い得に
なってくるにょ。
その場合でも上記のようにWin7環境を構築すれば割高になってしまうから微妙になって
くるにょ。
すでにパッケージ版Win7が余っていればお買い得感が損なわれないというかもしれない
けれど128GBの高速SSDが余っている人は安価なCULVノートに使用すればMBAがSSDを搭載
しながら安価というアドバンテージが無くなってしまうからね。
最新パーツ・ソフト(OS)が余っていることを前提に比較するのは無意味といえるにょ。

こう考えると私は発表時には非常にお買い得感が高いと感じた新型MacBook Airだけど
実際にはお買い得感を感じている人は案外少ないのかもしれないにょ。
海外のPCレビューでもネットブックの方がお買い得と言っている人もいるくらいだしね。
http://wiredvision.jp/news/201010/2010102621.html

419御茶目菜子:2010/10/31(日) 14:26:49
ネットブックはお買い得・・・とは限らない
昨日の最後に書いたMacBook Airとネットブックを比べてネットブックの方がお買い得感が
高いと言っているこの海外のレビュー記事だけどそれをもう少し考えてみるにょ。
http://wiredvision.jp/news/201010/2010102621.html

やはり、ネットブックはその「絶対的な安さ」が何よりのアドバンテージにょ。
これが実現したのは何度も書いているように低価格のAtom(元々安いけどIntelが定めた
条件を満たすとさらに半値で納品される)とMSが定めた条件を満たすとULCPC用として
低価格のWindowsを提供したのが大きいにょ。
かつてWin95時代に訪れたチャンドラを代表するミニノートブームは小さい方が安く製造
可能になる(当時は液晶コストがPCのパーツの中で最も高価だったためそれが小さいことが
低価格化にも繋がっていた)というだけではなく小さいから低いランクのCPUでも問題が
無かったからね。

当時のモバイル用CPUは通常電圧版、低電圧版、超低電圧版というような分類は無かった
(ただし、それより前の時代には386SLC、486SLCといったIntelら正規ライセンスを受け
低電力仕様にしたCPUは存在していた)けど超低電圧版なんて無くてもTDPは2〜5W程度
(180nmのMMX Pentiumの場合)だったにょ。
熱設計技術は今と比べて格段に劣っていたとはいえ、TDP2W台となる下位モデルであれば
小さなA5サイズのPCであっても搭載するのは容易だったにょ。

ネットブックが安価なのは上記のようなCPUとWindowsが特別に安いということだけではなく
Atomは熱設計技術の進んだ今でCPU単体だとTDP2.5W(ノースブリッジが統合されたPineView
ならばTDP7〜8W)ということでかなり低いTDPであるため設計が容易ということも挙げられ
そして重要なのは量産化によってコストダウンを行っているということにょ。
国内モバイルノートが部品コストの割りに高価なのは需要がそこまで大きくないため
量産効果による値下げが難しいということが大きいわけだからね。
つまり、ネットブックが「絶対価格」において安いのは当たり前ということにょ。

ただし、相対的に安価かどうかというと昨日も書いたように他機種や他のランクのPCとの
兼ね合いもあるため単純にはいかないにょ。
ネットブックとの比較としてよく用いられるであろうCULVノートと部品コストの違いに
よる価格差がどの程度あるのかを考えてみるにょ。

ネットブックの主要パーツのコストは概ねこんな感じにょ。(ソースによって異なって
いるため大ざっぱな金額)

 CPU ・・・・・・ 40ドル(チップセット含む)
 HDD ・・・・・・ 40ドル
 メモリ(1GB)・・・10ドル
 液晶パネル(WSVGA)20〜30ドル
 OS ・・・・・・・・30ドル

ここまでで、合計150ドルであとはマザーボードと筐体、そして各種チップなど細かい
パーツ類があるためトータルの部品コストは200ドル少々かかっているのではないかと
予想しているにょ。(日本円に直すと2万円程度か)
これが日本では4万円前後で売られているにょ。
ネットブックも量産効果によって価格が下落したもののすでに限界まで来ているため
これ以上の大幅下落は難しいにょ。

では、CULVノートはどうなのかというとまずCPUの価格は明示されてないにょ。
Penrynコアは最低モデルがCPU単体で100ドル程度だったのでチップセット込みで150ドル
程度だったけどArrandleコアのものは価格が発表されてないからね。
というのも低価格のCPUはほとんどCULVノートとして使用されるためだと思われるにょ。
ネットブックはIntelの条件を満たすことで半値で提供される(上記の40ドルは半値に
した後の金額)ということを考えるとCULVノート用CPUが仮にIntelの条件を満たすことで
半値提供されるとすれば75ドルとなるにょ。(ArrandleコアがPenrynコアと同価格の場合)

液晶パネルはさすがに10.1インチWSVGAよりは高価とはいえ、11.6インチWXGAだと概ね40〜
70ドル程度にょ。
ここでは真ん中を取って55ドルとするにょ。
メモリは2GBとして2倍の20ドルかかるとすればCPU、液晶パネル、メモリのコストアップは
全部で70ドルとなるにょ。
つまり、ネットブックに70ドル加算するだけ(合計300ドル程度)でCULVノートができる
計算になるにょ。

ただし、問題はそうではないにょ。
OSがあるからね。
OSはULCPC用が30ドル程度、標準のHome Premiumが100ドル程度ということを考えると
その差は70ドルにょ。
そうなると300ドル台半ば(3万円程度)というのが部品コストといえるにょ。
では、先日発表されたACERのネットブックとCULVノートが私の計算通りの部品コスト
だと仮定するにょ。(ネットブックが2万円、CULVノートが3万円)
http://pc.watch.impress.co.jp/docs/news/20101028_403118.html

 ネットブック 売価3.7万円・・・部品コスト2万円(価格に占める割合54%)
 CULVノート  売価5.5万円・・・部品コスト3万円(価格に占める割合55%)

価格に占める部品コストの割合ほぼ同じでありどっちも「部品コストから見たお買い得度」
という観点からすると大して変わらないという結果になったにょ。
これには「ベーシックな構成であり」「買った状態の構成で使い続ける」という条件が
加わるにょ。

仮に買った状態からSSDの交換で2万円の追加コストがかかったとするにょ。
そうなると下記のようになるにょ。

 ネットブック 売価5.7万円・・・部品コスト4万円(価格に占める割合70%)
 CULVノート  売価7.5万円・・・部品コスト5万円(価格に占める割合66%)

つまり、追加投資をすればするほどネットブックの方が元の金額が安いだけ割合で考えると
コストアップになってしまうというわけにょ。
価格差1.8万円が縮まってないだけにトータルのコストが高価になればよりスペック差に
対する影響が大きくなるにょ。
本来であれば追加投資たいパーツに関しては部品コストに購入金額分だけプラスするのは
フェアではないと考えるかもしれないにょ。
これは追加パーツ(ソフト)が「自分にとって必要」という前提で考えているからにょ。
例えばWiiとプレステ3においてプレステ3の方が高価だけどソフトを大量に買えばその
価格差は相対的には徐々に失われていくからね。
そうなると性能差が目立つというわけにょ。
コンシューマゲーム機の場合はプレイしたいソフトがあるか否かということが全てだけど
Windows PCの場合はゲームをする上ではスペックによってプレイできるか否かが決まる
ためにスペックが高い方が有利となるにょ。
つまり、追加投資を大量に行う場合には上記の例のように本体の価格差は徐々に薄れていく
ということにょ。

これを元に考えるとネットブックにおいてベーシックな構成から外れた場合はそれが
必要不可欠という人以外は割高になってしまうにょ。。
例えばWXGA液晶、Home Premium搭載、メモリで1.3万円アップの5万円になったとするにょ。
部品コストの占める割合は1ドルを85円として計算した場合は、はベーシックな構成よりも
お買い得な57%に達するにょ。
しかし、そうなった場合には純粋に性能差だけが目立つにょ。
5000円の差でCPUが2倍以上、GPUが10倍以上の差だからね。

中古ノートは非常にお買い得にょ。
しかし、部品交換やパワーアップに追加投資が前提であれば決してお買い得ではないと
いうことは分かると思うにょ。
それと同じくネットブックはベーシックな構成で追加投資無しでずっと使い続ける人で
あればお買い得感は高いにょ。

最初に書いたMacBook Airだけど部品コスト計算をしてないけど単純に割合だけを考えると
ネットブックより割安になるとは思えないにょ。
軽さを比較対象に入れるのであれば価格重視で作られたネットブックではなくモバイル
ノートであるべきにょ。
モバイルノートは最初に書いたように量産効果による値下げが難しいために1台当たりの
利益率は多めに確保しているにょ。
そのためそれと比べるならばMacBook Airの方がお買い得度が高いというだけの話にょ。
今回は部品コストの話をしたけど電子機器であれば量産しているものは9月9日に書いた
ように概ね売価の5割程度となっているため実を言うと今回の比較は何の意味も持たない
ものだったんだけどね。
1つだけ言えるのは「部品コスト」で考えるならばベーシックな構成で最も割安であり
追加投資をした場合にはどんどん割安感が失われるということにょ。




掲示板管理者へ連絡 無料レンタル掲示板