したらばTOP ■掲示板に戻る■ 全部 1-100 最新50 | |
レス数が1スレッドの最大レス数(1000件)を超えています。残念ながら投稿することができません。

おちゃめくらぶ掲示板

1御茶目菜子:2009/09/12(土) 15:33:12
現在大阪オフ中にょ
現在大阪オフにょ。
昼食を12時に済ませ現在3時のおやつ休憩にょ。
昼ご飯を食べてから現在までいろいろ買い物をしたけどもう3万円くらい使っているにょ。
めぼしいものは大体買えたけどそろそろ資金が尽きるにょ。


マリモーマさんへ
>今日は 大阪オフだけど 関西は 雨が降ってたよ

さっきは結構降っていたにょ。
また詳しくは明日書くにょ。

286御茶目菜子:2010/07/03(土) 12:35:31
重要なのは見せかけの性能ではなく実効性能
6月25日、30日に書いたようにiPhone 4はカメラ機能が格段に向上したにょ。
http://plusd.itmedia.co.jp/mobile/articles/1007/02/news057.html
これはカタログスペック(画素数)の面ではハイエンドなガラケーには劣っていても実際の
写りを見ればそれらに負けていないという非常に優秀なものにょ。
カタログスペックではなく実効を優先したこのような手法は個人的には好感が持てるにょ。

ただし、その逆もあるにょ。
3GSよりも大幅に電波感度が増した4だけど4は特定の持ち方をすると電波感度が悪くなって
しまうとのユーザー報告が多数現れたにょ。
http://www.itmedia.co.jp/news/articles/1006/25/news052.html
この問題はアップル社でも認めているのだけど特定の持ち方をしなければ良いという
見解となっているにょ。

しかし、外周の金属部分がアンテナになっており、それを触れずに持つなんていうのは
極めて難易度が高いにょ。(というか、もはや「普通の持ち方」ではない)
確かに一般的なケータイでも本体にアンテナが内蔵されている関係上持つ位置によって
微妙に感度が変わるものの剥き出しではないために極端に影響を与えるものではないにょ。
4は3GSと比べてデザインを一新してアンテナを外周に配置したということが裏目に出て
いるわけにょ。

このアンテナ問題は海外では集団訴訟にまで発展したにょ。
http://www.itmedia.co.jp/promobile/articles/1007/02/news020.html
アンテナに関しては設計段階で分かるレベルのものにょ。
実効性能の高いカメラ機能とは異なりアンテナはいくら電波感度が強くてもデザイン優先で
実効感度は低くなっているわけにょ。
これに関しては純正ケースの「バンパー」を使用するという選択肢もあるにょ。
従来型のケースではなく側面保護のバンパーを用意したのはアンテナに直接触れることで
感度が悪くなることを事前に認識していたのではないかと思うにょ。

これはソフトウェアのアップデートで問題無くなるということだけどそれは感度自体を
変えるのではなく単に表示されるアンテナ本数を現状と変えるだけのものにょ。
http://japanese.engadget.com/2010/07/02/iphone-4/
例えるならばPCにおいてWindowsのタスクバーに表示されるバッテリ残量は100%→
66%→33%で表示が変わってくるけどこれが一般的なケータイのように100%→20%→
5%にすれば残量が少なくなってもまだ十分残量があるように見えるからね。
つまり、このソフトウェアのアップデートはアンテナ本数だけで感度低下が分かりにくく
なるというだけのものにょ。

従来のアップル社の自社基準による計算式からAT&Tが推奨する計算式に変えるという
ことで他のケータイとの比較はしやすくなるとはいえ、それは3GSと比べて変えるという
ことになり、事実上、実効感度の低下を隠蔽するのと変わらないといえるにょ。(確かに
アップルの主張通りアンテナ自体の感度が高くなっているのかもしれないけどここで重要
なのは「普通の持ち方」をした場合の実効感度となる)
アンテナ本数が少なくなっても使えないわけないから問題ないというのは分からなくは
ないけど感度向上を謳っている以上はそれが実現されてないと偽りとなってしまうにょ。
画素数が大きく増え「カメラ性能が大幅にアップ!」と謳っていて実際に撮影したら
画素数の少ない前モデルの方が圧倒的に画質が上だったら「謳い文句はウソだった」と
感じる人は多いと思うにょ。
それでも、画素数が増えたから気にならないという人もいるかもしれないにょ。

ただ、感度に関しては唯一の「見える情報」がアンテナ本数だけというのが厄介となって
いるにょ。(カメラの場合は撮影してみればある程度の客観的判断は可能になる)
それ以外は「繋がる」か「繋がらない」かという二択しかないからね。
だから、電波感度が弱かろうと繋がれば不良ではなくなるということにょ。
ただし、「不良品」として交換や返品をする場合にはその場での確認が必要にょ。
ソフトウェアアップデートによって見た目のアンテナ本数の減少はほとんど無くなり
ショップに持っていってもそこで繋がれば従来では使えた場所で使えなくなっても不良
として認めて貰えなくなるにょ。
したがって、このようなソフトウェアのアップデートで隠蔽するやり方は余計に一部
ユーザーの反発を買うことになるにょ。(電波強度の強い場所でしか使ってない人は
このソフトウェアのアップデートによって「4の感度はすごく高い」と錯覚しそう)

これが4は「持ち方によって従来機よりも感度が落ちる場合があります」とか「感度の
低下が気になる方は別売りのバンパーをご使用ください」と事前に告知があったならば
訴訟問題にまで発展しなかったのだろうけど今となってはもう遅いにょ。
個人的には多少感度が低かろうと自分の使用圏内でちゃんと繋がれば問題はないと思う
けれど事実に反するものやあまりに苦しい言い訳やその事態を隠蔽しようとする行為には
あまり感心はできないにょ。

確かに「より良い」と思って作ったものが「結果として悪くなってしまう」ということは
無くもないにょ。
例えばニンテンドー64ソフト「マリオパーティ」においてTVCMで手のひらで3Dスティックを
回しながらプレイする様子を放送したけどそれによって手を痛めてしまうという問題が
出てきたにょ。
その際に「CMでのプレイ方法は間違っている」とプレイ方法を否定するのではなく手を
痛めないように64ユーザー全員に手袋を配布したにょ。
iPhone4もユーザーの持ち方が間違っていると言う前にせめてバンパーの無償配布を
すべきだったにょ。
しかし、これは今となっては手遅れにょ。(訴訟になって損害が大きくなる前に対策を
するという面ではまだ間に合うけど)

訴訟大国アメリカにおいては「謝ったら負け」という考えもあるものの中途半端な誤魔化
しで余計に傷口を大きくするのではなく「謝るべき場所で謝る」ということも重要になって
くるにょ。
iPhone 4はすごく魅力的な製品であるが故にこのような「人によっては些細なこと」で
あってもそれが元で駄目な製品として感じられてしまうようになるからね。
実際、ケータイにおいて「電波問題」を重視する人がコアユーザーには特に多く存在し、
国内でも「iPhoneはソフトバンクだから駄目な機種」と感じている人(キャリアと端末を
別評価できない人)も多いにょ。
特に今回のはキャリアの問題ではなく端末側の問題であるため更に厄介にょ。(というか
国内では端末問題とキャリア問題のダブルパンチになってしまうわけだけど)

287御茶目菜子:2010/07/04(日) 13:21:48
2ヶ月半mixiを使ってみて
私は今年の4月からようやくmixiを始めたのだけど先日777ヒットに達したにょ。
mixiを始めた理由は詳しくは4月22日に書いているのだけど要するにここでの文章が
長すぎて読むのが辛いという人のために始めたわけにょ。

基本的にこことmixiの日記は似たようなことを書いているわけだけどmixiの方が半日分
公開が早いことや不必要に長い私の考察や補足がないという分だけmixiの方が読みやすく
なっていると思うにょ。
また、同じ内容(単純に簡略化したもの)ではなくて、まとめ方そのものを変えたり
扱っているもの自体を変えている日もあるにょ。(mixiの方では最近は天使ちゃんに
ついて書いているしね)
こっちはこっち、あっちはあっちで楽しんで貰えると個人的に嬉しく思うにょ。

さて、問題は人の流れにょ。
mixiを始めることでこっちからmixiへ人が移るのか、逆にmixiからこっちに新たな人が
やってくるのかそれとも変化無しなのか、それはmixiを始めた時からの最大のポイント
だったにょ。
個人的には一人でも多くの人に見て貰いたいため招待制のSNSであるmixiはあまり好みでは
無かったし、mixi独自の足跡機能も不用意に閲覧のハードルを高めていると感じているにょ。
mixiでは「読み逃げ」に対して嫌悪感を抱いている人もいるからね。
http://www.itmedia.co.jp/news/articles/0703/20/news042.html
私はコメントを残したいと思えば残すし、残したくないと思えば残さないのでそれを
書き手が強要するような所にはわざわざ行きたくはないにょ。(逆にコメントが書いて
あるとそれに対してのレスは確実にするように心掛けている)

私がmixiを嫌っていた理由はこんな感じだったけど「招待制」に関しては昨年3月より
廃止されて自由登録が可能になったにょ。
これには賛否両論があるけど1人でも多くの人に利用してもらいたいというのであれば
これは良いことだと思うにょ。(例えば友達を作りたくてmixiに加入しようとしても
友達からの招待がないと入れないというのであれば本末転倒)

また、読み逃げ禁止をしている人の日記を見る場合にも足跡を消す機能があるために
それは防げるにょ。
ただし、足跡を消せるのは月に10回までなのでやはり制約は大きいにょ。
もっとも、「コメント必須」などを明記しているような所には二度と行かないため足跡を
消す機能は私は使ったことはないけどね(笑)

しかし、「コメント必須」を掲げているような人だと公開範囲をマイミク限定にして
いるため一見さんからは読むことはできないにょ。
せっかくネット上で全世界へ向けて公開しているのに会員制のSNSの中でのさらに一部の
人向けにしか公開しないのは・・・と思ってしまうけど公開範囲が限定されることで
書けるようなプライベートなこともあるからそれ自体は否定できないにょ。
全体公開、マイミク限定など使い分けることも重要になりそうにょ。

というわけで事前に知っていたmixiの知識だけではなく実際に使ってみて少しは心境の
変化はあったもののやはり私がここではなくmixiの方をメインに据えることは無さそう
と感じるにょ。
もしも、こっちよりもmixiのヒット数の方が多くなれば考え方を改めたと思うけど
現状ではそれは無いからね。

777ヒットに至るまでにかかった日数は72日ということで1日10.8ヒットとなっているにょ。
スタート時はヒット数が1桁だったために単純に日数では割るのも正しくはないけど最近
でも1日10〜14ヒット程度だからね。
ちなみにこっちは最近1週間(7日間)のヒット数だけで1115ヒットとなっているにょ。
これは1日当たりだと159ヒットとなるにょ。
1日に数回アクセスする人がいるのでこれがユニークユーザー数とはいえないけどここまで
mixiの方と差があるのであればこっちは見ていてmixiの方は見ていないという人が相当数
居そうな気がするにょ。
これは「登録が嫌」「足跡が付くのが嫌」と考えている人が多いのではと感じているにょ。

アクセス数の推移を見てみると毎日統計をまとめているわけではないけど大ざっぱに言うと
mixiを始めてからのここのヒット数は減るどころか微増状態にょ。
mixi経由で人が増えたというよりも検索エンジン経由で人が増えたと考えるのが妥当だと
思われるにょ。
現在、mixiの足跡を見ると1日のアクセスにおいて概ね半分がリピーターで半分が新規と
いう感じにょ。
その新規ユーザーがそのまま全員こっちに流れても1日当たり5ヒット程度だからね。
こっちは概ね1日120〜180ヒットであるため5ヒット程度ならば誤差の範疇にょ。

ここもmixiの方も他所での宣伝行為は行ってないために新規閲覧者はリンク経由(mixi
ならばマイミク経由)もしくは検索エンジン経由でたまたま来る人だと思われるにょ。
こことmixiの10倍以上のヒット数の差はパイの大きさの違いと単純には言えず、10年以上
続けているおちゃめくらぶとわずか2ヶ月半のmixiで単純に比較ができないということも
いえそうにょ。(最近は掲示板の雑記がメインということでおちゃめくらぶのトップ
ページのヒット数はピーク時の1日300ヒットから15〜20ヒットへと減っているけどその
反面、掲示板のヒット数は60〜70だったのが今は倍増している)

そういうわけで「mixiで書いても見てくれる人が少ない」と言うのは長期間(ほぼ)毎日
書き続けてようやく言えることなのでまだここでは結論を下すのはやめておくにょ。
コンスタントに書き続けることまた読みたくなるものを書くということが重要だから
それを続けることで結果は後から付いてくると思うにょ。
それ以前に自分が書きたいことを書くということが最も重要となるにょ。
興味がないけどヒット数を伸ばすために書き続けるなんてことは私にはできないからね。

288御茶目菜子:2010/07/05(月) 13:37:45
水平撮りの最終兵器
デジタル水準器(ベルボンから発売されている「Action Level」)が近所のキ○ムラで
在庫処分価格となっていたので思わずを買ってみたにょ。
http://www.amazon.co.jp/dp/B0019OQ4UQ/
ちなみに売価3980円からさらに3割引だったので2786円だったにょ。

さて、このデジタル水準器だけど要するに傾き検知をするものにょ。
別に高度なものではなく最近のゲーム機やiPhoneなどに内蔵されているジャイロセンサーの
一種だと思われるにょ。
最近のデジタル一眼だと一部機種にこういったデジタル水準器は内蔵されているものの
私が持っているK200は2年前の機種、D50は5年前の機種ということでそんな機能は内蔵して
いないにょ。

水準器は建物や風景を撮るときに特に便利になるにょ。
風景の場合は意図的に傾けたものでない限りは水平がちゃんと出ているものの方が見た
感じがいいからね。
自分の目では水平にしたつもりでも5度くらい傾いていることは日常茶飯事であるため
このような水準器は便利な存在にょ。

このデジタル水準器は左右に5つ並んだLEDで傾きを知らせるのだけど1番左の赤いLEDが
点灯していれば左に傾き過ぎの状態で2番目の黄色いLEDが点灯していればやや左に傾いた
状態で真ん中の緑のLEDが点灯したら水平になっているにょ。(右の黄色と赤のLEDも
左と同様)
つまり、左右の傾きを微調整しながら真ん中の緑のLEDが点灯するような位置に持って
いけば良いということにょ。
http://ww5.tiki.ne.jp/~ochame/test/Action_Level.jpg

これは横だけではなく縦位置撮影でも働き、縦に構えると自動的に縦の水平が出ているか
ということを検知してくれるにょ。
なおセンサー精度は5段階調整できるため極めて高い水平精度が欲しい場合は最高精度に
設定するといいにょ。
とはいえ、最高精度に設定したら少し手が動いただけでも反応してしまうので水平を維持
するのが難しいレベルだけどね。
またLEDの輝度も5段階に調整できるために屋外でもそれなりの視認性を保てるにょ。

ただ、ここで1つ問題が発生したにょ。
このデジタル水準器はアクセサリーシューに取り付けることで使用するわけだけど水平を
出そうとしたらファインダーから目を離さないといけないということにょ。
ファインダーを覗いてない方の目で確認できないこともないけどさすがに辛いにょ。
ファインダーを覗いてみて水平が出ているかどうかを見るために一旦ファインダーから
目を離したらその時点でカメラが動いてしまい水平で無くなってしまうにょ。
それならば三脚を使えば良いというだけのことだけど所持している三脚にはデジタルでは
ないものの水準器は付いているためこのようなデジタル水準器は不要にょ。
そもそも三脚を使わない状態で水平が出せるのがこのような単体水準器のメリットで
あるため三脚を使わない場所で使わないとその意味は半減してしまうにょ。(水準器が
備わってない三脚を使う場合には役立つけどね)

恐らくこの製品はライブビューでの使用が推奨だと思われるにょ。
デジタル一眼に内蔵されているデジタル水準器機能もライブビューで使うことを前提に
考えられているためライブビュー非搭載でデジタル水準器を内蔵したデジタル一眼は
ないからね。
だから、ライブビューを搭載したデジタル一眼、もしくはアクセサリーシューを搭載の
コンデジでこの製品は真価を発揮できると思うにょ。
ライブビュー機能のないK200DやD50しか持ってない私には使い勝手が良いか悪いかという
ことや実際に手持ち撮影してこの製品の有無によってどの程度の効果があるのかという
レビューはできそうにないにょ。
あとで調べてみたら水平になったら自動的に音が出る上位モデルもあるみたいなので
ライブビューではない機種用だとそちらを買った方が良さそうにょ。

実はこのデジタル水準器で一番驚いたのはボタン電池が「4個付属」していることにょ。
パッケージを開ける前は電池を4個使うのだろうと思っていたら実際に使うのは2個にょ。
しかも、最初から2個内蔵しているため「実質6個付属」しておりパッケージ内に別途
あった4個のボタン電池は「電池交換2回分の予備」として付いているというわけにょ。
普通に考えれば最初の1回分、もしくは予備交換1式程度がせいぜいだろうけど交換用の
予備が2回分ついている製品は初めて見たにょ。
確かにボタン電池は昔と比べて安くなったから金額的には大したことはないのだけど
すごい太っ腹に感じてしまうのは私だけではないと思うにょ(笑)

289御茶目菜子:2010/07/06(火) 13:02:49
致命的な問題があっても「仕様です」と言えば解決か・・・?
7月3日にはiPhone 4のアンテナ問題はソフトウェアのアップデートで済ませるということを
書いたにょ。
これは、単に電波強度の表記(アンテナの本数)を変えるというだけであり持ち方によって
大きく電波強度が下がるという問題を解決するものではないにょ。

では、iPhone 4が本当にそこまで持ち方によって変わるのかということはAnandTechによって
調べられたにょ。
http://wiredvision.jp/news/201007/2010070423.html
上記記事から4と3GSの持ち方による電波強度の減衰状況を転載すると下記のような感じに
なっているにょ。

     しっかり包み持つ 自然に握る 手のひらにのせる ケースに入れて自然に握る
iPhone 4     24.6      19.8       9.2       7.2
iPhone 3GS    14.3       1.9       0.2       3.2

3GSも持ち方によって落ちるというのは分かるけどここで注目すべきは自然に握った状態で
あっても19.8も落ちているということにょ。
ただし、単位は「%」ではなく「db」にょ。
したがって、10変わると10倍、20変わると100倍変わるにょ。

「db」から「%」へと変えると下記のような感じになるにょ。(最高の状態で100%)

     しっかり包み持つ 自然に握る 手のひらにのせる ケースに入れて自然に握る
iPhone 4      0.3%      1%      12%       19%
iPhone 3GS     3.7%     64%      95%       48%
  差      10.7倍    61.6倍      7.9倍      2.5倍

自然に握っただけで電波強度が約100分の1になってしまうPhone 4は3GSと比べて61.6倍
という非常に大きな落ち込みとなっているにょ。

とはいえ、それだけの電波強度の差が実用の差として現れるかどうかはまた別問題にょ。
電話機として通話用に使用するならば繋がるか繋がらないかという二者択一だからね。
今まで使えていた場所で使えれば電波強度が落ちても問題視する人はいないにょ。
やはり、問題視する人の絶対数が多いのは通信速度だと思うにょ。
しかし、20db(100分の1)程度の減衰量というのはADSLをイメージすれば大したことは
ないにょ。
HSDPA方式はADSLとは有線、無線という違いもあるし、周波数帯、変調方式の違いが
あり、20dbの減衰量が多いのか少ないのかは実際に確かめてみないと分からないにょ。

実際に所有者が試している動画はYouTubeにたくさんアップロードされているにょ。
例えば下記の動画を見てみるにょ。
http://www.youtube.com/watch?v=lroQsTrAuzM
外周のアンテナに触れないで持つと2.4Mbps出るような場所で使用時もアンテナの問題と
なる付け根部分(デッドスポット)に触れると通信がストップするというのはこの動画を
見れば一目瞭然となっているにょ。(開始2分くらいの場所を見ると分かりやすい)
この場合でも外周を保護するバンパーを付けていれば通信速度は3分の2程度に落ちる
ものの普通に通信は可能となっているにょ。

これは測定する場所によってもかなりの影響があるにょ。
http://www.gizmodo.jp/2010/07/why-apples-iphone-4-update-wont-fix-your-reception-problem.html
100分の1に落ちても元々十分な強度があれば普通に通信が可能にょ。
仮に1つの中継局のアンテナで5kmカバー可能だとするとアンテナから5kmの位置で通信
するのと500mの位置で通信するのとでは単純計算で100倍の差が生じるからね。
だから十分電波強度の強い場所で通信するならば100分の1に減衰したとしてもそれほど
影響は受けないにょ。

そこで最初に書いたアンテナ本数の修正プログラムの出番となるにょ。
従来は電波強度から計算したアンテナ本数よりも多めに表示していたのをそれ相応に
表示し直すことで十分に電波強度の強い場所なのに通信、通話が途切れるという問題点を
解決可能になるにょ。
途切れるような場所は元々それほど電場強度が強い場所ではなかったということだからね。
そういう意味ではこの修正プログラムは案外ユーザーにとっては有用になるにょ。
もっとも、100分の1に減衰するならばまともに使えるエリアは100分の1になるのと同じ
だから単に使えない場所が分かるようになったというだけに過ぎないにょ。(アンテナ
5本立っているのに通信、通話ができないという事態は防げる)

普通に持っただけで100分の1に減衰してしまうという問題点は設計上の問題だからこの
プログラムでは何の解決にもならないためまともに解決するならばもう1度アンテナの
場所から設計のし直しが必要になるにょ。
それならば、バンパーを標準添付品にしてしまうのが最も簡単な解決方法にょ。
バンパー使用時にはAnandTech調査では未使用の3GS比で61.6倍のダウンだったのが2.5倍の
ダウンで済んでいるし、上記の動画でも少し通信速度が落ちる程度で済んでいるのが分かる
と思うにょ。

確かにアップルも「設計問題」なんて認めたくはないと思うにょ。
実際にアンテナそのものの感度はやはり4の方が3GSよりも上ということが上記リンクの
記事にも書いてあり、すべての場合に4が3GSに劣っているとは言えないわけだからね。
アンテナを外周部分に配置していることが受信強度のピーク性能を高めているとはいえ
実際に使用時においては桁違い(AnandTech調査では61.6倍の差)に3GSよりも低くなって
いるのも間違いではなくユーザーからの報告でもその調査を裏付けているためにピーク
性能の違いではなく実効性能で考えなくてはならないにょ。

なぜ、実効性能を無視してピーク性能をとるような設計にしたのか・・・?
それはテストが十分に行えず気が付かなかったのかもしれないにょ。
私がiPhone4の開発現場の様子を妄想したものをゲーム開発に置き換えて書いてみたにょ。

(1)ゲーム開発者A「画期的なゲームを考えた」
(2)ゲーム開発者B「いいじゃん!よし、それでいこう」
(3)ゲーム発売開始
(4)ユーザー「こんなゲームはプレイできねぇよ」
(5)ゲーム開発者A「それはプレイ方法が悪い」

(2)と(3)の間に重要なものがあるにょ。
それは「テストプレイ」にょ。
特にゲームの場合は開発者によるテストプレイだと仕様が分かっているからこそ問題点に
気が付きにくくなるからね。
これは開発者兼テストプレイヤーとなる機会が多い個人制作のゲームに特に多く見ることが
できるにょ。

ゲーム制作においてテストプレイというのは主にバグチェックにょ。
RPGだとひたすら壁にぶつかって進みすり抜けられる箇所がないかどうかをチェックしたり
そういった「一般的ではない」使用法ををすることが多いけどここでは事前に予備知識が
ない人がそのゲームをどのようにプレイするかということが重要になるにょ。
開発者視点では「このゲームは○○を△△すれば簡単にプレイできる」とはいっても
それがユーザー相手に通じる保証はどこにもないにょ。
これが多くのテストプレヤーがテストしていたらユーザーとの認識にギャップがあると
いうことが事前に気づいたのだろうけどね。

iPhone 4においては開発者がテストをする段階では外部流出を防ぐため少数精鋭で行った
と想像できるけどその際には全員が右手に持って通話・通信をしていたため例のデッド
スポットに触ることは無かったから気が付かなかったと思われるにょ。
いや、発売前には気づいていたかもしれないにょ。
ただし、その頃にはアンテナの設計変更が間に合わないレベル(ゲームでいえばマスター
アップ直前)まで来ていたと思われるにょ。
それは従来のケースとはとは異なるデザインであるバンパーを用意しているから想像が
できるにょ。

設計の段階では最も感度が高くなるように外周に設置するという手法は間違いではないにょ。
だから正確に言えば「設計ミス」ではないにょ。
しかし、恐らくテストプレイ不足のため開発者の使用方法こそが普通の使用方法と剥離して
いると思われるのにユーザーの使用方法が間違っていると言ってしまうのは正しいことだ
とは思えないにょ。
ユーザーとしては従来の方法でプレイしようとするわけだからね。

仮にユーザーの使用方法(プレイ方法)が仮に間違いだとするにょ。
その場合でも普通に使用した際に4と3GSの電波強度の差は61.6倍になっていたのがなるべく
外周に触れずに持った場合は7.9倍に縮まるというだけにょ。
「持ち方によって改善が可能」というアップルの主張に間違いはないのだけど持ち方を
変えても依然として7.9倍3GSの方が有利となり「改善」ではなく「最悪の事態が防げる」
というだけに過ぎないにょ。

確かに特定の方法以外の進め方をしたらゲームが途中から先に進めなくなったり、セーブ
データが消えたりするというゲームはどんな形であれそれを回避できる方法さえあれば
致命的な問題であっても「仕様です」で済ませることができるにょ。(もしくは「こちら
では確認されていません」という場合もある)
それを考えれば3GSより61.6倍も感度が劣るのは「仕様です」で済ませるということは
いくらでも可能にょ。(実際コンシューマゲームの場合は絶対にクリア不能なゲームで
なければどれだけプレイ続行が困難なゲームでも基本的に回収や交換になることはない)
ただし、iPhone 4がそんな致命的な問題があるゲームと同次元の争いになってしまうと
いうのは果たして良いことなのか・・・?

290御茶目菜子:2010/07/07(水) 13:29:16
SIMロック解除は本当にユーザーにとってメリットなのか・・・?
ドコモが来年の4月から全端末SIMロック解除にする模様にょ。
http://plusd.itmedia.co.jp/mobile/articles/1007/06/news054.html
SIMロックに関してはかかってない方が良いと単純に考える人も多いと思うけど実際はSIM
ロックがあることによるメリットを現状で受けているということに気が付いてないだけ
だからね。
「出来て当たり前のことが出来なくなる可能性もある」ということにょ。

さて、ここで問題となるSIMロックに関してだけど実際はドコモとソフトバンク以外は
蚊帳の外の状態にょ。
というのもイーモバは周波数帯が異なるため現状のイーモバ端末SIMフリーになった
ところでドコモやソフトバンクのSIMカードを挿しても使用できないし、auに関しては
そもそも通信方式自体が異なるために使用不可能にょ。
したがって、SIMロック解除というと好きな端末で好きなキャリアを選べるように考えて
いる人がいるかもしれないけど実際はソフトバンクの端末をドコモで使用(もしくはその
逆)しか行えないにょ。

全面SIMロック解除(SIMフリー)にするユーザーにとってのメリットはこれだけしかない
けれどデメリットは以下のようなものがあるにょ。

《 SIMロック解除のデメリット 》
(1)キャリア独自のサービスが利用できなくなる
(2)端末代金の価格高騰
(3)ユーザーの混乱を招く

(1)は、キャリアメールを使用したり、フルブラウザではなく標準ブラウザを使用する
場合に著しく制限が加わるということにょ。
標準ブラウザを使用した有料コンテンツの利用には端末側の認証があってようやく使用が
可能になるけどこれはキャリアが代金回収を代行しているのが理由にょ。
コンテンツプロバイダはキャリアと契約することで料金を回収できているわけにょ。
したがって、その端末に他のキャリアのSIMを挿した状態では使用できなくする必要が
ある(=SIMロックをかける必要がある)ということにょ。

またキャリアメールもそれと同様にょ。
キャリアメールのメールサーバの維持費はユーザーの基本料金から賄われているにょ。
したがって、他のキャリアのSIMカードを挿した状態では使用ができないにょ。
それに、メールアドレスそのものもキャリアと紐付けされているためソフトバンクの
端末でドコモのSIMカードを挿した場合、メールアドレスはdocomo.ne.jpしか使えない
けれど端末側がsoftbank.ne.jpしか使えないためキャリアメールは使用不可になるにょ。
これが容易に解決できるのであればMNPが始まった段階で解決できている問題にょ。

(2)は端末代金というのはインセンティブ(販売報奨金)によって価格が抑えられている
というのが大きいからにょ。
それによってかつては新機種でさえ2〜3万円で購入が可能な状態にあったにょ。
1端末当たりのインセの平均額は4万円程度と言われているけどそれを考えると端末を
普通に購入すれば当時でさえ6〜7万円になっていたということにょ。
その4万円というのはどこで回収するのかというとユーザー負担になるにょ。
概ね2年間かけて回収していくように計算されているけどこれはすべてのユーザーを対象に
行われているにょ。

頻繁に機種変更する人と長期使用する人が同じように基本料金から目に見えないインセ分を
支払っているというのは不公平であるということで総務省は端末価格と通話料を分離する
ように指示をしたにょ。
そして、近年はケータイは分割払いで購入するということが当たり前になったにょ。
かつては型落ち端末は1円とかになっていたけどこの方式の導入によって1円ケータイは
ほぼ全滅したにょ。

それならば今はインセが無くなったかというとそうではないにょ。
単に明らかに見えるような形ではなくなったというだけに過ぎないにょ。
ソフトバンクのスーパーボーナスやWILLCOMのW-VALUE SELECTのように端末代と割賦金を
明確にしているようなキャリアだけではないから依然として価格はインセが含まれた
ものになっているにょ。
ソフトバンクもしくはWILLCOMで端末を割り引き無しで一括購入した場合にはほぼインセが
含まれない価格といえそうだけどそうでもないにょ。
そもそも、ソフトバンク端末であれば「Yahooボタン」を付けることで端末開発補助金が
キャリアから端末メーカーに対して出ているわけだからね。
それを何らかの形で回収する必要があるにょ。

したがって、SIMロック解除を望む人はソフトバンクもしくはWILLCOMの一括払いの価格と
同等もしくはそれ以上の価格になるということをまずは認識しておかないといけないにょ。
また、将来的に複数のキャリアで使い回しができるような端末が出来た場合にはその分の
価格がさらに端末価格に上乗せされてしまうにょ。
ただし、この場合は端末が他キャリアで使い回しができるから量産効果で安くなるから
単純に他キャリアで使える分だけ高価になるとは言えないけど少なくとも現状のSIMロックが
かかった状態よりは端末価格が上昇するのは100%確実にょ。

(3)は過渡期においては特に問題となるにょ。
全キャリアが一斉に既存端末を含めてSIMロックが解除されるのであれば問題はないのだけど
そんなことはまずあり得ないからね。
キャリアによっての実施時期の差もあるし、キャリア内でもSIMロック解除対応の端末
(デフォでSIMフリーにするのか、何らかの手続きを必要とするのかは現時点ではまだ
不透明な状態)だけではなくそうでないものも平行して販売されるからね。
だから、SIMロック解除とは何なのか、どの端末が対応しているのかということを誰でも
分かる形で提示しておく必要があるにょ。

恐らくユーザーの大半はSIMロックというのもまともに理解してないだろうし、SIMロックが
無ければ「キャリアが自由に選べる」というレベルの認識しかない人であれば通信方式や
周波数帯の違いでauやイーモバは選択できず、事実上ドコモとソフトバンクしか選べない
ということも知らないのではないかと思うにょ。
したがって、販売する場合にはドコモショップでは「ソフトバンクのSIMカード対応」と
明確に提示する必要があるし、ソフトバンクショップではその逆を行う必要があるにょ。
auショップでは「他のSIMカードは使えない」ということを提示する必要があるにょ。

さらに問題となるのはサポートにょ。
ソフトバンク端末でドコモのSIMカードを使って通信、通話が出来なくなった場合には
どこがサポートしてくれるのかということが非常に重要となるにょ。
現在は端末とキャリアがセットであるためその心配は無用だけどSIMロックが解除されて
他のキャリアのSIMカードが自由に使えたら問題が発生するにょ。
「SIMカードを差し替えたらサポート対象外です」なんてことになったらSIMロック解除
なんて建前だけのものになってしまうからね。
本来ならばサポートすべきはドコモでもソフトバンクでもなく端末メーカーにょ。
シャープの端末であればシャープがサポートすべき問題にょ。
それを行うのは端末メーカーの負担が増えさらなる端末コストの上昇を招いてしまうにょ。


現在SIMロック解除に積極的になっているドコモだけど3年前はSIMロック解除には否定的
だったにょ。
http://plusd.itmedia.co.jp/mobile/articles/0702/02/news108.html
これが今では積極的になったのはスマートフォンのヒットが挙げられるにょ。
スマートフォンはキャリア独自のサービスに頼っている部分が少ないからね。
仮にキャリアを移動しても使えない機能というのは限られるためユーザーにとっても
デメリットは小さいにょ。

特にスマートフォンといえばiPhoneの存在が大きいにょ。
「スマートフォン利用動向調査報告書2010」においてiPhoneのシェアは46%となっている
くらいにょ。
http://www.impressrd.jp/news/091210/smartphone2010
ソフトバンクのシェアが2割程度であり、その中のわずか1端末(前モデルとの合算たから
正確には2端末になるけど)で全キャリアの46%のシェアを獲得しているということは
いかにすごい状態かが分かるにょ。

ユーザーアンケートでもauやドコモのユーザーの過半数が契約キャリアからiPhoneが出たら
買うと答えているくらいにょ。
http://www.itmedia.co.jp/promobile/articles/1002/26/news038.html
言い換えればiPhoneが他キャリアで使えるようになればその過半数はキャリア変更される
可能性があるということにょ。
実際キャリア移動可能なのはソフトバンク→ドコモだけであり、SIMロックが解除される
ことで100万契約以上がソフトバンクからドコモへと流れることを意味するにょ。

通信網が弱くほとんど端末人気だけで契約数を増やしているソフトバンクにとっては
SIMロック解除は非常に大きな問題となるにょ。
実際、孫社長もiPadにSIMロックをかけている理由に関して「他社に戦いの武器は渡せない」
とコメントしているにょ。
http://www.itmedia.co.jp/news/articles/1005/14/news036.html
これはスマートフォンがポピュラーになればなるほど有利に働くドコモとは対照的になって
いるにょ。
これが総務省がSIMロック解除のガイドラインとして「各社の自主的な取り組みに任せる」
と記したにも関わらずドコモが積極的でソフトバンクが消極的な理由になっているにょ。

ドコモはSIMロック解除に積極的であり、蚊帳の外であるイーモバとauは大きく否定する
理由もないためそういう状況になればSIMロック解除をするだろうけどそうなった時に
ソフトバンクだけは「ウチはSIMロック解除をしません」なんて出来るはずもなく必然的に
SIMロック解除の方に進行していくと思われるにょ。
つまり、ドコモが動き出した時点で事実上ソフトバンクがSIMロック解除を迫られたという
ことになるわけにょ。

確かに、一部ユーザーが待望していた国内向けiPhoneでドコモのSIMカードが使えるという
ことが行えるようになるのは時間の問題であり、これは該当するユーザーにとっては
大きなメリットといってもいいけどそうでない人にとって現状においてSIMロック解除は
上記のようにソフトバンクの端末をドコモのSIMカードで使える(もしくはその逆)しか
ないにも関わらずデメリットの方は非常に多くなっているにょ。
少なくとも現状においてSIMロック解除はイメージしているほど良いものではないにょ。

しかし、将来的には変わるにょ。
次世代通信方式であるLTEはauも採用を決定しているわけなので4キャリアがすべて同じ
通信方式を採用するために真の意味での自由なキャリア選びが可能になるにょ。
複数のキャリアのサービスに対応したも端末が登場する可能性も十分に考えられるにょ。
つまり、海外と同じくキャリアではなく端末メーカー主導になっていくことでSIMロック
解除のメリットがようやく出てくるというわけにょ。

そうなると力(資本力、開発力)のない端末メーカーは淘汰されてしまうにょ。
実際将来を見越して富士通と東芝は携帯電話事業を統合したくらいだからね。
http://www.itmedia.co.jp/news/articles/1006/17/news037.html
少ないパイで多くの端末メーカーが存在していた日本においてはキャリアの力無くして
新端末を投入するのは難しかったけれど今後はより大きなシェアを獲得するためには
スマートフォンに力を入れ海外市場も狙っていく必要があるわけにょ。

1機種当たりの販売台数が増えれば1台当たりの開発コストも軽減されるためそれは価格
低下に影響するにょ。
SIMロック解除は短期的に見ると価格の高騰を招いてしまうけどそれは長期的に見ると
必ずしもそうとはいえないということにょ。
ただし、「実質負担金」というまやかしに慣れてしまった人にとっては将来的にも現在
より価格を抑えるのは難しいけどね。
現時点ではSIMロック解除はぶっちゃけ「iPhoneがドコモで使える」というくらいしか
メリットしかなくデメリットの方が大きいけれどそれは将来的にはデメリットは徐々に
失われていくために問題はないにょ。
あとは、キャリアと端末メーカーのがんばり次第にょ。

291御茶目菜子:2010/07/08(木) 12:37:59
CULVノートは旧製品の方がお買い得・・・?
Alienware M11xがCalpellaプラットフォームにリフレッシュしたにょ。
http://pc.watch.impress.co.jp/docs/column/gpl/20100706_378811.html
M11xはCULVノートにGeForce GT335Mを搭載という高性能なGPUを搭載しているのが特徴と
なっているにょ。
このGT335MはVAIO Zに搭載の330Mの1ランク上のモデルであり、このクラスのノートPCと
しては極めて高い3D性能を持っているにょ。

今回はGPUはそのままでプラットフォームが一新されたにょ。
それにより、CPUも従来のPenrynベースのものからArrandaleベースのものになったにょ。
CULVというのはIntelが従来はモバイルノート向けに高価に販売していた超低電圧版(ULV)
CPUを特定条件を満たすことで格安で提供し、それによって低価格の薄型、小型ノートPCを
可能にしたものにょ。
Atom搭載のネットブックと用途が被っているけど性能面は2〜4倍の性能を持つために
Atomでは性能面で物足りない層に人気が高いにょ。

CULVノート用のCPUというのは主に下記のようなラインナップになっているにょ。(CULV用
としては高価なものやシングルコアモデルや明らかに価格レンジがダブっていると推測
されたものは省いた)
これを見ての通り、PenrynベースのものからArrandaleベースのものへと現在移行中という
わけにょ。
すでにArrandaleベースのCULVノートは多くのメーカーから発表されているにょ。

《 PenrynベースのCULVノート用のCPU 》
         クロック  L2  TDP
 Core2Duo SU9600 1.6GHz  3MB  10W
 Core2Duo SU9400 1.4GHz  3MB  10W
 Core2Duo SU7300 1.3GHz  3MB  10W ← 旧M11xに採用
 Pentium SU4100  1.3GHz  2MB  10W
 Celeron SU2300  1.2GHz  1MB  10W

《 ArrandaleベースのCULVノート用のCPU 》
        クロック TB時クロック HTT   L3   GPU   TDP
 Core i5-540UM 1.2GHz  2.13GHz  あり  3MB  内蔵  18W
 Core i5-430UM 1.2GHz  1.73GHz  あり  3MB  内蔵  18W
 Core i3-330UM 1.2GHz   無し   あり  3MB  内蔵  18W ← 新M11xに採用
 Pentium U5400 1.2GHz   無し   無し  3MB  内蔵  18W
 Celeron U3400 1.06GHz   無し   無し  2MB  内蔵  18W

同じCULVノート用のCPUでもPenrynベースとArrandaleベースでは大きく変わっているにょ。
まずはGPUを含むノースブリッジ機能をCPUと同一パッケージ上に収めた(パッケージ内に
別々にダイが存在するため「統合した」とは言い難い)というわけでTDPは従来の10Wから
18Wへと上がっているもののこれはノースブリッジ分のTDPがそのまま加算されただけで
あるためプラットフォーム全体からすると上がっているわけではないにょ。

あと異なるのはPenrynベースの方はクロック以外はL2の違いしか無かったのだけど
Arrandaleベースの方はクロック以外にTBの有無とHTTの有無が存在するにょ。
TBはシングルスレッドアプリ(マルチスレッド非対応アプリ)で有用、HTTはマルチ
スレッド対応アプリで有用ということで両方あるのが望ましいけどそれは上位モデルに
限られるにょ。
つまり、Penrynベースの時よりも上下の性能差は大きくなっているということになるにょ。

そういうわけで、それぞれのベンチ結果を見てみるにょ。
ベンチ結果の中からCPUの影響力の大きなものだけをピックアップしてみたにょ。

 PCMark 05    新M11x   旧M11x
  CPU       3299    3114   5.9%アップ
 PCMark Vantage
  TV and Movies  2155    2020   6.7%アップ
  Gaming      2055    2503   17.9%ダウン
  Music      2783    3311   16.0%ダウン
  Communicatons  2451    2652   7.6%ダウン
  Productivity   2476    2285   8.4%アップ

こうやって見ると同じランクに位置するPenrynベースのCULVとArrandaleベースのCULV
だけど必ずしも新しい方が性能向上しているとはいえないことが分かるにょ。
むしろ、劣っている面の方が多いくらいだからね。
これは、PCMark05のCPUスコアがCPUの演算性能のみを測定してしたのに対してVantageの
方はより総合ベンチとしての役割が強くなっており、HDD性能等を考慮した測定結果が
出ているからにょ。
HDD性能を見ると新M11xの方が28%も性能が低くなっており、これがそれぞれのスコアを
大きく下げる要因となっているにょ。
HDDの影響力をあまり受けないTV and Movies(動画再生)とProductivity(テキスト編集)
だけは実際にアップしているわけだからね。

そういうことでCPU性能だけを見ると実性能で概ね6〜8%アップといったところにょ。
クロックが1.3GHzから1.2GHzに下がってなおかつ実性能が上がっているのはやはり
アーキテクチャ変更によるものにょ。
あとHTT対応も大きいけどこの結果を見る限りはHTTの影響力はAtomほどは大きくない
と感じるにょ。
AtomのHTTはその有無により実性能で20%程度(ベンチならば最大6割程度)の差が生じる
からね。

この1機種のベンチ結果でArrandaleベースのCULVノートはPenrynベースのCULVノートと
大差はないと断言することはできないけどやはりクロックダウンした分をアーキテクチャで
埋めるのが精一杯で大幅な性能向上は期待できそうにないにょ。(逆に言えばHTTがない
U3400はSU2300を上回る性能になるとは思えないためSU2300の方が高速になる場合が多い
と推測される)
やはり、HTTとTBの両方が備わったCore i5以上のものを選択してようやくPenrynベースの
ものよりクロック低下分を跳ね返して明確な性能アップになると思われるのだけどその場合
CULV用としては上位となるため価格的なメリットは少なくなってしまうにょ。

というわけでCULVノートは新旧の性能差があまりないために5月26日に書いたように新製品
と旧製品と比べて旧製品の方が安ければ旧製品を買うというのはありだと思うにょ。
Arrandaleに内蔵のGPUはGS45に内蔵されたGMA X4500Mよりも高性能だし、メモリもDDR3に
対応しているということで将来的に8GBへと増やしたい人は有利になるからCPU以外の面を
考慮するとまた難しくなるけどね。

292御茶目菜子:2010/07/09(金) 12:40:46
TX1は早くも2モデル型落ちか・・・
TX9が発表されたにょ。
http://dc.watch.impress.co.jp/docs/news/20100708_379038.html
私が昨年末に買ったTX1はこれで2モデル型落ちとなってしまったにょ。
まぁTX1を買ったのは後継機種であるTX7が出る直前だったし、年2回のモデルチェンジを
しているため半年あまりで2モデル型落ちになるのは想定されたことだけどね。

さて、問題はこのTX9がTX7と比べて何が変わったのかということにょ。
TX7はTX1と比べて広角に対応(逆に言えば望遠が弱くなった)、フルHD動画に対応、
SDHC対応(ファームウェアアップグレードでSDXCに対応)という変化があったけどTX9は
TX7と比べて主に3つの変化があるにょ。

(1)新開発の1220万画素裏面照射CMOSセンサー搭載
(2)スイングパノラマ機能が3Dに対応
(3)背景ぼかしモード機能を追加

(1)に関しては画素数が1000万から1200万に増えた意味ははあまりないにょ。
しかし、裏面照射センサーというのはまだ熟成されたセンサーではないため新開発の
センサーが搭載されるというのはかなり大きいにょ。
現行の裏面照射センサーは確かに高感度ノイズが少ないというメリットはあるものの
日中屋外でノイズが発生し、それにより解像力の大幅な低下があったり、色再現性に
難があったりするからね。
それらは画像処理エンジンで改善されつつあるけど本質的にはセンサー側の問題である
ために大きな改善は難しいにょ。

また、裏面照射センサーはその6月25日にも書いたように構造上一般的なCMOSセンサーと
比べて面積効率で有利になるからね。
一般的なCMOSセンサーだと画素数が増えれば配線数も増え1画素当たりの面積は画素数の
増加分とは反比例ではなくそれを大きく下回るためにトータルでは受光量が減ってしまい
画素数が増えても高画質には繋がらないのだけど配線の影響を受けない裏面照射センサー
であれば画素数が増えてもトータルでの受光量が減らず画素数増加の恩恵を得ることが
できるにょ。(ただし、レンズの方がボトルネックになるため画素数増加の効果はあまり
期待できない)

(2)はTX9の一番のウリとなっている機能にょ。
3D写真が撮れるデジカメ「FinePix READ 3D W1」が昨年富士フイルムから発売されたけれど
単眼式では世界初の3Dとのことにょ。
3D写真は左右の視差で立体視することで実現しているのだけど単眼だとそれはできない
からね。
ではどうやるのかというと従来のソニーのデジカメに搭載されているスイングパノラマ
機能を使って実現しているにょ。

スイングパノラマ機能はカメラを構えて回転させながら撮影することでパノラマ撮影が
できるというモードにょ。
従来であれば少しずつずらしながら撮影した複数の写真をいくつか合成することによって
得ることができたパノラマ写真をカメラ本体でリアルタイムで生成するということで
お手軽パノラマ機能として重宝しているにょ。

3D写真が撮れるデジカメはREAD 3D W1が初めてだけど立体視写真であればそれよりも前に
撮れる機種はあったにょ。
私が持っている初代Optio S(2003年発売)でも3D写真モードを備えているからね。
これはどうやって実現しているのかというと要するに超基本的な立体カメラの原理である
2台並べて撮影と同じく1枚の写真で2回撮影し1回目の写真と少しずらした位置で2回目の
撮影をすることでその視差によって立体視写真を実現しているものにょ。
Optio Sでは交差法、平行法の両方をサポートしているものの問題はその「ずらす」という
のはカンが便りになる(上下ずれが起きたらうまく立体視されないためグリッド表示を
活用して上下にずれないようになおかつ左右視差が撮影距離に応じた適切な量ずらしていく
必要がある)ということできれいに立体視できる写真を撮影するというのは簡単なもの
ではなかったにょ。

しかし、このTX9の3Dスイングパノラマ機能ではカメラを回転する(左右に振る)ことで
撮影の最初と最後では視差が発生することを利用しそれにより3D写真を実現しているにょ。
これはOptio Sで行っていたことがすべてカメラ任せで実現できるというだけにょ。
とはいえ、カンに頼っていたものがオートで出来るようになったというのは大きいにょ。
しかも、鑑賞する人が交差法をマスターしておく必要があるのに対してMPO形式の3D写真
フォーマットで撮影できるためそれに対応したフォトフレームであれば3Dで鑑賞することが
できると思われるにょ。(ソニー独自の形式で保存している可能性もあるけど)
そういう点ではREAD 3D W1と同等といえるにょ。(視点数からいえば15視点であるため
2視点であるREAD 3D W1を越えるものになる)

単眼であればREAD 3D W1のように2つのレンズユニットとセンサーを使う必要がないため
コスト削減に大きく役立つにょ。
それに左右視差を利用するために二眼式だと左右サイズを一定以下に小さくできないけど
単眼であればその制約もないからね。
しかし、スイングパノラマモードでしか3D写真が撮れないという非常に大きな制約がある
ためあくまで簡易的な機能であることは否めないにょ。
二眼式であればすべてのモードで3D写真が撮れるし、動画も3Dで撮れるからね。
だから、単眼式で必要以上に「3D」をアピールすると購入後にユーザーをがっかりさせる
ことになりかねないにょ。

(3)は非常に興味深い機能にょ。
デジタル一眼がコンデジに比べてアドバンテージとなっているのは画質もだけどやはり
絞りのコントロールが大きいにょ。
ボケの大きさはレンズの換算焦点距離ではなく実焦点距離が影響するためセンサーサイズが
小さいコンデジの場合は実焦点距離が短くなるためボケを生かした写真を撮ることは非常に
難しいにょ。(逆に言えば誰が撮ってもピンぼけになりにくいというのはメリットになる
場合があるけど)

ハードウェアの面でうまくぼかせないならばソフト的に行うという選択肢もあるにょ。
すでに背景ぼかし機能はオリンパスから発売されたSP-590UZに搭載されているからね。
http://plusd.itmedia.co.jp/lifestyle/articles/0902/05/news074.html
これはあらかじめ指定された枠内に被写体を入れておくことでそれから外れた部分は
ぼけるというものだけど上記リンク先の画像を等倍(800x600ピクセル)で見ての通り、
非常に不自然なものとなっているにょ。
これは輪郭抽出のアルゴリズムに問題点があるのと背景に距離情報がないためにガウス
ぼかしのように均一アルゴリズムでぼかしているのが理由にょ。

TX9では高速なCMOSセンサーということを有効活用して距離情報だけの写真を別途撮影し
それを合成することで背景ぼかしを実現しているとのことだけどそれでSP-590UZと比べて
どれだけ自然なものになるのかというのは非常に楽しみでもあるにょ。
画像合成といえば手持ち夜景モードのように高感度ノイズを大幅に減らしたり、HDR
(ダイナミックレンジ拡大)によって暗所潰れや白飛びを軽減したりという大きな
成果を上げているけどそれと同じくらい使えるものであれば歓迎したいところにょ。
SP-590UZとあまり変わらないレベルであれば要らないけどね(笑)

このTX9はレビューが楽しみにょ。
これだけ進化しているならばTX1からの買い換えも検討したいけど予算的に難しいから
さすがに無理にょ。
私のデジカメの買い換え周期は2〜4年であるためTX1にはあと2、3年頑張ってもらうにょ。

293御茶目菜子:2010/07/10(土) 13:26:56
CULVノートは「買い」ではない!?
一時期は大ブレイクをしたネットブックだけどある程度の売れ一般層に普及するにしたがい
ネットブックに搭載のAtomでは不満を覚える人が多くなった(YouTubeのHD動画がまともに
再生できないなど)というのとWSVGAという解像度も一般的なノートPCよりも低く不満に
思う人も多くなったにょ。
これは低価格を実現するためにはやむを得ないことだけど安かろう悪かろうでは意味がない
からね。

もっとも、それで「十分」と感じている人にとっては「あえてネットブックを買う」と
いうことはお金の節約の面で有用にょ。
ただし、PCに詳しくない一般人の場合は「安くても最新のものだから高性能なのだろう」
と感じるだろうし、そういう買い方であれば恐らく買った後で「こんなはずではなかった
のに・・・」と感じることになると思われるにょ。
そういう意味ではCULVノートの意味は大きいにょ。
何せネットブック用のAtom N450と比べても2〜3倍程度の性能があるからね。
価格差を考えるとこの性能差は非常に大きいためCULVノートが登場することによってネット
ブックを購入することが馬鹿らしくなる感じにょ。

そんなCULVノートはネットブックの代替としてバカ売れしているのかと思いきやここ最近
売れ行きがあまり芳しくない模様にょ。
http://trendy.nikkeibp.co.jp/article/column/20100628/1032222/
安価なセレロンSU2300モデルであってもネットブックより1〜2万円高価とはいえ、ネット
ブックの2〜3倍のCPU性能があり、HD動画の再生支援機能もあり、画面解像度もネット
ブックの主流であるWSVGAではなくWXGAであるためどう考えてもCULVノートの方がお得感
という観点では上であるためもう少し売れても良さそうなものにょ。

それには下記の3つの理由が考えられそうにょ。

(1)PCの買い換えは壊れた時に行う
(2)使いたいソフト、周辺機器が使えなくなった時に買い換える
(3)CULVノートが中途半端な存在になってしまった

(1)はPCマニアではなければ当然のことにょ。
他の電化製品で考えてみれば分かるけど壊れずに使えているのにわざわざ新しいものに
買い換える人はいないからね。
仮にネットブックを買ってからCULVノートに買い換えるとなるとわずか1〜2年で買い換え
となり、これは一般人ではあり得ないものにょ。
いくらネットブックが安いからといってそんなに壊れるものでもないし、ネットブックに
CULVノートの金額を合算すればそれなりの金額になってしまうためネットブックが動作
するならばそちらを使うという人が多くいると思うにょ。(お買い得だから買い換える
なんてしていたらお金がいくらあっても足りないどころか結果的には高く付く)

(2)一般人はPCが壊れたら買い換えるとはいえ、それ以外の需要もあるにょ。
それはPCでやりたいことが出来なくなったときにょ。
使いたいアプリ、周辺機器が手元にあるWin95(Win98)搭載のPCで使えなくなった場合に
やむを得ずXP搭載のPCを買ったという人は多くいると思われるにょ。
ネットブックの多くはXPであり、CULVノートは基本的にWin7であるためXPには対応せず
7なら対応というアプリ、機器が多く出てきたら買い換えに繋がるのだろうけど現状で
そんなものはほとんどないからね。
XP以前のOS(98、Me)搭載のPCからであれば十分買い換え需要があるとはいえ、XPが登場
してもう9年経つため多くの人はすでにXPへと買い換えを済ませていると思われるにょ。

ネットブックではYouTubeのHD動画がまともに再生できないという問題もそのために安く
見積もっても4〜5万円のCULVノートを買うという理由にはならないにょ。(ネットブック
だけに限らず初期のXP搭載ノートであればHD動画はまともに再生できないけどそれでも
360pや480pならば再生できるためHD動画のためだけに買い換えられるという人は少ない)
HD動画再生支援機能を持たないネットブックであっても一旦ローカルに保存して軽快に
動作する動画プレイヤー(MPCなど)で再生した場合には720pまではスムーズに再生
できるとはいえ、そこまでして再生する人はすでに一般人のレベルを超えているにょ。

(3)は少々厄介な問題にょ。
ネットブックは登場当初は軽量コンパクトで多くの貧乏モバイラーに受け入れられたにょ。
ただし、そのネットブックも大型化が進んでしまいどんどんモバイル用途には向かなく
なってきてしまったにょ。
CULVノートはその大型化されたネットブックより一回り大型であり、大型化した分だけ
重量も増しているにょ。
高価なモバイルノートにおいては少しでも薄型化や軽量化をするためにコストをかけて
いるのだけど低コストでそこそこの性能を実現したCULVノートにおいてはそれは難しい
からね。
そうなると軽量化にはバッテリ容量を減らすしか方法はないにょ。

ただし、それを行うと駆動時間の短縮に直結するにょ。
ネットブックも当初は重量優先の3〜4セルバッテリ搭載モデルと駆動時間優先の6セル
バッテリ搭載モデルがあり、大型化で重量が増したためにバッテリ容量を削り6セル
バッテリを搭載の機種はほとんどなくなったのだけどPineViewによって駆動時間が延びた
ために4セルでも実用レベルの実駆動時間(4〜6時間)を確保可能になったにょ。
でも、CULVノートはそうはいかないにょ。
従来は6セルバッテリ主流だったのが4セルバッテリが主流になりつつあるけどこれは
ネットブックがDiamondville→PineViewで平均消費電力の大幅な低減が可能になったのに
対してPenryn→Arrandaleでは平均消費電力の低減どころか逆に微増状態であるために
プラットフォーム変更でバッテリセル容量を減らすという行為は単純に駆動時間短縮で
しかなくなったにょ。

家庭内モバイルがメインでバッテリ駆動時間を気にしない人であればいいけどそれならば
そもそもCULVノートが適しているとは言い難いにょ。
同程度の金額で光学ドライブを搭載のオールインワンノートが買えてしまうからね。
性能面でもULVではなく通常版のCPUを搭載のオールインワンノートノートは廉価なもので
あってもセレロンSU2300搭載のCULVノートより1.5〜2倍も高性能にょ。
その代わり1kg程度重くなるけど家庭内モバイルであればほとんど問題ないにょ。

4月18日にも書いたようにCULVノートより一回り小型、軽量であるネットブックでさえ
持ち歩いている人は少ないくらいだからね。
それならばCULVノートをモバイルメインとして買う人は限られて当然にょ。
CULVノートをモバイル用として買う人というのは予算面から通常のモバイルノートは
買えず、1kg台半ばという重量まで許容できる人であり、性能面でネットブックには不満が
あるという人に限られてしまうにょ。
確かにそれに合う人であればCULVノートは良い選択肢となるものの全体的にみればそれは
ごく一部であるためCULVノートの売れ行きが大したことはないのではないと思われるにょ。

ネットブックが売れた背景には「小型・軽量」というメリットだけではなくWindows PCと
して「絶対的な安さ」があったからね。
しかし、CULVノートにはそれがないにょ。
ネットブックに対しては性能面の大きなアドバンテージがあるもののそれを目的として
CULVノートを買うというのはある程度PCに詳しい人だけに限られるにょ。
そして、コアなモバイラーになると駆動時間や重量の面で今度はCULVノートは選択外に
なってしまいかねないにょ。
CULVノートを軽くしようとしても上記のようにバッテリ容量を減らしてしまえば駆動時間が
減ってしまうわけだしコストをかけて軽量化してしまえば価格アップに繋がるためこれも
良い選択肢とはいえないにょ。
あくまでCULVノートは「それに合うユーザーにとってはベスト」というだけに過ぎない
からね。

しかし、Arrandaleの次世代となるSandy Bridge世代になると現行よりも省電力になる
と予測されるためバッテリ駆動時間にプラスに働きそうにょ。
そして、XPに非対応のアプリ、機器が増えることで7への需要が高まりネットブックを
買ったユーザーの買い換え需要も拡大されると思われるにょ。
ただし、iPadに始まった大型タブレット端末のブーム(今でもまだ私自身本当にiPadでは
なく大型タブレット端末がブームになったかは疑問視しているけど)によって次世代の
CULVノートではなくそういったタブレット端末の方にユーザーが移ってしまう可能性も
否定できないにょ。

CULVノートが軽量かつ安価になってしまえば、今のものより魅力になるけどモバイル
ノートを作っているメーカーとしては自社製品が喰われてしまう危険性があるからね。
差別化のためそれを作らないという選択肢があり、それによって「CULVノートは中途半端」
というイメージが深く根付いてしまうにょ。(WXGA液晶、B5用紙サイズ、1kg以下で
実駆動8時間程度のCULVノートが5万円程度で発売されたら私はぜひ欲しい)
というか、そもそもユーザーには「ネットブック」ほど「CULVノート」なんて名称は
根付いてなく単なるネットブックより高性能だけど高価な小型ノートPCというイメージ
しかないだろうからね。
ユーザーにとって価格に似合うだけのものがあると感じればそれは売れるだろうし、
そうでなければ売れないというだけにょ。

294御茶目菜子:2010/07/11(日) 12:24:35
ケータイをコンデジ代わりに使うならばHD動画は必須か・・・
5月19日にはケータイのカメラ機能とコンデジとの比較においてコンデジのアドバンテージが
5つあるということを書いたにょ。
 (1)画質で有利
 (2)(ほぼすべての機種が)光学ズームを搭載している
 (3)フラッシュを搭載している
 (4)(ほとんどの機種が)光学式手ぶれ補正機能を搭載
 (5)レスポンスが良い

この中で(1)の画質だけど「高画素=高画質」ではないことはここで幾度も書いた通りにょ。
PCで鑑賞をするならば1000万画素は必要ではなく200〜300万画素で十分だからね。
それならば昨今のケータイであればほとんど問題ないとはいえ、PC画面で全画面表示して
不満を感じるならばそれは十分ではないということにょ。(昨今のコンデジならばフルHDの
モニタに全画面表示を行いそれで不満を感じるような機種は皆無)

しかし、問題があるとすれば動画の方にょ。
XGAモニタでもVGA動画の全画面鑑賞では拡大補間の影響が大きいけど720pのHD動画であれば
十分キレイに見えるにょ。
昨今はノートPCでも事実上WXGAが最低ラインであるためやはり720p以上であることが
望ましいと私は思うにょ。
これが静止画では300万画素くらいに相当すると思うにょ。(720pだと92万画素だけど
静止画の場合は静止している関係上細部まではっきり見えてしまうためベイヤー配列
ということを考慮してその3倍は欲しいため)

6月30日に書いたようにコンデジにおいてはエントリーモデルを除きほとんどの機種に搭載
されているHD動画撮影機能だけどケータイにおいてはまだ一部の機種に止まるにょ。
http://camera.itmedia.co.jp/dc/articles/1007/06/news030.html
このレビューを見て「意外に良く撮れる」と思うか「まだまだ物足りない」と思うかは
意見が分かれるだろうけどHD動画撮影機能は現状ではほとんどコストアップにならなく
なってきているため(H.264エンコーダを内蔵する場合、SD対応とHD対応ではほとんど
価格差はない)HD対応によるデメリットはないと思うにょ。

ただ、上記レビュー見ての通り現状では720pがベストな選択肢だと思われるにょ。
無理に1080p(フルHD)に対応していても720pよりも解像感が増しているとは言えない
わけだし、フレームレートが低ければそちらの方がかえって気になるからね。
720pであってもWXGAまでのモニタであればドットバイドットで表示できるし、再生に
必要なPCのスペックも低くなるしね。(ULV PenM以上であれば再生可能)

昔だったらWebで公開用ならばQVGAやQQVGA(160x120)で動画撮影できる機種がベター
だったにょ。
私が持っているXacti HD2は1ボタンでHD(720p)とSD(VGA、QVGA)の切り替えができる
ために720pとQVGAの撮影を交互に行うことも簡単にできてしまうにょ。
これは購入当初は非常に良い機能だと思ったけどしばらくしてこの機能は使うことが
無くなったにょ。
すべての動画をHDで撮るようになったからね。
YouTubeで公開する場合にはHDでアップロードしても見る人の環境で解像度が選択できる
ためにHDで撮影したから鑑賞が無駄に重いということもないにょ。(これがアップロード
した解像度しか選択できないのであればVGA以下で撮影することも考慮が必要だけど)

ちょっとした動画メモだからQVGAで十分という人もいるかと思うけどやはりそれでは
後から見てもう少し高解像度で撮れば良かったと思う場合もあるからね。
画像メモだからということで1000万画素対応のデジカメをVGAモードで撮影する人も
今となっては皆無だと思うにょ。(無加工でWebで使うならばVGAモードでもありだけど)
確かに高解像度で撮影すると記録容量も増えるというデメリットがあるもののそれは
十分な量のSDカードを使うことで解決可能にょ。

720pであれば高ビットレート(9Mbps)で撮影しても16GBで4時間弱撮影できるわけだから
Motion JPEGのVGA動画と同程度の時間が撮影できるにょ。
したがって、高解像度で撮影すると多くの容量が必要というわけではなく動画形式の方が
重要であることが分かるにょ。(標準の6Mbpsだと720pでも6時間撮影できるわけだしね)
それにXacti HD2のように1ボタンでSD、HD切り替えが可能であっても結局HDで撮ってしまう
ということを考えるとメニューから撮影解像度を選択するような機種では普段使っている
解像度以外のものを使うことはほとんどないと思うにょ。
容量を節約で撮影の度に解像度変更するなんていうのは実際に行う人はほどんどないために
iPhone 4でも動画の撮影解像度は720pだけになったのだと思うにょ。

コンデジにおいてはほとんどの機種にHD動画撮影機能が搭載されているためにHD動画が
付いていないことがマイナス要素になることがあってもついていることがプラス要素に
なることは今となってはほとんど無くなっているにょ。
だから、HD動画といっても「720pかそれともフルHDか」「保存形式は何か」「撮影中の
光学ズームが可能か」ということがプラス要素になってくるにょ。
しかし、ケータイの動画撮影可能な機種は現時点ではまだ一部にとどまっているにょ。
「ケータイがあるからコンデジは要らない」という人であればやはりケータイはHD動画
撮影が可能なものを選択したいところにょ。
「ケータイのカメラなんて300万画素も要らん。100万画素でもお釣りが来る」というような
人であればHD動画は不要だろうけどね。

295御茶目菜子:2010/07/12(月) 13:07:18
三脚をモバイルする
写真を撮るならば三脚の重要性は非常に高いけど私はあまり三脚を使わない方にょ。
暗所撮影も可能な限りは手持ちで行っているわけだからね。
とはいえ、全く使わないというわけではなく部屋の中には5、6脚の三脚があるにょ。

 メイン   SLIK U7700
 サブ    SOLID KP-1700
 モバイル  KINGポケット三脚(型番不明)

残りの2、3脚は部屋の中に埋まっているにょ(笑)
三脚に限らずあまり使わないものは私の部屋では埋まってしまうというのは珍しいこと
ではないにょ。
したがって、必要な時に改めて買うことが多いにょ。
もっともそういうのがあるから安物しか買ってないけどね。

上記3脚のうちメインとなるのは三脚が必要とあらかじめ分かっている撮影用にょ。
サブはレンズ一式を大型のカメラバッグに入れて持ち歩く場合にそのバッグに収まる
程度のサイズの三脚も入れているというだけにょ。(三脚が必須でない場合でも念のため
持ち歩いている程度)
あとは、室内の小物撮影でもこの三脚は役に立っているにょ。(レンズ一式を持ち出す
ことは滅多にないためこっちの方がメイン用途)
モバイル用のは旅行やちょっとした撮影用でデジタル一眼(+レンズ1本)を単体で持ち
歩く際に持ち歩いているものにょ。
このポケット三脚はデジタル一眼で使用することを考慮されてないけれど意外に安定性が
高いため(足の開く角度が調整出来るので開くことで安定性がアップする)それなりには
使える品にょ。
それに足を最大限に開けば地面すれすれにできるため超ローアングルでも使えるしね。

さて、ここで問題となるのは私は普段からデジタル一眼を持ち歩いているというわけでは
ないということにょ。
基本的にデジタル一眼はモバイルランクでいえばランクD相当であるため必要な時(撮影
したいものがある時)のみ持ち出しており、普段からは持ち歩いてはいないにょ。
ランクC不在のデジカメにおいて私が普段から持ち歩いているのはランクBのTX1のみと
なっているにょ。

そうなると三脚選びも少々考えてしまうにょ。
上記のモバイル用三脚として設定しているKINGポケット三脚もTX1であれば余裕で使える
とはいえ、そのサイズは大きすぎるにょ。
私は普段から三脚をあまり使わない方なのにわざわざカメラ本体よりも嵩張るような
三脚を持ち歩きたくないにょ。(TX1が薄型軽量であるため一般的なポケット三脚では
三脚の方が嵩張ってしまう)

そういうわけで以前100円ショップでポケット三脚を購入したにょ。
この三脚はそれなりに小型なのはいいけどやはり100円という安価なせいか作りが雑で
小型軽量なTX1を乗せただけで安定性があまり良いものではないにょ。
それでも使えないわけではないレベルだったけど致命的に感じたのは自由雲台ではなく
角度調整はストッパーによるものだったということにょ。
ストッパー式であるため一定の角度(約15度)ごとしかアングルを変えることができない
というものにょ。
上記の安定性の無さもこのストッパー式であることが理由となっていてストッパーによって
角度調整しているため雲台の遊び部分が非常に大きいせいにょ。

そもそもなぜ三脚が必要なのかということを考えなくてはならないにょ。
私が三脚を使うのは手持ち撮影が不能な超スローシャッター(1/4秒より長いもの)を
使用時に限られるにょ。
安定させるだけならば地面に直に置けばいいにょ。
それだとあまりにローアングルで地面ばかりが映ってしまうにょ。
ポケット三脚程度の高さで良いのであればブロックでも何でもその辺にあるものを利用
すればいくらでも何とかなるにょ。
しかし、角度を微調整するというのはその辺にあるものを利用して簡単にできるという
ものではないにょ。

その角度の微調整がどの程度重要なのかを具体的な数字を挙げて書いてみるにょ。
一般的なコンデジの広角側(換算35mm)で10m離れた被写体を撮影すると仮定するにょ。
35mm相当のレンズの垂直画角は約38度であるため10m離れた被写体は上下6.5mの範囲を
写すことができるにょ。
ここで15度単位でしか角度調整できない場合であれば10m離れた被写体で2.6mも変わって
しまうにょ。
6.5mの被写体に対して2.6mというのは人間が被写体であれば全身がファインダー内に
収まっている状態から1段階角度を調整しただけで胸から上が一気にファインダーの外に
外れてしまうレベルにょ。
これならば「角度調整は全く出来ないけど安定性が高いもの」の方が三脚としては使い
勝手がよほど良くなるにょ。

つまり、安定度は最低レベルであり、角度の微調整ができないという時点でいくら小型
軽量であっても持ち歩くには値しないものになってしまうにょ。
その辺にあるものを利用するのも大変なことがあるため無いよりはマシとはいえ、あまり
使わない(使えない)ということを考えれば嵩張りすぎるという難点があるにょ。
いくら小さくてもあくまで一般的なポケット三脚よりも小さいというレベルでしかない
からね。
利便性とサイズを天秤にかけて結局「三脚は持ち歩かない」という選択をしたにょ。

しかし、気になるポケット三脚もないわけではないにょ。
その気になっていたポケット三脚をカメラ店の店頭で見かけたので買ってみたにょ。
http://www.etsumi.co.jp/catalogue/spec.cgi?id=E-2079
ちなみに近所のキ○ムラでは480円で売っていたにょ。
エツミから発売されているこの「Keypod」は軽量コンパクトというのがウリとなって
いるにょ。
このサイズであればあまり使い物にならなくても邪魔にならないからいつも持ち歩いて
いて損はなさそうと感じたからにょ。
http://ww5.tiki.ne.jp/~ochame/test/tripod.jpg
上記写真の上からKINGポケット三脚、100円ショップの三脚、そして今回かったエツミの
Keypodとなっているにょ。(比べればいかに小さいかが分かる)


それでは早速使ってみたにょ。
これがコンパクトサイズとしては驚くほど安定性に優れているにょ。
雲台も100円ショップのポケット三脚のようにストッパー式ではなく自由雲台となっている
ために上下方向に関しては無段階調整可能にょ。
ネジをきつく締めればTX1の重量であれば全く問題ないにょ。(三脚の足の1つが雲台を
固定するためのネジとなっている)

そうなると欲が出てきてしまうにょ。
一体どこまで耐えられるかということを実験してみたにょ。
幸いにして部屋の中にはコンデジがたくさん転がっているからね。
結果としては公称耐荷重は300gとなっているものの手元のコンデジの最重量である公称
390gのCoolpix990までは耐えることができたにょ。
http://ww5.tiki.ne.jp/~ochame/test/keypod.jpg

しかもこのCoolpix990は仕様上は390gとなっているけどこれはメディアとバッテリを
含まない重量にょ。
メディアはCFだし、バッテリは単三電池4本ということで運用時の重量は軽く500gを
越えてしまうという超重量級のコンデジにょ。(卓上秤では実測550gだった)
この重量に耐えられるのであれば耐えられないコンデジはないにょ。
とはいえ、Coolpix990を乗せた状態ではさすがにギリギリ倒れないというレベルであり
超スローシャッターではぶれてしまいそうだけどね。

重量的にはCoolpix990で耐えられるのであればOlympusのPENやPanasonic GF1やSONYの
NEXのように軽量ミラーレスカメラ+標準ズームくらいならば使えそうだけど三脚が小型
であるということが原因で三脚穴が重心にないカメラでは重量的には大丈夫でも使える
というわけではないにょ。
私の手元にあるデジタル一眼であるK200Dで試してみたところレンズを付けた状態であれば
重心が前にありすぎるために簡単に倒れてしまったにょ。
そういうことを考えるとNEXのように小型軽量なものでもレンズ装着時には重心が変わる
ために厳しそうにょ。

とはいえ、公称である300gまでのコンデジならばそこそこ安定しそうな感じにょ。
コンデジの場合はレンズ交換ができないために三脚穴は重心に付けられることが多いわけ
だからね。
Coolpix990もほぼ重心に三脚穴がある(上記写真では重心からかなり外れているような
感じるかもしれないけど大型グリップ部分に単三電池を4本収納しているためこの位置で
ほぼ重心となっている)お陰でKeypodで何とか使える状態にあるにょ。
もっともデザイン優先の薄型、小型のコンデジの場合は重心なんて考えれない機種も多い
けど300gより圧倒的に軽量であれば多少重心から外れても問題はないので大丈夫にょ。
実際私のTX1も三脚穴は重心にはなく構えた状態でかなり左側に重心があるからね。

そういうわけでこのKeypodは非常にコンパクトサイズな割りにはそれなりに使える製品
といえるにょ。
だから、いつもコンデジを持ち歩いており、三脚の使用頻度は低いけど常備したいという
人にはお勧めの製品にょ。
私も普段は三脚を使わない主義なので別に三脚は無くてもいいと考えてはいるもののいざ
という時にはあった方が助かるからね。
その保険程度であればこのサイズは非常に魅力となるにょ。

296iphone4:2010/07/12(月) 18:29:51
iPhone 4 正規SIMフリー
iPhone 4 32GB正規SIMフリー
deedeegsm.com/tkxcgi/shop/shop_index.cgi
BlackBerry Bold 9000 SIMフリー日本語対応。
BlackBerry Bold 9700 SIMフリー日本語対応
BlackBerry Storm SIMフリー日本語対応共にあります。

iPhone 3GS 16GB, 32GB 正規SIM フリー あります。

iphone 4 正規SIMフリー7月入荷予定!ご予約受付中!

iPad 16/32/64GB Wi-Fi 3G 正規SIMフリー版取り扱い中!

http://www.deedeegsm.com/tkxcgi/shop/shop_index.cgi

297御茶目菜子:2010/07/13(火) 13:38:54
YouTubeが4Kに対応する必要は本当にあるのか・・・?
6月30日に書いたようにYouTubeがHDに対応したことによってHD動画撮影機能を搭載した
コンデジやカムコーダの普及が加速したにょ。

(1)動画を作る環境
(2)動画を見る環境
(3)動画を公開する環境

この3つのどれか1つが欠けてもスムーズな普及は難しいにょ。

(1)の作る環境というのはもちろん動画撮影機能を持つ機器を示すにょ。
TV番組などがソースであればあれば録画機器もこれに含めるにょ。
「作る」と書いたもののゼロから作るというわけではなく要はデジタル保存環境にょ。
90年代にはすでにあったHDビデオカメラだけど当時は業務用で何百万円もしていたにょ。
HDでなければデジタルビデオカメラそのものはすでに90年代末期には10万円を切るまで
安くなったもののDV形式をPCで扱うためにはハードルが高かったにょ。

昨今はコンデジでさえ720pもしくは1080p(フルHD)の動画撮影機能を持っている機種が
大半であるためこの作る環境というのは十分に普及期に達していると思われるにょ。
7月11日に書いたようにケータイでさえHD動画撮影機能を搭載した機種が出始めており
価格下落によって実現が可能になったために将来的には今のコンデジと同じくHD動画が
撮れるのはケータイにおいても「当たり前の機能」(ローエンド以外の機種に標準搭載
される機能)になると思われるにょ。

(2)の見る環境はPCでいえば再生に必要なスペックや液晶モニタの解像度を示すにょ。
720pのHD動画を再生するためにはローカルに保存したものを軽量プレイヤーで再生すると
してもULV PenMもしくはAtom搭載のネットブッククラスの性能は必要になるにょ。
フルHDであればULVであればデュアルコアが必須となるにょ。
4月26日にはCoreSolo1.2GHzでYouTubeのフルHD動画が再生可能と書いたもののこれは
限界まで軽量という条件を組み合わせてようやくギリギリ再生できるというものであり
これをもって「普通に再生できる」とは言い難いにょ。

ローカルに保存せずWebブラウザ上のFlashプレイヤーで直接再生する場合にはそれより
さらに高いスペックが必要になるにょ。
Flash10.1からはGPUによる再生支援機能に対応したためCPU性能はそれほど多くは必要に
ならなくなったとはいえ再生支援が効かない機種であれば720pでさえCoreDuo以上が
必要になるにょ。(ピーク時のビットレートが高くない動画であればPenM2GHzくらいでも
コマ落ちなく再生できるけど)
フルHDであればCore2Duo 2〜2.5GHzくらいが必要にょ。
今となってはハイスペックではなくなったもののモバイルノートであれば再生支援機能が
ないと現在もなお厳しいレベルにょ。

あとPCのスペックだけではなく表示環境(液晶解像度)も重要にょ。
WSVGAのネットブックで仮にフルHDの動画がコマ落ち無く再生できたとしてそれでは720pの
動画と有為的な差はないからね。
その動画に似合った解像度のモニタがあって初めて役立つにょ。
とはいえ、720pの動画ならばWXGAのモニタ、フルHDの動画ならばフルHDのモニタがあれば
十分であり、現時点ではそれほどハードルが高いものではないにょ。
モバイルノートでさえ今となってはWXGAが当たり前(Atom機以外でWXGAに満たないものは
XGAのLet'snote Rくらい)だし、フルHDのモニタも1万円台から購入が可能になっている
からね。

アナログ放送終了に向けてTVの買い換えが急速に進んでおり家庭用のHDTVの普及率も
かなり高くなっているにょ。
HDに対応しているのはPC用のモニタだけではないということにょ。
これにより、HDビデオカメラやHD動画撮影機能を搭載したデジカメで撮影した動画も
大画面TVで気軽に鑑賞できるようになったにょ。

(3)は動画の普及という面では大きいにょ。
昔だったら自分の撮った動画を他人に見せる場合には機材を持ち寄ってどこかの家で
鑑賞会を開く必要があったにょ。
友人同士であればこれでいいけど不特定多数に見せる場合は鑑賞会の会場を確保すると
いうのは金銭的な負担も大きいしそれを見に来る人というのも限られたにょ。
しかし、これはインターネットとブロードバンドによって変わったにょ。

インターネットであれば世界中の不特定多数の人に向けて公開が可能であり、ブロード
バンド普及によって鑑賞側のハードルがかなり緩和されたにょ。
そんな中登場したのがYouTubeをはじめとする動画共有サイトにょ。
動画共有サイトというとTV番組を録画したものを公開する違法サイトとしてネガティブな
イメージを持つ人も中にはいるかもしれないけど不特定多数の人に自分の動画を簡単に
公開できるようにしてくれた功績は大きいにょ。
従来であれば公開する人はサーバをレンタルしてそこにアップロードする必要があり
鑑賞する人はそのファイルを一旦ローカルに落とした後にその動画が再生可能な
プレイヤーで再生するという必要があったにょ。

これはPCに慣れた人ならば他愛もないことだけどアーカイブファイルの解凍さえまともに
できない人も中にはいるわけだからね。
それにWindowsであれば基本的にどんな動画でも再生できるけどMacやLinuxでは再生が
難しいという形式の動画もあり公開する側はどんなコーデックを用いるかということで
頭を悩ます必要があったにょ。
動画を身近にしたインターネットビューカムやその技術を使ったeggyは動画撮影の
楽しさを教えてくれたけど映像MPEG4、音声G.726というasf形式の動画はデフォで再生
可能な環境というのは存在せず、再生するためにはG.726コーデックのインストールは
必須であり必ずしも万人向けではなかったにょ。

様々なコーデック、形式の動画のうちWebで公開するならばどれがベストかというのを
考えていたらいつの間にかFlash動画がデファクトスタンダードになっていたにょ。
やはり、見る側の環境を選ばず再生ボタンを押すだけで再生可能になるというのが
大きいと思うにょ。
YouTubeが登場した当時はQVGAだったし、ブロックノイズもひどくて「所詮はWeb動画」
と思っていたけどそれはエンコーダの改善で大きく変わり、H.263コーデックによる
FLVからH.264コーデックによるMP4に変わり同一ビットレートにおける画質も大きく
改善されたにょ。

HQ(fmt=18、H.264、MP4)に対応してからはYouTubeが低画質という認識も薄れたけれど
やはりそれよりもインパクトが大きかったのは一昨年9月のHD対応にょ。
Web動画でありながらPCの全画面表示でもそれほどアラのない画質だったからね。
すでに国内サイトではzoommeがHDに対応していたけどこちらは(当時は)ビットレートの
制限によって720pではブロックノイズが出まくるため1024x576が実用限界だったにょ。
それと比べればYouTubeの720pは圧倒的にキレイだったにょ。(昨年zoomeのビットレート
制限が緩和されHDでも十分高画質で公開可能になった)
そして昨年11月にフルHDに対応し、誰もが気軽にHD動画を公開可能な環境が整ったにょ。

このように今はフルHDの動画でも撮影、公開、閲覧のハードルはかなり低くなったわけだし
720pであれば気軽に可能になったといえるにょ。
しかし、この度YouTubeは4K映像に対応したにょ。
http://av.watch.impress.co.jp/docs/news/20100712_380168.html
フルHDのハードルはかなり低くなったとはいえ、4K(4096x2304)というのは別次元の
ものにょ。
上記(1)〜(3)のうち(3)の一部だけを満たすにすぎないからね。
なぜ一部だけかというとフルHDよりもビットレートが大幅に高くなっているせいにょ。
ブロードバンド回線であれば720p(約2.3Mbps)であればリアルタイム鑑賞は容易に可能
だけど回線速度の関係上4K動画をリアルタイム鑑賞するにはFTTHのような高速ブロード
バンドが必須になるからね。
日本ではFTTHの普及率は高いものの世界的に見ればまだ普及しているとは言い難いにょ。

さらに(1)、(2)においては現時点では絶望的にょ。
(1)に関しては4K映像が撮影できる機器なんて現時点では業務用の中でもハイエンドな
モデルに限られるにょ。
業務用は現時点ではまだフルHDが主流だからね。
現時点では数100万円する4Kカメラだけど個人レベルで購入可能となると20〜30万円程度
まで価格を下落、普及させようとするならば10万円を切ることが重要だし、当たり前と
いうならば2、3万円のデジカメに導入される必要があるにょ。
フルHDの下落を考えると個人の手の届くレベルまで来るまでまだ5、6年はかかりそう
だし、普及までは10年近くかかりそうにょ。
当たり前のレベルに来るまではあと10数年はかかるにょ。

今となっては3万円クラスのコンデジにも搭載されているHD動画だけどビデオカメラ
として普及し始めてからは5年程度しか経ってないにょ。
発売時の実売価格で20万円を切ったHRD-HC1が登場したのが今から5年前だからね。
その5年前には数100万円していたようなものがわずか数年で驚くほど価格下落をしたのは
やはり需要もあったからと思われるにょ。
32インチのTVでもはっきり分かるくらいSDとHDの差は大きかったからね。
4Kのアドバンテージを生かすには30〜40インチでは全然足らないため家庭用に50〜60
インチの大型TVが普及するかプロジェクタが普及しない限りはフルHDからの大きな買い換え
需要は期待できないにょ。
スーパーハイビジョン放送に合わせた買い換えは期待できるけど実験放送が2015年から
本放送が2025年からの予定となっており本格的な普及は10数年後になるにょ。

(2)の再生環境に関しては上記のようにここ数年以内にはTVでは期待できないもののPCで
あれば需要があればどんどん高解像化されるためにTVよりも早い段階で4Kに対応が進むと
思われるにょ。
現時点ではフルHDを越えるものというと需要が少ないので圧倒的に高価になるものの
2560x1600のモニタも普通に入手可能だからね。
しかし、PC用のモニタとなると30インチを越えるものは普及するとは言い難いにょ。

30インチ4096x2304のモニタであれば156ppiに達するにょ。
人間の目の分解能の問題で1フィートで300ppiが使用限界であるため156ppiならば
2フィートが限界となるにょ。
しかし、限界値のドットピッチでは長時間の使用は厳しいにょ。
長時間使用が前提であるならばその8割程度(120ppi)となると30インチであれば3072x1728
程度が適切といえるにょ。
4096x2304という解像度を優先するならば40インチくらいが必要だけどさすがにそれは
使用環境を選んでしまうためPC用モニタとして普及は難しいにょ。

確かにVista以降は解像度の考え方も大きく変わったにょ。
XPであればアプリとの関係上高解像度すぎたらかえって使いづらかったけどVistaでは
dpiの調整が可能になったため高解像度であることのデメリットはかなり薄れたにょ。
したがって、解像度が高ければ高い方が良いという考えもあるにょ。
IBMも22.2インチでありながら3840x2400という超高解像度モニタを製造したにょ。
http://www-06.ibm.com/systems/jp/x/monitor/t221/
204ppiに達するために2フィートの距離からではドットが認識できないレベルにょ。
これはあくまで業務用だけどこのクラスのものが普及してくれば4K映像の再生できる
という意味がようやく出てくるにょ。
現在のフルHDのモニタで4K映像を再生してもWSVGAのネットブックでフルHDの動画を再生
するくらい無意味なことだからね。

4K映像を再生するならばPCのスペックも圧倒的に高い性能が要求されるにょ。
フルHDでCore2Duo 2〜2.5GHzならば単純にその4倍の解像度で4倍の性能が必要と考えた
場合にはCore2Duo 8〜10GHz相当の性能が必要になるからね。
とはいえ、Flashのマルチスレッド対応が進んでいるし、CPUもマルチコア化しているため
コア数が今よりも増えればそれよりずっと低いクロックのCPUでも再生可能にょ。
それに今はフルHDまでしか対応していないGPU内蔵の動画再生支援機能もその頃には4Kに
対応するだろうからPCのスペック側の問題はモニタの問題よりは低いと思われるにょ。

ということで、現時点では4K映像に対応しても720pやフルHD対応の時のようにユーザーに
とっては大きなメリットはないにょ。
それを享受できるのはごく一部の人に限られるからね。
CoreAVCがver2.0で4Kに対応したためにハイエンド自作機であればPC側のスペックは
何とかなるとしてもモニタに関しては個人で調達するのは難しいにょ。(IBMの22.2
インチ超高解像度モニタも中古であれば39800円くらいで売られていたりするけど)
これは時間が解決してくれる問題にょ。
スーパーハイビジョンの本放送が開始されれば4K対応のモニタの価格下落は急速に進む
だろうからね。
その頃にはPCのスペックも上がっているので再生のハードルは今よりもずっと低くなって
いると思うにょ。
したがって、今は意味があるとはあまり思えないYouTubeの4K対応だけど将来的には確実に
有用になってくるにょ。
しかし、4Kが身近になるのは10数年後の話だろうけどね。

298マリモーマ:2010/07/14(水) 12:21:02
大雨
大雨で山口県でも避難してるけど大丈夫かな?

http://liv0.com

299御茶目菜子:2010/07/14(水) 13:10:25
Win2Kが終了したら次はXPの番か・・・
本日(米国時間で7月13日)ついにWindows2000のサポートが完全に終了するにょ。
http://www.itmedia.co.jp/news/articles/1007/13/news073.html
6月18日にはMS-Officeのサポート期間について書いたけどWindowsに関しては下記のように
なっているにょ。

 メインストリームサポート終了日 延長サポート終了日
 Win2K   2005年6月30日     2010年7月13日
 WinXP   2009年4月14日     2014年4月 8日
 Vista   2012年4月10日     2017年4月11日 ※Home、ultimateは延長サポートなし
 Win7    2015年1月13日     2020年1月14日 ※Starter、Home、ultimateは
                           延長サポートなし

メインストリームサポートを終了した場合にはサポートはオンラインサポートのみと
なり、新機能は追加されずセキュリティの更新のみとなるにょ。
延長サポートが終了すればそれさえも無くなるにょ。
サポートが終了したらOSが使えなくなる・・・というわけではないけどセキュリティの更新
終了によってネットの利用は危険性が高くなるにょ。
それにサポート終了したOS用にはアプリ、周辺機器も対応がされなくなってしまうにょ。

サポート期間が終了したからといってすぐに対応が終了するというわけではなく終了が
近づいたら徐々に対象から外されてしまうため新しいアプリ、機器を使うのが困難になる
というだけの話にょ。
実際2Kはウイルスバスター2007までしか対応していないしね。(2007のサポートはすでに
終了しており2Kで使えるセキュリティソフトの選択肢はかなり狭まっている)
対応しているものを選択すれば良いというだけの話になるけどメインとしては使えなくなり
これは事実上の終了といってもいいにょ。

さて、そうなると現在2Kを使っている人はXPもしくはそれ以降のOSに乗り換えが必要に
なってくるにょ。
XPならば2014年まで使えるので予算が無ければ1万円以下で買える安い中古PenMノート
(OS付き)を買うのがベターにょ。
VistaならばXPより長く使えるからお得か・・・というとそうとも限らず現時点では
Home BasicやHome Premiumに関してはXPのサポート終了よりも早い2012年となっている
ためにもしもVista搭載PCを中古などで買う場合はBussinesを搭載モデルにすべきにょ。

私は2Kのメインストリームサポートが終了した2005年より徐々に手元のPCのXP化を進めて
いき普段使っている5台のPCに関してはすべてXPになっているにょ。(下記5台以外にも
予備機があるけどそれにはWin2Kや98を搭載したものもある)

        スペック(CPU、メモリ、GPU)     主要用途
 自作PC    Core2Duo3GHz   4GB RADEON HD4850 ゲーム、エンコなどの重作業用
 FMV-7130MG  PenM1.3GHz   1.5GB 855GM     TV録画用
 FMV-S8305   PenM1.73GHz    2GB 915GM     ネットなど軽作業用
 Let'snote R5 CoreSolo1.2GHz 1.5GB 945GMS     モバイル&自宅サブ用
 VAIO UX90S  CoreSolo1.2GHz 0.5GB 945GMS     モバイルサブ用

XPはまだ4年弱延長サポート期間が残っているとはいえここにも問題があるにょ。
2Kと同じくXP SP2もサポートが終了してしまうからにょ。
2014年までサポートされるのはXP SP3なのでまだSP3へとアップデートしてない人はすぐに
アップデートする必要があるにょ。

普段使用のPCのXP化は昨年1月にVAIO UXを購入して完了したとはいえ、そろそろ次を
考える必要があるにょ。
XPへの移行も2005年に開始して終了したのが2009年だったからね。
終わる頃になったら買い換えれば良い・・・といっても台数が多いしそれは難しいにょ。
したがって、徐々に買い換える必要があるにょ。
その際にVistaか7かとなるけど今更Vistaを選ぶ理由はないため7がベストにょ。(Vista
初期の安い中古PCを買うというのもありだけど上記のようにBussinesを搭載機でないと
XPよりもサポート期間が短い上に初期のVista機はXP中期〜末期のモデルと比べて体感速度で
不利になる)

もっとも、OSだけ7にするという方法も無くはないにょ。
その際に問題となるのは7の動作状況にょ。

         7への対応度
 自作PC ・・・・・ ◎ 性能面では十分問題なし
 FMV-7130MG ・・・ × GPUが動作環境を満たせず
 FMV-S8305 ・・・・??×   同 上
 Let'snote R5 ・・ ○ 一応動作環境は満たすもののメーカーの正式対応はなし
 VAIO UX90S ・・・ × メモリが動作環境を満たせず

こうしてみると自作PCはすぐに7を導入しても問題なく使えるし、R5は恐らくVista用の
ドライバで動くと思うけどそれ以外は7の機能が十分に使えなかったり、満足いく速度で
動作しなかったりというものばかりにょ。
ガマンして7を導入して使うという方法もあるけどあと4年弱あるので徐々に買い換えていく
という方法もあるにょ。
どうせあと4年も壊れないなんてことはないだろうから次に壊れた時に7対応のものに
買い換えれば良いというだけにょ。
ただし、これも先ほどのVistaと同じくHomeやStarterでは現状においては延長サポートが
ないためにXPより1年長くなるだけという点はやはり気になるにょ。
それが気になるならばProを搭載したものを買えば良いというだけにょ。

ネット用のS8305はファンが壊れてファンレス状態であるため冷却台に乗せて辛うじて
使えているという状態であるため早急に買い換えたいし、7130MGもアナログ放送終了
までには何とか買い換えたいにょ。(地デジ再生は性能的に厳しいため)
VAIO UXからの買い換え候補としてはは性能面で落ちてしまうもののAtom搭載機がいくつか
あるけどここで問題があるにょ。
XPであれば十分な性能だけど7では微妙な性能ということにょ。
ネットショップでは現在44800円(+4480ポイント)で買えるオンキヨーのBXは魅力だけど
メモリが512MBということでデフォのXPを使い続けるならば問題ないけど7は厳しいからね。

VAIO UXはバッテリ駆動時間とキーボードに大きな不満があるもののこれはR5をメインで
使うことで何とかガマンできているにょ。
あと数年ガマンして7がもう少しまともに動くレベルになったら買い換えるという方法も
あるけどAtomにそこまで望むのは難しいにょ。
来年初頭に登場するOakTrail採用機は現行のものよりやや高速になるだろうけどどちらか
というと省電力に割り振りされているため性能面の向上はあまり期待できないにょ。
ネックとなっているGPU性能の倍増やSATAへの対応は大きいけどね。
もっとも、今買って2014年(もしくはその近辺)でまた買い換えればいいというだけの話
だけどね。大きな不具合や不満がなければ買い換えるのも金銭的に厳しいにょ。

私は2003年から2K化移行を開始し2005年からXP化移行を開始したので今年からはそろそろ
7への移行を開始しようと思っていたにょ。
しかし、XPで大きな不満がないというのが7への移行を積極的に行わない理由となって
いるにょ。(要は投資に対する効果が小さい)
躊躇ったところであと猶予は4年弱しかないのでそれまでに何とかする必要があるけど
今後XP非対応のものが増えてくればXPを使い続けることがデメリットとなるため相対的に
7の価値が高まり移行の効果が大きくなるにょ。



マリモーマさんへ
>大雨

私の近所は今のところ大丈夫にょ。
市内ではすでに土石流の被害が出ている箇所はあるけどね。

300御茶目菜子:2010/07/15(木) 13:17:51
XPは滅びぬ、何度でも蘇るさ
昨日はWindowsのサポート期間について書いたにょ。
延長サポートが2014年4月までのあと4年弱残っているXPにおいては現状ではVista Home
よりもサポート期間が長いためリプレイスするのであれば7の方が良い(7もHomeでは
2015年までなので長く使うならばProが望ましい)ということにょ。
確かにXPは現状ではまだ大きな不満がなく使えるOSだからね。
したがって、「XPではできないけど7ではできる」というものが多く登場しそれがその
人にとって重要なものでない限りはXPで十分であるといえるにょ。

ただ、そんなものがあるのかということにょ。
これに関してはVista以降はカーネルに手を加えられたために互換性が取りにくくなって
いるため十分起こり得る問題にょ。
特にDirectXに関してはXPまでとVista以降では大きく扱いが変わっているためXPは
サポート期間終了前に対応から外されるアプリも少なくないと思われるにょ。(ゲームに
おいてはDirextX10以降が必須になればXPは事実上終了となる)
この辺は7の普及速度にも影響しているけどね。
Vista+7のユーザー数がXPのユーザー数を大きく越えればXPを除外したとしてもメーカー
としては商売が成り立つにょ。(XPをサポートしないことでコストダウンにも繋がる)
ただし現時点ではネットブックにXPが搭載されている関係上、台数ベースではXPのシェアが
依然として高いものとなっているにょ。(これはULCPC用のXPは7発売後1年で終了するため
今年の10月以降は7のシェアが急増すると思われる)

PC Watchのユーザーアンケートでは発売して1年にも満たない7がすでにXPを越えるという
結果になっているにょ。(これは各自がメインとして使っている1台のPCに使用している
OSだから台数ベースではXPはまだ過半数を占めていると思われる)
http://akiba-pc.watch.impress.co.jp/hotline/20100703/enquete201006_10.html
アンケート結果では7の使用割合は47.6%となり、XPの36.8%を越えているにょ。
これはXPユーザーが7に乗り換えたというだけではなくVistaユーザーの乗り換えもある
というのが大きく影響しているにょ。
Vistaは昨年の31.1%から11.1%へと大幅に減っているからね。

7は先進の機能を搭載しながらVistaよりは軽いということでユーザーからは大きな支持を
得ているもののカーネル自体はVistaベース(NT6ベース)であるためVistaで動作しなかった
アプリが7で動作するということはほぼあり得ないにょ。
逆にいえばVistaで動作するアプリはほぼ7でも動作するため当初はXPベースで作られていた
アプリで動作しないためVistaは互換性で非難されたけどVistaベースで作られたアプリが
増えた今となっては互換性問題はかなり緩和されたにょ。

どうしても、7でXP用のアプリ(NT6.xで正常動作しないアプリ)を動作させたいという
場合にはXPモードがあるもののあくまでこれはVirtual PCであり、DirectXを使った
ゲームなどは動作しないにょ。
もっとも、XPモードは法人ユーザー等で互換性が重要なものを要求する場合のために用意
なるというだけであり、そのような用途は想定していないにょ。
だからゲームができないことを理由にXPモードを非難はできないにょ。
しかし、高い互換性を求めるのであればXPそのものを搭載するしかないということには
変わりがないにょ。

さて、XPはすでにOEM提供は終了しており、ネットブック(ULCPC)用としては7の
発売から1年後まで提供ということでもうすぐXPの提供は完全に終了するにょ。
では、それ以降はXP搭載PCの販売ができないかというとそうではないにょ。
OSのダウングレード権があるからそれを行使することで可能となるにょ。
ダウングレードはそのOSのライセンスで旧OSを使うというもので元々法人向けとなる
Pro(Bussines)には備わっていたライセンス形態だけどVistaではその互換性の問題や
要求スペックの高さからXPへとダウングレードするユーザーも多くそれ故ダウングレード
というものの知名度はVista以降急激に高まったにょ。

ただし、7のダウングレード権は7の発売から1年半もしくはSP1提供で終了予定となって
いたにょ。
ところが、この度そのダウングレード権を7のサポート期間終了まで延長されたにょ。
http://journal.mycom.co.jp/news/2010/07/13/075/index.html
ダウングレード権が使えるProは2020年1月まで延長サポートがあるためそこまでXPの
提供が可能にょ。
要するにこれは2020年1月までXP搭載PCを入手可能ということを意味するにょ。
これは法人ユーザーにとっては朗報にょ。
上記リンク先に書いてあるように法人ユーザーは未だに74%がXPを使っているからね。

さて、XPの終了に関しては今まで何度もあったにょ。
2008年6月に店頭販売が終了となったXPだけど後継となるVista登場が遅れたために普及
しすぎておりHomeのサポートを2009年で打ち切るのはやめProと同じく2014年の延長
サポートされることになったにょ。
これによりネットブックに搭載されるULCPC版は7の発売から1年後まで提供されることに
なりネットブックの普及に大きく貢献したにょ。
あとは、互換性問題で移行が進まないユーザーに関しては7へのXPモード搭載で克服する
というのもできずダウングレード権を行使するというパターンが未だに多いにょ。
そのため7 SP1もしくは7の発売から1年半の早い方で終了予定だったXPへのダウングレード
だけどSP1もベータ版が配布され正式にSP1が配布されるのも時間の問題にが迫ったために
ダウングレード権終了をさせるのができず今回7のサポート終了までXPへのダウングレードが
可能になったのだと思われるにょ。

以上をまとめるとこんな感じにょ。

 2008年6月30日  XPのパッケージ版、OEM版の出荷終了
 2009年1月31日  XPのDSP版の出荷終了
 2009年4月14日  XPのメインストリームサポート終了日
           ※本来はここでHomeのサポートは終了だったけどProと同じく5年延長
 2010年4月    7のダウングレード権終了日1(7発売前に発表されたもの)
           ※当初は「7発売から半年」と発表されていた
 2010年10月    ULCPC版XP出荷終了
           ※「7の発売から1年」と発表されている
 2011年4月(最長) 7のダウングレード権終了日2
           ※SP1もしくは7の発売から1年半とされていたけど今回延長された
 2014年4月8日   XPの延長サポート終了日
 2020年1月14日  7の延長サポート終了日=ダウングレード権終了日3

これを見てのようにXP搭載PCの販売終了は一般的には2008年6月30日だったけどダウン
グレード権によって2020年1月14日までは可能ということになったにょ。
ところが、その前に2014年のXPのサポート期間終了が訪れるにょ。
これは昨日2Kで書いたように事実上XP搭載PCを第一線で使えるのが終了を意味するにょ。
したがって、2020年に店頭にXP搭載PCが新品として並ぶことはあり得ないことだけど
セキュリティよりも互換性を重視する法人ユーザー向けとしては出荷が可能というわけにょ。

ダウングレード権はOSに含まれている権利であるため個人であっても7proのライセンスを
持っていればXP proへのダウングレードは可能にょ。(インストールディスクに関しては
MSからの提供がないために個人でXPのメディアを所有している必要がある)
とはいえ、これは互換性を重視する人でないとあまり意味はないにょ。
XPのサポート終了が近づいてくればXP非対応のアプリ、機器が増えるだろうから
セキュリティは問題ないという人であっても徐々に使えなくなってしまうにょ。
今使っているアプリ、機器のみをずっと使い続けるというのならば問題はないけどそうで
なければ「使えない」と判断したときにはその人にとってXPが終了となるにょ。

301御茶目菜子:2010/07/16(金) 12:58:26
スマートフォンでもキャリアに依存させることが重要になる・・・?
ドコモがスマートフォン向けの「spモード」を発表したにょ。
http://k-tai.impress.co.jp/docs/news/20100713_380368.html
このspモードはスマートフォン向けのmoperaというイメージかと思いきやよく見ると
それだけではないにょ。
それは「docomo.ne.jp」というキャリアメールや「ドコモマーケット」における決済
サービスも使用可能になるみたいだからね。

さて、スマートフォンはガラケーよりも自由度が高いということがメリットとなっていた
けれどガラケーでないとできないことも多いからね。
特にキャリアに依存したサービスにおいてはスマートフォンはガラケーに完全に遅れを
とっているにょ。
キャリア依存のサービスから脱していると考えるとガラケーよりは進んでいると言えなく
ないものの実際は日本においてはキャリア独自サービスが使えるガラケーこそがその
キャリアのケータイとなっているにょ。

spモードではキャリアサービスといってもキャリアメールが使える程度とはいえ、これで
かなり変わってくるにょ。
Webサイトのモバイル向け(ケータイ向け)サービスを利用する場合は、キャリアメールが
使えるということが多くのサイトで必要となっているけどそれが使えないスマートフォン
ではそのサービスは利用できないにょ。
このキャリアメールをガラケー以外で使う方法としては「iモード.net」があるにょ。
これはPCを使い「docomo.ne.jp」宛へのメールを受送信ができるサービスだけどそれが
実現可能であるということは「スマートフォンだからキャリアメールが使えない」という
のではなく「キャリアメールを使えるようにしていない」というだけの話にょ。

スマートフォンなんだからPC向けのサービスを利用すれば良いというだけの話とはいえ
PC向けのサービスはPC向けに作ってあるため必ずしも使いやすいとはいえないにょ。
PC向けのWebサイトというと現在はXGA以上を必須としたようなサイトばかりとなっており
FWVGA程度では十分とは言い難いにょ。
解像度の問題だけではなくFlashやAjaxを多用しており動作が重いというのも難点にょ。
十分な回線速度と端末性能があれば問題ないけどPC向けサービスだけではなくモバイル向け
サービスも使えるのが便利ということには変わりないにょ。
そういう点ではキャリアメールが使えるのは大きいにょ。

無論、そのようなサービスの利用有無に関係なく友人、知人とメアド交換する場合でも
キャリアメールであることが安心感を産むにょ。

 キャリアメール>ISPのメール>フリーメール

恐らく安心感のある順位というとこのようになるのではないかと思うにょ。
Web上のみの友人であれば別にフリーメールであることを気にする人はほとんど居ない
だろうけどリアルの友人であればキャリアメールの方が安心できるということにょ。
これはフリーメールはいくらでも換えが効くのに対してキャリアメールはメアドこそ
変更可能だけど解約やキャリア移動しない限りはドコモユーザーであればdocomo.ne.jp
というドメイン部分は普遍だからね。
それに対してフリーメールであればいくらでも切り捨てられるにょ。
もっとも、キャリアやISPに依存しないフリーメールはキャリアやISPを移動しても使える
というメリットもあるため現在はそれをメインとして使用している人も多数おりそれ自体
否定するものではないにょ。

もう1つのドコモマーケットの決済に関してはspモード以前に実現されていたことだけど
少し説明すると「ドコモマーケット」というのはドコモのスマートフォンユーザー向けの
コンテンツやアプリの提供サービスのことにょ。
当然有料アプリもあるわけで問題はその課金方法となるにょ。
i-modeが有料コンテンツで成功したのはその課金方法によるものが大きかったにょ。
何せその契約しているコンテンツプロバイダに別々支払うという面倒なことをせずに
ドコモが代行して決済してくれたためケータイの月額料金と一緒に支払うことができ
ユーザーは何も面倒なことをする必要がなかったにょ。

このようにキャリアによる代行決済は他のキャリアでも導入されコンテンツビジネスの
拡大に大きく貢献したのだけどスマートフォンではそれが難しいにょ。
スマートフォンには端末固有情報がないため端末に依存しているガラケーと同じサービスを
行うのは無理だからね。
ただし、スマートフォン独自のサービス展開を行うならば問題はないにょ。
そのためにもスマートフォン市場の拡大が必要になるにょ。
多くの機種がないとコンテンツビジネスとしては成功が難しいからね。

確かにiPhoneのように単一機種でサービス展開をしているスマートフォンもあるけど
これはキャリア主導ではなく端末主導であるから可能になっているにょ。
iPodですでに構築されていたWebマーケットと決済サービスをそのままiPhoneで利用して
いるためにiPodユーザーであれば簡単にそのサービスを利用できるからね。
決済方法もクレジットカードだけではなく大手量販店であれば入手可能なプリペイド
カードによる支払いも可能な点も大きいにょ。
つまり、iPhoneが発売される前にすでにキャリアに依存しないサービス、決済が実現
出来ていたiPhoneと他のスマートフォンを同列に語るのは無理ということにょ。
Android端末であればOSを提供しているGoogleがApp storeと同じようなものを作ればよい
ということで実際に作っているもののその完成度は遠く及ばないためキャリアが主導
しないと難しいと思われるにょ。

さて、ドコモが来年4月から全機種SIMロックを解除するということを7月7日に書いたわけ
だけどキャリア依存性の強いガラケーにおいては通話が出来れば良いという人でない
限りはSIMロックが解除してもほとんど意味がないのだけどキャリア依存性の低い
スマートフォンであればSIMロック解除の意味は大きくなるにょ。
失うものよりも得るものの方が大きいからね。
そんな中でspモードのようにわざわざキャリア依存性を高めるようなことをするという
のは一体なぜなのか・・・。

これはSIMロックは解除した後でもキャリアの依存性を高めることでガラケーと同じく
キャリア移動を難しくしている(docomo.ne.jpが使えるのはドコモの回線だけ)という
考え方ができるにょ。
ユーザーを「いかに他のキャリアに逃がさないか」という保守的な考えだと確かにそう
なるもののアプリで実装している以上は他のキャリアでも同様のサービスを行うことは
可能にょ。
ソフトバンクでもiPhoneでsoftbank.ne.jpというキャリアメールが使えるようになった
からね。
逆に言えばアプリで実装可能であるが故にドコモがiPhone用にdocomo.ne.jpのキャリア
メールが使えるようなアプリを提供することも可能となるにょ。

ガラケーのようなキャリア主導の端末であればSIMロックが解除されてもされなくても
影響は微々たるものだけどスマートフォンの場合はこのようにアプリでいくらでも対応
できるためSIMロック解除の影響は極めて大きいにょ。
1つのキャリアがすべてのキャリアの端末をサポートするのは難しいけどiPhoneくらい
売れている端末であればもしもSIMロックが解除されればどのキャリアも自社向けの
サービスを開始するのではないかと予想しているにょ。

そうなったときにピンチなのはソフトバンクにょ。
サービス内容が同じならばエリアや通信環境に優れたドコモへ移動するユーザーが多く
いるのは明白だからね。
iPhoneにSIMロックをかけているのはそうならないためのものだけど孫社長の考えは
何が何でもSIMロック解除に反対というわけではなくiPhone(iPad)に関しては否定的
というだけだと思われるにょ。
今週放送された「カンブリア宮殿」にて孫社長とジョブズ氏とのやりとりがあったけど
iPhoneが発表される1年前(初代モデルは日本では発売されなかったのでそれを考えると
日本での発売からは2年前となる)から交渉していたみたいだからね。
諸外国ではその国の1位のキャリアと独占契約を結んでいたiPhoneだけど日本では
3番手のソフトバンクとの契約だった(auは通信方式そのものが異なるため使用できない
ためそういう意味では2番手となる)ことに対して疑問を持っていたけどこれで納得
できたにょ。

とはいえ、独占契約権を得るのとSIMロックは別問題にょ。
将来的には国内販売のiPhoneもSIMロックが解除されると思われるけどそうなった時には
ドコモと競争して負けないレベルにしておく必要があるにょ。
来年4月にはドコモが全機種SIMロック解除となるためソフトバンクも遠くない将来には
それに追従するだろうけどさすがに通信に関してはドコモとは大きな差があるためとても
その差を埋められるとは思えないにょ。
そのために用意すべきなのがキャリア依存サービスにょ。
キャリアメールが使えるのは当然として、ソフトバンクならではのコンテンツ配信などが
重要となるにょ。
新聞、雑誌を配信する「ビューン」のようなサービスもそのうちの1つにょ。
ただし、iPhoneの最大の魅力はApp storeの膨大なアプリにあり、それはキャリアには
依存しないためiPhoneユーザーをそのキャリアに止めておくことは非常に難しいにょ。

iPhoneは前述のように特例であるためそれ以外のスマートフォンで考えてみるとキャリア
依存性が低いためSIMロックが解除された場合には強いキャリアが勝つことになるにょ。
これはRPGで例えるならば攻撃力が強い方が勝つというのと同じにょ。
それならばスマートフォンにおいてキャリア依存性を高めるというのは効果が薄いのか
というとそうではなくこれはRPGで例えるならば防御力に相当するにょ。(ユーザーを
獲得ではなく逃げないようにする手段)
それを考えると最高の攻撃力を持つドコモが今回spモード搭載で防御力を高めたという
ことがいかに脅威であることが分かるにょ。
多少攻撃力で劣っていても防御力が高ければ勝ち目はあるけど同じような防御力では
攻撃力の差で勝敗が決まってしまうからね。
ドコモ以上の防御力(より魅力的なキャリア依存性)を手に入れない限りはソフトバンク
には勝ち目がないにょ。

302御茶目菜子:2010/07/17(土) 13:11:20
私の予想通りであるW100のコンセプト
ここで6月22日、24日、27日に書いたlibretto W100だけどどういうコンセプトで作ったのか
開発者はどのような意図で作ったのかは私には伝わって来たけど実際のところはどうなのか
ということはこの開発者インタビューを見れば分かるにょ。
http://ascii.jp/elem/000/000/537/537166/

上記インタビューをまとめると下記のようになるにょ。
(1)25周年モデルとして他社がやらないものを作らなくてはならない
(2)2画面ならばPCの用途を変えられるかもしれない
(3)Windowsを搭載したのはアプリの問題
(4)振動採用でソフトウェアキーボードに決まった
(5)Atomでは十分な性能を出せない
(6)2画面を重視するためにバッテリ駆動時間は妥協した

大筋においては製品を見た瞬間に私が感じたもの(すでにここで書いたもの)とほぼ同じ
だけどそれぞれを見てみることにするにょ。

(1)選択肢からすればU100の中身を今時の仕様にしたものも考えられたのだろうけどそれ
だと25周年モデルとしてはインパクトが弱いということで2画面タッチパネルとなった
模様にょ。
5年前に登場したU100は確かに当時としてはコンパクトサイズだったけどU100以降ネット
ブックが多く発売されたからね。
そうなるとそれよりは小さくする必要があるし、小さいものならばAtom Zを採用した機種が
多く存在するため小さいことだけではもはやインパクトはないにょ。
「通常のノートPCではないものも考えねばならない」ということにょ。

(2)「キーボードを搭載している現状のデザインではパソコンの用途は変わらないと考え
ました。しかし、2画面なら変えられるかもしれない」というのは確かに私もその通りに
感じる反面6月27日にここで書いたように新しいことをやろうとするならば作るだけでは
なく積極的にそうなるように働きかけないといけないけどそれは出来てないにょ。
2画面ならこんなことができるというのが実際にはユーザーには伝わらないからね。
とはいえ、折りたたみ式2画面には「スレート型は大画面になるのでカバン内での収まりが
悪い」「キーボードを入力する際に本体を傾けないといけない」という優位性はあるにょ。

(3)「W100はまったく新しいデザインではありますが『まったく新しいことだけ』をして
もらおうと考えたのではないのです」とあるようにやはり普段使っているPCと同じことが
できるということを重視しているにょ。
dynabook AZのようにAndroidを搭載するという方法もあるけどこれだとPCと同等という
わけにはいかないからね。
Webの利用だけでいえばほぼ同等の使い勝手を確保できるとはいえ、PCはアプリや周辺
機器の活用を含めて考える必要があるからOSを変えるということはライフスタイルを
変えるということになるからね。

(4)キーボード+マウスでの動作を想定しているWindowsにおいてキーボードレスという
のは生産性を下げる大きな要因となりかねないのだけどフィードバック機能の搭載に
よってソフトウェアキーボードでいけると判断したみたいにょ。
「7型サイズのディスプレーではこのインターフェースがないとつらいだろうと判断し
搭載することになりました」とあるようにこの技術があってこその2画面タッチパネル
搭載だからね。

(5)W100はこのクラスのPCとしては異例となるデュアルコアのPentiumを搭載しているの
だけどこれは1台目のPCとして使うならばAtomではやや厳しいのとあともう1つは2画面と
いうのが影響している模様にょ。
「現実的な話としてはAtomでは簡単に2画面が出せないんです」と書いてあるように
やはりAtomでは速度面の問題が大きかったということにょ。

(6)クラス最高の性能を得た反面バッテリ駆動時間は短くなってしまったけどこれは
液晶パネルが2画面あるからパネル自体の消費電力が大きいというだけではなく2画面
出力が大きいからである模様にょ。
それが原因であれば例えCPUをAtomに変えても大して駆動時間は延びないことになるにょ。


インタビューの内容について書いてみたけどやはり私の予想そのまんまだったにょ。
というか、あまりにそのまんますぎたにょ。
将来的に大型タブレット型の端末が普及すれば2画面、折りたたみという需要は必ず
訪れると私は思うけどその第1段階であるタブレット型端末の普及においてiPad以外は
売れているとは言い難い状況だからW100のメリットをメリットと感じずデメリットと
感じる人(コンセプトを理解してない人)が大勢いるのは仕方がないことか・・・。
確かに現時点だとモバイル用途であれば短すぎる駆動時間は大きなマイナス要素だから
「使えない」と判断を下す人がいるのは当然だけどね。

303御茶目菜子:2010/07/18(日) 13:10:30
最善の選択だけど最高の選択ではない!?
アップル社がiPhone 4のアンテナ問題でバンパーを無償配布することにしたにょ。
http://k-tai.impress.co.jp/docs/news/20100717_381562.html

全面的ではないもののiPhone 4の設計は一部のユーザーにとって問題があることを認め
バンパーを無償配布することでユーザー側に歩み寄ったのは良いことにょ。
持ち方によって変わるといっても7月6日に書いたように普通に持っただけ(問題となる
デッドスポットに触れた場合だけどこれは普通に持つだけで触れてしまう)で100分の1
まで電波強度が弱くなる端末なんて他に存在しないからね。
3GSでは64%となり、その差は61.6倍にょ。

     しっかり包み持つ 自然に握る 手のひらにのせる ケースに入れて自然に握る
iPhone 4      0.3%      1%      12%       19%
iPhone 3GS     3.7%     64%      95%       48%
  差      10.7倍    61.6倍      7.9倍      2.5倍
                      (※7月6日に書いたものを部分的に再掲)

このiPhone 4と3GSのこれが小さいと判断するか大きいと判断するかは人それぞれ・・・と
いうレベルではなくアップル社の関係者以外はほとんどの人が明らかに影響があると判断
するのではないかと思われるレベルにょ。
しかし、バンパーを装着すればその差は2.5倍になるためこれくらいならばめずらしい
差ではなくなるにょ。

とはいえ、アップル社の調査では「ほとんど変わらない」ということなので上記の調査
結果とは異なり、ユーザーの言い分を全面的に認めたわけではないにょ。
確かに全面的に非を認めリコールへと発展すれば多額の損失になってしまうし、このまま
「弊社では確認できてません」というのを貫けば裁判は長引き金銭的な問題だけではなく
企業イメージの悪化を考慮すると長期的には大きなマイナスとなってしまうにょ。
それを考えると部分的に非を認め(一部のユーザーにとって問題であると認め)バンパーを
無償配布とした今回の措置は企業の損得という面ではベストな選択肢だと思われるにょ。

ただし、このバンパーの無償配布は9月30日までとなっているにょ。
それから先はどのような対応を取るのかはまた分かってないにょ。
もしかすると10月以降は何らかの対策をしたiPhone 4が出荷されるということなのかも
しれないにょ。(本体の周囲をシールドする程度ならばそれほど難しくない)
それならばこの期日指定は納得できるにょ。

その前に今月末に登場するホワイトも同じ問題を抱えているだろうからそれについても何の
対策もせずに登場させるというのは考えにくいにょ。
すでに生産した分はかなりあるだろうから初期ロットに関しては対策のしようがないけど
次のロットでは対策済みというのは十分に考えられるにょ。
逆にホワイトが初期ロットからからその対策済みだったとしたら余計に不自然にょ。
つまり、今回のバンパー無償配布発表よりも早い段階で問題があることを認めていた
わけだからね。
何にせよiPhone4に対するアップル社の対応がいかなるものなのかは9月30日以降に
はっきり分かるにょ。

304iphone4:2010/07/18(日) 23:40:49
iPhone 4 正規SIMフリー deedeegsm.com
iPhone 4 32GB正規SIMフリー
http://www.deedeegsm.com/tkxcgi/shop/shop_index.cgi
BlackBerry Bold 9000 SIMフリー日本語対応。
BlackBerry Bold 9700 SIMフリー日本語対応
BlackBerry Storm SIMフリー日本語対応共にあります。

HTC Desire SIMフリー nihonngo OK

iPhone 3GS 16GB, 32GB 正規SIM フリー あります。

iphone 4 正規SIMフリー7月入荷予定!ご予約受付中!

iPad 16/32/64GB Wi-Fi 3G 正規SIMフリー版取り扱い中!

http://www.deedeegsm.com/tkxcgi/shop/shop_index.cgi

305御茶目菜子:2010/07/19(月) 13:19:44
マイペースができないと使うのは難しい
Twitterはmixiを抜き国内1000万人超が利用するサービスとなったけどその影響からか
最近は「Twitter疲れ」という言葉も度々耳にするようになったにょ。
http://www.zakzak.co.jp/zakspa/news/20100713/zsp1007131115000-n1.htm
上記リンク先の記事を見てみると社会人300人に対してアンケートを取ったところTwitterに
疲れていると答えている人は全体の3割に達している模様にょ。

その内訳は下記のようになっているにょ。

  ツイッターのココが疲れるベスト10!
  1位 フォロワーに気を遣ってしまう ・・・・・・・・ 30.3%
  2位 リツイートを期待してしまう  ・・・・・・・・ 25.7%
  3位 周囲がツイッターのことを騒ぎすぎている ・・・ 25.3%
  4位 フォロー返しを期待してしまう ・・・・・・・・ 22.3%
  5位 フォロワーの増減に一喜一憂してしまう ・・・・ 18.7%
  6位 友人、恋人、同僚などの愚痴のツイートを見たとき 17.0%
  7位 有名人と絡もうとしたとき ・・・・・・・・・・ 11.7%
  8位 彼氏、または彼女のツイートが気になってしまう   7.7%
  9位 彼氏、または彼女にフォローされてしまう ・・・  6.7%
 10位 ツイッターで有名人になろうとして ・・・・・・  6.3%

Twitterがmixiに対して優れている点は書き込みが手軽であるということとハッシュタグを
用いることで縦横自在に書き込みを見ることが出来るという点が大きいにょ。
mixiの場合はブログと同じく縦方向への閲覧しかできないにょ。
ブログの場合はトラックバックによって限定的ながら横方向への閲覧が可能であるものの
Twitterほどの自由度はないにょ。
つまり、書き込む方も読む方も気軽というのが他のサービスと比べて最大のアドバン
テージといえるわけにょ。

では、なぜ「Twitter疲れ」というものが発生してしまうのか・・・。
mixiの場合はマイミクの数が増えるとマイミク登録者が新しく書いた日記に対して
コメントをしないといけないという義務感が発生しそれによりコメント行いそして自分が
書いた日記に対しては今度はコメントを求めてしまうわけにょ。
これは7月4日に書いたように「読み逃げ」として実際に一部のmixiユーザーの中で起こって
いることにょ。
このように「疲れる」と感じるのは自分に対しても相手に対しても「義務を課している」
ということが最大の原因となっているにょ。

このことはTwitterにおいても当てはまるにょ。
Twitterはmixiと比べてより手軽とはいえフォローする人数が増えてしまえばどんどん
膨大な量になってくるからね。
すべてをフォローするのは無理だしフォロー返しをしようなんて考えていたら時間が
追いつかなくなってしまうにょ。
つまり、mixiと同じく自分に対しても相手に対しても義務を課しているような人だと
この時点で疲れてしまうことになるにょ。

さらにTwitterの場合は手軽であるが故に書き込みに対して気を配る必要があるという
ことにょ。(mixiも閉じたネットワークだからと言って犯罪行為を暴露するようなことを
書いて退学、免職になった例は過去にいくつもある)
気軽だからということで発言してはならないことを書いてしまうとそこから問題発生
することになりかねないにょ。
しかし、あまり難しく考えているとそれも疲れる元になるにょ。
それにフォロワーのことを考えてばかりいたらTwitterの手軽さは失われてしまうからね。
ある程度気楽に書き込むことは重要だし、かといって何を書いても良いというわけではない
というバランスは難しいといえば難しいけどそれが疲れる人はブログでもmixiでも
Twitterでも疲れるのでその人には向いてないということになるにょ。

疲れるけどやめられないという人は自分でルールを決めるのがいいにょ。
例えばゲームが好きな人の場合は毎日12時間やって生活に支障が出るレベルになったら
困るのでいくら好きでも「1日2時間」とか自分の中でルールを設定するというのと同じ
ようなものにょ。
これはゲームだけに限らず、Twitterでもmixiでも同じにょ。
疲れてまで、生活に支障が出るようになるまでやる必要は全くないわけだからね。
確かに自分をフォローする人数が増えるのは嬉しいことだろうけどどんどんハードルを
高めていってしまうと生活が破綻してしまうからね。

私はここで毎日書くので精一杯にょ。
私自身のルールは1日1回しか書き込まないということくらいにょ。
その代わりその1回には可能な限りのことはしているにょ。
それによって日によって大きくヒット数が異なるものの多い日は300ヒット近くにまで
達することがあるにょ。
駄文でも続けることに価値がある(検索エンジンに引っかかりやすくなる)というのが
大きいのかもしれないにょ。
あとは、ただの新製品情報サイトにはしないというのが大きいにょ。
情報だけなら他所でいくらでも手に入るわけだけど私の駄文が読める場所はここしかない
わけだからね。
駄文であってもある程度支持されている・・・とカウンターの動きを見て感じているにょ。

ただ、このように長文が書ける媒体と異なりTwitterは文字数制限が大きいにょ。
それ故、「○○なう」とかいう書き込みが多くなってしまうわけだけどフォローして
くれる人を増やそうと書き込み内容を工夫しようと考え四苦八苦していたらそれは疲れる
元となるにょ。
だから、私はTwitterで書き込もうとは思わないにょ。
「○○なう」というのは私が書きたいことではなく書きたいことを書こうとして140文字
以内に収めようとすると難しいため結局「今何をしている」「どこにいる」などの
どうでもいい情報しか書けなくなってしまうにょ。
有名人ならば「○○なう」という情報に価値があるかもしれないけど私のようなただの
一個人がどこに居ようがその情報に価値はないからね。

しかし、Twitterの情報収集も効果的に使えばかなり有用になるにょ。
情報収集目的としてのTwitterはブログやmixiなどで書くまでもないもの(まだ書いて
いないもの)を書いていることが多くより新鮮なものがあるわけだからね。
あとうっかり(というか確信犯的に?)情報を漏らしてしまう人もいるのでそれで話題と
なることもあるにょ。
だから自分で書き込む情報に価値がなくてもTwitterそのものの価値に関しては使う人
次第で大きく変わるにょ。
これはTwitterに限ったことではなくどんなサービスであっても使い方次第で有益か
どうかが大きく変わってしまうからね。
「自分に合った方法で無理をしない」ということが有効にそのサービスを活用できる
だけではなく「疲れる」ということも防ぐことが可能になるということにも繋がるにょ。

306御茶目菜子:2010/07/20(火) 13:16:17
普及させるには「メリット>デメリット」でなければならない
昨日は2000円札が発行されてちょうど10周年だったにょ。
http://www.fnn-news.com/news/headlines/articles/CONN00180995.html
発行当初は私も結構使っていたもののいつの間にか手にする機会さえなくなったにょ。
それではあれだけあった2000円札は一体どこに消えたのか・・・?
2000円札は2003年をピークにどんどん流通量が減り現在は全紙幣の約1%の流通量になって
いるにょ。
発行過剰であるため今では発行をストップし日銀に在庫が山積み状態になっているために
ユーザーの手に渡る機会はほとんど無くなっているにょ。(後述のように使い勝手が
悪いためお釣りとして渡されても困るしね)
http://www.iza.ne.jp/news/newsarticle/economy/finance/411395/

では、2000円札のメリット、デメリットをまず最初に考えると下記のようになるにょ。

◎メリット
 ・支払い枚数が減る
◎デメリット
 ・使い勝手が悪い

2000円札の唯一にして最大のメリットはそれがあることで支払う紙幣の枚数が減るという
ことだけどどの程度の枚数に減るかということを検証してみるにょ。

   2000円札無しの場合 有りの場合
 1000円     1枚     1枚  ※これらは最小時の枚数でありATM等の支払いの
 2000円     2枚     1枚   枚数とは異なる
 3000円     3枚     2枚
 4000円     4枚     2枚
 5000円     1枚     1枚
 6000円     2枚     2枚
 7000円     3枚     2枚
 8000円     4枚     3枚
 9000円     5枚     3枚
  平均    2.5枚    1.7枚

確かに十分な効果が得られているにょ。
ただし、これについては2000円札だけではなく2円玉、20円玉、200円玉であってもに同等の
ことがいえるにょ。
日本の貨幣・紙幣は1→5→10→50→100→500というように最上位の桁においては1、5を
繰り返しているけど1→5は5倍であり、5→1(正確には10)は2倍であるためその間を
埋めるものとして頭に2の付く貨幣や紙幣は有効ということがいえるというだけにょ。

2000円札だけではなく2円玉や20円玉や200円玉であっても同等のメリットがあるのだけど
2000円札のみの発行になったのは2000年の沖縄サミットを記念して作られたということが
最大の理由であり2000円である必要性があったということにょ。
2000円は20円や200円よりも利便性が高いという理由ではないにょ。
そのため2000円札が普及すれば20円玉200円玉の将来的な導入は十分考えられるかもしれ
ないにょ。

では、デメリットを見てみるにょ。
この使い勝手を悪くしている原因は下記の2つのものが理由となっているにょ。

(1)「2」の付く貨幣や紙幣に馴染みがない
(2)自販機などでは対応していない

(1)について考えてみると最初に書いたメリットがありながら今まで2の付く貨幣や紙幣が
日本で使われなかったわけではないにょ。
かつては2銭硬貨や20銭硬貨があったけど戦後はほとんど使われなくなったというだけにょ。
1→2→5というのが戦後1→5となった具体的理由については見つからなかったけど恐らく
戦後の資材不足が原因ではないかと思うにょ。
何にせよ2000円札が発行されるまでの戦後50年の間それで困ることは無かったために
それが普通になり「2」の付く紙幣に馴染みがなくなっているのは確かにょ。

しかし、海外では2の付く貨幣や紙幣が多く使われており、これはただの「慣れの問題」が
大きいことが分かるにょ。
それだけ多く使われてるということは多くのものでそれに合わせた生活習慣にもなって
いるということがいえるにょ。
例えば日本人の感覚だと25セント貨幣なんてすごく使い勝手が悪そうだけど海外では
クオーターという考えはポピュラーであり25セント単位で売られているものは多くある
からね。
自販機でも缶コーラが75セントとかで販売されており、25セント硬貨の出番は非常に多く
なっているにょ。

また2000円札に近い貨幣価値がある20ドル紙幣もかなり多く使われているにょ。
これは海外では偽札が多く高額紙幣は使えないということもあるため気軽に使えるのは
20ドル程度というのが影響しているにょ。
自販機で5000円や10000円に対応している日本とは生活スタイルが根本的に異なるため
海外で多く使われているから日本でも多く使われるだろうということは単純に言えないと
いうことにょ。

(2)の使い勝手について見てみるにょ。
2000札が増えるということで例えばレジでは1つ紙幣を入れるスペースが余分に増えるし
ATMでも余分にスペースが必要になるにょ。
これはどういうことかというと機材の買い換えが必要になるということになるにょ。
ずっと「2」の付く貨幣や紙幣が使われていた国であればこのような状態にはならない
けれどこれによって自販機や両替機において1000円札、5000円札、10000円札は使えるけど
2000円札だけは使えないという状況が発生してしまうにょ。

2000円札に対応するためだけに機械そのものを入れ替えるというのはコストの割りが
合わないにょ。
これが2000円札の流通量が増え、その需要が増えてしまえば順次2000円札に対応した
機械に切り替わっていくだろうけどその流通量は2003年をピークに右肩下がりという
ことで対応はろくに進んでない状況にょ。
ATMでも基本的には2000円札の預け入れはできても払い出しに2000円札は使われないわけ
だからね。
銀行での両替も2000円札で欲しいと言わない限りは2000円札を受け取ることはできない
状況にょ。

実際、自販機などの対応を考えても2000円札では困る状況というのは多数起こり得ること
だけどこれが1000円札2枚であれば困ることはまずないからね。
そうなると「卵が先か鶏が先か」ではないけど流通が少ないから機械が対応しない、
機械が対応しないから流通がしないという負のスパイラルに陥っているにょ。
もっとも「卵が先か鶏が先か」という人類が長年悩んでいた謎に関しては先日「鶏が先」
という結論が出たもののこれが正解とはいえないという反論も出ておりまだ謎は謎のまま
となっているにょ。
http://www.asahi.com/science/update/0720/TKY201007200106.html

2000円札が自販機で使うには不便といってもコンビニやスーパーで使う分には困らないので
2000円札という「選択肢が増える」ということだけに関していえば消費者にとっては
デメリットではないにょ。(実際枚数を減らせるというメリットがあるわけだし)
まぁ上記のようにレジに2000円札を入れるスペースがないためコンビニやスーパーの側と
してはデメリットになるけどね。

結局のところメリットとデメリットを天秤にかけた際にデメリットの方が大きいから
あまり使われなくなったというだけにょ。
これは2000円札に限った話ではなくどんなものにおいても自然淘汰は起こることだからね。
その自然淘汰が起こらないためにはメリットをより大きくするかデメリットをより小さく
するかということしかないにょ。

307御茶目菜子:2010/07/21(水) 13:46:57
Canoe Lakeでネットブックが復活するか?
2008年に登場したネットブックは国内だけで約300万台、世界では数千万台も売れたものの
昨年後半からはその勢いはほとんどなくなってきているにょ。
ピーク時にはノートPCの3割の売上台数を誇っていたネットブックも1割まで落ちている
くらいだからね。
その影響が大きいのか私の地元の量販店では広く取られていたネットブックコーナーが
縮小もしくはコーナー自体が消滅してしまったくらいにょ。

この背景にあるのはここで幾度も書いたけどCULVノートの登場とタブレット端末(とは
いっても現状ではiPadのみ)のヒットが挙げられるにょ。

CULVノートが売れる理由はネットブックでは性能面では十分ではないということが挙げる
ことができるにょ。
XPであれば十分な性能を持つもののWin7では十分とはいえないからね。
しかし、ネットブックに提供されているULCPC XPの提供はWin7が発売されて1年となる今年の
10月をもって終了するにょ。
そういうことで昨年12月24日に書いたようにWin7が快適動作するCULVノートへ置き換えが
進むのではないかということにょ。(とはいえ、まだネットブック用にXPが提供されて
いるせいかCULVノートもそんなに売れているわけではない)

「安いPC」としてネットブックは多くの人に受け入れられたものの安さだけが購入の
ポイントとなってしまうと安さ合戦となりメーカー側としてもそれはただ体力を削る
だけの行為となるため極力避けたいにょ。
Eee PCが大ヒットしたAsusでさえ一時的に赤字転落するくらい薄利であるため少し生産量を
誤っただけで利益が出せなくなってしまうにょ。
そういう意味でもネットブックの低価格競争はどのメーカーも避けたいというのが本音
だと思うにょ。

あとタブレット端末に関しては現状ではヒットしているのはiPadだけとはいえ、iPadが
発表されて以来ネットブックの売り上げは大きくダウンしているのは事実でありiPadと
ネットブックは無関係であると言う方が難しくなっているにょ。
私は個人的には4月17日に書いたようにiPadとネットブックは直接競合するものではないと
考えているものの金銭的な面では競合してしまうのは確かにょ。
それに4月18日に書いたようにネットブックを持ち歩いている人は少ないためキーボード
無しというのがあまりネックにならないためiPadのようなタブレット端末で困るという
人も少ないためWindowsの必要性がある人を除けばキーボードが無くてもネットブックの
代わりとして使用が可能になるにょ。(自宅での使用がメインであれば他のPCを使えば
いいし、外付けキーボードを使うというのも大きな負担にならない)

さらにネットブックには制限があるというのが作る側からしては厄介になるにょ。
この制限によってネットブックは右へならえの仕様になっており、選択の基準がどうしても
価格優先になってしまいがちになっているにょ。
この制限によってIntelからはCPU、チップセットの価格を半値以下で提供してもらって
いるし、MSからは廉価なULCPC用のWindowsを提供してもらっているため制限を自ら外す
というのは得策ではないにょ。
ただでさえ、利益が少ないネットブックでCPUやOSを通常の価格で提供してもらったら
それでは安価にはできないからね。

このIntel側の制限においてはCPUをAtom NではなくAtom Zにすることで緩和が可能であり
それによって制限をくぐり抜けたネットブックもいくつか存在するにょ。
しかし、Atom Z+US15Wというのは本来はWindows PC用に提供されたものではないため
(ドライバの問題もあるけど)十分な描画性能が無かったり、ATAインターフェイスは
PATAのみでSATAに非対応というのもあるにょ。
そのためいくらネットブックの制限を超える解像度や液晶サイズであっても総合性能面で
満足いくものではなかったにょ。(同じCPUを採用したポケットサイズPCと同じ性能しか
ないわけだしね)

これらをまとめるとネットブックは利益があまりないためにメーカーからは低価格競争に
踏み切りたくはないけど性能面では制限があるし、ネットブックより少し高価で高性能な
CULVノートの登場によって高付加価値化も難しくなってしまったというわけにょ。
つまり、ネットブックがこれから生き残るためには昨年10月19日に書いたように差別化が
必要になるにょ。
CULVノートでは実現できないような重量やサイズであれば十分にCULVノートと差別化が
可能だからね。

それが実現可能になるのがネットブック用の次世代プラットフォームのCanoe Lakeにょ。
http://pc.watch.impress.co.jp/docs/column/hot/20100720_381849.html
このCanoe LakeによってデュアルコアAtom搭載で厚さ14mmというPCが安価に作ることが
可能になるにょ。
それに従来あったような制限が無くなっているとのことにょ。
ULCPC用のWindowsを提供するための条件には「Atomのような低速CPU」ということに加えて
「シングルコア」というものもあったからね。
Canoe LakeにデュアルコアAtomが採用されるということはAtomのようなCPUにおいては
シングルコアという条件が外されたということがいえそうにょ。
それならば価格面においては現状のネットブックと比べてそんなに高価にはならないにょ。

Atom搭載のネットブックは当初は7〜8.9インチの液晶サイズで1kg前後の重量だったけど
あまり持ち歩く人が少ないということと小さすぎて使いづらいということで大型化が
行われたにょ。
そのせいで大型化しただけではなく重量アップになったにょ。
重量に関してはバッテリのセル数を減らすことで軽量化したもののそれでも1.2kg程度が
ネットブックの主流となったにょ。

それに対してCULVノートはネットブックよりは重いものの両者には差別化ができるという
ほどの差はないにょ。(CULVノートは6セルモデルで1.5kg前後であるため同じセル数で
あれば重量差は100〜200g程度しかない)
サイズ面も両者には液晶サイズが10.1インチと11.6インチという差があるものの筐体
サイズ的にはインチ数分の差(1割程度のサイズ差)しかないため差別化できるレベルでは
ないにょ。
しかし、Canoe Lakeによって14mmという薄型化ができるのであればフットプリントで
大きな差はなくても見た目で大きな差となるにょ。(平均的なCULVノートは3〜4cmでなので
2倍の差となるため)

Canoe Lakeによってネットブックが盛り返すかどうかは今後の商品展開が大きく影響する
と思うにょ。
すでにネットブックを買った人の買い換え需要を望むのは難しいかもしれないけどCULV
ノートでは持ち歩きには大きすぎる(重すぎる)けど従来のネットブックではWin7を使う
には非力だから選択肢には入らないという人には良さそうな端末になるにょ。
もっともそれに当てはまる人がそれほど大勢いるとはいえないために少し前までのような
大きな需要はないかもしれないけどCanoe Lakeはタブレット端末にも採用される予定に
なっているにょ。

タブレット端末はネットブックとはまた別の需要として発生するので新たなユーザー層の
掘り起こしが可能となるため潜在的には大きな需要があると想定されているにょ。
タブレット端末においては6月8日に書いたようにOakTrailとのシェアの奪い合いとなるにょ。
OakTrailはAtom Z+US15Wの後継ということでAtom Nでは実現が困難な小型のPC用としては
期待が大きい(Atom Z+US15Wで不満があったGPU性能のアップとSATA対応が挙げられる)
けど低TDPということを生かして薄型・軽量のタブレット端末を作ることが可能になるにょ。
Atom NのCanoe Lakeでも14mmの厚さのネットブックが作れるということはそれよりも薄い
タブレット端末を作ることが可能になるということを意味するにょ。

CULVノートと差別化可能なネットブック、薄型、軽量なタブレット端末など様々な用途に
使えるためAtomはまだまだ大きな需要を秘めているといえそうにょ。
もっとも、実際に製品として形を表さないと「可能性」だけでは何の意味もないけどね。

308御茶目菜子:2010/07/22(木) 12:57:41
位相差検出方式だから良いというわけではない
数年前ならばネオ一眼の領域だった光学10倍ズームのレンズも最近は一般的なサイズの
コンデジに搭載されているにょ。
これはレンズ設計技術の進歩もあるけど性能(具体的には表記しにくい画質)よりも数値
表現が容易なズーム比を重視しているのと望遠側のF値をある程度犠牲にすることで実現
可能になっているわけにょ。

コンデジである以上そこまで画質を気にする人も少ないし、ズーム比が上がることで
撮影カバーできる被写体が増える(デジタルズームを使うという手もあるけどデジタル
ズームはただのトリミング補間であるためズームとはいえない)というメリットがある
から一概には否定はできないにょ。
しかし、ズーム比が大きくなればなるほどコンデジの弱点が大きくなるにょ。
それはAFが遅いということにょ。
広角側では十分な速度でも望遠にしたら実用レベルではないとか、室内などの低照度の
環境下では極端にAFが遅くなる機種もあるからね。

その理由となってるのがAF方式にょ。
AF方式は一般的にはアクティブ方式とパッシブ方式に分かれているにょ。
アクティブ方式は赤外線や超音波などを被写体に照射してそれが跳ね返るまでの時間や
角度を計測することで距離を測定するものにょ。
この方式は銀塩時代のコンパクトカメラで多く使用されていたけど距離が遠いと反射する
赤外線が微弱になり測距しにくいという問題点があったにょ。
それに小型化がすすんでいるコンデジで外部に赤外線照射、受光するためのセンサーを
取り付けるのは難しくなっているからね。

そういうことでレンズから通った光を元に測距するパッシブ方式が現在のデジカメにおいて
主流になっているにょ。
パッシブ方式にはコントラスト検出方式と位相差検出方式があるけど速度面では圧倒的に
後者の方が有利にょ。
位相差検出方式はいわゆる三角測量の応用で瞬時に被写体までの距離が分かるために
後はその位置にレンズを駆動させるだけにょ。
この位相差検出方式は一眼レフで用いられているにょ。(AF方式自体はデジタルになっても
銀塩時代と変わらない)

それに対してコントラスト検出方式はレンズを少しずつ動かしていき最もはっきり見える
位置(つまりコントラストの高い位置)でストップさせるというものであるためその
性質上速度を上げることはできないにょ。
しかし、撮影センサー以外のものは不要であるため小型化が容易というメリットがあるにょ。
位相差検出方式では内部に測距用のセンサーが別に必要になるからね。(ゆえにこの
コントラスト検出方式はデジカメならではのものといえる)
しかも、そのセンサーに光を導くには内部にミラーが必要になってくるにょ。
つまり、位相差検出方式はミラーのないコンデジでは実現が困難なものといえるにょ。

ところが、この度位相差検出方式を用いたコンデジのFinePix F300EXRが発表されたにょ。
http://dc.watch.impress.co.jp/docs/news/20100721_381995.html
一体どうやってそれを実現しているのかというと原理は極めて単純だったにょ。
撮影センサー上に位相差検出方式の測距センサーを配置しているというだけにょ。
ミラーで別途用意された測距用のセンサーに光を導かなくてもレンズから通った光を
そのまま受光するだけで測距もできるため低コストかつ小型化ができてしまうにょ。

ここで問題となるのはそれで写真として成立するのかということにょ。
デジカメに広く用いられているベイヤー配列のセンサーの場合、センサーは格子状に
並んでおりそのいくつかが測距用のセンサーで使用されていたらその部分だけ写真に
映らないドット欠けの状態になるのではないかということにょ。(富士フイルムの場合は
ハニカム配列だけど基本的な面においてはベイヤーと変わらない)

そんな心配は無用にょ。
というのもベイヤー配列やハニカム配列では1つの画素でフルカラーを表現できるわけでは
ないからにょ。
単体ではR、G、B1つの色情報しか持たないため周囲の画素の情報を元に画素補間を行い
それでフルカラーを実現しているからにょ。
確かに参照情報が少なくなる分だけ劣化するということは十分考えられるけど1200万画素の
一部(数万個)が劣化したところでそれに気づく人は皆無だと思われるにょ。
というか、元々コンデジのレンズではすでにレンズ解像力よりセンサーの画素ピッチの
方が細かいためにピクセル単位で精密な描写は不可能だしね。
まさに画素数が十分なほど増え、画素ピッチが細かいコンデジだからこそ生まれた発想
だといえるにょ。

では、今後コンデジで位相差検出方式がメインになるのかというとそれはないと思うにょ。
というのもコントラスト検出方式も進化しており広角側ではその速度に大きな差はない
からにょ。
大きな差が出るのは望遠側だから高倍率ズーム機においては位相差検出方式がメインに
なるのかというとそうでもないにょ。
というのは動画と位相差検出方式の相性が悪いからにょ。

位相差検出方式は前述のように目的の箇所にいかに速くピントを合わせるかというもので
あるため静止画のためのAF方式だからね。
一気にレンズを動かし、動かし過ぎたら少し戻し・・・という感じでピントを合わせて
いくためこれを動画で見るとすごく見づらいものになるにょ。
デジタル一眼でも動画はコントラスト検出方式が用いられているからね。
これは動画撮影中(ライブビュー中)はミラーが使えないというのが大きいけど上記の
ように動画と位相差検出方式の相性が悪いというのも影響しているにょ。
もっとも、これは厳密には位相差検出方式だから動画と相性が悪いといよりもレンズの
駆動方法によって相性が悪くなっている(位相差検出方式の場合はレンズを少しずつ
動作させるという必要性がないため)というだけの話だから動画用にレンズ駆動用の
モーターに使用しているギアの多段階切り替えが可能であれば問題無くなるにょ。

したがって、このFinePix F300EXRも位相差検出方式だけではなくコントラスト検出方式も
搭載しているにょ。
恐らく静止画は位相差検出方式を用いて動画はコントラスト検出方式が用いられているの
ではないかと思われるにょ。
このようなハイブリッド方式であれば問題なくなるにょ。(コントラスト検出方式であれば
多点測距が容易だけど撮影センサー上に測距用のセンサーを配置しなくてはならないため
多点測距にするのは困難)
ただし、撮影センサー上に測距用のセンサーを搭載する関係上デジカメがセンサーを選んで
しまう(センサーの選択肢が無くなる)ということでこのような方式が主流になって
いかない限りは自前でセンサーを用意できるメーカーだけの特権になりそうな感じにょ。
キヤノンも撮影センサー上に位相差検出方式のAF測距用のセンサーを搭載の特許を取得
しているので近いうちに搭載製品が発売されそうにょ。

あとFinePix F300EXRは位相差検出方式のAF以外にもこのサイズで光学15倍ズームという
のも特長となっているにょ。
ただし、F200EXRの後継機種かというと微妙になるにょ。
F200EXRは1/1.6インチCCDというコンデジとしては大きめのセンサーを採用(F300EXRに
搭載の1/2インチCCDと比べて1.56倍の面積を持つセンサー)して画質を優先した5倍ズーム
となっているわけだからね。
もはや設計思想からして別モデルでありF300EXRは1/2インチCCD&10倍ズームF80EXRの後継
機種といった方が良さそうな感じにょ。

309御茶目菜子:2010/07/23(金) 12:38:08
電子書籍は紙の書籍を超えられない!?
米国ではついに電子書籍がハードカバーを上回ったにょ。
http://www.jiji.com/jc/c?g=int_30&k=2010072200132
といっても、あくまで1四半期における販売タイトル数で上回ったというだけのことにょ。
ハードカバー100タイトルに対してKindle向けが143タイトルだからね。
しかし、これは大事件にょ。
紙の書籍として流通しない本が多く出てきたということになるわけだからね。
従来であれば、紙の書籍として販売された後に電子化というのが主流だったけどこれは
「電子書籍がメインになりつつある」ということを意味するにょ。

Kindleは値下げ効果もあってハードウェア自体が前年比で3倍売れているとのことだけど
その影響もあってKindle向けの電子書籍も前年比で3倍売れている模様にょ。
KindleだけでこれなんだからiPad向けも考慮すれば金額ベースで電子書籍が紙の書籍を
追い抜くこともそんなに遠くない将来にやってきそうにょ。

では、日本ではどうなのか・・・?
日本でも電子書籍用の端末は90年代からいくつも発売されているもののどれもヒットせず
現在に至っているにょ。
それゆえ、「日本では電子書籍は売れない」というイメージを持つ人もいるかもしれない
けどそれは正しくないにょ。
日本では電子書籍が売れてないというわけではないからにょ。
むしろ。昨年までならば金額ベースで日本の方が米国よりも電子書籍が売れているにょ。
http://www.webdbm.jp/2010/05/7-e8fe.html

上記リンク先の情報を見てのように2008年度実績で北米が約282億円なのに対して日本は
464億円だけどケータイ向けが402億円となっており、それ以外が62億円となっているにょ。
ケータイではそこそこ電子書籍は売れているけどそれ以外はほとんど売れてないという
のがこのデータから分かるにょ。
Kindleは2010年には前述のように前年比3倍の伸びを見せているのに対してケータイの方は
2003年以降徐々に増えてきたものであるため今後それほど大きな伸びは期待できないにょ。

そうなるとやはりケータイ以外(PCや専用端末)にもっとがんばってもらうしかないの
だけどそれは難しい問題にょ。
それでは、ケータイ以外ではほとんど売れないものがケータイで売れるという理由について
考えてみるにょ。
まず、ケータイにおいては2003年のパケット定額プランの開始が起点だと思われるにょ。
従量制であれば100KBであってもパケット料金が240円(当時の2Gケータイで標準的であった
1パケット0.3円で計算)かかってしまうからね。
あとは、性能向上が大きいにょ。
高速な描画性能も重要だけど液晶サイズも最低でもQVGAはないと実用にはならないからね。
初期の電子漫画では1コマごと表示していたけどそれでは限界があるにょ。(4コマ漫画で
あればそれでいいけど一般漫画では可読性を大きく損ねてしまうため)

  ◎日本で電子書籍が売れないのにケータイ向けなら売れる理由
 (1)ケータイ以外のものを買う必要がない
 (2)ケータイ以外のものを持ち歩く必要がない
 (3)通信機能を内蔵している
 (4)課金システムが確立している

(1)(2)はあまりに当然のことだけどユーザーにとっては大きなメリットとなっているにょ。
ケータイでゲームアプリを購入するのも多くの場合は暇つぶし用であるためケータイで
ゲームを買うくらいならゲーム機を持ち歩けばいいというのは正しくはないにょ。
やりたいゲームがあるからそれに対応したゲーム機を持ち歩くというのなら分かるけど
それであれば読みたい本があればその本を実際に買って持ち歩けば良いというだけの
話だからね。

日本では漫画文化が諸外国よりも一般に浸透している(諸外国では「漫画=子供のもの」
という考えが大半)とはいえ、公共の場で堂々と大人が漫画を読むというのはそれほど
良いイメージがあるとはいえないにょ。
それはゲーム機でも同じにょ。
日本においても「漫画やゲームは子供のもの」と考えている人は大勢いるからね。
ケータイを使えば人前を気にせず閲覧できるのが大きなメリットであるためケータイ向けの
電子書籍も漫画やグラビア系が良く売れているにょ。

(3)は電子書籍を販売する上で欠かせないにょ。
上記のように「暇つぶし」が主な理由であれば一旦PCでダウンロードした後に転送という
方法は一般には受け入れられないにょ。
それにPCに慣れている人ならば簡単なことだけどそれが難しいという人もいるわけだし
何より家族共用のPCしかない人であればそのような方式では難しいからね。

(4)は最も重要なものにょ。
他の電子書籍が成功しなかったのはコンテンツ不足もあるけど課金システムに問題が
あるからにょ。
クレジットカードで支払いをすれば問題ないという人もあるけどクレジットカードを
持つのが嫌な人、使うのが嫌な人もいるからね。(私もクレジットカードでしか支払えない
場合を除いてクレジットカードを使うことはない)
そういうことで、キャリアが支払い代行してくれるケータイ向けコンテンツは多くの
人に受け入れられたにょ。
ケータイ向けの電子書籍でクレジットカードが必須であったらここまでの伸びは見られ
無かったと私は思うにょ。

このようにケータイ1台あればいつでもどこでも気軽に読めるというのは電子書籍には
向いているかもしれないけどこれがメインになるとは思えないにょ。
というのもそのケータイでしか読めないからにょ。

  ◎ケータイ向け電子書籍が今後伸びない理由
 (1)ケータイ以外でその電子書籍が読めない
 (2)SIMロック解除によってそのシステムが維持できなくなる

(1)はキャリアがコンテンツを用意しているためにキャリアが専用の端末を用意しない
限りはそのケータイ以外では購入した電子書籍を読むことができないにょ。
Kindle用の書籍であればKindleで読んだあとその続きをPCで見るなんてこともできてしまう
(栞はサーバ上にあるためユーザーはどのページまで読んだのかということを意識する
必要がない)けれどケータイ向けの電子書籍ではそんなことはできないにょ。

それが難しいのは日本では書籍の著作権管理が米国よりも複雑であることが原因となって
いるにょ。
出版社ごとに提携を結んでいく必要があるけどあくまで契約を結んでいるのはその
キャリアであり、PCのようにキャリアから離れて使用が可能になるような端末では使用が
できなくなるにょ。
つまり、上記のように電子書籍専用端末をキャリアが出し、その端末でのみケータイで
ダウンロードしたものを共用可能になるということにょ。

(2)は(1)の問題をさらに拡大しているにょ。
7月7日に書いたように来年4月からドコモが自社端末のSIMロックを全機種解除するけど
恐らく他のキャリアも遠くない時期にこれに追従すると思われるにょ。
ただ、そこで書いたようにあくまでSIMロックが解除したところで使えるようになるのは
キャリアに依存しない部分のみにょ。
(1)のように現状の電子書籍は完全にキャリア依存となっているためSIMロックが解除
されたとしてもその書籍を読みたいのであれば端末やキャリアは移動はできないにょ。

つまり、キャリア主導の現在のケータイ向け電子書籍はキャリアが主導しているお陰で
現在のように広く多くの人に受け入れられているのだけどキャリアが主導しているのが
原因で今後大きな発展性は望めないということにょ。
したがって、日本において電子書籍が今後大きく伸びるかどうかはキャリアに依存しない
方法をメインにしていく必要があるということにょ。

そんな中、シャープが電子書籍事業へ参入すると発表したにょ。
http://k-tai.impress.co.jp/docs/news/20100720_381882.html
そして、そのサービスを利用するためのタブレット端末も参考出品されたけど5.5インチ
液晶搭載モデルと10.8インチ液晶搭載モデルの2種類が用意されているにょ。
このラインナップは悪くないにょ。
大きな画面の方が視認性が向上するため使いやすいと単純にはいえず、電子書籍用で
あれば6月2日に書いたように6〜7インチ程度の方が使いやすいからね。
新聞や週刊誌を流し読みするならば大きい液晶の方がいいけど決まったコンテンツを
閲覧するのであればある程度小さい方がいいにょ。

かといって、あまり小さいとかえって使いづらいしケータイと差別化もできないにょ。
人間の目は30cm離れた状態でカラーで300ppi、モノクロならば400ppi以上の分解能を
持つわけだけどそれはあくまで凝視した場合の話であり実用面からいえば小画面の場合に
おいては液晶サイズで情報量がほぼ決まってしまうにょ。
5インチであれば3.5インチの2倍の情報量があるというわけにょ。
一般的なケータイでは3.2〜3.5インチであるため5〜6インチあれば十分に差別化が可能に
なるにょ。
またこのクラスだと文庫本感覚で使えるし、重量面でも恐らく300g程度に抑えられる
ために何とか片手で持って読める程度の重さになるにょ。

ただ、端末ラインナップが2種類用意されているとはいえ問題はその端末をわざわざ買う
人がどれだけいるのかということにょ。
そして、その端末用にどれだけのコンテンツが用意できるのかということが重要になって
くるにょ。
ケータイのようにある程度普及している端末であれば出版社との契約もスムーズに進む
だろうけどこれから新規に参入というのであれば様子見をする出版社も多く存在する
だろうからね。
そうなるとコンテンツはあまり用意できず、端末も売れないという負のスパイラルが
生じてしまうにょ。
さらに課金システムの問題もあるからね。

それらのことを考えると日本でiBooksのサービスが開始されることが電子書籍成功への
近道といえるかもしれないにょ。
シャープはiBooksが開始される前に手を打っておきたい(開始されたらコンテンツ面や
端末の知名度の面において勝ち目がほとんどない)ということだろうけど現時点では
ケータイ向けのみ何とか成功といってもいいレベルであり、それ以外では売れてない
日本の電子書籍において成功へと導くのは並大抵のことではできないにょ。
iPadでさえそれができるか微妙なのにシャープに果たしてそれができるのか・・・・?
まだまだ問題点が多い(著作権管理システム複雑であることや出版社が保守的)日本に
おいては電子書籍が紙の書籍を超えるという時代は当分やってこないと思うにょ。

310御茶目菜子:2010/07/24(土) 13:48:22
配信サービスを行うのは責任を負う
昨日は日本で電子書籍を普及させるのは難しいということを書いたにょ。
その中でシャープが参入しようとしているのだけど何もしなければいずれiBooksの
サービスが日本で開始され他のメーカーはかなり厳しい立場に立たされてしまうため
現時点で十分な準備が出来ていなくてもまずは先制攻撃をすることに意味はあるにょ。

それでは、シャープに求められるものは何なのか・・・?
http://pc.watch.impress.co.jp/docs/column/hot/20100723_382678.html
アップル社(iPhone、iPad)の最大の強みは垂直統合モデルにあるにょ。
ハードウェア/OS/アプリ・コンテンツを1社ですべてまかなえているということにょ。
しかも、それらがすべて高レベルで統合しているにょ。

それに対してそれ以外の例えばWindows PCなどは水平分業の典型例となるにょ。
PCといっても様々なPCメーカーが多くのものを作っているわけだし、その中では独占状態に
近いOSであるWindowsであっても他の選択肢がないわけではないにょ。
したがって、PC用のアプリがそのPCで動くようにするためにはそのPCメーカー、パーツを
作っているパーツメーカー、そしてOSを作っているOSメーカー(WindowsならばMS)が
それぞれ自社の責任を果たすことで実現しているにょ。

その点、垂直統合モデルであれば当然のことながらメーカーの組み合わせは1通りしかない
わけなのでその責任はすべてそのメーカーにあるにょ。
シャープが端末を作り、そしてコンテンツ配信まで手がけるというのであればそれだけの
責任を負う覚悟が必要になってくるというわけにょ。
確かにOS、アプリが一体となっている組み込み機器の場合、時代とともに陳腐化してくれば
機器ごと買い換えというのも選択肢の1つと割り切る必要もあるだろうけどなかなかそう
割り切れるものではないにょ。

機器のみ、もしくはコンテンツ配信のみ行うというのであればまた変わってくるにょ。
機器の販売であればシャープは電子手帳の時代からザウルス、NetWalkerと長年手がけて
きているためそれほどハードルが高いものではないにょ。
成功するという確証はないけどやり方を間違えなければそんなに失敗することはないと
私は思うにょ。

しかし、コンテンツ配信に関してはかなり懐疑的にょ。
機器の発売当初は力を入れているように見えているけどすぐに撤退もしくは凍結となって
しまうからね。
これは機器のアップデートとの関連性も非常に高いと思われるにょ。
例えばiPhoneにおいて機種毎に対応アプリがあるならばその市場はかなり小さいものに
なるけど実際は1世代前まではOSのバージョンアップで現役として使用が可能になっている
からね。(最新モデルしか対応していない機能を使ったアプリは除く)

確かに端末機器メーカーからすると新しいサービスを始める場合には新しい機器に変えて
もらう方がサポートコストを考えても有利になるのだけどどこまでユーザーが納得できる
のかということがポイントとなるにょ。
場合によってはソフトウェアのバージョンアップで十分に賄うことができるかもしれない
わけだしね。
ザウルスでその辺が特に痛感したにょ。
汎用OSであるubuntuを採用しているNetWalkerであってもシャープ独自カスタマイズに
よってユーザーの自由なバージョンアップが困難であるためその状態は変わらないと
思われるにょ。

では、コンテンツ配信のみに徹するのが良いのかというとそうともいえないにょ。
配信する側は端末をコントロールできないからね。
電子書籍ではフォーマットとしてのデファクトスタンダードな形式がないからね。
実際、すでに配信では成功を収めている音楽でもそんなものはないにょ。
MP3がデファクトスタンダードという認識が多いけどMP3はDRMに非対応であるためあくまで
個人利用(CDを買ってリッピングする場合)におけるデファクトスタンダードであり配信と
なると大きく分かれてiTunes StoreのAAC、その他配信サービスで主に使われているWMV、
着うたフルで使われているHE-AACがあるにょ。
それらはDRMによって一定回数のコピーもしくは電話番号による認証キーで著作権保護
されているにょ。

シャープがコンテンツ配信だけを行った場合にはその配信サービスが成功するかどうかは
その形式の書籍が読める端末がどれだけ出るのかというのが成功を大きく左右するにょ。
Kindleが現時点で米国である程度の成功を収めているのはコンテンツ配信する側と端末が
セットになった垂直統合モデルだからにょ。
昨日も書いたようにハードが売れることでコンテンツが売れるという相乗効果が期待できる
というわけにょ。
どっちかで仮に赤字だったとしてもトータルで黒字であればビジネスとしては成功といえる
のである程度戦略的な価格付けを行うことが可能になるにょ。

これが機器のみコンテンツ配信のみであればそれぞれ単体で利益が出せるような価格
付け(配信の方は著作権者への配分割合を含む)を行う必要があるにょ。
例えばコンシューマゲーム機があの価格で出せるのはハードでは赤字になってもソフトの
ライセンス収入(ここで言うコンテンツを配布する側の利益)を得ることでその赤字の
穴埋めが可能になっていると同時に当初は赤字であっても将来的に伸びることが予想
できるのであれば事業の継続にはそれほど支障を来すことはないにょ。(PS3のように
黒字化するまで数年かかるケースもあるため赤字に耐えうるだけの資本力は必要だけど)

つまり、価格面やサービス面では垂直統合モデル(ここでは厳密な垂直統合ではなく
機器とコンテンツの配信を1社で賄うというくらいのニュアンス)の方が有利になるという
のは明らかなのだけどそれは前述のように責任問題にも繋がってくるにょ。
他の会社と合弁事業を展開し、その責任負担を小さくするという方法もあるわけだけど
「船頭多くして船山に登る」とことわざにもあるように成功に導くには船頭はなるべく
少ない方が良いにょ。
しかし、シャープにアップルやアマゾンのようなサービスが出来る・出来ないを論じるのは
現時点では意味がないためもう少し様子をみる必要がありそうにょ。

311御茶目菜子:2010/07/25(日) 13:30:58
タイムリミットまであと1年
地デジ完全移行まであと1年になったにょ。
http://av.watch.impress.co.jp/docs/news/20100724_383026.html
私は現時点ではまだ地デジ対応のTVや録画機器を導入していないにょ。
せいぜいワンセグ視聴環境があるくらいにょ。
ワンセグはPC用のUSBチューナー、ケータイ内蔵のもの、単体のワンセグTV(ワンセグ
機能のあるメディアプレイヤー)を持っているので困ることはないにょ。

さて、地デジに移行することでメリットとデメリットがあるにょ。

 ◎メリット
 (a)画質に優れる
 (b)来年以降も地上波放送を見れる

 ◎デメリット
 (c)コスト面の問題
 (d)コストをかけて見たいものがない

これらはあくまで私個人のメリットデメリットだけどそれらをもう少し詳しく書いていく
ことにするにょ。

(a)の画質面に関してはわざわざ語る必要はないと思うにょ。
画質を全く気にしないという人であればワンセグでも十分だからね。
QVGA、15fpsというのは現状のアナログ放送よりも劣るけど「見れればOK」というレベルで
あれば問題ないにょ。(後述のようにニュース番組ならばワンセグで問題ない)
とはいえ、いくら画質をそれほど気にしないという人でもワンセグでは不満があるという
人もいると思うにょ。
私も(高画質化のために買い換えが必要な場合であれば)それほど高画質を望んでいる
というわけではないけど同じ金額を払うならば画質がいいに越したことはないからね。

(b)に関して言うと、そもそも私の部屋にはTVがないにょ。
実際はあるのだけど25年前のTVでゲーム専用の15インチTV(チューナーは故障のため
ゲーム用としてしか使えない)で最近はそのTVを使ってゲームをすることもないので
部屋の中に埋もれている状態にょ。
自分の部屋でTVを見る場合はノートPCにUSB接続したアナログチューナーで受信している
けど画質はイマイチとはいえ、録画が必要なものは別途リビングに置いているDVD
レコーダーで録画しているので問題ないにょ。
リビングに置いてあるTVとDVDレコーダーはこちらもまだ地デジには対応しておらず
アナログ放送のみとなっているにょ。

やはり、大きいのは(c)のコストの問題にょ。
TVもレコーダーも買い換えたいところだけど生憎その予算はないにょ。
リビングに置くならば最低でも32インチクラスは欲しいし、どうせ買うならば720pでは
なくフルHD対応のものにしたいけどそうなると依然として高価だしね。
フルHDで安価に入手しようとするならばチューナー機能付き液晶モニタを買うのが一番
だけど安いのは22インチクラスでリビング用には小さいし、画質も専用TVと比べたら
大きく劣るので躊躇しているにょ。(自室用としてPC兼用で使うならば良い選択肢だけど
PC用のモニタは昨年フルHDのものに買い換えたばかりなので買い換え辛い)

コストに加えて(d)の問題があるにょ。
アナログ放送が終了してもTV放送が見れなくなるというわけではなく地上波放送が見れなく
なるというだけだからね。
現在私が録画しているTV番組の大半はアニメだけど私はアニメ過疎地に在住している
関係上録画している放送局はほとんどが隣県のものとなっているにょ。
アナログ放送であれば隣県の電波が受信できるもののデジタル放送ではそれができない
ということでデジタルに移行しても「見れないものが見れる」というわけでないにょ。

現在アナログ放送が受信できている放送局がすべてデジタルに移行しても受信できるので
あれば予算の都合が付き次第デジタルに移行したいと考えているけど残念ながらそういう
ふうにはいきそうにないからね。
区域外再送信も検討中だけどまだどうなるか分からないにょ。
地上波で見れなくても今はCS放送やネット配信で見ることもできるし、何度も繰り返して
見たい作品であればDVD(BD)で見ることでカバーできるからね。(現状でも録画しても
1回見た番組を後からまた見ることはほぼ無いし、見直したいというものはDVDを買っている
わけだから現状と変わらない)
コストをかけてまで得られるものはほとんどないにょ。
ローカルニュース程度ならばワンセグで十分だしね。(ニュース、天気予報の類も今は
ほとんどネットでしか見ていないし)

とりあえず、現状では「メリット<デメリット」であるため急いで導入する気にはなれない
ということでもう少し様子見という感じにょ。
気が向いたらPC用のUSB地デジチューナーを購入するかもしれないけど地デジ移行への対策は
その程度で済ませることになる可能性が高いにょ。

312御茶目菜子:2010/07/26(月) 13:48:29
花火写真ノススメ
そろそろ全国的に花火大会の季節ではないかと思うにょ。。
私の地元でも10日後には花火大会が開催されるので天候さえ良ければ撮影しにいく予定に
しているにょ。
花火の撮影なんて難しそう・・・と思うかも知れないけどデジカメでは撮影難易度は
銀塩カメラよりも格段に低いので安心にょ。

花火撮影に重要なのは必要な機材を用意することと撮影に必要なの知識(といっても
難しいものではなく下記程度のもので十分)を持って撮影に望むことにょ。
主に必要な機材には下記のものがあるにょ。

 (必須機材1) カメラ+レンズ
 (必須機材2) 三脚
 (推奨機材1) ライト
 (推奨機材2) レーブルレリーズ

まずは必須機材1のカメラ+レンズを考えてみるにょ。
最初にカメラだけどベターなのはシャッター速度が自由に調整できる一眼レフにょ。
花火は数秒間シャッターを開けっ放しになるため一眼レフであればバルブモードで撮影
することになるにょ。
バルブで撮影する場合には花火が上がった瞬間にシャッターを押し、数発打ち終わった
時にシャッターと閉じたらいいにょ。(花火の音でシャッターを押し始めるのは見えて
から押したのではタイムラグの関係上花火の中心部分が写らなくなるため)
目安としてはシャッターを開けておく時間は4〜8秒程度となるにょ。
1画面に1発だと寂しいけど欲張ってシャッターを開けたままにすると花火同士が重なり
合って形が分からなくなってしまうためにかえって逆効果になるにょ。

その一眼に使うレンズはどのようなものを用意すれば良いかというと花火の規模や撮影
する構図によって大きく左右されるもののそんなに望遠レンズは要らないにょ。
最初にセットで買ったときに付いてきた標準ズームで十分にょ。
むしろ、足りないと感じるのは広角側だと思うにょ。
花火だけを撮るならば換算28mm程度で足りるけど風景を入れようとすると換算24mm以下の
超広角レンズがないと厳しいからね。

レンズの画角は標準ズームで足りるけど問題は絞りにょ。(AEでの撮影は適さない)
どの程度の絞りにするのかというのは風景との絡みや花火の明るさによって変わるため
一概には言えないもののF8〜F16くらいで調整するといいにょ。
ただし、APS-Cでは1000万画素であってもF16以上に絞ると回折限界に達するために小絞り
ぼけによってシャープに写らなくなってしまうにょ。
そのためNDフィルターがあると便利にょ。
NDフィルターは明るい場所で使うとは限らずシャッター速度や絞りの選択幅を広げる
ものとして常にカメラバッグの中に常備しておきたいにょ。
私もND4、ND8フィルターを持ち歩いているにょ。

花火を撮るなら昔だったら一眼レフが必要不可欠だったけど最近はコンデジでもシーン
モードで花火モードが選べるようになったのでそれを使うといいにょ。
少し古めの機種でも夜景モードがあれば花火は撮れなくはないにょ。
オートで撮影すると暗い場所だからフラッシュが発光してしまうこともあるけど花火
までは距離が遠いからその光が十分に届かないだけでなく、花火自体が発光体であるため
それを照らすという行為は全く無意味となるにょ。
オートで夜景や花火だと判断してくれる機種ならばオートでいいけどフラッシュが発光する
場合は確実に失敗写真となるためユーザーの手でシーンモードを設定する必要があるにょ。

さて、肝心のレンズだけど一眼レフのところで書いたように標準ズームで問題ないにょ。
「標準ズーム」という言葉がよく分からなければ3倍くらいのズームで問題ないと考えれば
いいにょ。
コンデジの場合はズーム比ではなく広角側の画角に問題がある場合が多いにょ。
最近は換算24〜28mm程度の広角をカバーしたレンズを搭載の機種が多いけど少し前までは
広角側も換算35〜38mm程度が主流だったからね。
この画角だと1尺玉のような大きな花火は画面内に収まらないにょ。
とはいえ、普通の花火なら十分撮れるので尺玉が連発するような状況下でない限りは大きな
問題はないと思うにょ。

次に必須機材2の三脚について書いていくことにするにょ。
三脚は数秒間シャッターを開けっ放しにするために必須となっているにょ。
数秒もの間1mmもカメラを動かさずに両手で保持できる人なんてどこにもいないからね。
手ぶれ補正機能があるから安心なんてことはなくこの手ぶれ補正は数分の1秒という
シャッター速度では有用な物だけど数秒という長時間シャッターを開けている場合には
全く役に立たないにょ。
むしろ、三脚に乗せている場合には手持ちとブレ方が異なるために三脚に乗せて撮影
する場合には手ぶれ補正機能は切って使う方がベターにょ。

さて、難しいのは三脚選びにょ。
すでに三脚を持っている人はそれを使えばいいけど人混みの中撮影することになるため
極力三脚は高さが高い方がいいし、転倒防止の対策をしておく必要があるにょ。
三脚は安定性重視のできるだけ重くて丈夫なものを選択したいけどこれは価格と可搬性
との兼ね合いがあるため難しいにょ。
高さが足りないから足を限界まで伸ばして、さらにエレベータをいっぱいまで伸ばして
使用するという人も見かけるけどこれは安定性を考えるとあまり良い使い方ではないにょ。
三脚の重量が軽く一眼レフを乗せたら三脚が倒れそう(揺れてしまう)という場合は
ストーンバッグをなどを用いて三脚の自重を増やすという方法があるにょ。
花火撮影をする場合にはこの三脚で失敗写真になるかどうかが決まる(いくら構図が絶妙
であってもブレブレ写真だと好印象はなくなる)ということでこの三脚選び、三脚の
使用方法に関しては注意を払いたいところにょ。

次は推奨機材1のライトについてにょ。
花火撮影は暗い場所で行うので当然のことながら暗い場所でセッティングや後かたづけを
する必要があるためそれを照らすためのライトが必要になるというだけの話にょ。
これは花火だけではなく夜間撮影をするすべての場合にいえることにょ。
このように本来は必須といってもいいようなものなのに推奨止まりなのはケータイにLED
ライトが付いているからにょ。
そのLEDライトで明るさや機能面で不満、ケータイのバッテリを使いたくないという人は
単体のライトを持って行くといいにょ。
最近はLEDライト搭載の懐中電灯も数100円で買えてしまうのでコンパクトサイズのものを
買っておいてカメラバッグの中に常備しておくと良いかもしれないにょ。

途中でレンズ交換を行う人であれば両手が使えるヘッドライト方式のライトの方が便利
かもしれないにょ。
ただし、花火撮影の場合は上記のように標準ズーム1本で何とかなるためにレンズの交換
必要性は薄いため作業が可能な程度のライトがあれば十分にょ。

推奨機材2のケーブルレリーズについて書いてみるにょ。
カメラを三脚にセットすればぶれない・・・なんてことはなく最大の問題はシャッターを
押す瞬間にあるにょ。
よほど慎重に押さない限りは確実に手ぶれを起こしてしまうにょ。
セルフタイマーを使えばそれはかなり軽減されるけどそれだと花火が上がる瞬間を狙って
シャッターを切ることはできないにょ。
そのために必要なのがケーブルレリーズにょ。

銀塩一眼ではこのケーブルレリーズは花火、星座写真を撮るのには必須だったけど
デジタル一眼ではシャッターボタンにケーブルレリーズを差し込める穴は開いてないにょ。
しかし、デジタル一眼の場合は電子制御できるため専用のケーブルレリーズを差し込む
コネクタがあれば問題ないにょ。
私が持っているK200Dではこのコネクタがあるために専用ケーブルレリーズを買ったにょ。
しかし、コンデジの場合はこのケーブルレリーズが使える機種は皆無だし、デジタル
一眼であっても入門機ではコネクタのない機種は結構あるにょ。
私が持っているD50はデジタル一眼とはいえ、ケーブルレリーズ用のコネクタは付いてない
からね。

そういう時に便利なのがリモコンにょ。
本来は遠隔操作用だけどケーブルレリーズのように三脚使用時の手ぶれ防止用としても
リモコンは有用にょ。
私のD50はリモコンには対応しているので専用リモコンを買ったにょ。
手元にあるコンデジでリモコンがオプションであり花火撮影のために購入するのが馬鹿
らしいという人や専用リモコンそのものが存在しないという人は最終手段としてブレない
ように慎重にシャッターを押すしかないにょ。
「三脚があるから手ぶれをしない」という認識だと後から確認した場合にはブレブレに
なるけど「気を付けないと三脚でも手ぶれをする」と認識しておけばブレは最小限に
抑えられるため慎重にシャッターを押していけば意外に手ぶれは起こさずに済むにょ。
この心がけ(認識)の違いというのはかなり大きいにょ。

また、必須、推奨機材には挙げてないけど予備のバッテリや記録メディアもあった方が
いいにょ。
バッテリは液晶画面をずっとONの状態で撮影した場合には通常時よりもバッテリ消費が
大きくなるからね。
メディアは連写をすることがないためそんなに大量は必要にないけど1カット10秒と
仮定すると1時間の花火大会では360カットとなるにょ。
JPEGで1枚5MBだと1.8GB、つまり2GB以上空きのあるメディアであればいいにょ。
これがRAWだと1枚20MBと仮定しても8GBで足りるにょ。

花火撮影は銀塩カメラでは撮影に有利な一眼レフでは撮影中に被写体が見えない
(シャッターを開けている時はファインダーが真っ黒になる)ということで撮影する
場合はカンや経験が必要だったにょ。
これがデジタルになって失敗かどうかはその場で確認できるようになり、コンデジや
ライブビュー対応のデジタル一眼であれば常時その様子を液晶モニタで確認が可能で
あるために失敗する確率が非常に下がりそのため撮影難易度は大幅に下がったにょ。
デジタルによって撮影難易度が下がったジャンルは多くあるけど花火に関しては
デジタルの恩恵が最もあるジャンルだと思うにょ。

それに花火はカメラ以外に必要なものは三脚だけで済むからね。
これがスポーツ写真であれば望遠レンズが必要だったり、高速なAF搭載のカメラが必要
だったりということで追加投資を覚悟しないといけないのだけど三脚は安いものであれば
3K円くらいで買えてしまうし、あれば何かと便利だから買って損はないにょ。(望遠
レンズは買っても使わない人も多いだろうし、安くても1〜2万円であるため必要ない
人にはおすすめしずらい)

さらに花火は被写体自体がキレイであるため失敗しない限りは撮った写真がキレイに
なるというのが大きいにょ。
これが風景写真であれば見たときと同じようなイメージの写真を撮影するにはかなりの
技術やセンスが必要になってくるにょ。(見たときにはキレイな景色も写真で見たら
平凡なものになりがち)
これは花火写真は奥が浅いというわけではなく一定レベルの基準に達するのが簡単で
あるということにょ。
したがって、初心者、未経験者であってもデジカメを持っていれば花火写真を撮ることを
オススメしたいにょ。

313御茶目菜子:2010/07/27(火) 12:58:41
ビジネスモデルを変えるのは難しい
アニメのDVDを買ったことがある人であればその価格の高さに驚くと思うにょ。
TV放送されたものがDVD化されただけで3話入りで5800円〜7800円くらいするからね。
タイトルによって大きな差はあるものの深夜アニメの場合は概ね1話当たり2000円前後
となっているにょ。
なぜこんなに高価になるのかというとDVDを販売することで制作費を回収するビジネス
モデルとなっているからにょ。

深夜アニメの場合は1話当たりの制作コストは概ね1000万円程度となっているにょ。
この価格が高いかどうかというとまた微妙になるけど内訳を見ると動画の場合1枚約200円
程度でこれが1話あたり2000〜4000枚、原画(背景など)でも1枚2000円程度が相場と
なっているにょ。
声優の人件費は1人当たり最低1.5万円(その声優のランクによって大きく異なる)と
なっており、その他もろもろを合算すると1話あたり約1000万円になるということにょ。
アニメを見ていればそのスタッフロールの多さに気が付くと思うけど30分アニメの
場合一般的には3〜4週間かけて作られているにょ。(複数のチームに分かれたり、外注
したりで毎週の放送ができている)
それらの人件費を考えれば1000万円という費用は格安といってもいいにょ。

しかし、1000万円を回収しようとなると至難の業にょ。
1話当たりの販売価格を考えると定価の半分が製造料や流通コストで消えると考えた場合
にはDVD売上1万枚が損益分岐点になるにょ。
ただし、一説によるとオリコンの初動売上で3000本越えると一般的な深夜アニメは元が
取れるらしいにょ。
これはオリコンの売上は出荷数より小さめに出ている(メガヒットの場合は誤差は小さい
けれどマイナー作品は相対的に誤差が大きくなる)のと上記の「定価の半分」という
計算がアバウトであるのが原因だと思うにょ。

3000本くらいなら簡単に売れるのでは・・・?と思うかも知れないけど実際はそれに
達するのはせいぜい5作品に1本くらいにょ。
つまり、8割の作品が赤字を2割の作品の黒字でカバーする必要があるにょ。
タイトル数が増えるにしたがいこのような傾向が高まってきたのだけど実際売れる作品は
売れているため一部のヒット作で赤字分を回収することは可能となっているにょ。
ただし、2006年をピークにTVアニメの数は右肩下がりになっているにょ。
これは、上記のように大半の作品が赤字だからにょ。
ヒット作品を出せば今までの赤字が回収できるとしてもリスクが大きすぎるからにょ。
DVDを売ることで投資した分を回収するというビジネスモデルにはもう限界がきている
ということにょ。(一番おいしいのはヒット作品を抱えている出版社だけど昨今の
アニメ化作品の増大によって原作の枯渇化が見え始めている)

そもそもアニメというのは映像作品として売るために作るのではなくおもちゃを売る
ために作られたものだったにょ。
http://bizmakoto.jp/makoto/articles/1007/26/news010.html
そのためおもちゃメーカーがスポンサーとなってアニメに投資していたにょ。
それは昔は映像作品として売るというのが難しかったと言うのが一番の理由にょ。
80年代前半だとVHSデッキでさえ普及していなかったからね。
VHSが普及し始めた90年代、そして90年代末期のDVDの普及開始によって現在の多くの
深夜アニメで導入されているDVD(映像作品)として販売することによる投資を回収する
ビジネスモデルができあがったにょ。

深夜アニメの多くはこの映像コンテンツを売ることをメインとしたビジネスモデルと
なっているのだけど子供向け作品では今でも昔ながらのビジネスモデル(おもちゃの
宣伝をするためにアニメを作っている)となっているにょ。
これで成功したのは最近だと「ジュエルペットてぃんくる☆」が挙げられるにょ。
ジュエルペットはおもちゃを売るのが目的であるためDVDは通常のアニメでは考えられない
4話入りで1380円という破格値となったにょ。
深夜アニメはそれと同じように考えればDVDを売るためにTVで放送(宣伝)するという
ことをしているともいえるにょ。
実際TVで放送するというだけで知名度が段違いに高くなるからね。

ただし、放送したものが映像であるためTV版で満足してしまえばわざわざDVDを買うと
いうことも無くなるにょ。
TV放送したものをわざわざ買うなんて一部のアニメオタクに限られるからね。
アニメ好きの大人は数100万人はいると思うけどその中でDVDを買うとなるとかなり
限られてくるにょ。
TVアニメだと最大に見積もっても1巻当たり10万本程度の売上だからね。(出荷ベース
だと10万本を超えている作品もあるけど)
最近では化物語が1巻当たり7〜8万本というガンダムシリーズと同レベルの販売本数を
記録し話題になったにょ。
この春の新作であればAngel Beats!の1巻が初動3.4万本という売上を記録したにょ。
1巻あたり3万本というのは年間ではトップ3に入るくらいの作品であり1年間に100作品
以上作られていることを考えればそこまで売れることを前提に考える(売れることを
見越して宣伝費用をかけたりする)のは無理があるにょ。

やはりDVDだけでは限界があるので重要となるのが版権ビジネスにょ。
現在ほとんどのアニメが制作委員会システムを取っているにょ。
これは複数の企業で投資をすることでリスクを分散するものにょ。(得られた利益も
その出資割合によって分配される)
この方法によって小さなアニメ制作会社でもTVアニメを作ることが可能になっているにょ。
これによってリスクが分散されるというメリットがあるものの問題は考え方の異なる
複数の企業が出資することで作る側の自由度が減ってしまうということにょ。
スポンサーの指示には逆らえないためプリキュアやリルぷりなどの変身もののアニメでは
変身グッズを売るために毎回変身シーンを入れるという制約があるにょ。(ネギマ!?
では、TVに100枚のネオパクティオカードを登場させるようにプロデューサから指示が
あったのは有名な話)
それに近年表現規制が厳しくなっているせいで自由度が失われているというのも原因と
なっているにょ。
つまり、「作りたいものが作れない」ということにょ。

TVで放送するということで知名度が上がりDVD売上にも貢献できるけどTV放送するには
大きなコストがかかり、なおかつ上記のように制約も大きくなるという難点があるにょ。
かといって、制作委員会システムをとらず、宣伝も控えめにしてオリジナルのOVAとして
販売しても売れる見込みはほとんどないにょ。
最近話題になっており、(商業的に見て)ハズレ作品がない京都アニメーションでも
自社原作のOVAのMUNTOはさっぱり売れなかったからね。
映像作品を売るためにはそれなりの作品知名度がないと厳しいということにょ。

これが人気原作であれば原作ファンの支持があるために売上はそれなりに期待できるため
最初から原作ファン向けに作られてコミックスとセットで売られるOAD(※講談社命名)
というシステムも最近は多く取り入れられているにょ。
ネギまはTV版1期が平均1万本少々の売上だったのに対してOADでは8万本の売り上げと
なり、OADというシステムはが効果が大きいことは実証されているにょ。(ただし、
これは一定以上のコアなファンが付いている人気原作でないと効果が発揮できない)

映像で儲けるのは無理だから無料配布して版権収入だけで回収するというのが上記
リンク先の山本寛氏の考えにょ。
確かにアニメのDVDを買うというのはアニメファンの中のごく一部にすぎないから
その少ないパイの奪い合いでは勝者になるのは極めて難しいからね。
しかし、アニメのDVDだから売れないというわけではないにょ。
実際ジブリアニメはアニメDVDとしては破格の数100万本(「千と千尋の神隠し」は
DVDとVHSを合わせて500万本)売れているにょ。
これはアニメとして・・・ではなく映像作品として優れているから売れるというわけにょ。
ジブリアニメ以外が映像作品として劣っているとは私は思わないけどジブリアニメ
以外は「アニメだから」と敬遠する人が多いせいだと思うにょ。

さて、そのように考えると映像を無料配布することで幅広い層にその作品を知らしめる
ことが出来てもその関連商品を買うという版権ビジネスを非常に難しいことが言える
かもしれないにょ。
実際、世帯視聴率3%のアニメの場合単純計算で360万人の人が見ている計算になるにょ。
広いユーザーに認知させるのであれば少なくともそれを超えるレベルはできないと
話にならないにょ。

最低でも360万冊売れる雑誌(ちなみに最も売れている週刊少年ジャンプが現在の
発行部数は280万部)に無償配布しないと「少ないパイの奪い合いを避ける」という当初の
目的は達成ができないにょ。
360万枚も無料配布した場合にはDVDのプレス料金は少なめに見て1枚50円と計算しても
1.8億円かかる計算になるにょ。
TVアニメの場合はキー局で放送しても1話5000万円程度だからメディア配布の方が
かえってコストがかかってしまうにょ。
そもそも、その無償アニメを見てもグッズを買いたくなる層というのは結局コアな
アニメオタクに限られるため狭いパイの奪い合いから結局逃げることは出来ないにょ。
ジブリ並みの「アニメ」という枠から外れるくらいの認知度にならないと駄目という
ことにょ。
そのためには良質の作品を作り続けるだけではなく多業種と提携し認知度を上げるために
多くのコストが必要になるというわけにょ。
「面白い作品だから関連商品が売れる」という計算は単純には成立しないにょ。
かといって、今のアニメのようにどこかで見たことあるようなものばかりというのも
困りものだけどね。

ガラパゴスケータイのインセンティブを付けて販売するビジネスモデルと同じように
一旦普及したビジネスモデルは簡単に変えることはできないにょ。
これは電子書籍の流通に関してもいえるにょ。
変えることができても1社の力だけでは難しいにょ。
したがって、他の会社と連携をしてより変えられるような環境に少しずつ近づけていく
ということが必要になるにょ。

314御茶目菜子:2010/07/28(水) 13:05:19
やはり高校野球はいい
久しぶりに高校野球を撮影してみたにょ。
前回撮影したのはまだ銀塩一眼を使っていた20年近く前のことにょ。
まず撮影するならば撮影ポジション確保が重要になるにょ。
球場の中を自由に歩いて撮影すれば良いとなるけどそれが可能なのは撮影許可を事前に
もらっている人(要するに報道関係者)だけに限られるにょ。
問題行動をする人が多いためにカメラを持ってうろうろするだけで不審者扱いされて
しまうハメになるので下手な疑いをかけられないためにも最初に決めた位置で固定して
撮影するというのが一番にょ。

では、どこが良いのかというと人それぞれだけど私はピッチャーとバッターをメインに
撮りたいのでピッチャーマウンドからホームベースを結んだ直線の垂直二等分線上にくる
場所で最もグランドに近い位置にしたにょ。
とはいえ、近い位置では金網が邪魔になるにょ。
コンデジであればレンズが小さいので金網にくっつけて撮影すれば金網を無効化できる
わけだし、一眼レフでも金網にぴったり合わせて絞りを開放にすれば大きくぼけるので
金網はほとんど無効化できるためそれほど問題はないにょ。
とはいえ、そんな金網に密着する方法で撮影するのは警備員に注意されてしまいかねない
ためやめておいた方がいいにょ。
したがって、多少離れても金網がフレームアウトするくらいの高さにくる座席で座って
撮影することになるにょ。
これならば誰にも迷惑がかからず無難に撮影ができるにょ。

さて、問題はレンズにょ。
どの選手をどんなふうに撮影したいかでレンズが変わってくるにょ。
選手をアップで撮影するにはかなりの望遠レンズが必要だけど選手ではなく球場の雰囲気
などを撮影したい場合は広角レンズが必要になるにょ。
球場全体を撮りたいならば換算20mm以下の超広角レンズや魚眼レンズが必要になってくる
わけだからね。
私は持っていく荷物を少なくしたいというのと選手を撮影するというのをメインにした
ために望遠ズーム1本にしたにょ。

私はデジタル一眼を2台(Nikon D50、PENTAX K200D)持っているけどどっちを持っていく
かで少し考えたにょ。
画質でいえばK200D>D50だけどAF性能や所持レンズの関係があるからね。
D50はK200Dより古い機種とはいえ、AF性能は上回るにょ。(特にAF-Cで動体撮影をする
場合にはK200Dは歩く程度の速度に追従するが厳しいくらいの遅さ)
しかし、ピッチャーやバッターがメインであればAF性能はそんなに必要ないにょ。
AFは遅くても置きピンで何とかなるからね。

そうなると問題になるのは画角にょ。
銀塩時代に別の球場で撮影したときには300mmのレンズでもピッチャーやバッターは
かなり小さめに写ったにょ。
1.5倍サイズにトリミングすればまぁまぁのサイズになったため400mm〜500mmくらいは
欲しいところにょ。
しかし、所持しているデジタル一眼がAPS-Cサイズのセンサーということで、換算焦点
距離は1.5倍になるため300mmのレンズは換算では450mm相当になるにょ。
これなら結構いけそうと事前に判断できるにょ。

しかし、300mmのレンズはD50用(ニコンFマウント用)しか持ってないにょ。
K200D用(ペンタックスKマウント用)では、200mmのレンズ(換算300mm)しかないため
望遠側が弱すぎるからね。(もっとも600万画素のD50よりも画素数が多い1000万画素
だからトリミングすれば良いということも考えられるけど)
それより、長いレンズとなると一気に400mm(換算600mm)となるにょ。
このレンズは6月の航空祭の時にも使ったけどMFということですばやいピント合わせは
できないにょ。
あとファインダーがペンタプリズムではなくペンタミラーであるためどうしてもMFでは
十分な精度でピント合わせができないからね。

それならばある程度絞って使うという方法があるにょ。
小絞りボケが許容できる限界のF16まで絞ると被写界深度が深くなるためそれなりに
撮影できるけど問題はシャッター速度にょ。
手ぶれ補正機能があるため換算600mmであっても1/125秒で何とか撮影できるけど動きの
ある被写体を止めるには最低でも1/500秒、できれば1/1000秒以上のシャッターを切りたい
からね。
それを行うためにはISO感度を上げる必要があるにょ。
ただし、高感度ノイズが多めのカメラであるためできればISO400までに止めておきたい
ということで結局持ち出したのはD50と70-300mmの望遠ズームにしたにょ。
1本に絞ったため広角がないのは不満だけどいざとなればコンデジ(TX1)で撮影すれば
いいかということで荷物を少しでも減らすためのトレードオフにょ。
どうせ、途中でレンズ交換なんてしないだろうしね。

そういうわけで撮影したのはこんな写真にょ。(1/500秒、F9)
http://www.42ch.net/UploaderSmall/source/1280287834.JPG
ノートリミング、無加工の写真にょ。
撮影技術はとりあえずおいといて、被写体(バッター)はまずまずの大きさで写っている
と思うにょ。
やはり、換算450mmくらいは必要という私の判断は間違ってなかったにょ。
ホントはバッターがボールを打つ決定的な瞬間を撮影したかったけどシャッター
タイムラグを完全に自分のものにしていないため無理だったにょ。
連写でカバーという方法もあるけどD50は秒3コマなので話にならないにょ。
打球が時速144kmだとしても秒速40mとなり秒3コマでは1つのコマで13mも打球が進んで
しまうわけだからね。
連写に頼るのではなくシャッタータイムラグを体得して打つ瞬間の一歩手前でシャッター
ボタンを押すのがより確実性が高いというのが分かると思うにょ。

それでも野球は(ピッチャーとバッターだけを撮影するならば)他のスポーツよりも
難易度は断然に低いのでスポーツ写真の初心者ならばまずは野球をすすめたいにょ。
高校野球は独特の雰囲気があるので球場内に居ただけでもすごい熱気が感じられるため
写真を撮らなくても生で観戦するだけでも楽しめるしね。

315御茶目菜子:2010/07/29(木) 13:34:41
PCの性能はCPUだけで判断はできない
CULVノートはネットブックでは物足りないというユーザーにとっては非常に有力な選択肢
となるわけだけど思ったほど売れてないにょ。
それはいくら性能面ではネットブックより数倍上といっても価格差が1〜2万円というのは
小さくはない(低価格であるため相対的にはより大きな差といえる)というのに加えて
ネットブックよりも1周り大きく重いというのがあると思われるにょ。
サイズ的な面をいえばlibretto W100のフットプリントはAtom N搭載のどのネットブック
よりも小さいため決してCULVノートを小型化できないというわけではないにょ。

ただし、小型軽量化を行うとコストがかかる上に搭載するバッテリがどうしても小型に
なってしまうため駆動時間が短くなるという問題があるにょ。
最先端のモバイルノートを見てのようにコストをかければネットブックより大画面かつ
軽量化を行うことは容易(13.3インチの大画面でもネットブックの標準的な重さの1.2kgを
実現できる)とはいえ、CULVノートは中身こそはモバイルノート並だけど筐体そのものは
コストとのトレードオフがあるのでそこまで軽量化はできないにょ。
小型化はコストの問題があるけどネットブックが「最大10.2インチ」という液晶サイズの
縛りがあるためそれと競合しないように11.6〜13.3インチのものがCULVノートの主流に
なっているのだと思われるにょ。

問題は価格だけどこれはネットブックの方が有利なのは間違いないにょ。
というのもCPU、チップセットの価格はAtom(ネットブック)の方が安いわけだし、
ネットブックの大半はWSVGAだから液晶パネルコストも安価だし、そして何より大きいのが
OSにょ。
ネットブックにはULCPC版の廉価なWindows(7搭載ならば制限の多いStarter)が搭載されて
いるのに対してCULVノートには一般的なHome Premiumが搭載されているわけだからね。

価格に与えている影響が最も大きいのはこのOSだと推測されるにょ。
ULCPC用のWindowsが約30ドル、Home Premiumが約100ドルであるため価格差は70ドルに
なるからね。
CPU+チップセットの価格はAtom Nは(推定)約40ドル、CULVノートのセレロンは(推定)
約100ドルなのでいかにOSの差が大きいかが分かるにょ。
逆にいえばネットブックでHome Premiumを搭載すれば「低価格」というネットブックの
アドバンテージの多くが失われるということになるにょ。

さて、価格面でCULVノートを敬遠しているのであればオススメなのは型落ち品にょ。
日進月歩ならぬ秒進分歩とも言われるPCにおいて型落ち品はあまり強く薦められるもの
ではないのだけど価格重視となる低価格帯においては型落ち品の方がお買い得になる
ことは多々あるにょ。
これはCULVノートにもいえるにょ。

5月末に新世代のCULVノート用のCPUがIntelから発表されたにょ。
これによってPenryn(Core2)ベースからこの新世代のArrandale(Core i)ベースのもの
へとモデルチェンジを行った機種が多くあるのだけど言い換えれば型落ち品も多く生まれた
形になるにょ。
普通に考えれば「後から登場したCPUの方が高性能に決まっている」と思うかも知れない
けれど7月9日にも書いたようにArrandaleベースのCPUは動作クロックが下げられている
ためにクロック当たりの性能が多少上であってもトータルではあまり差がないために
相対的に旧機種(型落ち品)の方がお買い得度が高いという結論づけをしたにょ。
性能面で確実に旧機種を上回りたければTBとHTTが付いたCore i5以上を搭載の機種を選択
する必要があるけどこれはCULVノートでは上位モデルであるためコストパフォーマンスは
あまり良いものではないにょ。

では、CPU性能にあまり差がないから処分価格となっている「旧製品の方がお得」という
のは本当に間違いではないのかを考えてみるにょ。
PCを使うならば十分なメモリを搭載したいところにょ。
どれだけあれば十分かは人それぞれだけど標準で(ULCPCの制約により)1GB、最大でも
(チップセットの制限で)2GBしか搭載できないネットブックに対するアドバンテージを
得るにはやはり4GB以上は欲しいところにょ。
CULVノートは標準で2〜4GB搭載しているため買うならば4GBモジュールになるにょ。

モバイルノートでも4GBは決して多くないという状況下であるため最近は64ビット版の
Windowsが占める割合が増えているのだけどCULVノートであっても標準で64ビット版が
搭載されている機種はいくつかあるにょ。
そういう機種では積極的に4GB超のメモリを搭載していいと思うにょ。(32ビット版では
最大4GBしか認識されないためそれを超えた分はRAMディスクとしてしか使えない)
しかし、ここで異変が起きているにょ。
昨今のDDR2モジュールの値上がりによってDDR3との価格差が縮まったことと4GBのDDR3
モジュールの大きな値下がりにょ。
これによって4GBのメモリに関してはDDR2とDDR3は完全に価格が逆転してしまったにょ。
ショップによっては1GBや2GBのものに関してもDDR2とDDR3が逆転しているところもあるの
ではないかと思うにょ。
それ故、廉価なネットブックであっても先日DDR3に対応したAtom N475搭載の新機種が発表
されたくらいだからね。

旧世代のCULVノートに搭載のチップセットGS45はDDR2、DDR3を両サポートしているものの
メモリモジュール自体はソケット互換がないためDDR2、DDR3のどちらか片方にしか対応
しておらず、旧機種購入時はどちらに対応しているのかを事前に確認しておく必要が
あるにょ。
それに対してArrandale世代の新型CULVノートはすべてDDR3に対応となっているにょ。
半導体に限らず工業製品全般にいえることだけど量産すればするほど安くなるため
主流の製品が最もお買い得になるにょ。
現在DDR(DDR333やDDR400など)のメモリとDDR2のメモリでは容量単価では2〜3倍の差が
あるけどそれと同じことがDDR2とDDR3でも起こると思われるにょ。(Let'snoteの旧製品で
使われたMicroDIMMであれば1GBのモジュールはDDRが約3万円、DDR2は安いものならば4K円
ということでその差は7倍にもなっている)
標準搭載のメモリでそのまま使い続けるのであればメモリの価格についてはそれほど気に
する必要性はないけれど将来的にはDDR2とDDR3の差はかなり大きなものになると推測
されるため将来的にメモリを増設しようとした時の価格差を考えると必ずしも旧製品が
お得とも言い切れない状況にあるにょ。(旧機種でもDDR3対応ならば問題ないけど)

さて、DDR2とDDR3の差は価格だけではなく性能差にも表れるにょ。
スペック上の性能ではDDR3-1333はDDR2-800の1.66倍の性能だけどクロックが低いCULV用
CPUではそれだけの差が実際に出てくることはないにょ。
しかし、メモリ帯域が重要になるのはCPUだけではなくむしろGPUの方にょ。
GPUがチップセットに内蔵された統合型チップセットというものが登場し、PCの低価格化が
大きく進んだのだけどそれによってメモリ帯域の問題が露呈することになったにょ。
Intelの最初の統合型チップセットとなったi810は単体GPUであるIntel752をベースとした
ものを搭載したわけだけど使用メモリがPC66であったため2Dでさえ十分なパフォーマンスを
得ることができなかったにょ。(CPUと帯域をつぶし合うためにXGA24ビットカラーで使用
するとCPU性能は本来の性能の3〜5割減となってしまった)

しかし、これはDDR採用によって改善されたにょ。
実際、DDR266に対応した855GM、DDR333に対応した855GMEではXGAフルカラー程度では
2D性能に関して不満はなくなったからね。
DDR2に対応した915GMは大きなジャンプアップを果たし軽い3Dゲームならば十分にプレイ
できるレベルに達したもののそれ以降は大きな進化は無かったにょ。
シェーダ数が増えることでシェーダ性能がアップしているけどDirectX8.1世代の旧世代の
ゲームが軽々動作するのかというとそうではないからね。
PenM1.2GHz+915GMでもFF XIベンチ3のLOWで2000突破したのにCore2Duo 1.6GHz+GS45で
さえ2300程度しかでないにょ。(Core2Duoの方はFFベンチに不利なVistaであるため
1〜2割程度はダウンしていると考えてもXPならば2700〜2800程度のスコアとなりCPU
クロック差程度の上昇しかしてない)

ところが、VAIO YはCore i3-330(1.2GHz)搭載のCULVノートなのにFFベンチ3はLOWで5000を
超えているにょ。
http://plusd.itmedia.co.jp/pcuser/articles/1007/27/news079_3.html
これは、GPU自体の大幅な改善とDDR3搭載によるメモリ帯域の向上が理由ではないかと
思われるにょ。
FFベンチは動作させるためにはHW T&Lが必須だったけどver.3ではバーテックスシェーダに
対応しているためバーテックスシェーダ対応のGPUであれば動作が可能になったにょ。
しかし、Intelのチップセット内蔵GPUはピクセルシェーダはハードウェアで実装している
もののバーテックスシェーダはCPUによるエミュレーション動作によって実現していたにょ。
これは、ピクセルシェーダはCPUでのエミュレーションが困難だからにょ。
つまり、ピクセルシェーダ性能がアップしていてもCPUがボトルネックになってしまい
スコアが上昇しなかったけどArrandaleに内蔵のGPUはそれらがハードウェアで実行されて
いるためにスコアが大幅に伸びているのではないかと思われるにょ。
もちろん、それを実現するためにはメモリ帯域が必要になるためDDR3搭載がここでようやく
生きてくるにょ。(CPU性能を計測する場合にはDDR3とDDR2では性能差はほとんどない)

つまり、新世代のCULVノートはすべての機種がDDR3に対応しているため(DDR2にしか対応
していない旧世代CULVノートと比べて)将来的にメモリを増設する場合に大幅に有利になる
ということに加えてGPU性能の向上によってDDR3の性能を十分に生かせるようになっている
ということにょ。
あとDDR3とは関係ないけどGS45よりもHD動画再生支援機能が向上しているため動画再生
目的で購入するのであれば新世代の方がより有利になるにょ。
したがって、CPU性能だけを考えれば7月9日に書いたように在庫処分価格となった旧世代の
CULVノートを買う方がお買い得度が高いけどCPU以外の要素を見てみて価格差に似合うと
判断すれば新世代の方がお買い得になる場合があるということにょ。

316御茶目菜子:2010/07/30(金) 12:48:49
わざわざLTEを待つ必要はない
ドコモの次世代通信方式となるLTEのブランド名は「Xi(クロッシィ)」になったにょ。
http://k-tai.impress.co.jp/docs/news/20100729_384147.html
LTEは3.9Gと呼ばれ2G(デジタル携帯、日本では主にPDC)、3G(主にW-CDMA)の後継となり
4Gのことではないにょ。
しかし、LTEは4Gの技術の一部が投入されスムーズに4Gへと移行できるようにするための
ものであり厳密には次世代ではないのだけどここでは他所と同じく「次世代」として扱う
ことにするにょ。
恐らく4Gでもこのブランドを継続使用することになるだろうからね。

FOMAがようやく普及したのにもう次世代とは早い・・・と感じるかも知れないけどFOMAが
正式サービスを開始して今年でもう10年目となるにょ。
決して次世代の登場が早いというわけではないにょ。
FOMAの前に広く普及したMOVAに関しては2012年の3月で終了するにょ。
MOVAのサービス開始はいつだったかというと・・・これがちょっと厄介にょ。
MOVAは第2世代(PDC)ではなく第1世代(アナログ携帯)から使用されているサービスの
ブランド名だからね。
すでに存在していた自動車電話やショルダーフォン(当時はこれを「携帯電話」と呼んで
いた)と区別するためにMOVAというブランド展開をしたにょ。
2003年から第2世代のデジタル携帯となりここでブランド名は「デジタルMOVA」となった
わけだけどアナログ携帯終了によって頭の「デジタル」が消え「MOVA」となったにょ。
したがって、今回は「MOVA」といえば第2世代を指すものとするにょ。

 第2世代  MOVA 1993年 3月サービス開始 2012年3月サービス終了
 第3世代  FOMA 2001年10月サービス開始 (サービス終了は未発表)
 第3.9世代 Xi  2010年12月サービス開始      〃

これを見てのようにMOVAからFOMAまでは8年だったのでFOMAからXiまで9年というのが
決して短くないことが分かるにょ。
また、Xiのサービスが始まったらFOMAのサービスが終わることを心配する人がいるかも
しれないけどMOVAはFOMAのサービスが開始されて11年余りの間継続予定となっているため
あと10年くらいはFOMAは安泰かもしれないにょ。(LTEや4G携帯の普及速度にもよるけど
後述のようにLTEの普及速度はあまり早くない模様)

LTEで何が変わるのかというと目に見えて大きく変わる変化はないにょ。
ドコモではサービス開始当初は最大75Mbpsだけどこれは一部の場所に限られるため主要
エリアでは37.5Mbpsとなるからね。(もちろんこれはLTEのカバーエリア内の話)
現在広く使われているHSPAでは最大7.2〜14Mbpsが主流だけどイーモバイルは最大21Mbpsの
サービスを開始しており、技術的には最大40〜80Mbps程度までは可能であるため初期の
LTEは速度面では末期のHSPAに対して大きなアドバンテージはないにょ。

LTEにおける一番大きな変化というのは国内4キャリアがすべて採用の意向を示している
ということかもしれないにょ。
現在はドコモ、およびソフトバンクはW-CDMAとそれを発展させたHSDPA(HSUPA)を使って
いるけどauはそれとは全く互換性のないCDMA2000を採用しているにょ。
イーモバイルはドコモ等と同じW-CDMA方式を採用しているけど周波数帯が大きく異なって
いるにょ。
別にキャリア毎に通信方式が異なるのは問題ないとはいえそれが問題とならないのは端末に
SIMロックがかかっているからにょ。

しかし、7月7日に書いたようにドコモは来年の4月からSIMロックを解除すると発表したにょ。
他のキャリアも遠くない将来にドコモに追従すると思われるにょ。(一部機種のみか
全面的かはキャリアによって異なるけどSIMロック解除が主流になるのは間違いない)
そうなったとき通信方式や周波数帯の違いによってSIMロック解除でキャリアと端末が
自由に選択できるというわけではなく事実上ドコモのSIMカードでソフトバンクの端末が
使える(もしくはその逆)になるだけでしかないにょ。
LTEでは全キャリアが採用の意向を示しているためようやくSIMロック解除の意味が生きて
くるにょ。(ただし、すでに何度も書いているようにキャリア独自機能は使うことが
できないけど)

問題はキャリアによってLTE導入時期に大きなずれがあるということにょ。
http://businessnetwork.jp/tabid/65/artid/409/page/1/Default.aspx

 ドコモ    サービス開始 2010年12月
 ソフトバンク サービス開始 2011年 7月
 イーモバイル サービス開始 2010年 9月
 au      サービス開始 2012年12月

ただし、これは各キャリアが昨年総務省に提示した情報であり現時点では変わっている
可能性が高いにょ。
特にソフトバンクにおいては事実上白紙状態になっているとのことにょ。
これは上記のようにHSPA方式で現状より高速化が可能というのに加えて通信インフラが
不十分なソフトバンクの3G通信においてLTE用に帯域を割り振るのが困難というのもある
からね。
そういう面で他のキャリアより大きな遅れをとってしまう可能性が高いにょ。

率先して導入するドコモでさえ、サービス開始して4年余り先となる2014年度末にようやく
人口カバー率50%の予定となっているにょ。
東名阪で日本の人口の約半分を占めるため人口カバー率50%というのは東名阪、政令指定
都市レベルしかカバーしないということになるにょ。
FOMAは約3年で人口カバー率99%に達したということを考えるとこの普及速度はかなり遅い
といえるにょ。
恐らく長い間HSPAとのデュアルバンド端末となりそうにょ。

現在機種変を考えている人の中には「長く使える方が良い」ということでXiが開始される
のを待って対応端末を購入しようと考えている人もいるかもしれないけど上記のように
そのメリットはあまりないにょ。
各キャリアが導入し、エリアが広くなってからでも遅くはないからね。
サービス開始後の狭いエリアを克服するために従来との互換性を残したデュアルバンドが
必須となりLTE対応端末は端末価格も高価になり端末自体の選択肢も少ないだろうしね。

未だに初期のMOVAを使っており、同じ端末を確実10数年間使い続けるような人であれば
確かに「今更FOMA・・・」となってしまうけどそうでなければ無理にLTEを待つ必要性なんて
全くないにょ。(同じ端末を10数年使うということは事実上端末を通話にしか使ってない
人だろうから端末の機能は関係無い)
今、機種変してLTEが普及し始めるであろう2〜3年後にまた機種変すればいいだけの話
だからね。
機種変サイクルが5年くらいの人は今は微妙な時期だけどそれでもあえてLTEを待つような
必要性はないと思うにょ。
Xiよりもエリア展開が早かったFOMAでさえMOVAから主流を奪うのに4年くらいかかったわけ
だからね。(メインストリーム向けのFOMA端末である700iシリーズの登場や加入者割合が
50%に達したのが正式サービス開始して4〜5年後だった)

317@パー:2010/07/31(土) 03:53:05
お久しぶりです・・・
あまりにも、みっともない書き込みをしたので、このサイトに近寄れませんでした。まだ相変わらずPC-E500を所持しています。参考になる、おちゃめ様の情報を、読んでみたいので・・・

318御茶目菜子:2010/07/31(土) 13:37:06
TX9はTX1から大きく進化した!?
現在TX1を使っている私にとって新機種であるTX9は気になるところ・・・。
というわけで、レビューが掲載されているのでそれを見てみることにするにょ。
http://dc.watch.impress.co.jp/docs/review/newproduct/20100730_384236.html

TX9で気になる点に関しては7月9日に書いたような3点にょ。
(1)新開発の1220万画素裏面照射CMOSセンサー搭載
(2)スイングパノラマ機能が3Dに対応
(3)背景ぼかしモード機能を追加

このうち(2)に関しては発表と同時に各所で公開されどのようなものかということかは
よく分かったにょ。
撮った写真は3Dモニタでないと3Dでは見れないけどジャイロ搭載によってTX9本体を傾ける
ことで本体の液晶で立体的に鑑賞ができるにょ。
これはDSのゲームでいえば「アッタコレダ」に近い方式にょ。(このゲームはジャイロ
ではなくカメラによって顔の場所を認識していることで視点を変えているだけだけど)

そういうわけで上記レビューにおいて(1)と(3)について見てみることにするにょ。

では、(1)を見てみるにょ。
画素数が1000万画素から1200万画素に増えたというのはメリットではないにょ。
というのも、すでにレンズ性能が画素ピッチに全然足りてない状況であるために高画素に
しても細部が描写できないからにょ。
むしろ、1画素あたりの面積が狭くなるというデメリットの方が大きいにょ。
でも、センサーサイズが変わらないのならトータルでは変わらない・・・と思いがち
だけど配線部分の関係上同じセンサーサイズで仮に2倍に画素数が増えた場合には1画素
あたりの面積は半分ではなくそれを大きく下回るものになるにょ。

ただし、センサー性能は随時性能アップしているため新しいセンサーでは1画素当たりの
面積が小さくなっても感度やダイナミックレンジは向上するという場合が多いにょ。
そのため一概に画素数アップは悪ともいえないけどもう限界に近づいているため極小
センサー搭載のコンデジにおいては高画素化は無意味になってきているにょ。
その点、裏面照射センサーであれば6月25日に書いたように配線部分は逆の面にあるため
配線部分をすべて画素ピッチを広げるのに使えるため「画素数が増えた影響で実質的な
センサー面積が減る」なんてことはなくなるにょ。

とはいうものの、裏面照射センサーには「日中屋外での写真に解像感がない(ノイズの
発生が避けられないけどそれを除去すると解像感が失われる)」「色再現性が悪い」という
問題点があるにょ。
それがこの新型センサーでどれだけ克服されているかが見物にょ。

 広角側
 http://dc.watch.impress.co.jp/img/dcw/docs/384/236/html/p001.jpg.html
 望遠側
 http://dc.watch.impress.co.jp/img/dcw/docs/384/236/html/p002.jpg.html

やはり、思った通り解像感は乏しいにょ。
ただ、これは必ずしもセンサーだけの影響とはいえないにょ。
屈折光学系であるが故にレンズ性能は平均的なコンデジと比べて劣ってしまうからね。
私が使っているTX1も裏面照射センサーの初代モデルというだけではなくレンズ性能が
低い影響もあって解像感が全くないにょ。
そのため1000万画素のセンサーなのに300万画素を常用しているレベルだしね。
これは4月8日に書いたように実際に300万画素で撮影したものを1000万画素へと拡大した
場合でも1000万画素で撮影したものとほとんど差がないということでTX1で1000万画素で
撮影することがいかに無意味であるかを実証したにょ。

さて、私が持っているTX1は「裏面照射初代モデル」「レンズ性能の低い屈折光学系」
「個体差のせいか他所のレビューよりやや下の描画性能」ということで描写面では不満が
多いのだけどこれは後継機種のTX7でかなり改善されていたにょ。
それはやはり画像処理エンジンの影響が大きいと思われるにょ。
TX9はそれに加えてセンサーも第2世代になりより改善されるかと思っていたにょ。
発色はかなり改善されているけど解像感に乏しいのはレンズ性能だけの問題ではなく
やはり、未だに裏面照射センサーの問題点であるノイズが克服できてないためだと
撮影サンプルを見て感じたにょ。
しかし、等倍鑑賞で見て1000画素のTX7と同レベルのものが1200万画素で実現できている
というのならばトータルで見れば向上していると考えられなくはないにょ。
まだ、発展途上のセンサーのため長く見守る必要がありそうにょ。

暗所においては裏面照射センサーは相変わらずすごいしね。
http://dc.watch.impress.co.jp/img/dcw/docs/384/236/html/p014.jpg.html
手持ちでこれだけ低ノイズで撮影できるコンデジは裏面照射センサー搭載モデルを除けば
ほとんどないにょ。
私が日中屋外の描写は今ひとつということが分かっていたけどTX1を買ったのはコンパクト
サイズでありながら暗所性能に極めて優れているということだからね。(蛍光灯くらいの
明るさがあればノンフラッシュ手持ち撮影であっても日中屋外で撮影するのと同レベルの
画質を得ることができる)

さて次は(3)を見てみるにょ。
百聞は一見にしかずということでどんなものかを見るのが一番にょ。

 背景ぼかし未使用
 http://dc.watch.impress.co.jp/img/dcw/docs/384/236/html/p015.jpg.html
 背景ぼかし使用
 http://dc.watch.impress.co.jp/img/dcw/docs/384/236/html/p016.jpg.html

デジタル一眼で撮影したように大きくぼけるということはないけどナチュラルにぼかす
ことが出来ているにょ。
オリンパスのSP-590UZにも背景ぼかしモードは付いているもののド素人がレタッチしても
あれだけ酷くはならないという使い物にならないレベルだったけどこれならば普通に
使えそうな感じにょ。

ぼけの大きさに影響を与える被写界深度は換算焦点距離ではなく実焦点距離が影響する
ためセンサーサイズが小さなコンデジの場合はデジタル一眼のようにぼかすのは物理的に
無理だからね。
しかし、デジタルの場合はレタッチによっていくらでも可能になるにょ。
これは昨今広く使われているHDRにおいてもいえ、SONYのコンデジで使われている手持ち
夜景モード(他社でも同等の機能のものがある)のように複数カット連写してそれを
合成することで低ノイズを実現するというようなものもあるにょ。
あと、最近一部の機種に搭載されているミニチュアモードもあるにょ。

この背景ぼかしモードもそれらと同じ画像加工(レタッチ)の1つにすぎないにょ。
したがって、カメラ自体がそれらの機能を有して無くてもレタッチソフトを使えば人間の
手によって同等の画像を作り出すことはできるにょ。
とはいえ、高レベルの画像加工であるため同等のものを作り出すのは至難の業にょ。
それがカメラの1機能として自動的に行うことができることに意義があるにょ。
(2)の3D対応スイングパノラマも連写した画像をつなぎ合わせた画像加工にすぎないからね。

TX9はすごく大きな進化というのものはないけどTX1→TX7→TX9と地道な進化を感じるにょ。
写真機として考える(写真を撮ることに喜びを感じたり、高画質による感動を得たりする)
ならば決してTXシリーズはおすすめできるものではないけどコンパクトサイズでさまざまな
ことが自動でできるという手軽さを求めたいのであればTX9はかなり良いものに仕上がって
そうにょ。



@パーさんへ
>まだ相変わらずPC-E500を所持しています。

E500はプログラミングもお手軽に出来るし、電卓としては高性能なのでまだいろいろと
便利に使える用途があるからね。

>参考になる、おちゃめ様の情報を、読んでみたいので・・・

私が興味あることをダラダラ書いているだけなので参考になるかどうかは分からないけど
良かったら今後も読んでください。

319御茶目菜子:2010/08/11(水) 03:27:15
TX1が私の日記帳
ここで私が毎日書いている雑記だけど見ての通りあくまで雑記であり日記ではないにょ。
基本的に私がネットサーフィンをしていて興味を惹く情報について私が感じたことや
思ったことをダラダラ書いていくという感じになっているけどたまに私が撮影に行った
場合のように私が実際に行ったことなどを元に書くこともあるにょ。
これは基本的にWeb上で書くということは(アクセス制限を加えてない限りは)全世界に
それを公開しているわけだからあまりプライベートな内容は書けないというのもあるにょ。

さて2000年以降Webが当たり前のように普及して日記サイトというものが急増したにょ。
日本においてはmixiがSNSとしては最大会員数を誇っているけどmixiに限らず多くの
サイトが存在するにょ。
そんな中、日記サイトではないけど最近注目を集めているのがtwitterにょ。
日記に書くまでもないような些細なことでも気軽に書けるために会員数は1000万人を
突破しついにmixiを超えたにょ。

海外ではtwitterのようにケータイでも気軽に書き込みができるサービスというのは
珍しかったけど国内では独自に発展したガラケーの影響でケータイ向けサービスという
ものが多種多様に存在し、twitterはそれほど優れた存在とは私は思わないにょ。
ただし、利用者数が増えてくれば情報量も増えその中には有益な情報も多く存在する
ためにさらに利用者が増えるという好循環があるにょ。

確かに情報収集という点に関しては最近はtwitterが必要不可欠になりつつあるにょ。
mixiは7月4日に書いたようにシステム上の問題からどうしても閉鎖的になってしまい
がちだからね。
ただ、twitterもそういう面では逆に厄介にょ。
7月19日に書いたように書く前に「書いて良いか悪いか」の判断が必要だし、不必要に
繋がりを気にするようになれば使うのが気軽ではなくなり「twitter疲れ」を起こして
しまうわけだからね。

私の場合は、どうせWeb上で情報発信するならば有益となるものを書こうとするし、そう
なれば140文字にまとめるというのが負担になるためtwitterに関してはほとんどROMって
ばかりいるにょ。
そうなると日記の類はローカルで保存しておくということになるけど私は人に見せない
文章でしかも特別でもない日常に関して書くようなマメな性格ではないにょ。
それでもWebがこれだけ普及している今も毎日紙の日記帳(もしくはPCやポメラ等を使って
ローカルに保存)をつけている人はたくさんいるだろうし買ったものを家計簿につけて
いる人もたくさんいると思うにょ。

そういう毎日きちんと日記をつけている人ならばそれが当然のように感じるだろうけど
それとは逆に「日記なんて特別何かあった日だけ付ければいい」と思っている人もいると
思うにょ。
しかし、「特別」というのは「普通」があるから「特別」なのであって「普通がない特別」
なんてないにょ。
それは相対評価で考えることが多いからにょ。
つまり、特別でない日も日記を書いてこそ特別な日がようやく意味のあるものになる
ということにょ。
ただ、本人が「特別ではない」と思っている以上はそれを日記として文章で残すのは難しい
といえるにょ。(特別なことであれば文章で書くのは容易)

ならば、文章に拘らず自分が残しやすい方法で残すのが良いにょ。
というわけで私が活用しているのが画像メモにょ。
要するにデジカメを使って写真で残すということにょ。
毎日食べたものをすべて写真に残し、もしくは買った物や行った場所を写真に残すことで
特別な日というのが相対的に現れてくるにょ。
そのためにもできるだけ毎日できるように手軽でないといけないにょ。
2001年にeggyを購入してからは確かにお手軽写真は増えたけどさすがに毎日使うのは
なかなかできなかったにょ。

しかし、昨年末に買ったTX1でようやくそれが実現可能になったにょ。
私はいつでも持ち歩けるようにコンデジは小型・薄型にこだわってきたにょ。
それ故、屈折光学系の機種ばかり買ってきたわけだけどTX1の選択のポイントは暗所
性能にあったにょ。(昨日書いたTX9も興味があるけどさすがに買い換えの予算はない)
何せ極小センサーを採用のコンデジでありながら(手持ち夜景モードを使用すれば)
ISO400まではほぼ無ノイズ、ISO1600でも十分使えるということで室内でノンフラッシュ
手持ち撮影が気兼ねなくできるようになったのが大きいにょ。

それまで使ってきたコンデジではISO400が限界だったし、ISO400ではノイズが酷いし、
手ぶれ補正機能もないためISO400ではノンフラッシュの手持ち撮影では厳しい場面も
多々あったにょ。
三脚を使えば手ぶれは防げるけど毎日続けるならセッティングだけでもかなりの手間と
なるため結局Webで公開する写真以外はあまり撮らなくなってしまったし、フラッシュを
使って撮影するにもかなりの工夫が必要になるため手間が増えてしまったにょ。
例えば買ったCDを真っ正面からフラッシュを使って撮影した場合には表面で反射して
しまいまともに写らないし、かといって斜めからだと変にパースが付いてしまう上に
汚い部屋の中の様子まで写ってしまうからね(笑)
その点TX1ならば構えて撮るだけで終了するにょ。

これは絶大な効果があるにょ。
食べようとしている料理があればそれを上から構えてパシャリ、映画を見に行ったら
映画館でチケットを片手にパシャリと用途や場所を選ばずに気軽に撮影できるからね。
これはノンフラッシュで手持ち撮影が普通にできるからこそにょ。
TX1は日中屋外の描写性能が低いせいもあり暗所での手持ち撮影も日中屋外での画質と
ほとんど変わらないレベルなのでフラッシュを使わないことによるデメリットは
全くないにょ。(むしろ、テスト発光以外でフラッシュを使ったことなど1度もない)

お手軽化によって「特別ではない」ものも写真として残すようになったにょ。
これができるようになったのはメモリーカードの容量が昔よりも大きくなったというのも
影響しているにょ。
カードが一杯になったらPCに移してPCで管理するという方法を取らなくてもカメラ本体で
撮った写真すべてが管理可能になったからね。
私が普段使っている300万画素モードでは8GBのMS Duoならば5000枚撮影可能にょ。
これならば1年は十分に持つにょ。(7ヶ月使った現在もまだ6割の容量が残っている)
しかも、TX1ならばカレンダーと同期しているため管理も非常にしやすくなったにょ。
http://ww5.tiki.ne.jp/~ochame/test/tx1-diary.jpg

まさに日記帳代わりになっているにょ。
これがテキストで同様のことをした場合には毎日続けるのは難しいけどお手軽な写真
(画像メモ)だからこそ毎日続けるのが可能になっているにょ。
上記のように日記の類は毎日続けることに意義があるわけだけどどんな手段でそれを行う
のがもっともお手軽に感じるかは人それぞれだと思うにょ。
twitterが一番という人もいるだろうし、私のように画像として残すのが一番という人も
いるだろうからね。
日記は日記帳(紙)で記すものという固定的なものではなくデジタル化やネットの普及に
よってその残し方は多種多様化しているといえるにょ。

320御茶目菜子:2010/08/02(月) 14:12:22
DSは買い控えの時期に入ったのか・・・?
任天堂が赤字になった模様にょ。
http://mainichi.jp/select/biz/news/20100730k0000m020046000c.html
四半期ベースで赤字にならないようなゲーム企業は存在しないのだけど王者任天堂に
関しては常に黒字を維持してきたにょ。
それは、コンシューマゲーム機においてはロイヤリティの存在が非常に大きいからにょ。
ゲーム機本体を作っているメーカーはサードパーティソフトが売れるだけでその価格の
一定の割合で利益を得ることが可能にょ。

とはいうもののゲーム機本体には大きなリスクがあるにょ。
まずは開発コストが莫大にかかるということに加えてサードパーティの誘致にもコストが
かかるにょ。
さらにサードパーティからのロイヤリティを見越して本体の価格をギリギリまで下げる
という場合が多いけどサードパーティソフトが売れない場合は本体を売れば売るほど
赤字が拡大するというジレンマに陥ってしまうにょ。
実際プレステ3も製造原価より1〜2万円安い価格で販売(いわゆる「逆ざや」で販売)して
いたから赤字がふくらむ一方だったわけだしね。
そのプレステ3もパーツの統合と量産効果でコストが下がったために今ではようやく赤字
から脱出したにょ。

任天堂においては基本的に逆ざやで販売することはないにょ。
本体発売当初であっても原価ギリギリの価格設定で販売されるため本体が売れれば売れる
ほど赤字という事態が起こることはないのだけどそれならば今回のような赤字はなぜ
起きてしまうのかというと記事にあるように円高の影響が大きいにょ。
円高で大きな赤字を出したことに加え、本体およびソフトがあまり売れないため売上が
落ちたので円高による赤字を挽回出来なかったというのが理由にょ。(為替変動が
なければ多少売上が落ちても赤字になることはなかった)

さて、なぜ売上が落ちたのかというとDSは十分普及したので売上が本体の落ちても当然
ともいえるけどやはり3DSの存在が大きいと思うにょ。
DSと互換性のある3DSが発売されようとしているのだからそれを待って買うのがベターと
考える人が大勢いるのは当然にょ。

しかし、問題は3DSの価格も発売日も決まってないということにょ。
発売日は2010年度内なので2011年3月までには発売ということが分かっているものの
分かっているのはその程度のことにょ。
これに関しては9月29日に明らかになるという情報があるにょ。
http://japanese.engadget.com/2010/07/29/3ds-9-29/
これは9月29日に発売されるというのではなくその日に発売日や価格が発表されると
いうだけにすぎないにょ。
とはいえ、この情報が確かであればそれから遠くない時期である年内に発売が濃厚に
なるにょ。
恐らく10〜11月には発売されると考えられるにょ。

通常であれば「販売店からの発注→その発注を受けて生産→販売店へ納品」となるため
2ヶ月くらい前には発注の案内が販売店に届くにょ。
しかし、新発売の本体(もしくは人気ソフト)の場合はそのようなことはなく過去の
発注実績による配分制をとっているため発表から早い時期(発表から1ヶ月以内)での
発売は十分に考えられるにょ。
9月29日に価格が発表されるという情報が確実ならば最速では10月半ばに発売は十分に
あり得るということにょ。

未だに発売日や価格を発表してないのはライバルであるSCEの動向を伺っているという
のもあるだろうし(SCEがPSPの価格を発表したときの「空白の17分間」は有名な話)
3D液晶パネルなど新しいパーツを使用している関係上、歩留まりや量産価格がはっきり
しないというのも1つの原因かもしれないにょ。
いずれにせよ現在のDSiより安くなるということは100%ありえないのでDSのゲームを
プレイしたいのであればDSiを買う方が安く済むのは間違いないにょ。
3DS発売を見越してDSiは価格変更されたのだろうからね。

とはいえ、今DSiを買おうにも3DSの存在が大きいのは間違いないことであり、DSiとの
価格差がどれくらいになるのか発売される時期はいつなのかというのが重要になるにょ。
例えば価格差が5000円程度なら買おうと思っている人であれば仮に3DSの価格が25000円と
発表されていれば「3DSが安くなるまではDSiでいいや」ということでDSiを買う人も
いるかもしれないにょ。
またどうしてもプレイしたいソフトが9月に発売される場合、仮に12月に発売と発表
されていたら「早くプレイしたいからDSiでいいや」と思う人もいるかもしれないにょ。

つまり、多くのユーザーが想像しているものより「早い時期」「安い価格」で販売
されるので無ければ価格や発売日は事前に発表しておいた方が買い控えを防ぐという
面では有用になると思われるにょ。
私の予想の範囲内のベストケースである「2万円で10月発売」であるならば確かに多くの
人が買い控えそうだけど世間で予想されている中でのワーストケースである「29800円で
来年3月発売」というのであれば現在DSが必要としている人が買い控えをするような
レベルではないと思うにょ。

321御茶目菜子:2010/08/03(火) 13:15:20
XPはどこまで現役でいられるのか・・・
Win7がついにVistaのシェアを抜いたにょ。
http://www.itmedia.co.jp/enterprise/articles/1008/02/news043.html
約3年間発売されていたVistaが1年足らずの7に台数ベースで抜かれるというのは
言い換えればVista搭載PCがいかに普及しなかったかということがいえるにょ。

これはWeb閲覧用として現役使用されているPCにおける台数なので発売後9年経つXPは7と
比べて大きな差があるもののこのまま7が普及していればいずれXPのシェアを抜くにょ。
この3月から7月までの4ヶ月の平均増減数と全く同じ速度で今後も増減が続いた場合の
ことを考えてみると単純計算では下記のようになるにょ。

    2010年7月 2011年7月 2012年7月 2013年7月 2014年7月
 WinXP 61.87%  54.10%  46.33%  38.56%  30.79%
 Win7  14.46%  27.15%  39.84%  52.53%  65.22%
 Vista 14.34%   9.33%   4.32%  ー0.69%  -5.70%

このペースでいくとWin7の普及率はXPの全盛時を超えるのも時間の問題だし、Vistaに
至ってはマイナスシェア(一体どういう状態なのやら・・・)になってしまうため
このような単純増減が長期間続くというのはあり得ないことが分かるにょ。

とはいえ、確実にいえるのは9年間現役(現在もネットブックでは現役OS)であるXPは
絶大なシェアを誇っているけどそれは今後大きく落ちるということVistaのシェアは
減ってもNT6ベース(もしくはその後継OS)のシェアがXPのシェアダウン分増えるという
ことにょ。(Linux系OSやMac OSが今後数年内に急成長する可能性は低い)

今年の10月でネットブック(ULCPC)用のXPの提供が終了するため上記シェア増減と
比べるとXPのシェアダウンは大きくなると予想できるにょ。
それから考えるとXPのシェアは来年の夏には50%を切ると思われるにょ。
そう考えると7の普及ペースは上記の単純計算よりも早いものになりそうにょ。
ただし、2012〜13年にはその後継OS(Windows8?)が発売されるだろうからそこで7の普及は
終わりシェアが過半数に達することはないと思われるにょ。
ピーク時にはシェアが80%に達していたXPが異常だった(XPが発売されてからVista
発売まで5年余りあったのに加えてVistaがあまり普及し無かったのが要因)というだけの
話にょ。

昨今のPCの買い換えサイクルは5年程度となっているにょ。
それから考えるとVistaが発売された2007年1月から5年後の2012年以降はXPのシェアが
ほとんど無くなることが予想できるにょ。(ネットブック用として発売されたものがある
からそこまで極端に落ちることはないだろうけど)
それは企業においては3年、もしくは5年リースということがあるのだけど個人においては
5年で買い換えする理由は何もないにょ。
強いて挙げるならば、PCに使われているパーツの寿命が5年程度(HDDは一般的な使い方
ではその程度で故障する可能性が高い)というのがあるにょ。

一般人からすればサイクルとか関係なしに故障するかそのPCでやりたいことができなく
なった時が買い換え時となると思われるにょ。
Web閲覧において現状でAtom1.6GHz程度が妥協できるボーダーラインと考えた場合に
これと同程度の性能を持つPen4 1.6GHzのノートPCが発売されたのが2002年であるため
パーツの寿命を考えなければ8年前のPCも(Webメインであれば)現役で使えるという
ことがいえるにょ。
モバイルノートであれば2003年にULV PenM搭載されたものが登場して以降と考えると
7年前のPCが現役といえるにょ。
もっとも、現在はWeb閲覧がメインといっても512MBでは心許ないので1GBはメモリが
欲しいところにょ。
2002〜2003年のメインストリームのノートPCは256MBが標準であったためメモリ増設は必須
といえるにょ。

今後も8年前のPCが現役で使える最低ラインであり続けると考えた場合には2007年1月の
Vista発売から8年後の2015年にXP搭載PCからの買い換えがほとんど終了するのではないか
と予想できるにょ。
確かに現在もWin95、98搭載のPCを使っている人もいるために発売後10数年というPCが
全く使えないというわけではないけどほとんど無視できるシェアに落ちるというのが
予想できるにょ。
これは上記単純計算による将来予想よりは早い落ち込みといえるにょ。

大して重い処理をしないから古いPCで十分といってもWebを利用するならばセキュリティー
問題があるにょ。
7月14日に書いたようにすでにWin2Kはサポートが終了し、今後はセキュリティーの更新が
行われなくなったけどXPも2014年4月にはサポートが完全に終了するにょ。
またアンチウイルスソフトもMSがサポートしてないようなOSはサポートを打ち切る可能性が
高いからね。(サポートコストもバカにならないため古いOSはどんどんサポートを打ち
切る必要がある)

Web閲覧であればWebブラウザも重要になるにょ。
Win2KはIE6までしかサポートしてないもののIE6は今年3月にはYouTubeでサポートが終了
したにょ。
イラストに特化したSNSであるpixivも先月IE6のサポートを終了したにょ。(「サポートが
終了した=動作保証がない」というレベルではなく実際に試してもらえば分かるように
レイアウトが崩れてまともに閲覧できるような状態ではない)
つまり、IE6ではWeb閲覧にはかなり支障がある状態になってしまったということにょ。
とはいえ、WebブラウザはIEだけではなく他のものもあるにょ。
FireFoxであれば最新の3.6でもまだ2Kをサポートしているにょ。
しかし、登場が新しいGoogle chromeは当初よりXP以降しかサポートしてないにょ。

Webブラウザもアプリである以上はサポートコストを考えるとシェアの低いOSはサポート
しにくいにょ。
XPはまだ十分に高いシェアがあるからそう簡単にWebブラウザがXP非対応になることは
ありえないけどPC買い換えの予想から考えるとXPは2015年にはシェアはかなり小さいもの
となっており、サポートは終了すると予想できるにょ。
7月15日にはダウングレード権を延長によって新規PCにXPをインストールするということが
10年後の2020年まで可能になると書いたわけだけどこれはどうしても現行のアプリを
使用しなくてはならないという極めて限定された用途以外ではほとんど使い物にならない
ものになっていると思われるにょ。
恐らく現状でWin98+IE4を使用するようなレベルではないかと予想するにょ。
それを考えるとやはり、XPが現役で居られるのは延長サポートが終了する2014年4月
くらいが限界だと思われるにょ。

322御茶目菜子:2010/08/04(水) 13:00:09
12.1インチはモバイルノートにとってベストなのか?
モバイルノートは液晶サイズ(≒筐体のフットプリント)でそのクラスが決まるにょ。
自宅専用PC(つまり、定点固定のPC)であれば数インチの差は気にならず設置が可能か
どうかということですべて決まるわけだけどモバイルノートの場合はモバイルするという
時点で大きな影響を与えるにょ。
ネットブックにおいても8.9インチと10.1インチは1.2インチ差だけどもはや別ものと
いっていい感じだからね。

そんな中、dynabook RX3は前モデルまでの12.1インチから1.2インチ大きい13.3インチ
液晶を採用したにょ。
上記の考えからすると12.1インチと13.3インチは別クラスのPCとなるわけだけど開発者
側からするとコンセプトが変わったわけではないということにょ。
http://pc.watch.impress.co.jp/docs/column/mobile/20100803_385112.html

モバイルノートというと主流が12.1インチだけどなぜ12.1インチかということに関しては
3つの理由があると思われるにょ。

(1)常用可能なキーボードを搭載可能な最小サイズ
(2)常用可能な最小のモニタサイズ
(3)据え置き型ノートPCと明確に差別化できるサイズ

まず(1)について考えてみるにょ。
昨今は16:9(もしくは16:10)のワイド液晶がが主流になっているわけだけどそうなる
前の4:3のスクエア液晶の時代から12.1インチはモバイルノートの主流だったにょ。
12.1インチスクエア液晶のノートPCの横幅は概ね25〜26cmにょ。
これだと変形キーボードでなくてもキーピッチ17mm前後のキーボードが搭載可能になって
いるにょ。
これは無理なくタッチタイピングができる最小サイズといってもいいかもしれないにょ。

次に(2)について考えてみるにょ。
やはり、常用するなら最低でもXGAくらいの解像度が欲しいところにょ。
Win98の頃はアプリの主流はVGAであり、一部のアプリのみSVGA以上を要求していたの
だけどXPではOSがSVGA以上を要求しているし、アプリの標準がXGAになってしまった
からね。
12.1インチモバイルノートが主流になった頃(90年代末)に時代を遡ってみてみると
その頃の主流といえばデスクトップPCは17インチCRTでSXGA表示だったにょ。
17インチCRTの実表示エリアを16インチと仮定するとそのCRTは102ppiとなるにょ。
それに対して12.1インチXGAは106ppiとなりデスクトップPCとほぼ同レベルのドット
ピッチが確保されているにょ。
つまり、12.1インチXGAは無理なく使える最小サイズということがいえるにょ。

(3)について考えてみるにょ。
12.1インチスクエア液晶が主流になった時代には据え置き型ノートの主流は14.1インチ
だったにょ。
液晶サイズが2インチ異なるだけではなく重量も据え置き型ノートが光学ドライブ内蔵で
2.5〜3kgなのに対して12.1インチのモバイルノートは1kg台半ばだったにょ。
この重量差とサイズ差であれば十分に別物といえるにょ。

上記(1)〜(3)は12.1インチスクエア液晶の時代の考えであり、ワイド液晶が主流の今
となってはこの考えが正しいとは限らないので改めて考え直してみるにょ。
現在主流の12.1インチワイド液晶のノートPCの横幅は概ね28〜30cmにょ。
これだとフルサイズ(19mm)のキーボードも搭載可能になっているにょ。
筐体サイズの大型化は気になるけどキーボードはワイド化で使いやすくなっていると
言いたいところだけどワイド化によって縦方向のサイズが縮小されたためタッチパッド
搭載の関係上縦方向に短くなる横長キートップの機種が目立つようになったにょ。

さらに、液晶に関しては12.1インチWXGAは125ppiとなっており、デスクトップPCで主流と
なっている22インチフルHDの100ppiと比べるとドットピッチが小さいにょ。
人間の目の分解能から考えると画面からの距離を約60cmと想定すれば150ppi前後が実用
限界となり、個人的には120〜130ppi程度が常用限界と感じるため125ppiは常用の範囲内
ということで問題はないけどデスクトップPCとの剥離が大きいということには間違いが
ないにょ。
この辺はOSのppi設定を変えれば良いだけの話だけどそんなことを考えつくのはある程度
PCの知識のある人間に限られるにょ。

というわけで、ワイド時代のビジネスモバイルノートとしては12.1インチよりも一回り
サイズが大きい13.3インチが適しているだろうということを想定して作ったのがこのRX3
となっているわけにょ。
13.3インチであれば113ppiなので125ppiの12.1インチよりはかなり見やすくなっている
からね。
また、据え置き型ノートも今は15〜16インチが主流なので13.3インチであれば据え置き
ノートとの差別化は十分できるにょ。
重量も最軽量モデルならば1.2kg前後であるため重量的な面からも据え置きノートとの
差別化が可能になっているにょ。

このように大型化したのにはそれなりの理由があるわけだけどもう実は1つ大きな理由が
あるにょ。
それはCULVノートの存在にょ。
CULVノートはネットブックよりワンランク上の廉価ノートだけど問題はCULVノートに
使われているCPUは従来モバイルノートでよく使われていたULVのCPUであるということが
問題となるにょ。

ULV CPUはCrusoeに対抗するためにIntelが作ったものであり、要するに動作電圧が低い
から低消費電力(=長時間駆動)が可能になるというものにょ。
ただし、動作電圧が低いせいで高クロック化は難しく一定以上のクロックで動作する
ものはかなりの選別品(歩留まりが高くないもの)だったにょ。
それ故高価であり、高コストがかけられるモバイルノートでしか採用されることは
なかったにょ。
しかし、微細化が進んだことで1GHz程度の低クロックなものであれば高い歩留まりで製造
可能になった(つまり、低コスト化が可能になった)ということでCULVノートに廉価
供給可能になったにょ。

しかし、高価なモバイルノートが廉価なCULVノートと同じCPUを使うとなるとCPUでのみ
PCの性能を判断している消費者相手では不利になるにょ。
そのためモバイルノートでもULVではなく通常電圧版CPUを採用するモバイルノートが
増えてきているにょ。
性能よりも駆動時間重視だったLet'snoteでさえ昨年登場したN8、S8は通常電圧版の
CPUを採用したくらいだからね。

駆動時間を伸ばすために作られたULVのCPUだけど最近のCPUは動的に駆動電圧を変える
ことで消費電力を軽減しているためアイドル時の消費電力はULVのCPUも通常電圧版の
CPUもほとんど差がなくなってきているにょ。
もっとも、負荷が高い場合は通常電圧版の方がクロックが高い分だけ消費電力が大きく
なるわけだけどその分、作業も速く終了するためアイドル時の時間が長くなるので
トータルで見ればそれほど差はない(むしろ通常電圧版の方がトータル消費電力は小さく
なる場合もある)からね。
つまり、ULVか通常電圧版かは熱設計の問題だけとなっているわけにょ。

しかし、この熱設計が厄介にょ。
従来であればCPUとチップセットという2つの熱源があったわけであり、Arrandale世代
からはこれが1つに統合されたため合計TDPには差はないのだけど一極集中することで
廃熱が難しくなったからね。
そういう面ではフットプリントが大きい方が有利になるにょ。
Arrandaleを採用してなおかつ薄型化しようとするならば12.1インチよりも13.3インチの
方が熱設計の面でも優位性が高いということがいえるわけにょ。

また13.3インチにすることで11.6インチのCULVノートと比べてサイズの面でも差別化が
可能になるからね。
しかし、「モバイル」という面では大きくなることはデメリットであるため「大きく
なったから優れている」とはいえないにょ。
私は個人的には12.1インチでさえ大きく感じるため13.3インチのノートPCなんて持ち
歩く気にはならないにょ。(11.3インチのLet'snote、12.1インチと13.3インチのFMVを
持っているけどどれも大きすぎる)
個人的にはB5用紙サイズが限界だけどこれを満たせる現行モバイルノートはLet'snote
Rシリーズしかなくなったにょ。(Atom Z搭載機であれば選択肢はたくさんあるけどAtom N
搭載機だと今はほとんど選択肢が無くなってしまった)

結局どの程度のサイズまでならモバイルできるか、どの程度の頻度でモバイルするのか
ということが様々であるため人によって最適なものは大きく異なるにょ。
駆動時間やフットプリントを重視するならばLet'snoteだけど厚いから嫌という人もいる
からね。(もちろん価格面の問題もあるだろうけど)
RX3はRX2とはニーズは異なるけど薄型・軽量というコンセプトは変わらないためそれを
重要視している人にとっては悪くない選択だと思うにょ。

323御茶目菜子:2010/08/05(木) 13:22:41
3Dは「ウリ」にはならない・・・!?
ビデオカメラはフルHDが当たり前となって久しいのだけどデジカメにおいてもHD動画
対応機種はここ数年で急増したにょ。
当初は720pが主流だったけどここ最近はフルHD動画対応デジカメも少なくないにょ。
今となってはデジカメにおいてはHD動画(720pを含める)が撮れるというのは当たり前の
機能となっているために「HD動画が撮れる」というのはウリとしては弱くなっているにょ。
次のウリとなるのはやはり3Dかもしれいにょ。
http://camera.itmedia.co.jp/dc/articles/1008/03/news016.html

3Dが普及するためには3つの条件を満たす必要があるにょ。
(1)3D動画 制作環境
(2)3D動画 鑑賞環境
(3)3D動画 発表環境

(1)を考えてみると制作環境というのは撮影環境(機材)となるにょ。
十分に3Dコンテンツがあり、自分で作る必要がないというレベルに達すればそれで十分
という人もいるだろうけど現状ではまったくその域には達してないにょ。
Blu-ray 3Dも規格がようやく定まってようやくこれからという感じだからね。
そうなると最も3Dコンテンツとして数や質で優れているのはプレステ3用のゲームかも
しれないにょ。
3Dゲームと3D液晶との相性はいいからね。

とはいうもののやはり普及を考えると自分でコンテンツを作るということが必要となる
と思われるにょ。
そのために必要なのが3D動画に対応したカメラにょ。
先日Panasonicが家庭用としては世界初の3Dビデオカメラを発表したにょ。
http://camera.itmedia.co.jp/dc/articles/1007/28/news031.html
この3Dビデオカメラは実質コンバージョンレンズを付けたようなものだけどこれはデジタル
だからこそ可能になっているし、低価格化にも貢献しているにょ。

「ビデオカメラは必要ないけど動画を撮りたい」という人ならばデジカメの動画機能が
有用にょ。
今となっては動画機能が付いてないデジカメ(コンデジ)なんてないわけだし、一部の
エントリーモデルを除けばHD動画対応となっているからね。
本格的に動画を撮りたいという人でなければデジカメの動画機能で十分かもしれないにょ。
3D撮影が可能なデジカメといえば昨年富士フイルムがFinePix REAL 3D W1があるけど
やはり難点は価格にょ。
レンズやセンサーを2つ搭載するためになかなか安価にできないからね。

とはいえ、トイデジカメが数千円で発売されている現在、そこまで画質に拘らなければ
いくらでも安価にできるにょ。
ということでレッツが29800円の3Dデジカメを発表したにょ。
http://dc.watch.impress.co.jp/docs/news/20100729_384201.html
使っているレンズやセンサーはトイデジカメで使用されているものと大差ないものと
いうことでコストダウンによってこの価格が実現されているにょ。

今となってはHD撮影可能なデジカメ(カムコーダ)も1万円程度で入手可能ということを
考えると決して安いというわけではないけど「3D」に対する需要が増えればデジカメ
1.5台分くらいの価格(2台分かかるのはレンズとセンサーのみであり後は共用できる
ため2台分の価格になることはあり得ない)で販売は可能になるだろうから2万円を切る
ことは十分可能になると思われるにょ。

さらに安価にするならばコンバージョンレンズを使用するという方法もあるにょ。
これは銀塩カメラの頃から3D撮影用のものは各社から発売されているにょ。
PENTAXの場合はメーカー純正品も存在するにょ。
http://dc.watch.impress.co.jp/cda/item/2006/03/28/3437.html
原理は簡単で1枚の画像の上に右目用と左目用の画像を生成するというだけにょ。

このままだとプリントしたもの(もしくはPC画面で表示したもの)を平行法で見るという
必要性があるけどデジタル処理が可能なデジカメにおいてはカメラ自体を3D用の
コンバージョンレンズに対応させれば片目用のデータをトリミングしてフル画面として
鑑賞も可能になるにょ。
それを片方ずつ交互に表示していけば3D写真の完成にょ。
平行法(交差法)による鑑賞と3D液晶による鑑賞はその鑑賞方法の違いがあるというだけ
であって本質的な違いはないからね。

ただし、このようなコンバージョンレンズを使用する場合には、広角に対応しにくい
という点とどうしても大きくなってしまうという点の2つの問題があるにょ。
小型化するならばシャープがスマートフォン向けに作ったカメラモジュールを使用する
という方法もあるにょ。
http://k-tai.impress.co.jp/docs/news/20100512_366411.html
現在は3Dカメラを作るには2つのレンズとセンサーが必要になるけどこのようなモジュール
式になれば2つ用意するよりは安上がりになるため今後の普及次第では価格ダウンする
ことも考えられるにょ。(ただし、モジュール式であるが故にカメラの自由度はかなり
減ってしまう)

静止画3DならばソニーのTX9やWX5やNEXに採用されている3Dスイングパノラマを使用する
という方法もあるにょ。
これならば追加コストゼロで3Dが可能になるにょ。
ただし、この方法では動画を3Dに対応させることはできず、3D動画対応のデジカメは
まだまだコスト増を考えると普及には時間がかかりそうにょ。

(2)を考えてみるにょ。
(1)でいくら3D対応の動画がどんどん増えていってもそれを見る環境がないと話に
ならないからね。
3D対応の液晶TVはここ最近大きく普及してきたにょ。
とはいえ、3D液晶TVの最大のネックは本体の価格だけではなくメガネの価格にょ。
3D動画を見るためだけに1〜2万円追加投資ができる人は限られるからね。

あと、せっかく撮った動画も他の人に見せたいという場合があると思うにょ。
昨今はスマートフォンでも720pの動画が再生できるようになったのだけど3D動画に対応
した機種は存在しないにょ。
自宅であれば大画面3DTV+メガネで鑑賞という方法もありだけど小型端末だと裸眼鑑賞が
望ましいにょ。
しかし、昨今は裸眼対応の3D液晶は急激な性能向上をしており今後は搭載する機種も
増えるのではないかと予想されるにょ。

裸眼3Dといえばニンテンドー3DSが挙げられるけどこちらが個人で作った3D動画の再生が
可能であるならばモバイル用の3D動画鑑賞端末として大きな普及が見込めそうにょ。
3D映画の予告編等は3DS用に配信する予定にはなっているもののそれは独自形式のみに
対応しているのか、汎用形式に対応しているのかというのでは大きな差があるにょ。

(3)について考えるにょ。
自分で楽しんだり、身内や知人の間で楽しむのであれば再生環境が重要となるけど不特定
多数の人向けに公開するならばこれが重要になるにょ。
YouTubeの知名度アップによって個人制作の動画が気軽に発表できる環境が整ったわけ
だしね。
とはいえ、YouTubeではすでに3Dに対応しているため3D液晶モニタ+メガネを用意すれば
いつでも3Dで鑑賞可能にょ。
したがって、3Dが普及してくればYouTube以外にも3Dに対応した動画サイトは登場すると
思われるにょ。

最初に掲げた普及のための3つの要因である「制作環境」「鑑賞環境」「発表環境」だけど
これは「3D」ではなく「HD」に置き換えても全く同じことがいえるにょ。
HDを普及させるならばHDに対応したモニタやTVが必要というのは当然だし、HD動画対応
カメラも必要だからね。
ただ、異なるのはHD対応は必然的な流れとして普及に至ったのに対して3Dはあくまで
付加価値でしかないということにょ。

これはどういうことかというとHD動画は単純に解像度を高めただけであり再生に要求
するスペックが上がっただけで普通のPCで鑑賞できるわけだし、TVも地デジに切り替わる
関係上HDTVに買い換えするユーザーが増えたわけだからね。
つまり、HDは贅沢品ではなく普通のものといえるレベルになってきているということにょ。
カラーTVは登場時には白黒TVと比べて贅沢品となっていたけどそれはすぐに(といっても
数年かかっているけど)カラーTVがスタンダードとなり贅沢品ではなくなったのと似て
いるにょ。

ところが、3Dがスタンダードになるという見込みは当分ないにょ。
TV放送が標準が3Dになったり、Blu-rayも標準が3Dになったりとかいうことになれば
モノクロ→カラーやSD→HDと同じような状況になるのだけどそうなる予定は今のところ
ないにょ。
したがって、普及のための条件では(1)の制作環境が重要と書いたけどやはりコンテンツ
不足では(2)の再生環境が普及しないと考えられるため結果として(1)の制作環境(3D
動画対応カメラ)の普及も難しいと考えられるにょ。
HDような普及の相乗効果は今のところ3Dには見られない(当分起こりそうにない)ため
HDが当たり前となった後のウリとして期待される3Dも今ひとつウリとしては弱いものに
なりそうにょ。

324御茶目菜子:2010/08/06(金) 13:12:17
法律は何のためにある・・・?
Winnyで流行っている「タコイカウイルス」の作者が逮捕されたにょ。
http://www.itmedia.co.jp/news/articles/1008/04/news030.html
しかし、日本ではコンピュータウイルスを取り締まる法律がないので「器物損壊」の
容疑になっているにょ。
とはいえ、日本がコンピュータウイルスに関しては法的に全く何の対策もしていないと
いうわけではないにょ。
実際業務用コンピュータであれば刑法の「電子計算機損壊等業務妨害罪」が適用される
からね。

ただし、個人のPCの動作に支障を来すような場合には他の現行法で適用するしかない
状態にょ。
不正指令電磁的記録作成法(ウイルス作成法)はまだ施行されてないからね。
それが、今回「器物損壊罪」が適用された経緯となっているにょ。
実はこの「タコイカウイルス」の作者は2年前に「原田ウイルス」の作成で逮捕されたにょ。
その時は器物損壊は見送られたにょ。
というのもシステムを入れ直せば元通りになるPCにおいて器物損壊は不適切だと判断
されたからにょ。

では、「原田ウイルス」は何の罪に問われたかというと「著作権法違反」にょ。(第23条の
「公衆送信権」に抵触)
原田ウイルスの亜種で画面上にTVアニメ「CLANNAD」の画像を使っていたために同法が
適用されたわけだけど著作権法というのは親告罪であるため著作権者から訴えがないと
罪に問うことはできないにょ。
著作権者に無断で本編丸ごとネット上で配信する行為は法的に黒なのは明白だけどキャプ
画像1枚を元に著作権法違反で逮捕されるのかとなるとまた微妙にょ。
というのも、昨今はTVアニメの感想を書いたブログ等でキャプ画像は良く使われる
ためにょ。
キャプ画像そのものが黒ならばその感想ブログもすべて逮捕対象になるにょ。

しかし、著作権法には「引用」について書いた条文(第32条)があるにょ。
「報道、批評、研究その他の引用の目的上正当な範囲内」であれば引用として見なす
ことができるためそのようなブログであれば法律上は問題ないにょ。
とはいうものの「正当な範囲内」かどうかを判断するのは著作権者であり、過剰な引用は
引用の範囲を超えていると見なされ法的に問われる可能性もあるにょ。
原田ウイルスの場合は、引用には相当しないためただのキャプ画であっても著作権法違反
として罪に問われてしまったわけにょ。
内容(キャプ画配信)ではなく目的が重視されたということにょ。

したがって、今回のタコイカウイルスは作者自らが考案した画像を使っているにょ。
これであれば著作権法違反に問われる心配はないにょ。
ところが、今回は器物破損罪が適用されてしまったにょ。
前回の原田ウイルスの場合は器物損壊罪が適用されず著作権法違反に問われたけれど
法律の解釈は100%固定的なものではなく流動的なものであるため「他所でこうだったから
今回もこうだろう」という安易なものではないにょ。
もっとも、裁判においては判例(つまり、過去の実績)が重視される場合もあるけど
それはあくまで判例であり罪状とは異なるにょ。

この作者は、P2Pによる違法ダウンロードしている連中を懲らしめるためにこのウイルスを
作ったみたいだけどそれで自分自身が逮捕されてしまっては何の意味もないにょ。
前回の原田ウイルスでは自らが著作権法違反となってしまったことを反省し、オリジナル
画像にしたのだけど今度は上記のように器物損壊が適用されてしまったからね。
一部の人はP2P(Winny等)は違法性が高いと判断しているけどP2Pそのものには違法性が
なくユーザーが違法性の高い使用方法をしているのにすぎないにょ。
例えるならば包丁は料理に使うものだけど人を殺すためのものにも使用できるため
包丁は殺人の道具と解釈するようなものにょ。

Winnyは暗号化により匿名性が高いのだけどその暗号解読が可能になってきているため
すでに逮捕者は多数出ているにょ。
バケツリレーのような感じでデータ転送が行われるP2Pにおいてはアップロード、ダウン
ロードという明確な概念はないけど共有フォルダに自らが著作権を持ってない動画や
音楽(つまり、市販の音楽やDVD等)を入れておくとアップロードと見なされ著作権法
第23条の公衆送信権に抵触するおそれがあるにょ。

では、ダウンロード専用として使うのならば何の罪にも問われないのかというとそう
ではないにょ。
今年1月1日より著作権法が改正され違法にアップロードされた音楽や動画をダウンロード
するだけでも違法となったからにょ。
http://internet.watch.impress.co.jp/docs/special/20100108_340934.html
それまではダウンロードは私的使用のための複製の範囲内と解釈されていたために
法律的に問われることはなかったにょ。

「タコイカウイルス」は違法動画、音楽に偽装されたウイルスであるためWinnyを使って
それに感染するということは違法ダウンロードをしたということになるにょ。
今回感染報告があった37歳、男性のPCのフォルダを見てみると明らかに違法ダウンロード
したものと思われるファイルがいくつも入っていたにょ。
つまり、「悪い奴がいるから逮捕してくれ」と言った本人が法を犯しているということに
なるにょ。
しかし、この明らかに違法行為を行っている37歳、男性は今のところ何の罪にも問われて
いないにょ。

これは、著作権法は上記のように親告罪であるということに加えてダウンロードが違法化
しても事実上罰則がないことが理由となるにょ。
つまり、目の前で罪を犯しているのが分かっていても著作権者からこの男性への訴えが
ないため逮捕できないというわけにょ。
「罰則がないなら逮捕されようがないから心配いらない」というわけでもないにょ。
もしも、この男性への何らかの訴えがあり逮捕令状が出ていればその証拠品が見つかる
ことはなくても別件逮捕という形で可能にはなるにょ。

一般的に逮捕されるのは見せしめ的なものが多いために量が必要になることが多いにょ。
見せしめ的な意味合いは無くても多くの音楽や動画を違法アップロードしている人は
著作権者の目に止まる機会も多いだろうしね。
しかし、先日わいせつ画像を2枚投稿しただけで逮捕された事件があったにょ。
http://news.kanaloco.jp/localnews/article/1007280036/
1年前に2枚投稿しただけで逮捕されるということは現実的には考えにくく「別件逮捕では
ないのか」という見方をしている人も多いにょ。
児童ポルノ法における「単純所持禁止」というのも別件逮捕には格好の餌になるにょ。

私は前回の「原田ウイルス」にしろ今回の「タコイカウイルス」にしろこのような別件
逮捕とあまり変わらないと思うにょ。
実際にコンピュータウイルスそのものを取り締まる法律がない以上は他の法律を適用
するしかないわけだから別件逮捕的なものになってしまうのはどうしようもないのだけど
これはあえて言うならば「逮捕したい人を逮捕するために適用しているようなもの」と
いえるにょ。
今回警察の目の前で自らの違法行為の証拠を見せても何の罪に問われない37歳、男性を
見ると余計にそう感じてしまうにょ。
犯罪を犯しても「逮捕したければ強引に理由をつけてでも逮捕」「逮捕する気がなければ
黙認」というのが現状だと思うにょ。
私も「警察の目の前で犯罪行為が黙認された」のを実際に目の当たりにしたことがある
だけに余計そう思うにょ。

325御茶目菜子:2010/08/07(土) 13:34:57
デスクトップPCでタッチパッドを使う意味
Macbookのポインティングデバイスと同等のものが単体の「Magic Trackpad」として
製品化されたにょ。
http://pc.watch.impress.co.jp/docs/column/nishikawa/20100806_385661.html
http://pc.watch.impress.co.jp/docs/column/mobile/20100806_385658.html
わざわざノートPC用のポインティングデバイスとなるタッチパッドをデスクトップPCで
使いたいのか・・・という疑問を抱いている人もいるかと思うにょ。

まずPCのポインティングデバイスについて考えると圧倒的にマウスが主流となるにょ。
これはWindowsやMacが登場した20数年前と全く変わってないにょ。
主流になっているのはそれが使い勝手が良いからと考えるのが妥当なのだろうけど必ず
しもそうとは限らないにょ。
デスクトップPCにおいてマウスが主流なのはそれを超える汎用性を持つデバイスがない
というだけの話だからね。
「従来できたことができなくなる」というのでは普及は難しいにょ。

Windows7からはタブレット機能が強化されタッチパネル搭載機が増えてきたものの
デスクトップPCではタッチパネルはメインとしては使えないにょ。
それは、キーボードとマウスが前提となっているWindowsのUIはタッチパネルと相性が
悪いというのが最大の理由にょ。
それにビューアメインであればタッチパネル付きモニタで十分使えるけどキーボードも
使う場合には不便になるにょ。

ノートPCにおいてもそれがいえ、タッチパネルはピュアタブレット型(キーボード搭載で
あればスライド式やコンバーチブル採用によってピュアタブレット型にすることが可能な
もの)であるからこそ生きてくるものになるにょ。
したがって、ノートPCにおいてはタッチパッドが主流になっているにょ。
ThinkPadのトラックポイントのようなスティック型のデバイスを支持しているユーザーも
多いけどタッチパッドが主流になっている理由は「低コスト」「メイテナンスフリー」
「低い習熟度で使える」というのが大きいにょ。

マウスカーソルの移動させるのだけを見てもスティック型のデバイスではその角度の
微調整には経験が必要だけどタッチパッドであればマウスと同様に指先をたくさん移動
させればカーソルもたくさん移動可能になるため感覚的にも分かりやすいにょ。
トラックポイント愛好家の中には「タッチパッドはすばやくカーソルを移動できない」と
考えている人もいるけど実際はすばやく動かすことで一瞬で画面の端から端までカーソル
移動ができてしまうにょ。

また「細かい作業ができない」という人もいるかもしれないにょ。
トラックポイントは相当慣れれば細かい作業もできるけどそれにはかなりの習熟度が
必要になるにょ。
しかし、タッチパッドでは指先をゆっくり動かせばマウスと同様に1ドット単位の
緻密な動作も可能になるにょ。
とはいえ、これはあくまで原理上(スペック上の読み取りカウント数から単純に考えた
場合)できるというだけにょ。
実際の製品では細かい動作が困難であるものも少なくはないにょ。

例えばWindows標準の「ペイント」を使い画面の上から下まで1ドットのずれもない
1本の直線をフリーハンドで引くという場合、ゆっくり動かしてもカーソルがぶれてしまい
直線にならないこともあるにょ。(静電容量式のタッチパッドの場合ドット単位の移動を
するための精度が出せない製品も多い)
またゆっくり動かすと途中でどうしてもタッチパッド上の上下移動では足りず、再び
上に指を持ってきて移動させる必要があるけどその際に確実にずれてしまうにょ。
これがずれずにできたのは手元のノートPCではLet'snoteだけにょ。(私はR5を画像処理にも
使っているけどドット単位の移動が可能であるためタッチパッドだけでも何とか使える
レベルにある)
これがマウスであれば高精度のマウスと大きめのマウスパッドを使うことで克服可能にょ。

タッチパッドは言うならば指先で移動させる平面マウスでしかないためマウスを超えたり
置き換えるような存在ではないにょ。
トラックポイントは慣れが必要であるもののキーボードのホームポジションから移動せず
使えるという点においてはマウスを超える存在ともいえるにょ。
ただし、この「慣れ」の問題が大きいし、デスクトップPCで使う場合にはキーボードの
選択肢がほとんどない(ThinkPad風のキーボードは発売されているけどそれを使うしか
ない)というのが問題となるにょ。

最初の「Magic Trackpad」に話を戻すと結局タッチパッドと同じく簡易マウス(平面
マウス)でしかないためマウスを完全に置き換えることができる製品ではないにょ。
しかし、デスクトップのMacでノートのMac(Macbook)と同じ操作性が得られるという
のはメリットになるにょ。
私はMacbookは店頭でしか使ったことがないけど大型のタッチパッドに加えてマルチタッチ
対応によってピンチイン、ピンチアウトをはじめさまざまな動作がパッドだけで可能に
なるというのは触っていて非常に気持ちよかったにょ。
マウスを完全に置き換えられなくてもトラックポイントのようにマウスでは実現できない
メリットがあるわけだから単体製品として使う価値は十分にあるにょ。

とはいえ、これはWindowsでは使えないにょ。
ドライバそのものが用意されてないのが原因だけどそれは「Magic Trackpad」の機能に
Windowsが対応していないというのが理由だと思われるにょ。
しかし、Windows7ではマルチタッチに対応しており、「Magic Trackpad」の主要機能は
十分使えそうな気がするにょ。
だから、7専用でいいのでドライバでも用意してもらえたら私が7に環境を整えた際には
ぜひ使ってみたいところにょ。

「どうしてもWindowsでマルチタッチを使いたい」という人はワコムから発売されている
Bamboo touchを使うという方法もあるにょ。
http://pc.watch.impress.co.jp/docs/column/kaimono/20091203_332437.html
どちらが優れているかは分からないけど現状では「Magic Trackpad」がWindowsではまともに
使えない以上は選択の対象にはならないためこちらを使うしかないと思うにょ。
単純にポインティングデバイスとして考えるならば精度の問題でマウスを超えるような
(マウスを完全に置き換えられるような)製品ではないけどマルチタッチを積極的に使い
たいのであればマウスではどうしようもできないからこのようなマルチタッチ対応の
タッチパッドの存在は非常に大きいにょ。

326御茶目菜子:2010/08/08(日) 13:30:46
失敗は成功のもと
地元で開催された花火大会に行ってきたにょ。
鑑賞もだけど撮影を行うために事前に持っていく機材を選定したにょ。
花火写真に必要な主な機材や知識は7月26日に書いたのでそちらを参考にして欲しいにょ。

私が用意したのはデジタル一眼(PENTAX K200D)にょ。
そして、そのカメラ用の標準ズーム(18-55mm)にょ。
バッグの中には常時エネループが4本入っているので単三駆動のK200Dはこれを予備電池
として使用することができるにょ。
何せフル充電であれば(液晶OFFで使用した場合)1000枚近く撮影できるからね。
あと念には念を入れて予備のデジタル一眼(Nikon D50)と望遠系標準ズームのAF-S
18-135mmも持っていくことにしたにょ。
あと三脚も必需品なので普段はあまり使用しない大型(といっても安物)の三脚を
持っていくことにしたにょ。

持っていく機材は準備できているということで安心したのであとは場所の確保にょ。
これに関しては花火大会30分くらい前に会場に到着することで何とかなるだろうと思って
いたら所用のせいや渋滞もあって会場に到着したときにはすでに花火大会が始まって
いたにょ。
まぁこの程度は想定の範囲内ということで暗闇の中、三脚が立てられるようなスペースを
見つけ何とか設置準備をしたにょ。
ライトを持ってくるのを忘れていたらこの時点でアウトだったにょ。

さて、いよいよ撮影開始・・・。
数枚撮影した後に念のため写真をチェックしてみるとあまりに露出オーバーなことに気が
付いたにょ。
これは前回ISO1600で撮影したのをそのままの設定にしておいてためにょ。
慌てて感度をISO100に設定しなおして再び気を取りなおしてシャッターを押すと・・・
シャッターが降りないにょ。
「ケーブルレリーズの接触不良か」と思って何度か抜き差ししてみるけど改善されない
ので直接本体のシャッターボタンを押してもシャッターが降りないにょ。
「もしかして故障か!?」とどうやらバッテリ切れのようだったにょ。
ファインダー内の情報も普通に表示されているので全く気が付かなかったけどバッテリが
少なくなったらバルブモードは使えないみたいにょ。

しかし、こんなこともあろうかと思って持ってきた予備のエネループがあるにょ。
それを早速セットしたけどバッテリ切れ状態にょ。
エネループがこんなに自然放電するはずがない・・・と思ったけどよく考えたら先日USB
充電用のモバイルブースター用に2本使ったのを思い出したにょ。
さすがに2本が使えないとなると電圧不足なのは当然か・・・?
単三駆動であるためその辺のコンビニでアルカリ電池を買えば当面は何とかなるのだけど
今からコンビニに行っていたら花火大会は終了してしまうにょ。

そこで役に立ったのが予備として持ってきたデジタル一眼(D50)にょ。
まさか本当に出番があるとは全く想定してなかったにょ(笑)
ということで、再びセッティング開始にょ。
無事に三脚にセット完了したときにはすでに花火大会のスケジュールは半分以上終了
していたにょ。

ここで、問題が・・・。
K200DではケーブルレリーズがあるけどD50では使えないにょ。
D50用のオプションであるリモコンは持っているけどまさかD50の出番があるとは思って
なかったので持ってきてないにょ。
そういうことで、直接本体のシャッターボタンを押すことにしたにょ。
バルブモードで撮影するため押した瞬間だけでなく押している間ずっと微動だにできない
状態・・・だけど緊張してからだがぶるぶる震えているにょ。(別にアル中ではない)
できあがった写真を見るまでもなく失敗しそうな予感がしていたにょ。

撮れた写真はこんな感じにょ。(D50、AF-S18-135mm、F16、3秒)
http://www.42ch.net/UploaderSmall/source/1281239854.JPG
mixiで公開しているようにQVGAくらいに縮小してみれば分からないけど原寸大(完全
無加工な写真)だととてつもないほどのぶれているのが分かると思うにょ。
これがまともな部類といえばその他の写真の出来がどれだけ酷いのかが分かるにょ。
7月26日には(一定レベルまでなら)花火写真を撮るのは簡単と書いていたのにこれでは
話にならないにょ(笑)

これならばまだコンデジで撮影した方が手ぶれがないだけマシかもしれないにょ。
TX1の手持ち夜景モードであれば手ぶれがあまりないレベルのシャッター速度で撮影
できるからね。
三脚を使うならばコンデジの夜景モード(花火モード)の方がまだキレイに撮れそうにょ。
実際のところバルブではなく4秒くらいのシャッター速度固定で撮っていればここまで
酷い写真を量産することは無かっただろうと後になって思ってしまったにょ。
バルブモードで写真を撮る際に本体のシャッターボタンを押していたらぶれまくって
しまうということが分かるいい経験になったにょ。
私は銀塩一眼で初めて花火の写真を撮ったときからずっとケーブルレリーズを使用して
いたからね。(ケーブルレリーズの効果が絶大であることが分かった)

三脚やケーブルレリーズがないと花火は撮れないかというとそうではなく上記のように
手持ちでも撮れなくはないけど流れる様子は数秒間の長時間露出でないと表現できない
ため手持ちでは不可能にょ。
ただし、それは静止画の場合にょ。
動画であれば手持ちでも十分撮れるにょ。
普段私が持ち歩いているコンデジ(TX1)を用いて実際に撮影してみたものがこちらにょ。
http://www.youtube.com/watch?v=1tOjUX6VqE0
動画であれば昨今のコンデジであればこれくらいは余裕で撮れてしまうにょ。
花火撮影で難しい難しいシャッターチャンスに関しても動画であれば問題ないしね。

さて、今回の花火撮影は近年希に見る失敗に終わってしまったわけだけど失敗は今後の
いい経験になるにょ。
「予備バッテリがあるから安心」という過信も打ち破ってくれたし、「バルブであっても
シャッターボタン手押しで何とかなるだろう」という自信も打ち破ってくれたからね。
「失敗は成功のもと」とことわざであるように失敗の原因が何かということを知りそれを
次へと繋げていくことが重要となるにょ。(だから、考えもなしにやって失敗しまくる
ことが良いことでもない)

327マリモーマ:2010/08/08(日) 21:15:31
見れない
昼からpcで お茶目クラブと全貧連の掲示板が見れないよ
他のteacup掲示板は 普通にみれるよ

328御茶目菜子:2010/08/09(月) 13:15:47
iPhoneは垂直統合によって勝利し敗北する
アンテナ問題を抱えつつもiPhone4は売れまくっているにょ。
http://plusd.itmedia.co.jp/mobile/articles/1008/06/news074.html
確かにその問題が無ければさらに売れたのかもしれないと考えると「さすがiPhone」と
しか言いようがないにょ。
何せ7月6日に書いたように本体外周にあるデッドスポット(アンテナの継ぎ目)に触れた
だけで感度が100分の1までダウンしてしまうわけだからね。
これはバンパーの無償配布で一応は解決したけど根本の解決にはなってないにょ。

とはいえ、その間アップル社がしていたことは他社のスマートフォンのアンテナ問題指摘
(他社の製品も持ち方によって感度が変わる)だったにょ。
他社のスマートフォンでも持ち方によっては感度を下げることが可能というのを
サイト上で公表してもそれによってiPhone 4のアンテナ設計の問題が改善されるわけでは
ないにょ。
むしろ、他社製品はそこまで持ち方を工夫しない限り感度が落ちないということを考えると
普通に持っただけで大幅に感度が落ちるiPhone4の商品価値を下げる結果に繋がるのでは
ないかと私は考えていたにょ。
しばらくして、他社製品の比較は公式サイトから消されそしてiPhoneのアンテナ設計の
責任者が退社してしまったにょ。(理由は公表されてないけどアンテナ問題の責任を
取らされたという考えをする人が多いと思う)
http://headlines.yahoo.co.jp/hl?a=20100808-00000001-jijc-biz

iPhoneのライバルとなるのはやはりAndroid搭載のスマートフォンだと思うにょ。
Android OS搭載機は2012年にはiOS搭載機を超えるという予想がされているにょ。
http://www.itmedia.co.jp/news/articles/1008/06/news057.html
確かにこれは十分考えられることにょ。
iPhoneの最大の強みは垂直統合モデルにあるのだけどそれがシェアという面においては
大きな足かせになっていると考えられるにょ。

まずは垂直統合モデルのメリットとデメリットについて考えるにょ。

《 メリット 》
 (a-1)ニーズに合ったものを作りやすい
 (a-2)情報漏洩を防ぎやすい
 (a-3)低コスト化が可能

《 デメリット 》
 (b-1)初期投資が大きい
 (b-2)需要低下によるダメージが大きい
 (b-3)生産の効率性が低い

メリットから考えてみるにょ。

(a-1)に関してはIT機器ではなく料理で考えてみると最高の料理を作るのに最高の素材が
必要と考えた場合にはその材料を入手するために材料の栽培(つまり、畑作)も自らの
手によって行うことで可能になるにょ。
それはiPhoneでもいえるにょ。
iPhoneに必要なOS、それを動作させるためのハードウェア(CPU等)を自社で設計する
ことでより適したものを作ることができるということにょ。
これこそが垂直統合の最大のメリットといえるにょ。

(a-2)は1社だけで行う垂直統合だから当然のことにょ。
多くの会社によって成立している水平分業だとどうしてもどこからか情報が漏れてしまう
からね。
人(会社)が多く関われば関わるほど漏れてしまう可能性は高くなるということで
アップル社は電波状態を確認するためにフィールドテストではなく専用ルームで行っている
模様にょ。
これならば限られた人しかテストに参加することもできないので情報漏洩の心配はほぼ
ないにょ。
それでも社外に持ち出す人が居てそれがたまたま(?)他人に拾われたりして情報漏洩
してしまったこともあるけどね。

(a-3)は自社で賄うため当然のことながら安価で済ますことが可能になるにょ。
OSの入手も他社から買う場合は一定の金額かかるわけだけど自社製品を使えばかかる費用は
そのOSの開発費を端末出荷数で割ったものだけで済むからね。
これが、水平分業ということでOSの他者にライセンス販売する形となる水平分業であれば
異なるスペックの端末は当然出てくるわけであり、そうなると特定ハードがあることを
前提としたアプリを作ることはできないにょ。
垂直統合でスペックが統一だからこそそのハードを100%生かすことができアプリを作る面
でも有利に働いているにょ。

次にデメリットについて考えてみるにょ。

(b-1)はOSにしろ、CPUにしろ開発には非常に大きな初期コストがかかってしまうにょ。
よほどの台数売上見込みがない限りは他社製のライセンスを受けた方が安く済んでしまう
からね。
これはiPhoneの場合はiPodという下地があったことが大きなアドバンテージになっていた
と思われるにょ。
アプリ販売面に関してもすでにiTunes Storeによるネット配信システムが構築済みだった
からね。
これを一から作るとなると非常に大変だったけどすでにあるものを有効活用可能という
ことが初期コストを抑える効果やある程度の販売台数を事前に見込める結果になったと
いえるにょ。

(b-2)はその商品が売れている間はいいけど需要が減ってしまったときに垂直統合の
場合は末端まですべて影響が出てしまうにょ。
垂直統合はリスクが大きく水平分業はリスク分散型といえるにょ。
PCでいえば水平分業といえば一般的なWindows PCが当てはまるにょ。
国内(NEC)の独自規格であったPC-98はかつては独自規格のハードウェア、独自に
カスタマイズされたMS-DOS、そしてそのDOS上で動作する独自ソフトということで
垂直統合に近いものがあったけどPC-98の衰退で独自を貫くことは難しくなっていった
からね。(末期にはPC-98もBIOSを除きほぼPC-AT互換となった)
一般的なPCであればWindowsが衰退したとしてもその時の主流OSを搭載すれば済むという
だけの問題にょ。

(b-3)は垂直統合の最も厳しい面にょ。
垂直統合は1社によるものだから設計は自由に行うことが可能だけど1社であるが故に
多くのニーズに合わせて多くの種類の端末を用意することが困難になるにょ。
コンシューマゲーム機はほぼ垂直統合モデルであるにも関わらず1つの機種(もしくは
数機種)でまかなえているのだけどこれは自社だけが垂直統合ではなく他社も条件が同じ
だからにょ。
だからこそDSがコンシューマ携帯ゲーム機市場で約7割のシェアを獲得することが可能に
なってくるにょ。

現行のiPhoneとiPadで需要をすべてカバーするなんてことは無理にょ。
それはデザイン面、スペック(サイズ、性能)面、価格面、キャリア面において求めて
いるものがユーザーによって大きく異なるからにょ。
もちろん1社だけだと生産能力の限界もあるしね。(必要以上に量産できる体制を整えて
しまうとコストだけが多くかかってしまうし、かつての「たまごっち」のようにバカ売れ
したにも関わらず最終赤字になってしまうようなハメになりかねない)

どうやら、「9.7インチでは大きすぎる」という一部のユーザーの間の不満点を解消
すべく7インチのiPadが登場するという噂があるにょ。
http://journal.mycom.co.jp/news/2010/08/05/048/
約10インチの液晶を搭載ということでサイズの割りには軽い(モデルによって異なるけど
700g前後)とはいえ、手に持って使う端末としては重すぎるというのがあるため7インチで
500gを切れば需要はそれなりにありそうにょ。

これがAndroid搭載機であればWindows PCのように「需要がある」と判断すればどこかの
メーカーが作ると思うけど垂直統合であればiPhone/iPadを作れるのはアップル社だけで
あるためアップル社が作らなければどうしようもないにょ。
ただ、Androidの場合は各社、各端末で性能差が大きいためアプリ面においてはかなり
厳しいものがあるにょ。
PC用のアプリであれば要求動作スペックがパッケージに記されているけどそれと同じような
ことが今後Android用アプリには必要になってきそうにょ。

Android搭載機は高価なハイエンドモデルから安価なロースペックモデルまでさまざま
用意されているのは確かに良いことだけど問題はOSにょ。
PCの世界だと例えば9年前にXP搭載機を買った人は今もSP3にアップデートすることで
そのまま使えているし、XPの要求スペックを満たしていれば98/Me/2000搭載機でもXPを
導入することは可能にょ。(それが性能面で実用的かは別問題だけど)
またXPは8月3日に書いたようにあと3、4年は現役として使うことができそうなので
XPのトータルの寿命は10数年に渡るといえるにょ。

Android搭載機は現状では標準的な2.2とローエンド機に搭載されている1.6があるけど
この1.6のサポートがどこまで続くのかとか、主要アプリの動作サポートがどこまで
続くのかということを考えるとXPと比べて遙かに短期間で終了すると思われるにょ。
PCとPDA、スマートフォンを比較するのも・・・・という人もいるかもしれないけど
価格的には安価なPCよりも標準的なスマートフォンの方が高価(「実質価格」ではなく
一括払いで購入可能な価格)になってきているから短くても問題ないという言い訳は
通用しないにょ。(昔のように2、3年使用すれば縛りなしで0〜2万円で最新機種を買う
ことができたというのとは状況が異なる)
ネイティブアプリが使えるということがスマートフォンの一般的なケータイ(ガラケー)に
対するアドバンテージなわけだからね。

とはいえ、垂直統合のiPhoneはその心配はないのかというとそうではなく基本的に
1世代前まではOSのアップデートをサポートしているのにすぎないし、世代数が増えれば
(つまり、数世代旧機種になれば)動作対象外となるアプリも激増すると思うにょ。
したがって、スマートフォンにおいてはWindows PCのように長期間サポートされるもの
という考えは捨てるしかなさそうにょ。
PCとは異なり2、3年で買い換える人が多いスマートフォンにおいてはWindowsのような
長期サポートは必要ないと判断されてもやむを得ないのかもしれないにょ。

あと、問題はAndroidは後継となる3.0に関しては要求スペックが飛躍的に高くなっている
ということにょ。
ローエンドを切り捨てる(というか現行だと「ハイエンドのみに絞る」と書いた方が
適切か)ということでハイスペックを生かしたアプリの登場が期待できる反面、(現行の
2.2搭載からアップデートした場合に)動作保証のある端末はごく限られてしまうという
問題があるにょ。
水平分業であるため安価なものまでバリエーション豊富に用意できるというのがAndroid
搭載機のメリットなのにそれができなくなるのは問題・・・ということでしばらくの間
2.2は継続される予定となっているにょ。
とはいえ、そんなに長期間2.2がサポートされるとは思えないにょ。
これも2、3年で買い換えるということを考えれば大した問題ではないのかもしれないにょ。

結局のところPCとは異なりスマートフォンの場合は購入スパンが短いためOSのサポートが
短くなる傾向になり結果として古いOSのサポートはされにくくなっているにょ。
これにより、PCよりも世代交代やシェア争いの変動が大きいものになっていると考える
ことができるにょ。
今であればiOS搭載機(iPhone/iPad)は高いシェアを持っているけど垂直統合という
ことで広いユーザーニーズを確保したり、絶対数量を伸ばすことが困難であるため
シェアにおいては2014年には上記予想のようにAndroid搭載端末に負けてしまうという
ことは十分に考えられるというわけにょ。

とはいえ、シェアで負けたから駄目かというとそうではなく十分な数量売れていれば
アプリ面の心配はする必要もないし、シェアよりも自分に合うかどうかがが重要にょ。
現状でいくら売れているとはいえ、iPhoneを使ってみて自分に合わないというのであれば
「(自分にとって)iPhoneは良い端末」とはいえないわけだからね。
アニメ業界、ゲーム業界でもこれは同じで人気があるから必ずしも自分で観て(プレイ
して)楽しいというわけではないので売れ行きは全く気にする必要はないにょ。
しかし、ある程度売れなければ続編が期待できないからより多く売れるということもことも
やはり重要になってくるにょ。(良いものだから売れて欲しいという願望もあるだろうし
続編を期待するならば違法ダウンロードするのではなくその対価を支払って欲しい)
5年前にはiOSもAndroidも無かったわけだから5年後や10年後のことは予測が困難とはいえ
アップル社のブランド力が続いていれば続編(後継機種)が出ないほど落ち込むという
心配はしなくてもいいかもしれないにょ。




マリモーマさんへ
>昼からpcで お茶目クラブと全貧連の掲示板が見れないよ

PC、携帯両方で見れないのなら鯖落ちかと思ったけど私はPCでも見れてるということを
考えるとアクセス規制でもかけられているにょ!?
私はそんな設定をした覚えがないので板単位ではなく鯖単位で規制がされているのかも
しれないにょ。

329マリモーマ:2010/08/09(月) 19:42:42
間違い発見
トップから掲示板に飛ぶとエラーが出るよ
下のURLだと両方見れるよ
http://6407.teacup.com/ochame/bbs
http://6519.teacup.com/ochame/bbs
時間があったら トップページのリンクを治してね

僕も規制とか ウイルスバスターなどで見れないのか いろいろ調べたよ
携帯で見れるから そのURLで開いたら ちゃんと見れたよ

http://liv0.com

330御茶目菜子:2010/08/10(火) 14:39:02
「昔は良かった・・・」というのは果たして本当なのか?
昨晩よりNHK-BS2で5日間に渡って放送される銀河鉄道999を見たにょ。
http://www.nhk.or.jp/g999/
銀河鉄道999は私はリアルタイムで見ていたけれど録画機器もなく再放送でも見たことが
ないため本放送を見てから30年ぶりの視聴となるにょ。
銀河鉄道999は宇宙戦艦ヤマト、(初代)機動戦士ガンダムなどとともに一世風靡した
アニメだけど現在放送中のアニメで30年後も多くの人々の心に残るような名作アニメ
と言うものは無いような気がするにょ。

1つの理由としては7月27日に書いたようなビジネスモデルが影響しているにょ。
現在アニメファン向けに作られている作品はほとんど深夜アニメとして放送されている
わけだけど深夜アニメはDVD(もしくはBlu-ray)という映像コンテンツを売ることで
成立しているビジネスモデルとなっているにょ。
放送枠を長期間確保するのが難しいのと薄利多売(多くの作品に出資することで1作品
あたりのリスクを減らす)により1クール単位での制作が基本となっているにょ。
制作本数が多いとその中で埋もれてしまいがちだけどそれはターゲットをある程度
絞ることで回避しているにょ。
ただし、ターゲットを絞るということは作品が視聴者を選んでしまうということにも
繋がってしまうにょ。

たとえば、ここ1、2年の深夜アニメの中でもトップレベルの人気である「けいおん」を
例に挙げてみるにょ。
けいおんは昨年4月〜6月の1クール放送された後に今年は4月〜9月の2クール放送される
予定になっているにょ。(というか現在放送中)
オリコンでOPとEDのCDが1位、2位を独占したり、作中で使われたギターやヘッドホンが
高価にも関わらずバカ売れしたり、舞台となる桜高校のモデルとなった豊郷小学校
(旧校舎)には大勢のファンが押し寄せたりと話題を欠かすことはなかったにょ。
深夜アニメは上記のようにDVD販売のための宣伝のようなものであるため4〜10局程度と
いう極めて少ない放送局(つまり、低コスト)で放送するのが普通だけど1期での人気が
あったためか2期では深夜アニメでは異例となる28局での放送となったにょ。
そして、9月でのアニメ放送と同時に原作の方も終了することが分かりそれはYahooの
トップページに掲載されたにょ。
http://headlines.yahoo.co.jp/hl?a=20100809-00000002-mantan-ent

そこまでの作品ならさぞかし多くの人が見ていることだろう・・・と思いきややはり
深夜アニメということで視聴率は2〜4%程度だからね。
深夜アニメは数が多いため時間帯が重なってしまい見れないという場合もあるので
録画視聴を考えてもアニメファンならほとんどの人が見ているというレベルには至って
ないにょ。
当然のことながら「深夜アニメをあまり見ない」という人ならば作品名こそ知っていても
1話も実際に見たことがないという人も多いのではないかと思うにょ。

これは現状のアニメを考えると仕方がないことにょ。
ここで「作品の質が昔の方が良かった」からと考えてしまうのはただの懐古主義にょ。
昔は作品数が少ないことに加えて作品が商品ではなかったことや録画環境がなくリアル
タイムでの視聴を余儀なくされたのが大きいと思うにょ。
それだけ心に残る要素があり、視聴率の面でも今では考えられないレベルであるため
より多くの人の心に残っているのは当然にょ。

PCにしろゲームにしろ昔と比べて最近は面白みに欠けるという人もいるのではないかと
思うにょ。
これは上記のような懐古主義に他ならないにょ。
確かにすべてを掌握できるという面においてはシンプルな8ビットパソコンのメリットは
あるけどそれは便利さを考えていくと必ずしもそうではないにょ。
もしも手元に1台だけPC(パソコン)のみを許された場合Windowsが動作するPCと名機と
呼ばれる8ビットパソコンでは前者を選択する人が大半ではないかと思うにょ。
それは便利さを知っているからにょ。

結局のところ「普遍的なもの」というものはなく同じ個人においてであろうと価値観は
変化しているということにょ。
それ故、多くの人に受け入れられるためには変化することが必要となるにょ。
そうなると現在多くの人に受け入れられるものが30年後に受け入れられることは非常に
難しいといえるにょ。
ただ、「面白さ」というのは「便利さ」とは異なりある程度普遍的なものがあるのは
事実にょ。

しかし、その場合においてもその当時を知っているからこそ感じる面白さ(言い換えれば
その作品に対する「思い入れ」)というものがあるからね。
今年5月22日、23日の2日限定でGoogleのトップページにプレイ可能なパックマンが
公開されたけどそれを楽しむことができるのはやはりパックマンを実際にプレイしていた
人だけだと思うにょ。
昔のゲームは結構美化されている場合が多く実際に今ファミコンゲームをやってみると
「これで昔は夢中になっていたのか・・・・」と思わせる作品も少なくないにょ。
それを考えると「面白さ」というのも必ずしも普遍的ではないと思ってしまうにょ。
やはり、「思い入れ」というのはかなり大きな影響を与えているということにょ。

したがって、アニメにしろゲームにしろ昔と今で正当な比較を下すというのは極めて
困難なものといえるにょ。
確かに、「30年後に世代を越えて語り継がれるようなアニメが今あるのか」と聞かれたら
「ない」と答えるだろうけどそれだから最近のアニメは昔のアニメより質が低いのか
と言われたらそうではないにょ。
やはり、「思い入れ」という面において消費型の現在のアニメは不利になっているという
だけに過ぎないからね。




マリモーマさんへ
>トップから掲示板に飛ぶとエラーが出るよ

報告どうもにょ。
間違いではなく旧URLが使用できなくなったためだと思うにょ。
私はいつも掲示板に直接入っているので気が付かなかったにょ(笑)
というかヒット数から考えてもトップページが1日約20ヒット、掲示板が約150ヒットで
あるため掲示板に直接入っている人が圧倒的に多いだろうからね。

331マリモーマ:2010/08/10(火) 20:50:12
リンク修正乙
おちゃめくらぶの方の掲示板リンクは 治ってるね
全貧連は まだ そのままみたいだね

http://liv0.com

332御茶目菜子:2010/08/11(水) 13:10:01
大は小を兼ねる・・・とは限らない
デジカメの画素数増加は止まることがないにょ。
700万画素あたりから「これ以上増えてもあまり意味がない」と思っていたコンデジも
今年に入ってから1400万画素が普通になってきたからね。
ケータイのカメラも1200〜1300万画素のものが登場しているにょ。
個人的には「高画素=高画質」ではないと思っているものの依然として多くのユーザーの
間で高画素信奉が続いているのは確かだし、用途によって画素数設定を変えるのは面倒と
いうことで「最大画素数モード し か 使わないという人も少なくないだろう」と思って
いたにょ。

そこに興味深いアンケート結果があるのでそれを見てみることにするにょ。
http://dc.watch.impress.co.jp/docs/enquete/20100810_386645.html
これを見る限り、常に最大画素数で撮影している人は約8割もいることが分かるにょ。
ある程度多いことは予想されたけどここまで多いとは思わなかったにょ。
ただし、これは普段使用しているのがコンデジかデジタル一眼かでも変わってくるし
また機種(そのカメラの画素数)によっても変わってくるため絶対的な結果ではないにょ。

ユーザーのアンケート結果をまとめると下記のようになるにょ。

◎最大画素数で撮影することによるメリット

 (a-1)画質が高くなる
 (a-2)大伸ばしに有利
 (a-3)設定を変えなくてよい

◎最大画素数以外で撮影するメリット

 (b-1)データが軽くなる
 (b-2)その画質で満足している
 (b-3)用途によって使い分けるのが合理的

それぞれを私の意見を交えて解説してみるにょ。

(a-1)は確かに「高画素=高画質」とはいえなくても同じカメラであれば画素数が低い
モードよりも画素数が高いモードの方が画質(というか、解像感)の面で有利に働くのは
紛れもない事実にょ。
しかし、それによるメリットがどの程度ありデメリットがどの程度あるのかということを
知っておくことが重要になるにょ。
私は手元のコンデジのTX1で撮影してみたところ4月8日に書いたように1000万画素モードで
撮影したものと300万画素で撮影して1000万画素相当に拡大したものでは有為的な差は
感じられなかったにょ。
その画素数に似合うレンズを搭載していたり、最大画素数が200〜300万画素の機種を
使用している人ならば最大画素数で撮影することに十分な意味があるけどそうでない
場合はプラシーボ効果によって「高画素の方が高画質」と感じている可能性があるにょ。

(a-2)は高画素撮影する最大のメリットにょ。
とはいえ、どの程度のサイズならばどの程度の画素数が必要になるというのは自分の
体で覚えるしかないにょ。
人間の目の分解能やプリンタの性能を考えると300dpiを大きく越えるということは無意味
だけどね。
私は昨年3月16日に実際に印刷dpiが異なるL版プリントした写真をシャッフルして並べ
その画質比較をすることで300dpiを越えると有為的な差がないことを体感したにょ。
(ブラインドテストをしないとプラシーボ効果によって高dpiの方が上に感じてしまうので
テストそのものが成立しなくなる)

大伸ばしであれば間近で鑑賞ということはほぼ無くなるため200〜250dpiで十分なレベルに
なるにょ。
600万画素あればA4サイズに250dpiでプリントできるため1000万画素超を生かすには
A3以上にプリントする必要があるにょ。
だから、コンデジやケータイの1200万画素や1400万画素で最大画素数で撮影するという
ことが本当に必要な人はほとんど居ないと思われるにょ。(家庭用プリンタの大半はA4
サイズまでだし、A3プリンタでのプリントを考えている人がケータイで撮影するとは
到底思えない)

トリミングでは画素数が多ければトリミング後でもある程度の画素数を得ることが
可能になるため有利になるにょ。
1200万画素では縦横半分の大きさにトリミングしても300万画素になるためそれを2L
サイズにプリントしても約300dpiとなるため十分なレベルになるにょ。
しかし、レンズ性能に優れたデジタル一眼ならまだしも、コンデジではトリミングに
耐えうるだけのレンズ性能がないため結局少ない画素数を300万画素に拡大したものと
あまり変わらないものになってしまうにょ。

また私はデジタル一眼で撮影時でもトリミングが要らないように構図を考えて撮影する
ことを心掛けているにょ。
確かに航空写真や鳥のように絶対的な望遠側の焦点距離が足りない場合はトリミングを
前提となる場合があるけどそれはあくまで例外であり、基本的にはトリミングをしなくて
済むようにしているにょ。
そういったものを考えて撮影するのと考えないで撮影するのとでは写真に大きく影響
してくると私は考えているにょ。(トリミング前提だと失敗写真が失敗ではなくなる
場合が多々出てくるため何が良いのかというものが分からなくなってしまう)

(a-3)は面倒臭がりの私は良く分かるにょ。
面倒というだけではなく失敗写真を産んでしまうことにもなるからね。
Web写真用に35万画素モードを使っていてそのまま普通に写真を撮っていて後から唖然と
したとが実際にあるにょ。
だから、これだけあれば普段は困らないだろうというラインを設定したにょ。
それがコンデジだと300万画素、デジタル一眼だと600万画素でありそれ以上画素数を
落として撮影することはないにょ。

次は最大画素数で撮影しないメリットについて考えてみるにょ。

(b-1)はメディア容量が少なかった昔であれば痛感していると思うにょ。
スマートメディアや旧メモステのように最大128MBのメディアの場合は末期となった
300〜400万画素のカメラ(最高画質で1枚あたり1MB少々)で使うには明らかに容量不足
だったからね。
100枚近く撮れるから十分という見方もあるけどフィルムのように気軽に買える金額
ではなかったので予備メディアを確保するのが難しかったし、金銭的な面で最大容量と
なる128MBのメディアを買うこともできなかった人もいることだと思うにょ。
したがって、昔は画素数を落として使わざるを得ない場合も多々あったにょ。

しかし、現在となっては8GBのSDHCなんて2K円程度で買えてしまうにょ。
8GBあれば1400万画素、JPEG最高画質で撮っても1000枚以上記録できるにょ。
2泊3日程度の旅行なら8GBのメディア1枚で大抵は足りるだろうけどそれでも不足ならば
32GBのSDHCを買うという方法もあるにょ。(安価な8GB程度のメディアを予備として複数
持つというのもリスク軽減としては十分にあり)
それを考えると昨今はメディアの容量不足を理由に画素数を落とす人はかなり少なく
なってきているのではないかと思うにょ。

データが軽くなるというのは容量の問題だけではないにょ。
画像を記録するのにも画素数が多ければ多いほど時間がかかるからね。
私がかつて使用していた200万画素のデジカメを搭載したケータイ(V601SH)では
200万画素モードでは記録に15秒くらいかかるけど35万画素モードでは2秒くらいで済んだ
ために200万画素モードはよほどのことがない限りは使用することがなかったにょ。
昨今のケータイは高速になっているためここまで極端な差はなくても高画素化によって
処理に時間がかかる機種も少なくないにょ。(私のTX1に使用しているメモステは
シーケンシャルライトで2MB/sにも満たないため1000万画素モードでは記録に3秒くらい
かかってしまう)
あと連写する場合にはメディアの速度が遅い場合は高画素モードでは連写ができない
場合もあるにょ。

また画素数は画像を開く速度にも大きな影響を与えるにょ。
画像転送速度の問題、JPEG展開速度の問題の両方を考慮しなくてはならないけど単純に
考えれば画素数が3倍に増えれば画像を開くのにかかる時間(サムネイルを作るのに
かかる時間)は約3倍になるにょ。
これは3倍速いPC、3倍速いメディアを使うことで解決可能だけどコストがかかるし
そんなPCで少ない画素数であればさらに快適であるため根本的な問題解決ではないにょ。
つまり、どこまで許容できるかということが重要になるということにょ。
その許容ラインと高画素で記録することによる画質向上を天秤にかけてそれでなおかつ
高画素のメリットが大きいと感じるならば常に最高解像度で撮影するということに関して
何の問題もないにょ。

(b-2)は完全に個人の用途次第だからどれだけ必要なのか、どれだけなら満足できるのか
ということは人によって大きく異なるにょ。
PC鑑賞のみという人であれば200〜300万画素あれば十分にょ。(300万画素あればフルHD
モニタであっても横一杯に等倍表示をしても溢れるくらいのサイズとなる)
等倍鑑賞するから多くの画素数を求めるという人もたまに見かけるけど等倍鑑賞だから
こそむやみに画素数が多いと粗だけが見えてしまうため最大画素数での記録は逆効果に
なるにょ。
現在使われているセンサーはベイヤー配列が大半ということを考えれば最大画素数の
半分〜3分の1の画素数で記録するのがベターといえるにょ。

もっとも、最大画素数で記録して、3分の1画素数相当で閲覧という方法もあるけどその
場合はアプリの縮小補間方式に大きく影響されてしまうにょ。(私が使っている
Irfanviewの鑑賞時の縮小補間は速度優先のためか単純な画素間引き方式であるため中途
半端な縮小はあまりキレイではない)
余裕があれば最大画素数で記録したものとそれをPC鑑賞用にリサイズしたものを用意
するという方法があるけどそれだとかえって手間が増えてしまうにょ。
特にデジタル一眼でRAW記録しているならばそれが最高画質となるためRAW+JPEGで
記録する場合にはJPEGは最大解像度に拘る必要は全くないと私は思ってしまうにょ。
JPEGはあくまでPC鑑賞専用で高画質でプリントする必要があるときはRAW現像して行えば
良いというだけの話だからね。

(b-3)は(a-3)と対極となるものにょ。
画素数を固定するというのは失敗回避において利便性があるし、用途によって画素数を
変えるというのは効率の面で最も合理的にょ。
私はその辺は上記のように普段使用するのに必要な画素数をあらかじめ決めて基本的に
それで固定(変動させる場合はそれより下の画素数は使わない)ということで解決して
いるにょ。

私の場合はコンデジのTX1は8月1日に書いたように主に日記代わり(記録用写真)として
使っているということもあり、それほど多くの画素数は求めていないにょ。(せいぜいWebで
使ったりL版印刷ができれば十分なレベル)
したがって、300万画素モードを基本として使っているわけにょ。
画質が必要な場合はそれより上げる場合がある(といっても上記のようにTX1はレンズ
性能がボトルネックとなり1000万画素でも300万画素と比べて有為的な画質向上がない
というのは悲しいところ)けれどそれよりは下げないことで失敗のリスクを減らして
いるにょ。
上記(a-3)で書いたように私は画素数をWeb用に落として失敗してしまった経験が実際に
あるからね。

私の意見は上記のようなものだけど最初に書いたようにコンデジかデジタル一眼かで
大きく変わってくるにょ。(デジタル一眼は普及価格帯のAPS-Cサイズセンサーであっても
1500〜1800万画素で十分解像しているけどコンデジで1000万画素で解像しているものは
ほぼ皆無)
あとは、個人の感覚と許容ラインがすべてにょ。
どの程度まで許容できるかは人それぞれだからね。
大伸ばしであっても250dpiで妥協なんてできず、350dpiは欲しいという人もいること
だろうからね。
その場合でも元データが解像してないと画素数だけ多くても何の意味がないにょ。
だからそういう人は最大画素数そのものに拘るのではなくカメラ(レンズ含む)に拘る
必要があるにょ。
A3プリントプリントをするから1200万画素は最低必要といっても1200万画素のケータイで
撮影していては「1200万画素」ということに何の意味もないことが分かると思うにょ。
本当に重要なのは「画素数」ではないことは実際に比較するまでもないからね。
(a-1)で書いたようにプラシーボでもいいから高画質を望むという人でない限りは・・・。




マリモーマさんへ
>全貧連は まだ そのままみたいだね

全貧連もだけどおちゃめくらぶの方でも修正したのはトップページだけにょ。
多くのページから掲示板へリンクしているのでそれを直すのはかなり面倒にょ(笑)

333御茶目菜子:2010/08/12(木) 13:34:21
3D液晶TVは不要なのか・・・?
8月5日にはビデオカメラにおいて現状では「3D」はあまりウリにはならないということを
書いたにょ。
それは、3D動画を普及させるためには制作環境、鑑賞環境、発表環境のすべての面に置いて
普及させる必要があるけどまだ鑑賞環境(つまり、3D液晶TV)が普及に至ってないため
3Dビデオカメラの恩恵を得られる人がごくわずかしかいないからにょ。
そのわずかの恩恵しかない人の一部が買うだけに止まるため普及はどうしても鈍くなって
しまうにょ。
では、3D液晶TVはどうなのかというと現状では不要に感じている人が多いみたいにょ。
http://av.watch.impress.co.jp/docs/series/avt/20100810_386682.html

3D液晶TVは6月17日に書いたように将来は当たり前のようなものになると思っているにょ。
それが現状で今ひとつな理由を改めて整理して書いてみるにょ。
3D液晶TVが普及のための条件はというと3Dビデオカメラと比べると単純明快にょ。(3D
カメラの時にも本来は価格も条件に入れるべきだったけど価格を入れる以前の問題である
ためにあえて価格は条件に加えなかった)

 (1)3Dコンテンツの普及
 (2)視聴環境の改善
 (3)価格

(1)について考えてみるとコンテンツといってもTV放送によるものとBlu-rayなどのメディア
供給によって行われるものの2通りあるにょ。
当面はTV放送が3D化される予定はないにょ。
現行の地デジは3Dが考慮されてないために非3DのTVで見た場合に二重像になってしまい
鑑賞そのものができなくなってしまうからね。
そうなると現在3D液晶TVはBlu-ray 3D目的ということになるにょ。
ところが、Blu-ray 3Dは昨年末にようやく正式な規格が策定されてようやくこれから
スタートという感じにょ。

そういうわけで現状で3Dコンテンツといえば一部のBS、CS放送による3D放送と3Dビデオ
カメラで撮影したものだけに限られるにょ。
これでは買い換え促進としてはあまりに弱すぎるにょ。
個人的には3Dは白黒TVがカラーTVになったくらいの変化に感じているけど1970年代に入り
カラー放送が増えてきてようやくカラーTVのアドバンテージが大きくなったにょ。
しかし、カラー放送とは異なりTV放送の主流が3D化することは当分ない(というか
地上波では無理)ということで今後登場するであろう数少ないBlu-ray 3Dの映画の役割が
非常に大きくなることが分かるにょ。
逆に言えばそれに興味がなければ3D液晶TVを導入する価値の大半が失われるということ
にもなるにょ。

(2)は確かに普及の障害になっているのは確かにょ。
しかし、「TV放送の主流が3Dになることはない」ということを前提に考えた場合には
「Blu-ray 3Dを鑑賞するときだけ専用メガネを付ければ良い」ということになりこれだと
許容できる人は多いのではないかと思うにょ。
個人的にもTV放送を鑑賞するのに専用メガネをかけるなんてことをしたくないけど
3Dそのものには興味があるからね。
将来的にはTV放送が完全3D化された時には3D映像、2D映像(右目用、もしくは左目用)を
切り替え式になるのではないかと思われるにょ。
3Dで観たい放送に関しては3Dモードにして鑑賞という形がベターにょ。

裸眼による3Dであればその煩わしさは無くなるとはいえ、視差バリア方式だと真っ正面
からしか3Dにならないからね。
裸眼3Dは現在飛躍的に改善しているものの視野角を考えると大画面TVでは専用メガネを
付ける方式をとるのがベターといえそうにょ。
それでも原理的には3Dとしてうまく認識されるためには距離の制約があるし、縦ずれは
大きな目の疲れを産むために顔(というか目)は画面に対して水平にまっすぐする
必要があるし、寝っ転がって観るなんて厳禁にょ。

そうなると視聴する上でも3Dはユーザーを選んでしまうにょ。
しかし、ニンテンドー3DSのような携帯型ゲーム機であれば距離がほぼ一定に保たれるし
寝っ転がってプレイしても液晶画面の角度を顔と同じ角度にすれば良いだけなのであまり
問題ではなくなるにょ。

(3)の価格に関しては確かに現状では3D液晶TVが高価なのは否めないにょ。
しかし、それは高価な価格帯のものしか用意されてない(ミドルクラス以上しか対応
していない)ために起こっていることにょ。
それは現状で3Dを求めているユーザー層を考えれば当然のことであり、低価格ブランドの
製品が3D対応になることで3D非対応の液晶TVとの価格差はどんどん縮まっていくと考え
られるにょ。

ただ、問題は買い換えのタイミングにょ。
ケータイは2、3年、PCは5年くらいで買い換える人が多いけどTVをそのスパンで買い換える
という人はほとんど居ないと思うにょ。(しかも、PCとは違いTVは普及率がほぼ100%で
あるため新規購入ではなく買い換えが大半になる)
一般家電と同じく壊れてから買い換えるという人が大半だろうからね。
確かにPCもそういう人が居ないわけではないけどPCの場合はスペックの問題でアプリが
快適動作しないとかOSが古くなって最新アプリ、機器が対応されてないため買い換えを
余儀なくさせられるということが少なくないからね。

その点TVの場合はスペック不足というものがほとんどない(細かい画質などに拘る人
ならば買い換え要因にはなるけど普通の人は多少発色や画質が良くなった程度で現在
普通に使えているTVを新しいTVに買い換えることはない)からね。
しかし、その普通に使えているTVの買い換えとなるタイミングとなりうるのが来年7月24日
に訪れるアナログ放送終了にょ。
それに加えてエコポイントにより現在TVは買い換え特需となっているにょ。
そんな中で3D対応の液晶TVを選択しないと次に買い換えるのはそのTVが壊れた時となる
ために当分先になるにょ。

この買い換え特需前にBlu-ray 3Dのラインナップが用意できなかったのは少々辛いにょ。
どうせ買い換えるならBlu-ray 3Dなどの3Dコンテンツの中にどうしても観たいものが
含まれているならば3D対応の液晶TVを選択するというユーザーも多いことだろうけど将来
観たいものが出るかもしれないからということで割高となる製品を買う人は限られて
くるにょ。
Blu-rayに興味がなく特にやりたいゲームがないけどプレステ3を買う人がどれだけいるか
ということを考えれば「将来に期待する投資」ができる人は限られるということが分かる
のではないかと思うにょ。
大画面の3D液晶TVはプレステ3よりも高価であるため観たいコンテンツがあるからと
いってもすぐに買い換え、買い増しはできないため買い換えるタイミングで観たいものが
あるかどうかが重要になってくるにょ。

しかし、3D鑑賞時の様々な制約があるし、現状でまともに訴求できる3Dコンテンツといえ
そうなものといえばBlu-ray 3Dくらいしかないため映画ファンがメインになるだろうと
推測されるにょ。
そうなると恒常的に多くの作品を鑑賞するだろうから今現在で特に観たい作品が無くても
近いうちには確実現れるためそれに期待して3D液晶TVを買うということは考えられるにょ。
これは、ゲームが好きでプレステ3に参入しているサードパーティの中に自分の好きな
メーカーがあるから自分好みのゲームが将来出る(もしくは自分が好きな作品の続編が
出る)ということに期待して現時点で特にやりたいゲームがないけどプレステ3を買う
というのと同じようなものにょ。

そうなるとやはり現状では3Dコンテンツ目的で3D液晶TVを買う人は極めて限られるという
ことがいえそうにょ。
とはいえ、「どうせ買い換えるならば良いものを買う」ということで地デジ対応の液晶TVに
買い換える際に3D対応のものを買うという人(3Dが目的ではないけど良いものを買ったら
結果として3D対応だったという人)は少なくないために3Dコンテンツ目的で買う人を
合わせたら普及台数はそれなりの規模に達すると思われるにょ。

とはいえ、本格的な普及はTV放送が3Dを標準化した後だと思われるにょ。
現在の地デジでマルチチャンネル化(3Dと非3Dの同時放送)は難しいために3D放送が
標準化するタイミングはスーパーハイビジョン導入後になりそうにょ。
現在はミドルクラス以上の高級品に止まっている3D対応の液晶TVはローエンドまで降りて
くるのは時間の問題であるため将来的には市場に出回っている大半のHDTVが3Dに対応と
なると考えられるにょ。(液晶パネル自体が高速なものというだけであってメガネは
当然別途必要となる)
とはいえ、そこまで来てもやはりTV放送は地上波では3Dで放送されず一部のBS、CS放送
のみであり、それ以外ではBlu-ray 3Dと3Dカメラで撮影したものを鑑賞するのに止まるため
「3D鑑賞が普通」というレベルには達することがないと思われるにょ。
したがって、現状では3Dは「必要or不要」という二択になっているものの近い将来(数年
後)には3Dは「観るor観ない」という二択になりそうにょ。

334マリモーマ:2010/08/12(木) 15:10:50
ここまで高くて 高性能なグラフィックカードは いらないな
現時点で最速のグラフィックスカード、Asus ARES

AsusのグラフィックスカードARES/2DIS/4GD5が今月発売されるそうだ
本製品のGPUにはATI Radeon HD 5870が2基、
グラフィックメモリにはHynix Semiconductor のGDDR5 (4GB)が搭載されており、
現時点で恐らく史上最速のグラフィックスカードであると言って間違いないだろう。
ベンチマークテストではRadeon HD 5970やNVIDIA GeForce GTX 480を容易に抜いており、
更に2枚挿しでCrossFire環境を構築することも可能とのことだ。

日本での予想価格は14万円前後となるようだ。
なお、詳細スペックやベンチマークについては4Gamer.netが詳しい。

http://slashdot.jp/it/article.pl?sid=10/07/12/0617229
http://www.unitycorp.co.jp/asus/vga/ati/pciex/ares_2dis_4gd5/ares_2dis_4gd5.html
http://www.4gamer.net/games/047/G004755/20100709069/

http://liv0.com

335御茶目菜子:2010/08/13(金) 13:52:38
コミケは参加することに意義がある
今日から明後日までの3日間は2010年夏コミ(コミックマーケット78)が開催されるにょ。
http://headlines.yahoo.co.jp/hl?a=20100813-00000009-mantan-ent

今年も徹夜で並んでいる人が大勢いた模様にょ。
とはいっても会場での徹夜行為は禁止されているけどね。
ニコニコ生放送やtwitterによって現地から直接レポートする人はかなり大勢いるために
会場に居なくてもどんな状態かは粗方分かるようになってきているにょ。

私はというとコミケに行き始めたのは97年からで2度サークル参加を果たしたにょ。
http://ww5.tiki.ne.jp/~ochame/CLUB/C58REPO.HTM
しかし、2000年の夏コミ(C58)を最後にコミケへの参加は滞っているにょ。
それは、金銭面の問題が大きいけど仕事の都合で時間が取れないというのもあるにょ。
日帰りは不可能な場所に住んでいるために連休をとらないとまず参加できないからね。

そこまでしてコミケに参加する意味は何なのか・・・?
主なサークルの同人誌(同人ソフト)に関してはショップへの委託販売があるため別に
コミケで無くても買うことはいくらでもできるにょ。
また、会場限定グッズ、委託を行わない同人誌に関してもプレミアム価格さえ許せば
主なものはヤフオクなどで入手可能にょ。
多少割高になったところで私の場合はコミケに参加すれば往復の電車賃(新幹線代)
だけで4万円になるため特定のグッズが欲しいためだけならば大変な思いをして行く
よりもトータルで考えれば割安になる可能性も十分にあるにょ。

やはり、コミケの一番の魅力は一般参加者と作り手(「売り手」となるサークル参加者)
との垣根が小さいということにょ。
誰でも売り手に回ることができるわけだからね。
そして、それによる人と人との繋がりにょ。
売り手との距離が近いために人と人との繋がりも強くなってくるにょ。
私が、かつてコミケに行っていたのはそこで買いたいものがあるということだけでは
なくそこに行けば会える人がいるということが大きかったにょ。
普段はネット上でしか会うことができない人とリアルで接する機会というのはなかなか
無いわけだし、参加者が多いコミケだからこそより多くの人と直に会うことができるにょ。

そういう観点からいうとコミケは一種の「オフ会」ともいえるにょ。
私が初めて参加したオフ会は96年のPJ-Rフェスタにょ。
PJ(ポケコンジャーナル)読者の集まりということで厳密な意味でのオフ会ではない
もののそれでも普段会えない人に会う機会というのは私にはすごく感動的に思えたにょ。
それが私がコミケに参加するようになった最大の要因だからね。(2000年代に入りコミケ
まで足を運ぶのが難しくなってからは毎年「大阪オフ」と称してかえるさんと会っていた)

とはいえ、儲けるためにコミケに参加するというサークルも少なくないにょ。
実際「壁サークル」(≒大手サークル)の中には1回のコミケで数100万円、もしくは
それ以上の金額を稼いでいるものもあるからね。
もっともそんなサークルはごく一部でありほとんどのサークルは良くてトントン(参加
するための交通費等が出れば良い程度)であり、私のように零細サークルは利益を出そう
とするのはまず不可能にょ。

私もまたサークル参加をしてみたいけど金銭面、時間面に加えて体力面で厳しくなって
いるために難しそうにょ。
夏コミの場合は暑さや熱中症対策を万全に行わないと非常に危険なレベルだからね。
行ったことない人には冗談に聞こえそうだけどホントのことにょ。
コミケ会場付近のコンビニの売場を見ればどんなものかが想像できると思うにょ。
http://twitpic.com/2dye3w
私自身10年前と比べて体力面が相当落ちているためにコミケに参加するような体力は
もうないかもしれないにょ。
それでも、死ぬまでにはあと1回はサークル参加をしてみたいにょ。

やっぱり、参加するとすればポケコンサークルか・・・?(今回の夏コミでポケコン
サークルは参加しているのだろうか)
今(今回の夏コミ)だったら「けいおん」で参加するかも・・・。
前回サークル参加をしてときはポケコンで参加したものの上記レポートを見てのように
それ以外のものが大半だったからね(笑)
何はともあれコミケに参加している人(参加予定の人)は事故や熱中症で倒れたり
しないように十分気を付けてにょ。




マリモーマさんへ
>ここまで高くて 高性能なグラフィックカードは いらないな

私も欲しくないにょ。
買うお金がないといえばそれまでだけど買ってもその消費電力による発熱、冷却の
ための騒音を考えるとまともに使えないにょ。
最大消費電力で200W少々の私の自作PCでさえ、最近は暑いからほとんど電源を入れてない
くらいだからね。

336御茶目菜子:2010/08/14(土) 14:02:56
便利なサービスほど危ない
先日mixiが3日に渡る大規模なシステム障害になったにょ。
http://www.itmedia.co.jp/news/articles/1008/12/news021.html
mixiは国内最大の加入者を誇るSNSであるためその影響はかなり大きかったにょ。
とはいえ、実際に個人的に何か問題あったのかというと別に大したことはないにょ。
それは私がmixiに頼った生活をしてないためにょ。
これがmixiに依存しているかどうかで変わってくると思われるにょ。

この障害を見て先日TVでも放送された映画「サマーウォーズ」(2009年劇場公開)を思い
出してしまったにょ。
「サマーウォーズ」ではネット世界でのシステム障害によって大きな問題が起きてしまった
からね。
というのも劇中では1つのネットサービスであるOZ(オズ)に全世界で10億人以上(劇中では
これは全世界の携帯電話の普及率とほぼ同等と表現された)が加入していて人々はOZに依存
した生活を送っているためにょ。
ただのコミュニケーションサービスだけではなく電気、水道、交通機関などのライフライン
までがOZに依存されているくらいにょ。
それで障害が起きれば影響がないわけがないにょ。

さすがにOZのように極端なものは現実には存在しないにょ。
とはいえ、様々なことができる便利なサービスであれば加入者はどんどん増えていくため
システム障害が起きたときのリスクも大きくなってしまうにょ。
ただの情報サイトであればそこを使用しないという選択肢があるけど例えばメールや
スケジュールなどを一括管理しているのであればシステム障害の間はそれが使用できない
ことになりかなり不自由となってしまうにょ。
そうならないためにメール、スケジュール管理は分散して行うという方法もあるけど
そうすると使い勝手が悪くなってしまう(管理が面倒になる)という問題もあるにょ。

OZは劇中描写から考えて1人1アカウントしか取得できない(利用制限のある仮アカウントは
複数取得可能)、数億人が同時にアクセスしても全く問題ないサーバと回線、そして、
2056桁の世界最高のセキュリティーシステムを誇っているためそれがライフラインと
密着しているのであれば利用者が増えるのは当然のことだと思われるにょ。(その暗号を
人間の手によって簡単に解いてしまったというのはさすがに無理があるけどこれは深く
考えないようにする)

OZは極端であるとはいえ、便利なサービスであればあばあるほど(そのサービスに問題が
無ければ)どんどん利用者が増えていくと思われるし、そうなった際にはセキュリティー
問題として万一の際の個人情報流出も考えないといけないにょ。
複数のサービスに分散してシステム障害が起きたときのリスクを減らそうとしてもそれが
かえって個人情報流出のリスクを高めるという結果になりかねないにょ。
世界最高のセキュリティーシステムだろうと内部からだとあっさり突破されてしまうからね。

Webというのは黎明期には情報発信、情報閲覧のためのものだったけど今は様々な用途に
活用されているにょ。
昨今、聞く機会が多い「クラウドコンピューティング」に関しても徐々に生活にとけ込んで
来ておりそれを意識して使っているという人はあまり居ないのではないかと思われるにょ。
特にケータイ向けサービスはすべてクラウドコンピューティングによるものと言っても
過言ではないからね。
しかし、便利なサービスがあるからそれに依存するかそれとも複数のサービスを併用
するかというのは難しい問題にょ。
あまり一極集中してそれに依存しすぎるというのは障害が発生したときのリスクを考えると
良いことだとは個人的には思えないにょ。

337マリモーマ:2010/08/15(日) 12:11:23
新しいアプリ
便利かどうか分からないけど 携帯に世界カメラzoomというのを入れたよ
http://plusd.itmedia.co.jp/mobile/articles/1003/30/news027.html
http://trendy.nikkeibp.co.jp/article/column/20100705/1032285/

ツィツターが見れたり 写真撮影とかできるけど
結構重くて使いにくいかも

http://liv0.com

338御茶目菜子:2010/08/15(日) 13:30:53
幽霊サイトはどうあるべき・・・?
おちゃめくらぶのWebサイトも誕生して昨年で満10年を迎えたけどこれもいつまで更新が
続けられるか分からないにょ。(サイト自体はきまぐれ更新だけどここの雑記の方は今の
ところほぼ毎日書いてる・・・とはいえこれも時間の都合次第で変わると思う)
ネット上には更新が数年間行われていないWebサイトやブログなどもかなり存在するけど
それらはユーザーによって見放された(時間等の都合で更新できない)というだけでは
なくユーザー自体がすでに亡くなっているという場合もあるにょ。

今は多くの人がSNSを利用しているけどユーザーが亡くなった場合はどうなるのか・・・?
http://slashdot.jp/article.pl?sid=10/08/14/0149212
私もmixiを含めSNSにはいくつか登録しているけどやはりこの点は気になるにょ。
単純に遺族が退会手続きを行うという方法もあるけど先日Twitterはユーザーが
亡くなった場合の対応ポリシーを発表したにょ。
http://www.itmedia.co.jp/news/articles/1008/11/news071.html
しかし、死亡証明を行う必要があるというのはハードルが高いにょ。

とはいえ、遺族がどのSNSに登録しているなんてことをすべて把握しているとは思えず
自動ログインでなければパスワードやアカウントを知っておく必要があるから退会手続きを
行うということもできないにょ。
亡くなったユーザーの情報をSNSの管理側が得ることは困難であるため亡くなったユーザーの
アカウント削除というのは難しいにょ。
確かに対策としては一定期間ログインしなければ自動的に削除という方法もあるにょ。
亡くなった人がログインすることはないためこれは確かに有用にょ。

ただし、ログインしなかっただけで勝手に消されるというのはあまり歓迎すべきことでは
ないと考えている人もいるにょ。
「1年で削除」という規定ならばその1ヶ月くらい前に通知メールを出すというように
いきなり削除ではなくワンクッション入れるという方法は必須だと思うけどそもそも
そのメールアドレス自体が生きている保証はないからね。

そもそも消すのが良いともいえないにょ。
おちゃめくらぶもポケコン情報を求めてやってくる人のためにいきなり削除なんてことは
極力避けたいからね。
自分が死んだあと消されることを望まないユーザーもいるということにょ。
一番いいのはドナーカードのようにユーザーが亡くなった後に削除するかそのまま残すか
という設定ができればいいのだけどそもそも上記のようにその死亡を管理側に通達する
方法が確立されてない時点でその方法は使えないにょ。

現状では「亡くなった後に消す」という方法は困難であるため亡くなった場合には更新
されずずっと放置状態になる場合がほとんどにょ。
「長期間放置されているサイト(ブログ、SNS)=ユーザーが亡くなった」というわけでは
ないけどやはり頻繁に更新が続いていたのが急に止まったらそう感じてしまうにょ。
第三者からすれば単に忙しくて更新できないのか亡くなってしまったのかというのは
判断ができないからね。
パスワード紛失などによってそのまま放置されたという場合もあるだろうしね。

仮に私が亡くなった場合はおちゃめくらぶは年間契約をしているプロバイダのサーバに
あるために年に1回の代金の支払いが滞れば自動的に削除されるかもしれないにょ。
掲示板の方は今のところそんなことはない(数年間書き込みのないTeaCup掲示板はたまに
見かける)ということで書き込みが一切無くなっても消える心配は無さそうにょ。
生きている時から死んだ後のことを考えても仕方がないけど人の命は儚いものであり
私が明日死なないという保証は誰にもできないにょ。
SNSの利用ユーザー数が増えるにつれてこのようにユーザー死亡後の対応が迫られる機会は
多くなってくると思われるにょ。
トチローが死亡した際に鉄郎がスイッチを入れハーロックに伝えたように死亡した際には
スイッチ1つでそれを伝える仕組みができればいいんだけどね。



マリモーマさんへ
>便利かどうか分からないけど 携帯に世界カメラzoomというのを入れたよ

最近はARが流行っているからね。
その中でもやはりセカイカメラが一番人気にょ。
面白そうだけど私のケータイでは対応してないにょ。

339御茶目菜子:2010/08/16(月) 13:22:53
ARは「次元」を越える技術か・・・
近年AR(拡張現実)が急速に注目を集めているにょ。
ARは現実空間にCGなどの仮想空間の情報を重ね合わせる技術のことだけど現実世界を
ベースにしているという点においてはCGをベースに構成されているバーチャルリアリティ
(仮想現実)とは根本的に異なる点といえるにょ。

ARというのは特別目新しいものというわけではなく古くからアニメや映画の中では
活用される場面が多く存在するにょ。
ARをフルに使ったものといえばやはりTVアニメ「電脳コイル」が挙げられるにょ。
「電脳メガネ」と呼ばれるヘッドマウントモニタ一体型の小型PCが広く普及しており
それを使って電脳空間のものを現実空間と重ね合わせて見ることができるにょ。
ペットもそのメガネを使ってしか見えない(もちろん物理的な干渉はできない)電脳
ペットが多く飼われており人々の生活の間にAR技術がとけ込んでいるにょ。

ARにはカメラが必要不可欠にょ。
ノートPCであれば大半のものにカメラが内蔵されているし、デスクトップPCであっても
USB接続で別途用意することもいくらでも可能なのだけどそうなるとARを活用できる場所が
限定されてしまうにょ。
そういうことで2年前に登場した初期の一般向けARソフトは自宅で楽しめる電脳フィギュア
だったにょ。
http://www.geishatokyo.com/jp/ar-figure/figure.html
ただ、内容から言ってもこれによってARが広く普及するとはいえなかったにょ。

ARがここ最近になって急速に注目を集めた原因としてはスマートフォンの普及が挙げられる
と思うにょ。
スマートフォンは持ち歩いた状態で使用できるしカメラを内蔵しネイティブアプリが動作
するためにARアプリを作ること気軽に使用することが可能になったにょ。
もちろん、スマートフォン自体の性能向上もあるし、アルゴリズムの改善によって低
スペックでも実用レベルの動作が可能になったというのもあると思われるにょ。

スマートフォンでARを普及させるきっかけとなったのはやはりセカイカメラにょ。
http://sekaicamera.com/ja/
スマートフォンに内蔵されたGPSや電子コンパスと連動によって電脳空間の情報となる
エアタグを現実空間(カメラで映し出された映像)とリンクすることで幅広い活用方法を
見いだすことが可能になったからね。
このセカイカメラはAndroid用だけではなくiOS(iPhone/iPad)用も用意され、ガラケー
ではドコモのPrimeを中心に使用可能となっているにょ。
機種が限定されるのはRawImageCaptureという機能を使用しているのでそれに対応している
機種でしか使用できないためにょ。
したがって、スマートフォンのように後からJAVAアプリとして自由に追加できるような
ものではないにょ。
対するauはBREW4.0対応の端末であればアプリとして追加できるにょ。
この辺はBREWが他のJAVAアプリで動作するガラケーとの設計思想の違いが影響していると
思われるにょ。

ARは秋葉原に等身大マジンガーZを出現させたり、ゲームの中に登場するカノジョを
実際の背景をバックに撮影したりとかいう単純なものだけではなく様々な用途に使用可能
となっているにょ。
http://plusd.itmedia.co.jp/lifestyle/articles/1008/06/news099.html
http://game.watch.impress.co.jp/docs/news/20100712_380170.html
ARは医療機関、交通機関では多く使われているけどやはり人々の間に浸透するとなると
日常生活に必要なものやエンターテイメント方面だと思うにょ。

携帯ゲーム機にもカメラが搭載されるようになりここ1年でARを体験できるソフトが多く
発売もしくは発表されたにょ。
ゲームは2Dのドット絵から3Dのポリゴンへ主流が移り変わったにょ。
そして最近は平面から3D表示(立体視)へと変革をしようとしているにょ。
それとは別の変化がARにょ。
仮想空間はどれだけ進化しても仮想空間でしかないからね。
http://www.itmedia.co.jp/promobile/articles/1008/13/news024.html
現実世界とリンクするというのは「リアルな仮想空間」とは別の意味での「リアルな空間」
といえるにょ。
三次元(現実空間)から二次元(仮想空間)へと行くことはできないけどARによって
(擬似的に)移動が可能になるというのは非常に大きいにょ。
将来的には「電脳コイル」の世界のように生活にARがとけ込むような時代がやってくる
可能性はあると思うけどそれを牽引するのはこのようなエンターテイメント方面だと
思うにょ。

340御茶目菜子:2010/08/17(火) 13:50:20
気軽だからこそモラルが重要になる
Twitterの利用者が増えていったため中には7月19日に書いたような「Twitter疲れ」を
感じている人が出てきているにょ。
ただのつぶやき(独り言)でいいのだから細かいことを気にせずじゃんじゃん書き込んで
しまえばいいのに・・・と思うかも知れないけどそれが必ずしも正しいとはいえないにょ。
それは気軽に書き込めるからよく考えないで書き込みをするからにょ。

そういったトラブルは頻繁に発生しているけど昨日実際にあった週刊少年ジャンプに
連載中の「ブリーチ」の作者である久保先生とその読者とのやりとりを例に挙げてみるにょ。
http://blog.livedoor.jp/insidears/archives/52357491.html

ブリーチの話の展開(およびキャラ)が気に入らない一部のファンからさまざまな無茶な
要求(「○○を殺せ」など)をされてから久保先生がツイートしたのを転載してみるにょ。

>時々勘違いしてる子がいるから言っとこうかな。
>読者にあるのは作品の話を変える権利じゃない。
>その作品を読むか読まないかを選択する権利だ。
>気に食わなければ読むのをやめればいい。
http://twitter.com/tite_kubo/status/21290369175

>もしBLEACHよりも面白いものが描ける才能があるなら、すぐに漫画家になるべきだ。
>面白ければ必ずBLEACHより成功する。絵が描けないと言うのなら、
>努力して編集者になって漫画家にアドバイスすべきだ。本当に能力があれば、
>どこへ行っても歓迎される。
http://twitter.com/tite_kubo/status/21290675930

>才能も無く、努力もせず、そのくせ与えられるものに不平を言って、
>努力する人間の足しか引っ張れないような奴は、目を瞑ってどっか隅っこに挟まって、
>口だけ開けて雨と埃だけ食って辛うじて生きてろ。
http://twitter.com/tite_kubo/status/21291085113

久保先生が言っていることが正しいか間違っているかというのの受け止め方は人それぞれ
だと思うにょ。
この久保先生のツイートを見て「面白い漫画が描けなければ批判してはいけない」と
言っているように感じている人も中にはいるにょ。
それならば下記(2chのレスから抜粋したもの)のようになってしまうにょ。

A「オマエはBLEACHよりおもしろい漫画が描けるんだな?描けないのに批判するな!」
B「漫画描いてみたよ、ほら」
A「なんだこれ、糞つまんねー」
B「ちょっと待て、俺の漫画を批判するのは俺よりおもしろい漫画を描いてからだ」
A「描いたぞ」
B「どっちがおもしろいか第三者に聞いてみないとな」
A「よし、Cに聞いてみよう」
B「ちょっと待て、それはCがおもしろい漫画を描いてからだ」

確かにこれは変なので「久保先生の言っていることはおかしい」と思う人も中には
いるかもしれないけど久保先生のツイートをちゃんと読んでいればこれは明らかに
ミスリードということが分かると思うにょ。

私は読者にはその能力の有無に関わらず批判をすること自体には問題がないと思うにょ。
ただ、ほとんどの批判(否定意見)は意見として成立してないにょ。
「自分が気に入らないから駄目」というのは意見でも何でもないからね。
さらに「駄目だから○○しろ」というのは助言ではなくただの命令や指図にょ。
指図というのは要するに上から目線であり、これは「お客様は神様です」ならぬ
「読者様は神様です」と言わんばかりの行為といえるにょ。

おちゃめくらぶのスタンス(=私のスタンス)として「否定意見は意見ではない」と
いうことを4月22日に書いたけどこれは否定意見は肯定意見とは比べ者にならないほど
難しいものであり、多くの場合は意見として成立してないからにょ。
否定意見そのものは意見ではなく「これは駄目(これは違う)」という感情論にすぎず
その否定するための正当な理由があってようやく意見として成立するにょ。

もっとも「独り言」であれば意見として成立させる必要性は全くないんだけどね。
だから普通にTwitterでつぶやいたり、自分のサイト、ブログ、mixiなどでただの不満、
不平(≠意見)を書くのは問題ないにょ。
つまり、意見になってない批判を行うこと自体に問題はないにょ。
個人的な中傷行為でなければ言論の自由が保障されているからね。(日本国憲法第21条)
批判をしている個人サイトに原作者自らが現れて「そんな文句を言うな!」というのなら
久保先生が言っているようにその漫画を読む・読まないの権利があるようにそのサイトの
内容を読む・読まないという権利があるため読まなければ良い(そんなサイトに
行かなければ良い)というだけの話にょ。

ただ、「言論の自由」というのは「どこで何を言ってもいい」というのとは違うにょ。
Twitterにおいて返信をするということはその人に直接言っているのと変わらないにょ。
道を歩いていて見ず知らずの人に文句を言われても気にしないなんていう人はほとんど
いないと思うにょ。
いや、こちらから向こうの顔が見えないために自宅にいて見ず知らずの人に電話で文句を
言われるという方が正しいかもしれないにょ。
ここまで来れば「言論の自由」を主張するのがおかしいことに気が付くと思うにょ。

確かに「間違っていることをしている」というのであれば隠れて行う批判ではなく直接
本人に伝えるということが必要になると思うにょ。
しかし、漫画の展開なんて表現の自由を逸脱してない限りは作者の自由にょ。
久保先生も自らが最善と思って描いていると言っているのにそれで文句を言われては
たまったものではないにょ。(独りよがりな作品にならないためにはファンの意見を
参考にすることも時として必要となるけど今回の件とは別の話)
私も「これがベストな方法だろう」と思ってやっていることに対して「これは駄目だ」と
感情論で否定されたらさすがに「はいそうですね」とは言えないにょ。(仕事上で上司
などから言われたのであればまた変わってくるけど)

Twitterは気軽に書き込めるため急速に普及したサービスにょ。
その気軽さ故に気軽に自分の感情を相手に押しつける結果になることにもなりかねない
というのが今回の例で分かると思うにょ。
この辺は確かに「気軽さ」がマイナスに働いているともいえるけど本質的にはモラルの
ない人(マナー不足の人)に問題があるわけであってTwitterに問題があるわけでは
ないにょ。
これは違法ダウンロードをしている人に問題があるわけであってP2Pソフト(Winny等)に
問題があるということではないのと同じにょ。

341御茶目菜子:2010/08/18(水) 13:10:55
3Dデジカメは普及するのか・・・?
3Dデジカメ「FinePix REAL 3D W3」が発表されたにょ。
http://dc.watch.impress.co.jp/docs/news/20100817_387565.html
これは昨年発売になった世界初の民生用3Dデジカメ「FinePix REAL 3D W1」の後継機種
となっているにょ。

主な改善ポイントは下記の3つにょ。

(1)HD動画(720p)に対応
(2)液晶パネルが23万画素(QVGA相当)から115万画素(WVGA相当)に
(3)HDMI mini出力対応

(1)に関して書くとW1が640x480だったのがW3が1280x720(720p)のHD動画に対応したの
だけど現在のデジカメにおいてHD動画はプレミアム性のあるものではなくスタンダードな
ものとなってきているにょ。(エントリーモデル以外の大半の機種でHD動画撮影が可能に
なっている)
そのためコンデジで実売6万円という最高級レベルの価格な割りにHD動画も撮れなかった
W1がやや辛いものだったけどW3になってようやく標準レベルになったというだけの話にょ。

とはいえ、PC画面やHDTVで見るならば480pと720pの差は大きいため大きな改善といって
良いと思われるにょ。

(2)に関して書くと現状では後述のように3D鑑賞が可能な環境があまり普及していないと
いうことを考えれば本体の液晶の解像度アップは必須項目といっても良いと思われるにょ。
せっかく高精細な動画が撮れてもそれが鑑賞できる環境がカメラ本体しかないという
ことは動画の解像度はカメラの液晶解像度依存した形(液晶パネルがボトルネック)に
なるからね。

4:3のスクエア液晶からワイド液晶へと変わったことでパネルサイズもそれに合わせて
2.8インチから3.5インチへと拡大したのも良いことにょ。
ワイドパネルの場合は同一インチ数だとどうしてもパネル面積が小さくなってしまう
ために「インチ数が同じ」だと「小さい」と感じるし、横が大きくなっても縦が小さく
なるためにインチ数で1割程度アップしても同レベルとしか感じないにょ。(ウチの
リビング用のTVは12年前に買い替えたけど25インチから28インチワイドということで1割
以上アップしているのに同レベルかやや小さくなったというイメージになった)
そうなると2.8インチから「大きくなった」と体感できるためには3.5インチ(インチ数で
25%アップ)くらいが必要だと思われるにょ。

また、サイズ、解像度だけではなくパネルの品質そのものも高まっている模様にょ。
特に裸眼3Dに関しては急速な進化をしているため1年前の製品はすでに旧世代といっても
いいレベルだからね。
すでに完成されてる普通の液晶パネルならば1年程度で大きく変わることはないけれど
まだ完成の域には達していない裸眼3Dは最新のものが望ましいにょ。
そのため後述(3)のように今は3Dは要らないけど将来は必要になるかもしれないと思って
いる人は今の時点で3Dデジカメに手を出す必要はなく必要になってから手を出すのが良い
ということもいえるにょ。

(3)のHDMI出力というのはあるのとないのとでは非常に大きな差があるにょ。
普通の(3Dではない)デジカメで撮影した動画はメディアに記録した動画をPCで読み込む
ことでどんな形式だろうと再生できるし、AVCHDで記録してあるならば家電としては
デファクトスタンダードな形式であるため各種Blu-rayプレイヤーやプレステ3などで
再生可能になるにょ。

しかし、3Dに関してはそう簡単にはいかないにょ。
それはデファクトスタンダードな形式のものがない上に8月12日に書いたように3D対応TVは
まだ普及にはほど遠いし普及の速度も極めて遅いものになっているからにょ。
頼みの綱であるPCにおいても3D液晶パネルが標準搭載のPCはまだほんの一部に過ぎないし
デジカメで撮影した3D動画のためだけに別途3Dモニタを買おうとする人はほとんど
居ないからにょ。

W1ではそういうこともあったのかHDMI出力は考慮されていなかったにょ。
どうしても大きな画面で鑑賞したければ専用の3Dフォトフレームを買うしかなかったにょ。
しかし、ここ数ヶ月でわずかながら3D液晶TVの普及率が上がってきているため3D対応TVで
鑑賞したいというニーズがあったのかW1が発売されて半年余り経った後に別途専用
プレイヤーが用意されたにょ。
http://dc.watch.impress.co.jp/docs/news/20100422_362943.html

さて、W3で気になるのは価格だと思うにょ。
3Dデジカメはレンズとセンサーのパーツに関していうとデジカメ2台分のコストがかかって
しまうためどうしても割高になってしまうからね。
W1は発売当初の実売予想価格が約6万円だったのに対してW3の実売予想は4.8万円となって
いるにょ。
安くなったというのはパーツ自体のコストダウンの影響もあるだろうけどやはり最初の
モデルは開発費が多くかかるということと販売数量が読みにくいという点があるため割高の
価格設定にせざるを得なかったというのが理由だと思われるにょ。

要するにW3は開発コストが下がった分に加えてW1の販売実績からある程度の量産を見込んで
いるために機能アップしたにも関わらず約2割の低価格化が実現できたということにょ。
ただし、これでもまだ3D機能を除いた場合に同クラスのデジカメと比較して割高感は
否めないにょ。
レンズやセンサーは2台分必要な時点で非3Dのデジカメと同価格を実現するなんて不可能
なのだけどこれは量産によって徐々に差は縮まっていくと考えられるにょ。

W3は価格は頑張っていると思う(とはいえ、価格がこなれたW1と比べれば高価になって
いるけどこれは1年前の機種だから仕方がない)けれど3D以外の面でやや不利になって
いる部分があるにょ。
それはサイズとバッテリ駆動時間にょ。
サイズは3Dデジカメ(デジカメ2台分)として考えればコンパクトだけど光学3倍ズームの
コンデジとして考えるならばセンサーサイズやレンズの明るさの割りに大柄であり、しかも
バッテリ駆動時間は公称(CIPA測定値)で150枚というのは近年のデジカメでは最低クラス
となっているにょ。
これは何度も書いているように「2台分だから仕方がない」と考えれば納得はできる
もののユーザー視点では「3Dが絶対に必要」という人を除けば選択対象外になって
しまいかねないものにょ。

現状では3D撮影ができるデジカメではオンリーワンといってもいい状態(WX5やTX9では
静止画の3D撮影はできるもののこれはスイングパノラマモードに限定される)だから
多少デメリットがあっても現状で3Dが必要という人にとっては心強いものになるにょ。
しかし、現在3D鑑賞環境を所持しておらず将来3Dで撮りたくなるかもしれないという
レベルであればおすすめしがたいにょ。
それはTVであれば10年間同じ機種を使う人は少なくないけどデジカメを10年間同じ
機種を使うという人はほとんど居ないからにょ。
確かに黎明期から発展期にかけて(90年代〜2000年代初頭)のような急速な進化はない
ため使おうと思えば10年間使えないほどではないとはいえ、3Dを使いたければ本当に
必要になった時に買うのがベストだと思われるにょ。

機能面やバッテリ駆動時間や多少の割高感が許容でき3D→2Dへの変換を手間だと感じない
人であれば将来のために3D写真、3D動画を撮り溜めておくというのはありだけど私は
気軽にPCなどで鑑賞できることがデジカメの最大の魅力と感じているためそれを
スポイルしてしまうような使い方はさすがにできないからね。(今は2Dしか使わないから
そんな手間を考える必要ないというのならばなおのことこの機種を選択する意味はない)
それを考えると3Dカメラはすでに3D対応TVを買っている人(もしくは近いうちに購入
予定の人)だけが買うべきものだと感じるにょ。
3D機能を使わなけばW3は特に魅力を感じるようなデジカメではないからね。(価格が
高価ということもあり、絞り優先やマニュアル露出機能がついているというのはやや
魅力だけどそれでこの機種を選択するようなレベルではない)

W3がヒットすれば他のメーカーも追従するだろうけど上記理由によってある程度の需要こそ
あれ、そこまでヒットするとは思えないのでほとんどのメーカーは現状では様子見だと
思われるにょ。
やはり、8月12日に書いたけど3D対応TVさえ普及していない現状では3Dは大きな「ウリ」には
なりにくいというのが最大の要因にょ。

342御茶目菜子:2010/08/19(木) 13:32:07
U3400搭載CULVノートは待つだけの価値はあったのか・・・?
セレロンU3400を搭載のCULVノート「UL20FT」が発売されるにょ。
http://plusd.itmedia.co.jp/pcuser/articles/1008/18/news029.html
CULVノートはモバイルノートを買うには予算的には足りないけどAtom搭載のネットブック
では性能面で物足りないという人にはおすすめの製品となっているにょ。
実際CULVノートに搭載のCPUはモバイルノート用のCPUと同じだからね。(同クロックの
場合において)
軽量化などにコストをかけてないために安価となっているわけにょ。

CULVノート向けのCPUは5月末にいくつかラインナップが発表されこの夏には多くの機種が
モデルチェンジをしたにょ。
Core2(Penryn)ベースのCPUからCore i(Arrandale)ベースのCPUへとモデルチェンジ
したわけだけどこれは新しい方が速いとは一概には言えないにょ。
それは7月8日にも書いたように新しいArrandaleベースのCPUの方がクロックが低いため
アーキテクチャの変更などを考慮しても速くなるとはいえないからにょ。
したがって、CPU性能で従来のPenrynベースのCULVノートより速いものが欲しければ
ターボブーストやHTTがあるCore i5以上を搭載した機種を選択すべきとなるわけにょ。
ただし、ターボブーストは廃熱が十分でないと機能しないためそれを過信するのも
あまり良くないにょ。

コスト優先でCULVノートを買うのであればやはり安価なセレロンモデルを買うのが最も
コストパフォーマンスで優れるにょ。
セレロンは性能がイマイチで省電力機能もないためにバッテリ駆動時間が短いという
問題点があったけど5月26日に書いたようにセレロンM以降は性能面の低さはほとんど
無くなりCULV用のセレロンSU2300ではセレロンとしては初めてSpeedStep機能が搭載
されたためにバッテリ駆動時間の短さも克服されたにょ。(SpeedStepはCore2と比べると
簡易的なものなので過信は駄目だけどそれでもあるのとないのとでは大きな違いがある)
したがって、コストを優先する場合セレロンSU2300搭載のCULVノートを買うというのは
「安かろう悪かろう」ではなく賢い買い方の1つといえるわけにょ。(実際にCULVノートで
最も売れたのはSU2300搭載モデルだと思う)

さて、そんなセレロンSU2300はArrandaleベースのセレロンU3400にモデルチェンジした
わけだけどSU2300が非常に優秀だっただけにその期待は高いにょ。
とはいえ、7月8日に書いたようにすでにCore i3のベンチ結果が分かっているために
U3400の結果はCPUコアは同じであることから予想はできているけどね。
それでもSU2300とU3400の比較レビューは今回が初めてだと思うのでじっくり見てみる
ことにするにょ。

        UL20A    UL20FT   UL20FT(Turbo33)
        SU2300    U3400   U3400+33%OC
 PC Mark05
  CPU     3096     2577     3435
  Memory    3181     3025     4084
  Graphics   1329     1673     1730
  HDD     4496     4980     5021

UL20FT(Turbo33)について書いておくにょ。
UL20AはセレロンSU2300(1.2GHz)なのに対してUL20FTはセレロンU3400(1.06GHz)で
UL20FTには独自に33%CPUのクロックを上げる(オーバークロック機能)が用意されて
いるにょ。
これはCPUに搭載されている機能ではなくソフトウェア的に行っているOCであるため
廃熱さえ十分であればフリーウェアによって他のノートPCでも実現は可能な機能であり
あくまで参考掲載とするにょ。

さて、この結果を見るとやはりCPUスコアは動作クロックがかなり影響していることが
分かるにょ。
SU2300とU3400の動作クロックは13%差でCPUスコアは20%差ということでクロックあたりの
性能ではU3400の方がやや低いといえるにょ。
測定誤差を考慮した場合でも良くてクロック当たりの性能は同レベルとなりそうにょ。
したがって、クロックが低いU3400はSU2300よりも性能が低いといえるかもしれないにょ。
もちろん、CPUによって得手不得手があるからあくまでPCMarkにおける場合だけど
下記のFFベンチでもそれが当てはまったためPCMark05が例外というわけではないと
思われるにょ。

ただし、UL20FTには上記のように33%のOCをするモードが用意されているにょ。
これはスライダー1つで使用可能になるため非常に簡単に使える(ただし、廃熱面には十分
気を付ける必要がありそう)けれどCPUスコアはこれによって33%アップとなりクロック
上昇に比例したスコアとなっているにょ。
これによってUL20FT(Turbo33使用)はSU2300の性能を超えているにょ。
CPU性能的にはU3400はSU2300より下といってほぼ間違いないけどUL20FTはそれを克服
しているため一概にU3400搭載機は性能が低いとはいえないにょ。

あと気を付けないといけないのはPCの性能はCPUだけでは決まらないということにょ。
7月29日にも書いたようにGPU性能も重要になってくるからね。
Core i3搭載のCULVノートは従来のPenrynベースのCULVノートより高い3D性能を持つと
いうことがベンチ結果から言えたにょ。(ただ、VAIO Yのベンチ結果は不自然なくらい
性能アップになっていたのが疑問だけど)
これはCPU性能が互角であるということを考えた場合であり、CPU性能が劣っている
SU2300とU3400ではまた結果が変わってくる可能性があるので見てみるにょ。

        UL20A    UL20FT   UL20FT(Turbo33)
        SU2300    U3400   U3400+33%OC
 3DMark06    727     1070     1044
 FFXI Bench3
  LOW     1841     1668     2256
  HIGH     1285     1148     1456

FFベンチの方を見ると上記のCPUスコアと同じようにUL20FT<UL20A<UL20FT(Turbo33)
となっているけどこれはFFベンチのスコアがCPU性能に大きく影響されてしまうためにょ。
CPU性能の影響をあまり受けない3DMark06の方を見てみるとUL20FTはUL20Aよりも明かな
性能アップが見られるのが分かると思うにょ。
これはU3400に内蔵のIntel HD GraphicsがSU2300のチップセット(GS45)に内蔵の
GMA4500よりも性能が高いということを意味しているにょ。
とはいえ、これはあくまで「比較した場合に高い性能がある」というだけであって
昨今の3Dゲームをするにはやはり性能不足は否めないにょ。(Aeroくらいなら十分に
快適動作する)

あと33%のOCをしたTurbo33使用時はスコアが下がっているけどこれは測定誤差という
可能性があるにょ。
もっともリンク先のレビューでの考察に書いてあるように廃熱が追いついていないため
クロックが上がってないということも考えられるけどね。

そういうわけでCULVノートのメインとなっていたセレロンSU2300搭載機は今後U3400搭載
へとモデルチェンジすることになるけどこれによって性能は下記のように変化するという
ことがいえるにょ。

   CPU性能   SU2300>>U3400
   GPU性能   SU2300<<<<<U3400 (※SU2300はチップセット内のGPU)
   (※不等号が1つあたり概ね1割の性能差)

次世代のCULVノート(ArrandaleベースのCPUを搭載の新機種)をわざわざ待って買うまでも
ないと5月26日に書いたのだけど今回ようやくCULVノートのメインとなるU3400のレビューが
出てきたことによってその考えは間違いではないと言えることになったにょ。
低価格で「少しでも高いGPU性能」を求めるのであればSU2300搭載機ではなくU3400搭載機が
発売されるのを待って買うという選択肢は間違いではないといえるけどそうでなければ
U3400搭載機は発売を待つだけの価値がないと今回の比較レビューで多くの人が感じたこと
だと思うにょ。

343御茶目菜子:2010/08/20(金) 13:23:59
Nikon D3100は最強のエントリー向けデジイチか!?
コンデジではHD動画が当たり前の機能になって久しいにょ。
ローエンドモデル(エントリーモデル)ではHD動画に対応した機種は皆無なのだけど
5年前から急速に普及しており今では搭載されているのが当たり前となる機能である
光学式手ぶれ補正さえ搭載していないのだからHD動画機能を搭載していなくても驚く
ことではないにょ。(エントリー向けの手ぶれ補正機能はほぼすべて電子式となっている)
これはコスト面もあるけど差別化のために実装していない可能性が高いからね。

それよりもむしろ驚くことはハイエンドなコンデジにHD動画が搭載されていない機種が
多いということだと思うにょ。
ローエンドならばコスト面の問題は確かにあるけどハイエンドではコスト面の問題は
少ないのに・・・。
これはハイエンドなコンデジを買う人は動画をあまり重視していないということもある
ためメーカー側もあえて実装していない可能性もあるにょ。
しかし、HD動画を求める声は徐々に増えているせいか、PowerShot S90の後継機種である
S95はHD動画機能が導入されたにょ。
http://dc.watch.impress.co.jp/docs/news/20100819_387759.html

コンデジではこのようにHD動画機能が当たり前になったのはここ2、3年のことだけど
動画機能そのものは90年代初頭から当たり前の機能になっているにょ。(当時は160x120で
音声無しとかいう非常に貧弱なものが多かったけど)
デジタル一眼では2年前に発売されたNikon D90によってようやく実現されたにょ。
デジタル一眼はセンサーサイズが大きく読み出し時間がかかる上に熱問題が大きい上に
撮影中はファインダーが真っ暗になるためライブビュー機能が必須だし、動画とは相性が
悪い位相差検出方式であるため動画を撮影するのに向いていないというのがD90まで
動画撮影可能な機種が登場しなかった理由だと思われるにょ。

しかし、ここ1、2年で動画撮影機能を搭載のデジタル一眼は急速に増えたにょ。
そのセンサーサイズの大きさを活かした動画は業務用の大型カメラで撮影したのと同じ
ような効果が得られるためハイアマチュアや一部のプロに受け入れられデジタル一眼で
撮影されたTV番組や劇場用映画も増えつつあるにょ。
http://dc.watch.impress.co.jp/docs/news/20100816_387085.html

世界初の動画撮影機能搭載のデジタル一眼D90を送り出したニコンだけどそれ以降大きな
改善はなく、今では追従したキヤノンの方が圧倒的に動画機能で勝っているにょ。
ハイアマチュア向けの中級機であればまだ動画なんて要らないという人もいることだろう
けれど入門機の場合はコンデジからステップアップした人も少なくないため動画が撮れる
かどうかを重視している人も多いにょ。
キヤノンの方はEOS Kiss X4は入門機としては最強の動画機能を持っているのに対して
ニコンの方は入門機下位のD3000は動画機能無し、上位のD5000も前年発売のD90と大差ない
動画機能だから動画でデジタル一眼を選ぶのであればニコンは対象外という状況だったにょ。

しかし、今回ニコン初のフルHD動画対応デジタル一眼レフ「D3100」を発表したにょ。
http://dc.watch.impress.co.jp/docs/news/20100819_387845.html
フルHDのH.264コーデックの動画が撮れるだけではなくビデオカメラのようにフルタイム
AFで撮影できるため撮影のハードルもかなり低くなったにょ。
動画を撮るならニコンは対象外という状況もこれで克服されそうにょ。

このD3100は型番的にはD3000の後継となると思われるにょ。
D3000は発売当初からボディ単体で5万円台の低価格だったけど発売されて1年近く経つ今では
3万円台まで下落しており動画が要らないのならば今回のD3100で旧機種になるとはいえ
依然としてお買い得感は高いにょ。
すでに1年経って価格下落している製品との単純比較はあまり意味がないけど発売当初の
価格でさえ1万円アップとなったのは少々辛いし、液晶が23万画素で据え置きというのも
いくら入門機といえ物足りない面もあるにょ。

動画は格段に従来機より高性能化しているけどやはりデジタル一眼ならば静止画が重要
だと思うにょ。
センサー性能自体はD3000、D5000は悪くないけどEOS Kiss X4を見た後では世代の違いを
感じてしまうにょ。(キヤノンは比較的ノイズの誤魔化し方が上手いのもあるけど)
D3100に搭載されているのは恐らくNEX-3/NEX-5に搭載されているものと同じものだと
思われるにょ。
NEX-5については5月21日に書いたけど描写性能に関しては大きな不満を持ったにょ。
とはいえ、これは無理に小型化したレンズの性能がボトルネックになっているというだけ
であって、センサー性能自体はEOS Kiss X4よりも上であると感じたにょ。
1400万画素のD3100であれば1800万画素のEOS Kiss X4よりもレンズに対する要求スペックが
低いためにレンズがボトルネックになりにくいというのは画素数が少ないことが逆に
場合でもアドバンテージといえるかもしれないにょ。

EOS Kiss X4の完成度があまりに高いのでD3100でようやくまともに戦えるようになった
というレベルにすぎないにょ。
今は(2年前に登場であるため)価格下落によって入門機並の価格帯になったD90がX4の
実質的なライバルであり、D3000は価格重視の人向けだったわけだけどようやくX4と同価格
帯でまともに戦える入門機が登場したということにょ。(D5000は価格面、性能面で
中途半端な感じ)

とはいえ、逆に言えば同社のD90とシェアを奪い合うハメになりかねないにょ。
私もD3100は少し欲しいかなと感じるけど買うとすれば多少の古さを考えてもペンタ
プリズムフィンダーを搭載の中級機であるD90にするかもしれないにょ。
D90もその後継機種(D95?)の登場が噂されているため価格面では入門機レベルではなく
なるけれどそうなると今度は価格が下落しているD300sとぶつかってしまうため中級機は
まとめて新機種へとモデルチェンジの必要性がありそうにょ。(D300sの後継機は年内には
登場しないらしいけど)

ソニーが8月24日、オリンパスが25日、キャノンが26日に新製品発表会を開く予定となって
いるにょ。
ソニーはα33、α55、オリンパスはE-P3、キャノンは中級機であるEOS 60Dを発表すると
噂されているにょ。
興味を惹く機種に関してはまたここで書くことにするにょ。

344御茶目菜子:2010/08/21(土) 13:21:25
紙の書籍だけでは生き残れない
7月23日には米国では条件付きながら電子書籍が紙の書籍を売上を超えたということを
書いたにょ。
日本においてはケータイ向けに雑誌や漫画やグラビアなどを配信しているもののまだ
本格的には書籍のネット配信サービスは開始されてないにょ。

電子書籍が紙の書籍を超えることなどできないから問題ない・・・という考えもあるけど
それは紙の書籍だけで商売が成り立っている間だけの話にょ。
今後5年で日本の書籍市場全体の売上は現在の3割減になるという試算が出ているにょ。
http://pc.watch.impress.co.jp/docs/column/mobile/20100820_388236.html

売上減が直接影響するのは販売店(書店)にょ。
ただし、書籍には再販制度と委託販売制度(返本制度)が導入されているにょ。
その2点をそれぞれ見ていくにょ。

まず、再販制度だけどこれは定価販売を強制する制度であり、著作物の一部が対象と
なっているにょ。
その一部というのが書籍、雑誌、新聞、音楽CDにょ。
この再販制度によって全国どこの書店に行っても同じ価格で書籍を購入することが可能に
なるだけではなく値崩れというものがないため古い製品も比較的買いやすくなって
いるにょ。

もしも再販制度が無ければ競争力は上がるだけどうけどその反面書店の店頭は売れ筋
以外は置かれなくなってしまうかもしれないにょ。
再販制度に関しては賛否両論あるけれど海外では再販制度を導入しているところは
徐々に減ってきているにょ。
また、再販制度にも時限制を導入している国も多いにょ。
日本においても音楽CDは再販制度の効力は1年の時限制となっているにょ。
ただし、後述の委託販売制度により値引きされずに返品されてしまうことが多いにょ。
書籍も時限制の再販制度になれば効力が切れた古い書籍はどんどん返本され古い書籍が
店頭から消えてしまう可能性が高いにょ。

次にあるのは委託販売制度、つまり、返本制度にょ。
書籍は出版社から取次店に出荷され、そして書店に出荷されるにょ。
出版社はその本が売れなくても取次店に出荷した時点で代金を受け取るのだけど書店は
返本が可能であるため一定期間をすぎたら返本するにょ。(週刊誌の場合は、当然
発売から1週間で返本となる)

返本された分に関しては出版社が代金を返す必要があるにょ。
ただし、その全額を負担するわけではないにょ。
というのも新しい書籍は随時販売されているためそれと相殺で計算されるためにょ。
ある程度は返本対策の予算をプールしておく必要はあるけどね。
かといって、すべての書籍に対して返本制度が導入されているわけではなく一部の書籍は
対象外となっているにょ。
それには受注生産となるOVA付きのコミックス等やハリーポッターなどがあるにょ。
ハリーポッターの日本語版を出版している静山社はハリーポッター以外に大きく売れる
出版物がないため上記のように返本代金を新たな出版物で相殺ができないにょ。
そのため返本不可にしているにょ。(その代わり卸値を下げている)
あとお客から特注の本に関しても同様に返本不可となっているにょ。

ここまで書くと書店、取次、出版社の役割分担が分かると思うにょ。
出版社にとって書店はお客へと販売するための大事な窓口であり、(出版社にとって)
取次は代金の支払いをしてくれる顧客であり、書店への配本を調整する役割も担って
いるにょ。

では、ここで売上が3割減になり書店が閉鎖した場合のことを考えてみるにょ。
ある程度の返本に対しては新規発行分で対応できるため問題ないけど閉鎖によって
大量返本があった場合は出版社が連鎖倒産してしまう可能性があるにょ。
もっとも上記のような小さな出版社の静山社のようなものでない限りはそれなりには
プールしているためよほどの数がない限りは大丈夫だろうけどね。
売上がどんどん減っていけば徐々に返本による影響が大きくなるためかなり厳しい状態に
なってしまうにょ。

さて、国内の音楽市場を考えてみるとCDの売上は2000年頃をピークに年々売上は減り続けて
いるにょ。

http://www.riaj.or.jp/data/cd_all/cd_all_m.html
 2000年 5239億円 41405万枚
 2005年 3598億円 30126万枚
 2009年 2460億円 21006万枚

しかし、CDを買う人が減っただけであってiPodの爆発的な普及、ケータイの着うたの
ダウンロードなどで音楽を聴く人自体はそれほど減っているわけではないと思うにょ。
ネット配信に関しては2005年以降の資料しかないけどそれを見てみるにょ。

http://www.riaj.or.jp/data/download/index.html
 2005年  343億円
 2009年  853億円

2005年と2009年において音楽CDとネット配信の合算を行うとこのようになるにょ。
 2005年 3941億円
 2009年 3313億円

確かに4年間では減っているもののネット配信があることでかなり救われているにょ。
ネット配信が無かったらCDを買っていたというユーザーもあるから単純に音楽配信分
だけ増えたとは言い難いけれどそれでも確実にプラスに働いていると思うにょ。
CDの売上が減ったのは違法ダウンロードによる影響を重要視する見方が多いけどそれが
正しいとすれば公式にネット配信をすることで違法ダウンロードユーザーの増加を抑制
しているということがこの結果から見えてくるにょ。

では、書籍はどうなのか・・・?
上記リンク先の試算では書籍のみで5年間で2700億円くらい売上が減ると予想されて
いるにょ。
また、これに雑誌の売上減も加えるとさらに大きくなるにょ。(国内の電子書籍&雑誌の
昨年度の全体売上は464億円)
書籍よりも雑誌の方が近年落ち込みが厳しくなっているからね。
これはWeb普及によって情報の多くがネットで入手可能になったため雑誌の相対的な
価値が落ちてしまったというのもあるにょ。
ぴあ(関西版)も10月発売号をもって休刊となるにょ。
http://www.asahi.com/national/update/0730/OSK201007300075.html
一部の雑誌では付録によって売上を大きく伸ばしているためやはりネットの影響が
大きいということがいえそうにょ。(現在の技術では立体物はダウンロード不可能)
http://blog.livedoor.jp/geek/archives/51047802.html

そうなると早めに手を打たないと本当に手遅れになってしまう可能性があるにょ。
書店が倒産してもアマゾン等のネット通販が生き残るもののそれだけで需要を十分に
満たすのは難しいにょ。
ネット配信サービスというのは店頭販売があって初めて生きてくるからね。
雑誌も定期購読しているものでなければ書店で立ち読みして気に入ったものを買うと
いう人も少なくないだろうから書店が無くなれば販売機会を失うことになるにょ。

現状で出版社が電子書籍に対してあまり本腰を入れないのはそういった書店保護という
考えはできるものの本質的なものはそこにはないにょ。
日本においては書籍の著作権管理が欧米よりも複雑だというのもあるけどやはり電子
書籍には紙の書籍にある再販制度が適用されないというのもありそうにょ。
再販制度が適用されないということは価格の拘束力がないわけなので書籍に対する
絶対的な価値(=額面価格)というものが無くなるにょ。

例えば紙の書籍で1000円の本が電子書籍で500円だったらその本の価値は500円程度と
ユーザーは感じてしまうにょ。
音楽もネット配信によってCDの価値が下がったことによる売上低下は否定できないにょ。
上記結果ではCD売上が下がっても配信が伸びているため問題ないと考えられるけど
書籍で同じようにできる保証はないにょ。
かといって電子書籍に再販制度を導入するのはナンセンスにょ。
紙の書籍で1000円の本を電子書籍として1000円で買いたいかというとほとんどの人が
そうは思わないだろうからね。
最初から自炊(=自分でスキャンしてデジタルデータにする人)目的で買う人ならばその
手間が無くなるため電子書籍の方が良いと感じるだろうけど・・・。

電子書籍が現時点でまともにネット配信されてなくても現時点でも自炊した人のデジタル
データがネット上に不正に流通しているため音楽配信のように公式配信がないと売上は
落ちる一方にょ。
音楽も配信の方が主流になりつつあるけどコレクターの人はやはり現物を買う(デジタル
データではなくパッケージ品を買う)ということもあるので完全には廃れないにょ。
紙の書籍も同じように「現物を買う」という人がいるため完全に廃れるような時代は当分
やってこないだろうけどそれまで何もしなければ出版社も生き残ることはできないにょ。

345御茶目菜子:2010/08/22(日) 13:48:58
上記の続き
(3)がやはり非常に大きいにょ。
中古を扱っているチェーン店は人気作品の配分数が少なめになってしまうと(2)に書いた
わけだし、そもそも新品ソフトで利益を出すこと自体が難しいにょ。
そうなると中古ソフトに頼らざるを得なくなるにょ。
スーファミ時代まではゲームソフトがROMカートリッジということもあり一旦新品の在庫が
無くなると数ヶ月後の再生産までユーザーは新品ソフトの入手はできなかったため
中古の意味合いは非常に大きかったにょ。

これはゲームの主流がCD-ROMに代わり最小ロットが小さくなっただけではなく生産までに
かかる時間が短くなったにょ。
昔は金曜発売がメインだったゲームソフトの発売日が木曜発売がメインとなったのは
発売日に売り切れや品薄になったソフトをすぐに発注をかけることでその週のうちに
入荷を可能にするためにょ。

それによってゲームソフトの販売は専門店から量販店がメインに変わっていったにょ。
量販店であれば品揃え、在庫量ともに豊富だからね。
これはすぐに生産が可能なCD-ROMだからこそできることであり、新品のみを扱うことで
優先的にメーカーから製品提供してもらっているお陰にょ。
中古には新品よりは安い(ただし、人気ソフトは新品中古の差はほとんど無いだけでは
なく異なるショップでの比較であれば新品、中古の価格逆転現象を引き起こしている
ことは良くある)、生産終了ソフトも入手可能、飽きたゲームやつまらないゲームを
買い取ってもらって新しいソフトの足しにするというユーザー側のメリットがあるにょ。

しかし、大手量販店での購入割合が増えたことや廉価版(ベスト版)の継続的投入などに
より新品ソフトの割合が増えているのは事実にょ。
中古ソフトはショップにとっては品揃えのため(人気ソフトは入荷が難しく、古いソフトは
コスト面を考えるとあえて新品を入荷するのが難しいため)だけではなく利益確保のため
でもあるにょ。
新品ソフトはワゴンセール(特価セール)になること無しに全品完売したと仮定しても
5%程度の利益しかないのに対して中古ソフトは20〜80%程度の利益があるからね。
つまり、回転率の高い人気ソフトは中古売価の80%程度の価格で買い取りして(超品薄
商品に関しては90%程度になることもある)、回転率の低い商品は中古売価の50%から
20%程度で買取をしているということにょ。(例えば中古売価3980円のソフトを半値の
2000円で買取して、そのソフトがしばらくして2480円に値下がりしたら利益率は約19%
となる)

それにゲームソフトは実際にプレイしてみないと自分にとって面白いかどうかは分から
ないため気に入らなければ中古ショップの存在を重要視している人もいると思うにょ。
しかし、最近は体験版の配信を行うゲームもあり、そのような状況は失われつつあるにょ。
新規作品はユーザーが敬遠して売上が伸びずヒット作品の続編ばかりになってきている
昨今のゲーム業界においてPSPの「ゴッドイーター」は体験版のダウンロード数が100万を
超えその影響で販売数もPSPの新規タイトルとしてはほとんどない販売数50万本突破を
記録したにょ。
このような体験版配信が増えれば(買ったものの自分に合わないため)発売直後に中古
ショップに流れるという事態はかなり回避できるのではないかと思うにょ。

また、WiiのVC(バーチャルコンソール)のようなネット配信も中古を扱うショップに
与える影響は大きいと思うにょ。
ネット配信自体は現時点ではパッケージ品と棲み分けができていると思うにょ。
ネット配信でパッケージ品と同じゲームが買えるPSPもgoの不振を考えるとあくまで
ネット配信はパッケージ品を補うだけの存在しかないと思われるからね。
VCはパッケージ品とはほとんど競合しないにょ。(プレイ時間を奪われるという面に
関してのみ競合となるけど)
影響があるとすればレトロ商材(生産終了した古いゲーム機用ソフト)を扱う中古
ショップにょ。
現行ゲーム機に関しては上記のように中古市場がかなり厳しくなっているために専門店の
唯一の生き残り策としてレトロ商材が人気を集めているけどその市場もネット配信に
よってかなり厳しくなってきているにょ。(現物をどうしても手に入れたいという需要は
確かにあるもののショップの運営費用を天秤にかけると存続は厳しい)

このように売上と利益率の双方でダウンしてしまった専門店はよほどライバル店が少ない
地域以外はどこも厳しい状況になっているにょ。
それらの要因が重なり合いここ10年でゲーム専門店は激減してしまったにょ。
恐らく今後も減り続けると思われるにょ。

とはいえ、このような専門店が無くなってもメーカーにとっては全く問題がないにょ。
昨日書いた書籍市場においては書店が閉鎖したりすればユーザーの目に触れる機会が
減るために売上が落ちるという出版社側のデメリットがあるもののゲーム専門店が
無くなったところでゲームを扱うショップ自体は無くなるというわけではない・・・と
いうかここ数年の流れでゲームの販売量は量販店などのゲーム売場を併設している
ショップの方が専門店よりも多くなっているくらいだからね。
これはメーカーによる新品ソフトの出荷コントロールの影響もあるし、中古ソフトは
予算の面や生産終了などの理由で現行ハード用の新品ソフトが買えないユーザー向けでしか
なくなっているというのも絡んでいるにょ。
スーファミ時代のような中古バブルはもう来ないにょ。



ちなみに今回書いた内容の一部のについては私が発行した「おちゃめ通信」の第8号、
第9号にさらに詳しく書いているにょ。(ともに99年発行)
第8号の内容はこんな感じになっているにょ。

 第8号 表面左 表面右 裏面左 裏面右

文字が小さくて読みにくい部分もあるけどサーバの空きの問題でこれが限界だったにょ。
空きがないため次に別のファイルをアップロードしたら消す予定にょ。
もしも、大きな字で読みたいとか別の号を読みたいという要望があれば適当なサーバを
借りてそこにアップロードしてみるにょ。

346御茶目菜子:2010/08/22(日) 13:50:09
ゲーム専門店はもう生き残れない
ゲームショップ「TVパニック」や「wanpaku(わんぱくこぞう)」を運営する業界No.1の
チェーン店を展開しているネステージが先日民事再生法の適用を申請したにょ。
簡単に言えば倒産したということにょ。(正しく言えば倒産直前だけど)
http://www.asahi.com/business/update/0812/OSK201008120138.html

ファミコンブームによって80年代後半からゲーム専門店が各所に多く作られ全国チェーン
展開する企業も多く現れたけどプレステが全盛時の90年代後半になって雲行きが怪しく
なり、1999年には「ブルート」が倒産したにょ。
それ以降、大型チェーン店の倒産が相次いだにょ。(97年には「カメレオンクラブ」を
運営する上昇が倒産したのが有名)
直営店に関しては別のチェーン店を運営する企業によって支援されたりということで
民事再生法によってすべてのチェーン店が閉鎖という自体にはなってない(今回の
ネステージもゲオの支援があるためいきなり全店閉鎖というわけではない)ものの厳しい
立場にあるのは確かにょ。

昨日は書籍売上に書いたけどゲーム市場に関して言えばここ数年ではオンラインゲームの
伸びが大きく、ここ1年ではソーシャルゲームの伸びが非常に大きいにょ。
http://www.8ing.co.jp/market/index.html
http://japan.internet.com/wmnews/20100628/2.html
肝心のコンシューマゲームに関してはほぼ横ばいといった感じにょ。
これはケータイなどに食われてなくて棲み分けができていることを意味しているにょ。
任天堂が新規ユーザーを開拓してようやく横ばいということは普通にコンシューマゲームが
進化していたら今はかなり減少していたという可能性もあるわけだけどね。

それもあくまでここ数年の話にょ。
もう少し遡ってみれば90年代半ばと比べると今は3分の2程度に落ち込んでいるにょ。
http://www.famitsu.com/game/news/2005/07/14/103,1121342453,41325,0,0.html
コンシューマゲーム機の場合はほぼ5年ごとにモデルチェンジが行われそれによって
市場規模が変わってくるにょ。
発売直後は新ハードの影響はあまりなく旧ハードのゲームの落ち込みを相殺できない
けれど発売して1、2年経つと新ハードが普及し、それによってソフトの売上が伸びていき
また4、5年経つとその伸びが落ちてくるというパターンを繰り返しているにょ。
90年代半ばはスーファミスーファミ黄金時代の最期であり、プレステとサターンが熾烈を
争う戦いを繰り広げられていた時期にょ。
旧世代のハードの市場が落ち込む前に新ハードで盛り上がっていたという希有な時期で
あるためこれは特例的なものだといえるにょ。

それを元に考えるとここ10年余りでゲームショップの閉鎖が相次いでいる理由は見えて
くるにょ。

主な理由は下記の3つにょ。

 (1)ショップ数が増えすぎた
 (2)流通の変化
 (3)中古ビジネスの崩壊

まず(1)から書いていくにょ。
ファミコン以前はゲームはおもちゃ屋の一角でのみ販売されていたけどファミコンブーム
によってゲーム単独でも商売として成立するようになったにょ。
それは任天堂がサードパーティ制を取り入れたために多くのメーカーがファミコン用の
ソフトを制作したというのが大きいにょ。
ソフトが多く発売されることで中古ゲームビジネスも成立するようになったにょ。

これによって「ファミコンゲームは儲かる」という認識が強まりゲームショップを
運営するオーナーは一気に増えたにょ。
それによって全国チェーン展開をするショップも出てきたにょ。
儲かるのが分かっていても商品供給の問題やノウハウの問題があり脱サラしてゲーム
ショップを始めるというのはハードルが高いものだったにょ。
そこで有用なのはフランチャイズ加入にょ。
これはゲームショップに限ったものではなくコンビニなど他の業種でも言えることだけど
直営店とFC(フランチャイズ店)があるにょ。

FCのメリットとしては上記のような商品供給とノウハウの提供(商品情報や商品管理の
システムの提供を含む)だけではなくチェーン店に加入するというメリットがあるにょ。
例えばコンビニでも初めて行くならば個人経営の名前の知らない店よりもセブンイレブンの
方が安心して店に入れるからね。
大手チェーンだと品揃えも安心できるからね。

ではチェーン店に加入することがプラスになるかというと一概にはそうとはいえないにょ。
例えば上記のwanpakuを例に挙げると加入するためには加盟金が100万円、補償金が
200万円必要になるにょ。(アパートでいえば補償金が敷金、加盟金が礼金に相当)
そして、開店するために必要な什器や商品も強制的に購入させられてしまうにょ。
確かにショップをオープンしたけど売るものがありませんとかでは話にならないので
チェーン店として相応しいレベルにしておかなくてはならないため仕方がないけどね。
あとオープン後は毎月12万円のロイヤリティと4.2万円のPOSレジ貸与料を支払う必要が
あるにょ。

チェーン店に加入するメリット、デメリットはあるものの金銭的負担が大きくても
90年代はゲームが売れている時期だったので十分に回収できる見込みがあったにょ。
また後述の(2)の流通の問題もチェーン店に加入することが重要となったからね。
これによりゲーム専門店は90年代に急速に増えていったもののコンシューマゲーム市場
そのものが90年代半ばと比べると3割減であるため需要に対して店舗数が増えすぎた
ために淘汰されていったということにょ。(市場規模3割減でショップ数が大幅増では
耐えられるはずがない)
フランチャイズ店がどんどん加入するうちは補償金がどんどん入ってくるためチェーン
展開をする本部も運営資金に余裕があるけど売上が低迷し、脱会すれば預かっている
補償金をFCのオーナーに返却する必要があるため資金面でどんどん厳しくなり今回の倒産に
至る最大の要因になったと思われるにょ。(実際wanpakuも1年以上前には補償金が返却
されないという内部トラブルが発生していた)

さらに大きいのは(2)の流通問題にょ。
ゲームというのはかつてはすべてが「メーカー→問屋→ショップ」という流れで出荷
してたにょ。(チェーン店の場合はチェーン店の本部が問屋も兼ねていた)
スーファミ初期〜中期は定価の63%〜68%くらいで問屋からショップに納品されていたにょ。
ただし、この納品掛け率は問屋やゲームタイトルによって大きく変わったにょ。
ドラクエ級になると定価の90%程度ということも少なくなかったにょ。
そこでゲーム業界に革新を起こしたのがソニーにょ。
プレステによってメーカー直送というのが実現されるようになったにょ。
つまり、商品の流れが「メーカー→ショップ」になったということにょ。

プレステは全商品一律定価の75%で納品だったということでショップにおいては良いこと
(スーファミ末期や64の時代は定価を下げるために78〜80%で納品されていた)とはいえ
問題はその流通のあり方にあったにょ。
中古ソフトを扱うショップには納品はかなりコントロールされたにょ。
当時はまだ中古裁判を争っていた時期であるためメーカーにとっては「中古=悪」で
あるためプレステソフトを扱うためには中古ソフトを扱わないことが条件だったにょ。
中古裁判で販売店側が勝利して久しい今でさえ中古を扱っているというだけで公然の
差別行為が行われているにょ。

例えば品薄時の本体やドラクエ、FFのような人気ソフトは自由発注ができず、配分制と
なっているにょ。
配分は基本的に実績配分となるため過去の発注数(発注金額)によって入荷数が決まる
けれど中古を扱っているというだけで扱ってないショップの半分以下の納品数となる
ということはザラにょ。

確かにいくら品薄でも仕入れる方法がゼロということはないにょ。
二次問屋には大抵揃っているからね。
二次問屋には一次問屋からの納品に加えてショップからの納品もあるため当然のこと
ながら普通にショップに卸す金額よりも高くなるにょ。
プレステのソフトであれば80〜85%が基本だからね。
品薄時のニンテンドーDS Liteも二次問屋で扱っていたけど納品の段階で定価16800円に
対して2万円近い価格(1.8〜1.9万円)となっていたにょ。(問屋の買取金額が17000〜
17500円だったから定価を超えるのは当然だけど)
「定価16800円のDS Liteを2万円で販売するのはボッタクリ」という見方をする人も確かに
否定はできないけど「多少高価であっても欲しい」というニーズに応えるために高価な
二次問屋経由で入荷したのならば必ずしもボッタクリとは言えないということにょ。

このようにメーカーが流通にまで介入することでショップに対して優位性を持つように
なったのだけどそれ故、それ以降独自流通を行うメーカーも増えたにょ。
コナミ、コーエー、セガなどは自社流通を持っているにょ。
自社流通を持っていないメーカーはPSP、PS3のサードパーティならばSCE一択という
わけではなく条件によっては自社流通を持っているメーカーに委託する場合もあるにょ。
納品掛け率は流通によって異なるけど現在では75〜80%となっているにょ。

ゲームソフトは書籍や音楽CDとは異なり再販制度や返品制度は導入されてないにょ。
したがって、自由に競争できる反面、売れ残ったら原価割れで売ることも珍しく
ないにょ。(ただし、SCEはゲームソフトには再販制度が適用されてないにも関わらず
一時期定価販売を義務付けていた)
メーカーが流通に介入して市場(ショップ)をコントロールするという方法もあるけど
実績配分ではなく分納によってコントロールするという場合もあるにょ。
注文数量を1回で出荷するのではなく分けて出荷することで商品のダブつきを抑えるという
役割があるにょ。

ただし、この分納は時としては逆にマイナスに働くことがあるにょ。
例えばニンテンドー64ソフト「ヨッシーストーリー」はクリスマス前のベストな時期に
発売されたももの初回入荷数は実績配分数の8%でしかないにょ。
つまり、100本納品予定ならば8本しか入荷しないというわけにょ。
残りの大半はクリスマス後、年明け以降に納品されたにょ。
需要のピークをすぎて大量入荷されたために本来であれば売れたであろうソフトなのに
一気にワゴンセール行きとなったにょ。

ゲームソフトは自由競争であるが故にギリギリまで価格を下げて売ることも珍しくなく
そのためにそのような売れ残り商品があると他の製品での利益が吹き飛んでしまうにょ。
仮に78%で納品した商品を定価から15%値引きして販売して5%のポイント還元をした
場合には利益率3%もないにょ。
会員に加入してない人、ポイントカードを紛失する人が合計で半分を占めていると仮定
しても利益率は5%程度にょ。(ちなみにゲーム機の本体は定価で販売しても5%程度の
利益しかないためポイントを付けたら利益はほぼゼロになる)
利益率5%の場合、新品ソフトを100万円売ったら5万円の利益があるかといえばそうでは
なくて返品ができないため20本仕入れた商品のうち1本が売れ残ったらそれで19本分の
利益が相殺されることを意味するにょ。
だからワゴンセールでも何でも売り切るということが重要になってくるわけにょ。
ダブついているソフトをそのままの価格で放置していても価値は下がる一方だからね。

さて、ここまでは大手チェーン店に属するゲームショップの話にょ。
仮に大手のFCからハズれて独自経営する場合には流通経路から確保しないといけないにょ。
スーファミ時代までは普通に問屋から納品だったけど今はメーカー直送となっている
からね。
高い補償金を払えば契約は可能だけど各流通に補償金を支払いなおかつそれぞれに提示
されている条件を満たすとなると個人経営の無所属ショップでは厳しいにょ。
そうなると二次問屋から納品することになるけどただでさえ新品は利益を確保するのは
難しいのに高価な二次問屋からでは新品だけでは難しいため無所属ではほとんどの場合
中古専門となっているにょ。
後述(3)で中古ソフトがかなり厳しい状態になっているため経営状態が芳しくないから
少しでも経費削減のためチェーン店を脱会するというのはこのような流通の変化によって
命取りになりかねない状態になっているわけにょ。

(下記へ続く)

347御茶目菜子:2010/08/23(月) 13:19:23
OPASのすべて!
久々にポケコンコーナーを更新したにょ。
更新したのはOPAS応用編の後編にょ。
http://ww5.tiki.ne.jp/~ochame/E500/TECH/opas_2.htm

前回(6月20日)には前編としてOPASで多ライン同時スクロールをする方法を書いたけど
今回はそれをさらに応用したものとなっているにょ。
このアニメーションとスクロールを同時使用することでドット単位でスクロールさせ
ながらアニメーション表示をする(画面上にあるオブジェクトを動かすなど)という
だけではなくアニメーションを使うことで64文字(384バイト)の制限を克服することも
可能になっているにょ。
また、縦方向に1ドットずつずらしたデータをアニメーションさせることで縦スクロールも
可能になっているにょ。
これを使えばドット単位で横スクロールするマリオタイプのゲームもBASICで十分な速度で
動作可能になるにょ。(リンク先に記しているようにOPASは表示オブジェクト数がどれだけ
増えても表示速度が落ちないため)

OPASは今から15年前(1995年)に私が命名したにょ。
OPASの元になっていたフォント書き換えはすでにPJ読者ならば常識的なテクニックに
なっていたにょ。
私はフォント書き換えでドット単位で動作させる方法を思いついていたのでそれを
使っておもしろいことはできないかと模索していたらPOKEで書き換えるフォント格納
参照アドレスを1変えることで表示が1ドットずれていることに気づきメインルーチン内で
そのアドレスを随時書き換えていけばドット単位でスクロールできるということに気が
付いたにょ。
そのアドレスを表示分だけ一気に変えたらアニメーションも高速に行えたにょ。
それがOPASにょ。

まだインターネットを利用していなかった当時、PJにもベーマガにもまだ発表されてない
ために勝手に私がOPASと命名したものを誌上で発表する機会を伺っていたにょ。
ただ、問題はOPASの威力が分かるゲームを作ろうとするとどうしてもメモリが多く必要に
なってしまいグラフィックを描くのも面倒なのでなかなか発表には至らなかったにょ。
そんな中PJ95年8月号に掲載されたたかじょゆうき。氏の「So Nervous」を見て無理に
1枚1枚アニメーションを描いていかなくてもパターン表示でやれば簡単だし、このような
アニメーション主体のゲームならばOPASの得意技だから分かりやすいということに気が
ついたにょ。

そういうわけでフォント書き換えの64文字(384バイト)制限の限界に挑戦されていた
この「So Nervous」を早速OPAS対応版として移植したところ約5倍の速さになったにょ。
当然のことながらそれをすぐに投稿はさすがにできなかったにょ。(同じプログラムを
同機種用に作り直したものを投稿して掲載されるはずがない)
というわけで再びOPASの威力を発揮できるゲームを考案する作業に戻ったにょ。
年は変わり1996年1月某日PJ編集部からPJ本誌で原稿を書いてくれないかという依頼の
電話があったにょ。
良い機会なので私が持っている高速化テクニックに加えてOPASを発表しようと考えたにょ。

単体投稿はできなかったけどOPASのサンプルゲームとしてであれば「So Nervous」の
OPAS対応版は問題ないだろうということでOPASのサンプルはこれですぐに決定したにょ。
そのままというのも何なのでPJ掲載版はオリジナルにない完成時の見本アニメを同時表示
することにしたにょ。(後にこのゲームのルールを変えた「パネルQ」を発表)
見本を表示することでゲーム自体がプレイしやくなった上に描画負荷が2倍になっている
にも関わらずオリジナルの約3倍速を実現できたにょ。

このOPASを発表したPJ96年5月号はPJ最終号となったにょ。
しかも、肝心のOPASを使ったプログラムのリストには誤植が多かったけど最終号であった
ために訂正しようがなかったにょ。
それ以降は自力でOPASを広めるべくOPASを活かしたゲームをどんどん作っていったにょ。
96年11月に作った「シュプール」では今回発表したアニメーションとスクロールの
同時使用のテクニックを用いているにょ。
この「シュプール」は97年に私が発行した「PJ増刊96」用に作ったけど後にベーマガに
投稿して採用されたにょ。

OPASはその後私が発行していたメルマガ「おちゃめ〜る」で詳細発表し、その記事は
後に立ち上げたWebサイト「おちゃめくらぶ」で正式コンテンツとしていつでも誰でも
見れる状態になったにょ。
これでOPASを使う人が増えるか・・・と思っていたら実はサイト上で発表されていた
サンプルプログラムに誤植(というかタイプミス)があることに7年経って発覚したにょ。
http://6502.teacup.com/ochame/bbs/133 (現在は修正済み)

これで、OPASがようやく誰もが使えるものになったけどもうポケコン(PC-E500系)を
使う人は激減していたにょ。
要望があれば「応用編を書くよ!」とサイト上に書いていたものの需要は無し・・・。
OPASを使ったゲームを発表してくれた鈴原透氏、上野雅博氏はすでにポケコン界から
去ってしまったようなのでなおさら難しいか・・・。
昨年10周年を迎え私が持っているBASIC高速化テクニックを(ほぼ)すべて発表したけど
OPAS関連だけはまだ心残りがあるという状態なのが個人的に気になったため今年になって
OPASの応用編を書くことを決意したにょ。

まずは今年の5月にはOPASを使った2LINEゲームである「2LINE UFO GAME」を発表したにょ。
OPASの理解を深めるにはシンプルなサンプルゲームが必要だからね。
今回のOPAS応用編で作ったサンプルプログラムも2LINE UFO GAMEのリストが部分的に
かなり活用されているにょ。
やはり、ただのサンプルというよりそれを使ったらこういうゲームができるという
具体的なものがある方が興味を惹きやすいしね。

さて、前回、今回の2回に分けたOPAS応用編を持ってOPASの使用テクニックに関しては
すべて公開となったにょ。
これによりOPASをフルに使ったゲームを作ることが可能になるにょ。
それだけではなくOPASの活用範囲が広がるためより多くの用途にOPASを使用できると
いうことにも繋がるにょ。
これで心残りなくこの世を去れる・・・ってことはないけど一安心できたにょ。
とはいえ、テクニックなんて覚えるだけでは意味が無く活用できなければ意味がないにょ。
活用範囲が広がってもどのように活用するかというのは実践経験を積まないと難しい
からね。
そういうわけでOPASを用いた実践的テクニックは今後も随時公開予定にょ。


実は、今回はあともう1つポケコンコーナーを更新したにょ。
みっぴゅ氏によるワンポイントテクニックの投稿にょ。(OPASの応用編と一緒に更新
しようと考えていたらすっかり遅くなってしまった)
http://ww5.tiki.ne.jp/~ochame/E500/TECH/TECH031.HTM
ワンポイントテクニックは随時募集しているたPC-E500のBASICで使用できるテクニックが
あれば要綱を見て投稿してほしいにょ。

348御茶目菜子:2010/08/24(火) 13:28:46
DDR4は必要なのか・・・?
PC用のメモリはDDR2からDDR3へ世代交代をしたにょ。
コストを優先するネットブックでさえDDR3に対応したAtom N455、N475搭載機によって
DDR3に対応したくたいだからね。
DDR2ではなくDDR3を使うメリットは下記のようなものが挙げられるにょ。

(1)コストダウンのため
(2)統合型チップセットの性能アップのため
(3)CPUに必要な帯域を十分に確保するため

(1)に関して書くと工業製品は量産化によってコストダウンすることが可能であるため
主流のものを使った方が安くなるにょ。
技術がこなれた旧世代の方が安くできそうだけど半導体の場合はそうではないにょ。
それはダイサイズが価格に直結するからにょ。
最新のプロセスルールは昨今ではフラッシュメモリの製造に使われることが多いけど
これはダイサイズを小さくすることでコストダウンをしているにょ。(同じダイサイズで
あればより大きな容量になる)
旧世代のプロセスルールを使用していたフラッシュメモリが最新のプロセスルールを
使用したために価格は一気に下落したにょ。(あとSLCからMLCへの移行による影響もある)

現在はDDR2とDDR3は大抵の場合は同じ製造プロセスで作られているにょ。
しかし、今後DDR3が主流になれば新しい製造プロセスでDDR2のメモリが作られることは
ほぼ無くなるためDDR3の価格は下がり、DDR2の価格は据え置かれるということで価格の
逆転現象が起きてしまうにょ。
製造量が極端に少なくなれば量産効果とは逆にコストアップに繋がるため価格アップの
可能性さえあるにょ。
登場時は生産量が少なくDDR2と比べて高価だったDDR3もすでに4GBのモジュールに関しては
DDR2とDDR3は価格が逆転しているにょ。
すべての容量のモジュールにおいて(といっても市販されているPC用のDDR3メモリは
1GB以上しかないけど)価格が逆転するのは時間の問題にょ。

(2)については7月29日に統合型チップセットとメモリの関係について書いたのを見て
もらえたらいいけどそれをまとめると旧世代のPC66の頃は2D描画でさえ不十分だったのが
DDRによって2Dなら不満のないレベルになったし、DDR2によって3D性能のアップにも貢献
できるようになったにょ。
DDR3の最大メモリ帯域はDDR2の2倍(主流となっているDDR2-800とDDR3-1600を比較した
場合)ということはメモリ帯域がボトルネックになりがちなGPUにおいてそのボトルネックが
緩和されることを意味するにょ。
ただし、GPUコア性能(統合されたGPUの性能)が不十分だといくらメモリ帯域が向上しても
性能アップには繋がらないにょ。

(3)に関しては難しいところにょ。
というのも広いメモリ帯域であれば性能アップに直結するGPUとは異なりメモリ帯域は
必ずしもCPUの性能アップに繋がらないからにょ。
とはいえ、マルチコアが当たり前となってきている昨今のPCにおいてはシングルコア全盛
だった頃とは比較にならないくらい必要メモリ帯域は増えているのも事実にょ。
しかし、4コア、6コアをフルに使うハイエンドな使用方法でないとその恩恵はないにょ。
とはいえ、CPUだけではほとんどの場合は十分とはいってもGPUが使うメモリ帯域を考えると
必ずしもそうとはいえないにょ。

PC66であれば普通に使っていてもメモリ帯域が大幅なボトルネックになっていたにょ。
これはXGAフルカラーの表示(リフレッシュレート60Hzであっても単純計算で135MB/sの
帯域が必要)でPC66のメモリ帯域(理論上で533MB/s)の大半が消費されているからにょ。
実際にi810を採用したPCでスーパーπを動作させればそれは明確だけどXGAフルカラーと
VGA16色では3割以上の速度差が発生するにょ。
今時2D描画でそこまで落ちることはないけど3Dであれば(2)で書いたように多くのメモリ
帯域が必要であるためCPU性能が十分に発揮できないことは十分に考えられるにょ。
もっともハイエンドなCPUで統合型チップセットを使って3Dゲームをプレイするという
ような状況はほとんどないだろうけどね。(CPUのコア数が多いほどクロックが高いほど
影響が大きくなるためCULVのように低クロックであればあまり影響はないと予想できる)

さて、PCの主流はDDR2からDDR3へと変わりつつあるけどDDR4もすでにその仕様が策定
されているにょ。
http://pc.watch.impress.co.jp/docs/column/kaigai/20100823_388253.html
製品として登場するのはあと2、3年後とはいえメモリの規格が定まらないとPCが設計でき
ないから策定は急ぐ必要があるにょ。
特に昨今はメモリコントローラをCPUに内蔵しているからね。
従来であればAMD(Athlon64など)を除きメモリコントローラはチップセット側にあった
ためメモリの仕様変更があっても柔軟に対応できたけど今はメモリの変更があった場合は
CPUそのものを作り直す必要があるにょ。
AtomでもPineViewからはCPUにメモリコントローラを内蔵しているためN450、N470のDDR3
対応版であるN455、N475を別途用意したくらいだしね。

DDR2からDDR3へと問題なく移行できたけどDDR4も・・・というとそうではないにょ。
それはメモリスロット数が1チャンネル当たり1本になるからにょ。
現在のPCの主流はデュアルチャンネルであるためメモリスロットは2本しか確保できない
ということにょ。
ノートPCであれば一般的な製品はメモリスロットが2本しかないため問題ないけどデスク
トップPCであればこれはかなり辛いにょ。
現在は1チャンネル当たり2本であるためデュアルチャンネルのCPUであれば4本(Core i7の
ハイエンドモデルにある3チャンネルのCPUであれば6本)メモリが搭載できるからね。
これによって4GBのメモリモジュールを使えば4GB×4=16GBのメモリを実装することが
できるようになるにょ。

今はまだ32bitOSのWindowsが主流になっているため4GB以上のメモリを搭載してもRAM
ディスク程度にしか使用できないけど徐々に64bit対応のアプリは増えつつありハイエンド
ユーザーは64bitOSに移行しているにょ。
現時点では高画素化の進んだデジタル一眼のRAW現像を大量に行う人やフルHDの動画
編集をする人のようにその恩恵がある使い方というものは限られているものの4GBの
メモリモジュールが現実的な価格(1本1万円以下)となっているため8GB以上搭載する
ことは珍しいことではなくなっているにょ。
実際安価なCULVノートでさえ64bit版Win7が搭載されている機種もあるくらいだしね。

しかし、DDR4世代ではメモリスロット数が半減してしまうため最大搭載量も半減するにょ。
現在のDRAMチップの主流は1Gbitから2Gbitに移行しつつあるにょ。
2Gbitのチップだとそれを16個使うことで4GBのメモリモジュールになるにょ。
ここ最近4GBのメモリモジュールの急激な価格低下はDRAMチップが2Gbitの急激な増産の
影響が大きいにょ。

ムーアの法則通りに約24ヶ月でプロセスルールが進むと仮定すれば2年おきにメモリは
倍増するかというとそういう単純なものではないにょ。
CPUとは異なりハーフノード単位で作られるためにプロセスルールが変わったからといって
必ずしも容量アップになる(2Gbitだったのが4Gbitになる)というわけではないにょ。
2倍の容量のメモリが急に必要になるということはないためプロセスルールの進化は
ダイサイズ縮小によるDRAMのコストダウンへと転化されることが大半にょ。

DDR4が市場に登場する頃はDRAMチップはようやく2Gbitから4Gbitへと移行しようとする
時期だと推測されるため安価で済ませるなら4GB×2=8GB、多くのコストを支払っても
最大で8GB×2=16GBになると予想することができるにょ。
XPでは試作品レベル、Vistaでようやく完成品レベル、7でようやく選択する価値がでて
きた64bit版Windowsだけど次の世代ではいよいよ64bitがメインとなると思われるにょ。
その64bit版がメインとなる次世代Windowsが発売されているであろう時期にそのメモリ
搭載量ではさすがに辛いにょ。

これはチップを積層化するという手段があるにょ。
実際フラッシュメモリはその方法によって大容量化しているからね。
32GbitのNANDフラッシュを8層×2によって64GBのSDXCカードは作られているにょ。
現在NANDフラッシュで量産化されているのは32Gbitであるため単純に考えると4GBの
SDHCカード、USBメモリしか作れないけど積層化によってその制限は緩和されていると
いうことにょ。(逆に言えば32Gbitが主流になることでSDカードは1GB、2GBと比べて
4GBはコスト的に大きな差は無くなっているともいえる)

確かに積層DRAMが量産化されれば最大搭載量の問題も改善されるけど問題はメモリ
コントローラがそれに対応する必要があるしレイテンシ増大も懸念されるにょ。
レイテンシの増大はメモリが速くなればなるほど大きくなる傾向があるからね。
PC100のCL2とPC133のCL3はあまり変わらない性能だったけどそれと同じようにDDR400と
DDR2-533は後者の方がメモリ帯域が増えているにも関わらず実効性能に有為的な差は
見られなかったにょ。
これはメモリ帯域の増大があってもレイテンシが増大しているためそれがボトルネックに
なっているためにょ。

恐らくDDR3からDDR4へと移行するときもこの問題があるためレイテンシの大きなチップや
クロックの低いチップではDDR4とはいえDDR3と比べてアドバンテージがあるとは言えない
と思われるにょ。
つまり、DDR4は速く無ければ意味がないということにょ。
DDR3もDDR4と同じように1チャンネル当たりメモリスロット1本という案が出ていたにょ。
それは製品では1本では高速なものも使用できるけど2本使用時には速度制限を課すことで
1チャンネル当たり2本までのメモリに対応したにょ。(1チャンネル2本使用時にはDDR3-
1333までしか対応しない等)

DDR4はDDR3の最高クロックと同じ2133Mbpsが最低速度(最初に用意されているチップの
速度)となっており今後はさらにその倍速まで上がる予定になっているにょ。
したがって、DDR3のように高速メモリを使用時は1チャンネル当たり1本だけど低速メモリ
使用時には2本使えるという裏技的な方法は使用できないにょ。
実際のところ8コア、16コアのCPUが主流になったり、CPUに統合されているGPUの性能が
飛躍的に向上しない限りはDDR3でも十分だけどマルチコア化はともかくとしてGPU性能は
今後大幅な性能アップが予定されているにょ。
AMDは現在のローエンドGPUを超える性能となるSP数400程度のGPUをCPUに内蔵するという
噂もあるくらいだからね。
そうなると速さを取るか容量を取るかでしばらくDDR3とDDR4が共存するという可能性が
高そうにょ。
DRAMチップが8Gbitになれば容量的に考えてDDR3のアドバンテージが無くなるためその頃には
DDR4が主流になると思われるにょ。

349御茶目菜子:2010/08/25(水) 13:57:28
速さだけがウリではない
デジタル一眼の新機種発表ラッシュの中、面白い機種が登場したにょ。
http://dc.watch.impress.co.jp/docs/news/20100824_388902.html
このα33、α55は「デジタル一眼レフ」だけどGH1のようにEVFを搭載し半透過型ミラーを
採用しているにょ。

一眼レフというのはミラーがあることでレンズから入った光(つまり撮影する被写体)を
ファインダーで見ることもできるし、フィルム(センサー)で捕らえることもできる
ようになっているにょ。
ミラーで反射された光はファインダーに導かれているのだけどシャッターボタンを押した
瞬間にミラーが跳ね上がり遮るものが無くなったためにセンサーに直接光が届くように
なり、そしてシャッターが閉じられたら自動的にミラーが元の場所に戻ることで再び
ファインダーで被写体を撮影できるようになるにょ。
ミラーの動く様子は実際に手元に一眼レフがあれば確かめてもらえれば一目瞭然だし、
ミラーが動作することで一瞬ブラックアウトになるというのも一眼レフユーザーならば
普通に体験していることなので今更書くようなことではないんだけどね。

しかし、このα33、α55は半透過型ミラーを採用しているためにミラーを動作させる
必要性がなくなっているにょ。
普通のミラーではなく半透過型ミラーを採用することによるメリットは下記の3つにょ。

(1)シャッタータイムラグが短い
(2)高速連写可能
(3)常時AFが可能

(1)半透過型ミラーを採用した一眼レフは古くから存在するにょ。
銀塩時代に登場したEOS RTは半透過型ミラー(ペリクルミラー)を採用によってシャッター
タイムラグ8m秒を実現したにょ。
上記のように一眼レフは複雑な動作をするミラーがあるためにシャッターボタンを押して
撮影可能になるまで多くの時間(といっても一瞬だけど)がかかってしまうにょ。
プロ機であっても20〜40m秒かかってしまうわけだし、入門機だと100m秒を超える機種も
少なくないにょ。
それを考えると8m秒というシャッタータイムラグの小ささはすごいといえるにょ。

野球を撮影する場合、時速144kmで投げられた(打たれた)ボールは秒速40mであるため
100m秒の間に4mも進んでしまうにょ。
天才的な反射神経の持ち主で打球がバットに当たる瞬間にシャッターボタンを押しても
4mも飛んでしまうためにバッターをアップで撮影したらボールが捕らえられないにょ。
これが8m秒であれば32cmで済むにょ。
つまり、シャッタータイムラグが小さいということは動体撮影において大きなプラスに
なるということにょ。

(2)連写についてもそれはいえるにょ。
ミラーの動きは高速かつ複雑であるため高速な連写に耐えられるようにするためには
非常に多くのコストがかかってしまうにょ。
そのため入門機では3コマ/秒程度、中級機で5〜7コマ/秒程度、プロ機で8〜10コマ/秒
程度となっているにょ。
しかし、連写の際にボトルネックになるミラーの動作が必要が無ければ連写性能は飛躍的に
アップするにょ。
今はセンサーがCMOSになっているため読み出し速度面では全く問題がなく唯一ボトル
ネックになるとすればシャッターの動作くらいだからね。

(3)一眼レフではミラーによってファインダーへ光を導いているだけではなく現在主流で
ある位相差検出方式だと測距用のセンサーにも導かれているにょ。
そのためシャッターボタンを押してミラーが上がってしまったらそれらに光が導かれ
なくなりAFも動作しないにょ。
動く被写体にピントを合わせてもそれはミラーが動作する前の段階でのピントであるため
シャッタータイムラグによってピントのずれが発生してしまうにょ。
しかし、それは銀塩時代に登場したα7700iから多くの機種で採用されている「予測駆動
フォーカス」によって緩和されたにょ。
それは被写体の動作速度からタイムラグ中にどの程度移動するのかを予測してその場所に
ピントを合わせるというものにょ。


半透過型ミラーは多くのメリットがあるのに採用例がほとんどないのはなぜなのか・・・?
確かにミラーが特殊であるためコストアップになるからというよりも暗所に弱くなったり
余分な光学系を通すために画質に与える影響が払拭できないからにょ。
ミラーによってフィルム(センサー)とファインダーに光を分断するため光を半々に
分けた場合にはファインダーが1段分暗くなってしまいセンサーに届く光も1段分弱くなって
しまうにょ。(1段分暗所に弱くなる)
透過率を上げれば暗所性能の問題は減るけど今度はファインダーが暗くなるという問題を
抱えているにょ。
やはり、半透過型ミラー採用機は普通に使うにはデメリットとなる部分が大きいため
それを使うメリットが大きい機種でないと採用しにくいというのが実情だと思うにょ。

しかし、それは銀塩一眼における場合でありデジタル一眼では必ずしもそうとはいえない
と思われるにょ。
α55では極めて透過率の高い薄型のミラーによって画質に与える影響はほとんど無くなって
そうにょ。(それでも100%の透過率ではなく1/3段程度は暗くなるという判断をしている
人もいるけど昨今の高感度に強いセンサーだと1/3段暗所に弱くなっても誤差の範疇だと
思われる)
そうなるとファインダーへはほとんど光が届かない(常時NDフィルターを使っている
ような状態)という問題があるにょ。
これはEVFでカバーできるにょ。
EVFならばセンサーが受光している被写体データを直接見ることができるからね。

それではミラーは何のために使われているのかというと位相差検出方式のセンサー用と
なっているにょ。
デジタル一眼も最近の機種はほとんどがライブビューに対応しているけどミラーがある
ため通常時はセンサーへの光は遮断されるのでライブビューを使用するためにはミラー
アップが必要不可欠となるにょ。
ミラーアップをするためにファインダーは当然ながら真っ暗で位相差検出方式が使えず
コントラストAFとなっているにょ。
昨今はコントラストAFも速くなったとはいえ、速度面では位相差検出AFには及ばないし
レンズ側がコントラストAFに最適化していないと十分な速度が出ないという問題がある
ために位相差検出AFがメインの一般的なデジタル一眼ではかなり不利な状況になって
いるにょ。
Panasonicのミラーレスカメラ(GH1、GF1などのマイクロフォーサーズ)がコントラスト
AFの割に高速なのもすべての交換レンズがコントラストAFに最適化しているというのが
大きいからね。

このα55は上記のように常時測距センサーへと光を導いているため常時ライブビューで
撮影しているにも関わらず位相差検出AFも常時使用可能になっているにょ。
とはいえ、この方法はミラーを使わず撮影センサー上に測距センサーを配置することでも
可能となるにょ。
7月22日に書いたFinePix F300EXRはミラーなんてないコンデジにもかかわらずその特殊な
センサーによって位相差検出AFが可能になっているにょ。
とはいえ、これはコンデジだからこそ許されることにょ。
F300EXRでも数万画素が測距センサー用として使われているけどこれがデジタル一眼ならば
さらに多くのセンサーを割く必要があるだろうからね。

それにすでにセンサーの画素ピッチがレンズの解像力を超えているコンデジであればその
画素欠損状態(測距センサーのある場所は撮影用に使えないため)なのは大した影響は
ないけどデジタル一眼の場合は解像力の高いレンズを使用時には画素ピッチ<分解能で
あるため画素欠損による明確な画質劣化が起きてしまうにょ。
元々ベイヤー配列ということで画素単位でRGBフルカラーの情報を持たず周囲の画素情報で
フルカラー画像を生成しているだけとはいえ、その影響は少なくないにょ。

α55は常時位相差検出AFが使えるというだけではなくミラーアップによるファインダーの
ブラックアウトもないためファインダーを覗いたまま撮影できるというメリットがあるにょ。
これは普通のデジタル一眼であればライブビュー使用時は背面の液晶モニタを見ながらで
ないと撮影できないという問題があるためライブビューを使用する場面は極めて限られて
いたにょ。
これが非常に有用なのは動画撮影にょ。
8月20日にも書いたようにデジタル一眼においても動画撮影機能の重要性は近年非常に
高まってきているにょ。
しかし、デジタル一眼で動画を撮るためにはライブビュー(ミラーを上げてコントラスト
AFを使用)の状態にする必要があるにょ。
それがこのα55であれば背面液晶もファインダーも使えるし上記のように位相差検出方式の
AFが常時使えるというメリットがあるにょ。

ここで問題なのはEVFそのものの性能にょ。
ファインダーは確かに光学式が最高なのには違いないけどそれにも優劣があるにょ。
一般的にはセンサーサイズによる影響で「フルサイズ>APS-C」だし、光学的な仕組みから
考えて「ペンタプリズム>ペンタミラー」となっているにょ。
入門機で用いられているAPS-Cセンサーでペンタミラー採用の光学ファインダーは構図を
確認する程度ならいいけど細かい部分を確認したり微妙なピントの確認を確認するには
あまり適しているとは言い難いにょ。
EVFも良いものと悪いものでは大きな差があるけどα55に採用されている144万画素のEVFは
現在市販されているデジカメ用としては最高クラス(GH1と同レベル)であるため下手な
入門機のデジタル一眼に採用されている光学ファインダーよりもピントの確認という観点
から見た場合はマシかもしれないにょ。

EVFは反応速度の面がネックだったけど近年はかなり改良されているし、拡大表示ができ
たり絞りや各種フィルターなどの設定による影響もファインダーに反映可能であるため
光学ファインダーよりも優れている面もあるにょ。
確かに画像処理をする分だけ遅延の発生があるからいくら良くなったとはいえ動体撮影
メインだと厳しいものがあるけど入門機に求めているレベルであればすでに達成ができて
いるのではないかと思われるにょ。
さすがに平均的なネオ一眼などに使用されているレベルのEVFだとさすがに一眼レフ用と
しては画素数の面でも速度の面でも使い物にならないけどね。

こうしてみるとα55、α33はかなり良いデジタル一眼に見えるけどそれは実際のレビューを
見るまでは分からないにょ。
いくら速いといってもあくまでは中身は入門機レベルだからね。
10コマ/秒の撮影ができるといってもAFの追従性がそこまで良いわけではないだろうし
透過型ミラーを採用によりEOS RTのようなものにシャッタータイムラグが短くなるかと
いえば入門機であるためそんなことはないだろうからね。
野球の打撃シーンのようにピントは定位置であれば10コマ/秒の高速シャッターが生きて
くるけど入門機であるためバッファ容量が小さそうなのですぐにバッファフルになって
しまう可能性があるにょ。
結局のところ入門機で速さだけが与えられても全体スペックを上げないとどこかで
破綻がくるということにょ。
これは実際に使ってみないと「使えるレベル」かどうか判断が難しいところだけどね。

また、ミラーレスカメラはミラーやファインダーがない分だけコストダウンになっている
けどこのようなミラー+EVFでは単純にEVFの分だけコストアップになっているにょ。
ペンタミラーによる光学ファインダーがない分だけ一般的な入門機のデジタル一眼より
コストダウンできている面もあるとはいえ、コストは「高性能EVF>ペンタプリズムに
よる光学ファインダー」だと思われるためコストアップは否めないにょ。
それが価格にも出ているにょ。
上位モデルのα55は本体だけで実売9万円台、α33は本体だけで7万円台の予定になって
いるからね。
せっかくの光学ファインダーも動画撮影時には使えない、コントラストAFは遅いという
一般的なデジタル一眼の問題点が克服されているためにコンデジからステップアップ
する人には入門機として考えた場合には多少割高(とはいえ連写性能を考えれば破格の
安さ)とはいえ最適な1台だと思われるにょ。

350御茶目菜子:2010/08/26(木) 13:15:31
Atomに過度な期待をしないでください
ネットブック向けのデュアルコアAtom「Atom N550」の出荷が発表されたにょ。
http://pc.watch.impress.co.jp/docs/news/20100824_388936.html
N550の存在は半年前から噂になっていて6月にはすでに出荷可能な状態になっていたにも
関わらず今になってようやく出荷開始されたというのはやはりネットブック・・・というか
ULCPCの制約のためだと思われるにょ。

ここで幾度も書いたようにネットブックはIntel側、MS側が制約を設けていてそれを満たす
ことでIntelはCPUおよびチップセットを安価に提供し、MSは安価なWindows(ULCPC版の
Windows)を提供しているにょ。
ネットブックは「安さ」が最大の価値であるため安くするためにその条件を満たした機種を
各社が作っているにょ。
それゆえ、仕様が各社でほとんど横並びになってしまうのだけどそれはやむを得ない
ことにょ。(小型PCでタスクマネージャが4本というのは非常に萌えるのでこのN550を
使ってギリギリまで小さくしたネットブックは見てみたい)

さて、MS側の制約だけど最大の難点だったのがULCPCの条件としてCPUはシングルコアのみ
となっていたにょ。
しかし、いつでも出荷準備OKだったネットブック向けのデュアルコアAtomが今頃になって
出荷開始されたのはやはりその条件が緩和されたのではないかと予測できるにょ。
Atomのような低速(低TDP)のCPUに限りデュアルコアでもOKとなったのだろうけどもしも
ULCPCとして認められず通常のWindowsであれば低価格が最大の魅力となっているネット
ブックの最大の魅力がスポイルされてしまうにょ。

Windowsの価格はULCPC版が30ドル、通常版(Home Edition)が100ドル程度であるため
価格差が販売価格にそのまま転化された場合には70ドル差となるにょ。(すでに1台
あたりの利益が非常に少ないネットブックではその差を吸収するのは不可能であり本体の
価格アップは必至となる)
実売300ドル程度の価格のものが主流となっているネットブックにおいてはこの差は非常に
大きいにょ。
70ドルアップとなればいきなり価格が2割増しとなるわけだからね。
ULCPCの条件というのは固定的なものではなく変動的なものであり、XPと7とではまた
基準が変わるためデュアルコアAtomがULCPCとして認められたとしてもWin7のみとなる
可能性が高いにょ。

ULCPC版のWindowsはXPは普通のHome Editionと機能面の差異は無かったけど7のULCPC版と
なるStarterは明確な差別化をしているにょ。
この差は気にならない人にとっては大した差ではないけどやはりXPでは機能面での制約が
無かったことを考えると気になる人はいると思うにょ。
この差が生まれた背景にはXPにおいてはASUSの取引(初代Eee PCのヒットによる影響で
Windows離れが懸念された)のために急遽用意する必要があったというのもあるけど
XPはすでに発売から年数が経過しており減価償却が終わったOSだから差別化をする必要が
無かったというのもあるからね。(別SKUのXPを用意する方が逆にコストがかかってしまう)
しかし、7は最新OSでありこれから開発費を回収しなくてはならないため「無茶な安売り」
なんてできないためあえて機能を制限したStarterを用意したということにょ。

デュアルコアAtom N550を搭載したネットブックは年内にも各社から発売予定になっている
けれどULCPC版のWin7(Starter)が搭載されるのであれば現行のAtom N475を搭載した
モデルとあまり価格差はないと思われるにょ。
ただ、問題は性能にょ。
4月23日に書いたようにN550は1.5GHzとクロックが低いために1.83GHzのAtom N475と
比べて性能アップになるとは限らないからね。
これは動作させるアプリによっても左右されるもののマルチスレッド(4スレッド)に
最適化してあるものでない限りはN475の方が性能面で上回るという可能性もあるにょ。

シングルコアとデュアルコアではベンチだけでは計れない差があるのだけどデュアルコアと
クアッドコアではそこまで大きな差はないにょ。
シングルコアAtomは論理デュアルコア(1コア2スレッドCPU)であるためそれが物理
デュアルコア(2コア4スレッドCPU)になった場合には「シングルコア→デュアルコア」の
場合のような明確な差は生まれにくくなってしまいそうにょ。
重いアプリを動作させそれと同時に別にアプリを動作させるという場合は確かに物理
デュアルコアが効いてくるけどAtom搭載のネットブックでそんなことを行う機会はかなり
限られると思うにょ。

実際にどの程度の性能になるかは製品が発売されてレビューが行われれば一目瞭然だけど
クロックを1.5GHzに落としたというのはTDPの問題もあるし、CULVとの差別化もあると
思われるにょ。
セレロンU3400が思ったほど(というか予想通り?)大した性能ではなかったため
1.83GHzのデュアルコアAtomであればその差はほとんど無くなるだろうからね。
現状ではHD動画の支援機能の有無という非常に大きな差がU3400とN550にはあるためそれ
だけで差別化はできているとは言えなくはないけどネットブック向けのAtomも来年登場する
次の世代のものからはHD動画の再生支援機能を内蔵してくるためそれは明確な差ではなく
なってくるにょ。

Atomは当初からのようにローエンドの下に新たに設けられた低価格を実現するためのもの
であるためローエンドを性能面で追い越すことは今後もないと思われるにょ。
デュアルコアAtomのクロックが2GHzくらいになり、セレロンU3400を脅かす頃にはCULV用の
CPUはさらなる高性能化しているということにょ。
もっとも、Atom N270(1.6GHz)でも十分に感じている人はいるわけだからローエンドより
下といっても侮ることはできない(人によっては十分に実用的に使える)というのは
決して間違いではないにょ。
昔とは異なりPCの使い方も多様化しているためローエンドより下であっても十分に使う
ことができるからね。(ノートPC用だけを考えても昔は同じ世代ではハイエンドとロー
エンドは2倍程度しか性能差がなかったけど今はハイエンドのCore i7 940XMとAtom N455
では5倍以上の性能差がある)

351御茶目菜子:2010/08/27(金) 13:22:03
後出しで勝てなかったら意味がない!?
さて、今月、来月はデジタル一眼の新製品ラッシュにょ。
基本的に入門機は年に1回、中級機は2年に1回の頻度でモデルチェンジがあるけどこの
時期に多くの機種が発表されるのは9月にドイツで開催されるフォトキナの影響もあると
思われるにょ。
ここ1週間に発表されたものを見るとニコンは大幅な改良が施された入門機のD3100、
ソニーは大胆な仕様の入門機のα55、α33が挙げられるにょ。(個人的にはD3100は
ちょっと欲しい機種、α55は買わないけど一度使ってみたい機種であり、本命はやはり
D90の後継機か)
やはり、そうなると世界最大シェアを持つキヤノンの動向が気になるところにょ。
この度、2年前に発売された中級機EOS 50Dの後継となるEOS 60Dが発表されたにょ。
http://dc.watch.impress.co.jp/docs/news/20100826_389278.html

この60Dは数ヶ月前までは出ないという噂さえあった製品にょ。
というのも中級機はすでにEOS 7Dがあるし、入門機は他社比べても十分高い性能を持つ
EOS Kiss X4があるからにょ。
この間に位置するであろう50Dの後継機というのは非常にニッチな需要になりそうだ
という意見も少なくなかったにょ。
しかし、D90に対抗するカメラは必要ということで出すことになったのだと思われるにょ。
D90は脱入門機の人を対象に売れているからね。(小型軽量を活かしてサブ機として
使うハイアマチュアやプロもいる)

 ◎クラス別に見たニコンとキヤノンのデジタル一眼の一覧
          ニコン     キヤノン      ペンタックス(参考)
 プロ機上位    D3X      EOS 1Ds MarkIII  645D(中判デジタル)
 プロ機下位    D3s      EOS 1D MarkIV
 フルサイズ下位  D700      EOS 5D MarkII
 中級機上位    D300s     EOS 7D
 中級機下位    D90      EOS 50D → 60D  K-7
 入門機上位    D5000     EOS Kiss X4
 入門機下位    D3100     EOS Kiss X3    K-x

シェアが小さいために多くの機種をラインナップできないペンタックスであれば1つの機種で
複数のクラスの相手をしなくてはならないけどニコンにできてシェアナンバーワンの
キヤノンにできないはずがないからね。(EOS 7DではD90の相手をするのはさすがに
無理がある)

さて、上記記事で仕様を確認してもらえたら分かるように60Dは単純に7DとKISS X4の間の
スペックと言っても間違いではないにょ。
唯一60Dの独自性があるのはバリアングル液晶とカメラ内RAW現像くらいにょ。(というか
他社製品では普通にできていたのに今までEOSではカメラ内RAW現像ができなかったのが
不思議なレベル)
では、肝心の50Dから見ると動画機能の追加と画素数が1500万から1800万へと増えたのが
主な違いにょ。(この2点に関しては60Dと同じくX4と7Dも対応している)

画素数が増えたことは賛否両論だけど解像力のあるレンズを使用すれば1800万画素の
性能は生かせるわけだし、画素数が増えたことによる暗所ノイズの増加はX4を見る限り
上手く処理されているので問題ないにょ。
ただ、50Dより画素数が増えたことで連写速度が6.3/秒から5.3コマ/秒へとダウンして
しまったにょ。
これは画像処理エンジンのDIGIC4がボトルネックになっていると思われるにょ。
EOS 7Dは8コマ/秒を実現するためにDIGIC4を2つ搭載しているくらいだからね。
60DでDIGIC4を2つ使わなかったのはやはりコストダウンのためだと思われるにょ。

さて、X4と7Dの間の性能で間の価格というのならばそれに合った人にとっては価値が
あると思われるにょ。
X4の発売当初の予価は本体9万円、7Dは本体19万円に対して60Dは本体13万円となっている
わけだから単純に価格で選ぶのもありとなるにょ。
しかし、X4は発売から半年余り、7Dも1年近く経つために価格下落しているにょ。
価格com最安値を見てみると今日現在はX4が59655円、7Dが113790円に対して60Dは現在
予定されている最安値は113990円でありこれは7Dの価格とほぼ同じにょ。
つまり性能は、X4<60D<7Dなのに価格はX4<<60D=7Dになっているということにょ。

後から発売された新製品が既存の旧製品より割高に感じることはPCなどにおいてもいえる
ことであり別に珍しいことではないにょ。
ただ、今回の場合は先に発売されただけというだけであるためPCの型落ち品のように
旧製品という考え方は正しくないにょ。
X4も7Dもそのランクにおける最新の製品だからね。
多くの場合は後出し製品は割高になってもその分先行発売よりも高性能にすることで
割高感を払拭していったにょ。
例えば先日発表されたニコンのD3100は入門機だけどどのニコン製品よりもすぐれた
動画撮影性能も持っているにょ。
これは後発のメリットにょ。

60Dには後発のメリットがないにょ。
正しくはカメラ内RAW現像などがあるためほとんどないというべきかもしれないにょ。
もしも60DにD3100のように後発の大きなメリットがあればX4や7Dではなく60Dを選択する
という人もいるだろうけどそれがほとんどない以上は価格面で7Dの実売価格よりも
明らかに安い価格になるように60Dは設定すべきだったにょ。
しかし、60Dの価格設定が間違っているというわけではなく7Dの価格下落が大きいと
いうだけの話にょ。
7Dの性能で実売11万円台というのは破格だからね。
7Dの価格が下がったのはX4の影響が大きいと思われるにょ。
X4を入門機の割りに高スペックにしたばかりに60Dの居場所がなくなってしまったと
いうことになるにょ。

60Dをあえて選択するというならばバリアン液晶やカメラ内RAW現像が目的ではなく
恐らく入門機は嫌だけど中級機の7Dは大きく重いから嫌という人の方が多そうにょ。
50Dまでのマグネシウムボディではなくプラスティックボディへと変わってしまった
けれどこれは小型軽量を望んでいるユーザーが少なくないというのかもしれないにょ。
実際中級機の割りに小型軽量のニコンD90は高い人気を集めているからね。
このことが理由となり記録媒体もCFカードからSD系カードへと変わったと思われるにょ。

60Dは居場所(実売価格で考えたポジション)は微妙であり、その存在自体を疑問視して
いる人は少なくないけれどサイズ、重量、スペックのバランスが良いために価格さえ
こなれてくればおすすめできそうな機種になりそうにょ。
ただし、現時点であればキヤノンのデジタル一眼は普通の人ならばX4がオススメだし、
スペック重視であれば7Dであり、60Dはコストパフォーマンスよりバランスを重視すると
いう極めて限られた人にしかオススメできない感じにょ。

352御茶目菜子:2010/08/28(土) 13:32:10
実用性を求める人にとっては微妙な機種だけど・・・
東芝のノートPC25周年記念として発表されたlibretto W100だけど6月24日に書いたように
私はコンセプトは明瞭だけど時代が追いついてないという感想を持ったにょ。
確かに興味深い機種ではあるもののバッテリ駆動時間や操作性の面の問題点があるため
ただのミニノートPCとして買うと失敗してしまう可能性も高いにょ。
W100がどの程度使えるものなのかはようやくレビューが公開されたのでそれを見て判断する
ことにするにょ。

(レビュー前編) http://plusd.itmedia.co.jp/pcuser/articles/1008/25/news020.html
(レビュー後編) http://plusd.itmedia.co.jp/pcuser/articles/1008/26/news025.html

やはり、真っ先に気になるのは操作性だと思うにょ。
http://plusd.itmedia.co.jp/pcuser/articles/1008/25/news020_2.html
折りたたみ式の2画面液晶は今まで発売されたPCには存在しなかったためにイメージで
語るしかないのだけどやはり現時点ではこのスタイルに最適化されたアプリがないため
イメージでしか語ることができないにょ。
センサーによって自動的に縦横切り替えが行われるみたいだけどそれが敏感で少しだけ
傾けても切り替えが発生し、その切り替えに数秒かかるというのはあまり良い感じが
しないにょ。(縦横を固定できる設定はあるのか?)

次にキーボードを見てみるにょ。
http://plusd.itmedia.co.jp/pcuser/articles/1008/25/news020_3.html
6月26日に書いたようにキーボードは必ずしも必要不可欠なものとはいえないにょ。
文字入力を頻繁にかつ大量に行うのであればハードウェアのキーボードは必須だけど
そういう人はそういう機種を買うかキーボードを別途持ち歩けば済むという問題であって
このようなキーボードレスの端末の存在を否定するというのは正しくはないからね。
しかし、そんなに大量に文字入力をしない人であってもまともに使えるレベルなのか
それとも外付けキーボード無しでは使えないレベルかというのはやはり大きな差だと
思われるにょ。
こればかりはレビューを見ても判断に苦しむため実際に店頭などで試してみるしかない
と思われるにょ。
ソフトウェアキーボードは自分好みの配列を選択できるというメリットがあるため
デフォのものを1つ試しただけでは判断はできないのが難点にょ。(ユーザーの手によって
追加可能なのであれば今後さらに使いやすいキーボードが登場する可能性もある)

あと難点はポインティングデバイスにょ。
タッチパッドもキーボードと同じくソフトウェアで実現しているけどこちらもキーボード
と同じく超えられない壁が存在するにょ。
立体的なキーボードであれば平面でしかないソフトウェアでは大きく劣るというのは
イメージ的に分かるだろうけど元々平面のタッチパッドであればソフトウェアで実現
したとしてもそれほど劣ることはないと考えている人がいるのではないかと思われるにょ。
タッチパッドに関しては8月7日に書いたようにアバウトな操作(画面の端から端まで
一気に移動)と細かい操作(1ドット単位での操作)を両立できるというメリットがある
もののソフトウェアタッチパッドでは液晶のdpiを超えるような操作はできないにょ。
正しくは液晶パネルとタッチパネルは独立したものだからタッチパネルの分解能を大幅に
高めておけば実現が可能なのだろうけどそこまでの精度も分解能もW100のタッチパネルに
ないために上記レビューのような評価に至ったのだと思われるにょ。
キーボードはこのようなタブレット型のPCを買う人だと使用頻度が低いだろうけど
ポインティングデバイスはWindowsを使用する限りは必要不可欠であるためポインティング
デバイスこそハードウェアで実装すべきだったと思われるにょ。(タッチパネルがある
から十分だと割り切れる人にとっては問題ないことだけど)

やはり気になるのは性能面にょ。
使用しているのはArrandale世代のPentiumということで同世代のセレロンであるU3400を
搭載したCULVノートよりも高スペックとなるにょ。
セレロンU3400に関しては8月19日に書いたようにクロックが従来のセレロンSU2300よりも
下がっている分だけ性能がダウンしているという残念なものだったけどW100はU3400の
1.06GHzよりもクロックが高いPentium U5400(1.2GHz)を搭載しているため従来のCULV
ノート並のCPU性能はあるにょ。
SU2300(1.2GHz)も低スペックなセレロンとはいえ、Atom N270(1.6GHz)と比べて
2〜2.5倍くらいの性能はあるため一般的なネットブックとは別格の性能といえるにょ。
まして、このW100クラスのサイズのネットブックは存在せずAtom Zを搭載のUMPCしか
ないためAtom Z530(1.33GHz)あたりと比べると3倍近い性能差になるにょ。

さらに大きいのがGPU性能にょ。
8月19日でもU3400はSU2300よりもCPU性能が下という結論を出したもののGPU性能に関しては
SU2300を搭載したCULVノートに使われているGS45に内蔵のGMA X4500よりもU3400に内蔵
されているIntel HD Graphicsの方が1.5倍くらい性能が上だったからね。
ベンチによって大きく左右されるけど大ざっぱにGPU性能を比較すると下記のようになるにょ。

  US15W   945GSE PineView GS45    Arrandale
  GMA500<<GMA950<GMA3000<GMA X4500<Intel HD Graphics
  (※不等号1つで1.5倍くらいの性能差)

UMPC(Atom Z)のチップセットUS15Wに内蔵のGMA500は軽めのオンラインゲームでさえ
動作させるのが厳しいレベル(というかAeroでさえ動作が重いレベル)なのに対して
Intel HD Graphicsは決して高性能とは言えないものの軽めのゲームならば十分に動作
させることができるくらいの性能があるにょ。(両者は1桁異なるくらいの性能差がある)
つまり、同クラスのサイズ、重量のPCと比較すればダントツのCPU、GPU性能を持っている
ということになるにょ。
常駐ソフトが多い関係上ここまでしないと快適には使えないためこのようなスペックに
なったのだと思われるにょ。

さて、ハイスペックの弊害となっているのがバッテリ駆動時間にょ。
http://plusd.itmedia.co.jp/pcuser/articles/1008/26/news025_2.html
何せ、BBenchで測定した場合でさえ標準バッテリで1時間22分、大容量バッテリで2時間48分
しか動作しないという結果だからね。
最大で1時間程度しか使用しない人ならば標準バッテリで十分だし、最大2時間程度の使用
という人ならば大容量バッテリで十分まかなえるとはいえ、多くの人が不十分と感じる
駆動時間だと思われるにょ。(私自身は実駆動3時間を最低ボーダーラインに設定して
いるため大容量バッテリ使用時でやや不足のレベル)
昨今のPCでここまで駆動時間が短いものはWILLCOM D4以来見たことがないにょ。
バッテリ駆動時間が短いのは軽量化のためであり、重くなっても6セルのバッテリが用意
されていれば標準バッテリの3倍くらいは駆動可能になると思われるけどそれでも2画面
というのがボトルネックになっているのかバッテリ容量当たりの駆動時間で考えても
一般的なモバイルノートよりもやや短めに感じるにょ。

あとハイスペックの弊害は音と熱に現れるにょ。
Atom Z530+US15WであればTDP4.5WだけどPentium U5400+QS57ではTDP21.4Wに達する
からね。
「TDP=発熱」ではないけどそれだけ熱設計が難しいことを意味するにょ。
強力な廃熱を行うためにファンを高回転で回したらそれは大きな音に繋がるし、ファンを
低速回転したら十分な廃熱ができず本体筐体から熱が放出されるため筐体温度の増加に
繋がるにょ。
一定の熱量を発する以上は静音と低発熱の両方を優先することなんてできないにょ。
まして、無理な小型化を実現するためにそれは非常に困難なものとなっているにょ。

実際、W100のレビューを見てもアイドル時で39db、高負荷時で47dbというのはお世辞にも
静音とは言い難いにょ。
レビューから想定した音の大きさ音質から考えると仮に使用している本人が許容できても
周囲の人は許容してくれないかもしれないというレベルだろうからね。(だから私は
モバイルに特化した端末は可能な限りファンレスを求めている)
また室温27度の環境下で動作時の筐体温度が最低の場所(下画面左)でも32度、最高の
場所(天面左)だと50度というのはファン付きのノートPCとして考えるとかなり高めと
いえるにょ。(ファンレスであればこれくらいに達する機種は確かにある)
手に触れる部分に関してはあまり温度が上がらないように廃熱の流れを工夫している
というのが唯一の良い部分だと思われるにょ。
これが温度が高くなる場所が普通に持って触れる部分であれば同じ温度であっても問題が
大きくなるにょ。(iPhone 4のアンテナ問題も普通に持って触れる場所にデッドスポットが
あったからこそあのように大きな問題へと発展してしまったわけだし)

やはり、タッチパネルを前提にして作られた非Windowsのタブレット端末(iPad等)と
比べてWindows7がいくらタブレット機能を強化していようがWindowsそのものがキーボードと
マウスを前提としたUIとなっているためやはり使い勝手はイマイチのようにょ。
それに何度も書いているように2画面タッチパネルは先進性が高いとはいえそれを生かせる
アプリがないために現状では折りたためるということしかメリットがないにょ。
確かに折りたたんだときの状態はほぼVAIO Pに匹敵する小ささであり、スペックを考えた
場合には非常に優秀とはいえその分だけ失うものも大きいにょ。
それらのデメリットとこのW100を使うことによるメリットを天秤にかけそれでもプラスに
なると考えた人でないと買ってから不平・不満が出ることが必至の端末といえるにょ。
サイズとスペックを考えれば決して高価でははないけどね。
また資金に余裕があり、コレクター目的で買える人であればこのようなPCは当分登場しない
ために買って損はないと思われるにょ。(そんな人がどれだけ居るのかは知らないけど)

353御茶目菜子:2010/08/29(日) 13:19:30
紙(アナログ)からデジタルへの移行はできるのか?
私が今使っているケータイ(Softbank 905SH)は購入して約4年になるにょ。
これは今まで私が使ってきたケータイで最も長期間の使用となっているにょ。
905SHは4台目のケータイだけど最初はデジタルツーカー、2台目はJ-PHONE、3台目は
vodafone、4台目はSoftbankとすべて社名こそ違うけどキャリア変更をしたことは1度も
ないにょ。
たまたま親会社が変更になったというだけの話だからね。
その流れからするとSoftbankから別の社名に変わった時が機種変のタイミング・・・と
思ってしまうけどさすがに今のところそんな様子はないにょ。

905SHのバッテリは死にかけていてバッテリがフルでないと数時間しか持たないという
実用レベルではない状態だったために4月に新しいバッテリを購入したにょ。
そのお陰で今のところは普通に使えるけどさすがにこのバッテリが駄目になるまでには
機種変更をしたいところにょ。
とはいえ、ガラケーで特に欲しい機種がないのがネックにょ。
そうなるとやはりスマートフォンか・・・?
http://plusd.itmedia.co.jp/mobile/articles/1008/27/news012.html

確かにここ1年でスマートフォンは急増したにょ。
特にドコモはスマートフォンに力を入れているにょ。
iPhoneを獲得できなかったというのもあるだろうけどね。
スマートフォンは維持費が高くキャリア独自機能などもほとんど搭載されていないため
国内では数年前までは一部のコアユーザーのみだったけど機種が増えることによって
選択の余地が出てきたのがやはり大きいにょ。
W-ZERO3を除けば事実上iPhone一択だった国内のスマートフォン市場においてもAndroidが
大躍進したのがその理由だと思われるにょ。
8月9日に書いたように世界市場で見れば2012年にはiOS搭載機(iPhone、iPad)をAndroid
搭載機が台数ベースで追い越すという予想も出ているくらいだからね。

しかしながら、国内では好んでスマートフォンを使う人もいれば逆にスマートフォンは
使いたくないという人もいるにょ。
それは価格面などの問題ではなくキャリア独自サービスが使えないということが
挙げられるにょ。(今はスマートフォンのパケット定額料金もケータイでフルブラウザを
使用時と同等まで下がったため1台のみの維持費はスマートフォンとガラケーはほとんど
変わらない)
ドコモは7月16日に書いたようにスマートフォンでspモードのサービスを開始したにょ。
要するにスマートフォン向けのキャリア独自サービスだけどdocomo.ne.jpのキャリア
メールが使えるようになるというのも大きいにょ。
ケータイ向けサービスは数多くあるけどメアドのドメイン名でケータイでの使用と
判断しているサービスもあるからね。(ケータイ用のメアドに登録用のメールを送り
それで登録することでそのサービスが使用可能になるという感じ)

また、スマートフォンはワンセグやおサイフケータイといったガラケーでは当然と
いえる機能にもほとんど対応されてないにょ。
これは現在のスマートフォンが元々海外で作られたものだからにょ。
ワンセグやおサイフケータイというのは国内の独自進化の段階で生まれたものであるため
それがガラケーのガラケーたる所以の1つともいえるにょ。
しかし、スマートフォンがより多くの人に受け入れられるためには国内産のガラケー的な
スマートフォン(国内のニーズにマッチしたスマートフォン)も必要になると思われるにょ。

このような理由によりスマートフォンは2台目持ち用として購入する人も少なくないにょ。
2台目用であれば通話のしやすさはそこまで要求されないし、国内向けの独自機能も
1台目のガラケーでまかなえば問題ないからね。
とはいえ、さすがに2台分の料金を支払うのはコスト面の負担が大きすぎるにょ。

私がスマートフォンを欲する理由はやはりネイティブアプリの使用が可能ということと
一般的なガラケーよりも遙かに快適なWeb閲覧が可能になるからということにょ。
ガラケーも初期のiモードのように1ページ2KBまでで画像はGIFのみといった著しい制限が
あった頃とは異なり今となってはかなり高性能化されているし、フルブラウザ登場に
よって一般的なPCサイトも閲覧することが可能になったというのも大きいにょ。
ここ数年はケータイの液晶画面はFWVGAが主流となっており、解像度の面においても一般
サイトを閲覧するのに大きな不満は無くなったしね。
とはいえ、解像度の制約が無くなれば逆にフルブラウザがサポートしている機能の貧弱さが
目立つ結果となったにょ。
所詮はフルブラウザもJAVAアプリにすぎないからね。

その点、スマートフォンであればかつてのPDAのように好きなアプリを導入可能になる
というのは大きいにょ。(iPhone用に関してはWebブラウザはアップル社の規定によって
作ることができないけど)
これはかつてのPDAのようなものにょ。
PDAは事実上姿を消したわけだけどこのようにスマートフォンに形を変えて今も尚、生き
ながらえているということにょ。

私は80年代より電子メモ(シャープのカナメモ)→電子手帳(PA)→PDA(PI、MIザウルス、
CLIE等)と使ってきたけどリナザウ(SL-C750)を最後に新しいPDAは買ってないにょ。
それはPDAは上記のようにスマートフォンへと姿を変えたためにPDAとしての選択肢が無く
なったというものもあるけどPDAの活用方法や認識の変化もあるかもしれないにょ。
当初はあくまで電話番号や住所やスケジュールを書いたいわゆるPIM用として活用して
いたものの徐々に音楽再生、動画再生、Web閲覧などのPC的な使い方のウェイトが大きく
なってしまったからにょ。(96年に購入したPI-6500によって紙の手帳を使うことが
無くなった)

仕事でも使えるからということでA5ファイルサイズのノートPCであるFMV6300MC(中古)を
買ってからはリナザウの出番はかなり減ったにょ。
それは座って使用できる場所では(当時としてもスペックが低かったFMVだけど)PCの方が
圧倒的に快適だからにょ。
しかし、そうなると立った状態でもPCが使えたら便利だろうということで買ったのが
VAIO UX(中古)にょ。

UXを買ってリナザウを持ち歩くことは無くなったのだけどそこで困ったのはメモを取る
という作業ができないことにょ。
普段持ち歩いているノートPCのR5は常時サスペンドであるため4秒くらいで起動するけど
UXはバッテリ駆動時間が短いので常時休止状態で使用しており起動まで40秒くらいかかる
ためにょ。
メモを取るのに40秒も待てないにょ。
自分が待つならまだしも電話越しに今から40秒+α(検索の時間)待ってくれなんて
とても言えないにょ。そういうことで昨年4月26日、今年の2月12日に書いたように再び
紙の手帳が活躍するようになってしまったにょ。

では、スマートフォンを買えば再びデジタルへと戻ることができるのか・・・?
確かにPDA的な使用ができるならばその可能性は高いにょ。
PCとは比べ者にならないくらい起動が速いし、Web閲覧だけを比較してもリナザウに搭載の
Webブラウザ(NetFront3.0)よりは圧倒的に快適だろうからね。
WindowsやIEに依存したようなWebサイトやマシンスペックを要求するようなWebサイトで
あればスマートフォンでは厳しいだろうけどAndroidもFlash10.1に対応したために
多くのサイトで問題なく閲覧ができそうにょ。
Flashに対応していないiPhoneなどはそういった面では厳しいけどYouTubeなどの動画
サイトは専用プレイヤーをで快適に閲覧できるしWebの主流がHTML5に移行すればFlash
非対応というのもそれほど問題ではなくなるにょ。
ニコニコ動画も9月末にHTML5に対応し、Flashに非対応のSafariでも普通に閲覧やコメント
入力が可能になる模様にょ。
http://www.itmedia.co.jp/news/articles/1008/27/news064.html

ただ、やはり手帳代わりにするならば電話機(ケータイ)とは物理的に分離していた
方が都合が良い場面も多いにょ。
そうなると結局ガラケーとスマートフォンの2台持ちという形がベストという結論になって
しまうにょ。
しかし、それは私の場合は資金面の都合で難しいにょ。
では、現状のガラケー+紙の手帳という状態を維持するのが良いのかというば、そういう
わけではないにょ。
要は通話機能の付いてないAndroid OSやiOS搭載機を買えば良いというだけにょ。
これならば月額料金は不要にょ。
通信に関してはPCで使う関係上Pocket WiFiがあるため無線LANさえ搭載していればいい
からね。

そこで私が最も注目しているのが、iPod touchにょ。(スマートフォンと差別化のためか
中途半端に大きなものが多い中、iPod touchだけが小型で高性能を維持している)
来月発表予定の新型はiPhone 4の網膜ディスプレイを搭載した機種になるだろうし、
iOS4が搭載されるだろうからマルチタスクに対応するため私が感じていた不満点はほぼ
解消されることになるにょ。(残りの不満点はFlashに対応していないという点だけど
これは上記のように今となってはそれほど致命的な問題ではない)
ただ、私はiOSを店頭以外でまともに使ったことがないため手帳の代わりになるレベルかは
実際に使ってみないと分からないということにょ。(せめてかつてのPI、MIザウルス並の
使い勝手があれば何とかなるだろうけど)
紙(アナログ)からデジタルへと再び移行できるかどうか判断するのはもう少し後に
なりそうにょ。

354御茶目菜子:2010/08/30(月) 13:19:35
USB3.0が普及するための課題
USB3.0もインターフェイスカードおよび対応機器の登場から数ヶ月経ちPCに実際に導入して
いる人も結構いることだと思われるにょ。
すでに高速バスといえばeSATAがあるのだけどUSB3.0のアドバンテージはやはりPCにおいて
デファクトスタンダードといっても良いUSB2.0/1.1と互換性があることだと思うにょ。
「USB3.0の普及は進むか?」というのは論じるまでもなく将来的には現在のUSB2.0が
USB3.0へと置き換わるというだけの話にょ。
そのレベルに達するためにはOSでの標準対応とUSB3.0ホストコントローラがチップセットに
統合されるのは必須といえるにょ。

USB1.1はWin98、USB2.0はWin2K SP4、XP SP1でようやく標準対応したわけだけどUSB3.0は
Win7 SP1から標準対応となるにょ。
ホストコントローラがチップセットに統合されるのはAMDは来年、Intelは再来年以降の
予定となっているにょ。
つまり、本格普及は再来年以降(2012年以降)となるというわえにょ。
したがって、現時点でUSB3.0は「気が付いていたらPCに搭載されていた」という形では
なく「USB3.0を意識的に導入する」という形がメインになるにょ。
PCによってはUSB3.0ホストコントローラを別途組み込むことでUSB3.0対応を謳っている
機種もすでに多く存在しているけどホストコントローラの価格を考えるとローエンドまで
普及するにはチップセットへの統合は不可欠といえるにょ。

さて、ここでUSB3.0に関して一部問題が発生しているにょ。
USB3.0は上記のように「下位互換性(USB2.0/1.1との互換性)がある」ということが
メリットであったけど下位互換のないインターフェイスカードが市場に出回っている
らしいにょ。
http://monoist.atmarkit.co.jp/feledev/articles/fline/02/fline02a.html
現時点での主流となっているUSB3.0のホストコントローラはルネサスエレクトロニクス社
(旧社名:NECエレクトロニクス)のチップだけどそれ以外の台湾ベンダーのチップでは
下位互換のないものが多く存在するため注意が必要になるにょ。
もっとも下位互換がないというだけで「USB3.0専用」として使うのであればそれらの
チップを搭載のインターフェイスカードでも問題はないにょ。

現時点ではUSB2.0インターフェイスを持たないPCは存在しないためUSB3.0専用として使う
のには大きな問題は発生しないにょ。(実際問題のチップを搭載したPCはすでに出回って
いるけどUSB2.0ホストコントローラはチップセットに統合されているものを使用されて
いるのでUSB3.0用とUSB2.0/1.1用と物理的に分かれているため問題ない)
さすがにチップセットに統合される段階でそれはまずいけどね。
「USB3.0専用コネクタなのでUSB2.0/1.1対応の機器は動作しません」なんていうPCが
ユーザーに受け入れられるとは思えないにょ。
現時点だとeSATAは付いているけどUSBインターフェイスは搭載されてないPCが普通に
使えるかどうかを考えれば予想はできると思うにょ。(再来年の時点でほとんどのUSB機器が
3.0専用になるなんてあり得ない話)

USB3.0ホストコントローラのチップセットへの統合は元々は来年に登場するSandy Bridge
世代で行われる予定だったにょ。
http://pc.watch.impress.co.jp/docs/column/interface/20100805_385435.html
それが1世代遅れる予定(まだそれさえも確定ではない)になったのはUSBの下位互換性を
持たせた複雑な転送モードをサポートするために手間がかかっているのではないかと想像
できるにょ。
昨年11月21日には私は「USB3.0はUSB2.0よりも普及が遅い」と予想したにょ。
これは2.0で大きな不満がないのが当時は理由として挙げていたのだけどチップセットの
対応の面からもUSB2.0と比べてUSB3.0の普及の遅れがあるといえるにょ。

USB2.0は規格上の上限速度は1.1の40倍、USB3.0は2.0の10倍と猛烈な勢いで速度が増して
いるけどPC用のインターフェイスの速度でここまで速度が急激に増しているものはあまり
例がないにょ。
1世代で1桁速度が上がっているのはEthernetくらいにょ。
http://pc.watch.impress.co.jp/docs/column/interface/20100819_387760.html
USBやEthernetは幅広く使われ、対応製品を提供するベンダー数が極めて多いために
頻繁に変えられないということで結局1世代で大きくジャンプアップする必要があると
いうわけにょ。

幅広く使われるからこそ互換性を維持するのが大変ともいえるにょ。
現時点では下位互換を重視するならばルネサスエレクトロニクス社製のホストコントローラ
チップ搭載のものを選んで買うしか自衛方法はあるけどまだ初心者が安心してUSB3.0を
導入できる環境下ではないといえそうにょ。(デスクトップPCであればインターフェイス
カードを挿すのに分解が必要であるため初心者が導入するとは思えないけどノートPCで
あればExpressCardスロットに挿すだけなので導入はそんなに難しくない)
「USBポートに正しく挿しているのに使えない」ということが発生してしまうからね。
今後ルネサスエレクトロニクス社以外にも下位互換性のあるホストコントローラチップを
製造するメーカーが現れても下位互換性のないホストコントローラチップは残り続ける
だろうから結局のところチップセットに統合されるまでは初心者でも安心して使える
とは言い難い状況になりそうにょ。

355御茶目菜子:2010/08/31(火) 13:33:47
ウォークマンはiPodを超えた!?
8月の国内販売台数はついにウォークマンがiPodを超える見通しが立った模様にょ。
http://www.itmedia.co.jp/news/articles/1008/30/news032.html
カセットテープ時代、MD時代は携帯音楽プレイヤーとして不動の首位ったウォークマンも
MP3プレイヤーの普及とともにその地位が絶対的なものではなくなってきたにょ。

MDプレイヤーもデジタルプレイヤーではあるもののデジタルであるためデータに劣化が
ないということ以外はメリットがなくカセットテープと比べて最大のアドバンテージは
曲の頭出しが楽になったということくらいだからね。
その点、MP3プレイヤーならばMDという物理的なサイズ面、容量的なサイズ面での制約が
なく自由にどんどん入れることができるようになり使い勝手の面で大きく変わったにょ。
確かに初期のMP3プレイヤーはフラッシュメモリが高価ということで容量的な面からも
カセットテープやMDを超えるような存在ではなかったにょ。
私も9年前からMP3プレイヤーを使っているけど当時はザウルスで使用していた予備のCFを
使用していたため30MBしかなく128Kbpsで7曲程度しか入れることができなかったにょ。

このようなフラッシュメモリの容量的な問題点をHDDでまかなったのが初期のiPodにょ。
5〜10GBという容量によってのは当時はフラッシュメモリで実現するのは現実的では
なかったからね。
これによって聴きたい曲をチョイスして入れるというものではなくライブラリ全体を
持ち歩くという革新的な進化が訪れたにょ。
これは初代ウォークマンが音楽を持ち歩くということを実現したのと同レベルのことにょ。

これを後押ししているのが楽曲管理ソフトのiTunesの存在が大きいし、さらにiTunes
Music Storeで本格的なダウンロード販売のシステムを導入したのも大きいにょ。
これらによって他の追従を許さないシステムが構築されて現在に至っているにょ。
この垂直統合のシステムは他社も実現したけどほとんどが上手くいかなかったのでいかに
難しいかということが分かるにょ。
iPodの大躍進によってウォークマンは超えられない2番手の座となってしまったにょ。

ピーク時には市場シェアの80%を獲得していたiPodを抜き去り今回ウォークマンが首位に
なった理由として考えられるのは以下の3つの理由が挙げられるにょ。

 (1)9月に新型iPodが発売されるため買い控え
 (2)iPhoneが好調であるため
 (3)ウォークマンは高音質かつ安価であるため

(1)単純に考えた場合はこれが最大の理由だと思われるにょ。
リンク先のグラフを見てのように昨年9月もiPodが圧倒的なシェアとなっているのは例年
9月に新機種が出るためにょ。
そのため8月はiPodのシェアが最も下がる月なのだけどそれでも今までずっと首位を
保っていたのが保てなくなったというのは別の理由があるためにょ。

(2)iPhoneはiPod touchが持っている機能はすべて持っているにょ。
そのためiPhoneユーザーがiPod touchを買うということは考えにくいにょ。(iPhoneの
割賦金が残っているけど最新の機能を使いたいために新型iPod touchを買うということは
十分に考えられるけどそれはあくまで例外)
容量的なアドバンテージがあるClassicならば買う人(iPhoneの内蔵フラッシュでは自前の
楽曲データがすべて入りきらない人)はいるだろうけどそれは限られるためiPhoneが
好調であることがiPodの売上増加を阻んでいると思われるにょ。

(3)は意外に重要な点にょ。
ウォークマンはiPodと比べて高音質というのは多くの人が感じていることだろうけど
価格面に関してはそうではないという人もいると思うにょ。
実際にライバル同士といえるiPod nanoとウォークマンSを比べてみるとiPod nanoの現行
モデルは価格com最安値で16GBが14696円、8GBが12789円なのに対してウォークマンは
16GB(S645)が11330円、8GB(S644)が9280円となっているにょ。
同一容量のモデルを比較した際にiPodの方が安かったということもかつてはあったけど
近年はウォークマンの価格低下によって実売ベースではここまでの差になっているにょ。

これによってウォークマンがiPodのシェアを奪っているとは一概には言えないけど台湾、
韓国メーカーのプレイヤーのシェアを奪っているのは十分に考えられるにょ。
かつては、iPod&ウォークマン&国内家電メーカー&台湾、韓国メーカーというような
感じで店頭での売場シェア争いが行われていたけど最近は台湾、韓国メーカーの機種は
地方都市ではほとんど店頭で見かけることが無くなったにょ。
これはウォークマンの価格低下によって価格的なアドバンテージが薄れてきたというのも
あるし、ウォークマンがD&D転送に対応したというのもあると思われるにょ。
iTunesを使用している人もD&Dに対応したお陰で楽曲転送できるようになったからね。

つまり、iPodはシェアを伸ばすのは難しい状況になってきているのに対してウォークマンは
どんどんシェアを伸ばしているというのが今回の逆転の最大の理由といえるにょ。
それに8月がiPodのシェアが最も下がる月だからというのが重なったというだけの話にょ。
このままの勢いが続けば8月以外の月もウォークマンが首位に立つことは十分に考え
られると思うにょ。

356御茶目菜子:2010/09/01(水) 14:01:52
ハイエンドよりもローエンドよりもミドルクラスの方が安価!?
最近は昔とは異なり自作PCのメリットは減っていると思われるにょ。
昔(90年代)だったら自作すればメーカー製PCより圧倒的な低コストで組めたり高性能な
PCを組めたりしたのだけど最近は一から組むなら直販で買ったのと大して変わらない
金額だったり、保証がない分だけ不利になっているとさえ言えるにょ。

使い回しが効くというのも自作PCの低コストの要因となってきていたのだけどそれも最近は
難しくなってきているにょ。
CPUはソケット規格がどんどん代わりCPUだけの換装は出来にくくなっているし、VGAカード
(ビデオカード)を替えようとすると消費電力アップのため電源交換が必要な場合もある
からね。
自作PCで高コストとなっていたOS(Windows)も使い回しが効かせるためにはFDDと一緒に
購入というパターンが多かったけどすでにFD自体が入手困難になりつつあり、マザー
ボードもFDDに対応しないものが増えているためそれもできないにょ。(USB FDDは
DSPライセンスの対象外)
それでも自作するのは「できるだけ安くしたい(=余分なものは不要)」「できるだけ長く
使いたい(=少しでも使い回せるものは使いたい)」という思いがあるからだと思うにょ。

「安物買いの銭失い」ということわざがあるけどそれならば高価なパーツを使えば
結果として得になるかというとそれも違うにょ。
自作PC用の高価なパーツ(=ハイエンドパーツ)はただ、多少性能がいいというだけの
話だからね。(粗悪品を買わない限りは壊れやすさは価格とはあまり関係ない)
しかも、ハイエンドパーツは価格変動も大きいにょ。
先日もそれまで5万円台で販売されていたCPUである「Core i7-950」がいきなり2万円台に
なったくらいだからね。
http://akiba-pc.watch.impress.co.jp/hotline/20100828/etc_intel.html

なぜいきなり半額近くまで価格が下落したかというとこれはIntelの卸値が562ドルから
294ドルに変更されたからにょ。(秋葉原のような激戦区では価格改定があってから
すぐに変更されるけど地方のPCショップでは高価な時に仕入れた分に関してはそれが
売れるまでは価格を変えないという場合もある)
これが1ドル=100円であれば294ドルのCPUは35000円前後になるだろうけど1ドル=80円台
という円高であるため2万円台となったと思われるにょ。

そもそも562ドルのCPUがいきなり294ドルになる自体がおかしい(徐々に値下げするのが
普通)と思うかもしれないけどこれはIntelのCPUがランクごとに価格を定めている
せいにょ。
このランクごとの価格について少し説明しておくにょ。
分かりやすく説明するために2万円、3万円、6万円の3種類のCPUしかないと考えるにょ。
それぞれが2.6GHz、2.8GHz、3GHzと仮定するにょ。
ここで新たに3.2GHzという従来のものより1ランククロックが高いCPUが販売開始
された場合には6万円よりさらに上・・・ではなくその3.2GHzのものが6万円で販売
されることになるにょ。
つまり、それぞれ1ランクダウンの価格で販売されるということにょ。

  《 CPU大幅価格変更の理由 》
  6万円のCPU 3 GHz  ここで   3.2GHz 新登場
  3万円のCPU 2.8GHz  3.2GHz登場 3 GHz ↓1ランクダウン(3万円ダウン)
  2万円のCPU 2.6GHz   →→→  2.8GHz ↓1ランクダウン(1万円ダウン)
                   2.6GHz → ディスコン

この例に挙げた3GHzのCPU(旧価格6万円のCPU)は6万円→3万円と一気に下がっているのに
対して、2.8GHzのCPU(旧価格3万円のCPU)は3万円→2万円の下落に止まっているにょ。
これはあくまで説明のために用意した例とはいえ、実際にハイエンドになればなるほど
1ランクの違いによる価格差は大きくなるので本質的な考えに差異はないにょ。(Core i7
においても562ドルの1ランク下が294ドルであるためi7-950が急激な値下がりをした
わけだし)

わずか半年の間に11万円→6万円→3万円と価格が変動したCore2Quad Q6600の前例を
考えれば今回のCore i7-950の3万円近い価格変動は大したことはないとはいえ、それが
大きいと考える人はハイエンドパーツを買うべきではないにょ。
ハイエンドパーツを買うというのは長く使うためではなく高コストでも「それが必要な人」
もしくは「自己満足」のためだからね。(コストパフォーマンスを重視する人には
ハイエンドはとてもオススメできない)

実際はCore i7だけ見ても「6コアのCPU」「4コア(LGA1366)」「4コア(LGA1156)」の
3つがありその中で各レンジごとに価格が定められているからハイエンドのCPUがミドル
以下の価格まで下りてくることは無くなってきているにょ。
数年前までのようにハイエンドからローエンドまで(シングルコアしかなかったため)
コア数やCPUソケットが同じという状態だったら10万円のCPUが時間が経てば2、3万円で
売られるということもあったけどね。

CPUはこのように四半期もしくは半年ごとに高クロックのものが登場し、これによって
1ランク価格ダウンしているのだけど新CPUというのはIntelの場合は2年サイクル(1年
ごとに「新アーキテクチャの導入→1世代製造プロセスを進める」というのを繰り返して
いる)で投入されているにょ。
そのため価格変動に関してはそれなりに情報を入手していれば事前に察知可能なことと
いえるにょ。
ただ、それだと待てば待つほど安くなるというのが分かるだけであって結果的に余計買い
にくくなるという人もいるかもしれないにょ。

300ドル弱というi7-950の価格帯は半年前ならばi7-860が該当したにょ。
そのため半年前であればi7-860が総予算10万円程度で新規に組む人にとって最もオススメの
CPUだったにょ。
では、i7-860を買うくらいであれば半年待ってi7-950を買うのがお得かというとそうでは
ないと思うにょ。
5万円台のi7-950が2万円台になることによってすごくお買い得感があるように見えるけど
実際は半年待つことによって得られるものは同じ価格で0.26GHzのクロック上昇(i7-860と
i7-950の比較)でしかないわけだからね。
その差は率にしてわずが8%程度でありベンチを実行してようやく分かる程度の差でしか
ないにょ。
ただ、それだけのために半年間待つくらいなら半年前に組んで半年間使い込む方が遙かに
有意義といえるにょ。
いつ組んでも数ヶ月先には確実に値下がりがある(もしくは1ランク上のCPUが同じ価格で
買えるようになる)わけだから「今は買うな時期が悪い」と言い出したらずっと買うことが
できなくなるにょ。

私は現在使っている自作PCは2年前(2008年6月)に組んだにょ。
数ヶ月後にはCore i7が登場するという時期だったのでそれを待って組むという手もあった
けれどCore i7は当初はハイエンドから投入ということだったので予算的に難しいという
のが理由にょ。
ミドルクラスのCore i7であるLynfieldが登場予定なのはさらに翌年だったためさすがに
そこまでは待てないというわけでヘタに待つくらいならさっさと組んだ方が得策という
ことで予算の許せる範囲内で最もコストパフォーマンスに優れたCore2Duo E8400(3GHz)を
購入したにょ。

ハイエンドパーツは価格変動も大きくコストパフォーマンスも悪いということで個人的
には2〜3万円のミドルクラスがオススメだけど1万円前後のローエンドはどうなのかと
いうとこれは良いか悪いかはその人次第といえるにょ。
ミドルクラスでは性能にお釣りがくるくらいでローエンドで余裕という人であれば問題ない
といえるのだけどそうでないならばトータルのコストや手間で考えないといけないにょ。

昔であればCPUは同じアーキテクチャのもの(同じ世代のローエンドとミドルクラスの比較)
であればクロックとL2搭載量だけを比較すれば良かったけど今はそれに加えてコア数
(実行スレッド数)が重要になってきているにょ。
現在のローエンドCPUは2コア2スレッドが主流であり、ミドルクラスは4コア8スレッドが
主流になっているにょ。
そのためクロックが同程度でも実効性能が2倍くらい異なる場合もあるにょ。
これは上記のi7-860とi7-950の比較のように体感できないレベルではなくしっかりと
体感できるレベルの差といえるにょ。

大ざっぱに比較すれば概ねこんな感じにょ。

 価格 ローエンド<<ミドルクラス<<<<<<ハイエンド
 性能 ローエンド<<<<<<ミドルクラス<<ハイエンド

ローエンドで組んで不満を感じたらこまめに組み直すという方法もあり(これも自作の
醍醐味の1つ)それを考えるとミドルクラスのCPUを買う予算でローエンドCPUは2〜4個
買えるためそれを変えることでトータル的にミドルレンジより安くすることは可能になる
かもしれないにょ。
とはいえ、昨今は冒頭に書いたように規格変動が大きいためマザーボードごと交換する
機会も多くその場合にはローエンドCPUを選択するコスト面のメリットは一気に失われて
しまうにょ。
それに加えて組み直す手間やその間はそのPCが使えないということも考慮しないといけない
と思うにょ。(ローエンドであっても新しいパーツ購入でわくわく感を感じる人や単に組む
という作業に楽しさを感じるレベルの人にとってはデメリットにはならないけど)

PCに必要としているスペックが年々上昇していることを考えると結果としてミドルクラスの
ものの方がローエンドよりも長く使えるため1年当たりのコストを計算するとミドルクラスが
最も安くなるにょ。
そうなると今後数年間は「性能面においてローエンドで十分」という人、もしくは
「予算面でローエンド以外はあり得ない」という人でない限りはミドルクラスが長期的に
トータルで考えたコストにおいてローエンドよりも優れており、コストパフォーマンスを
考えるとハイエンドよりも優れているにょ。

357御茶目菜子:2010/09/02(木) 13:07:38
新型iPod発表
日本時間本日未明にiPodの新機種が発表されたにょ。

まずはshuffleを見てみるにょ。
http://av.watch.impress.co.jp/docs/news/20100902_391089.html
こちらは元々シンプルな機種だけに機能の追加なんてものはないけどホイールボタンの
大型化などの操作性の向上が図られているにょ。
積極的に音楽を聴くというユーザーではなく通勤やランニングなどでBGM代わりに聴くと
いう使い方がメインだろうからこれはこれで完成されているしこれ以上容量を増加
させるよりは価格を抑える方がいいのでこれはこれで悪くない製品にょ。

今回最も大きな変貌を遂げたのがnanoにょ。
http://av.watch.impress.co.jp/docs/news/20100902_391085.html
筐体の大幅な小型化によってホイールパッドの省略が行われその代わりタッチパネルが
採用されたにょ。
操作性は全くの別物ということで賛否両論ありそうにょ。
それに前モデルで搭載されていたカメラ機能や動画再生機能も無くなっているからね。
大幅な小型化でクリップ式の筐体というのを見ると「リッチなshuffle」というような
イメージを受けるにょ。

これをnanoと思うから微妙に感じるからであって従来のnanoとshuffleの間を埋める
ような機種と思えば好感が持てるにょ。
shuffleはあまりに機能制限されすぎていてDAPとしては使えないというユーザーにとっては
最適の1台になりそうにょ。
個人的にはDAPはできるだけコンパクトなものが望ましいのでこの新型nanoは歓迎したい
ところにょ。(とはいえブラインド操作できないのは難点であるため購入はしないけど)
しかし、ウォークマンSシリーズがいきなり、Eシリーズと統合されるようなものであり
従来型を求めていた人から不満が出てもおかしくはないにょ。
これが480x480のモニタを搭載し、iPhone用アプリが動作する「iPod touch nano」という
べきような製品であれば一部のコアユーザーからかなり注目されるだろうけどコスト的に
無理だったのかもしれないにょ。

さて、やはり今回の発表会で個人的に最も注目していたのはtouchにょ。
http://av.watch.impress.co.jp/docs/news/20100902_391086.html
高性能A4チップ搭載、960x640の高精細の網膜ディスプレイ搭載、HD動画撮影搭載など
従来のtouchと比べて大幅な機能、性能の向上が図られているにょ。
まさに「3Gを非搭載のiPhone」といっても過言ではない内容にょ。
従来であればiPhoneとの差別化を行うためカメラ機能は省略されていたのだけど今回の
モデルは搭載されているわけだからね。(強いてiPhoneから削られた部分はGPSくらいか)
これによって無線LAN経由でのTV電話である「FaceTime」にも対応しているにょ。

確かに細かい部分を見ればiPhone4よりも機能ダウンや省略されている部分はあるけど
それがどうしても気になるという人であればiPhone4を一括購入し、Wi-Fi専用として使用
すればいいだけの話にょ。
機能的な差の分だけ安いというのもiPod touchの魅力だからね。
米国では8GBで229ドル、32GBで299ドル、64GBで399ドルということで日本のアップル
ストア価格だと従来基準であれば22800円、29800円、39800円になるところだけど円高の
影響か20800円、27800円、36800円となっているにょ。
米国では同一容量では従来機と価格維持となっていたけど日本では事実上値下げと
なったにょ。(これはフラッシュメモリの価格がここ1年ほとんど値下がりしていない
というのが原因なので今後大幅な値下げがない限りは来年のモデルでもメモリ搭載量は
現状維持になりそう)
iPhone 4の32GBは一括購入時は57600円であるためtouchはその半値となるにょ。
これならば多少iPhone 4から省かれた機能があっても十分に許容ができるにょ。

touchは登場時はDAPとして考えた場合には高価でデカイとあまり良い印象ではなかった
けれどiPhoneの登場によってアプリが急速に増えてその魅力は大きく増したにょ。
確かにDAPとして考えれば大きいけどこれは昔ザウルス等のPDAを使って音楽を聴いていた
ことを考えれば十分許容できる(むしろザウルスよりも圧倒的に小型軽量)と思うにょ。
それでも気になるのならばnanoを併用するという方法もあるからね。
恐らくnanoの今回の大幅なモデルチェンジはtouchを完全にメインに据えているからだと
思われるにょ。
8月31日にはiPhoneの普及がiPodの売上増加を阻んでいると書いたのだけどここまでnanoを
小型化すればサブ用、音楽専用として別途持ち歩く人がいるだろうからね。
だからこそiPod touchは音楽を重視したアピールをしなくても良くなるということにょ。
32GB版の27800円はPDA(小型なモバイル端末)として考えれば決して高価ではないにょ。
むしろここまでの機能、性能を考慮すれば安いとさえ感じるにょ。

そういうことでiPod touchといえばやはりアプリにょ。
iOS4.1搭載によってマルチタスクに対応したためにその価値はさらに高まるにょ。
各種PIMアプリを導入すればPDAとして使えるしね。
8月29日にスマートフォンは欲しいけど2台持ちになるとコストがかかるため導入には
踏み切れないということで通信などの専用端末が欲しいという私の要望にぴったり合った
端末ともいえるにょ。
touch+3G対応モバイルルータがあれば3G通信ができる場所であればどこでも通信が可能に
なるためtouchの活用範囲はさらに広がるにょ。
そのために私は4月にPocket Wi-Fiを導入したからね。

さて、問題は買うなら8GB、32GB、64GBのどれにするのか・・・ということだけどやはり
アプリを積極活用するとなれば8Gは論外にょ。
最小限のアプリだけ導入してPDA的に活用するのであれば8GBあれば十分使えるけど
ゲームとかもやってみたいとなると最低でも32GBは欲しいからね。
何せアプリは最大で2GBまで対応しているわけだから大容量アプリを導入したら8GBなんて
あっという間で埋まってしまうし、アプリは使わなくても音楽だけでも8GBくらいは
使用する人は多いだろうし、動画再生を行うとなれば厳しいにょ。
64GBと32GBの価格差は9000円であるため容量の差を考えるとこれは好みの問題にょ。
64GBは決して高価ではないからね。

とはいえ、ユーザーの手によるバッテリは交換不可(メーカー修理扱いで交換可能)と
いうことを考えると32GBで足らなくなりかもしれないという人で無ければ無理に64GB
モデルを買うまでもないにょ。
「バッテリの寿命=本体の寿命」というくらいの認識である必要があるためバッテリが
劣化したら買い換えるのがベストとなるからにょ。(それまでに32GBが埋まってしまう
と考えてしまう人は64GBを買うのがベター)
旧機種をわざわざメーカーにバッテリ交換を出してもコストの割りが合わないというだけ
ではなくその間は使えないという問題もあるからね。

iPod touchは上記のように金銭的な面でiPhone4を使えないという人に有用(softbank
だからiPhoneは使いたくないというのが理由であればモバイルルータを使うということが
許容できない人だろうから機能削減されたtouchを購入する理由は何もない)ということで
潜在的なユーザー数は多いと思われるにょ。
57600円払って通話機能の全くないiPhone4を手に入れたいという人はそれほど多くはない
と思うからね。
やはり、iPod touchの潜在的需要はかなり多いと思われるにょ。(8月29日にはiPhoneが
売れればtouchが売れなくなると書いたけどコスト面を考えれば需要が多くてもiPhoneを
導入しない人は多いため現実的にはiPod touchの需要増加の方が多いくらいだと思う)
そうなるとiPod touchは発売時には生産が需要に追いつけず争奪戦は必至となりそうにょ。

358御茶目菜子:2010/09/03(金) 13:06:01
nanoは主役ではなくなった・・・なの
今回発表されたiPodで最も変化が大きいものはnanoだけど今回の発表された内容を見る
限りは主役はtouch(iOS搭載機)に感じたにょ。
昨日も書いたようにnanoの大きな変化はtouchを引き立てるものとなっているわけだしね。
「nanoを買うかtouchを買うか」という選択はユーザーにとっては悩みの種だったけど
新型nanoではUIをtouchと同じくマルチタッチ対応のタッチパネルによるものに変わった
ため「両方を買う」という選択肢が従来より濃くなったと感じるにょ。
その理由を書いてみるにょ。

iPodはその革新的なコンセプトによって多くのユーザーの支持を得ており、それはシェア
にも現れているのだけど8月31日に書いたように8月の国内シェアは久々にウォークマンに
負ける結果となったにょ。
これは8月というiPodにとって新製品発表前の不利な時期というのを差し引いてもiPod
よりもウォークマンを支持している人が増えたということは事実だと思うにょ。
それはウォークマンがDAPとして優れているということを意味するにょ。

iPodを支えてきたものの1つとしては「操作性の良さ」が挙げられるけどこれはクリック
ホイールによる独自操作によるものが大きいにょ。
このアナログ操作による曲選択の快適さはカーソル操作によるデジタル操作では得ることは
できないものがあるからね。
しかし、新型nanoではそれを捨ててしまったにょ。

確かにタッチパネルにはタッチパネルの良さがあるけど指で操作した際に画面の大半が
隠れるような小さな液晶画面ではそれを活かすことはできないにょ。
私の体感だと指で操作するならば2.5インチ程度がまともに使用できる限界に感じるにょ。
タッチパネル搭載のPCを持っているならば1.5インチ程度のWindowsを作りその中にアイコン
表示をした場合に快適に操作可能か自分自身で確かめてみるといいにょ。
4.5インチWSVGA液晶(264ppi)のVAIO UXならば286ピクセル四方の領域がnanoと同じく
1.54インチに相当するにょ。(実際に試したけどとても満足行くようなレベルではない)
またDAPとして使うならば再生、停止、早送りなどはブラインド操作できるものが望ましい
けれどそれはタッチパネルで操作する以上はそれは無理になるにょ。

大きな支持を得ていたクリックホイールをやめてタッチパネル主体の操作に変えるという
ことはnanoを主力商品と考えていたらできないことにょ。(Classicもタッチパネル主体の
操作にするべきかとなるとあれは従来の方式を好んでいる人のためのものなのでありえない
わけだし、1.8インチHDDがボトルネックになるため全面液晶にしたら大きくて重いtouchに
なってしまう)
多くの人はnanoを大きすぎるとは考えてないし、小さくすることで筐体サイズで見た分類
ではshuffleと被ってしまう形になるにょ。

個人的にはDAPは「小さい方が望ましい」と考えているけどそれはある程度快適な操作性が
実現できた上での話にょ。
せめて、nanoも再生、停止、早送り、ホールドボタンをハードウェアとして実装していた
ならば評価が大きく変わっただろうけどこの第6世代nanoを見る限りかなり無理な小型化
と思えて仕方がないにょ。

では、それでもタッチパネル主体の操作になっているのはtouchと操作性を合わせている
ということにょ。
touchに慣れている人であればクリックホイールも良いとは言えないわけだし(多少は
慣れが必要であるため)そこまでハードウェアのボタンに拘る人も少ないと思われるにょ。
そこまでtouchを中心に考えるほど売れているのか実際のランキングで見てみるにょ。

 8月の携帯オーディオプレイヤー(BCNランキング)
 http://bcnranking.jp/category/subcategory_0004_month.html
 1位 iPod touch 32GB
 2位 iPod nano 8GB ピンク
 3位 iPod touch 8GB
 4位 ウォークマンS ホワイト
 5位 ウォークマンS ピンク
 (以下略)

確かに1位と3位(前月は1位、2位)ということで売れているというのには間違いない
けれどBCNランキングは色別に出ているため色違いがないtouchはランキング的には有利に
働くためこれだけでは何とも言えないにょ。
しかし、touchだけではなくiPhoneを加えると話は変わるにょ。
touchはiPhoneから3G通信などの機能を無くして安くしたものと考えられるため(順番から
いえばtouchの方が先だからtouchに3G通信その他を付けてスマートフォンとして売り出した
ものという方が正しいのだけどDAP視点ではこのようになる)事実上両者は同一ジャンルの
商品(iOS搭載の小型機)として考える必要があるからね。
touchはiPhoneが無かったらもっと売れているのは確実だろうけどiPhoneがあったからこそ
touchに注目が集まりだしたともいえるため両者は相乗効果で伸びているとも言えるにょ。

nanoはライバルであるウォークマンSがあまりに強いため端末だけで見るとかなり苦戦を
強いられているにょ。
「クリックホイールがあるからウォークマンSではなくiPod nanoを選んだ」という人は
かなり限られるのではないかと思うにょ。
やはり、ブランド力だけではなくiTSによる音楽配信などを理由に挙げる人の方が多いの
ではないかと思うにょ。

iPodの中から選択する場合、音楽しか聴かないからtouchの機能、性能は要らないし、
shuffleはあまりに機能が制限されすぎているということで消去法でnanoを選んでいる人も
最近は多いだろうからね。
そういう消極的な選択を行う人の場合はiPhoneを買ったらnanoを買うことはないにょ。
だからこそiPhoneを買ってさらにもう1台という形で違和感のないサイズ、操作性という
ことで考えられたのが今回の第6世代のnanoだと思うにょ。
ただ、それが良いかどうかは現時点では仕様だけから判断すると「微妙」としかいえず、
これが結果として良いか悪いかは発売後に実際に購入したユーザーからの反応や売上を
元に判断するしかないにょ。

359御茶目菜子:2010/09/04(土) 13:40:31
タブレット端末は本当に普及するのか?
さて、先日は新型iPodの発表があったのだけどこの度各社からiPad対抗となるような製品が
発表されたにょ。

東芝「FOLIO 100」
http://www.itmedia.co.jp/news/articles/1009/03/news029.html
サムスン「GALAXY Tab」
http://www.itmedia.co.jp/news/articles/1009/03/news026.html

写真だけでは分かりにくいけどすでに実際に使用している動画が公開されているので
それを見てサイズや動作の快適さを実感してみるといいにょ。
http://www.itmedia.co.jp/news/articles/1009/03/news083.html


さて、このようなタブレット型の端末は今後非常に多くの種類が発表、発売予定となって
いるにょ。
それらの多くは液晶サイズは7〜10インチ程度となっているにょ。
その理由となるのがタブレット端末は手に持って使う機会が多いため軽量なものが望ましい
ということに加えてあまり小型になりすぎるとスマートフォンとの棲み分けができない
という問題点があるからにょ。
実際スマートフォンはここ最近急増していて2015年には国内の携帯契約の半分近くを
スマートフォンが占めるという予想が出ているにょ。
http://www.itmedia.co.jp/promobile/articles/1009/01/news092.html

では、タブレット端末がスマートフォンと棲み分けをするといっても実際にどのように
行うかとうことが問題となってくるにょ。
すでに、タブレット端末として発売されており、唯一のヒット製品といっていいiPadだけど
価格comがiPadユーザーに対してアンケート調査をしてみたところ「7割弱(66.4%)が
自宅で使う」という結果になった模様にょ。
http://www.itmedia.co.jp/promobile/articles/1009/03/news080.html
これは自宅に居るときにノートPCなどの代わりにネット用の端末として主に活用している
ということがいえるにょ。

私を含め「自宅にいるならPCを使った方が便利」という意見の人も多そうにょ。
しかし、多くの人がPCがあるにも関わらずiPadを活用しているというのは「自宅に居ても
自分用のPCがない」という場合や「PCだと起動するのに時間がかかる」というのが
ありそうにょ。
前者においてはその役割はネットブックが担っていたにょ。
ネットブックがヒットすることで前者の意見の人はかなり減ったと思われるけどその
反面浮上してきたのが後者の意見だと思うにょ。
一般的に言ってPCは使うときに立ち上げ、使い終わったらシャットダウンという使い方が
メインとなっているからね。
さすがに常にコールドブートしていたら気軽に使うということはさすがにできないため
どうしても必要な時だけ使用するということになってしまいがちにょ。

Vista以降はスリープモードを搭載によってシャットダウンをするという人は減ったと
思われるけどネットブックにおいて主に使用されているOSはXPでありスリープモードは搭載
されてないにょ。
XPでもスタンバイ(サスペンド)を活用すればいいというだけの話とはいえ、実際常時
サスペンドでネットブックを活用している人はほとんどいないと思われるにょ。
私はLet'snote R5において常時スタンバイで運用しているけどこれはバッテリがフル
充電であれば10日〜2週間はメモリ保持ができるためであり、ここまでできるような
ネットブックは存在しないにょ。(R5をサスペンド状態で放置して試してみたら24時間
あたり8%のバッテリ消費となったため単純計算ではフル充電で約300時間となる)
XPのスタンバイはVistaのハイブリッドスリープとは異なりバッテリ切れでメモリ保持が
できなくなったら終わりだからね。

つまり、PCを常にコールドブートしているようなユーザーにとってタブレット端末は
高速起動の夢の端末になってしまうということにょ。
その上、1〜1.2kgもあるネットブックと比べ圧倒的に軽いし、バッテリ駆動時間も長い
ということで家庭内モバイルだけを見てもネットブックより多くの場所で活用が可能に
なるということがいえるにょ。
個人的にはiPadとネットブックが直接競合するわけではないと思ってはいるものの
iPad発売後はネットブックの売り上げが大幅ダウンしているということを考えるとやはり
ネットブックの代わりにiPadを使っているという人が多いといえるにょ。

タブレット端末は高性能スマートフォンと大して性能差はないとはいえ、自宅で使うのが
メインとなると画面サイズが大きなタブレット端末が有利になるにょ。
実際上記アンケート調査でもiPadユーザーはiPadを持ってない人と比べてiPhone所有率が
高くこれは言い換えるとiPhoneを持っていてもiPadを活用しているということになり
iPhoneがあるからiPadは不必要と単純に言えるものではないということにょ。
スマートフォンの多くは画面サイズが4インチ前後でWVGAの液晶モニタを備えているにょ。
それに対して現在発表されているタブレット端末の多くは7〜10インチでWSVGAの液晶
モニタを備えているにょ。
できること自体に大差がないといってもどちらが快適かというとそれは言うまでもない
ことだと思うにょ。

問題はタブレット端末はPCを持ってない人が買うべき端末ではないということにょ。
確かに「Windowsでないとできないこと」というのは近年減っているとはいえまだまだ
Windows PCが必要になる機会も多いからね。
実際iPadを最初に使う際にはアクティべーションが必要なのでPCは必需品といえるにょ。
これはタブレット端末の中でもiPadが例外といえることだけど実際に売れている端末の
大半がiPadであるため無視はできないにょ。
結局(非Windowsの)タブレット端末はPCを持っている人が買うべき製品ということにょ。
そうなるとネットブックがヒットしたということがタブレット端末の追い風になっている
ともいえるにょ。

さて、さらに問題となるのははその金額を投資するに値するような製品かどうかという
ことにょ。
自宅でしか使わないのなら別にタブレット端末は要らないという人も多いのではないか
と思うにょ。
実際、ネットブックの重量で家庭内モバイルで困る機会も少ないだろうしバッテリ駆動
時間が多少短くてもすぐに電源確保できるるからいざとなればACに挿して使えばいいと
いうだけの話だからね。
とはいえ、さすがにモバイルするとなると変わってくるにょ。
ネットブックのサイズ、重量でも持ち歩くのには不適と感じている人が多いのではないか
と思われるにょ。(というか、持ち歩く人が少ないからより使いやすいサイズに大型化
されてしまったわけだし)

その点、タブレット端末は重量面、サイズ面でネットブックより有利なものが多いにょ。
iPadは画面が大きいということがメリットだったけどその反面約700gという重量に不満を
持つ人が多かったにょ。(これもWindows PCの感覚でいえば画面サイズの割りに軽量なの
だけどアンケートでは移動中に使用すると答えた人は8.9%しかいない)
5月17日にも書いたように例え1kgであっても「実際に使うかどうか分からないようなPC」を
常にバッグに入れておくなんてなかなかできないからね。
しかし、上記のサムスン「GALAXY Tab」は7インチで380gという軽量化なものになって
いるにょ。
このサイズ、重量ではネットブックの持ち歩きに躊躇していた人にとっても有効活用
可能になるにょ。
iPadも来年には7インチ液晶搭載の小型軽量モデルが登場するという噂もあるからね。

持ち歩いて使えるというのであればPCを持っていても十分買う価値はあるだろうから
ヒットに繋がる可能性はあるにょ。
「ネットブックよりも小型軽量」であり「手に持った状態で使える」ため電車などでも
気軽に取り出して使うことができるというのはネットブックに対して大きなアドバンテージ
であり、スマートフォンに対しては「画面サイズや解像度で優れている」という
アドバンテージがあるわけだしね。
ただ、現時点では安価な端末はほとんど3G通信は内蔵されておらず無線LANのみ搭載と
なっているにょ。(3G通信が内蔵されても別途料金がかかるとなると微妙だけど)
そのためモバイルルータを別に買うか無線LANが使える場所で使わざるを得ない状況に
なっているにょ。
そのためモバイル時の通信ではスマートフォンの方が有利であるといえるにょ。
したがって、タブレット端末が普及するには通信インフラとそれを利用するためのコストが
重要となるにょ。

360御茶目菜子:2010/09/05(日) 13:03:44
新型iPod touchは私が求めていたPDAなのか・・・?
私は過去に8台のDAP(PDAの音楽再生機能は除く)を使ってきたにょ。
その経験から導き出された私がDAPに求めているものは4月24日に書いたような8つの項目が
あるにょ。

(1)最低8GB、できれば16GBの容量
(2)実駆動で最低10時間、できれば20時間以上
(3)小型・軽量
(4)曲名やアルバム名が確認できるくらいの画面解像度
(5)エクスプローラからD&Dで転送可能
(6)フォルダ管理が可能
(7)ストレスを感じさせない操作性
(8)予算は最大で2万円(できれば1万円以内)

先日発表された新型iPad nanoは一昨日書いたように操作性を疑問視しているため残念ながら
(7)を満たせないので私が求めているようなDAPではないにょ。(ただし、(5)、(6)は妥協
した場合)
旧nanoは(5)、(6)さえ妥協すれば残りの条件を満たすことができたにょ。(現時点で
すべての項目を満たせるのは普通に店頭入手可能な製品の中ではウォークマンSくらい
なので次にDAPを買うならば現時点ではウォークマンSが最有力候補となっている)
ではtouchはどうなのかというと(3)(7)(8)を満たせないにょ。
よって、touchはDAPとして考えた場合には私の理想には全然達しないにょ。
しかし、これがPDAとして考えた場合にはまた変わってくるにょ。

では、私がPDAに求めるものは何なのか・・・?
今から5年前の2005年8月9日〜11日の3日間に渡って書いたときは下記のようなもの
だったにょ。

◎ハード面
 (a)小型軽量(概ね5インチ×4インチ×1インチ、1ポンド程度)
 (b)長時間駆動可能(実駆動時間8時間以上)
 (c)それなりに使えるキーボード(PC-E500程度の使いやすさは欲しい)
 (d)解像度VGA以上の液晶
◎ソフト面
 (e)Webブラウザ(タブ機能必須、出来ればFlash対応)
 (f)PIM(MI、PIザウルス並の使いやすいもの)
 (g)テキストエディタ
 (h)音楽、動画再生機能(出来ればSD-VIDEO再生可能なもの)

しかし、これは普遍のものではなく時代や環境によって変化しており、現時点では下記の
ようなものになっているにょ。
5年前だとPCで動画再生するならPen3 1GHzくらいあれば十分だったけど今はそれでは
全く足りないわけだからスペック1つをとっても普遍であるはずがないということが分かる
と思うにょ。

というわけで、私がPDAに求めているものを改めて書いてみるにょ。

 《 私がPDAに求めるもの 》 ver.2010
 (1)無線LANによる通信が可能
 (2)WVGA以上の解像度の液晶画面
 (3)小型・軽量(モバイルランクAに相当するレベル)
 (4)実駆動8時間以上
 (5)それなりに快適にテキスト入力が行える
 (6)まともに使えるWebブラウザがある
 (7)使いやすいPIMアプリがある
 (8)安価(3万円以下)

(1)〜(5)がハードウェアに関するもの(5)〜(7)がソフトウェアに関するもの(8)はそれ以外
となっているにょ。
というわけで、以下はそれぞれの具体的な説明となるにょ。

(1)これは説明するまでもなく今は通信をするのに必要不可欠となるにょ。
必需品であるため「内蔵されていないもの」は自動的に対象外となるにょ。
とはいえ、今時の端末で内蔵されてないようなものはないだろうけど・・・。

(2)今時はケータイでもWVGAは当たり前といっていい状況なので少なくともそれくらいは
ないとPDAとしてケータイ以外のものを持ち歩く(ケータイと棲み分けをする)メリットが
全くないからね。
これはWeb閲覧などビューア目的で使用するためであり、PIM専用と割り切れるのであれば
QVGAでも問題ないにょ。
ただし、それならばカラー液晶である必要さえなく、反射型モノクロ液晶で十分となって
しまうにょ。
PIM専用の超安価なモノクロPDAなんてものがあればいいけどそれならば旧世代のPDAを
中古で買えばいいという話になってしまうにょ。(旧世代のPDAでも乾電池式であれば
PCとのシンクロを考えない場合PIM用途なら十分現役として使えるため)

(3)これはどの程度かという具体的な数値を持ち出さないと分かりにくいと思うにょ。
5年前に書いた「概ね5インチ×4インチ×1インチ、1ポンド程度」(ほぼリナザウサイズ)
というのが1つの基準となるにょ。
ここで問題となるのは当時はA5ファイルサイズのモバイルノートとの棲み分けとして
そのサイズを考えていたというのが大きいけど今ならばポケットに何とか収まる程度の
小型のWindows PC(PMやBXなど)が安価で入手可能だからね。
それにポケットサイズPCといえば私は現在VAIO UXを使っているにょ。
それらと棲み分けを行えるくらいの小型軽量なものを求めているということにょ。

私はモバイル機器にはサイズや使用頻度によってモバイルランクを定めているけど
ケータイはランクA、ポケットサイズPCはランクBとなり、もしも新しいPDAを買う場合は
限りなくランクAに近いB、もしくはランクAになるようなものにしたいということにょ。
UXを買ってからポケットサイズPCをPDA代わりに使うというのは幻想であることに気づいた
からね。
だから、ポケットサイズPCには良さがあるもののそれを持っていることを前提(それらとの
棲み分けが行える)PDAを考えた場合にはWindows PCでは実現不可能なサイズになるにょ。
ランクA並となるとモバイル機器ではないものの普段使っている手帳の外寸サイズは
10.5×8×0.8cm程度であり、最大でもこれと同レベルのサイズが求められるからね。

(4)Windows PCであっても今後はチップの統合によってさらに小型化が可能になれば(3)を
満たせるようになるだろうけどその場合であってもバッテリ容量を削る必要があるため
(4)を満たすのは難しいにょ。
現在もAtom Z搭載のWindows PCであってもARM搭載の端末の数倍の容量のバッテリを搭載
すれば同一レベルの駆動時間は実現可能になるにょ。
これは5月8日に書いたように実駆動2倍程度の消費電力の差があるからね。

それ以上に問題なのは動作時の消費電力ではなくサスペンド時の消費電力にょ。
昨日はノートPCを持っていても自宅でiPadを使用している人が多い理由として起動時間が
短いということが挙げられたけどこれは端末をコールドブートしているのではなく単に
サスペンドから復帰しているだけにすぎないからにょ。
Windows PCであってもサスペンドからの復帰であれば数秒で起動するけどWindows PCだと
サスペンド中の消費電力もバカにはならないにょ。

昨年12月7日に「私がポケットサイズPCに求めるもの」ということでサスペンド時の
メモリ保持1週間(24時間×7=168時間)可能なものというのを理想としてあげたけど
これができるようなポケットサイズPCはほぼないにょ。(Viliv S5くらい)
VAIO UXでもたったの40時間程度だからね。
サスペンド時のメモリ保持時間が50時間のPCを2日に1回充電する場合、実駆動8時間で
あっても実際に使える時間はゼロに等しいものになるにょ。(残量0%まで使えるとした
場合に単純計算で実駆動8時間駆動のPCが実駆動20分になってしまう)
OakTrailでこれは大幅改善されるだろうけど現時点で製品がない以上は比較対象に挙げる
ことはできないにょ。

(5)はソフトウェアとハードウェアの両方を意味しているにょ。
ハードウェアとしてキーボードを備えているのがベストだけどソフトウェア入力でも
十分に妥協できるレベルならばそれでも許容できるというわけにょ。
そもそも今となってはPDAはただのメモ書きやPIMの入力程度であるためそれさえこなせる
レベルであれば問題ないので「(ここで書いているレベルの)長文を入力する」なんて
ことは求めてないにょ。
したがって、6月11日に書いたようにハードウェアのキーボードがあるにこしたことはない
けれどそれがないことで薄型、軽量が実現できるのであれば「キーボードがない」という
選択肢を積極的に求めていきたいにょ。

(6)「まともに使えるWebブラウザ」とは何ぞや・・・という意見のある人がいるだろうけど
一般的にPC用として多く使われているレベル(IE8、chrome、Firefoxなど)であれば
十分ということにょ。
リナザウに搭載のWebブラウザ(NetFront 3.0)は今となってはお世辞にも「十分」とは
言えないレベルにょ。(今ならばFlash10.1、Ajaxなどに対応してないと・・・)
ケータイのフルブラウザの方がマシと思えるシーンさえあるからね。
ケータイの場合はPC用サイトが見れないとしてもケータイ向けのモバイルサイトを利用する
という方法もあるけどケータイではないPDAであればそのようなサイトは利用できない
場合もあるにょ。

Web閲覧なんてWin95+IE3.0で十分というような人であればPDAにそんな高性能なWeb
ブラウザは不要だろうけどケータイのフルブラウザ以下であればWeb利用としてPDAを
使用する意味はほとんどなくなってしまうにょ。(それこそモノクロPDAで十分となる)
Webの利用という観点だけをみれば「ケータイ<PDA<PC」のような感覚でありケータイと
PCは持ち歩いているということを前提に考えてPDAですべてのサイトが完璧に見れる必要は
ないけどあまり不満なく見れるということが重要になってくるわけにょ。

(7)「使いやすい」というのは主観が入るためどうしても難しくなってしまうにょ。
そのため実際に自分である程度使ってみないと使いやすいかどうかは分からないにょ。
「慣れの問題」か「自分に合わない」かというのは少し使っただけでは判断が難しい
場合があるからね。
そのため、この項目に関しては具体的にこうすべきというものはあえて挙げないように
するにょ。
個人的にはPI、MIザウルスのPIMは比較的使いやすかったにょ。

(8)なんといっても価格は重要にょ。
ただ、価格の基準は時代によってかなり変わってくるにょ。
実際PCの価格も昔と今では変わっているわけだしね。
PDAに関しては10年前は7万円、5年前は5万円が1つの基準だったけど今ならばそれは
3万円にょ。
5万円出せばポケットサイズのWindows PCが手に入る以上はそれよりも低コストで作れる
品に対して5万円以上を払う気にはなれないからね。(実際はPMは特売では3万円程度で
販売されていたわけだし)
つまり、3万円というのは無茶な要求ではなく現実的な要求であるといえるにょ。

「小さい方が高いのが当たり前」というのがかつてのモバイルPCでの一般論だったけど
これはネットブックが低コスト、大量生産によって安価に作れることが実証されたわけ
だからね。
Atom Nよりコスト面で不利だし、ネットブックほどの量産化がされてないAtom Zを用いた
ポケットサイズPCでも5万円程度となるとよほどコストをかけた小型化、軽量化でない
限りは高価になるという理由にはならないにょ。(モバイルノートが今も尚高価である
のは軽量化にコストがかかっているというのもある)
現状でAtom Zを用いたリナザウサイズ、重量のWindows PCを作れば高密度基板が必要
だし、メモリも高価でも高容量のものを使用することになるため結果として高コストに
なってしまうにょ。(安価で済ますならばPMのサイズとなるだけでありあれが今の技術の
限界というわけではない)
その点、ARM搭載端末であれば小型化においてWindows PCよりも容易にょ。

(1)〜(7)は実際のところ最新のハイエンドスマートフォンを買えばほぼ解決出来るレベル
であり決して難しいものではないにょ。
だから設けたのが(8)のラインにょ。
例えばiPhoneが欲しいと考えた場合、現在使っているガラケーと併用した場合には
「維持費がかかる」とか「回線がsoftbankだから」という理由で買わない人もいること
だと思うにょ。
ただし、PDAとして使う場合(つまり、通信回線は無線LAN経由でのみ使用する場合)
それらはネックにはならないにょ。

iPhoneを一括で購入し、回線契約を解約すれば済むという問題だからね。
昔は、端末代金は月々の使用料金を考慮した価格(簡単に言うとインセンティブの含まれた
価格)となっていたために新規即解はモラルに反するという認識も強かったけれど今は
少なくともsoftbankは一括購入時はインセが含まれない価格となっているため即解は
問題のあることではないにょ。(端末販売だけでも利益が出せる価格となっている)
iPhone4(32GB)を一括購入すると57600円となるにょ。
つまり、これだけ払えば無線LAN専用のPDAとしてiPhone4が手に入るわけにょ。(実際は
新規契約と初回分の月額使用料が必要)

つまり、PDAに5万円以上出せるという人であればスマートフォン全盛の今となっては
選択肢がいくらでもあるということにょ。
ただし、PDAとして使用する場合には使えない3G通信部分やその他のものに余分なコストを
支払うことになるにょ。
金はあるからそんなのは気にしないという人であればいいけど残念ながら私はそんなに
裕福ではない貧乏性なので使えないものに投資はできないにょ。
要するに私がPDAに感じている価値がその程度(3万円程度)だといえるわけにょ。

あと5年前に書いたような動画、音楽再生機能は要らないのか?というとそうではなく
「必要不可欠なもの」から「あれば利用する」という程度に変わっただけにょ。
というか、現在のAndroid、iOS端末でそれらが再生できないという端末もないしね。
それから、そういった動画や音楽の利用だけではなくアプリの積極的な利用を考えると
ストレージは最低でも16GBは欲しいにょ。
micro SDHCに対応しているならばそれでいいけど内蔵メモリだけであれば最低でも16GB
以上搭載されたものを望みたいにょ。

以上を元に考えるとiPod touchはほとんどの項目を満たすことが出来ていると思うにょ。
WebブラウザはFlashに対応していないという問題があるし、PIMアプリは本当に使い
やすいものがあるのか実際に使わないと分からないという不安要素もあるけどね。
しかし、定価27800円と従来モデルより2000円値下げされただけでなく液晶画面の解像度も
960×640へと大幅強化されたしね。
それにiOS4.1搭載でマルチタスクに対応したのも大きいにょ。
サイズ面も111×58.9×7.2mm、101gであるためWVGA以上の液晶を備えたPDA(ネイティブ
アプリが動作するWeb端末)の中では最小の部類になるにょ。

iPhone4との差別化のためGPSこそ内蔵してないけど各種センサーは同様に搭載しているし
カメラやマイクも備えているためそれらに対応したアプリも利用することが可能になった
というのは大きいにょ。(カメラ自体はiPhone 4より貧弱だけど搭載されているだけマシ)
従来のtouchでは内蔵されてないため「iOS搭載だけど使えないアプリ」というものが
結構あったのが無くなるということだけでもかなり良いことだと思うにょ。
現時点で唯一感じている難点といえば、脱獄しない限りはアップル認証のアプリしか導入
できないということかもしれないにょ。

361御茶目菜子:2010/09/06(月) 13:23:05
新しいデジカメを買った理由
新しいデジカメを買ったにょ。
買った機種はPanasonicのLUMIX FX66にょ。
http://dc.watch.impress.co.jp/docs/review/newproduct/20100408_359720.html
といっても4週間後の妹の誕生日プレゼント用だけどね。(保護フィルタとSDHCもセットで
プレゼント)
近所のキタムラで14400円の破格値だったにょ。(ちなみに色はピンク)
半年前の発売当初の価格は3.5万円くらいの機種なのでお買い得感は非常に高いにょ。

ここ10年くらいは毎年デジタル関係の品ばかりプレゼントしているけど今年の候補に
挙げたのはデジカメ、プリンタ、デジタルフォトフレームだったにょ。
昨年は写真加工用としてペンタブレット+2GBのDDR2メモリをプレゼントしたけどやはり
そうなると加工したもの飾りたくなるのではないかと考えたからにょ。
とはいえ、プリンタは4年前にプレゼントしたL版、ハガキサイズ用のものがあるため
それより大きなものにプリントしたいと思うかが重要にょ。
そうなるとまず大きなプリントをしたいと思わせるには元となる写真がキレイに撮れる
必要があるのではないかと考えたにょ。

妹が現在使っているデジカメは500万画素のFX7にょ。
さすがに6年前の機種ということで現在のものと比べるとかなり劣るとはいえ、普通に
使うのは十分なのでよほど理由がないと買い換えの必要性を感じないかもしれないにょ。
一応古い機種とはいえ光学式手ぶれ補正機能が付いているからね。
光学式手ぶれ補正機能は2005年くらいから採用機種が増えて今ではほぼすべての機種に
搭載されているもののエントリークラスの機種には電子式手ぶれ補正機能しか搭載されて
ない場合が多いから安くても「初心者向け」とは言い難いにょ。

そういうことで、デジカメをプレゼントしようと考えたけど実売1万円台のコンデジは
かなり多くの機種がある中でFX66を選んだのは下記のような理由があるからにょ。

(1)超解像に対応した1400万画素
(2)広角25mm(相当)からの5倍ズーム搭載
(3)SDXC対応
(4)クラス最速AF
(5)コスメティックモード搭載

(1)「高画素=高画質」ではないということはここで何度も書いたけどやはり画素数は
少ないよりも多いと考える人が多いからね。
1/2.3インチセンサーでは1000万画素以上ではまともに解像している機種は皆無とは
いえこの機種以降のPanasonicのデジカメは超解像モードが搭載されているにょ。
動画において超解像は非常に有用なのだけどそれは前後フレームのデータを利用できる
というのが大きいにょ。
静止画においてはその画像だけでは情報量不足で解像していないものを解像するという
のは不可能にょ。
したがって、超解像というのはシャープネスの一種にすぎないにょ。

とはいえ、一旦JPEGとして生成されたものにシャープネスをかけるというのとは異なり
内部で画像解析を行い部分的にシャープネスの度合いを変えるという仕組みのため
一般的なフォトレタッチソフトを用いて均一にシャープネスを高めるよりは遙かに効果的と
なっているにょ。(後からレタッチするのではなく一般的なデジカメでシャープネスを高め
撮影した場合でも線が太くなり、不自然な描写になってしまうことが多い)
解像してないものを解像するほどの効果はないけどぼやけて形が見えないものが何となく
見えるレベルにはなるため非常に有用にょ。
ただし、4月11日に書いたように1/2.33インチ、1400万画素センサーの場合はF2.7で回折
限界に達するにょ。
FX66の場合は広角側はF2.8でギリギリラインとなるけど望遠側はF5.9であり回折限界を
大きく超えているため超解像をONにしてもほとんど効果がないにょ。

(2)少し前までのコンデジは換算35mm付近からの3倍光学ズームというのが主流だったにょ。
しかし、ここ最近は広角対応の機種が急激に増えたにょ。
FX66は換算25mmからの広角ズームということで35mmよりは明らかに広い範囲を写すことが
可能になるにょ。
35mmでは撮れないような風景を撮ったり、狭い室内での集合写真を撮ったりなど広角に
対応しているというメリットは大きいにょ。
ただし、一般的には望遠側も良く使われるにょ。
35mmからの3倍ズームだと望遠側は105mmだけど25mmからの5倍ズームだと望遠は125mmと
なるため望遠側も劣ってないため非常に有用にょ。

(3)2006年以前の機種はSDカードのみ対応(SDHC非対応)だったにょ。
2006年からは一部の機種、2007年からはほぼすべての機種がSDHC対応(ファームアップ
可能な機種であれば2006年より旧機種でもSDHCに対応可能になっているものはある)と
いうことで現在も十分現役として使えるけど最大2GBのSDカードにしか対応していない
機種はさすがに厳しいにょ。
とはいえ、当時だと500〜700万画素ということで1000万画素が当たり前の時代となって
いる今よりは1枚当たりの容量は少ないけどね。

あと静止画だけならいいけど動画を撮るとなると2GBでは全然足りず昔はQVGAでしか
撮れない機種が大半だったにょ。
これは容量だけの問題ではなくビデオカメラとの棲み分けのためだろうけどね。
ビデオカメラ部門のないカシオやサンヨーはMPEG4採用によって積極的に動画をアピール
してきたけどビデオカメラにも力を入れている家電系メーカーや元々カメラを作っている
ため動画には力を入れてないカメラメーカー(ニコンなど)はQVGAの時代が長かったにょ。
しかし、最近のHD化の波によってここ2、3年に発売された機種は大半がHD動画撮影可能と
なっているにょ。(エントリーモデルとハイエンドモデルを除けばほとんどが対応)
今年発売になったFX66は当然のことながらHD動画対応にょ。(ただし、Motion JPEG)

SDHCならば32GBまで対応しているということでそれほど容量的には困らなくなったとは
いえ、SDXCならば規格上は2TBまで対応しているのでほとんど無制限というレベルまで
撮れるようになるにょ。
もっとも現時点では64GBまでのSDXCしかないし、それが4万円もするということでSDXCは
必須とはいえないけど今後5、6年使い続けるつもりならば価格的なデメリットがほぼない
SDXC対応の機種を選ぶ方がいいからね。

(4)AFが遅いというのが多くのコンデジの弱点だったけどFX66は0.25秒(広角時)という
コンデジとしては最速レベルのAF速度を実現しているにょ。
これを完全に超える速度となると位相差検出方式を採用したFinePix300EXRなどしかない
わけだからね。

(5)これはFX66以降のLUMIXに搭載されたモードにょ。
要するに肌をキレイに撮るものにょ。
具体的には画像解析をしてシワ、シミを目立たなくしてマツゲなどはシャープにした上で
肌の色も3段階に設定可能になるというものにょ。
これもフォトレタッチ技術のある人であれば後からでもいくらでも可能とはいえ、
カメラ任せのオートでできるということで搭載されていることを喜ぶ女性は多いのでは
ないかと思うにょ。

あとFX66に限らず最近のコンデジの特長として高感度に非常に強くなったということが
挙げられるにょ。
5、6年前のコンデジは最大感度がISO400までだったにょ。
デジタルの場合はゲインアップでISO1600や3200でもいくらでも可能とはいえ無理に上げた
としても使い物にならないからね。
当時はまともに使えるのはISO100までで最大のISO400ではすでに塗り絵状態になっていた
ためとても使えたものではなかったにょ。
しかし、昨今では1/2.3インチクラスのコンデジでもISO400がそこそこ使えるレベルに
なっているにょ。
裏面照射センサー採用や1/1.7インチクラスの大型センサー採用機ならばISO800でも
そこそこ使えるにょ。

私は昨年末に常時持ち歩き用のコンデジをCOOLPIX S1からCybetshot TX1に買い換えた
けれどこの高感度時の描写性能はかなり感動したからね。
センサーおよび画像処理エンジンの世代の進歩だけで上記のような非常に大きな差(私の
感覚的には2〜4倍くらいの差)があるのに加えて裏面照射で2倍効果、ノイズ低減効果の
ある手持ち夜景モードで撮影時にはさらに2〜4倍の効果があるからね。(S1のISO400は
使えないレベルだけどTX1の手持ち夜景で撮影したISO3200は使えるレベルの描写力)

というわけでFX7からFX66に変えることであらゆる状況下において確実に描写力アップに
繋がると想定できるにょ。
同じメーカー(同じ系列機種)であるため操作性にあまり差がないため違和感なく使える
というのもあるしね。
裏面照射センサー採用機は高感度には強いけど日中描写力ではまだ他のセンサー採用機
よりは劣るし、屈折光学系の機種だと使用時にもスリムで私は好きだけど構造上レンズ
性能を上げられないために場合によっては画素数が増えてもFX7の描写力より劣る可能性
さえあるにょ。(それに屈折光学系はレンズが飛び出さないため指で隠れていても分かり
にくく構え方に気を付ける必要がある)

これで、キレイな写真がたくさん撮れるようになったら来年はプリンタかな・・・?
そもそもでっかくプリントするというようなことをしないかもしれないけどね。
私もA4プリントでさえ年に数枚というレベルであるためプリンタは非常にコスト
パフォーマンスが悪いにょ。

362御茶目菜子:2010/09/07(火) 13:14:34
超解像がコンデジの新しいトレンドになる?
昨日はFX66について書いたわけだけど1/2.33インチ、1400万画素という極小ピッチ(画素
ピッチ1.35μm)のセンサーであるが故にレンズ性能が画素ピッチに追いついておらず
等倍鑑賞はかなり厳しいのだけど超解像技術によってそれはかなり緩和することは可能と
なっているにょ。(1400万画素で撮影して500万画素くらいにリサイズすればいい感じに
なるため画素数が多いということは必ずしも悪いことというわけではない)

この超解像モードはPanasonicのコンデジ(2010年発売モデル)にしか搭載されてなかった
けれどカシオのEXILIMも最新モデルでは搭載されているにょ。
というわけで、改めて超解像とはどんなものか、また、カシオの超解像技術はどの程度
なのかをこのEXILIM EX-S200のレビューを元に考えてみることにするにょ。
http://dc.watch.impress.co.jp/docs/review/newproduct/20100906_390981.html

◎光学端
 超解像OFF http://dc.watch.impress.co.jp/img/dcw/docs/390/981/31.jpg
 超解像ON http://dc.watch.impress.co.jp/img/dcw/docs/390/981/33.jpg

◎望遠端
 超解像OFF http://dc.watch.impress.co.jp/img/dcw/docs/390/981/32.jpg
 超解像ON http://dc.watch.impress.co.jp/img/dcw/docs/390/981/34.jpg


このS200はスタイリッシュな薄型モデルということでレンズ性能がそれほど高くなく
ただでさえ極小ピッチであるため広角端、超解像OFFだと等倍鑑賞はやや厳しい感じと
なっているにょ。
しかし、同じく広角端でも超解像ONのものを見てみると明らかに変わっているにょ。
両者において明確に異なる部分といえば背景にあるビルにょ。
超解像ONでは輪郭線がはっきり出ているということは両者を見ればひと目で分かると
思うにょ。
蓮の葉を見てもビルほどではないけど輪郭線がはっきり出ているようになっていると
思うにょ。(手前の葉が特に効果が大きい)

望遠端を見てみると広角端では絶大な効果があったビルの輪郭線は一応の効果はある
もののそこまで極端に効果はないにょ。
これはレンズ性能の問題(解像力と回折限界の問題)によって大きく解像感が不足して
いるために超解像では補正が間に合わないためだと推測できるにょ。(ピントが合って
ない部分なのか単に解像しきれてない部分なのかの判断が難しいため)
超解像というのは昨日書いたように画面均一にかかるシャープネス処理とは異なり画像
解析を行い部分ごとに処理を変えることで実現しているにょ。
それ故、効果が大きい部分と小さい部分がどうしても出てしまうにょ。

シャープネスは全体にかかるため輪郭線を強調するとノイズまで増えてしまうという
厄介な問題があるにょ。
それでは超解像はどうなのか・・・。

◎ISO50
 超解像OFF http://dc.watch.impress.co.jp/img/dcw/docs/390/981/44.jpg
 超解像ON http://dc.watch.impress.co.jp/img/dcw/docs/390/981/51.jpg

◎ISO400
 超解像OFF http://dc.watch.impress.co.jp/img/dcw/docs/390/981/47.jpg
 超解像ON http://dc.watch.impress.co.jp/img/dcw/docs/390/981/54.jpg

◎ISO3200
 超解像OFF http://dc.watch.impress.co.jp/img/dcw/docs/390/981/50.jpg
 超解像ON http://dc.watch.impress.co.jp/img/dcw/docs/390/981/57.jpg

ISO50の作例を見てみると無ノイズだけど等倍鑑賞では極小ピッチということを考えれば
こんなもんだろうという感じだったのが超解像ONにすることで明確な変化が出てきたにょ。
このように建物のようなエッジがはっきりしたものに関しては超解像の効果が極めて
大きいものであることが分かるにょ。

ISO400になるとノイズが増えそれを低減するために塗り絵チックになりつつあるにょ。
超解像をONにしてもISO50の時と比べたら輪郭線ははっきりでないものの十分な効果は
ある感じにょ。
しかも、ノイズが増加しているようには見えないにょ。

ISO3200はさすがに相当無理があるため超解像をONにしても目に見えて分かるような効果は
得られないにょ。
とはいえ、ISO800〜1600では高感度ノイズ低減によるディティール損失が大きいけど
超解像を使えば輪郭線がはっきり出るのでかなり有用といえるにょ。
このように超解像はシャープネスのように画面均一にかける処理ではないため効果は
部分を強調するために他所が犠牲になるということがなく超解像をONにすることによる
ことでノイズが増加するという問題もなさそうにょ。

超解像はズームにも活用されているにょ。
ズームには光学ズームとデジタルズームの2種類があるけど前者は無劣化なのに対して
後者はただのトリミングしたものを拡大補間するだけであり画質面では大きく劣るにょ。
例えば1200万画素のデジカメにおいて4倍デジタルズームを使うと1200万画素の4分の1の
300万画素を拡大するというイメージがあるかもしれないけど4倍ズームは縦横4倍である
ため画素数では16倍になるため75万画素となるにょ。(1200万画素のデジカメで4倍
デジタルズームを使用するということは75万画素で撮影したものを1200万画素に拡大補間
して記録しているということ)
1200万画素(光学4倍ズーム)と75万画素(4倍デジタルズーム)ではさすがに誰が見ても
その違いは歴然にょ。

S200は光学4倍ズームを搭載した1400万画素のデジカメであるため4倍デジタルズームを
使用時には16倍相当のズームになり、画素数は87万画素を拡大補間した1400万画素と
なるにょ。
http://dc.watch.impress.co.jp/img/dcw/docs/390/981/36.jpg
さすがに87万画素を16倍の画素数に拡大補間しただけなので等倍では見るに耐えない
感じにょ。

ならば等倍で使用せず縮小前提と考えればいいけどそれならばこんな画素数で記録する
必要はないし、拡大補間の時点で劣化しているのにそれをさらに縮小するという劣化の
繰り返しをするというのはあまり好ましくないにょ。
最大画素数で記録する必要がないのならばPanasonicのEXズームやソニーのスマート
ズームのようにセンサーの一部のみを使ったただのトリミングによるズームの方が
このような一般的なデジタルズームよりは遙かに有用にょ。

しかし、超解像を用いれば少しだけ解像力不足ならば十分補えるということは上記の
作例を見ても分かると思うにょ。
これを使ったデジタルズーム+超解像というものがあるにょ。
これはカシオは「超解像ズーム」と呼んでいるにょ。(Panasonicは「iAズーム」と
呼んでいる)
デジタルズームは最大4倍まで可能なのだけどこれを1.5倍まで(Panasonicは1.3倍まで)
と抑えることで超解像で解像力不足を補えるというわけにょ。

ただ、1.5倍ズームといっても画素数でいえば2.25倍にょ。
S200の場合は620万画素を1400万画素に拡大補間している状態にょ。
http://dc.watch.impress.co.jp/img/dcw/docs/390/981/35.jpg
これが実用になるかどうかは人によるけどさすがに超解像を用いても現時点のアルゴリズム
では1.5倍デジタルズーム(4倍光学ズームと合わせて6倍ズーム)はやや厳しいような
感じがするにょ。

超解像ズームの実用性はともかく超解像そのものはONにすることで特にデメリットとなる
部分はないと思われるにょ。
しかし、全くデメリットがないというわけではなく現時点では超解像は処理に時間が
かかるというデメリットがあるにょ。
S200でも1枚撮影後に3秒くらい処理に時間がかかるみたいだしね。
とはいえ、効果を考えれば妥協は可能だと思われるにょ。(私が普段使っているTX1の
「手持ち夜景モード」も処理に3、4秒かかるけど1〜2段分のノイズ低減効果は非常に有用に
感じている)

それにプロセッサ性能は年々向上しているので大きな問題でもないにょ。
今は当たり前のように搭載されている顔認識でも最初は1人の顔を追いかけるのが精一杯
だったけど今は16人でも余裕だからね。
これもプロセッサ性能の向上の賜にょ。
性能が向上すれば処理時間が短くなるだけではなくより高度なアルゴリズムを用いて
さらに効果的な超解像処理を行うことが可能になるにょ。
これは画素ピッチが小さなコンデジでは非常に有用になるにょ。
現時点では画素ピッチの面では余裕があるデジタル一眼でも画素数が増えていけば将来的
には超解像対応のRAW現像ソフトが登場するかもしれないにょ。

363御茶目菜子:2010/09/08(水) 14:10:19
スマートフォンとポケットサイズPCは棲み分け可能なのか?
9月5日には新型iPod touchはポケットサイズのWindows PCと棲み分けができるということを
前提に書いていったにょ。
ポケットサイズPCはWindows搭載であるが故にAndroid OSやiOSでは出来ないことも可能に
なるからそれ自体に間違いはないにょ。
ただ、AndroidやiOSがWindowsを駆逐するというわけではなく現実的な利用面において
「棲み分け」というほど明確な活用方法の違いを果たして見いだすことができるのか?

ポケットサイズPCでいえば、現時点で最も完成度が高いものはViliv N5だと私は感じて
いるにょ。
N5が先行していたPMやBXと比べて大きなアドバンテージとなったのは5月28日に書いた
ようにメモリを1GB搭載していることやSSDが交換可能なことにょ。
「スマートフォン時代」が訪れようとしている中、このN5が本当に実用的になるのか
モバイルに詳しい戸田氏のレビューを見てみることにするにょ。
http://trendy.nikkeibp.co.jp/article/column/20100903/1032829/

最初に書いておかなくてはならないのはリンク先レビューではN5は「ミニノート」と
記されているけどここでは「ポケットサイズPC」としていることにょ。
ミニノートに明確な定義はないけどLibrettoが発祥となった小型のノートPC全般を示す
ことが多いため私はポケットに入るくらい小型のPCに関しては「ポケットサイズPC」と
呼んでいるにょ。
呼び方に差異はあるものの戸田氏が言うミニノートと感覚的な違いがあるわけではないと
思われるにょ。(すでに小型のネットブックより「ミニ」であるというニュアンスで
用いていると思われるため)

まずは本体のサイズに関してにょ。
http://trendy.nikkeibp.co.jp/article/column/20100903/1032829/?P=2
388gというN5は非常に軽量で昔のPDA並といえるにょ。
実際パワーザウルスは本体だけで320gあったからね。
http://www.watch.impress.co.jp/pc/docs/article/970623/sharp.htm
私はカメラユニットを付けて持ち歩いていたけどこの時のサイズや重量はN5の方が小型、
軽量ではないかと思ってしまうくらいにょ。

いくらN5がPCとしては小型、軽量の部類とはいえポケットに入れて持ち歩くには無理がある
と思われるにょ。
ポケットに入るか否かということであれば昨年12月7日に書いたように私は自らの実験に
よって「奥行き+厚さ」が14cm以下であればほとんどのポケットに収まるためこれを
ポケットサイズPCの定義として採用したにょ。(手持ちのVAIO UXは合計13.9cmとなって
おり実際にポケットに突っ込んだらギリギリ入るサイズとなっている)
富士通はLOOX Uを発売するにあたって事前調査から「13cmがポケットサイズ」基準になった
ため私の「ポケットサイズPCにおける定義の14cm」はあくまで私の環境においてという
だけであってこれが必ずしも絶対的なものとはいえないということにょ。
そもそも「ギリギリ入る」というのと「余裕を持って入る」(普通に出し入れ可能)という
のとでもサイズの基準が異なってくるわけだしね。

次は液晶に関してにょ。
http://trendy.nikkeibp.co.jp/article/column/20100903/1032829/?P=3
ポケットサイズPCの多くは5インチ弱のWSVGA液晶が採用されているにょ。(N5、PM、BXは
4.8インチ、VAIO UXは4.5インチ)
解像度の面では多くのスマートフォンに採用されているWSVGAより一回り大きく、画面
サイズも一回り大きいにょ。
「文字が小さすぎて見にくいから使えない」と思うかも知れないけど4.8インチ、WSVGAの
N5は247ppiとなるためドコモのXperia(4インチ、FWVGA)の245ppiと大して変わらない
ためそれほど問題ないにょ。
iPhone 4に至っては(3.5インチ、960×640)326ppiとなっているためかなり厳しいと
思われるにょ。

また単純に「文字の大きさ」といってもシステムフォントの大きさが異なるために両者
(スマートフォンとポケットサイズPC)では単純比較はできないにょ。
確かにメニューなどに使われているシステムフォントの大きさはポケットサイズPCの
方がかなり小さいだろうけどね。
システムフォントの大きさ(表示dpi設定)はWindowsの場合はサイズ調整ができるため
それを変更すれば問題はないにょ。
文字の小ささが懸念材料となっているポケットサイズPCでは標準の96dpiではなく120dpiに
設定済みで出荷した方が良いと思うにょ。
VIAO UXではワンタッチ拡大ボタンがあるけどこれと同じようなボタンは他のポケット
サイズPCにもあっても良さそうにょ。
いくらdpi設定を変えてもすべてのアプリでその設定が反映されるわけではないからね。

またタッチパネルにおいても両者には静電容量方式と感圧式という違いがあるにょ。
スマートフォンは基本的に指で操作するものであるため静電容量方式が用いていることが
多いけどポケットサイズPCはほぼすべてが感圧式となっているにょ。
ポケットサイズPCでも静電容量方式を使えば指で軽く撫でただけでも反応可能になるけど
それを行わないのはポケットサイズPCの液晶パネルを指だけでポインティングするという
ことは事実上困難だからにょ。
Windowsはキーボードとマウスがあることを前提に作られているにょ。
つまり、マウスのような正確なポインティング操作ができなければWindowsは使うことが
できないということにょ。
スタイラスを使っても「容易ではない」と感じる人がいるのにそれを指で行うなんて
とても出来ることではないにょ。

キーボードに関してはN5はサイズの割りには優秀とこのことにょ。
http://trendy.nikkeibp.co.jp/article/column/20100903/1032829/?P=4
PMはキーがふにゃふにゃであり私はに少し店頭で使っただけなのに良いものには思えな
かったのでN5も早く一般店頭で売られるようになることに期待しているにょ。
とはいえ、ブラインドタッチは相当の熟練を要するため基本的には両手で持って親指
タイプという形になるにょ。
これだとサイズ的にも丁度いい感じだしね。
ただし、親指タイプであれば速度面でキーボード付きのスマートフォンと比べてあまり
アドバンテージがないにょ。
私はリナザウやポケコンはテーブルの上において3本指入力を行えば毎分300文字程度の
打鍵速度でタイプ可能だけど親指入力ならば速度が半減してしまうからね。

最後は動作速度の面にょ。
http://trendy.nikkeibp.co.jp/article/column/20100903/1032829/?P=5
N5に搭載のAtom Z520(1.33GHz)はポケットサイズPCの中では遅い部類ではなくPMの
Z510(1.1GHz)やBXのZ515(1.2GHz)と比べれば十分速いにょ。(Z510にはHTTがない
ためPMと比べるとクロック差以上の性能差がある)
それでもやはりWin7を動作させるには十分とはいえないにょ。
PMやBXはやはりXP搭載というのが大きかったからね。
N5はそれらと比べてメモリ1GB搭載というのがアドバンテージになっていたもののやはり
XPよりは多くのメモリが必要になる7において1GBでは十分とはいえないにょ。

N5にもXP搭載モデルがあるためそれを買うという方法もあるにょ。
しかし、XPにはSSD16GBモデルしか用意されてないにょ。
16GBではシステムに使われている領域、リカバリ領域を除くとユーザーが自由に使える
領域は半分もないにょ。
これが32GBモデルであれば空き領域が多くなるのだけど残念ながら32GBモデルにはXPは
用意されてないにょ。

また、XPは現在はULCPC版のみがOEM向けに提供されているもののこれはWin7が発売から1年後
となる今年の10月で終了するにょ。
つまり、今後はXPモデルは現在の流通在庫以外は入手が困難になり(proのダウングレード
によって搭載可能だけど価格が跳ね上がってしまう)今後は7が中心となるにょ。
9月4日にノートPCの代わりにiPadを使用する人の理由として「PC(Windows)は起動に
時間がかかる」ということが挙げられたけどこれはサスペンドを常用することで回避
可能になるにょ。

ただし、9月5日に書いたようにサスペンド中のバッテリ消費もバカにならないにょ。
その点に関してはN5は公称150時間のサスペンド時のバッテリ保持となっているため安心
して使用できるにょ。
実際の消費電力においても週刊アスキー9/21号で計測されているけどN5のサスペンド中の
消費電力は150mWとなっているにょ。
バッテリ容量から逆算して約105時間となるけどこれはACアダプタのAC→DC変換効率は
考慮されてないので変換効率が70%と仮定すると公称値の150時間に達するにょ。
ちなみにBXが270mWで逆算約70時間、LOOX Uが340mWで逆算約38時間、VAIO Pが270mWで
逆算70時間となっておりN5のサスペンド中の消費電力の小ささがよく分かると思うにょ。


以上を踏まえて考えてみるとポケットサイズPCとスマートフォンがとても競合するようには
思えないにょ。
しかし、いくらポケットサイズPCがPCとしては小型、軽量であっても別途持ち歩くので
あればそれに似合うだけのメリットがあるかどうかが重要になってくるにょ。

「どうしてもWindowsを使う必要がある」というであれば一般的なノートPCと比べて
快適さでは大きく劣るものの使う価値は十分にあるにょ。(一般的なモバイルノートが
1kg前後なのに対して400g程度というのは別格の軽さだし、筐体サイズが小さいことで
持ち歩きも容易になる)
しかし、現時点では7を快適に動作させるためのマシンパワーがないため非力なマシンでも
快適に動作するスマートフォンと比べるといくら性能で勝っていても体感速度では負けて
しまうという可能性があるにょ。
つまり、(動作速度の面で)快適性を求めたいからスマートフォンではなくポケット
サイズPCを選択するというのは正しい選択ではないということにょ。

スマートフォンはかつてのPDAの役割も担っているけど昨今は「Windowsでないと困ること」
というものがかなり減っているにょ。
これは多くのことがWeb中心となっているのに加えてスマートフォンに搭載されている
WebブラウザはPC向けのWebブラウザと比べて大きく見劣りすることが無くなったという
こともあるにょ。
何せAndroidでもFlash10.1がサポートされているわけだしね。(昔だったらPDA用には
サブセット版であるFlash Liteがサポートされるのがせいぜいだった)

私はモバイル機器に関してはモバイルランクを設定しているけど普通のモバイルノートが
ランクCなのに対してポケットサイズPCはランクBに設定しているにょ。
これは本体サイズが小さいことでポケットに収まるということと両手に持った状態で
使えるということが差別化の要因となっているにょ。
ランクBの機器は常時ポケットに入れて持ち運ぶわけではないけどいざというときに
ポケットに入れられるというのはメリットになるからね。

これは、「バッグが不要になる」というのではなく「バッグの使用頻度が低くなる」と
いうことを意味するにょ。
普通のモバイルノートPCであれば一旦使用する用事が済んだらバッグにしまうのだけど
それからちょっと使いたいというときに再びバッグから出したりとか使っている途中で
急に両手をフリーにする必要がある(電車やバスを降りなければならないなど)という
場合に「必ずバッグにしまわなくてはならない」かつ「必ずバッグから取り出さなければ
ならない」というのはやはり使用頻度を下げる要因にもなっているにょ。
ケータイをバッグに入れて持ち運んでいる人は電車に乗ってわざわざ用もないのに
バッグからケータイを取り出すという人はあまりいないだろうけどポケットやポーチ
などに入れている人であればすぐに取り出せるためちょっとした機会にすぐに取り出す
ことができると思うにょ。

また、ポケットサイズPCは両手に持って使えるというのがモバイルノートと比べて
大きなアドバンテージになっているにょ。
満員電車の中ではさすがに無理があるけど立ったままで使えるというときは歩いていて
さっと取り出して使うことができるということにょ。
店頭に欲しい商品があった場合にそれが本当に有用なのかをネットで調べたりという
ことがその場でできるからね。(モバイルノートだと座れる必要があるし、地べたに
座ってノートPCで何かをしていたらいかにも怪しい人に思われてしまう)

ただし、それはあくまでモバイルノートに対するアドバンテージにょ。
実際にその程度のことはほとんどスマートフォンでできてしまうからね。
立った状態でWindows用アプリを使う必要がある人、立った状態でアプリ開発を行う
必要がある人などのごく一部な例外を除けば少なくとも「立った状態で行うことで
Windowsで無ければならないこと」というのはほとんどないのではないかと思われるにょ。

そういうことを考えるとスマートフォンとポケットサイズPCの棲み分けというよりも
ポケットサイズPCがどのように活用するのかということになってしまうにょ。
スマートフォンを持っていなければ確かにポケットサイズPCの活用場面は非常に多い
けれどスマートフォンを持っていれば「どうしてもWindowsで無ければならない」と
いう場合以外にポケットサイズPCが登場することはほとんど無くなるだろうからね。

確かにキーボードレスのスマートフォンと比べれば一応は打てるレベルのキーボードを
持つポケットサイズPCは文字入力の面においてメリットがあるからそういう面では
活用する場面は多いと思うにょ。
それでも、それだけの文字数を立った状態で入力するという場面は私はごく希にしか
ないにょ。
大半は立った状態で行うことといえばビューアがメインであり文字入力といえば適当な
メモ書きや検索エンジンへの文字入力が大半にょ。

私の場合はランクB(ポケットサイズPC)に相当するVAIO UXに加えてランクCに相当する
Let'snote R5もほとんど毎日持ち歩いているにょ。
このため多くの文字入力をするという機会がある場合はUXを使わずに最初からR5を
取り出して使用するにょ。
しかし、モバイルノートを毎日持ち歩いている人というのはそれほど多くはないと
思われるにょ。
「少しでもまともに打てるキーボードが欲しい」とか「どうしてもWindowsを使う必要が
ある」という人であれば確かにポケットサイズPCは有効活用できる場面があるのだけど
そうでなければほとんどの場合はスマートフォンで間に合うにょ。

実際棲み分け以前にそのようなポケットサイズPCに4〜6万円払えるという人は限られて
いるだろうし、ポケットサイズPCはスマートフォンとは異なり単体で通信ができないため
別途3G通信アダプタ(もしくはモバイルルータ)を契約して持ち歩くか、無線LANが
使える場所へと移動して使う必要があるにょ。
これは9月4日に書いたスマートフォンに対するタブレット端末の問題と同様のものにょ。
投資コストに似合うかどうか、通信をどのように確保するかが重要であって棲み分け
以前の問題となっているにょ。
したがって、ポケットサイズPCはどうしても仕事上必要な人(モバイルノートは大き
すぎて持ち歩けないけどこのサイズであれば持ち歩ける人)を除けば小型ガジェット
好きのモバイルオタクだけが購入するに止まっていると思われるにょ。
要するにこのサイズでWindowsが動作するということに魅力を感じているという人で
なければ棲み分け(使い分け)というものは最初から存在しないということにょ。

364御茶目菜子:2010/09/09(木) 13:10:08
なぜ新型iPod touchは大幅に機能強化されたのか・・・?
昨日は急速に普及が進んでいるスマートフォンによってポケットサイズのWindows PCは
活躍する場面が無くなるため売れなくなるという予想に対して「結局欲しい人が買っている
だけ」という現状からあまり変わらないという結論を下したにょ。
スマートフォンは確かに便利だけどガラケーも捨てがたい・・・でも、2台持ちはコスト
面の問題が・・・という人のためのものといえばやはり何度も書いているようにiPod
touchの出番にょ。

スマートフォンがPDAから発展したものなのに対してtouchは元々はDAPから発展したもの
であり、ショップの売場においてもDAPコーナーで販売されているにょ。
8月にはiPodが久々にウォークマンにシェア1位を譲るという(8月は特別な月ということを
考慮しても)数年前までのような状況とは異なるというのは確かにょ。
実際iPodは低価格製品はウォークマンに苦戦しているけど高価格(1.5万円以上)では
依然として高いシェアを保っているにょ。
http://www.itmedia.co.jp/news/articles/1009/09/news015.html
高いシェアの要因となっているのは言うまでもなくtouchの存在にょ。
ソニーにはこれに対抗する製品はないからね。
それによって、9月3日に書いたようにnanoはtouchを基準に大幅な仕様変更が行われた
と推測しているにょ。

さて、touchといえば冒頭に書いたようにランニングコストがかからないスマートフォン
として(要するにPDAとして)使用するという人も多いのではないかと思われるにょ。
今回の新型では大幅に仕様強化されるためにその役割は更に高まっているけどそうなると
iPhone4との違いも気にしている人が多いのではないかと思うにょ。
iPhone4(32GB)を一括払いで買って解約して57600円(+諸費用)、iPod touch(32GB)は
定価27800円であるためiPhone4を「無線LAN専用」としてランニングコストゼロで使用する
場合でも端末コストは2倍になるわけだからね。
すでに旧touchを持っている人はそれから乗り換えするに値するものなのかということも
気になるところだと思うにょ。

サイズは表面積に関しては同じ3.5インチ液晶ということで新型iPod touchもiPhone 4も
それほど差はないにょ。
http://plusd.itmedia.co.jp/lifestyle/articles/1009/08/news021_3.html
ただし、厚さに関しては明確な差があるにょ。
iPhone 4は3GSより薄型化され9.3mmになったものの7.2mmだからね。
しかも、重量はiPhone 4が137gなのに対してtouchは101gということで一回り小型、軽量
といっても過言ではないにょ。(3割差あれば実際に持って体感できると思う)

動作速度の面を見ると新型touchは旧touchと比べて4倍の解像度になっているにも関わらず
描画速度は向上している模様にょ。
それはGPU性能の向上によるものが大きいけどCPUだけ見ても新型は旧型と比べて35%も
高速になっているにょ。(整数演算 旧227→新299、浮動小数点演算 旧281→新373)
ただし、メモリ搭載量に関してはiPhone4では従来から倍増となる512MB搭載されたのに
対して新型touchは旧型から据え置きに256MBとなっているにょ。
現状では256MBで動作が厳しいアプリはないためマルチタスク対応によって多くのアプリを
同時に起動するか否かが評価ポイントになると思われるにょ。

スペック表には記載されてないもののiPhone 4との大きな違いとなっているのはカメラ
機能にょ。
動画は両者とも1280x720のHD動画が撮影できるけど静止画に関してはiPhone 4が500万画素
(2560×1920)で撮影できるのに対して新型touchは960×720に止まっているにょ。
さらにカメラの機能としてもiPhone 4がAF対応なのに対してtouchはパンフォーカス
(使い捨てカメラやトイデジカメのようにピントが固定された状態)だからね。
これはコスト低減のためこうなったのだと思われるにょ。

液晶モニタも解像度こそiPhone 4と新型touchは同じだけどその違いは比べれば歴然にょ。
http://plusd.itmedia.co.jp/lifestyle/articles/1009/08/news021_4.html
iPhone 4はIPS液晶が搭載されているのだけどこの写真を見る限りでは新型touchは
TN液晶ではないかと思われるにょ。
この厳しいコスト低減はやはりiPhoneよりも利益率が低いからだと思われるにょ。
iPhone 4(16GB)の部品コスト(開発費、組み立てコスト、流通コストは除く)は
188ドルと推測されているからね。
http://www.itmedia.co.jp/news/articles/1006/29/news020.html
16GBのフラッシュメモリが27ドルなので32GBモデルは215ドルと推測されるにょ。
AT&TによるiPhone 4の一括払いの価格は699ドルであるため部品コストが価格に占める
割合は3割程度となっているにょ。

上記のコスト計算から新型iPod touch(32GB)のコストを計算してみるにょ。
3G通信関係非搭載、メモリは搭載量が半分なので価格半分、iPhone 4より品質が劣る
カメラと液晶はコストは半分と仮定して計算すると162.62ドルとなったにょ。
iPod touch(32GB)は299ドルであるため54%となるにょ。
すでに相場が下がっているパーツや(適当に半額と仮定したため)計算の誤差があると
想定すれば定価の5割程度が部品コストとなりそうにょ。
iPhoneと比べたら利益率が低い製品であるということが分かると思うにょ。

もしも、touchでiPhoneと同レベルの利益率を確保するためには540ドルくらいの価格設定を
する必要があり日本国内での販売価格は5万円弱になりそうにょ。
それが27800円で買えるわけだからiPod touchはバーゲンプライスといえるにょ。
まぁ部品コストが定価に近いというヘタをすれば売れば売るほど(本体だけで見れば)
赤字が大きくなる場合さえあるコンシューマゲーム機と比べれば売れば売るほど黒字に
なるため別に何の問題もないけどね。(コンシューマゲームはソフトによって回収する
ビジネスモデルとなっているためそれで問題はない)

しかし、そこまで厳しいコスト削減をしているのに各種センサー(3Gユニットに含まれて
いるGPSを除く)はiPhone 4と同様に搭載されているにょ。
旧touchはカメラさえ搭載してなかったのが新touchは搭載されているけどこれによって
iPhone用として作られたアプリのほぼすべてが動作するというメリットがあるにょ。
カメラやセンサーに依存したアプリというのも相当数あるからね。
つまり、「アプリを利用する」という点だけでいえば新touchは旧touchと比べて大きく
改善されており、iPhone4と比べてもほとんど遜色ないものといえるにょ。

新touchでアプリに拘ったというのはOSごとのシェア争いも大きいからにょ。
今年は世界で見ても前年比55%の増加を見せているスマートフォンだけどそのOSのシェア
争いは激化しているにょ。
http://www.itmedia.co.jp/news/articles/1009/09/news013.html
この業界では新入りとなっているAndroidとiOSだけどAndroidは2014年には現状の16.3%
から24.6%へと大幅なシェア増加が予想されているのに対してiOSは現状の14.7%から
10.9%へとシェア低下が予想されているにょ。

これは8月9日に書いたようにiPhoneが垂直統合のビジネスモデルとなっているからにょ。
iOS搭載機は一社からしか発売されないわけだからいくら現状より売れても市場全体が
大きくなった場合には大きなシェアを獲得するのが難しいということにょ。
これをカバーする存在となるのがiPod touchとなるにょ。
スマートフォンはキャリアとの契約が必要になるため新規購入や買い換えのハードルが
どうしても高くなってしまうにょ。
それに2年契約による「実質価格」では安価だけど一括購入すれば金銭的負担も大きい
からね。(2年契約の場合は2年間毎月支払う金額を考えると全然安価ではない)
したがって、コスト面を考えると現状使っているケータイから置き換えを迫られてくる
ことになるにょ。

しかし、キャリアとは無関係のiPod touchではそんな心配は要らないにょ。
Windows Mobileも元々はPDAなどの小型機器専用のOSとして作られスマートフォン用では
なかったのだけど今では製品のほとんどがスマートフォンでありかつてのようなPDAは
皆無となっているにょ。
それはPDAが高価で売れないからにょ。
PDAに3G通信機能を搭載したスマートフォンはコスト的には数10ドルの違いでしかない
けどそれが高価であってもどんどん売れている状態だから売れないPDAなんて作りたがら
ないというのがあるのかもしれないにょ。
ケータイにWebブラウザが搭載されていなかった90年代〜2000年台初頭だとPDAは高価で
あっても売れたけどこれも時代の流れにょ。

しかし、touchにはアップルブランド(iPodブランド)があるにょ。
PDAとしては興味がないけど単体通信(無線LAN搭載)のできる大容量のiPodを買ったら
iPhone用アプリも使えたのでハマったという人も大勢居るのではないかと思うにょ。
売れるから安くできるわけであり、安くできるから売れるというのが大きいにょ。
実際、touchはiPhoneと同レベルの台数売れているわけであり、ワールドワイドでは年間
1000万台を大きく超える売上となっているにょ。
1機種でそんなに売れるのはPDAとして考えれば驚異的なことにょ。(DSなどのコンシューマ
ゲーム機に匹敵するレベル)

スマートフォン市場の拡大によってiPhoneにしか搭載されてないiOSはシェア低下が予想
されているけどそれと同レベル売れているtouchがあるということは事実上iOS搭載機と
いうくくりで考えるとその2倍売れているということが言えるにょ。(これはスマート
フォン向けに提供されているOS搭載機としてはトップレベルのシェアになる)
確かに利益からするとiPhoneの方が大きいかもしれないけどシェアの拡大、そしてそれに
よるアプリやその他コンテンツの売上拡大を考えるとtouchの存在は無視できないことが
分かるにょ。(コンテンツ売上の影響力が大きいのは垂直統合のお陰)
それを考えると今回の新型touchの機能強化(コスト面の制約が大きいのに各種センサーや
カメラを省略しなかったこと)はすべて説明がつくにょ。

365御茶目菜子:2010/09/10(金) 13:23:39
ペンタックスK-rは最強の入門用デジタル一眼!?
ペンタックスがK-xの後継となる入門用デジタル一眼レフ「K-r」を発表したにょ。
http://dc.watch.impress.co.jp/docs/news/20100909_392090.html
K-xと比べて主に下記の点が改善されているにょ。

(1)スーパーインポーズ搭載
(2)6コマ/秒の連写速度
(3)AF補助光搭載
(4)専用電池が使用可能

(1)K-xの悲願だったのがこれにょ。
近年はAFの多点測距は当たり前のように搭載されているもののK-xではファインダー内で
どの部分にピントが合っているかは確認できなかったにょ。
一般的にはどの部分にピントが合わされているのかということをスーパーインポーズ機能
として測距ポイントの表示を行うことで解決されていたけどK-xにはそれが無かった
からにょ。
確かに一眼レフだからピントが合っているかどうかはファインダー内で確認可能なこと
だけど入門機のファインダーでは細かいピントを瞬時に確認するなんて無理だし、
そもそもピントが合っているかということとどこにピントを合わせているかということは
別問題だからね。

「カメラ任せのオートでしか撮影しない」という人であれば問題がないことだけど
少なくともデジタル一眼レフではこれは致命的な問題だったにょ。
したがって、せっかくの11点測距なのに事実上1点測距以外は使いにくいものがあり、
これだけの理由でK-xを敬遠していた人も少なくなかったにょ。
ようやくペンタックス(HOYA)にもこのことが伝わったのか、K-rではペンタックスの
入門機としては私が現在使っているK200D以来のスーパーインポーズが復活となったにょ。

(2)ペンタックスといえば連写に弱いというのがファンの間でも当たり前の認識だった
けれどK-rは何と6コマ/秒の連写速度を実現しているにょ。
同じ入門機でもα55が10コマ/秒を達成していることを考えると単純にスペックだけを
見れば最強とはいえないけどα55の場合は固定された半透過型ミラーを使ってようやく
実現できた速度だからね。

通常のクイックリターン式ミラー採用機で見ると入門機では最速にょ。
中級機までくくりを広げてもニコンD90(4.5コマ/秒)やキヤノンEOS 60D(5.3コマ/秒)を
超える連写速度となっているにょ。
私が使っているK200Dはバッファメモリが少ないため2.8コマ/秒で4コマまで(JPEGでもRAW
でも)という極めて貧弱なものであり事実上オートブラケット用としてしか使えない
感じだったけどK-rではJPEG25枚、RAW12枚まで連写可能であるためスポーツなどの
動く被写体にも対応できそうにょ。

とはいえ、動く被写体に対応できるかはAF速度に依存するにょ。
α55でも10コマ/秒はAFを使用しない時の速度であり、AFが追従するのは6コマ/秒まで
だからね。
動く被写体を撮る時はコンティニュアスAF(AF-C)で撮影することになるけど
ペンタックスの場合はAF-Cはレリーズ優先ではなくピント優先なので厄介にょ。
ただでさえAFは遅い(超音波モーター内蔵レンズを使用すればそこまで遅くはないけど
多くのレンズはボディ内蔵のモーターによってピントを合わせるため)ということで
動く被写体にピントが合わないとシャッターが切れないので高速で動作するものを撮影
するということはほぼ不可能になるにょ。

実際私が使っているK200Dも人がゆっくり歩く程度の速度であればAFが追従できるけど
それより速い速度になるともう追従が困難になるからね。
しかし、レリーズ優先の設定ができるK-rであればそれは解決にょ。
とりあえず、「シャッターが切れない」ということだけはなくなるからね。
とはいえ、AF速度が大きく改善されているとは思えない(キヤノンのAFが速いのはEOS用
レンズには基本的にモーターを内蔵しており、レンズごとに最適なモーターを搭載可能
ということが影響しているからね。(レンズに依存しない測距性能自体もペンタックスは
あまり速くはないけどこれは速度よりも精度を優先している影響だと思われる)

(3)ペンタックスのデジタル一眼レフの弱点ともいえるAF速度だけど暗い室内では特に
それが顕著になるにょ。
ヘタをすると一般的なコンデジの方がAFが速いとも思わせる速度だからね。
位相差検出方式は明るい場所では速いけど暗くなると精度や速度が大きく劣るという
問題があるにょ。
それを解決する1つの手段がAF補助光にょ。

しかし、ペンタックスの場合はAF補助光を使用するためにはフラッシュを光らせる必要が
あったにょ。
せっかくボディ内に手ぶれ補正機能があるため暗所でフラッシュを使いたくないという
場合にはAFが使えない(ほとんど役に立たない)ということもよくあったにょ。
私が持っているデジタル一眼では5年前に発売されたニコンD50でもAF補助光は搭載して
おり、これは価格が問題というよりもメーカーの開発思想の問題にょ。
この度、K-rではAF補助光が内蔵されたことは非常に喜ばしいにょ。

(4)「K-xは単三だから買わない」という人もいたからね。
個人的には単三電池が使えるということにメリットを感じているけどこれは使い回しが
効くというメリットがあるからにょ。
専用電池(リチウムイオンバッテリ)だと基本的にその機種専用となるからね。
安価なものでないため予備バッテリを買うのも躊躇してしまうにょ。
しかし、単三であれば他の機器で使えるため安心して買えるにょ。(それに安いし)
旅行に出かける際にも単三で統一していればどの機器でバッテリが切れても使い回しが
効くわけだし、アルカリ電池に対応していればいざというときにコンビニで入手可能
というメリットは大きいにょ。

とはいえ、単三は汎用性が高い反面デメリットもあるにょ。
まず1つ目は充電管理の問題にょ。
アルカリ電池は残量を把握するというのは容易ではない(乾電池の場合は徐々に出力
電圧が落ちているのでそれを元に把握するしかない)エネループでも1%単位での細かい
残量は把握できないにょ。
その点、専用電池であれば正確な残量を把握することが可能にょ。(ユーザーにそれを
知らせる時点で機器側が数段階にしているだけであって内部では正確な残量が把握されて
いる)
これによって、充電する必要があるか否かというのが分かるにょ。(エネループにも
対応しているK200Dの残量はアバウトであるため残量メーターがあまりあてにならない)

またパワフルかつ小型というのも専用電池のメリットとなるにょ。
6コマ/秒という連写速度は単三ではかなり厳しいからね。(単三を8本使うか、4本ならば
消費電力を無視して昇圧して使うかしかしないと難しい)
K-xは本体だけなら515gだったけど単三アルカリ電池を使用時には615gとなり入門機の
中では重い部類だったにょ。
それがK-rでは本体のみで544gと重くなったものの専用電池のお陰で使用時の重量は
598gへと軽量化されたにょ。
私のような単三愛好家へはオプションの単三電池ホルダーを使うことで単三電池が
使えるため「専用電池が使える」というメリットが生きてくるにょ。

肝心のセンサーだけど1200万画素に画素数は据え置かれたことによって高感度性能は
上がってそうにょ。
確かに画素数が1800万画素に増えてもEOS KissX4は高い高感度性能を誇っていたけれど
いい変えれば画素数をそこまで増やさなければさらに高感度性能が上がる可能性がある
ということも言えるからね。
K-xはすでにクラス最高レベル(KissX4が出るまではトップ)だったためそれより高く
なるということ再びトップに立つ可能性があるにょ。
K200Dの頃はセンサーそのものが高感度に強くなかったため同時期の他のメーカーの
機種と比べて高感度性能は大きく劣っていたからね。
それに1200万画素であるが故にレンズ性能もそこまで高いものが要求されなくて済むと
いうメリットがあるので扱いやすいかもしれないにょ。

また、K-rで話題になっているのは120通りのカラーバリエーションにょ。
K-xの100通りからさらに増えたけどこの度発売になるDA35mmF2.4は10色のカラバリとなって
いるためにそれと組み合わせると何と1200通りのカラバリとなるにょ。
個人的には一眼レフを買う際にはスペックやレンズが重要であるため色は気にしないの
だけどこれだけ組み合わせがあるといろいろ試してみたくなるにょ。
http://www.camera-pentax.jp/k-r/simulator.php
このシミュレーションでいろいろ試してみるだけでも面白いかもしれないにょ。
某所で見かけた組み合わせでちょっと面白かったのがこれにょ。
http://www.camera-pentax.jp/k-r/simulator.php#040108
「すごくドムです・・・」

このように遊び心溢れた一眼レフだけどそれが斜め上にいってついにゲーム機能まで
搭載されたにょ。
バーコードバトラーのようにExifデータを元にパラメータを決めてそれを戦わせる
というものだけどK-rユーザーがこのゲームをプレイするようなことが果たしてやって
くるのか・・・?
まぁこれによってコストが上がっているとは考えにくいので要らなければ使わないという
だけの話だけどね。
遊び心に溢れても中身はしっかりしている良い入門機だと思うにょ。(とはいえ、
ペンタックスのシェアが低いが故にレンズを置いている店が少ないのが難点だけどこれは
レンズセットを買って終わりの入門者なら問題にはならない)
このレベルを維持してくれたら中級機であるK-7の後継機と予想されているK-5が楽しみに
なってくるにょ。

366御茶目菜子:2010/09/11(土) 13:35:05
高価だと売れない・・・負のスパイラル
先日Xbox360用のKinectの国内での販売価格が14800円に決定したけどやはりこの価格では
普及は難しそうにょ。
http://pc.watch.impress.co.jp/docs/column/kaigai/20100910_392597.html
Kinectというのが何なのかということをまず書いておくと開発コード「Project Natal」
という名称で作られた画像認識による入力デバイスにょ。
このKinectに近い入力デバイスといえば真っ先に思い浮かぶのがプレステ2用のEyeToyにょ。
EyeToyはコンシューマゲームの新しい方向性の1つを示したものの「精度が低い」「使用
するだけでCPUパワーの大半が奪われてしまう」という問題によって単純なゲームしか
作ることができず、メインの入力デバイスになることは無かったにょ。

それから数年・・・コンシューマゲーム機の世代も代わりSCEからではなくMSから満を
持して発売することになったのがKinectだけどその際に最も大きな壁になるのは価格の
問題にょ。
リンク先に書いているように100ドルを切ることが普及のためには必要だけど精度を高く
してなおかつCPUパワーを奪われないようにカメラ側に専用チップを使用しているため
149ドルの価格になってしまったからにょ。

「99ドルが普及のためのボーダーライン」というのならば無理をしてその価格で売れば
いいと考える人もいるかもしれないにょ。
実際、コンシューマゲーム機本体はそのような売り方をしている場合もあるにょ。
しかし、本体と周辺機器では考え方が異なるにょ。
ゲーム機本体は製造原価割れで販売したとしてもサードパーティのソフトから得られる
ライセンス収入で補填ができるためある程度の赤字であれば十分にビジネスとして成立
するにょ。
それに、ゲーム機の場合は発売当初は部品構成数が多くても製造プロセスの微細化など
によってチップが統合されコストダウンも可能なので「本体が普及してソフト販売数が
増える」ということに加えて「量産効果や効率化による大幅なコストダウン」も見込む
ことができるにょ。

しかし、周辺機器の場合は発売当初からそれで赤字にならないような価格設定をする
必要があるにょ。
ここで問題となるのは赤字になるかどうか(採算が取れるかどうか)というのは部品
コストだけの問題ではなく開発費や宣伝費なども重要になってくるにょ。
ゲーム機本体は決して赤字販売をしないという任天堂でさえ、Wiiに関しては宣伝費を
込みだと発売当初は赤字になっていたらしいだからね。

それに納入掛け率の問題もあるにょ。
本体の場合は定価の95%程度で販売店に卸されるため定価を安くすることが可能になる
けれど周辺機器の場合は概ね75〜80%で卸されるためメーカーからしてみれば同じ価格
であっても定価ベースで考えると高価になってしまうということにょ。(サードパーティ
製の周辺機器の場合はメーカーによって変わるものの60〜70%程度)
卸値9500円の製品があった場合、それがゲーム機本体であれば定価が1万円、周辺機器
ならば定価1.2万円くらい(サードパーティ製ならば定価1.5万円くらい)となるからね。
あとゲーム機本体の場合は大量生産を前提にした価格設定となることが大半だけど周辺
機器の場合はそこまでの大量生産を前提にしていない価格設定となっている場合も多い
ということが使用されている部品コストの割りに周辺機器が割高な理由となっているにょ。

高価な周辺機器は売れなくても需要に合わせた価格設定をしているならばメーカーに
とってはあまり問題はない(あまり売れなくても赤字にはならない)といえるかもしれない
けど問題はそこではないにょ。
その機器が売れなければ「その機器があることを前提にしたゲーム」というものに力を
入れるサードパーティはいなくなってしまうにょ。
ゲームソフトが売れるかどうかは内容や宣伝力によるものが大きいけどパイの大きさと
いうサードパーティの手の施しようがない差はどうにもならないにょ。

どんなに優れたゲームソフトであってもそのハードを持っている人が全員買うという状況
にはならないためゲームビジネスを成功させるには500万台くらい売れている必要がある
と思うにょ。
過去の歴代ゲーム機で(国内で)500万台程度の販売となるとニンテンドー64(550万台)や
セガサターン(560万台)が相当するにょ。
それらは「大ヒットした」というイメージや「こけた」というイメージではなく
「そこそこのヒット」というイメージを持っている人が大半ではないかと思うにょ。
しかし、それはあくまで本体の話にょ。
周辺機器でいえば恐らくファミコン用のディスクシステム(450万台)がトップではない
かと思うにょ。(※1万円を超える周辺機器において)

つまり、最低でもディスクシステム程度の普及台数に達しない限りはサードパーティが
力を入れてKinect用のソフトを開発するのは難しいということにょ。
キラーソフトの影響はかなり大きいためソフトによって販売台数を増やす(つまりパイの
大きさ自体を大きくする)ということは可能だけどそのようなキラーソフトはごく一部に
止まり、サードパーティは売れている本体だからソフトを開発する、ユーザーはソフトが
豊富にそろっているからその本体、その周辺機器を買うということになると思うにょ。
したがって、高価で売れない周辺機器はサードパーティも敬遠するため「あまりソフトが
揃わない→ソフトがあまりないからその機器を買わない」という負のスパイラルに陥る
危険性があるというわけにょ。

それを回避する最善策は本体と一緒に強制的にユーザーにその機器を買わせるという
ものにょ。
本体と同数売れるためにその機器も本体と同じく量産前提の価格設定が可能になるため
別々で販売するよりは安価にできるからね。
それによりサードパーティの対応も大きく進むと思われるにょ。
例えば、かつてプレステでSCPH-7000以降の本体にアナログコントローラを同梱するこで
一気にアナログ対応のゲームが進んだからね。
本体と強制的にセット販売されるということは普及期の本体においてソフト対応の面では
極めて大きな影響があるといえるにょ。

Wiiはリモコンとヌンチャクを標準装備にすることでそれに対応したソフトが売れたからね。
もしも、標準がノーマルコントローラーでリモコンととヌンチャクがオプション扱いで
あったらリモコン対応のゲームは一部に止まると思われるにょ。
といっても絶大なる勢力を持つ任天堂のゲームは対応するだろうからWiiに関してはその
「一部」がかなり大きいものになるけどリモコンでないと面白さが伝わらないゲームと
いうものが多いためオプションを使えばより楽しめるというものになってしまいそれでは
楽しさというものは伝わらないにょ。
Kinectも普通のコントローラでもプレイできるけどKinectを使用すればより楽しめる
という程度のゲームであればKinectを生かし切ったゲームを作るのは難しいし、普通の
コントローラでも普通にプレイできるのであればあえてKinectを買う人もかなり減って
しまうことになるにょ。
しかし、本体を買った時からKinectが付いていたとなればそのソフトの面白さを十分に
体験可能になるにょ。

Wiiについてもう少し書いておくとコンシューマゲームは1世代ごとに1桁性能が上がって
いるのに対してWiiはGC(ゲームキューブ)と比べて2倍の性能差もなかったにょ。
そのためWii用ゲームのほとんどのものが画面表現的にはGCで実現可能なレベルにょ。
つまり、GCのオプションとしてリモコン、ヌンチャク、本体装着用ユニット(BT受信機と
フラッシュメモリ、SDカードスロット、無線LANを内蔵したもの)をセットで15000円
くらいで売り出せばWii用と同レベルのゲームは十分に作ることができたということにょ。
それをしなかったのはそれだとパイの大きさ(GCの販売台数)から考えて厳しいからにょ。
「新世代のゲーム機」ということで新たに仕切直すことでパイの大きさを一から変える
ことが可能にしたわけにょ。
それが結果として大ヒットに繋がったにょ。

それではKinectはどうなのか・・・?
現在の価格でも興味がある人は買うだろうけど対応ゲームソフト1本買えば2万円という
価格は非常に辛いにょ。
それでもキラーソフトがあればそれなりには売れると思われるにょ。
MSもKinectには力を入れているみたいであり、本体セットも発売されるにょ。(上記の
ように本体にセットにした場合は安価に設定可能であるため別途買えば14800円なのに
1万円アップの価格設定となっている)
これならば普及のためのボーダーライン価格ギリギリになるにょ。
とはいえ、この価格はあくまでこれから本体を買う人に限られるにょ。
やはり、高価な機器は当初より本体とセットで販売するか新たな仕切直しをしないと
普及を見込むのは難しそうにょ。

367御茶目菜子:2010/09/12(日) 14:00:02
スマートフォンの普及にはガラケー化が必須か!?
国内でもいよいよスマートフォン時代が到来しようとしているにょ。
W-ZERO3で国内でも広くの人に知れ渡ったスマートフォンはiPhoneの登場で(PDAやデジタル
ガジェットに今まで興味が無かった)一般人までが購入し、Androidの大躍進によって
ガラケーがスマートフォンに置き換えられるかのような感じさえするけどそんなに簡単に
いくものではないにょ。
それは、私の主観で考えれば下記のような3つの問題があるからにょ。

 (1)電話機としての使い勝手
 (2)キャリア独自サービス
 (3)ガラケー独自進化

(1)電話機として見るとやはり一般的な形状のケータイの方が形状的に使いやすいという
のは間違いないと思うけどこれは筐体サイズがそんなに大きく無ければ致命的という
ものではないにょ。
ガラケーは折りたたみ式のものが多くスマートフォンはフラットな1枚板のものが多い
けれどそれだけしかないというわけでもないしね。
問題となるのは電話がかけやすいかどうかというものだけではなく着信問題もあるにょ。

着信といえば、昔は電話機に内蔵された固定着メロだけだったのが、着メロのダウンロード
機能が追加され、今は着うたがどのケータイでもサポートされているにょ。
着信相手によって着メロ(着うた)を変えるというのもできるし、もちろん着信音の
音量調節もできるし、あと必須といっていいマナーモード(バイブレーションモード)も
ワンタッチでできるにょ。
私はマナーモードのオン、オフを多用しているためこのマナーモード設定がハードウェア
ボタンで行える一般的なガラケーは非常に便利に感じるにょ。

あと着信があったことをイルミネーションで伝えるというのもガラケーでは当然の機能と
して備わっているにょ。
もっともスマートフォンでも画面を見ればそんなことは一目瞭然だけど自分が通信、通話を
しようとするとき以外に画面を見るという機会なんてないにょ。
その点、イルミネーションが光っていれば嫌でも目に入るからね。

(2)キャリア独自サービスの最大のポイントはキャリアメール(docomo.ne.jpなど)だと
思うにょ。
では、スマートフォンでキャリアメールを必要としているのがどの程度いるのかという
とアンケートでは以下のようになっているにょ。

http://k-tai.impress.co.jp/docs/readers/odaibeya/20100910_392672.html
 絶対必要・・・・・・・48.6%
 あってもいい・・・・・29.9%
 要らない・・・・・・・21.5%

キャリアメールが使えないと利用できないモバイルサイトもあるし、メアドの変更自体が
嫌というのがやはり大きな理由になっているにょ。
とはいえ、キャリアは固定ではなく変えることが多いためG-mailなどの方が便利と考える
人もいるもは事実にょ。
G-mailもiPhoneでプッシュ受信が可能になったからね。
http://www.itmedia.co.jp/enterprise/articles/0909/23/news004.html
それに、キャリアメールが必要なモバイルサイトなんてスマートフォンを使用していれば
利用することはないと考える人もいるため絶対必要という人は半数に止まっているわけ
だけどこのようなアンケートに答えるという(平均レベルよりは)コアなユーザーで
あっても絶対必要と答えている人が約半数いるということに注目にょ。
ライトなユーザーであればメアドが変わるとか、使えないサービスが出てくるという
だけで嫌ってしまう人もいるのではないかと思うにょ。
もっともそこまでライトなユーザーだと何が出来て何が出来ないかということさえ
知らないでスマートフォンはカッコイイから(すごそうだから)スマートフォンにすると
いう人もいるかもしれないけどね。

また、キャリア独自サービスといえばコンテンツにょ。
これは開始当初は低機能なi-modeが成功した1つの要因となっていたにょ。
有料コンテンツの請求がキャリア一括で行われるというためユーザーは全く支払いの
手間がかからないからね。
便利なサイトは有料だったけど有料サイトの利用者は多かったにょ。
その決済代行の代金として利用料金の一部がキャリアにも入ってくるためキャリアに
とっては有料コンテンツの利用というのは非常にありがたい話にょ。

フルブラウザ搭載で有料サイトを利用する人は減ったと思われるけどJAVAアプリの
販売や着うた、電子書籍の販売などで大きくコンテンツ売上を伸ばしていったにょ。
従来はパケットが従量制であったことがそういうコンテンツを利用するための足かせ
となっていた(J-PHONEではアプリサイズは最大で256KBあったけど通常契約だとその
アプリを落とすだけでパケット代金が600円以上かかっていた)けれどパケット定額が
どのキャリアでも選択できるようになってからはサイズを気にせず利用する人も
どんどん増えたからね。

スマートフォンで一番売れている機種であるiPhoneはiTunes storeからアプリなどの
コンテンツはダウンロードできるけどこれはキャリアは無関係となっているにょ。
iPhoneだけではなくスマートフォンはネイティブアプリが動作するためにそのOSに
適用するアプリであれば自由に使えるというメリットがあるにょ。(とはいえ、iPhoneに
関しては脱獄しない限りはアップル社が認証したアプリ以外を使うことはできないけど)
それがお手軽さを逆に無くしているにょ。(iPhoneの場合は融通が利かないデメリットは
あるけどアプリが一カ所に集結しているし、決済もプリペイドカードで行えるため
有料アプリの利用しやすさは上かもしれない)

このようなキャリア独自サービスをスマートフォン上で行うためにドコモは7月16日にも
書いたように今月よりspモードを開始したにょ。
要するにスマートフォンでキャリアメールが使え、スマートフォン用のコンテンツの
決済ができるサービスだけどこれによってスマートフォンを利用する上での問題点が
かなり緩和されたにょ。
問題が多かった着信面に関しても先日のアップデートで大幅改善されたしね。
http://plusd.itmedia.co.jp/mobile/articles/1009/10/news099.html

このspモードの影響からかドコモのXperiaが先週の売上ではiPhone4(16GB)を抜き2位に
なったにょ。
http://plusd.itmedia.co.jp/mobile/articles/1009/10/news078.html
何せ発売以来iPhone4(32GB)、iPhone4(16GB)のワンツーフィニッシュ状態が続いて
いたからね。

(3)ガラケーといえば日本独自進化をする上で出来たものだけど人によってはこれは
海外メーカーの参入を拒んでいるため「悪」と捉えている場合があるにょ。
2G時代に日本独自のPDC方式を用いた時点で海外メーカーが参入しずらくなったために
そのようにガラケーを捉えている人がいるというだけであってそれがガラケーの本質
ではないにょ。
日本の場合はキャリアが端末メーカーにケータイを作らせているというのが海外と根本的に
異なる点だと思うにょ。

要するにキャリアの収益性が上がるような端末を作ったらガラケーになったということが
いえるにょ。(高価な端末を安価でユーザーに販売するためにインセをだし、そのために
SIMロックがかけられたけどこれにはコンテンツ利用促進効果も含まれている)
したがって、(3)だけがガラケーではなく(2)もガラケーとしては重要なものとなっている
というわけにょ。(ただし、今回は端末機能とキャリアサービスは分けることによって
分かりやすくするため(2)、(3)は分離した)

海外ではショートメールしか利用できないような時代に日本ではi-modeで簡易的とはいえ
Webブラウザを搭載し、すべてのケータイでインターネット機能(Web閲覧とEメールの
使用)が可能になったにょ。
海外では低機能な端末と高性能なスマートフォンに二極化してくことになったけど
日本では上下差はあるもののすべての端末が独自の高性能化を進めていったにょ。
その際に出来たのが上記のキャリア決済代行によるコンテンツにょ。
これらによって日本ではケータイによるWebの利用や有料コンテンツ利用のハードルは
かなり低くなったにょ。(ハードルが低くなったことにより小中学生の利用において
問題も多く発生しているけどこれはまた別の問題)

あと日本独自進化部分といえば、おサイフケータイやワンセグなどが挙げられるにょ。
これはメアド以上に必要・不必要がはっきりでるため人によって大きく意見が分かれる
部分だと思うにょ。
必要な人は絶対に必要、要らない人には不要となると思うにょ。
私はワンセグは週に数回使っているため無いとさすがに不便に感じるにょ。
ワンセグ機能の端末はケータイとは別に持っているし、PC向けのワンセグチューナーは
あるけどケータイは常に手元にあるというのが最大のメリットだからね。

要するにガラケーというのは幕の内弁当的な進化ということができるにょ。
「幕の内弁当のおかずは自由に選べないから駄目」というならば自分で弁当を作る
しかないにょ。
それがスマートフォンだと思うにょ。
自分好みにできる反面どうしてもハードルが高くなってしまうし、必ずしもおいしい
ものになるわけではないからね。

幕の内弁当があるからこそ自作のメリットやデメリットが分かるのと同じくガラケーが
あるからこそスマートフォンのメリットやデメリットが分かってきているということは
言えると思うにょ。
結局のところ幕の内弁当が多くの日本人に合うように作っているようにガラケーも
多くの日本人に合うように作られているにょ。
これがガラケーの独自進化部分であり、ガラケーのガラケーたる所以だと思うにょ。
したがって、ガラケーの独自進化を否定するということは日本人好みにするという部分
まで否定することになりかねないにょ。

スマートフォンは確かに今後は今よりも売れるのは確実であり携帯契約者数に占める
割合は増えていくと予想できるにょ。
しかし、それは今のままだと一定ラインでストップすることになるにょ。
やはり、スマートフォンに対する不満を抱いている人は少なくないからね。(上記の
アンケートでも半数の人がキャリアメールが使えることが必要と答えている)
2台目用としてみれば現状のスマートフォンでも特に不満はないけどそれは1台目に
ガラケーを使っているという2台持ちをした場合に限られるにょ。
さすがにそこまでコストをかけてスマートフォンを使用する人は多くはいないと思うにょ。

スマートフォンが今後大きく普及するためには1つはガラケー的な日本人好みに合わせた
進化することであり、もう1つはネット環境がPC、ケータイの区別が無くなることにょ。
前者は国内メーカー発案のスマートフォンが増えることで改善されていくだろうけど
後者を改善することは容易ではないにょ。
日本ではガラケーによるネット接続者が多いため企業側もPC向け、ケータイ向けの
サイトを両方作っているのをやめるなんてなかなかできないし、個人ではPCメールは
着信拒否しているような人も少なくないにょ。
スマートフォンのガラケー的な進化が進まない限りは日本でスマートフォンが当たり前の
時代は訪れないと思われるにょ。

368御茶目菜子:2010/09/13(月) 13:14:20
「フリーの法則」が通用しなくなった無料ホームページサービス
すでに知っている人も多いことかもしれないけど楽天が運営する無料ホームページ用の
レンタルサーバであるinfoseek iswebが10月31日をもって終了するにょ。
http://plaza.rakuten.co.jp/usersupport/diary/201008250000/
無料ホームページ用のサービスといえば草分け的存在となったGeocitiesは米国では
昨年にサービスを終了したにょ。(日本では終了はまだアナウンスされていない)

95年に登場したWindows95は標準でインターネットに必要なTCP/IPプロコトルを選択でき
Webブラウザソフトを導入するだけで簡単にインターネット接続ができるようになり
インターネットの世界を身近にしたにょ。
Win98では標準でWebブラウザソフトであるIE4.0が組み込まれているためさらにその
ハードルが低くなったにょ。
これによって90年代後半はインターネットは個人が全世界に向けて情報発信できるもの
として多くの注目を集め個人サイトがどんどん作られていったにょ。

その個人サイトを作る上で必要になるのが設置するサーバにょ。
プロバイダから与えられている容量は限られているし、家族共用で使用しているPCや
プロバイダであればプロバイダ提供のもの以外で使いたいという人が大勢いたために
それに応えるためホームページ用のレンタルサーバ提供サービスを行う企業はどんどん
増えていったにょ。

さて、ここで問題なのはどうやってそれを賄うのかということにょ。
企業が奉仕で行うわけがなく利益が望めるから行うわけだからね。
多くのWeb上の無料サービスは広告収入によって賄われているにょ。
あと最小限の機能を持つ無料サービスに加えてリッチな有料サービスを用意し、無料
サービスを利用しているユーザーを有料サービスに引き入れることで収益アップを
図っているにょ。
これは「フリーの法則」とも呼ばれているにょ。
無料ユーザーが95%であっても5%の有料ユーザーから収益を上げれば全体として
ビジネスとして成立するというものにょ。

このフリーの法則でいえば、まずは無料で「誰もが利用してみたい」と思えるような
サービス展開をし、さらにそのうちの5%が有料でもより便利に使いたいと思えるように
しなくてはならないということにょ。(これが5%ではなく20%や30%になるとその
無料サービスが魅力的ではないということが言えてしまう)
最近ではこのフリーの法則で成功したものといえばニコニコ動画が挙げられるにょ。
コストばかりかかって収益を上げるのが難しい動画配信サイトだけど2010年第2四半期に
四半期ベースとしては初の黒字化を達成したからね。
http://internet.watch.impress.co.jp/docs/news/20100514_367041.html
4月現在の全会員数1670万人に対して有料会員は77.2万人となっておりその割合は4.6%で
「5%」というフリーの法則の理想にかなり近いものとなっているにょ。(これで黒字化
できないのならば有料会員の料金設定そのものに問題があるといるかもしれない)

では、なぜiswebがサービス終了を行うことになったのか・・・。
それには2つの理由が考えられるにょ。

 (1)広告収入が減り無料サービスを維持できなくなった
 (2)有料会員が減り、無料サービスの分を維持できなくなった。

この辺の数字は発表されてないたいえ推測に止まるけど広告収入は時代の流れで減少して
いるのに加えてiswebではCGIが使えるためアップローダなどで活用されるケースも多く
無料サービスからの広告収入はほとんど得ることができないということが原因ではないか
と思われるにょ。(CGIが使えることで負荷が高くなりより多くのコストがかかって
しまうため無料を維持するには有料サービスからの収益に頼るしかなくなっている)
有料サービスの方を見てみると今となってはギガバイト単位でのレンタルサーバが格安に
なっている今、本格的にサイト運営しようという人にとっては物足りないものになって
いるのではないかと思われるにょ。(フリーの法則でいう5%を大きく下回っているのでは
ないかと予想できる)

確かに90年代は情報発信をするならば「個人サイトを作る」ということがベストな選択肢
だったけど今は情報発信をするだけならばサイトをわざわざ作る必要はないにょ。
mixiのようなSNSやブログを利用すればサイト制作に必要なHTMLなんて覚える必要もない
(もしくはホームページ作成ソフトを使う必要もない)わけだし、さらにお手軽な情報
発信手段としてはtwitterのようなものまであるからね。
つまり、ライトユーザーが無料ホームページ用のサーバを利用する機会が激減したし
コアユーザーは有料サービスを利用するならばより便利で応用性の高いレンタルサーバを
活用するか、自前でWebサーバを用意すると思われるにょ。

それを考えると今回のiswebの終了はただこれが終了したというだけではなく無料サービス
全体に関わってくる問題になってくると言えそうにょ。
かつては、プロバイダ提供のサービスだとプロバイダを変えた時点でサイト移転しなく
てはならないから無料サービスを活用するのがベストと思われていたけどその無料サービス
というのがどれも終了の危機に瀕している可能性があるといえる時代になってきている
ということにょ。

「おちゃめくらぶ」は現在プロバイダ提供の場所を活用しているけどここが10MBという
今となっては信じられないような狭さだから何度も移転を検討したけど今回の件を元に
考えると移転をしても無料サービスならばいつ無くなるか分からないという問題が浮上
してきたにょ。
もっとも企業が倒産なんて考えれば有料サービス利用だろうと同じことだといえるわけ
だけど今回のiswebの対応を見ても真っ先に切られるのが無料サービスの方だからね。
時代の流れ(他のサービスの登場)や広告収入の減少化というのもあるけど無料ホーム
ページサービスというものに関して言えばフリーの法則が通用しなくなってきているのが
今回の件においては最大の理由だと思われるにょ。

369御茶目菜子:2010/09/14(火) 13:30:31
デュアルコアでも高価になるなら意味がない
先日Intelより発表されたネットブック用のデュアルコアAtom(Atom N550)だけど早くも
国内メーカーから搭載機種が登場したにょ。
N550を搭載しているのはNECから登場の「LaVie Light BL550/CS」であり、その下位機種
となる「BL350/CW」にはシングルコアのAtom N475が搭載されているにょ。
http://pc.watch.impress.co.jp/docs/news/20100913_392962.html

肝心の価格はというとオープンプライスながら実売予定は約8.5万円となっているにょ。
量販店ではこれより幾分安くなるとはいえこの価格はネットブックとしては驚異的に
高価といえるにょ。
それもそのはず、OSがULCPC用の7StarterではなくHome Premiumが採用されていることで
1万円程度は高価になっているわけだし、MS Officeの製品版(2年版ではなく永続使用
可能な製品)が搭載されていることで2万円程度高価になっているからにょ。
それらが無ければ5.5万円程度の価格は実現できるにょ。
基本スペックだけを見ても一般のネットブックよりも多いメモリ2GB(ULCPCの上限は1GB)、
HDD320GB(ULCPCの上限は250GB)に加えてモニタがWSVGAではなくWXGAであるためその
プレミアム性を価格に反映しているならば納得が出来るレベルの価格といえるにょ。

では、肝心のAtom N550の性能を見てみるにょ。
http://pc.watch.impress.co.jp/docs/column/hothot/20100914_393530.html
Atom Nは元々HTT搭載によって2スレッド同時に動作可能であるためデュアルコア化で何と
4スレッド同時に動作可能になるにょ。
そのタスクマネージャでもCPU使用率を示すグラフは4つ表示されるにょ。
http://pc.watch.impress.co.jp/img/pcw/docs/393/530/html/02.jpg.html
別に大したことではないけどクアッド気分を味わえるのは悪くないにょ。

問題はデュアルコアで性能がどの程度上がるかということだけどデュアルコアCPUという
ものはここで何度も書いたように「性能アップのため」ではなく「遅くなりにくくなる」
というのが主要なメリットとなるにょ。
昨今はマルチスレッド対応アプリが増えたためそのようなアプリでは性能向上に貢献
できるもののそうではない(マルチスレッド非対応アプリ)も未だに多く存在するわけ
だからね。
そういう場合でもWindowsがマルチタスクOSである以上は複数のアプリを同時に使用する
機会はいくらでもあるわけだからそういう場合にはデュアルコアCPUが有用になってくる
というわけでベンチ結果が必ずしも快適性を表しているわけではない・・・けれど
やはり気になるので見てみるにょ。

          LaVie Light BL550/C Eee PC T101MT
          Atom N550 (1.50GHz) Atom N450 (1.66GHz)
          Win7 Home Premium   Win7 Home Premium
 ◎PCMark05
   PCMark Score     1767         1617
   CPU Score       1665         1420
   Memory Score     2174         2419
   Graphics Score     542         528
   HDD Score       3630         4933
 ◎FINAL FANTASY XI Bench 3
   LOW          1074         1250
 ◎Windowsエクスペリエンスインデックス
   プロセッサ       3.1         2.3
   メモリ         4.7         4.4
   グラフィックス     2.9         3.1
   ゲーム用グラフィックス 3.0         3.0
   プライマリHDD     5.4         5.7

では、まずPCMark05のCPUスコアを見てみるにょ。
N550を搭載したLaVieはN450を搭載したEee PCと比べてCPUクロックは10%劣っているにも
関わらずベンチスコアは17%上回っているにょ。
これはクロック当たりでいえば30%もの性能差となっているにょ。
これはPCMark05に用いられているテスト内容がマルチスレッドに対応しているためだと
想定されるにょ。(エクスペリエンスインデックスのCPUスコアはさらに大きな差に
なっているけどこちらはただの単純演算を元にしたものであるためHDBenchなどと同じ
ようにコア数増加が如実に表れているため)
つまり、一般的なマルチスレッド対応アプリではN550はN450と比べて10〜20%高速に
動作するといえそうにょ。

では、マルチスレッド非対応アプリではどうなのかというとFF XIベンチを見れば予想が
つくにょ。
FF XIベンチはゲームベンチだけどある程度のGPUを搭載していればCPUのシングルスレッド
性能でスコアが左右されるからね。
ベンチスコアはN550が1074なのに対してN450は1250であり14%劣っているにょ。
CPUクロック差が10%なのに14%劣っているのは同じGPUとはいえドライバのバージョンの
違いや常駐アプリの差もあるし、FFベンチの場合は測定誤差も2、3%程度あるというのが
影響しているにょ。
だから、シングルスレッド性能はその動作クロックに応じたレベルしかないと思って
いれば問題ないにょ。

ちなみにFFベンチを比較する場合には7、Vista(NT6系)よりもXP(NT5系)の方が
スコアが大きくなる傾向があるため単純比較はできないにょ。(上記の比較は両者とも
Win7だったから問題なく比較可能)
レビューに記載されているもう1機種(Eee PC 1005HA)を見てみると1世代古いAtom N280、
945GSEにも関わらずXPであるためFFベンチは1537となっているにょ。
CPUコアはN280とN450は同等とはいえ、GPU性能は945GSE(GMA950)<GMA 3150であるため
何ともいえないけどこのスコアではGPUがボトルネックになっているわけではない(GMA950
より低い性能であるGMA900搭載のPenM1.2GHzのノートPCでもFFベンチは2000を超える)と
いうことでこの差はOSによるものといえるにょ。

N550のCPU性能を見るのが今回の目的だったけどとりあえず他の項目も見てみるにょ。
GPU性能はN450とN550は同等であるため唯一の違いとなるとやはりメモリにょ。
N550はN455、N475と同じくDDR3に対応しているからね。
メモリ性能を見てみるとPCMark05ではDDR3(PC3-8500)を搭載したN550の方がDDR2(PC2-
5300)よりもスコアで劣っているにょ。
これはたまたまPCMarkではこうなったというだけであってエクスペリエンスインデックス
の方を見てみると順当にN550の方が上になっているにょ。

この辺はDDR3の方が順次読み出しでは速くなっていてもレイテンシが大きくなっている
ためベンチによってDDR2よりもスコアで劣ることは十分考えられるため1つのテスト
だけで優劣は判断できないということにょ。
もっとも、このクラスのCPU性能においてはこのメモリの差が影響することはほとんど
ないけどね。
ネットブックがDDR3に対応したのは高性能化が目的ではなくDDR3の供給量が増えたため
安価に入手可能になったので対応したというだけの話にょ。

今回はデュアルコアAtomであるN550の性能を見てきたけどやはり4月23日に書いた予想
そのまんまだったにょ。(コアが同じでシングルコアからデュアルコアになるだけだから
誰でもあのような予想になるだろうけど)
PCMark05のCPUスコアを見てのようにマルチスレッド対応アプリであればクロック当たりの
性能はシングルコアAtomの3割り増しの性能とはいえクロックは低めの1.5GHzであるため
Atom 1.95GHz相当の性能でしかないにょ。
シングルコアAtomでは厳しいWebブラウザ上でのYouTube720pの動画再生はデュアルコアの
Atom N550ならば・・・と期待している人もいるだろうけど1.83GHzのN475でも厳しい
ものが(マルチスレッド対応ということを考慮して)1.95GHz相当のN550で再生できる
ようになるかというと難しいのではないかと思われるにょ。

結局のところN550はN450に対しては性能の優位性はあるけどN475に対してはほとんど
優位性はないと思われるにょ。
それは、N550が得意とするマルチスレッド対応アプリでも1割差にも満たないレベルの
小さな速度差(ほとんど互角のレベル)であるためほとんど体感できないからね。
逆にシングルスレッド性能で2割劣るN550はマルチスレッド非対応のゲームなどではN475
と比べて体感できるほどの遅さになると思われるにょ。
つまり、「アプリの動作が高速になる」という理由でN550搭載機を選ぶのは正しくないと
いうことがいえるにょ。(N475相手ならN550の方が遅くなることの方が多いと思われる)

とはいえ、最初に書いたようにデュアルコアCPUいうのは「遅くなりにくい」というのが
最大のメリットといえるにょ。
アプリの実行速度が問題ではなく複数のアプリを同時に使用時の体感速度に問題がある
というのであればデュアルコアは非常に有用といえるにょ。
この辺は使用方法にもよるためどっちが優れているかということは言いにくいけどそう
いった体感に関しては数値では表せないため実際に使ってみるしか方法はないにょ。

そういうことでN550はN475搭載機とあまり価格差がないのであれば十分に選択する価値は
あると思うにょ。
そういう面で考えるとLaVie Light BL550/Cは微妙にょ。
高価になる要素がたくさんあるためそれらを考慮していけば一概に高価とはいえないものの
ネットブックは「安いこと」が最大のメリットだからね。
付加価値によって高価になったネットブックはそのメリットを失うことになるにょ。
それらが必要不可欠なものであるならばまだいいけどそうでないならばなおさらにょ。

そもそもネットブックは安価にできた理由はOSが安価ということがあるにょ。
MSのULCPCの基準を超えないようにすることで安価なULCPC向けのWindowsの提供を受ける
ことができたからね。
安価な部品の寄せ集めであるネットブックにおいて最も高価であったWindowsが安価に
なるということは非常に大きくそれが価格に大きな影響をもたらしたにょ。
このことから、Intelはネットブック用のデュアルコアAtomはいつでも出荷できる状態に
あったにも関わらず最近になってようやく出荷を始めた理由として8月26日に書いたように
従来はULCPC用として認められなかったデュアルコアもAtomに関しては認められるように
なったのではないかと予想したにょ。

しかし、今回のBL550/Cを始めすでに発表されている他のメーカーの機種は軒並みULCPC用
となるStarterではなくHome Premiumを採用しているにょ。
そのために価格の高騰が起きているにょ。(Starter採用ならばOSの価格差だけを考えて
みても1万円程度安くできる)
この辺はMSからULCPCの基準緩和がされてないためなのか、メーカー側がネットブック
とはいえ上位モデルを安く売りたくないためHome Premiumを採用しているかは判断に
苦しむけど恐らく前者の方が正解ではないかと思われるにょ。
もちろん、ネットブックを2モデル以上ラインナップしているメーカーであれば後者の
ニュアンスも含まれていると思うにょ。

確かにデュアルコア化によってシングルコアモデルよりも高付加価値を付けて売り出す
というのは間違いではないけどそうなるとさらに上位となるCULVノートとの価格差も
失われることになるにょ。
ネットブックとCULVノートとの価格差はCPUの価格差3000円程度の差(CULV用の最下位
モデルとの差)しかなくなるからね。
もっともこれは部品コストの話だから売価ではその2倍程度にはなるだろうけどそれでも
性能差はそれよりも大きいからね。
セレロンSU2300であってもYouTube720pをWebブラウザ上でコマ落ちなく再生できる程度の
CPU性能はあるし、GS45に内蔵されている再生支援機能を用いることで1080pの再生も
可能になるにょ。

ネットブックであっても一旦ローカルに保存した後で軽量なプレイヤーで再生するならば
720pの動画は十分再生できるけどネットブック用Atomでは最も性能が低いN270(1.6GHzの
シングルコア)であっても720pは十分再生できるため「ローカルに保存したファイルを
再生するからN550で十分でCULVの性能は不要」というのであれば「N270でも十分」という
ことも同時に言えてしまうにょ。(実際はN270とSU2300はCPU性能だけを見ても2〜2.5倍
程度の差があるけどそのような理由によってN270とSU2300の有為的な差はないと主張する
人は実際に存在する)
それならばN550ではなく中古のN270搭載機を買うのが一番だし、中古が嫌というので
あれば新品で安価なN450搭載機を買うのが一番となるにょ。
要するにAtom N550搭載機において現状で価格に似合った(CPUだけではなく)処理性能が
あるかと聞かれたらないということにょ。

高性能もしくは高コストパフォーマンスは求めないけど適度に安価で快適に使いたいし、
持ち運びたいから一般的なCULVノートのサイズは論外で普通のネットブックサイズが良い
という人にはAtom N550搭載ネットブックは最適といえるけどそれらの条件を満たせない人に
とってはかなり微妙な存在であることがいえるにょ。
N550はクロックが低い分だけN475よりアプリの動作速度は期待できないけど(数値には
現れない)体感では上回るというだけの話でありCULVノートであればそれと比較して
明らかに高速動作かつ快適動作が可能ということを考えればあえてN550を選ぶという
メリットは極めて小さいと思われるにょ。

確かに一般的なネットブックとCULVノートとのサイズ差、重量差は小さいものではない
とはいえ、ネットブックは持ち歩き用ではなく家庭内モバイルがメインとなっている
現状においてはそのサイズ差はそれほど目立ったものではないにょ。
4月18日に書いたようにネットブックを所有している人のうち持ち歩いている人は5%程度
しかいないからね。
これはアンケート結果が古いということもあり、iPad登場などによってさらに減っている
と推測されるにょ。
その中で、ネットブックのサイズであれば持ち歩けるけどCULVノートのサイズになると
持ち歩けないという人はごくわずかだと思われるにょ。
全体からすると1%いるかいないかといレベルではないかと思うにょ。
しかし、価格はすべてのユーザーに影響してくるにょ。
したがって、「安さ」という最大の武器を捨てたネットブックには存在意義をあまり
感じることはできないにょ。

370御茶目菜子:2010/09/15(水) 13:27:31
Sandy Bridgeが出るのを待つのがベターなのか・・・?
Intelが次世代CPU「Sandy Bridge(開発コード名)」の詳細を明らかにしたにょ。
http://pc.watch.impress.co.jp/docs/news/event/20100914_393660.html
登場は来年1月初頭の見込みにょ。

Sandy Bridgeの主なポイントを挙げると下記の2つになるにょ。

 (1)GPUダイをCPUダイと統合することによる高性能化&省電力化
 (2)AVX命令を搭載

(1)GPU統合なんて別にめずらしいことではないと思っている人は多そうにょ。
ARMだと際限なく存在するのでx86CPUという条件を加えても97年に登場のMediaGX以来
多数あるわけだからね。
さらにIntelという条件を加えると今年の初頭に登場したPineView以来ということで
これでも「初」というわけではないにょ。
とはいえ、どれも低価格化や低TDPを狙いとしたローエンドや組み込み向けのx86CPU
であり、メインストリームとなるCPUではなかったにょ。(Atomは数量こそ出荷されて
いるもののローエンド以下の市場でしかない)
そういうわけでSandy BridgeはPCのメインストリーム向けCPUとしては初のGPU統合と
なるわけにょ。

現行のClarkdale(Arrandale)もメインストリームCPUも同一パッケージ内にGPUダイを
内蔵したとはいえやはり別ダイということが消費電力的にも性能的にも足かせになって
いるにょ。
メモリアクセスにおいてはメモコンをCPUコアに内蔵したCore i7(Bloomfield)は確かに
Core2と比べて性能向上に貢献したけどそれが32nm世代のClarkdale(Arrandale)では
再びCPUコアから分離したため性能面のアドバンテージは薄れることになったにょ。
しかし、Sandy Bridgeでは再びCPUコアと同一ダイに搭載されることになり性能アップに
貢献できるようになるにょ。

メモリレイテンシが短くなるというだけではなく従来はノースブリッジはCPUと比べると
1〜2世代遅れた製造プロセスで作られていた(ArrandaleもCPUは32nmなのに対して
ノースブリッジは45nm)けれどそれが同一世代になるということにょ。
つまり、1〜2世代分一気に進むわけだけどそれによって得られるものは省電力化もしくは
高性能化にょ。
1世代分進むと単純計算で搭載可能なトランジスタ数は倍増するにょ。

CPUの場合はトランジスタ数を増加させても性能向上はその平方根分でしかないという
ポラックの法則が影響するにょ。(トランジスタ数が4倍になっても性能は2倍にしか
ならない)
ポラックの法則は経験則なのだけどこれはCPUの命令の並列性がそこまで高くない(命令の
同時発行数や演算機を倍増しても性能が倍増するわけではない)というのが原因となって
いるにょ。
それに対してGPUは並列性が高くSP数に割くトランジスタ数が倍増する(要するに同一
アーキテクチャならばSP数が単純に2倍になる)ならば性能はほぼ2倍になるにょ。
したがって、製造プロセスの進化はGPU性能に如実に影響してくるにょ。

ここで出てくるのがムーアの法則にょ。
これも同じく経験則が元になっているけどIntelの場合はほぼ2年で1世代CPUの製造
プロセスを進めているにょ。(つまり、ダイサイズが同じであれば2年ごとに倍増して
行く計算になる)
CPUに関しては最新の製造プロセスを使用していたけどチップセットに関しては旧世代の
製造プロセスを使用していた関係上ここ最近だけを見ると1年ごとに1世代の性能アップに
なっているにょ。
http://pc.watch.impress.co.jp/img/pcw/docs/393/660/html/09.jpg.html
これは年々倍々ゲームでGPU性能が上がっていることを意味するにょ。

それで、CPUに内蔵されるSandy BridgeではついにCPUと同じ製造プロセスを使用する
ことになるわけだけどSandy Bridgeでは前年の2倍ではなく4倍の性能アップになる
(2006年比で10倍ではなく25倍)ということを上記のグラフではアピールしているにょ。
実際にそんなことができるのかということが問題になるわけだけどCPUと同一ダイに
GPUあることで高速なCPUキャッシュをGPUが使用できるということがやはり性能アップに
貢献している模様にょ。

そもそも統合型チップセットのGPUというのは世代的には完全に遅れたものが搭載されて
おり、865G(855GM)に内蔵されているIEG2はDirectXの機能的には6〜7の世代に相当
するわけだけど登場時にはすでにDirectX9が主流になりつつあったにょ。
しかし、その後継である915G(915GM)に内蔵のGMA900でそれは変わったにょ。
バーテックスシェーダこそCPUによるエミュレーションだけどピクセルシェーダは
ハードウェアとして搭載しておりDirectX9世代のGPUになっているからね。
それ以降の性能アップは上記のグラフを見ての通りにょ。

どれも登場時のローエンドにも劣るとはいえ、最新のゲームでも軽いものならば十分に
プレイ可能なレベルであり統合型チップセットのGPUは「それなりに使えるレベル」に
なったにょ。(ただし、IntelのGPUの場合はCPUによるエミュレーション部分が多いため
性能を発揮するためにはそれなりのCPU性能も必要になる)
十分に高速なCPUを搭載していればClarkdale(Arrandale)に内蔵のGPUであるIntel HD
Graphicsは2005年頃の単体ミドルクラスGPUであるRADEON X700(Mobility X700)に近い
性能を発揮するにょ。
X700はSM2.0世代であるためSM4.0世代であるIntel HD Graphicsの方が有利に働く場面
さえあると思われるにょ。

そこからさらに4倍の性能となるSandy Bridgeに内蔵のGPUは相当の高性能になりそうにょ。
最新の単体ローエンドGPUをも超える性能になるかもしれないにょ。(もっともこれは
ピーク性能だろうから実効性能で単体ローエンドGPUを超えるものになるとは思えない)
GPUに力を入れるのはGPUがゲームに使用されるだけではなくIE9でもレンダリングを行う際に
GPUが使用されるようにGPUが重要になる場面が今後は多くなるためにょ。
http://plusd.itmedia.co.jp/pcuser/articles/1003/18/news048.html

AMDもLlano(開発コード名)でGPUダイをCPUダイに統合する予定になっているにょ。
このLlanoは現在はまだ詳細は明らかになってないけどSP数は400〜480に達するという
見方もあり、もしもこれが実現されるのであれば現行のミドルロークラス(RADEON HD5570
クラス)の性能に達し、単体ローエンドGPUを超える性能になるにょ。
重量級ゲームをプレイしないのであればもはや単体GPUは不要になってくるにょ。

(2)このAVX命令こそSandy Bridgeの目玉となる新機能にょ。
Pen3に搭載されたSSEは当初は対応ソフトがないと効果が発揮できず、Pen3は同一クロックの
PenIIと比べて大きな優位性を発揮できなかったわけだけど徐々にSSE対応のアプリが
増えていくことでその考えは一変したにょ。
SSEは新設された128ビットレジスタを使い32ビット演算(単精度浮動小数点演算)で
あれば一度に4つ計算可能になるためCPUに内蔵されたFPUを大きく超える演算性能を
発揮できるようになったにょ。
SSEはPen4/PenMに内蔵されたSSE2で新命令が追加され、SSE3、SSE4と今日に至っている
わけだけどそれがSandy Bridgeでは256ビットのAVXが搭載されるにょ。
これはPen3に搭載されたSSE以来の大きな改革といえるにょ。

SSEと同じくそれを活用することで飛躍的な性能向上が期待できるにょ。
最も有用なのはエンコ用途にょ。
HD動画のエンコは6コア12スレッドのCore i7のフラッグシップモデルであってもまだ
十分といえるレベルには達してないからね。
これはGPGPUで徐々に改善されつつあるとはいえ、まだGPGPUは十分に活用できてない
ためCPUに頼る必要があるにょ。
http://pc.watch.impress.co.jp/docs/news/event/20100915_393755.html
このリンク先にSandy Bridgeと現行のCore i7/i5/i3などとの比較動画があるのでAVXを
使用時の高速性についてはそれを参考にするといいにょ。

現行のClarkdale(Arrandale)より省電力&高性能化がされるということがこれで分かる
と思うけど問題は価格やラインナップにょ。
とはいえ、価格帯においては9月1日に書いたようにIntelの場合はある程度固定化されて
いるためほぼ現行よりワンランク上の製品が同一価格で買えるのではないかと予想
できるにょ。
現在の予想ではこのようなラインナップとなっているにょ。
http://pc.watch.impress.co.jp/docs/column/ubiq/20100915_393886.html
相変わらず、SKUが複雑でCore i7/i5/i3の明確な違いというのが分からないというのが
最大の難点かも・・・。

さて、私は自作PCに関して言えば2年少々前に組んだCore2Duo E8400(3GHz)で特に不満を
感じてないのでSandy Bridgeで組むことは無さそうにょ。
とはいえ、今から組もうと考えている人で一回組んだらある程度長期間(3年以上)組み
直すことがないという人であれば今は「Sandy Bridge待ち」の方がいいかもしれないにょ。
「自作PCだからCPUだけ交換すればよい」という考えもありそうだけどSandy Bridgeでは
ソケットが変わるため今組んだら「CPUを変える=マザーボードも変える」という必要が
あるからにょ。(長期間使い続けることでAVX対応アプリが増えその恩恵が出てくる)
もちろん「ハイエンドしか興味がない」とか「自作PCは毎年組み替える」とかいう人で
あれば待つ必要なんて全くないにょ。
欲しい時に組むのが一番にょ。(といっても9月1日に書いたような大幅値段変更があるため
価格を気にする人はこまめにチェックする必要はあるけど)

371御茶目菜子:2010/09/16(木) 13:37:52
上記の続き
(9)記録メディアに関しては「記録媒体そのもの」よりも「容量」と「速度」が重要になって
くるにょ。(もちろんその記録メディアの入手性や価格も重要だけど)
SDカードのみ対応(SDHC非対応)であれば最大2GBということで今時は静止画だけの撮影
といっても十分ではない(RAW+JPEGであれば1カット20MB近くに達するため1枚で100カット
程度しか撮れないため)とはいえ、SDHCに対応していれば静止画であれば全く問題ない
といっても良いと思われるにょ。
動画であれば確かに容量が大きい方がいいのだけど容量の問題ではなく速度の問題で
SDXC対応のメリットがあるにょ。

SDXCは現行規格(UHS-I)でも規格上の最大転送速度は104MB/sに達しているにょ。
SDカードはその規格上SDでもSDHCでも25MB/sが上限(SandiskのExtreamは独自対応で
30MB/sに達したけど専用カードと専用リーダが必須となる)となっているけどRAWで
連写をした場合にはバッファフルとなった後に書き込み待ち時間がかなり長く発生して
しまうにょ。
高画素化が進めば進むほど連写速度が上がれば上がるほどより高速なカードが求められる
けれどSD(SDHC)は規格上満足いくようなものではないためプロ機やハイアマチュア向け
ではSD系のカードは採用されずCFが採用され続けているにょ。
しかし、中級機も画素数が増え、連写速度もかつてのハイアマチュア向けモデルと
同等以上になってきている今となってはSDHCでは力不足にょ。
高速なSDXCカードが安価に手に入るようになればそれ一本に絞られるだろうけど現状では
SDダブルスロットが速度面の要求に応える最善の方法かもしれないにょ。
もっともそこまでやるなら最初からCFにしておけという話もあるだろうけど高速なCF
カードは価格面で非常に手を出しづらいし、コンデジからステップアップする人に
CF採用機はハードルが高いためコンデジと同じSD系がベターだからね。

(10)重量に関しては唯一D7000がD90と比べて負けている部分だけどこれはエンプラボディ
だったのが部分的とはいえマグネシウム合金ボディとなったためやむを得ないにょ。
防塵防滴など重量増の要素がありここまでスペックアップしてなおかつ70gしか重くなって
ないというのは評価できるポイントだと思うにょ。
上位モデルとなるD300sと比べるとこれでも120g軽量となるため差別化は可能だと思うにょ。


さて、以上の10点においてD7000を見てきたけどやはりD90との大きなスペックアップは
非常に魅力となるにょ。
私自身K200D、D50の2台のデジタル一眼を使用しているため次に買うならばD90かK-7の
後継機種と考えていたけどD7000のスペックならば何の不満もないにょ。
D90は底値に近づいているためD7000が発表された今であってもお買い得感があるけど
さすがに古さを感じていている(支払うコスト分だけD50やK200Dより明確なメリットが
あるかと言われたら微妙)からね。
D90ではなくD300sを買えば作りそのものが別物だから十分買う価値はあるとはいえ、
やはり、価格面と重量面がネックだからね。(D300sは重いとはいえ、手にしっくりくる
ボディ、APS-Cの中では最高レベルのファインダー、気持ちのいいシャッター音に
加えてプロ機と遜色ない剛性など今でもその価格に似合うだけの価値はある)

大幅なスペックアップが図られたD7000と比べるとライバルであるキヤノンEOS 60Dと
方向性が逆であることが分かるにょ。
EOS 60DではEOS 50Dでマグネシウム合金ボディだったのを7Dとの差別化を図るため軽量化を
行う際に全面エンプラボディにしてしまったにょ。
これは「差別化」という面ではありだけど従来のD90が入門機やコンデジを卒業した人
向けの入門用中級機(?)だったのにD7000ではそのターゲットがハイアマチュアまで
広がったからね。(D300sの後継となるD400は一体どんなスペックになるのか!?)
逆にEOS 50DはハイアマチュアまでがターゲットとなっていたけどこれはEOS 7D登場で
その座を譲ってしまったのか従来のD90のターゲットと同じような入門用中級機に
格下げされたイメージがあるにょ。

D7000はその噂が出たときにはD5000とD90の間を埋める上位入門機という感じだったため
ボディにはAF駆動用モーターが内蔵されず現在(というかD40以降の)入門機と同じく
モーター非内蔵のレンズはAFで使用できなくなるのではという話になっていたにょ。
ところがどっこい実際に出てきたD7000はD90を完全に凌ぐ仕様だったにょ。
ニコンFマウントは50年の歴史があるためAF用モーター内蔵・非内蔵という前にMFレンズ
対応の問題もあったにょ。
今年の3月13日に書いたようにマウントを維持しながら50年間使い続けていたために
Fマウントは複雑怪奇になり、その互換性のため廉価な入門機では古いレンズとの互換性を
排除しているにょ。

しかし、D7000ではD90で搭載されていたAF駆動用モーターだけではなくD90には搭載されて
いなかったMFレンズ用のAE連動ピンまで搭載したにょ。
D90ではMFレンズは一部のCPU内蔵レンズ(レンズ情報が埋め込まれたチップを搭載した
もの)だけに使用が限られていたけどD7000ではAiニッコールレンズすべてが使用可能に
なったにょ。
これは現行機あればプロ機であるD3系を除くとハイアマチュア向けであり、DX(APS-C)
フラッグシップとなるD300sのみしか搭載されてなかったにょ。
古いレンズとの互換性が切られていく中、逆に古いレンズとの互換性を強化するという
ことは明らかに狙っているユーザー層が変わっているということがこの1点だけ見ても
分かるにょ。(あとダイヤルに「撮影シーン」を示す絵文字が排除されたことからも
入門機ではないということが分かる)

個人的にここまではパーフェクトといってもいい感じだけど問題は価格にょ。
発売時の予価14万円(ボディのみ)となっているからね。
D90の発売当初の価格より約2万円高価となるにょ。
確かに性能を考えれば安いくらいだけどさすがに本体に10万円以上払うのは金銭的に
厳しいため少なくとも私はD7000は10万円を切るまでは買うことがないと思うにょ。
あとはK-rのスペックを見るとK-7の後継となるK-5のスペックも楽しみになってくるため
「K-5とD7000のどっちを買ったらいいんだ!?」という嬉しい悲鳴を上げることになる
かもしれないにょ。

372御茶目菜子:2010/09/16(木) 13:41:18
ついに本命「D7000」登場
ニコンが中級機となるデジタル一眼「D7000」を発表したにょ。
http://dc.watch.impress.co.jp/docs/news/20100915_393756.html
私も待ち望んでいたD90の後継となる機種にょ。
メーカー発表の位置づけからするとD90よりも上でD300sよりも下に位置するけど現在
価格が大きく下がってきているD90はもはや在庫限りとなるためD90はD7000へと取って
代わる時期は遠くないと思われるにょ。

さて、肝心のスペックを見てみると2年前に発売されたD90からだとこのように変化して
いるにょ。

            D90         D7000
 (1)画素数       1230万画素   → 1620万画素
 (2)ISO感度       ISO100〜6400  → ISO100〜25600
 (3)防塵防滴      無し      → あり
 (4)動画機能      720p(MF)   → 1080p(AF)
 (5)ファインダー視野率 96%      → 100%
 (6)AFポイント     11点      → 39点
 (7)最高シャッター速度 1/4000(X 1/200) → 1/8000(X 1/250)
 (8)連写速度      4.5コマ/秒   → 6コマ/秒
 (9)記録メディア    SD/SDHC     → SD/SDHC/SDXC(ダブルスロット)
 (10)重量        620g      → 690g

では、それぞれについて書いていくにょ。

(1)画素数に関してはコンデジにおいては何度も書いているように「高画素=高画質」
ではないにょ。
しかし、これがコンデジよりも1桁大きなセンサーサイズを持つデジタル一眼ならば
まだそれは変わってくるにょ。
画素数を見てのようにコンデジ(1/2.33インチセンサー搭載機)でさえすでに1400万画素に
達しているけどそれよりも13倍くらいのセンサーサイズであるAPS-Cのデジタル一眼が
それとあまり変わらない(1200〜1600万画素)画素数なわけだからね。

とはいえ、レンズ一体型によってすべて専用設計にできるコンデジと汎用性の高い
デジタル一眼ではコンデジの方が有利な面もあるにょ。
したがって、センサーサイズが13倍だから画素数も13倍まではOKという単純なものには
ならないにょ。
それに一眼レフでコンデジと同レベルの高感度性能や等倍鑑賞時の画質では一眼レフを
使う意味もかなり失われているからね。

高感度性能に関してはセンサーと画像処理エンジンの影響が大きいため適正な画素数と
いうものは時代によって変わってくるにょ。
とはいえ、画素数が増えれば配線幅によって実質的なセンサー1画素当たりの大きさ
(つまり搭載可能なマイクロレンズの大きさ)が画素数に反比例したものよりもさらに
小さくなってくるにょ。
特にこれはコンデジにおいては顕著であり、センサーの受光側を配線のある裏側に
設置した裏面照射型センサーが非常に有用になってくるにょ。
コンデジより1桁大きなセンサーを搭載のデジタル一眼の場合はまだそこまで配線幅が
与える影響は大きくないため現在のセンサー性能と画像処理エンジンの性能をもって
すれば「1600万画素は多すぎる」ということはないにょ。

あとは、レンズ性能の影響にょ。
画素数が多くなればなるほど要求されるレンズ性能(解像力)は高くなるにょ。
確かに絞れば実効解像力はアップする(これは実効解像力であり、収差の全くない理想的な
レンズであれば絞れば絞るほど解像力はダウンする)とはいえ、問題は回折限界があると
いうことにょ。
多くのズームレンズレンズはF11程度でピークになるように設計されているにょ。
これは開放F値がF5.6のレンズが主流であり、開放から2段程度絞ることでようやく各種
収差が減りそれが解像力アップに貢献しているというだけの話なのだけど画素数が
増えればこれが厄介になるにょ。

例えば現在APS-Cサイズでは最大画素数となるEOS 7D/60D/Kiss X4の1800万画素で考えると
画素ピッチが4.3μmであるためF8.6で回折限界を迎えるにょ。
そのためF8まででピークが来るようなレンズでないと1800万画素の性能を発揮することが
できないにょ。
当然のことながらレンズセットに付いているキットレンズしか使わないような人であれば
1800万画素はほとんど無意味にょ。
しかし、中級機となると高性能な単焦点レンズを使用する人も増えるだろうから必ず
しも画素数が多いから駄目と言えるものでもないにょ。
それでも「気兼ねなくF8で使える」ということを考えるとやはり1800万画素あたりが
APS-Cの限界になると思われるにょ。

(2)設定可能感度から高感度性能は分からないにょ。
D90も発表された当時は非常に高感度性能に優れた機種だったとはいえさすがにこの業界で
2年前といえば完全に過去の機種にょ。
確かにまだ第一線で活躍できる性能(高感度性能)を持っているとはいえ、高い性能が
あると言われていたのがボーダーライン上にあるというレベルまで下がってきているのは
否めない事実だと思うにょ。

この2年間でセンサー性能と画像処理エンジン性能は大きく改善されたにょ。
その結果がEOS Kiss X4で1800万画素という画素数にも関わらず高感度性能はAPS-Cの中で
トップレベルになったわけだしね。
D7000に搭載されているセンサーの詳細は不明だけど恐らくソニー製のセンサーだろうから
α55と共通(もしくはニコン用にチューニングされたもの)だと推測されるにょ。
すでにα55の撮影サンプルは各所で公開されているし、国内大手サイトでレビュー記事が
掲載されたらここでも採り上げようと思っているけど高感度性能に関してはX4に負けて
いないにょ。

ニコンの画像処理エンジン次第ではX4以上のものになるかもしれないにょ。
ISO25600はあくまで非常用だろうけどISO3200までなら常用(A4で問題なく使えるレベル)
であり、ISO6400でも人によっては十分使えるのではないかと思われるにょ。
D90の場合は常用可能だったのがISO1600まででISO3200ではやや厳しくなり、ISO6400では
カラーノイズが盛大に出るのでL版や2L版でないと厳しいレベルになっていたからそれと
比べると確実に1段分以上は向上しているのではないかと推測されるにょ。

(3)防塵防滴は人によって必要・不要があるだろうけどやはり中級機であるならば必要
ではないかと思われるにょ。
入門機であればコストの方が優先されるし、「防塵防滴機能があるからこれくらいならば
大丈夫」という判断はある程度の経験がないと難しいからね。(防水ではないため
完全に水没してしまったらアウトになる)
私が使っているK200Dは入門機としては極めて珍しい防塵防滴機能を搭載にょ。

とはいえ、防塵防滴機能は本体にだけあっても意味がないにょ。
レンズの方にもないと結局は雨の日は別途対策を行う必要があるからね。
そうなると本体だけではなくレンズの方にも防塵防滴機能を搭載する必要があるのだけど
ニコンの場合はまだまだレンズ側の対応の方が不十分にょ。
この点ではペンタックスやオリンパスの方が上だと思われるにょ。

(4)世界初の動画撮影機能が搭載されたD90だったけどさすがに事実上フルマニュアルで
撮影することになるためとても素人が手を出せる代物ではなかったにょ。
しかし、8月20日に書いたようにHD動画に対応した入門機であるD3100が登場し、今と
なっては動画でAF、AEが当たり前のように使えるようになりおまけ程度の動画から完全に
脱却しつつあるにょ。
動画を快適に撮影するならばフルタイムAFに対応したα55の方が確実に有利だろうけど
D7000も「素人お断り」と言わんばかりのD90よりは圧倒的に使いやすいものになっている
と思われるにょ。
他社が動画機能に力を入れているのに「ウチ(ニコン)はやりません」というのは
なかなかできないので「動画なんて要らないから安くしてくれ」というのも難しいかも
しれないにょ。(H.264エンコードチップなんて今は格安になっているので動画機能を
外したところで価格は1000円単位でしか変わらないと思う)

(5)中級機の証といえばペンタプリズムファインダーにょ。
入門機に採用されておりピントの山が掴みづらいペンタミラーファインダーとは異なり
MFでのピント合わせは抜群に優れているからね。(とはいえ、MFを使用すること自体が
入門機を使用する人にはほぼ想定外であるため入門機には価格面で有利になるペンタ
ミラーが搭載されている)
ここで、問題なのはその視野率にょ。
銀塩時代はネガフィルムであればプリント時にどうせ切られるから視野率100%なんて
無意味でありリバーサルフィルムを使わないとその意味はあまりなかったけど今は撮った
写真をPC鑑賞する場合はリバーサルと同じく写真の隅から隅まで鑑賞可能になるため
100%が無意味ではないにょ。
センサーに入った映像を液晶モニタ上で見ているコンデジであれば視野率は実質約100%
なのだから視野率100%(見えている範囲がそのまま撮影される)というのが常識に
なりつつあるにょ。

しかし、視野率約100%を謳っているEOS 7Dも実際に測定したら96〜97%しかなかったと
いう話もあるにょ。
高々3、4%は誤差の範囲内と言ってしまえばそれまでだけどファインダーに見えなかった
ものが3、4%余分に写っているというのを気にする人は多いにょ。
デジタルなんだから最初からトリミング前提と考えればいいけどそれならば28mmで撮った
写真は24mmをトリミングしても同じとかいうことにまで発展してしまいかねないにょ。
画角の重要性、写真は引き算であるということを考えれば視野率100%がベストなのは
確実にょ。

とはいえ、視野率100%を確保するには精度の高さが要求されるにょ。
そのため視野率100%はフラッグシップ機(もしくはプロ機)にしか採用されることは
ほとんどないにょ。
ペンタックスK-7は独自の「センサーが浮いている構造」なのを活かしてファインダー側に
高い精度を求めることなくセンサーの位置を微調整するだけでほぼ100%の実効視野率を
達成したにょ。
D7000の実効視野率は製品登場後に明らかになるけどほぼ100%(99%〜100%)が実現
できているのならばこれはフラッグシップ機といっていいレベルの機種になるにょ。

(6)AFポイントが多ければいいというものではないけどカバーできるエリアが広い方が
良いに越したことがないにょ。
D300の51点の測距エリアはファインダーのほぼ全域をカバーするというすさまじいもの
であり、画面上のどこに被写体があっても問題なくAFでピント合わせが可能だったにょ。
D7000の39点はそれと比べれば劣っているとはいえ、D90の11点と比べるとその差は歴然
となるにょ。
D90の場合は11点のうちクロスセンサー(縦線にも横線にも対応できるセンサー)は
中央1点のみだったけどD7000は39点中で9点がクロスセンサーになったにょ。
ライバルになるであろうEOS 60Dは9点の全点クロスであるため測距ポイントだけを見ると
完全にライバルを上回っているにょ。

ちなみに私が使っているニコンD50(2005年発売)は5点測距でそれほど不満はないとは
いえさすがにフレーミングの自由度はあまり高くないにょ。
それに対してK200D(2008年発売)は11点測距離(全点クロス)は大幅にそれが緩和されて
いるから39点測距のD7000はK200Dと比べてもかなり快適に撮影できそうにょ。
もっとも静物メインであるため私は測距点選択を手動で行うためあまり測距点が多いのは
かえって不便になるけどそれはD300と同様に39点すべてではなく必要に応じて減らせる
ために多いことがデメリットにはならないにょ。

(7)シャッター速度の最高速を見てみるとやはり1/8000秒にまで対応したのがうれしいにょ。
F1.4のレンズを使用していると日中は1/4000でも開放では撮れないことがあるからね。
すでに入門機でもK-rで1/6000秒まで対応している今となっては中級機で1/4000秒まで
というのはやや不満が残っていたにょ。
それとX接点(フラッシュ同調速度)が1/250秒になったのはうれしい仕様にょ。
フォーカルプレーンシャッターはスリット幅を狭くすればいくらでもシャッター速度が
上げられる(ただし、幅を狭くすればするほど高い精度が要求される)けれどフラッシュ
使用時にはスリットが全開である必要があるためシャッター幕の速さが要求され高級
モデルにしかX接点1/250秒は採用されなかったにょ。

X接点が速いと日中シンクロが容易にできるなどフラッシュを使用時の撮影の幅が大きく
広がるにょ。
暗所で「暗いからフラッシュを使う」というのであればX接点1/60秒であっても何ら
問題はないにょ。
フラッシュそのものは数千〜数万分の1秒しか発光しないため被写体ブレやカメラぶれ
(手ぶれ)を防ぐのに十分な効果が発揮できるからね。
ちなみにD50はX接点1/500秒という現在のプロ機を超える仕様となっているにょ。
これはCCD電子シャッターであるから実現可能になっているにょ。
あとはFP発光によってシャッター全速でシンクロ可能にするという方法もあるけどこれは
それに対応したフラッシュが必要になるにょ。(ただし、高速シャッターを使えば使う
ほど実効光量は低下するため注意が必要)

(8)連写速度に関しては数字ではっきり区別できる中級機の入門機に対するアドバンテージ
ではないかと思われるにょ。
入門機は3コマ/秒前後という機種が多く存在するにょ。
中級機はそれらと明確な差別化を行うために5〜7コマ/秒という速度を実現している機種が
大半になっているにょ。
それはここ最近の話であり、少し前は異なっていたにょ。

ニコンの場合を見てみるとプロ機であるD1、D2に加えてハイアマチュア向けとなる
D100が登場したとはいえ、まだまだデジタル一眼は価格的なハードルが高かったにょ。
そこで登場したのがD70にょ。
10万円そこそこで買える廉価なデジタル一眼としてヒット商品になった(レンズキット
としてレンズセットで安く買えるようになったのはD70が初めて)けれどデジタル一眼が
徐々に普及したことでそこから枝分かれが出来たにょ。
D70の下位機種となるD50の登場とD70の上位機種(実質後継機種)であるD80の登場にょ。
事実上の入門機の座はD50が譲り受け、入門機では物足りないけどハイアマチュア向けの
D3桁シリーズ(当時はD200)では予算的な面などで厳しいという人向けのカメラとして
登場したのがD80にょ。

D90はそのD80の後継として登場したのだけど下位である入門機の性能が向上しているため
その上位となるD90は中級機であるためスペックの向上を行ったにょ。
さて、ここで気になるのは入門機と中級機との線引きにょ。
どこまでが入門機でどこからが中級機かというのは明確な線引きはないにょ。
一般的には価格で見る方法もあるけどデジタル製品であるが故に価格は時代によって
大きく変わるためやはり「ペンタプリズムファインダー搭載」「サブ液晶搭載」「2ダイヤル
採用」というのが入門機と中級機の境目ではないかと思われるにょ。

ただし、スペックの向上をさせるとハイアマチュア向け(D90の時代ではD300が相当する)
と差別化も考えなくてはならないにょ。
その両者との板挟みの結果実現されたのがD90では4.5コマ/秒だったということだと
思われるにょ。
しかし、その後登場したD300sによりボディだけで7コマ/秒(グリップ搭載で8コマ/秒)
まで達したためD7000ではD90の4.5コマ/秒を大きく超える6コマ/秒になったにょ。
入門機であるα55では半透過型ミラー採用で10コマ/秒、ペンタックスK-rは入門機で
ありながら普通に6コマ/秒であることを考えるとD7000の6コマ/秒というスペックは
大したことはないけどライバルであるキヤノン60Dが従来機よりも遅くなったとはいえ
5.3コマ/秒ということを考えるとD7000はD90から据え置きで4.5コマ/秒ではさすがに
厳しいということがいえそうにょ。


(下記へ続く)

373御茶目菜子:2010/09/17(金) 13:39:44
iPodはウォークマンのライバルではなかった!?
新型ウォークマンが発表されたにょ。
http://av.watch.impress.co.jp/docs/news/20100915_393610.html
個人的には買うとすれば本体サイズ、記録容量、予算の関係でウォークマンSの16GBモデルが
第1候補となるにょ。
従来のウォークマンSはどうもデザイン(というか色)が気に入ったものがなくこれが
いいと感じたのはソニスタ限定の8GBモデルだったにょ。
今回のモデルはこのライトピンクがなかなかいい感じにょ。
http://av.watch.impress.co.jp/img/avw/docs/393/610/html/sony1_20.jpg.html
買うならば間違いなくこの色にするにょ(笑)

さて、ウォークマンといえば近年iPodに押されっぱなしでDAP(携帯音楽プレイヤー)市場
ではずっと2位に甘んじていたけど先月は久々の国内シェア第1位を獲得したにょ。
理由として考えられるものは8月31日に書いたようなものがあるにょ。

 (1)9月に新型iPodが発売されるため買い控え
 (2)iPhoneが好調であるため
 (3)ウォークマンは高音質かつ安価であるため

これらに関しては「たまたま8月だからシェアが逆転した」ということだけではなくやはり
iPodではなくウォークマン自体に注目が集まっているからだと思われるにょ。
価格comのページビューでもiPod発表時は圧倒的な注目を集めているけど時間が経てば
拮抗しているからね。
http://www.itmedia.co.jp/news/articles/1009/17/news013.html
これから考えてもシェアを逆転したのは(1)が理由でたまたま起きたというわけではない
ということが予想できると思われるにょ。

もちろんアップル社もそんなことは分かっていると思うにょ。
シェアを伸ばすには一般的に2つの方法があるにょ。

 (1)弱点を克服する
 (2)強い部分をさらに強化する

iPodの弱点といえば「アップルのサポート」「修理代が高価」「耐久性が微妙」「使用する
ためにはiTunesが必須」「そのiTunesが元で問題が起こる」などが挙げられるにょ。
それらは徐々に改善に向かいつつあるものも含まれているけど今回の新モデルではやはり
(2)が顕著だったにょ。

最大の強みはiOSとそのOS上で動くアプリにょ。
iPod touchはそれによってワールドワイドで年間1000万台超の売上を記録したにょ。
同一のOSが動作するiPhoneもtouchと同レベルの台数売れているわけだからiOS搭載機と
いうのが莫大な勢いで増えていることが分かるにょ。
それによってアプリ市場も猛烈な勢いで拡大しているにょ。
玉石混淆状態なのは個人制作のアプリが多いためやむを得ないのだけど急速に増えている
アプリに対してアップル社はついにガイドラインを公開したにょ。
http://japanese.engadget.com/2010/09/10/app-store/

今までガイドラインが公開されて無かったということ自体が不思議なくらいだけどこれを
見ると相当厳しいものであることが分かるにょ。

2.9 「ベータ」「デモ」「トライアル」「テスト」バージョンは却下。
2.11 すでにApp Store にあるアプリと(機能が) 同じアプリは却下される可能性がある。

フリーウェア制作者なら経験あることだけどいきなり完成版(ver.1.00)をWebで発表する
ことはあまりないにょ。
多くの場合は少しずつ完成させながらWebでユーザーの意見をフィードバック(および
バグ取り)しながら完成へと近づけていくことだと思われるにょ。
しかし、これはApp Storeではアウトになってしまったにょ。
有料アプリを作っているユーザーは機能を制限した無料版を公開しようと考えても
それもアウトにょ。
それだけでなくすでにあるものと似たようなアプリはアウトになる可能性さえあると
いうことにょ。
これが「App Storeで公開できないだけ」というのならば仕方がないけどiOS搭載機の
場合は基本的に「App Storeで公開できない=そのアプリは一般公開できない」という
ことだからね。
意訳すれば「ゴミのようなアプリ(売上に貢献できないアプリ)はノーサンキュー」と
いうことかもしれないにょ。

もっとも、これは「これだけの制約をしても十分に勝てるほど強い」という強気の現れ
だと思われるにょ。
新型nanoはタッチパネルを搭載しただけではなくこのiOS用アプリが動作するのであれば
iPod touch nanoというべき一部コアユーザーから支持を得そうなものになったはずだけど
実際はtouch(iOS)のUIを真似て作られただけの全くの別物にょ。
それでもUIが似ているというだけでtouchユーザーであればあまり違和感なく使えそう
ともいえるけど従来のnanoユーザー(かつtouchやiPhoneを所持してないユーザー)から
考えるとこれは大きなマイナス要素にょ。
この辺については9月3日に書いたのだけどやはりDAPとして購入するならばブラインド操作
できないということはデメリット以外の何者でもないからね。

しかし、nanoもシャッフル再生専用機として考えるとまた考えが変わってくるにょ。
聴きたい曲を選択するのではなくBGM代わりにシャッフル再生を行うのであればブラインド
操作の重要性はかなり下がるからね。
これはshuffleの役目そのものにょ。
つまり、iPod nanoは名称に「nano」と付いているけど「iPod shuffle deluxe」とでも
言うべき製品になっているということにょ。
これは上記リンク先の価格comのページビューを見ても明らかでshuffleの注目度は低く
それは「nanoがshuffleを食ってしまった」と考えると理由が説明できるにょ。

実際超軽量、クリップ式のスタイルの新型nanoはshuffleと同等の使い方ができるわけ
だからね。
いや、同等ではなく必要ならばタッチパネルによって好きな曲を選択することさえできる
ということはshuffleにない大きなアドバンテージといえるにょ。
価格面でshuffleより高価だけどタッチパネル付き液晶モニタやフラッシュメモリの容量が
多いなどのメリットがあるためshuffleの代わりにnanoを買うという人も大勢現れそうな
予感がするにょ。
液晶モニタが付いているということはこんな使い方もできるしね(笑)
http://japanese.engadget.com/2010/09/10/ipod-nano-ilovehandles/

9月9日に書いたように新型touchのスペック強化はアプリの強化に繋がっており、nanoは
touchがメインになった影響でtouchのサブ機として使いやすいものに変えられてしまった
と考えていたにょ。
しかし、nanoがshuffleの弱点補強のために路線変更をしたというのであればまた変わって
くるにょ。
touchによって高価格DAPでは不動のシェアを獲得したけどその反面廉価DAPでは売れ筋の
ウォークマンSに対抗できる製品が無くなってくるにょ。
nanoがshuffleを含む廉価DAPを食っていくのであればこれはまた異なるものになるにょ。
ただし、現実的にはnanoの価格ではそれは厳しそうにょ。
廉価なshuffleやウォークマンEを購入候補に挙げている人にnanoを買わせるのは価格的に
厳しいからね。

それを考えるとやはり弱点補強というよりも「強みを強化しただけ」という当初の考えの
方が正しいかもしれないにょ。
新型nanoはshuffleユーザーの乗り換え先ではなくtouchユーザーを増やすための布石と
考えた方がいいだろうからね。
そうなるとライバルとして考えられているウォークマンとiPodだけど実はライバルでも
何でもなく「今回の新型では棲み分けが強化されただけ」に思われてしまうにょ。

374御茶目菜子:2010/09/18(土) 14:14:54
なぜiPod touchは売れているのか?
9月3日に書いたようにアップル社はiPod touchにかなり力を入れているにょ。
touchがこんなに売れるということは私は(touchが発売された当初には)想像して
いなかったことだけどこれは私が当初はtouchをただの「高価格な多機能DAP」として
捉えていたからにょ。
その考えはiPhoneの状況を見て徐々に薄れていったにょ。
touchは本体価格はDAPとして考えれば高価だけどiPhoneなどのスマートフォンよりは
安価(ただし、スマートフォンの場合は2年契約、2年分割払いによって端末の見かけ上の
実質価格はそれほど高価というわけではない)、そしてキャリアに左右されないという
メリットがあるにょ。(要するにただのPDAとして使える)

ここ最近touchの売上が伸びているのは下記の2点が大きいと思われるにょ。

(1)アプリの充実
(2)通信環境の改善

(1)においては昨日も書いたようにアップル社は「質の低いアプリ、目新しさがない
アプリは要らない(←意訳)」と言っているくらいだからね。(それくらいすでに十分な
ラインナップがあるということ)
確かにApp Storeに登録のアプリは急増しており「端末が売れる→アプリが増える→
端末が売れる」という好循環をそのまま反映している形となっているにょ。

それによってtouchが売れるというのは良いことだけど従来のtouchにはカメラ等が搭載
されておらずそういったアプリを利用することができないという問題があったにょ。
そのため新型touchではカメラ搭載によって利用できないアプリというものはかなり
減り、アプリ制作者もより多くの人が使えるために特定ハードに対応させないと遠慮
する必要性も減ったにょ。(touchしかもって無くてもカメラ対応アプリが作れるように
なった)
これは様々な機種が存在するAndroid端末では非常に難しいことにょ。
特定ハード(加速度センサーなど)に対応したアプリを作るとそのハードを搭載している
機種でしか動作しなくなるからね。
Android端末は急速に伸びているものの特定ハードに対応したアプリを作ると単一仕様で
1000万台単位で販売されているiOS搭載機よりもそのアプリを利用できる人はかなり
減ってしまうにょ。

(2)touchで通信を行うには無線LAN経由である必要があるにょ。
近年は都心部を中心に無線LANスポットがどんどん増えているものの5月24日に書いた
ように地方と都会では無線LANスポットには大きなギャップがあるにょ。
地方では「利用者が少ない→無線LANスポットが増えない→利用者が増えない」という負の
スパイラルに陥っていると思われるためこれが今後大幅改善されるのは難しそうにょ。

その救世主となるのがモバイルルータにょ。
私も今年の4月にイーモバのPocket WiFiを購入したにょ。
モバイルルータは2年前にはPHS300くらいしかなかったのが現在は国内で入手可能な
製品だけでこれだけの種類があるにょ。
http://k-tai.impress.co.jp/docs/special/sp_cata/20100917_394268.html
これだけあると自分に適したキャリアの製品があるし、SIMフリー端末もあるのでそれを
使えばキャリアも自由に選べるにょ。(とはいえ、SIMフリーといってもソフトバンクが
データ通信が青天井であるため実質ドコモ専用となっている状態だけど)

つまり、touchに対するユーザーの評価の変動はtouchそのもののスペックアップにもある
けどアプリや通信といった本体以外の改善点が非常に大きいということが分かると
思うにょ。
確かにモバイルルータを買えばtouchの通信が非常に便利になってくるのだけど結局
「毎月維持費がかかる」という現実から避けることはできないにょ。
モバイルルータはtouchのみで使うならば割安とはいえず、他の機器と共用して初めて
そのメリットがあるわけだからね。

とはいえ、最近は無線LAN対応(Wi-Fi)機器なんて非常に多く存在するにょ。
むしろtouchユーザーでtouchしか無線LAN対応機器を持ってないという方が非常に珍しい
のではないかと思われるにょ。
PCを持ち歩いている人であればUSB接続の通信端末で十分だろうと考えるだろうし、
私もCF型のPHS通信端末から乗り換える際は一時はUSB接続の端末にしようかとも考えた
けれど他の機器と共用を考えるとモバイルルータの利便性は大きいということで4月29日に
書いたようにPocket WiFiを購入するに至ったにょ。

モバイルルータは確かに様々な無線LAN対応機器で共用できるというメリットがある
ものの5月27日に書いたような駆動時間の問題もあるにょ。
ケータイよりも待ち受け時間が圧倒的に短いためこまめにON、OFFを使い分ける必要が
あるからね。
いざとなればUSB給電もできるためUSB給電に対応した予備バッテリを持ち歩くという
方法もあるけどそれを面倒に感じる人もいるかもしれないにょ。

「touchしか持ち歩かないのに別途モバイルルータを持ち歩くなんて煩わしい」「touch
にはないGPSなどの機能を使いたい」「通信だけではなく通話(IP電話不可)にも使用
したい」となると選択肢はtouchではなくiPhoneになってしまうにょ。
でも、ソフトバンクでは電波が弱くて・・・と思っている人も多くいることだと思うにょ。
単にtouchでは機能面で物足りなくてデータ通信しかしないというのであればiPhoneを
一括購入して解約してモバイルルータを使うという方法もあるけどモバイルルータを
別途持ち歩くのは面倒とか通話用としても(つまりスマートフォンとして)使いたい
というのであれば最終選択肢はSIMフリー版iPhoneとなるにょ。

ただし、SIMフリー版iPhoneは一部の国でしか売られておらず入手するにはかなり大変な
個人輸入を行うか、ごく一部のショップで少数売られている高値の輸入版に頼るしか
方法は無かったにょ。
しかし、この度iPhone用のmicro SIMも販売している日本通信が輸入代行店eXpansysと
提携したためにその入手性はアップしそうにょ。
http://k-tai.impress.co.jp/docs/news/20100917_394601.html
国内版のiPhoneを一括購入するよりもかなり割高になるとはいえ、入手のしやすさは
アップすると思われるため「どうしてもiPhoneを使いたいけどソフトバンクは嫌」と
いう人はこういう方法を活用すると良いと思われるにょ。

ただ、今回の新型touchの機能アップで「すべて1台でまかないたい」という人を除けば
touchで十分と感じることだと思うにょ。
特にすでにモバイルルータを持っている人であれば余分な通信費用がかからないという
ことは非常に大きなメリットとなるにょ。
確かに今からモバイルルータを買ってまでtouchを使うというのは微妙だけど上記の
ように無線LAN対応機器は多数あるためtouch専用と考える必要はないので決して高価
というわけではないにょ。
もっとも無線LANスポットが多数ある都市部在住であればそれを活用することでモバイル
ルータが無くても十分快適な通信を行うことができるけどね。

このようなアプリ&通信の変化が絡み合ってtouchの売上が伸びたと思われるにょ。
それにより、昨日も書いたようにアップル社はtouchを主軸におきnanoをサブになるような
形にしたのだろうからね。

375御茶目菜子:2010/09/19(日) 14:02:08
雑誌は「有料」、Webは「無料」・・・って正しいのか?
雑誌「週刊アスキー」800号(記念号)を買ったにょ。
創刊から21年か・・・。
「週刊アスキー」という誌名になったのは13年前からだけどPC雑誌で週刊化して大丈夫
かと当時は思っていただけにこれだけ長く続くとは予想してなかったにょ。
私は今となっては週刊アスキーは興味深い記事が掲載されている号しか購入してない
けどその前身となった「EYECOM」の頃は毎号買っていたにょ。(週刊化されてから
しばらくしてから毎号買うのをやめた)
EYECOMを買っていた当時は「ベーマガ」「PJ」「Oh!PC」「98Magazine」「Hello!PC」
なども買っていたにょ。
さらに遡ると(EYECOM創刊前)PioやI/Oやプログラムポシェットなども買っていたにょ。
しかし、12年前(1988年)に引っ越したとき95年以前のPC系雑誌はベーマガとPJを除き
ほとんど処分してしまったにょ。

さて、PC雑誌って本当に必要なのか・・・となると今となっては微妙にょ。
ベーマガやPJのような投稿プログラムを掲載している雑誌は昔は貴重な存在だったにょ。
投稿によって小遣い程度(税金込みでPJが1ページ5000円、ベーマガが1回1万円)とは
いえお金がもらえるのはうれしかったし、市販の雑誌に自分が作ったものが掲載
されているということ自体に喜びを感じるというのもあるけど結局のところ不特定
多数の人に向けて公開するのは「雑誌」という媒体を使うしかなかったということが
1つの理由といえるにょ。
PJが96年に休刊したのは単に個人でポケコンを使う人が減っただけ(つまり、雑誌
製作かかるコストがペイできなくなった)だけどベーマガの場合はやはり大きいのは
Webの存在にょ。

個人サイトを作れば自由に作ったものを公開できるからね。
ただし、2000年代初頭はWebサーバ容量の都合もあるし、まだダイヤルアップがメイン
ということもありWebで公開されているアプリも1MB(もしくはそれ以下)を超えるような
のアプリを公開するのは難しかったけどすでにVectorのようにフリーウェアを扱う
サイトがあったのでそこで公開するという方法もあるにょ。(シェアレジ導入でシェア
ウェアも気軽に公開可能になった)

読者投稿型のPC雑誌はWebの普及で厳しくなたけどそれならば情報系のPC雑誌はどうか
といえばさらに厳しいと思われるにょ。
今は情報はWebでリアルタイムで入手可能だからね。
雑誌になった時点ですでに過去の情報となっているためWeb上で情報をチェックして
いる人ならば雑誌の情報はほとんど価値のないものといえるにょ。
いくらそれが週刊誌になったところで大きく変わるものではないにょ。
それでも週刊アスキーが休刊せずに今に至っているということはPC系のニュースサイトを
じっくり読んでいるようなコア層ではなくライト層をターゲットにしているからだと推測
されるにょ。

とはいえ、雑誌を買う場合はお金がかかるのに対してWebの情報は基本的には無料と
いうことで雑誌がWebに勝つ(書店で買ってもらう)ことは容易ではないにょ。
雑誌として生き残る方法には下記のようなものがあるにょ。

(1)Webでは読めないディープな内容
(2)紙媒体であることを生かした内容
(3)付録で売る

(1)Webではハイパーリンクがあることによって1つ1つの記事は単純なものになりがちと
なっているにょ。
これはWebのメリットではあるけど逆に言えばWebで長文は読む人のが大変という配慮にも
なっているにょ。
とはいえ、ここは内容の割には無駄に長文になっているわけだけど(笑)

やはり、それにはPC画面上で長文を読むのが大変と感じている人が多いというのも
1つの理由になっているにょ。
それは日本語が普段は縦書きだけどWeb上では横書きになっているというのもあるし
PCの画面では一覧性に乏しいというのもあるにょ。
新聞、書籍を読み慣れている人であれば横書きの長文は確かに読みづらいというのは
否めないにょ。
それにPC画面ではIEの文字サイズ「中」であればせいぜい横40〜60文字程度(フルHDに
特化したようなWebサイトはほぼないため)、縦はPCの解像度やWebブラウザにもよるけど
WXGAならば25〜30文字程度にょ。
つまり、Webサイトの文字はぎちぎちに詰まった状態で1画面で1000文字少々しかない
ということにょ。
これは新聞や雑誌の1ページに収まる文字数と比べると圧倒的に少ないにょ。

では、Webメインになってから読む文章量は減ってしまったのか・・・?
「活字離れ」という言葉が聞かされるようになって久しいけどWeb全盛の今は昔(Webが
普及する前)と比べて文字(あえて「文章」とは言わない)に接する機会が増えている
と私は感じているにょ。
Webサイトだけではなく多数のメールもあるわけだしね。
1つ1つの量は少なくてもトータルでは決して少なくはないということにょ。
「活字離れ」というのはあくまで印刷物(新聞や本)に限定しているためその言葉
自体は誤りではないにょ。
8月21日に書いたように書籍売り上げはどんどん落ちているわけだしね。

(2)紙媒体ならではとなるとやはりWebで読むには抵抗のある文字数のもの・・・となる
けどそれだと(1)と被ってしまうため別のニュアンスでいくにょ。
ジャンルが変わり、PC雑誌ではなくアニメ雑誌においても雑誌の生き残りは熾烈なもの
となっているけどアニメ雑誌の場合は最新情報という観点だけではなくグラビア的な
ものも重要になってくるにょ。
最新アニメの情報だけが欲しければWebサイトで十分だけどアニメ雑誌に求めているものは
それだけではないからね。

それを顕著に表しているのが「メガミマガジン」や「娘タイプ」などのグラビア系の
アニメ雑誌にょ。
その雑誌のために書き下ろしたキャラのピンナップを全面に打ち出した雑誌はそのため
だけに購入する人が多くいるからね。
となると(1)は文字メイン、(2)は絵がメインと考えることができるにょ。

(3)やはり最近増えたのがこれにょ。
雑誌の付録というと古くからポピュラーなものであり、学研の「科学」と「学習」を
はじめ現在でも子供向け雑誌では多く取り入れられているにょ。
雑誌付録に関しては「素材についての規制」「コストについての規制」があったけど
それらが緩和されたため従来では考えられなかったものも多く導入されているにょ。
付録で成功した例は電撃G'sマガジンの2010年8月号だけど付録目的でその号を買った人が
非常に多かったけどそれでユーザー自体が増えたわけではないためその後の号は以前と
変わらないような状況となっているにょ(8月号は発売日にほぼ完売したけどそれ以降は
以前と同じく翌号が出る時期まで在庫が残っている)

以上のようにWebと雑誌の棲み分けができるというのが私の考えだけど発行部数が減った
場合はそうは言っていられないにょ。
実際、雑誌は広告費があるからあの価格で販売できるわけだけど発行部数が減った場合は
広告代も下げざるを得ないし、広告そのものが減ってしまうと雑誌の維持に必要な広告費
さえも減ってしまうために雑誌の維持が難しくなるにょ。

そもそも雑誌は書店に足を運んでお金を出して購入する必要があるのにWebならば
基本的に無料というのが厳しい理由となっているにょ。
上記の方法によって棲み分けができるといっても情報をウリとしている雑誌はそれに
よって危機的な状況にあるにょ。
ではなぜ雑誌は有料でWebは無料なのか・・・?
それは媒体による違いが大きいにょ。
印刷というのはコストがかかるし、流通コストもバカにはならないからね。

しかし、雑誌とWebで記載情報にそれほど差異がないならばユーザーはそのようなコスト
問題は考慮してくれないにょ。
ただ、Webの情報も個人が趣味でやっているようなサイトを除きコストがかかってない
なんてことはないにょ。
実際は多くのコストがかかっているけどそれは広告費で何とか運営できているという
だけの話にょ。

ただ、広告費でまかなうためには多くのPV(ページビュー)が必要になるにょ。
そのためPVを稼ぐため記事は長文ではなく細かく分けてかけられるにょ。
したがって、Web上の記事の1ページ当たりの情報量が少ないというのはユーザーへの
配慮もあるけどそのような理由もあるということにょ。
9月13日に書いたようにiswebの無料ホームページサービスが終了するのは個人サイト
ではPVが少ないものが大半であるために広告費だけでは維持できないためにょ。

完全無料化(広告費のみで運営)が難しければ最終的にとる手段は有料化しかないにょ。
ニューヨークタイムズのオンライン記事も2011年から有料化になると今年の1月に発表
されたにょ。
http://japan.cnet.com/news/media/story/0,2000056023,20407060,00.htm
雑誌ではコストが大きいからWebならば・・・ということでWebに力を入れる企業も
少なくないけど今はWeb上でも競争が激化しているため広告費ですべてをまかなうという
ことは難しくなってきているためニューヨークタイムズだけに限ったことではなく
今後は多くのWebサイトで導入される可能性があるにょ。
「Webの情報は無料」という認識が当たり前の時代に終わりが来る日はそれほど遠くない
かもしれないにょ。

376御茶目菜子:2010/09/20(月) 13:41:17
iPhoneはゲーム用として最適なのか・・・?
9月16日〜19日に開催された「東京ゲームショウ2010」は来場者が20万人を超えて過去最高
となったにょ。
http://game.watch.impress.co.jp/docs/news/20100920_395254.html
コンシューマゲームは5、6年ごとに世代交代するため本来であれば世代交代の時期を迎えて
いるような時期になっていると思われるにょ。
しかし、実際に次世代機を発表しているのは任天堂の携帯ゲーム機「ニンテンドー3DS」
だけに止まっているにょ。(任天堂は東京ゲームショウには出展しないため3DSの詳細は
9月29日開催の「任天堂カンファレンス2010」で発表されると思われる)

これは開発コストの増大でプラットフォームの寿命が延びた(伸ばさざるを得ない)と
いうのもあるし、それを見越してSCEは「PS Move」、MSは「Kinect」のような新しい
インターフェイスを導入しようとしているわけだからね。(世代交代が間近なゲーム機
ならば多くの開発費や宣伝費をかけてそんなことはできない)
一時期流行った言い方をすれば「プレステ3 ver.2.0」「Xbox 360 ver.2.0」になったと
いうことになるにょ。
そういうことで今はコンシューマゲーム機にとっては世代交代前の衰退期ではなく成熟期
であると言えそうにょ。

ゲーム市場全体で言えば衰退どころか拡大傾向さえあるけどそれを支えているのが
ソーシャルゲーム市場とスマートフォン用アプリ市場にょ。
特にソーシャルゲームは前年比7.5倍ということで非常に大きな伸びを見せているけど
ここではスマートフォン用アプリについて書いてみるにょ。
スマートフォン用アプリだとiPhone(iOS搭載機)がやはり最も優れているのではないか
と思うにょ。
TGS2010でもiPhone用アプリとして単独ステージが設けられているくらいだしね。
http://game.watch.impress.co.jp/docs/news/20100919_395238.html
国内大手ゲームベンダーもiPhone用アプリに力を入れているというのが分かるにょ。

さて、iPhone(iOS搭載機)がAndroidをはじめとする他のスマートフォンよりも優れて
いるかというと下記の2つの点が大きいと思われるにょ。

 (1)プラットフォームの安定性
 (2)App Storeによる流通

(1)確かにスマートフォンにおいてAndroid OS搭載機は最近非常に増えておりアナリストも
2012年にはシェアがiPhoneを超えると予測されているけど問題はシェアが大きくてもパイが
大きいといとは限らないということにょ。
それはPCで考えてみると分かりやすいにょ。
2009年のPC出荷台数は国内だけでも約1300万台、世界では約3億台となっているにょ。
それならPC向けのゲームを作れば国内1300万台、世界3億台がパイの大きさ(というか
前年までに出荷されている数を合わせるとその数倍)となるかといえばそうではないと
いうことが分かるにょ。
すべてのPCがゲーム用として使われるわけではないというのもあるけどそれ以前の問題
としてその中で FF14が快適に動作するPCが一体どれだけあるかということを考えた場合
「ゲームプラットフォームとしてのPC」のパイの大きさはそれほど大きくはないという
ことが分かると思うにょ。

そのような観点からAndroid OS搭載機を見てみると確かに多くの機種が発売されており
トータルの台数でiPhoneを抜くとしても機種毎の仕様の違いが大きいという問題がある
ためゲーム用プラットフォームと考えた場合には成功しにくいにょ。
一定以上のスペックを求めるとPC向けのFF14のように動作可能機種が減るためにいくら
そのOSを搭載した機種が多く出荷されていてもパイはそれほど大きくはないにょ。
それならば低スペックに合わせるという方法もあるにょ。
それはPCでいえばネットブック専用ゲーム(ネットブックに最適化されたゲーム)を
作るというのと同じようなものにょ。
ネットブックの場合は仕様がほぼ統一されているので動作確認の心配は要らないという点に
おいては3月16日にも書いたように「ネットブック専用」とすることで売りやすくなるけど
それでビジネスとして成功するかというと別問題にょ。
それなのにその仕様さえ異なる低スペックAndroid OS搭載機ではネットブック専用ゲーム
よりもさらに成功は難しいにょ。

それに低スペック端末用ゲームではハイスペックな端末においてはせっかくのスペックを
活かすことが出来ないばかりかそれに搭載のハードウェア(各種センサーなど)の機能も
活かすことが出来ないという問題があるし、さらに言うと動作確認も非常に大変になって
くるにょ。
PCであれば無数に存在するため「動作スペックを満たしているすべての機種で動作確認」
ということは不可能だけどスマートフォン用アプリで数種類の機種で動作確認を済ませる
だけというのもさすがに問題となるにょ。

そのためパイを広げようとする(より多くの機種で動作するようなアプリを作ろうとする)
ならば動作確認の手間(コスト)だけでも非常に大きなものとなってしまうわけにょ。
ケータイアプリにおいてもiアプリは基本的に世代ごとで大きな仕様変更はあるというのは
分かると思うけど端末毎にも仕様の違いが大きく同じ世代の機種でありながら同じアプリで
動作する機種としない機種が存在するにょ。
それは国内の限られたベンダーしか出荷してないから「動作の可否」というのは簡単に
分かることだけどワールドワイドで多数存在するAndroid端末でそれはベンダー側で把握
するというのは上記のように非常に難しいものとなっているにょ。

もっともOSのバージョン、CPU、GPUの種類、メモリ搭載量の違いで粗方動作するかどうかは
分かるため必ずしもすべての機種で動作確認をする必要性はないのだけどPCのように単純に
スペックで動作の可否を購入前にユーザーに知らせるという方法はスマートフォンでは
難しいにょ。
PCとは異なりそのスマートフォンに搭載されているCPU、GPU、メモリなどは知る方法は
ないし、知ったところでPCのように拡張する方法もないからね。(PCでも普通にできる
拡張はメモリ程度であり、GPUははデスクトップPCでのみ可能)
これがフリーウェアならばあきらめがつくけど有料アプリで買ったけどまともに動作
しないというのではさすがにユーザーも納得がいかないためAndroid搭載機はゲーム
ベンダー視点からゲーム用プラットフォームとしてみると魅力を感じないのではないか
と思われるにょ。

それではiPhoneはどうかというとiPhoneは同じ世代であれば仕様は1つしか存在しない
からね。(フラッシュメモリ搭載量の違いがアプリの動作に与える影響は皆無であるため
ここでは同一機種と見なす)
そんな同一機種が年間1000万台単位で出荷されているにょ。
これは他のスマートフォンでは考えられないレベルにょ。
それだけ売れていてもiPhone 4専用だとパイが小さいと考え、3G、3GSでも動作する
アプリを作ろうとしても動作確認は3機種で行えば済むにょ。
これは8月9日に書いたようにiPhoneは垂直統合の強みといえるにょ。
これによって動作の心配をすることなくハードウェアの機能をすべて使ったアプリを
ベンダーは提供できるようになるにょ。

標準搭載の機能をフルに使えるというのは非常に大きなメリットとなるにょ。
iPod touchでも従来はカメラを搭載していなかったためにカメラを使うことを前提にした
アプリは動作しなかったけど新型touchではカメラを搭載したためによりパイの大きさが
広がったといえるにょ。
しかし、Android OS搭載機では仕様だけではなく搭載している機能も端末ごとに異なる
ものとなっているにょ。
これのためAndroid OS搭載機で行うならば例えばXperiaの性能・機能をフルに発揮させれば
事実上のXperia専用ソフトになってしまうにょ。(でないと、そのセンサーが有っても
無くても動作するようなゲームを作る必要がある)
したがって、いくらトータルでAndroid OS搭載機が増えてもゲームプラットフォームの
安定度としてはiPhone(iOS搭載機)の方が勝るといってもいいと思われるにょ。

(2)問題となるのはアプリの流通方法と課金方法にょ。
Android OSの場合はAndroid Marketで主に流通しているにょ。
iPhoneの場合はアップル社の認証アプリしか基本的にインストールできないためすべての
アプリがApp Storeで提供されているけどAndroid OSではそのような縛りはないため
Android Marketではすべてのアプリが公開されているとはいえないにょ。
それにAndroid Marketそのものが使い勝手が良いものではないために国内のキャリアも
独自のAndroid用アプリの販売方法をとっているにょ。

これには課金方法も大きく絡んでくるにょ。
iPhone用アプリにしろAndroid用アプリにしろ販売金額の3割が販売委託料として胴元に
支払われる(アプリ制作側には販売価格の7割が手に入る)という感じになっているの
だけどユーザーからどのようにしてそれを支払ってもらうかが重要になるからね。
ケータイ用アプリ(コンテンツ)が国内において大きな発展を遂げたのは日本において
ケータイはキャリア主導であるということが大きいにょ。
これは「ガラパゴスケータイ」などと言われて批判する人もいるけどこういう方面から
考えると発展に大きく貢献しているにょ。

キャリアがコンテンツプロバイダ(アプリベンダー)から代行してユーザーに対して代金を
請求し、その代金はキャリアに支払われる基本料金とまとめて支払うことができるため
支払いのためのハードルは極めて低いものとなっているにょ。
スマートフォンにおいてもそれと同じようなことをやろうとしているにょ。
自由度が極めて高いのがガラケーとは異なるスマートフォンの利点なのだけど「自由
すぎる」というのは市場形成において必ずしも良いこととはいえないというわけにょ。
特にガラケーからスマートフォンへと移行した人であればそれはより大きく感じると
思われるにょ。

アップル社がキャリアから独立して課金システムで成功しているのはiTunes Storeからの
実績があるからにょ。
支払い方法もAndroid Marketのようにクレジットカードオンリーではなくプリペイド
カードによっても可能ということで支払いのハードルも低いからね。

この課金問題もあるせいかAndroid用アプリにおいて無料アプリが占める割合は60%と
なっているにょ。
それに対してiPhone用アプリは無料アプリは20%となっているにょ。
http://jp.techcrunch.com/archives/20100303mobclix-compares-android-and-apple-android-devs-more-likely-to-give-their-work-away/
無料アプリが多いならそれはユーザーにとっては良いことだけどゲームベンダーにとって
良いこととはいえないにょ。

それは「無料が当たり前」という認識が大きいからにょ。
昨日書いたように「ネット上の情報は無料」というのが大多数の考えだろうけどそれが
ある故にネット上の情報の有料化はしたくでもなかなかできないというのが企業側の考え
ではないかと思われるにょ。
有料化しても十分に収入が望めるようなコンテンツであれば有料化に踏み切るだろうけど
閲覧者減少による広告収入の減少を考えると有料化は必ずしも良いということではない
ということにょ。
これは9月13日にも書いた「フリーの法則」で記されているように5%程度の人が有料
サービスを利用してそれで賄えるようなシステムを作る必要があるからにょ。

要するにお金を払うに値するアプリを作れば良いだけの話とはいえ、ユーザーの認識を
変えるのは容易ではないし課金方法や流通方法を考えるとiPhone用アプリではなくAndroid
用アプリを選択するメリットは何もないにょ。
App Storeにさえ登録しておけば課金問題もないし、そこ1カ所ですべての流通を抑える
ことができるから手間だけではなくコスト削減にも繋がるにょ。(ダウンロード販売では
なくリアルの商品で考えるとメーカーと販売店とで個別の契約を結び独自に流通経路を
増やしていくというのはいかに手間とコストがかかるかが分かると思う)
iPhone用アプリにおけるApp Storeからしか供給されないという縛りはゲームベンダー側
からすると逆にメリットになるというわけにょ。


国内においてはすでにケータイアプリでダウンロード販売によるアプリは一定の支持を
獲得しているにょ。
しかし、それは上記のように国内ではキャリア主導であるため課金システムが確立して
いたというのが最大の理由となっているにょ。
ただし、近年スマートフォンの普及によってそのケータイアプリ市場というものが微妙に
なってきたにょ。
キャリア側からすると今までケータイアプリの支払い代行で得ていた収入が無くなると
いうのも大きいし、ゲームベンダー側からすると今度は市場全体が縮小傾向にあると
いうことで積極的にアプリ提供するのが難しくなってきているにょ。
性能アップにしたがい開発費も増大しているしね。
そのためガラケーではその性能を活かしたアプリというのは皆無になってきているにょ。

それならばスマートフォン用アプリを作れば良いにょ。
ガラケー用とは異なり、スマートフォン用アプリであればワールドワイドの展開が可能で
あるため開発費が増大してもその投資分を回収できる可能性は大きくなるからね。
実用アプリとは異なりゲームであれば言葉の壁を越えることは難しいことではないにょ。
現状でゲーム用プラットフォームとして優れているのはAndroidとiPhoneだけど上記の
ようにiPhoneの方が優れている面が多いためゲームベンダーはiPhone用アプリに力を
入れているのだと思われるにょ。

377マリモーマ:2010/09/20(月) 14:36:06
iPhone/iPadを 持ってないけど調べてみた
iPhone/iPadアプリを作るには macが必要みたい
もちろん iPhone/iPadも必要だけど 公開にも金がかかるらしい

http://www.atmarkit.co.jp/fwcr/design/tool/iphonesdk01/01.html
http://www.atmarkit.co.jp/fwcr/design/tool/iphonesdk02/01.html
http://www.atmarkit.co.jp/fwcr/design/tool/iphonesdk03/01.html
http://journal.mycom.co.jp/column/iphone/001/index.html
http://iphone.longearth.net/2008/12/25/iphone%E3%82%A2%E3%83%97%E3%83%AA%E9%96%8B%E7%99%BA%E3%81%AB%E5%BF%85%E8%A6%81%E3%81%AA%E3%82%82%E3%81%AE/

アプリ
http://d.hatena.ne.jp/moto_maka/20081118/1226953067

http://liv0.com

378御茶目菜子:2010/09/21(火) 14:14:45
K-5 vs D7000 最強中級機はどっち?
ペンタックスから中級機となるデジタル一眼「K-5」が発表されたにょ。
http://dc.watch.impress.co.jp/docs/news/20100921_395252.html
先日ニコンから発表されたD7000と同じランクに相当する製品にょ。(発売当初の予想実売
価格も同じく約14万円だしね)
キヤノンEOS 60Dは同じ中級機(っぽい)デジタル一眼だけどそれらとは若干ユーザー層が
異なるカメラにょ。(価格やスペックから分類すると中級機だけどメーカー側は入門機の
上位機種として掲げている)
60DはD7000と比べると確かにスペックで劣る面があるけど「1万円程度安い」というのは
メリットにょ。

一眼レフの場合はレンズが資産になってくるため「このカメラはいい」といっても簡単に
買えるのは最初の1台のみにょ。
予算が非常に多く複数のマウント用のレンズを購入できるのであればカメラ本体だけを
見て選択してもいいけど使い続けてレンズが増えてくるとそのレンズ活かすかカメラを
変えてレンズも新しく購入するかの二択を迫られてくるにょ。(新しいカメラを買っても
自分が良く使うレンズが無ければ結局使う機会が限られてくるためカメラ本体だけでは
なくレンズの予算も考慮しないといけない)

私の場合は現在ニコンD50、ペンタックスK200Dを使っている関係上これらのメーカーで
あれば問題ないにょ。
逆にキヤノンの場合はレンズをすべて買い直す必要があるにょ。(とはいっても、私は
安物レンズしか買ってないので買い直すのは難しくないけどそれでもコスト的に小さい
ものではない)
私はキヤノンの一眼レフではMF時代のFDレンズなら持っているけどAFの(銀塩時代の)
EOSからマウント変更となったために「キヤノンに縛られる必要がない」ということで
デジタルではキヤノン以外を使ってみたくなったにょ。(同スペックではキヤノンの
本体の方が高価だったのも理由だけど)

この度発表されたK-5がいいか、D7000がいいかというのはペンタックス&ニコンの両方を
使っているユーザーならば強く感じているだろうけどではどの程度の違いがあるかを
まとめてみたにょ。

            K-5               D7000
(1)画素数       1628万画素           1620万画素
(2)最高感度      通常ISO12800(拡張51200)    通常ISO6400(拡張25600)
(3)手ぶれ補正     ボディ内蔵(センサーシフト)  レンズシフト
(4)動画撮影      フルHD 25fps(Motion JPEG)   フルHD 24fps(H.264)
(5)防塵防滴      有り              有り
(6)ファインダー視野率 約100%             約100%
(7)AF測距離点     11(9点クロス)         39(9点クロス)
(8)シャッター速度   最高1/8000(X接点 1/180)    最高1/8000(X接点 1/250)
(9)連写速度      7コマ/秒            6コマ/秒
(10)記録メディア    SD/SDHC(※SDXC)        SD/SDHC/SDXC/ダブルスロット
(11)重量        660g              690g

では、それぞれについて書いてみるにょ。

(1)画素数は少し前までならば「APS-Cは1200万画素がベスト」と私自身も思っていたにょ。
ニコンもそう考えていたのか頑なに1200万画素を死守してきたからね。
というか、APS-Cの2倍のセンサーサイズであるフルサイズセンサーにおいても1200万画素
というのはさすがに高感度画質を重視しすぎという面もあったけど・・・。
1200万画素というのは300dpiならばB4サイズ、250dpiならA3サイズでプリントできるため
個人が使うのであれば十分な画素数を持っているにょ。
あと画素ピッチが5.5μmであるため単純に回折限界を計算した場合にF11まで使えると
いうのも大きいにょ。

とはいえ、コンデジのように1μメートル台の極小ピッチセンサーとは異なりセンサー
性能の向上によって高画素化の余地は大きくなったにょ。
そのため需要がある高画素化が進むのは当然の成り行きであり、自前でセンサーを作って
いないメーカーの場合はその需要の流れに乗っかるのは仕方がないにょ。
自前でセンサーを作れるキヤノンやソニーが高画素化の道を歩んでいるわけだしね。
K-5もD7000も恐らくソニー製センサーだからセンサー自体の基本性能は同等だと思うにょ。

(2)最高感度だけでは善し悪しは判断できないけど個人的にはISO3200でそこそこ使える
レベルであれば全く不満はないにょ。
ニコンのフルサイズセンサー搭載のプロ機「D3s」が最大感度ISO102400というのが話題に
なったけどむしろISO6400でもそこそこ使える画質というのが私にとって魅力だったにょ。
D3sが登場して1年間のセンサー性能の向上を考えればフルサイズの半分弱のサイズで
ISO3200がそこそこ使えるレベルになるというのは別に高いハードルでも何でもないにょ。

拡張設定による最大感度はあくまで飾りにょ。
D3sのISO102400でもコンデジで撮影したISO3200の写真のようにそれ単体ではとても
実用になる画質ではないにょ。
しかし、ISO102400だからこそ撮れる被写体があるのも事実にょ。
月明かりがあれば明るい単焦点レンズを使えばノンフラッシュでの手持ち撮影も可能に
なるレベルだからね。
これはISO3200とは別次元にょ。(最大感度ISO100の時代にISO3200で撮影できるのと
同じわけだからね)

ペンタックスはサムスン製のセンサーを搭載していた時代は「高感度に弱い」という
イメージだったけどK-xでソニー製センサーを採用し瞬く間に業界トップレベルになった
ため今回のK-5もかなりの期待が持てそうにょ。
というわけで、K-5とD7000で優劣を付けるならばセンサー自体の性能は互角でもK-5の
方が上かもしれないにょ。(これはあくまで現時点の予想だけど)

(3)手ぶれ補正機能は今となっては当たり前の機能だけどメーカーや機種によって手ぶれ
補正機能がボディ内にあるのきあレンズ内にあるのか異なるにょ。
ペンタックスは基本的にボディ内、ニコンはレンズ内にあるにょ。
どちらが有利かは用途次第だけどどのようなレンズを買っても手ぶれ補正が効くボディ
内蔵タイプ(センサーシフト方式)の方が私は便利に感じるにょ。
確かに望遠レンズの場合は手ぶれ補正がレンズ内にあった方がファインダーが安定する
ためにレンズシフト方式の方が望ましいのだけどセンサーシフト方式の機種であっても
レンズシフト方式のレンズは使用できるにょ。
つまり、手ぶれ補正の選択の余地があるわけにょ。

(4)デジタル一眼においてついてて当たり前の時代になりつつ動画撮影機能だけど今と
なってはAF対応、フルHD撮影可能というのも標準化しつつあるにょ。
スペック的には両者互角・・・といいたいけど根本的な違いは使用コーデックにょ。
編集を考えるとMotion JPEGの方が対応ソフトが多いし、PCに要求されるスペックも低く
なるといいことだらけとはいえ、さすがにフルHDでMotion JPEGはSDカードの記録速度や
FAT32の制限(1ファイル最大4GB)を考えると望ましいものではないにょ。
将来的には高速、大容量なSDXCカードが安価で手に入るだろうから問題ないけど現時点では
フルHD撮影を行うならばD7000などに使われているH.264の方が良いのではないかと思うにょ。

(5)防塵防滴に関しては有無だけではなくどれだけのものかというのとレンズの対応面の
問題も重視する必要があるにょ。
中級機であれば防塵防滴はあって当たり前ともいっていい機能だけどその機能はプロ機に
ついているものと比べて大きく劣るにょ。
とはいえ、防水機能のようにJIS何等級という基準はなく自社基準でしかないにょ。
あくまで「防水」ではなく「防滴」であるため水没した場合には十分な効果は得られない
わけだからね。

ペンタックスの場合はK-7で小型軽量ながらK20Dで培われた高い防塵防滴機能を搭載して
いたにょ。(入門機でさえ、K200Dで防塵防滴を取り入れていたくらいだし)
そしてやはり大きいのは簡易防滴機能を搭載したWRレンズを標準化したことにょ。
D7000発表時にも書いたことだけど防塵防滴というのはボディのみに搭載していてもあまり
意味があるものではなくレンズとセットになって初めて効果を発揮するにょ。
レンズのみ雨濡れ対策をしてボディは雨ざらしということは普通はないため結局ボディが
防塵防滴対応だったとしてもレンズとセットで雨濡れ対策をせざるを得ないからね。
そういった環境下でも撮影しなくてはならないプロカメラマンのためにプロ向けとも
言える高価なレンズは各社とも防塵防滴対応しているにょ。
しかし、安価なレンズ、特にレンズキットとしてセットで販売されているレンズは
普通は防塵防滴には対応していないにょ。
そんな中、ペンタックスは対応しているためボディの防塵防滴が活きてくるにょ。

(6)ファインダー視野率に関しては視野100%はフラッグシップ機、プロ機の特権だった
けれど最近は増えつつあるにょ。
この度の両機種も視野率約100%だけど(EOS7Dのように)大きな誤差がある場合もない
わけではないため本当に100%かどうかは発売されてみないと分からないにょ。
ということでこれは互角と見なすにょ。

(7)測距ポイント数だけで見るとD7000の圧勝だけど実際に使ってみると11点でもそれほど
不満を感じることはないにょ。
実際私自身K200Dの11点測距で困ったことはないからね。
これがD50の5点測距になるとフレーミングの自由度は大幅に下がるためさすがに十分とは
いえなくなるにょ。

ここではポイント数だけではなくAF速度も加味しようと思うにょ。
とはいえ、現時点では情報に乏しくどちらが優れているという判断は付きにくいにょ。
確かにK-5はメーカーの謳い文句であればK-7と比べて大幅改善されたみたいだけどK-7の
時点でキヤノンやニコンと大きな遅れをとっていたためそれが詰め寄ることができたか
どうかというレベルではないかと思われるにょ。

しかし、「ペンタックスはAFが遅い」というのはペンタックスがボディ内モーターに
よってレンズのAF動作をしているというのも原因となっているにょ。
やはり、レンズに合わせて最適設計ができるモーター内蔵レンズの方が速度面において
有利なのは確実だからね。(とはいえ、レンズ内にモーターを内蔵していれば速いという
わけではなくあくまで一般論としての話だけど)
私が使っているD50はK200Dと比べて3年も古い機種でありながらAF速度では圧倒的に
K200Dより速いのは私がD50で普段使っているAF-S18-135mmが超音波モーター内蔵という
のが非常に大きいと思うにょ。

ペンタックスは手ぶれ補正にしろAF駆動にしろボディ内に拘っていたためレンズ内に内蔵
されているものはほとんどないにょ。
しかし、この度、K-5では本体セット用レンズとしてAF駆動用モーター内蔵のものが発表
されたにょ。
http://dc.watch.impress.co.jp/docs/news/20100921_394640.html
このDA18-135mmはフルサイズ換算だと28-200mmに相当する非常に使い勝手のよいレンズ
といえるにょ。
私自身普段D50で同じ焦点距離のズームレンズを使用しているけど普段撮影している
被写体の9割以上がそのレンズ1本でカバーできるからね。
135mm(換算約200mm)で足りないという場合は滅多になくその場合は換算400mm以上が
欲しくなるため結果的には1本でカバーするのが難しくなるにょ。18-270mmならば換算
400mmまでカバーできるけどレンズそのものが大きくなるし画質にも難があるにょ。

とはいえ、ペンタックスにおいてモーター内蔵のレンズのレンズは選択肢に乏しいのは
事実であり、やはりAF速度面においてはD7000には及ばないと考られそうにょ。

(8)シャッター速度は中級機では最近は最高1/8000秒が当たり前となってきているけど
その点においては両者とも互角にょ。
しかし、フラッシュ同調速度においてはやはり1/180と1/250では1/2段差がありこれは
明確な差といっても良いのではないかと思われるにょ。

(9)連写速度に関しては入門機のスペックが底上げされたせいか中級機も最近は大幅に
スペック向上しているにょ。(唯一前機種よりダウンしたのがEOS 60Dくらい)
連写速度が速ければ良いというわけではないけどフィルム1本で24〜36枚しか撮影できない
銀塩一眼とは異なりデジタル一眼では枚数をあまり気にすることなく撮影できるため速いに
越したことはないにょ。
問題はそこまでの実際の撮影においてそこまでの速度が出せるかどうかということと
バッファメモリの関係で連続撮影可能な枚数が決まってしまうということにょ。
従来であればペンタックスはAF-Cでもピント優先であったため5.2コマ/秒のK-7も実際は
1〜2コマ/秒でしか撮影できなかったけどK-r、K-5ではレリーズ優先が選択できるように
なったため(ピントが合っているかどうかは別として)連写性能は大幅に向上していると
思われるにょ。

(10)K-5は今の時期に登場しながら標準でSDXCに対応していないというのが難点にょ。
ファームアップでSDXCに対応予定とはいえ、高速転送のUHS-Iに対応しているかが問題にょ。
D7000ではUHD-Iに対応しているためSDXCカードではフルスピードで転送可能だし、SDHCも
高速転送のUHS-Iに対応しているものであればSDXCと同様に高速転送が可能になるにょ。
高速転送が可能になるということはバッファフル状態から開放されるまでの時間が少なく
なるだけではなバッファがフルになるまでの枚数も増える可能性が高いにょ。
その上、D7000はダブルスロット搭載で例えばRAW+JPEGではそれぞれ別メディアに書き込む
ということも可能だろうから書き込み待ちの時間はかなり緩和されていると予想され
これに関してはD7000の圧勝となるにょ。

(11)重量は両者の差は30g・・・ということでこれは体感できる差ではないため互角と
するにょ。


さて、全11項目において現時点で分かっている情報を元にK-5とD7000とで主観的な観点で
優劣を付けてみたけどその結果K-5の成績は(1)から順に△、○、○、×、○、△、×、×、
○、×、△(○:勝ち、×:負け、△:引き分け)、4勝4敗3引き分けでこの勝負は
引き分けに終わったにょ。
D7000はD90と比べて大幅なスペックアップがあり、このクラスでは最高と思われたけど
K-7は元々スペックだけは高かったためD7000ほどのインパクトはないけど十分にハイ
スペックということが分かると思うにょ。
もっともこれは私の個人的判断を元にしているため人によって大きく評価が分かれる
部分があるだろうし、D7000が圧勝している項目があるけどK-7がそこまで圧勝している
部分というのがない(強いて挙げるならば手ぶれ補正くらい)ために勝敗制ではなく
ポイント制にすればD7000が勝っていたかもしれないにょ。

個人的にはK-5、D7000のどっちを勝っても後悔することはないとは思うけどやはり
カメラである以上はどのような写真が撮れるかということが重要であり、それに対して
考慮する必要があるにょ。
個人的にはペンタックスの絵作りは好きだし、ファインシャープネスがなかなかすごい
ためK-5は魅力に感じるにょ。
ファインシャープネスは普通のシャープネスと比べ輪郭線が不自然に強調されずそれで
いてシャープになっているにょ。(ちょっと違うけど超解像に近い感じ)
K-7ではそれを改良したファインシャープネス2が搭載され、K-5ではそれをさらに改良
したエクストラシャープネスがどんなものかが楽しみではあるにょ。

しかし、ペンタックスを使ってみてAFの遅さとレンズの入手性の悪さも実感できたにょ。
K-5でそれが大幅に改善されていたとしても(7)で書いたようにまだまだキヤノンやニコンと
比べて大きな差がありそうな気がするにょ。
レンズも地方だと店頭にほとんど並んでないため取り寄せが基本となるにょ。(当然ながら
取り寄せの場合は安価で入手するのが難しい)
中古やジャンクでオールドレンズを買うというのも1つの方法(ペンタックスの場合は
MF時代のレンズであっても制限なく使用可能)だけどそれはあくまで趣味的なものであり
そのカメラの性能を活かすことはできないにょ。
そういうペンタックスの弱点を考えるとD7000と心が動いてしまうにょ。

あとは実売価格次第にょ。
両者ともにスタート時の予価は14万円(量販店で12万円台)とされるので私が買うであろう
1〜2年後の価格が購入する際の大きな分かれ目になるかもしれないにょ。



マリモーマさんへ
>iPhone/iPadアプリを作るには macが必要みたい
>もちろん iPhone/iPadも必要だけど 公開にも金がかかるらしい

登録料がかかるのは仕方がないとはいえ、やっぱり作るのにMacが必要という段階で
個人的にはかなり辛いにょ。
わざわざアプリ制作のためだけにMacを買おうとは思わないからね。
やはり、自分で作って気軽に公開したいという人はiPhone(iOS搭載機)ではなく
Android OS搭載機の方がいいかもしれないにょ。

379御茶目菜子:2010/09/22(水) 14:15:52
APS-Cで4600万画素をついに実現!?
フォトキナが開催・・・ということで連日書きたいネタがたくさんありうれしい悲鳴を
挙げているにょ。
それらを全部書き連ねてもいいけど別に新製品を紹介するサイトにするつもりは全くなく
私が感じたことをそのまま書くというのが本来の目的であるため本当に書きたいもの
だけを厳選することにするにょ。

シグマが防塵防滴ボディの「SD1」を発表したにょ。
http://dc.watch.impress.co.jp/docs/news/20100921_394996.html
あくまで開発中ということであり、発売は恐らく来年以降になるのだけどぶっ飛んだのは
そのスペックにょ。
何とAPS-Cサイズのセンサーを搭載しながら「4600万画素」だからね。
とはいえ、これはRGB三層構造になっているFoveonセンサーを搭載しているということで
三層を別々の画素として計算しているため4600万画素といっても4800×3200ピクセルに
過ぎないにょ。
したがって、一般的な画素数(ピクセル数)でいえば1536万画素となるにょ。

1536万画素といえば「普通」と感じてしまうの最近発表されたデジタル一眼が軒並み
1400〜1600万画素であることが大きいと思われこれはは昨今の高画素化がもたらしたもの
だといえるにょ。
ただし、画素数で解像感を比較できるのはセンサーサイズとセンサー構造が同じ場合に
限られるにょ。(無論レンズ性能も重要だけどそれは別に考える)
1/2.33インチセンサー搭載のコンデジとAPS-Cセンサー搭載のデジタル一眼とで同じ
1400万画素であれば同じような解像感になるというものではないからね。

あと解像感に大きく異なる原因となっているのはセンサー構造の違いにょ。
一般的なデジカメはRGGBのベイヤー配列のセンサーが採用されているにょ。
各画素は輝度情報しか持っておらずそれをフィルターを通すことでR、G、Bいずれかの
色情報へと変換され、周囲の色情報を元にRGBフルカラーの画像を生成しているにょ。
このためできあがった写真(JPEG画像)はベイヤー配列を意識する必要はないのだけど
ベイヤー配列であるが故に偽色や偽解像が発生しやすくそれを軽減するためにローパス
フィルターを装着して意図的に解像感を落としているにょ。
詳しくは3月17日に書いたのだけどこのために1200万画素のセンサーで1200万画素を
ピクセル単位で解像するのは不可能であり、それが数分の1まで落ちてしまうにょ。
ローパスフィルターの強さも異なるため一概には言えないけど実効解像力はセンサーの
画素数の2分の1〜4分の1程度になってしまうにょ。
つまり、1ピクセルでRGBすべての色情報を持つセンサーでローパスフィルターを使用して
いなければベイヤー換算だと実質解像力は2〜4倍になるということにょ。
これは実際の撮影サンプルを元に私が感じた結果だけどベイヤーの場合はR、Bの画素数が
全体の画素数の4分の1、Gは2分の1しかないことからも裏付けられているにょ。

さて、1画素でRGBの色情報を持つセンサーといえばやはり有名なのはFoveonセンサー
だと思うにょ。
このセンサーを搭載のデジカメはコンデジタイプのDP1、DP2、一眼レフタイプのSD14、
SD15がシグマから発売されているけど現行の機種は460万画素しかないにょ。(460万画素
であっても三層であるためスペック上は1400万画素となる)
それを考えると460万画素のセンサーというとしょぼい気がするけど1画素でRGBすべての
色情報を持つためベイヤー換算だとその2〜4倍の画素数を搭載した機種と同レベルに
なるにょ。

900万〜1800万画素となるけど比較をすればさすがに1800万画素搭載のEOS 7Dとかと比べて
負けることが大半であるため「4倍」はベイヤーにとってはワーストケースといえるにょ。
460万画素のFoveonセンサー搭載機は4倍の1800万画素ベイヤー機には(解像感で)勝て
ない場合が多いとはいえ2倍の900万画素のベイヤー機には多くの場合において勝っている
と感じているのでスペック上の1400万画素は決して伊達ではないといえるにょ。
もっとも「ベイヤーの○倍の性能」というのは被写体によって大きく変わってくるため
どんな場合でも成り立つものではない(片方に都合の良い条件で撮影すれば簡単に覆る)
のであくまで参考程度にとどめておく方がいいにょ。

それを元にこのSD1の1536万画素(三層構造で4600万画素)を考えてみるとベイヤーで
このセンサーと同レベルの解像感を得るためには最低でも2倍の3000画素以上はないと
話にならないだろうし、3倍の4600万画素程度は必要になるにょ。
APS-Cで現在最高画素数なのは1800万画素のEOS 7D/60D/Kiss X4だけど3000万画素や
4600万画素というのがいかに途方もないものかが分かるにょ。
それでも「将来的には達成できるのでは?」と考えている人がいるかもしれないにょ。
確かにセンサー性能はどんどん上がっているため高画素化はまだまだ可能なのだけど
問題はそのセンサー性能にレンズ性能が付いてこないということにょ。
デジタルの性能アップに比べてアナログ(光学系)の性能アップは微々たるものである
ため無意味な高画素化はコンデジのような「(解像しないため)画素数アップは
ファイルサイズアップになっているだけ」というような状況になってしまうにょ。

それに回折限界という物理的な限界はどうしようもないからね。
APS-Cセンサーで4600万画素であれば単純計算ではF5.6で回折限界になるにょ。(1/2.33
インチ1400万画素の極小ピッチのコンデジであればF2.8で回折限界となるけど望遠側で
F2.8より明るい機種なんて皆無であるためどれだけ高性能なレンズを搭載してももはや
解像するのは不可能になる)
一般的なズームレンズであれば絞り解放で収差の全くないパーフェクトなレンズである
必要があるにょ。

しかし、そんなものは存在しないし、今後も登場することはないにょ。
F2.8クラスのレンズであれば多くがF5.6付近でピークを迎えるものがあるけどF2.8
ズームが標準化することはありえないにょ。
現状の1800万画素でさえすでにレンズを選んでしまうものになっているのに4600万画素
まで画素数が増えてしまうと「縮小前提」と考えないと使えないものになるにょ。
しかし、1536万画素のSD1であればベイヤーで3000〜4600万画素クラスの解像感を持つと
考えられるけどレンズに求められるのは1536万画素となるにょ。
これは1800万画素のEOSよりは要求スペックは低いので何とか実用の範疇に収まるにょ。

ただしFoveonセンサーには4月9日に書いたような4つの問題点があるにょ。
 (1)色分離が不完全
 (2)高感度に弱い
 (3)小型化しにくい
 (4)シグマの開発力の問題

恐らくこれらの問題はこのSD1においても当てはまると思われるにょ。
(1)の色分離は長年同じセンサーを使い続けることで徐々に改善されてきたため最新機種
ではそれほど気になるレベルにはなってないけどこのSD1には再び新規設計のセンサーが
採用されているためこの問題が再び浮上しそうにょ。
(2)の高感度性能に関してもベイヤーに対して解像感で優れる反面、3層構造であることが
感度に対してネックになっているし、ベイヤーセンサーの場合はソニーは毎年のように
前年比で性能がアップしたセンサーを発表しているけどシグマはそんなことはできない
ため徐々に高感度特性を上げたものを作るというのは難しいからね。

確かに460万画素(三層で1400万画素)のFoveonセンサーを搭載したSD14は2006年に登場
したときはすごかったにょ。
2006年当時はEOS 30D(820万画素)、Nikon D80(1020万画素)が最新機種だったからね。
460万画素のFoveonセンサーでもその2〜3倍の画素数のベイヤーセンサー並の解像感が
得られるため当時の最新のベイヤーセンサー搭載機よりも解像感では優れていたにょ。
しかし、4年間Foveonセンサーのの進化が止まっているのに対してベイヤーの進化はずっと
続いていたのでその状況は変わったにょ。
1600万〜1800万画素のベイヤーセンサー搭載機と比較して460万画素のFoveon搭載機を使う
メリットはなくなってしまったにょ。

確かに等倍鑑賞では依然として優位性は変わらないけどベイヤーセンサーの場合は画素数が
多い分だけそれをリサイズすればいいし、最初から少ない画素数で撮影することで良好な
結果が得られることもあるにょ。
ペンタックスのK20Dから搭載された「ファインシャープネス」は解像感アップに貢献
しているけど「ファインシャープネス」を設定して1400万画素のK20Dを600万画素で撮影
するとFoveonに負けないくらいのピクセル単位で解像可能になるにょ。(通称名
「なんちゃってFoveon」)
私が使っているK200Dは元が1000万画素であるため「ファインシャープネス・600万画素」
であってもK20Dほどではないにしろ等倍鑑賞をしてもFoveonと比べてそれほど劣って
いるようには感じないにょ。

とはいえ、この1536万画素の新型Foveonセンサーによって再び大きくFoveonの評価は変わる
のではないかと思うにょ。
しかも、今回はベイヤーの画素数の進化が一時期ほど大きくないし上記のように将来的に
考えても難しいと思われるため解像感でこれを超えるようなAPS-Cセンサーは当分の間
(少なくとも4、5年の間)登場しないのではないかと思われるにょ。
そうなるとこのSD1に解像感で勝てそうなのは中判デジタル一眼くらいにょ。
来年にはフルサイズセンサー搭載の機種が一新されるだろうからその際には3000万画素
オーバーの可能性もあるにょ。
APS-Cの2倍以上のセンサーサイズを持つフルサイズセンサーであれば3000万画素でも十分
実用になるだろうけど(ただし、要求されるレンズ性能は極めて高い)それでも1536万
画素のFoveonセンサーに勝つのは難しそうにょ。

ベイヤーセンサーでは現在は中判デジタル並、近い将来に進化した35mmフルサイズ
センサーでようやく互角以上になれるという感じだろうからAPS-Cサイズで1536万画素を
実現した恩恵は非常に大きいにょ。
ただし、問題は一気に3倍以上の画素数増でダイナミックレンジが確保できているのか
とか、まともな発色が期待できるのかというのが懸念材料ではあるにょ。
現在のFoveonセンサーは当初はRAWで細かい調整をしてようやくまともに使えるレベルに
なっていたのが最近になってようやくカメラ内JPEG生成されたものもまともに使える
レベルになっていたからね。
恐らく新開発のセンサーであればまた実用レベルになるまで数年かかりそうにょ。
登場当初はまた同じく「解像感番長」になるのではと予想されるにょ。
しかし、どんな写真が撮れるのか早く見てみたいにょ。

380御茶目菜子:2010/09/23(木) 14:05:29
X100はミラーレスカメラに勝てるのか!?
フォトキナで発表されたシグマ「SD1」はびっくりしたけど富士フィルムから発表された
「PinePix X100」もなかなか魅力的なデジカメにょ。
http://dc.watch.impress.co.jp/docs/news/20100922_395566.html
このクラシカルなスタイルは個人的にはかなり興味をそそられるにょ。
しかし、それよりもむしろ中身の方に興味があるにょ。
APS-Cサイズのセンサーを搭載し、EVF、OVF(光学ファインダー)を兼用しているという
点もすごいにょ。

画素数だけなら普通のコンデジでも1400万画素に達し普通の人はまったく不満を感じる
ことが無くなったとはいえ、やはりコンデジで1000万画素オーバーはレンズに対して
完全にオーバースペックであり、センサーが小さいこともあってどうしても暗所に
弱かったり露出コントロールがあまりできないなどカメラ好きな人にとっては物足りない
面も多いにょ。
普通にL判で鑑賞するなら全く問題ないし、絞りのコントロールなんて普通の人には興味が
ないだろうから普通のコンデジでそれほど問題になることはないかもしれないにょ。

とはいえ、やっぱり「コンデジでは物足りない」と感じている人は少なくない(PCで等倍
鑑賞する人が増えているため画素数だけ増えたコンデジは粗が非常に大きいということが
分かるようになった)しそれらの人がデジタル一眼に流れるかというとそのサイズや重量の
問題で一眼レフは敬遠するという人は少なくないのではないかと思われるにょ。
そういう人たちに向けて作られているのが最近流行になりつつあるミラーレスカメラにょ。
古くはライカなどのレンジファインダー機でコンパクトスタイルのレンズ交換式カメラは
発売されていたけどデジタル全盛になってからはファインダー代わりに液晶画面が用いら
れるようになってオリンパスE-P1のようなカメラが登場したにょ。
それ以降はPanasonicのGF1、ソニーのNEX-5/NEX-3が登場し、キャノンやニコンも現在
開発中という噂もあるにょ。

ミラーレスカメラは基本的にデジタル一眼と同じセンサーが使われているにょ。
LX5、GRDIIIなどの高級コンデジは価格が高価であっても標準的なコンデジより1周り大きな
センサー(標準的なコンデジは1/2.33インチ程度なのに対して高級コンデジは1/1.6〜1.7
インチセンサー)を搭載しているもののデジタル一眼と比較すればその差はどんぐりの
背比べ程度になってしまうにょ。
そういう意味では高級コンデジはミラーレスカメラ登場によって厳しい立場に立たされたと
いえるかもしれないにょ。
筐体サイズでは有利ではあるものの性能差を詰めるほどではないからね。
とはいえ、センサーサイズによってはっきりとした性能差が出てくるのは暗所撮影時にょ。
明るい日中の屋外ではセンサーサイズの大きな差ほどは性能差はないにょ。
レンズ一体型ということを活かして専用設計にできる高級コンデジの方がレンズ交換式の
ミラーレスより解像感で有利になるためにょ。(あとイメージサークルが小さいために
レンズの解像力を上げやすいためセンサーサイズほどの差は付きにくい)

さて、その中に登場するのがこの度発表されたX100にょ。
安価なミラーレスカメラが登場前であったらこのような大型センサー搭載のコンデジ
スタイルは多くの人に歓迎されたと思うにょ。
ライカなんて一般人には手の届くような製品ではないわけだしね。
レンズ交換式ミラーレスカメラとは異なり一体型であるためレンズも最適化したものが
搭載可能というメリットはあるもののそれだけではもうインパクトは薄いにょ。
それに大型センサー搭載と言えばシグマのDP1のような機種もあるけど多くの人に受け入れ
られているとは言い難いにょ。(これはシグマというメーカーがカメラメーカーとして
知名度が低いことに加えてある程度知識のある人であるとFoveonセンサーというのが
ユーザーを選んでしまうというのも原因だけど)

X100はレンズ交換ができないということがデメリットになる(広角の単焦点というのは
光学ズームが当たり前の今となってはユーザーを選ぶ)のに筐体サイズもそれほど小さい
というわけではないからね。(換算35mm、F2のレンズを搭載しているということを考えると
悪くないサイズだけど)
これはNEX-5が登場でAPS-Cサイズのセンサーを搭載してもボディは小型化できると証明
されてしまったのが原因にょ。
EP-1がコンパクトなのはAPS-Cの6割のサイズのフォーサーズセンサーだったと思っていた
人が多かったけどそうでは無かったからね。
NEX-5が発売されてしまったためにAPS-Cサイズのセンサー搭載機はそれを基準に考えて
しまうにょ。

そのためX100は筐体サイズ面から考えるとそれほど魅力というわけではないにょ。
X100のNEX-5に対してアドバンテージとなりそうなのはレンズと操作性にょ。
NEX-5は本体が小型化されてもセンサーがAPS-Cサイズということでレンズの小型化は
難しいにょ。
6月4日に書いたように本体の小型化が活かせるパンケーキレンズは性能が芳しくないにょ。
センサーがAPS-Cよりも小型なフォーサーズ(マイクロフォーサーズ)ではレンズを小型化
しても十分な性能が得られそれは5月21日に書いたようにE-PL1の作例を実際に見てみれば
よく分かるにょ。
ズイコーデジタルのレンズが解像力に優れているというのとE-PL1がローパスフィルタが
弱いということもあってAPS-Cセンサー搭載のEOS Kiss X4をも超える解像感を実現して
いるからね。
X100に搭載のフジノンレンズの性能は分からないけどこのカメラに特化したものである
ため相当期待はできそうにょ。
そして最新のAPS-Cセンサー搭載であるため高感度性能も期待できそうにょ。

あと操作性に関してはNEX-5は小型化のためと想定しているコンデジ代替を考えている
ユーザー層に向けたためかほとんどの操作をメニューから選択して行う必要があるにょ。
このため「オート専用」と割り切って使うならば問題ないけど設定を変えながら撮影して
いく人にはとても快適に使用できるとはいえないにょ。
その点、このX100はシャッターダイヤル、絞りリダイヤルまで独立しているというのは
明らかにNEX-5とはユーザー層が異なると感じさせられるにょ。

さて、このX100の一番のウリとなると最初に書いたEVF、OVF兼用ファインダーにょ。
OVF、EVFのどっちが優れているかというと数年前までならOVFがほとんどの面で優れていた
(私が使っていたオリンパスC-730ultraやPanasonic FZ-5のEVFはさすがに良いものとは
言えなかった)けれどEVFの性能向上によって昨今はOVFとの差はかなり縮まったにょ。
それでもまだ「EVFは嫌」という人がいるためかは分からないけどこのX100ではOVFも可能に
なっているにょ。
とはいえ、一眼レフのようなレンズからの透過像ではなく銀塩コンパクトカメラのような
構造という単純なものにょ。
決定的な違いはOVF上にEVFのような各種情報を載せることができるということにょ。
EVFはファインダー内の情報量が多いというのが1つのメリットになっているけれどその
メリットがOVFでも使えるということにょ。
これなら「EVFは要らないのでは?」と感じてしまうけどパララックスがある関係上
視野率が低いため視野率を100%が可能なEVFが便利になる場面もあるためOVFとEVFが
自由に切り替えられるというのは大きなメリットとなるにょ。(視野率100%のデジタル
一眼においてはEVFのメリットはかなり小さい)

個人的にはミラーレス+パンケーキレンズよりも安いならばX100は欲しいけど残念ながら
価格は12〜15万円程度の予定になっているにょ。
これは「コンデジでは物足りない」というライトユーザーを主な対象としているミラーレス
カメラとは異なり、X100は見た目や操作性はある程度の経験者を対象としているためにょ。
ユーザー層の違いからNEX-5のようにヒットするとは思えないしコストもかなりかかって
そうな造りになっているためこの価格はやむを得ないけどこの価格によってますます
ユーザーを選んでしまいそうにょ。
もっともこれでもライカと比べれば格段に安いのでカメラ好きな人であれば問題ないような
価格だと思われるにょ。(一般的な中級機のデジタル一眼ボディ並の価格だし)

私は普段コンデジ(TX1)を毎日持ち歩いているにょ。
しかし、コンデジでは性能面では物足りないけどデジタル一眼をいつも持ち歩くのが難しい
ため撮影目的で出かける場合を除き一眼レフを持ち出すことはないにょ。
そのためこういったカメラは1台あると便利に感じるけどX100は価格面が(私にとっては)
障害となってしまうにょ。
やはり安価なミラーレスカメラが一番ということか・・・。
NEX-5は操作性とパンケーキレンズの性能がネックなので現時点だとE-PL1あたりが最も
無難な選択になるにょ。(E-PL1はGF1よりも高感度画質と解像感において優れている)

381御茶目菜子:2010/09/24(金) 13:30:36
iPod touchの罠・・・?
9月18日にはiPod touchが売れている理由を「アプリ」と「通信環境」の2点について変化
したのを理由に挙げたにょ。
アップル社もアプリに力を入れているのは確実で新型iPodの発表会でも売られている
アプリの数などをアピールしていたからね。

さて、すでに入手した人もいるであろう新型touchだけどやはりカメラ、マイクなど
従来のtouchには内蔵していないデバイスの搭載というのはアプリ面から考えると非常に
有用になるにょ。
それは何度も書いているようにiPhone用として作られたアプリ(touchで動作しない
アプリ)も動作するであろうことが予想されたからにょ。
では、実際にはどうかというとそういう簡単なものではなかったみたいにょ。
http://pc.watch.impress.co.jp/docs/column/config/20100924_395851.html

アプリ側ではカメラの有無を事前にチェックしてそれでカメラ機能を持たない従来touch
ではカメラ必須のアプリは使用できないようになっている・・・と思いきやそうでは
ないということにょ。
「iPhone」か「touch」かでカメラの有無を判別しているみたいだからね。
このような判別方法はさまざまなレギュレーションがあるPC用アプリでは考えられないけど
従来はtouchにカメラ機能が搭載されてなかったのでこれで全く問題なかったにょ。
しかし、この方法ではカメラを内蔵していても最初の段階で新型touchは動作機種から
外されてしまうことになるにょ。

つまり、touchでカメラ必須のアプリを使う場合には現時点ではちゃんとカメラの有無で
判別しているアプリに限られるということにょ。
上記の記事を書いた山田氏が試す限りそれは最初から内蔵されたアプリしかなかったみたい
だけどね。(主要なアプリでさえ機種でカメラの有無を判別しているということになる)
したがって、アプリの手直しをしないと現在のカメラ必須アプリは従来のtouchと同様に
使えない(可能性が高い)ということにょ。

iOS4から加わった「マルチタスク」だけどこれもPCで想像するマルチタスクとは異なり
バックグラウンドに回ったアプリは動作が一旦停止してしまうにょ。
これではWebラジオを聞きながらネットサーフィンというのはできないということにょ。
しかし、新しく加わったAPIを使用することでバックグラウンドに回ったアプリでも断続
動作が可能になるにょ。
要するにこれは「新しい機能に対応するにはソフトの手直しが必須になる」というのは
やむを得ないということにょ。
もっともtouchにおけるカメラ機能が「新しい機能」に相当するかは微妙だけど従来は
無かった物が加わるという観点からすると大差はないからね。
少なくとも現時点のアプリでは「touchにはカメラがない」ということを前提に作られて
いるわけだしね。

とはいえ、アプリの手直しをすれば動作すると思われるので悲観的になる必要はないにょ。
カメラを内蔵していない従来touchの場合は何をしようがカメラ必須アプリは動作する
ことはないわけだからね。
それにカメラ付きtouchが発売された以上はこれから作られるアプリに関しては単純に
機種(iPhoneかtouchか)で判別ではなくカメラ機能の有無で判別するようになるだろう
からそのまま新型touchで動作するものがメインになると思われるにょ。
しかし、すでに公開されているアプリの中にどうしても使いたいアプリがありそれが
カメラ必須であるために新型touchを買おうとしているのであればそのアプリが新型touchに
対応するのを確認してからの方がいいかもしれないにょ。
手直しをすれば動作するといってもみんなが手直しをしてくれる保証はないからね。

iPhone/touch用アプリといえば先日「ATOK Pad for iPhone」が発売されたにょ。
http://k-tai.impress.co.jp/docs/news/20100921_395371.html
PCではMS-IMEではなくATOKを使用してる私としては非常に興味が惹かれるものだけどこれは
実はただのメモアプリにょ。
PCのように日本語入力システムそのものを標準のものと置き換えることができないため
このようなアプリ+日本語入力システムという形を取っているにょ。

「せっかくのATOKもそのメモアプリでしか使えないなら意味がない」と感じる人もいる
かもしれないけどiOS4から加わったマルチタスクが活きてくるにょ。
PCを使いmixi、ブログ、掲示板などに書き込む場合は直接入力フォームに書き込むのでは
なくテキストエディタで書いたものをコピペする人が多いと思うにょ。(少なくとも
私はそうだし)
iOSがマルチタスクに対応したことでそれと同じことを行えば良いというだけであり
全く問題はないにょ。
ただし、Twitterのように書き込める文字数が極めて少ないものに関してはわざわざその
ようなことをするのは面倒に感じるけどTwitterへの転送機能は備えているみたいなので
その辺は問題なさそうにょ。

アップル社が情報を開示し標準日本語入力システムと置き換えができるようになるのが
一番だけど山田氏の記事にあるようにそうなると様々な問題が発生することになるからね。
端的に言えばセキュリティ面で脆弱となるような行為をしたくないということにょ。
FlashをiOS(というかSafari)でサポートしないのもFlashはアップル社がコントロール
できない代物であるというのが最大の理由だからね。
http://journal.mycom.co.jp/news/2010/04/30/003/index.html
コントロールできないということはFlashそのものに脆弱性があっても手出しできないと
いうことになるにょ。

ユーザーにとっては不利益となることだけど企業としてしまえば「余計な問題点を抱え
たくない」というのが本音ではないかと思うにょ。
そういった企業側の本音がどうであろうとユーザーには選択する権利があるにょ。
自分が使いたいものでなければ別のものを買えばいいというだけの話だからね。
Flashがどうしても使いたければAndroid OS搭載機を買えばいいし、(現時点で)カメラ
必須のアプリを使いたければ新型touchではなくiPhoneを買えばいいというだけの話にょ。

382御茶目菜子:2010/09/25(土) 14:16:35
ネット配信がTVを滅ぼす!?
米国のビデオレンタル大手Blockbusterが経営破綻をしたにょ。
http://av.watch.impress.co.jp/docs/news/20100924_395966.html
日本と米国では置かれている状況が異なるとはいえ、根本的な面ではそんなに違いはないと
思われるにょ。
どこのレンタルビデオ店も苦戦しているけどその理由となっているのは恐らく下記の2つの
理由によるものにょ。

(1)ネットレンタル
(2)ネット配信(VOD)

(1)レンタルビデオの最大のネックは借りたり、返却したりする手間がかかることにょ。
借りに行くときは特定の作品が決まってないと店頭で選択するだけだから大して時間は
かからないとはいえ、それでもその特定の作品を見つけ出すのは大変だし、目的があって
行ってその目的となるタイトルの品がレンタル中だったらショックだからね。
適当に気に入ったものを探してそれをレンタルするだけというならば借りるのに「手間」を
感じることはないけど返すのは手間だからね。
もっとも返すついでにまた借りるというのを繰り返すならばそれも手間ではなくなるため
頻繁にビデオレンタルを利用する人であれば問題はないにょ。

日本は米国と比べたら面積当たりのビデオレンタル店は遙かに多いにょ。
私がいる地方都市でさえも5km四方に3軒のレンタルビデオ店があるにょ。(ここ数年で
かなり減ってしまった)
仕事帰りの道にはないけど少し寄り道をすれば十分に行けるにょ。
それでも私はここ数年レンタルビデオ店に行ってないにょ。
これは特に見たい作品がないというわけではなく普段録画している番組を視聴するので
一杯というのもあるし、本当に見たい作品であればレンタルではなくDVDやBDを購入する
のでレンタルを使用する機会がないということにょ。

とはいえ、TVで放送はしてない作品、かつ、買うには至らない作品というものであれば
やはり、レンタルなどに頼る必要があるにょ。
そういう時に便利なのがネットレンタルにょ。
在庫数も豊富だし実際に店頭まで行って借りようとして貸し出し中・・・なんて事態も
起こらないからね。
返却も郵送するだけだからわざわざ店頭まで行き返却ボックスに入れるよりは楽にょ。
店頭でパッケージを見ながら選択するというわくわく感はないものの作品を見るだけに
徹するならばビデオレンタル店の存在価値はかなり薄れていると思われるにょ。

(2)ネットレンタルも結局はネットを利用したレンタルビデオ店であり根本的な面はそれ
ほどリアル店舗とは変わらないにょ。(比較すればメリットが大きいというだけ)
その存在価値さえ脅かしてしまうのがネット配信にょ。
ネット配信にもさまざまなものがあるけど「レンタル中になる可能性はゼロ」でなおかつ
「自宅ですぐに見れる」というのが大きいにょ。
ネットレンタルでも仕事が休みの日に合わせて事前にレンタルをしておく必要があるけど
すぐに見れる動画のネット配信であればそんな心配は不要にょ。
データのみの配信だからレンタルビデオより割安にしてもらいたいところだけどこれは
サーバや回線維持費がかかるからやむを得ないか・・・。

ブロードバンドが普及して以来急速にネット配信サービスは増えたと同時に画質面でも
大幅な改善が図られるようになったにょ。
昔(2000年代初頭まで)はストリーミング配信では56Kモデムでも見れるような低ビット
レートであり、とても満足のいくようなものではなかったし(私は当時地元で放送して
いなかった「りぜるまいん」を毎週ナローバンドによるネット配信で見ていた)、一旦
ローカルに保存して再生できるようにした場合はDRMの管理が難しいということで利用する
のにハードルが高い(ダウンロードに時間がかかる)というのが理由ではなく著作権者
側の問題で普及には至らなかったにょ。

しかし、今では先進国のブロードバンド普及率は80〜90%になっており多くの人がまともに
ネット配信サービスを利用できる環境下にあるといっても良いにょ。
ネット配信といえばVODサービスによっていつでも好きな作品を見れるものがポピュラー
だけどそれでも見れない作品があるというのは否めないにょ。
そういうものはレンタルビデオの方が有利か・・・と思いきやそういったタイトルは
特殊なものが多いためビデオ化されてない場合も少なくないにょ。
昔の作品(80〜90年代)であればVODでも取り扱っている場合が少ないけどそういう作品は
レンタルビデオ店にも置いてない場合も多いにょ。
面積に限りがあるレンタルビデオ店の場合は回転率の低い作品は店頭から取り除かれる
運命にあるからね。
タイトル数がまだ少ないのがネット配信の難点だけどそれは時間が解決してくれると
思われるにょ。

ビデオレンタルにはないネット配信のメリットはまだDVD化されてないTV放送作品の配信にも
あるにょ。
私は主にアニメを見ているのだけど最近多い1クール(3ヶ月)もののアニメの場合は
放送が始まって約3ヶ月後にDVDの第1巻が発売されることが多いにょ。
つまり1クールアニメの場合は放送が終了する頃(もしくは放送を終了してから)ようやく
そのアニメのDVDを入手可能ということにょ。
これはコレクターであれば問題はないけど見たい作品を3ヶ月待つ必要があるというのは
かなり辛いにょ。

昨今はHDDレコーダーが普及しており、録画した番組を繰り返してみるということは
VHS時代よりは遙かに楽になっているにょ。
そのためそういったTV放送された作品のDVDは高画質(とはいえ、HDの地デジの普及に
よって画質を求めるならばDVDではなくBDを買わなくてはならないけど)、もしくは
コレクター目的となっているにょ。(アニメの場合はTV放送から画像を修正している場合も
あるのでそれを目的としている人もいる)
したがって、その作品がTV放送されてない地方に住んでいてその作品に興味がある人は
(レンタルにしろ購入にしろ)見るためだけに3ヶ月待つ必要があるにょ。

そういうときに便利なのがネット配信にょ。
昨今はP2Pによる動画共有や違法な動画配信サイトも少なくないけど公式に認められている
ものだけでもアニメの場合バンダイチャンネル、アニメワン、ニコニコアニメチャンネル
などがあるにょ。
それらを活用すればまだDVD化されてない最新アニメをネット上で見ることができるにょ。
これはTV放送にかかる金額よりもネット配信にかかる金額の方が安いことが理由になって
いるにょ。

アニメの場合は、TV放送は主に「DVDを売るための宣伝」となっており、より多くの地域で
放送することがより大きな宣伝効果を生むにょ。
しかし、そのために多くのコストがかかり損益分岐点も上がってしまうにょ。
かけただけの金額を回収できればいいのだけど現実問題からいって地方までカバーする
というのはコストに合わないためよほどの作品を除き深夜アニメは東名阪を中心に
放送されているにょ。
東名阪をカバーすれば人口比率では7割くらいあるわけだしね。
つまり、地方民にとっては東名阪よりもよりネット配信の重要性が高いということにょ。

こうやって考えるとリアル店舗のレンタルビデオ店のメリットは昔と比べてかなり薄れて
きていることがよく分かるにょ。
それと同時にTVの存在価値も薄れているにょ。
ネットレンタルにしろ、ネット配信にしろ「TV放送された作品」を見る場合であっても
リアルタイムで視聴するわけではないからね。
「TVを見る」というのは視聴が無料だから(実際はNHKは料金を払っているから完全に
無料というわけではないけど)というのが主な理由だと思うにょ。

昨今は視聴率低迷が続いており、広告収入の減少が輪を掛けてTV局を悩ませているにょ。
実は厳しいのはレンタルビデオ店ではなくTV局なのかもしれないにょ。
もしも、上記アニメ配信のように最新話は1週間無料、それ以前のものは一定料金で
視聴可能ということがすべてのコンテンツに当てはまればTV放送を見る人は激減する
のではないかと思われるにょ。(「れでぃ×ばと」のように最新話はTV放送と同じ時刻で
リアルタイム配信されるとなお良い)
BGM代わりにTVをつけているという人を除けば見たい放送があるから見るという人が
大半だろうからね。
「TV放送を見たい」のではなく「作品(コンテンツ)を見たい」ということにょ。
とはいうもののTV局から離れて作られるアニメとは異なりバラエティ番組などはTV局が主導
となっているためTV局が無くなればコンテンツそのものが作られにくくなってしまうため
そういう「ネット配信で解決」という単純なものではないので難しいところにょ。

383御茶目菜子:2010/09/26(日) 13:56:42
小さいものが良いとは限らない
ケンコーが超小型のレンズ交換式デジカメを発表したにょ。
http://dc.watch.impress.co.jp/docs/news/20100925_396108.html
ケンコーはデジカメ用のアクセサリーメーカーとしては有名だけどまさかケンコーが
デジカメ、しかもレンズ交換式のデジカメを発表するとは驚きにょ。

本体サイズは明かされてないけどホットシューのサイズから判断すると概ね10×6×2cm
くらいに見えるにょ。
一般的なコンデジと比べてそれほど大きな差はないサイズにょ。(E-PL1やGF1は小さいと
いってもコンデジと比べたら明らかにサイズが大きい)
「ちっちゃいもの好き」の私としては興味が惹かれるにょ。
レンズ交換式となると問題はレンズラインナップだけど汎用のCマウントであるためそれは
問題ないにょ。
Cマウントは古くは16mmビデオカメラで使われており今でも防犯用カメラなどで使われて
いるため一般人が交換レンズを目にする機会こそないけど市場には多くの品が出回って
いるにょ。
とはいえ、入手性が良いというわけではないのでこの6mmの標準レンズがセットで売られる
ことになっているにょ。

さて、「6mmが標準レンズ」となるとかなりセンサーサイズが小さいようなイメージになる
けれどセンサーサイズはどのくらいかを考えてみるにょ。
まず、「標準レンズ」というのがフルサイズ(35mmカメラ)換算で何mmかということから
考えなくてはならないにょ。
一般的に50mmが標準レンズとされているけどそれは人間の目で普通に眺めた視野角に
近いためにょ。
それで考えると50÷6≒8.3でありフルサイズと比べて対角が1/8.3のセンサーとなるにょ。
フルサイズはセンサーサイズは対角約43mmであるためその1/8.3となると対角5.2mmにょ。
このケンコーのデジカメに4:3のセンサーが搭載されていると考えるとセンサーサイズは
1/3.5インチくらいになるにょ。

とはいえ、標準レンズが50mmというのは35mmカメラの基礎を作ったライカが標準レンズと
していただけであってそれは絶対的な基準ではないにょ。
一般的にはセンサーサイズの対角が標準レンズとされており、中判、大判カメラでは
それが基準となっているために全体からするとむしろ35mmカメラが例外とも言えるにょ。
昔は一眼レフ用のレンズとして広角レンズは技術的に作るのが難しかったために50mmが
標準レンズとなっただけ(昔は55mmの標準レンズというものも多かった)でありそれで
考えると対角6mmのセンサーは約1/3インチとなるにょ。

ここでの標準レンズというのは画角的な意味(望遠レンズの特性と広角レンズの特性が
弱まった中間的なもの)ではなく最初の1本として使いやすい画角であれば換算35mm前後の
焦点距離という可能性が高いにょ。
ズームレンズが無かった昔のコンパクトカメラの多くが35mm前後のレンズを搭載していた
というのはその汎用性が極めて高いからだしね。
それで、考えるとセンサーサイズは約1/2.4インチになるにょ。
これだと現実味を帯びてきたにょ。
このカメラのためだけに新センサーを用意するなんてことは考えにくいため汎用品を
使うだろうし、「1400万画素」となると後述のイメージサークルとの兼ね合いを考えた
場合に1/2.33インチのものしかないためそれを使うと予想されるにょ。
それなら最初から計算なんてする必要は無かったか・・・(笑)

レンズ交換式とはいえコンデジと同じセンサーというのは微妙に感じるかもしれないにょ。
そもそもCマウント自体が1/2〜1/3インチのセンサーを想定したイメージサークルとなって
いるためにそれより大きなものに装着する場合は画面周辺がけられてしまうにょ。
フランジバックが短いことで各種のマウントアダプターが発売されたマイクロフォーサーズ
だけど4/3インチセンサーを搭載しているフォーサーズであっても周辺部まではカバー
できてないからね。(これはこれで面白い写真になるけど)
http://dc.watch.impress.co.jp/docs/review/dressup/20100521_367121.html
2/3インチくらいのセンサーだと良かったけど無い物ねだりをしても仕方がないか・・・。

仮に1/2.33インチというのが正しいと考えてみると画素ピッチから考えて回折限界は
F2.7になるにょ。
つまりF2.8以上の暗いレンズを装着した場合には回折現象により徐々に解像しなくなって
しまうにょ。
幸いにしてCマウント用のレンズはどれも明るいものばかりにょ。
単焦点ならばF1.4なんて普通だし、F0.75の単焦点やF1.4のズームレンズも存在するにょ。
したがって、F2.8以上を使わなくても十分に絞りのコントロールは可能になるにょ。
ただ、明るいレンズで絞り開放を使うためには1万分の1以上の超高速シャッターが必要に
なる場合もあるけどそれは難しいだろうからNDフィルターをボディ内に内蔵もしくは
ISO25くらいの超低感度に設定できるようにして欲しいところにょ。

これをコンデジ代わりに使おうと思っている人がいるかもしれないけどCマウントは電気
接点を持たないためにフルマニュアル(完全手動式)で行うことになるにょ。
絞りもピント合わせも手動だけど絞りはいいとして問題はピント合わせにょ。
光学ファインダーを持たないデジカメにとって重要となるのは液晶画面にょ。
フルオートでも撮影できるマイクロフォーサーズなど(マウントアダプターを使ってMF用の
レンズを使うのはあくまで趣味的なものにすぎない)とは異なり完全マニュアルでしか
撮影できないためこの使い勝手が商品価値を決めてしまうからね。
マニア受けを狙う商品であれば高精細液晶で拡大表示によるピント合わせをサポートして
いるということが重要になると思われるにょ。

カメラ自体は小型でレンズも明るさの割りには小さいもののやはり手動ということで
ピントリングや絞りリングがある関係上レンズは薄型化はできないにょ。
そのためレンズ装着時の厚さはパンケーキレンズを装着時のミラーレスカメラよりも
厚くなると思われるにょ。
レンズが明るいため絞りのコントロールの幅が大きいとはいっても画質面を考えれば
一体型の方が有利にょ。
コンデジがあの極小センサーで十分使えるレベルの画質になっているのはセンサーに
合わせてレンズが作られそれを最適化された画像処理エンジンによって支えているお陰にょ。
9月23日に書いたFinePix X100も一体型にしたのは画質を重視するためだからね。
つまり、画質を重視するならばレンズ交換式ににするよりも一体型にする方が有利と
いえるわけにょ。

したがって、「レンズ交換式だから一眼レフ並の画質がある」というわけではなくむしろ
その逆だと言うことがいえるにょ。
汎用性と性能を両立させるのは難しいし、小型化と性能を両立させるのも難しいわけだから
このケンコーのデジカメに高性能(ここでは高画質)を期待するのは間違っているにょ。
オリンパスのズイコーデジタルはフォーサーズというAPS-Cよりも小さいイメージサークル
用として作られているために高解像力を持つようにイメージサークルが小さい方が
レンズ設計においては解像力では有利になるけどこれは最初からデジタル用として設計
されているのに加えて高画素化が進んでいるAPS-Cセンサーと比べて画素ピッチがそんなに
変わらないというのが影響しているにょ。
いくら専用設計かつイメージサークルが小さいことが解像力にプラスに働いたとしても
コンデジのように画素ピッチが狭いと画質面では不利になるにょ。

しかし、コンデジを改造してCマウント用レンズを取り付けられるようにして遊ぶという
ユーザーもいるわけだし、そこまで改造するスキルがないという人が遊びで使うには
なかなか面白いものだと思うにょ。
カメラである以上は画質は重要な要素だけど撮っていて楽しいかどうかも重要になって
くるからね。

384御茶目菜子:2010/09/27(月) 14:21:25
新型iPod touchでモバイル環境は一新する!?
地元では未だに店頭で見る機会のない新型iPod touchだけど店頭販売が確認されしだい
購入予定であるため金欠状態の今月に買わなくて済みそうにょ。(まぁ毎月金欠だけど)
ちなみに私が現在持ち歩いているモバイル機器は下記のような感じにょ。
http://ww5.tiki.ne.jp/~ochame/test/mobile10.jpg
この中で通信機能を持つ端末だけを抜き出すならばこのようになるにょ。

 モバイルランクA ケータイ 905SH
 モバイルランクB VAIO UX
 モバイルランクC Let'snote R5

新型touchを買うことで最も大きいのはケータイを買い換えずに済むということにょ。
今のケータイに大きな不満はなく(ちょっと分厚いのと3年間使ってきたせいで外装が
ボロくなってきたくらい)性能面で不満に感じるのはネット機能くらいにょ。
標準Webブラウザは制限が多いし、フルブラウザも搭載しているのが初期のjigブラウザ
であるためこちらも制約が非常に多いにょ。
あとWeb閲覧するならばWQVGAという狭い画面もネックだし、何より通信料金もネックに
なるにょ。

今はソフトバンクのケータイに加えてイーモバイル(Pocket WiFi)にも支払っている
けれどパケット料金に上限があるとはいえ、両方を上限まで使うとコスト的な負担が
大きいためケータイのパケット料金はなるべく抑えるようにしているにょ。
そのためPocket WiFiによる通信を主に行っているけどそこで出番がくるのがVAIO UX
となるにょ。
UXを用いてPocket WiFi経由で通信を行えば必然的にケータイで通信を行う機会は減り
(ほとんどメールくらい)パケット料金節約にも繋がっているにょ。
実際これでケータイの方はほとんど基本料金の範囲内(パケット定額の下限で賄われて
いるにょ。
それならばパケット定額さえ要らないのではと思う人もあるかもしれないけど定額
プランに入らなければパケット料金そのものが現状の5倍に跳ね上がるため結果的に
割高になるだけではなく不意に使った際に高額請求の心配も要らなくなるため外すことは
できないにょ。

こうなると実はtouchによって一番影響を受ける可能性が高いのはケータイではなくUXの
方かもしれないにょ。
UXの不満は筐体サイズ、バッテリ駆動時間、起動にかかる時間などにょ。
WinXPでもサスペンドからだと5秒くらいで復帰できるもののサスペンド状態でのバッテリ
消費が無視できないほど大きい(フル充電でも40時間程度しか持たない)ために普段は
休止で運用しているからにょ。
そのため起動には40秒くらいの時間がかかってしまうにょ。(OSの復帰だけであれば
メモリが512MBしかないため25秒くらいだけどその後15秒くらいはキーを受け付けて
くれないためトータルでは約40秒になる)
さすがにこれは気軽に使おうとする場合には抵抗があるレベルにょ。
筐体サイズは冬であればコートのポケットにすっぽり収まるものの服やズボンのポケット
だどギリギリであるため入れるのには躊躇するレベルにょ。

さて、UXの不満点はメモリが512MBしかないため複数のアプリを同時に使う場合にやや
厳しい(というかGoogle Chromeでタブを数個開いただけで512MBを大きく超えてしまう)
だけでなくキーボードの出来が最低であるということにょ。
これは昨年12月10日に書いたようにキートップに木工用ボンドを盛りそれでキークリック
感を上昇させることでわずかながら改善したにょ。
とはいえ、UXのそれらの不満はいつもLrt'snote R5を持ち歩いていることで気にならない
ようになっているにょ。

R5のスペックはCore Solo 1.2GHz、メモリ1.5GBということで今となってはネットブックに
毛が生えた程度の低スペックだけどモバイル時での使用に限って言うならば(XPの場合)
Atom+メモリ1GBで十分に感じるのでこれで不満はないにょ。
もっとも「モバイル用」としてだけではなく「自宅でのサブ機」としてもR5は活躍して
いるものの自宅サブ機として使うならばYouTubeのHD動画はWebブラウザ上でまともに再生
できない(一旦ローカルに保存すれば4月26日に書いた方法によってフルHD動画もR5で
ほぼコマ落ち無く再生できる)というCPU性能不足に加えてメモリが「1.5GBしかない」と
いうのも不満になっているにょ。

モバイル時では1GBで十分で自宅で使うならば1.5GBで不満というのはなぜかというと
やはり使い方の違いが大きいからにょ。
私は趣味でPCを使って絵を描いているけど昔であれば縦×横のピクセル数で言えば200〜
300万画素程度のサイズだったのが今は800万画素以上になっているからね。
先日描いた絵も可逆圧縮されたpsd形式でも60MBを超えており、それを開くだけで600MB
以上のメモリが必要になったにょ。
当然のことながらメモリ1.5GBでは編集時はスワップの連続にょ(笑)

フルHD液晶、メモリ4GB搭載、の自作PCがあるのだからそっちで描けばいいけど自作PCは
部屋の隅にあるためスイッチを入れるのが面倒なのに加えて部屋の隅にあるが故に液晶も
22インチにもかかわらず10.4インチのR5の方が体感的に大きく感じるくらいにょ。
メモリ768MBのR3で不満に感じたからR5に買い換えてメモリを1.5GBにして快適になった
と思いきやそれに合わせて使い方まで変えた(変わった)ので結局快適ではなくなって
きているということにょ。
とはいえ、これも別にメインノートや自作PCがあるからこそR5が活用できているとも
いえるにょ。(重い作業をR5でしていたらとてもお絵かきなんてしているスペック的な
余裕はない)

お絵かきについて少し補足をすると昔は自作PCで描いていたものの急な停電やコンセント
抜けによるデータ損失の経験を幾度もしたために同じメモリ512MBのPen3ノートで書く
ようになったにょ。
その後、メモリ768MBのPenMノートで書くようになりそれと同じだけメモリを搭載した
Let'snote R3で描くようになったにょ。
これによって、自宅の好きな場所で描けるようになっただけではなく常時サスペンド
状態であるため少し描いて一旦終了しても続きをすぐに描けるようになるというメリットが
出てきたにょ。
そして、メモリ1.5GBのR5で描くようになり現在に至っているわけにょ。
したがって、高性能な自作PCがあるのにR5で描いている点に関してはおかしな話に感じる
かもしれないけどそういった経緯をふまえると別におかしなはなしではないにょ。
もっともメモリが増えるごとに作成サイズが大きくなったので相殺されているために
メモリが増えても全然快適にはなってないけどね(笑)

これらをまとめてみるとケータイの不満はUXでカバー、UXの不満はR5でカバー、R5の不満は
自作PCでカバーとなっているにょ。
それらは単体で見ると不満は大きいけどお互いを補うことで現状ではうまくバランスが
取れているにょ。
さて、ここにtouchが入ったらどうなるのか・・・?
単純にプラスだと持ち物が増えるだけなので何かと置き換えになるにょ。
そうなると真っ先にリストラ対象となるのはUXにょ。

ただ、UXを無くせばR5を持ち歩いてい無いときにWindowsアプリが使いたい場合には困る
という問題があるにょ。
昨今はWindowsに依存する機会は減ってきてるためそういった機会はほとんど無くなって
いるけど現状よりマイナスになるという要素は極力無くしたいからね。
それは400g程度のポケットサイズPCを買うことで改善できるにょ。
400gに約100gのtouchをプラスしてもUXと同じ500g程度になるからね。
これで重量面は維持したまま現状よりも改善できるにょ。

しかし、その場合はR5の登場が激減しそうにょ。
UXの不満であるキーボードと駆動時間が克服されているようなポケットサイズPCであれば
約1kgのR5を別途持ち歩く価値は大きく減ってしまうからね。
十分に棲み分けはできるとはいえ、それを持ち歩くに値するかどうかが重要にょ。
iPadがネットブックよりも軽量な約700gという重量であってもそれを持ち歩くのに値する
かどうかとなると大半の人は持ち歩くには値しないと判断しているわけだからね。
現在はUXのキーボードの不満があまりに大きい上に連続2時間も使用できないということで
モバイル時のR5の使用頻度は極めて高いにょ。
ただ自宅メインで使うならばR5のサイズは必要ではないにょ。
B5用紙サイズは私が普段持ち歩ける限界サイズとはいえ、たまに持ち出す程度であれば
12.1インチ液晶のモバイルノートでも十分だからね。

別にわざわざ減らす必要が無くtouchが便利であれば単純にその分だけ増やせばいいと
考えるかもしれないけど「便利だから持ち歩く」というのであれば持ち物は際限なく増えて
いくことになるにょ。
結局はそれを持ち歩くのに値するかどうかということになるわけにょ。
ネットブックがあれだけ売れているにもかかわらず持ち歩かれないのは1kgオーバーの
機器を持ち歩くのが大変というのもあるけどケータイ(スマートフォン)があるから
それで十分と考えている人が多いともいえるにょ。
要するに別途持ち歩くのに値するかが重要だからね。
その考えでいくとネットブックが仮に1kgではなく500gでも大きく変わることはないにょ。
ただ、ろくにWeb閲覧機能のないケータイであれば通信機能がある端末は有用になってくる
ように同じ機器を持ち歩く場合でも別途何を持ち歩くかによっても変わってくるにょ。

つまり、touchが加わることで単純に持ち物を増やすのでないならばtouch導入によって
私のモバイル環境の大きな再編が必要となるということにょ。
今の環境になるまでも何度も失敗を繰り返し、それによって私がモバイル機器にモバイル
ランクをつける原因となったにょ。
しかし、touchを導入すればすぐではないにせよ大規模な再編をすることになると思うにょ。

385御茶目菜子:2010/09/28(火) 14:14:52
GALAPAGOSは独自ではなく標準を目指す!?
シャープが電子ブックサービス「GALAPAGOS(ガラパゴス)」 を発表したにょ。
http://pc.watch.impress.co.jp/docs/news/20100927_396414.html
GALAPAGOSは電子ブックの配信サービス名と端末名称となっているけどガラパゴスと言えば
ガラパゴスケータイ(ガラケー)をイメージする人も多いのではないかと思うにょ。
とはいえガラケーという呼び名も元々「ガラパゴス諸島」の「ガラパゴス」から取られた
もので独自の進化を遂げたもののことにょ。
しかし、ガラケーの実態を合わせて本来であれば「独自な進化」がガラパゴス化であるはず
なのに「閉鎖的」というのをガラパゴス化と考えている人も少なくないにょ。

閉鎖的であるなら完全な垂直統合なiPhone(iOS搭載機)もガラパゴス化といってもいい
ものになるにょ。
これはAndroid OS搭載機と比べると制約が多いからね。
つまり、ガラパゴスを「閉鎖的」という意味で捉えていたらiPhoneはガラパゴスケータイに
なってしまうということにょ。
「独自進化≠閉鎖的」なのに・・・。

とはいえ、ガラパゴスにネガティブなイメージを持っている人も少なくないのにサービス
名や端末名にそれを用いるというのはかなりの英断だったと思うにょ。
http://pc.watch.impress.co.jp/docs/column/gyokai/20100928_396398.html
もっとも、「そういう人がいる」というだけであってみんながそう思っている(それが
多数派)というわけではないためそれは問題ないにょ。
しかし、「ガラパゴス=独自の進化」と考えると「進化するGALAPAGOS」というのは一体
何なのかと思ってしまうにょ。
これは、ガラパゴスと言う言葉が日本では一人歩きをしているため上記のように本来とは
異なる意味で用いている人が多いという点があるからだと思うにょ。
そのためシャープは「GALAPAGOS is not ガラパゴス」というのをスタンスにしている
模様にょ。

さて、名称はともかくとして重要なのはサービスと端末にょ。
GALAPAGOSのメインとなるのは次世代XMDFフォーマットにょ。
まずはXMDFについて書いておくと要はXMLをベースとした独自フォーマットにょ。
今は国際フォーマットとして認められているとはいえ、使用するにはシャープに利用料を
払う必要があるにょ。
「そんな独自規格を使うより利用が無料なオープンな規格の方がいいに決まっている」
と考えるかもしれないけどオープンだと広く普及はしても商業的には成功するとはいえ
ないにょ。
それはデジタルにつきもののコピー問題が付きまとうからね。
iPhone用アプリは基本的にApp Storeで入手したアプリでないと使用することができない
けどこれによって大手ゲームベンダーも積極参入しているわけにょ。
これがオープンでコピーフリーだと積極参入するはずがないからね。

コピー対策として用意されているのがDRMにょ。
DRMはどのように実装するかはコンテンツによって異なるけど子コピーはできても孫
コピーはできないとかアカウントや端末に紐付けされているなど様々にょ。
App StoreやiTunesストアではアカウントに紐付けされているし、DSiウェアや一般的な
ケータイアプリや着うたは本体に紐付けされているにょ。
したがって、他人にデータだけを渡した場合でも使用することはできないにょ。

XMDFでは暗号化、改ざん防止、フットプリント機能などが導入されているにょ。
コピーは制限無くできるもののフットプリント機能、つまり、そのデータに埋め込まれた
刻印によってその持ち主の特定ができるため不正コピーをしてもその出所が分かって
しまうにょ。
またそれを書き換えようとしても改ざん防止機能や暗号化機能があるため容易ではない
からね。
とはいえ、どんなコピー対策をしたところでそれを破る人がいるため100%安全なもの
というものは存在しないにょ。
Blu-rayなどに用いられている強固であるHDCPもマスターキーが流出してしまったために
それを破るのが簡単にできてしまうようになったからね。
http://www.itmedia.co.jp/news/articles/1009/20/news004.html

XMDFはそのようなコピー対策に加えて日本語を禁則、ルビ、外字など紙の書籍で実現
可能なことはすべてサポートしているにょ。
これは日本発のフォーマットだからこそできることだといえるにょ。
それでも「独自仕様だから駄目」というのであればAmazonのKindleもAppleのiBooksも
駄目になってしまうにょ。
オープンでありながらDRMでしっかり管理されているというのは相反することにょ。
とはいうもののシャープとそれらの端末では数が違いすぎるにょ。
独自仕様(独自形式)であろうとそれが売れていれば問題ないにょ。
シェアを取ったものがデファクトスタンダードになるからね。

電子書籍に関しては日本は北米と比べて大きな遅れを取っているというイメージがある
けど日本の電子書籍市場は決して小さくはないにょ。
ただし、すでに専用端末であるKindleが大ヒットしている北米とは異なり、日本では
そのような専用端末は今まで数多く出てきたもののヒットには至らなかったにょ。
では、日本では電子書籍はどこで売れているのかというとケータイ向けとなっているにょ。
XMDFはケータイではデファクトスタンダードとなっているフォーマットにょ。
http://special.nikkeibp.co.jp/ts/article/a00i/106510/p1-4.html
つまり、日本人にとってはiBooks形式やKindle形式よりも遙かに馴染みが深いフォーマット
ともいえるわけにょ。
これも日本発ということで日本語を読むのに適しているということがいえるからにょ。
次世代XMDFに関しては詳細は分からないけど要するにこのXMDFにマルチメディア機能を
強化したものだと考えられるにょ。

要するにこのGALAPAGOSは「今までケータイ向けとしてキャリアがやっていたサービスを
シャープが専用端末向けにやりますよ」という程度のことでしかないにょ。
とはいえ、すでにシャープは99年にスタートしたSharp Space Town以来電子書籍の配信を
行ってきておりGALAPAGOSが電子書籍の新規スタートではないにょ。
今までのシャープのパターンからすると開始当時はそれなりに力を入れているけど徐々に
それは薄れてくるようなイメージがあるにょ。
したがって、「今回もスタートだけ力を入れるのでは?」と懐疑的になっている人もいる
かもしれないにょ。
私自身も7月24日に書いたようにシャープを全面的に信頼しているわけではないからね。
とはいえ、昔(10年くらい前)と今では置かれている状況が変わっているにょ。
日本でもケータイ向けに電子書籍の需要が増え、そして北米ではKindleが大ヒットに
加えてiBooksまでスタートしたためその影響が日本にも現れ始めているからね。
紙の書籍には再販制度があるけど電子書籍にはそれがないということで敬遠していた
出版社も8月21日に書いたようにそろそろ重い腰をあげなくてはならない時期になっている
と思われるにょ。

さて、肝心の端末だけど要はただのAndroid OSを搭載のタブレット端末にょ。
Kindleのような専用端末は小型化かつバッテリ駆動時間を伸ばすという面においては
優位性が高いもののそれ専用で高価な端末を買うというのはかなり抵抗があるからね。
端末が売れないことにはコンテンツが売れないという問題も出てくるにょ。
その点、汎用性の高いAndroid OSということで当然のことながらWeb閲覧機能を持つため
Web端末として電子書籍も活用したいという人には適していると思われるにょ。(ただし
現時点ではAndroid Marketには非対応となっている)

5.5インチSWVGAの端末と10.8インチWXGAの端末の2種類が発売されるけどこれは正解だと
私は思うにょ。
5.5インチの端末は十分に持ち歩けるサイズだけど画面サイズの関係上雑誌や新聞を読む
ためにはスクロールや拡大縮小が頻発して読みやすいものとはいえないし、10.8インチの
端末は雑誌や新聞を読むにはいいけど持ち歩くには大きすぎるからにょ。
自分がどの程度なら持ち歩けるのかは人によって異なるし、持ち歩く頻度も異なるため
1つの機種ですべてを賄うことはできないにょ。
iPadはいくらネットブックより小型軽量とはえ、持ち歩きに適しているとは言い難いし、
それより下のサイズとなるとiPod touchやiPhoneとなってしまうにょ。
いくらiPhone4で960x640の高解像度化したといっても画面サイズの違いによる使い勝手の
違いは克服することができないため来年初頭には小型化した7インチクラスのiPadが発売
されるという噂もあるくらいにょ。

GALAPAGOS端末も5.5インチでも持ち歩きはできないと考える人もいるかもしれないにょ。
しかし、GALAPAGOS自体がただのAndroid OS搭載機であるためアプリさえあればスマート
フォンでGALAPAGOSに対応した次世代XMDFコンテンツを利用することは可能だと思うにょ。
実際にそれができるように現在協議中だしね。
それが完了すればKindle、iBooksに並ぶ世界標準フォーマットになる可能性があるにょ。
日本ではKindleもiBooksも正式サービスを行ってないので現時点は一部の出版社が独自で
電子書籍を発行しているにょ。
紙の書籍で例えるならば出版社が一般書店を通さずに出版社が直販するような感じにょ。
しかし、紙の書籍ならば一旦買ってしまえば「読むのに困る」ということはないのだけど
電子書籍の場合はフォーマットによって読める端末(もしくはアプリ)が異なるという
問題があるにょ。
そのため規格乱立は用意する端末数、アプリ数の増加を招いてしまうにょ。

GALAPAGOSは進化することで生き残りをするという意図が込められたネーミングだけど
「商品とサービスの進化」「ビジネスモデルの進化」「環境適合力の進化」という3つの
進化は簡単なものではないにょ。
本当にそれができるのかは現時点では分からないにょ。
「強い者が勝つのではない。勝った者が強いのだ。」という名言があるように強いメーカー
(ブランド)が必ずしも勝てる(シェアを取れる)というものではないにょ。
いくら独自形式であろうとそれがデファクトスタンダードになってしまえば文句は
出なくなるわけだしね。(良いものが普及するとは限らない)
GALAPAGOSが独自進化ではなくデファクトスタンダードになる日は果たして訪れるのか!?
デファクトスタンダードになるということは電子書籍においては非常に重要なことにょ。
専用端末、アプリが必要な電子書籍において「(見る手段が失われた)書籍データ」と
いうのはプレイヤーのない音楽レコードと同じようなものだからね。




掲示板管理者へ連絡 無料レンタル掲示板