« 2月20日(現地時間)、SCEがPS3後継機を発表か | トップページ | Xperia Zゲットしました »

2013年2月 8日 (金)

PS3と現行PCの帯域幅について比較してみた

某ジャーナリストいわく、PS4はミドルクラスPCの性能である!と断言している。
(~そうです、~らしいという言い回しではない!)

そもそもミドルクラスPCの性能とはどのくらいか?と気になって、色々調べてみました。

演算系は比較するのは難しいですが、帯域幅なら比較しやすいです。
とりあえず、帯域の観点から分析してみます。

PC Watch 後藤氏の記事より(2005年7月)

XDR→Cellの帯域幅は25.6GB/s
Cell-RSXの帯域幅は35GB/s(非対称で、上り:20GB/s、下り:15GB/s)
RSX-GDDR3の帯域幅は22.4GB/s

最近の主流であるLGA1155の構成図は以下のとおり。

LGA1155-2

(ソース:日経WinPC2013年3月号より)

DDR3-1600→CPUの帯域幅:25.6GB/s
CPU-グラフィックスの帯域幅:32GB/s
GPU-GDDR5の帯域幅:数十~約300GB/s

グラフィックス内部の帯域幅を除くと、PS3と最近の主流PCの帯域幅は遜色ないとは驚きます。PS3は2006年11月発売のハードですよ?

ちなみに、PS3発売された頃のPCの帯域幅は以下のとおり。

CORE2DUO-3

メモリ→CPUはチップセット(ICH9)経由でしたので、ボトルネックが大きかったようです。
DDR2-800→チップセットの帯域幅:6.4G~8.5GB/s
チップセット-CPUの帯域幅:10.7GB/s
チップセット-グラフィックスの帯域幅:8GB/s
GPU-GDDR3の帯域幅:最大数十GB/s

当時のPCと比較すると、PS3の帯域幅は実に桁外れだなと分かります。さすが
バンド幅オタクの技術者が設計したものですw

一応ハイエンドPCの帯域幅は以下のとおり。

WS000000

DDR3-1600→CPUの帯域幅:51.2GB/s
CPU-GPUの帯域幅:32GB/s(SLI接続だと、32GB/s+32GB/s)
GPU-GDDR5の帯域幅:数十~約300GB/s

さすがに、PS3を超えていますね。ただし2倍程度なので、それぐらい済んだのは、ある意味驚きかもしれませんw

参考までに、日経WinPC2013年3月号は、2012年1月号~2012年12月号のPDFがすべて入ったDVDが入ってますよ。お買い得と思いますよ。

それにしても、PS3の構成図を何度も見直していたのですが、一番気になったのは、FlexIO。(Cell-RSXのところ)実はFlexIOはXDRの開発元のラムバス社の技術です。

PS4にも、おそらくFlexIOの進化型技術を採用する可能性が高いと思いますが、どのくらい帯域幅になるか気になります。XDR2ベースの技術を採用するのではと思われますので、最低でも3倍ぐらい期待できるかな。

少なくとも、帯域幅に関しては、ミドルクラスPCの性能であるとは思えませんね・・GPUの演算系は確かにミドルクラスPCの性能になる可能性はありますが、トータル性能としてはなんともいえませんし。 たとえば、頂点処理は、CPU側(APUとか)で行って、GPU側は統合シェーダーにて、ピクセルシェーダー処理に集中する方法もありますし。PCじゃ、それができませんし。実際、PS3のCell-RSXで、そのような処理を行っていますし。

PS Vitaは現行ハイエンドのスマホより、桁外れの広帯域メモリ搭載であることが一部知られているが、SCEが非公開のため、PS Vita発表された後、後藤氏、西川氏がPS Vitaの性能はたいしたことない!(キリッ という感じでネガキャンしていたからね・・・

PS4は、画質が仮にすごくても、SCEが詳細発表しないため、

2月20日(現地時間)の発表会の後、某ジャーナリストいわく、やはりミドルクラスPCの性能だったね!(ドヤ顔 となりそう・・・(苦笑)

できれば、SCEが詳細発表してほしいところであるが・・ MS対策という問題もあるので、難しい問題ですね・・・

|

« 2月20日(現地時間)、SCEがPS3後継機を発表か | トップページ | Xperia Zゲットしました »

PS4」カテゴリの記事

コメント

ジャーナリスト連中も仮にも技術系ジャーナリストを標榜するなら、mkuboさんの様な考察をしてから発言し責任を持って欲しいですね
仕事なんですから


いよいよ、発表に近づいて来ましたね
CELLは?PS2やPS3互換は?性能は?メモリ帯域や容量は?メディアは?クラウドは?4K2K対応は?と興味は尽きません(不安もありますが(苦笑))

前の記事のmkuboさんのコメントでエンディアン問題は今までのSCEの経緯からきちんと対応してきそうですし、互換性に関しては少し明るい兆しが出てきたかな?と個人的には思います

SCEは汎用部品の寄せ集めとか揶揄されてきたVITAでもキチンとカスタム化や積層メモリ等の技術を取り入れてきました
(そもそも、公式の帯域がPSPより低いのにPSPが動作する事に疑問を持たないジャーナリストは無能過ぎですね)


確かに、まだMSの次世代機の件がありますので詳しいスペックは公開しないと思います
(VITAの様に一部のスペックは暫くは(ずっと?)非公開かも知れませんね)

投稿: powerman | 2013年2月 9日 (土) 09時54分

ps4で一番気になるのがやはりクラウドだね。
これは今までの延長線上に無い新しい試みだし、楽しみ。
最初はhomeみたいのからクラウドはじめて欲しいな~

投稿: | 2013年2月10日 (日) 03時38分

演算能力を比べるのに取り敢えず帯域ってネタですか?
しかも全くボトルネックになっていないメインメモリとPCIeだけを比較に上げて、
PS3では全く相手にならず、おまけに最も大事なGPU内部バスはさり気なくスルー。
見事な提灯記事ですな。

投稿: | 2013年2月10日 (日) 14時13分

>>powermanさん

>(そもそも、公式の帯域がPSPより低いのにPSPが動作する事に疑問を持たないジャーナリストは無能過ぎですね)

5.3GB/sですね。一般的なLPDDR2の最大帯域でも6.4GB/sなので、その帯域でPSPエミュをやっているのは実に不自然ですね。それに気づかないとは残念ですね。


2004年発売の携帯ゲーム機としてやはり驚異的ですね。


>ps4で一番気になるのがやはりクラウドだね。

そうですね。単に互換性で対応するのはつまらないですね。クラウドにより、進化するという提案には期待したいですね。

投稿: mkubo | 2013年2月10日 (日) 22時21分

最近はCPUにもGPUにも高速で大容量のキャッシュメモリが搭載されていますので、キャッシュの上で演算が行われることを意識してプログラミングすれば、あまりバスの帯域の影響を受けることはありません。
キャッシュはバスに比べて遥に広帯域で低レイテンシです。

GPUの場合、一旦テクスチャやポリゴンデータをGPU側メモリに展開してしまった後は、ほとんどバスは空いている状態です。
CPUもある程度のデータをキャッシュに貯めておいてスピードが必要な演算はほとんどキャッシュ内で行われますのでバスの帯域に影響を受けにくくなっています。

たとえ太いバスを使用したとしても遠くのメモリはレイテンシが大きいので、やはりできるだけキャッシュ内で演算を行う必要があります。
なのでバスの帯域はキャッシュにデータを送り込むために必要な平均的な速度がクリアできていれば十分に性能が出ますし、バスだけ速くしても演算性能が上がるわけではありません。

PS2のバスはPCよりも広帯域ですが、PCでPS2をエミュレートできているのは、それよりも広帯域なキャッシュの中で演算を行っているからです。

必要以上の帯域を確保しても無駄になりますし、逆に後々メモリ等のコスト高で苦しめられることになりかねません。

PS4は噂では高価なGDDR5メモリを使用するそうですが、そのスペックでXBOX720に対抗して同容量のメモリを積んだ場合、後々コスト競争で不利になるのではないかと心配しています。

XBOX720は安くて帯域はそこそこのDDR3を使用するようですが、GPUに非常に高速なスクラッチパッドメモリを太いバスで接続して、演算に必要な帯域幅を確保する方針のようですが、これは帯域幅とコストを両立できる賢い方法だと思います。

久夛良木さんによるとSCEの技術者は帯域幅オタク(笑)だそうですが、自らの主義に固執しすぎてコストを疎かにすることのないよう、バランスの良い設計を行って欲しいです。

投稿: | 2013年2月11日 (月) 16時00分

コメントありがとうございます。

>>GPUの場合、一旦テクスチャやポリゴンデータをGPU側メモリに展開してしまった後は、ほとんどバスは空いている状態です。

GTX680の場合は帯域の狭さがネックになっているとの指摘もありますけど?

http://www.4gamer.net/games/120/G012093/20120320002/

「GTX 680のメモリインタフェースが256bitに留まることによる問題」がより大きく出るのが,最も描画負荷の高いSunShaftsシークエンスである。グラフ4,5を見ると,GTX 680はHD 7970に明確なスコア差を付けられないばかりか,逆転すら許してしまった。超高解像度環境で高負荷なグラフィックス設定を行うと,足回りの弱さが露呈する印象だ。


帯域が広いHD7970は、高解像度でGTX680を逆転しています。

PS4は4K2K対応かといわれていますので、やはり帯域も無視できません。


http://game.watch.impress.co.jp/docs/series/3dcg/20090424_153727.html

CEll-RSXの帯域が広いおかげで、ポストプロセス処理が可能になり、高度な処理も実現しています。PCではとても実現できないレベルを実現しています。

もちろん帯域はすべてではないですが、帯域が貧弱じゃ、GPUで処理していた結果を、CPUで加工するのがきつくなります。やはり帯域も重要です。

>PS2のバスはPCよりも広帯域ですが、PCでPS2をエミュレートできているのは、それよりも広帯域なキャッシュの中で演算を行っているからです。

ハードをフルに活かしたようなPS2ゲーム(ソウルキャリバー3)はまだ厳しいみたいですよ? 軽いゲームはたいてい問題ないとか。
検索してみたら、まだ厳しいとの印象ですね。グレーなサイトばかりなので、紹介しませんが・・

ちなみに、PS3はPS2アーカイブが出ているのはご存知ですか?ハードをフルに活かしたようなDOA2も出ています。どうやって実現しているか、不明ですが、おそらく帯域系処理を端折っている可能性が高いかなと思います。PCエミュも、その処理を行っているのではないでしょうか。


>XBOX720は安くて帯域はそこそこのDDR3を使用するようですが、GPUに非常に高速なスクラッチパッドメモリを太いバスで接続して、演算に必要な帯域幅を確保する方針のようですが、これは帯域幅とコストを両立できる賢い方法だと思います。

まあ、1080p限定なら、問題ないかもしれませんね。主流の遅延レンダリングもできるなら、いいじゃないですかね?4K2K対応は厳しいじゃないかな。

http://game.watch.impress.co.jp/docs/series/3dcg/20090417_125909.html

PS3のVRAM容量が大きかっただけに、XBOX360じゃできない遅延レンダリングが可能になりました。(EAのBF3でも遅延レンダリングにて、PC版と遜色ないレベルを実現しています。)


次世代XBOXはeSRAM?搭載らしいですが、もしPS2みたいにeDRAM混載のような作りなら、ダイサイズで演算処理系サイズが減ります。半分以上メモリだったら、性能が弱くなります。(XBOX360方式なら、インタフェースが問題になります。)

http://www.eurogamer.net/articles/df-hardware-wii-u-graphics-power-finally-revealed

ちなみに、WiiUのGPUダイサイズはコンパクトですが、半分ぐらいeDRAM(32MB)が使われています。外部メモリの帯域が狭すぎるためか、テクスチャーデータの転送などでボトルネックが出ているといわれているようです。(正確には、色々原因はあるでしょうが。)

また、PSシリーズは伝統的にVRAMを占有方式にしています。XBOX360はUMAでしたが、もし次もUMA方式であれば、PS4を凌駕するとは思えません。海外のリークによると、
どれもPS4が優勢であるとのことです。

GDDR5搭載については、おそらくVRAMのみになるのではと思います。2.5D積層にて搭載するでしょう。2GBあれば十分ですし。(NVIDIA担当者いわく、4K2K対応は2GBが必要だといっている。)

メインメモリはDDR3/2.5D積層か、GDDR5/2.5D積層か分かりませんが、現行AMDのAPUは、メモリ帯域がボトルネックになっているといわれていますので、広帯域により、本来の性能が出てくる可能性もあります。

失礼ですが、なんか突っ込みが多い印象ですね。西川氏の記事をチェックされていますでしょうか?

投稿: mkubo | 2013年2月12日 (火) 01時03分

ツッコミに対する返答がズレてますよ。
>>GPUの場合、一旦テクスチャやポリゴンデータをGPU側メモリに展開してしまった後は、ほとんどバスは空いている状態です。
このバスってPCIeの話でしょ。

>>GTX680の場合は帯域の狭さがネックになっているとの指摘もありますけど?
なぜに反論がVRAM?

ポストプロセスはFXAAに代表されるようにPCでも余裕で実現できますが。
どの辺が「PCではとても実現できないレベル」なんですか?
世の中はGPGPUに流れているのに、太いバスで繋げればCPUでGPUの肩代わりって、それをするにはAPUじゃ貧弱過ぎるでしょう。
SPUみたいに暇してるコアがあるわけじゃないんだから。

投稿: | 2013年2月12日 (火) 10時56分

SCEIが今年に入ってから、
SPUと思われるサブプロセッサ搭載の特許を公開したらしいです。
http://appft.uspto.gov/netacgi/nph-Parser?Sect1=PTO1&Sect2=HITOFF&d=PG01&p=1&u=%2Fnetahtml%2FPTO%2Fsrchnum.html&r=1&f=G&l=50&s1=%2220130027392%22.PGNR.&OS=DN/20130027392&RS=DN/20130027392

投稿:   | 2013年2月12日 (火) 11時04分

まぁ、「帯域」だけで物は測れませんって事で。
今回は一例として帯域を出したに過ぎないのでは?

私は皆さんよりもっと技術に疎いので素っ頓狂な事を書くかも知れませんが、一部?な部分がありました。

>最近はCPUにもGPUにも高速で大容量のキャッシュメモリが搭載されていますので、キャッシュの上で演算が行われることを意識してプログラミングすれば、あまりバスの帯域の影響を受けることはありません。
キャッシュはバスに比べて遥に広帯域で低レイテンシです。

これって、キャッシュヒット前提ですよね?
キャッシュミスした場合のペナルティは?
それに、キャッシュメモリを積めばその分トランジスタ数が減り演算速度に影響しませんか?
超広帯域とは言いませんが、広帯域は必要だと思います。

少し、極論な気がしました。
要は重要なのは、あなたが最後に書いてある通り「バランス」ですよね?


>PS4は噂では高価なGDDR5メモリを使用するそうですが、そのスペックでXBOX720に対抗して同容量のメモリを積んだ場合、後々コスト競争で不利になるのではないかと心配しています。

初期に対しては確かにそうでも、コストは段々低下するものですから、今を見るか先を見るかによると思います。
PS3だって、そういう先行投資的な部分はたくさんありました。


>世の中はGPGPUに流れているのに、太いバスで繋げればCPUでGPUの肩代わりって、それをするにはAPUじゃ貧弱過ぎるでしょう。
SPUみたいに暇してるコアがあるわけじゃないんだから。

世の中はGPGPUに流れているでしょうが、ゲームでも主流になるって言うのはまだ個人的には疑問が残ります。
(この辺り特に疎いのでお許しください)
確かに、APUではCPUとしてもGPUとしても貧弱なのは明らかです。
APUのみを広帯域で接続しても、私も性能的には少々疑問が残ります。
だから、GPUは別に搭載するって噂があるんだと思います。
また、SPUが載らないって決まったわけでもありませんし、載ったら広帯域で接続する意味はあると思います。

お二人とももう少し冷静になりましょうよ。
まだ、どれも噂段階ですし。

投稿: powerman | 2013年2月12日 (火) 12時41分

>このバスってPCIeの話でしょ。

失礼しました。意味を取り違えました。

まあ、そもそもPCはマチマチですので、どうしてもGPU寄りの作りになるでしょう。PCの帯域を全部フルに消費するような作りを行いにくい事情はあると思います。

PS3はCSですので、遅延レンダリングなどで、帯域をかなり消費するようなソフトが出てくるようになりました。


http://ja.wikipedia.org/wiki/%E9%81%85%E5%BB%B6%E3%82%B7%E3%82%A7%E3%83%BC%E3%83%87%E3%82%A3%E3%83%B3%E3%82%B0

>遅延ライティングとは対照的に、この技術は多量のメモリや帯域を要求するためあまり人気はない。特にコンソールでは、メモリや帯域幅は強く限定され、しばしばボトルネックとなる。

>その後この技術はコンピュータゲームのようなアプリケーション用に人気が出て、最終的に2008年から2010年あたりに主流となった。[46]

2008~2010年以降使われるようになったことです。発売時点のハードの帯域はもてあましても、CG技術の進化により、帯域が消費される事例もあります。

>ポストプロセスはFXAAに代表されるようにPCでも余裕で実現できますが。

言葉足らずでした。確かにPCはGPUだけで処理することはできますが、PS3のようにMLAAというAA処理をCellが実施している事例はあります。Cellが担当することで、RSXの負荷を下げるメリットはあります。他の仕事を回せるようになりますので、全体的にクォリティーアップを図れるのです。

http://gamesukiblog.blog40.fc2.com/blog-entry-27.html

しかし、20010年に発売されたサンタモニカスタジオの「GOD OF WAR 3」は内部解像度720pに関わらず、ジャギが全く無い状態でした。
そこで検証した結果「おそらく16×MSAAだろう」という話になったのですが、サンタモニカから訂正が入り「MLAA」だと言う事が判明したのです。
この技術は過去インテルが技術講演にて「次々世代」として発表した技術で、
現在「次世代」として使われているPCの「DirectX11準拠のGPU」でも出来ない技術として紹介されていました。
(技術的に進んだのか現在ではPC版「Battlefield 3」がMLAA搭載になるとの話ですが)
PS3で使われるMLAAとPCのMLAAの違いは、PS3の場合「SPUのみで処理出来る」「GPUを使わずに掛けられる」という事にあります。
これにより、GPUの負担が軽くなった分、他の部分に処理を廻す事が出来、グラフィックなどの向上が見込めるという訳です。
そのお陰でGOW3はジャギが無くなっただけではなく、
グラフィックやfps(画を動かす為に1秒間に画面が更新される回数の事。回数が多ければ多い程滑らかに動く様になる)が向上。
結果として全体のクオリティがアップする結果になりました。


また、ポストエフェクト。個人的にはPS4世代ゲーム機にはポストエフェクトを贅沢に使えるかどうかキモになると考えています。

http://game.watch.impress.co.jp/docs/series/3dcg/20120217_512295.html

http://www.siliconstudio.co.jp/corporate/pressreleases/2012/120606.html

スクエニが、次世代ゲームレベルを想定にポストエフェクトを贅沢に使った映像を紹介しています。


ですから、帯域がますます重要になると考えています。

http://maruta.be/effect/72

http://wlog.flatlib.jp/item/889

http://wlog.flatlib.jp/item/815

PS2の超広帯域の意味は現場にとっては結構あったみたいです。重いエフェクトを多用することができたようです。

つまり、PS4は広帯域を持つことで、PS2のような絵作りができるようにしたいのではと思っています。


SPEとおもわれる特許情報が出ましたね。実際に実装されるか分かりませんが、これが隠し玉なら、まさしくパワフルなコンソールになるのは違いないです。

投稿: mkubo | 2013年2月12日 (火) 22時24分

>SPUと思われるサブプロセッサ搭載の特許を公開したらしいです。

情報ありがとう。Alt氏のブログにも紹介されていますね。

http://hokanko-alt.ldblog.jp/archives/67802865.html

やっと光明が見えてきたなw


投稿: mkubo | 2013年2月12日 (火) 22時46分

>>powermanさん

>お二人とももう少し冷静になりましょうよ。

すみません、言い過ぎました。

投稿: mkubo | 2013年2月12日 (火) 22時47分

積層で数百GB/sの帯域が出せるなら、CPUのL2キャッシュとかSPUが乗るとしてLSを外して組めばかなり小さくなるなぁと夢想しました。

投稿: | 2013年2月13日 (水) 05時00分

http://www.examiner.com/article/ps4-gddr5-ram-compared-against-xbox-720-ddr3-ram-and-esram

この記事にはXBOX720がDDR3を採用した際の懸念(?)が書かれています、あくまで予測ですが。
また別の記事(リンク失念)にはPS4にPS3のlibGCMのようなものが提供されれば現行PCの上を行くゲームが開発できるかもというのも。(ただしWindowsのAPIに対する不満の裏返しなのかもしれないので話半分で)
やはり開発サイドも当然帯域の広いメモリを望んでいるのは間違いないとおもいます。
そういった意味でもRSXの仕様(128bitバス 低クロックの7800GTXモンキー)は残念だったかなぁ・・・

投稿: yoshi | 2013年2月13日 (水) 05時23分

>>積層で数百GB/sの帯域が出せるなら、CPUのL2キャッシュとかSPUが乗るとしてLSを外して組めばかなり小さくなるなぁと夢想しました。


なるほどこういう組み合わせもありますね。キャッシュ?の積層ができるなら、面白いかもね。


>>yoshiさん

どこかのブログか忘れましたが、DDR3採用の次世代720の帯域について不満を持っている様子みたいでした。
まあ噂レベルでしょうが。

RSXの件は、まあ仕方ないですね・・幻の独自GPUも見たかった気がしますね。

投稿: mkubo | 2013年2月13日 (水) 23時41分

>>powermanさん

>これって、キャッシュヒット前提ですよね?
>キャッシュミスした場合のペナルティは?

関係ないけど、技術的な興味からその点を調べてみました。

以下の記事。NVIDIAはキャッシュミス対策には必死みたいですね。(そもそもGPUはキャッシュミス率が結構高いらしい。)GPGPU対応を行うために、色々苦労している様子が分かります。

読んで思ったのですが、やはりGPGPUはまだ発展途上であるので、GPGPUを全面的に採用するのは危険だなと思いますね。実績のあるSPUをやはり採用すべきだと思います。


http://pc.watch.impress.co.jp/docs/column/kaigai/20100729_383968.html

 ちなみに、旧来のGPUでは、スレッド数を増やすことは、メモリアクセスレイ
テンシを隠蔽することが主目的だったが、今回は違う。Wavefront当たりの、割
り当てユニットの粒度を減らすことが主目的だ。メモリレイテンシについては、
AMDも、NVIDIAと同様に、内部メモリを増やすことで、レイテンシを短縮する方
向へと転じた。ちなみに、CPUのキャッシュは時間的局所性を利用するためだ
が、従来のGPUのキャッシュは空間的局所性に寄っていた。これもAMDは変えつつ
ある。


http://pc.watch.impress.co.jp/docs/2005/0711/kaigai197.htm

「CPUは“キャッシュヒット”に合わせて設計されている。CPUではキャッシュミス
すると、ひどいことになる。しかし、キャッシュがいったんフィルされてしまえ
ば、ミスする確率が低い、という設計思想だ。それに対してGPUは、“キャッシュ
ミス”に合わせて設計されている。GPUはCPUと比べるとキャッシュミスが頻繁
で、ヒット率を高めにくい。だから、ヒット率より、ミス時のレイテンシを隠蔽
することにフォーカスしている」とNVIDIAのDavid B. Kirk(デビッド・B・カーク)
氏(Chief Scientist)は説明する。

http://pc.watch.impress.co.jp/docs/column/kaigai/20091105_326442.html


 明白なのは、NVIDIAはFermiでは、マルチスレッディングのリソースを強化す
るのをとりあえず止めたことだ。GPUに搭載する新たなSRAMを、レジスタではな
く、シェアードメモリやキャッシュに振り分けた。メモリ階層を厚くし、レイテ
ンシの短いオンチップメモリを活用させることで、効率を上げようとしている。


http://pc.watch.impress.co.jp/docs/column/kaigai/20100729_383968.html

 ちなみに、旧来のGPUでは、スレッド数を増やすことは、メモリアクセスレイ
テンシを隠蔽することが主目的だったが、今回は違う。Wavefront当たりの、割
り当てユニットの粒度を減らすことが主目的だ。メモリレイテンシについては、
AMDも、NVIDIAと同様に、内部メモリを増やすことで、レイテンシを短縮する方
向へと転じた。ちなみに、CPUのキャッシュは時間的局所性を利用するためだ
が、従来のGPUのキャッシュは空間的局所性に寄っていた。これもAMDは変えつつ
ある。

投稿: mkubo | 2013年2月13日 (水) 23時48分

>積層で数百GB/sの帯域が出せるなら、CPUのL2キャッシュとかSPUが乗るとしてLSを外して組めばかなり小さくなるなぁと夢想しました。

帯域幅はいいですが、レイテンシが厳しいです。
SPEのLSのレイテンシは数サイクル程度ですが、DRAMのレイテンシは数百サイクル以上です。
数サイクルならパイプラインでレイテンシを隠蔽できますが、キャッシュなしでレイテンシが数百サイクルあると性能もそのまま1/100以下に落ちてしまうでしょう。

L2キャッシュに載せるとしても数十サイクル程度なのでやはりLSなしだときついです。

現在のIntelやAMDのCPUは演算性能的にはCellに負けてないのですが、L1キャッシュの大きさではCellに完敗です。(Intel-L1キャッシュ:64KB LS:256KB。CellのLSはデータの出し入れを完全にマニュアルで行う大容量のL1キャッシュだとみなせます。)

なので、Cellの優位性はL1キャッシュに比べて大容量のLSにこそ存在するといえます。
CellからLSを外したら全然性能の出ない平凡なCPUになってしまうでしょう。

投稿: | 2013年2月14日 (木) 17時31分

>なので、Cellの優位性はL1キャッシュに比べて大容量のLSにこそ存在するといえます。

ですね。PS4にはやはりSPE抜きでは考えられないですね・・

それにしても、キャッシュメモリは万能だと思い込んでいる方々が結構多いですね・・

投稿: mkubo | 2013年2月15日 (金) 01時03分

本来、メモリ帯域は処理性能と同じ数字単位なのが理想的だとどこかで見た事があります。
だから現状の最新GPUでもメモリ帯域は全然理想には届いていない、という事になりますね。
そう考えるとPS4のメモリ帯域はサクッと1TB/s以上は行って欲しいとこですけど。
少なくとも噂されるGDDR5/2.5D積層(HBM?)はぜひとも実現してほしいですね。
とりあえず、PS4はまこ8リークよりも以下のリークの方を重要視しようと思います。


PS4最新リーク
■次世代CELLについての特許
1)DMAコントローラを持ち サブプロセッサはCELLSPUのローカルメモリより
大きなメモリを持つ
2) CPUとサブプロセッサの様々な命令セットの特許
3) いくつかエミュレーションをどう達成させるかについて記載
http://www.freepatentsonline.com/20130027392.pdf

■HSAファウンデーションにソニーが参加
・ソフトウェア開発環境 IBMが協力
・ハードウェア環境 AMDが提供
・ソニー自身がHSA(異種混合GPGPU企画化団体)へ加盟
http://www.fudzilla.com/home/item/30278-hsa-foundation-gets-few-more-members:

■AMD GDDR5積層メモリ2.5Dを4GB搭載(GTX680より数倍あるメモリ帯域)
http://www.electroiq.com/blogs/insights_from_leading_edge.html
http://i.imgur.com/48WZ7je.jpg

■タッチパッドコントローラー
http://www.destructoid.com/ul/244985-what-the-hell-is-this-the-new-playstation-controller-/caca-620x.jpg

投稿: RM | 2013年2月20日 (水) 18時04分

この記事へのコメントは終了しました。

トラックバック


この記事へのトラックバック一覧です: PS3と現行PCの帯域幅について比較してみた:

« 2月20日(現地時間)、SCEがPS3後継機を発表か | トップページ | Xperia Zゲットしました »