PowerPC Macって良かったの?
■ このスレッドは過去ログ倉庫に格納されています
G3〜G4あたりとか
同時期のインテルPCと比較してベンチスコアとか良かったんだろうか >>138
いや、皆忘れているかもしれないがハゲ復帰後も、最初のiMacブームが終焉
した後はかなりやばかったぞ
でiPodが出てiTunesが出来て... これだって十分な収益を出すまで時間がかかったし、
それにこういうガジェットもともかくコンピュータのラインナップはどうなるのかと
で自分はその低迷期に株を買ったんだけどね。ほぼお布施のつもりで
でもiPodで調子がよくなった頃売っちゃった。せめてiPhoneが出るまで待てれば
それでも倍率としては結構儲かったけど、総額が大したことはなかったのでねw G4は看板倒れでG3の方が速くてG5も爆熱て思ったほど速くなかったなぶっちゃけintelには遠く及ばない感じ
OS Xも最初期はお世辞にも速い快適とは言えなかったと言うかクソ重かったアップデートの度に速くなる!とか変な感じで賑わってた >>141
>OS Xも最初期はお世辞にも速い快適とは言えなかったと言うかクソ重かったアップデートの度に速くなる!とか変な感じで賑わってた
正直、10.4 位まではpublicβでしょ>>OS X G4Cubeはありだが、ピザボックスはなしか?
PM6100はでかすぎるが、それは光学ドライブのせい
Mac miniがLCVのデザインで出たら欲しい
ついでにその上に載せられる小さめのRetina4K(WQUXGA:3840×2400、14インチパネルはある)、回転式のポートレートディスプレーも出して欲しい >>143
6100は会社にプロトタイプがあったが(当時のデベロッパーの所にはほとんどあった
はず。発売前のPPCのデベロッパー向け開発機だからな)、無駄にでかかった印象。
筐体の一部に旭日旗みたいな印刷がされていた。10年くらい前に破棄された
けど、欲しいとも思わなかった。
PowerMac発売の半年くらい前にそれとは違うプロトタイプのお披露目があって、
デベロッパーがソフトを持ち寄ってテストさせてもらえた。PPCネィティブの開発
環境なんてないから68kソフトでテスト。エミュレータが酷く遅かった印象だな。 LC475持ってるけど例に漏れず電源が弱くて死んでる 単なる速い、遅いとは違う話をしてみようか。当時はいわゆるCISC、RISCということを
よく言われた。IntelはCISC、PowerPCはRISCであると。それはアセンブリを見ると分かる。
PowerPCは、RISCで命令長が常に32ビットだから、命令のオペランドに32ビットの値を
指定できない。なので32ビットの値をロードするときは16ビットずつ2回の命令で行う。
面倒な感じもするが、一つ一つの命令をシンプルにして高速化を、というのがRISCだから
そうなる。そしてこのコードサイズは32ビットx2=8バイトになる。
一方CISCなIntelは命令が可変長で、32ビットの値を指定できる命令もあり、それは5バイト
の長さになる。こんなこともあってPowerPCの方がバイナリーのサイズは大きかったかも。
しかし、歴史が示したところによると、実際のCPUの速さは、単に命令セットがCISC、RISC
という以外の面もでかい、ということになったわけだが。
今流行り(?)のARMは... RISCである。なのでこちらも命令が固定長なんだが、32ビットの
値をロードする命令は... これがPowerPCとはまた違う。CISCとRISCの合いの子のような
感じもある。CPUって、面白いですね。 どうせ今はRISCだろうとマイクロアーキテクチャの工夫で
定数ロードと思しきものを見るやデコード段で複数の命令を結合して
内部命令としては1命令になるのでISAレベルで議論しても無意味なんですけどね >>150
まあそれはそうだが... あまりISAレベルと実体が違うとデバッグとかやりにくいような。
前にARMのディスアセンブルを見たら、32ビット即値のロードはメモリ上に値を置いて
相対アドレッシングでやってた。1命令なのはいいが実際にメモリのアクセスを
してたらストールしうるし、内部では全然別のことをしてるんだろうか。
しかしソフト側から見たら、そのアドレスにある値の意味は、という。 要するに16bit即値ロード+シフトして上位に16bit即値ロードみたいな2連続の命令があると
そいつらはデコードで32bit即値ロードの1内部命令になるって話だ
もちろん結合を期待して2命令を使うかリテラルプールを使うかは最適化ターゲットで勝手に決めてくれるのが今のコンパイラだ
https://github.com/llvm/llvm-project/blob/main/llvm/lib/Target/AArch64/AArch64MacroFusion.cpp#L400 >>153
おお、llvmってこんな感じなんですね。
デコーダが最適化するからコンパイラは「素直」なコードを吐いとけ(べき)、みたいな?
そういえばCISC vs RISCからの、最適化をソフト側でやるかハード側でやるか? みたいな
話があったような... あれは結局 >>153
おお、llvmってこんな感じなんですね。
デコーダが最適化するからコンパイラは「素直」なコードを吐いとけ(べき)、みたいな?
そういえばCISC vs RISCからの 最適化をソフト側でやるかハード側でやるか? みたいな
話があったような... あれは結局 コンパイル時よりも実行時の情報を使った方が最適化をかけやすく今はトランジスタも余り気味だから
ハード側をリッチにしてハードに任せるのをよいとするのがここ20年ぐらいの商用CPU
命令レイテンシを隠蔽するためにコンパイラはループを展開してソフトウェアパイプライニングしろ、と言われていたのが
分岐予測とレジスタリネーミングでループ間の依存関係は解消されるからループ展開の必要なし、むしろデコード済み命令キャッシュの利用効率が悪化するからするな
と最適化マニュアルに書かれるようになった
もちろん今でもそういう「演算回路以外の」ハードウェアにトランジスタを割くのは無駄だという考えもあって
動かすプログラムをソフトウェアスケジューリングで完璧に最適化する前提で効率を追求する人達もいる
科学計算向けに用途を限定した超メニーコアCPUなんかを設計する人はこういう考えが多い G3に二次キャッシュがついたあたりは夢のような速さで盛り上がったな
G3/233Mhzとかあのへん G3のポリバケツじゃないなポリタンク使ってたけどな、DTPの仕事で
良いも悪いもないだろう、それしか無かったが?
他に選択肢無かったのだからそれ以上でも以下でもないだろ
当時いろいろ苦労して使ってた。それだけな 仮にアポーが1994年にPowerPC601とPentiumを同時に併売してたら・・・
仮にアポーが1996年にPowerPC604とPentiumProを同時に併売してたら・・・
仮にアポーが1998年にPowerPC750とPentiumII・Celeronを同時に併売してたら・・・
ユーザーは3回とも後者を選ぶだろ。 >>160
SIMDユニットね。確かにマルチメディア系の処理が速くなってうれしかった
iTunesのCD読み込みとか、FCPの書き出しとか
Apple主導で割と目立つ名前を付けるという流れだよね。FireWireとかも
ま今でもThunderboltとかRetina Displayとか似たノリかもしれん 最近のメディアエンジンてベロシティエンジンの直系の流れを感じる 604とかG3やG4が発売されてしばらくは、インテルPCに対して一応のアドバンテージはあった記憶がある。
3DCGのレンダリングとか、ちゃんと速かった。極短い期間だけだけどね。
604のデュアルとか、レンダリングさせる分にはシングルの1.8倍くらい出てた。 G4のVelocity Engineがホントに無意味だった。
もっと簡単に扱えるようになってれば良かったんだが。 >>167
Velocity Engine自体はいわゆるSIMDというやつでそれ以上でも以下でもない。基本的には
まあ直接呼ぶにはアセンブリを書かないといけないし、
Velocity Engineを内部で呼んでくれるような各種データ処理のライブラリとかが欲しかったとか?
ある程度はなかったっけ AT&TのDSPで懲りなかったのかApple、と当時思った 概ね、モトローラの所為。IBMは乗り気でなかった。
斯くして、歩留まりの悪さによるチップ不足により、PowerMac G4はラインナップ全体のクロックダウン化という事態に。
勿論、お値段は据置き。Appleの真骨頂といえよう。
クロックの停滞はその後も尾を引き、まだクラシックOS時代にもかかわらずマルチプロセッサモデル投入で取り繕ったりしている。 >>169
当時音声や動画の処理が盛んになってきてたわけだし、悪くはないと思う(った)けどね そもそもx86にはAltiVecより先にMMXがあったわけで
CPU内蔵のSIMD拡張命令は遅かれ早かれ追加される流れだった
DSPで懲りなかったのかというのは意味不明
初期G4のクロック問題はマイクロアーキテクチャをG3からほぼ変えなかったことと
Motorolaの銅配線プロセスが成熟しなかったことが原因であって
AltiVec自体が問題を引き起こしたわけではない 結局G5にも使われたしPOWERにまで使われたしね デベロッパーの支持を得られた「流れ」と、得られなかった「流れ」。
懲りなかったわけだ(笑) >>168
一応、あったけど、使い難くてVelocityEngineを活用してたデベロッパーなんて
ほとんどなかっただろ。俺もMultiple Alignmentに利用したかったんだが、
面倒くさくて諦めた。 コンパイラの-faltivecフラグで全命令にアクセス可能な組み込み関数が使えたし
それで足りないという向きにはvecLibやvDSPがある (今でもメンテナンスされている)
x86のMMXやSSE、ARMのNEONが面倒くさくなくてPPCのAltiVecだけ面倒くさいとする蓋然性がない 支持されたか
支持されなかったか
結果が全て。
面倒でも見返りが期待できるなら支持されるし、
簡単でも見返りが期待されないなら支持されない。
PowerPCのシェアがx86並にあるなら何やっても許されただろうけどw 当時よーしAltiVecで数値計算やっちゃうぞ、と思ったのだが、AltiVecでは浮動小数点は
32ビット単精度しかサポートしておらず、数値計算には精度不足だった
G5が出る時に本体が64ビットになるならもしや、と思ったが変わらず
一方Intel陣営はSSE2で64ビット倍精度浮動小数点をサポートした JapaneseIM.appがAVXを要求するのが解せん。
計算とは縁がなさそうな。 >>179
macpro5.1でCatalina~Montereyまで使っています。
Catalnaを使った時感じた事ですが、AVXを必要に
する事で、macpro5.1をサポート外にしたかったので
はと考えています。
実際、JapaneseIM.appを使わなければ、問題無く
Montereyまでを使用出来る環境を構築出来ます。
Catalinaの公開時期にmacpro2019が発表された事も
関わってくるのではと感じます。 >>178
G5は素のFPUがFMAx2パイプだったから
128bit1パイプのまま倍精度対応したところで性能上がらないからね x87は速い時期にコンパイラが自動的にsimdを使うようにならんかったっけ? SIMDは使わないがSSE/SSE2にはベクタレジスタの1要素のみで演算するスカラモードがあるので
x87の代わりに使うようにするスイッチはあった (x86-64では標準化) powerpc が終わったのはk6-2やathlonのせいだろう
インテルはやたらとぼったくったのでアップルもぼったくり商法でやってこれた
しかしAMDがk6-2をたたき売りしたため10万円パソコンがやたらと高性能になった
浮動小数点は弱かったがオフィスはサクサク動くほどになってしまったので
マックは一気にビジネス市場を失い、出来たのがG4と言う浮動小数点特化マシン
いまだにAMDは安く整数計算性能の高いCPUを出す傾向があり
アップルがAMDを毛嫌いするのもその廉価思考のせいだろう PowerPCの性能がIntelより悪かった
最初は良かったが追い越された G3はそうでもなかったが、G4から発熱が凄かった。水冷G5なんか俺の買ったのは
ハズレ個体でスクリーンセーバーが起動しただけでファンがうなり出し、うるさくて
たまらなかった。常に90℃以上で、いつ壊れるか気が気でなかった。
Mac Proに買い替えたら静かになったし、発熱も小さかった。 アルミPBG4の12インチ1.5GHzが現役だよ
使うとあっという間にボディアチアチだから壊れそうに思ってたけど
スペアともども絶好調。熱くなるのが逆によかったのかね
G3のibookは2台ともすぐ壊れたからマジ意外だった Nubusの頃かなPowerPCすごいって言うから試してみたら全体にモッサリしててこれで狭いのかよインテルに勝とうってのかくらいの印象でしたわ。特にネットワークはひどく遅かったしDebianいれて遊んでたらこっちの方が全然速くてワラタわ。フレンドリーではあるがクソ過ぎても痩せ我慢してたんだなwwww osがあまりにも遅かったんだよね結構メモリもいれていたのに。 ■ このスレッドは過去ログ倉庫に格納されています