【最適化】PerfectDisk Part15【デフラグ】 [転載禁止]©2ch.net

1名無しさん@お腹いっぱい。2015/08/06(木) 12:56:01.07ID:O7NJ4m/E0
前スレ
【最適化】PerfectDisk Part14【デフラグ】
http://anago.2ch.net/test/read.cgi/software/1332014473/


Net Japan版は日本語化に非常に時間をかけるため、本家Raxco版がアップデートされても
同内容のfixを施した日本語版アップデートバージョンが出るのは数か月後になります
どうしても待てないという人は本家から購入して、translationファイルだけをNetJapan版の
トライアル版から拝借しましょう
PD11のProなら拡張子.translationのファイル7つ全部と、PD11-JP-Help.chmとqt_JP.qmを
PerfectDisk.exeのあるディレクトリにコピーするだけです

272名無しさん@お腹いっぱい。2018/05/21(月) 17:15:18.08ID:1YqSbwYS0
PD14は特に自動でフラグとOptiWriteをONにして
週に2回程度(日曜と木曜のようにバランスよく)設定しとけば後はもう放置しとくだけで何もやることないだろ
OSのデフラグで十分みたいな事を暗にレスしてる>>267は論外として

273名無しさん@お腹いっぱい。2018/05/21(月) 23:41:09.18ID:FpTjXYgb0
SSDにSmartPlacementしてから空き領域を結合して
その後にSSDドライブの最適化をしています
定期的にシステムドライブのバックアップもしていますから
いつ壊れたって屁でもありませんよw

274名無しさん@お腹いっぱい。2018/05/22(火) 17:58:52.93ID:YfbZqdKO0
なんぼやってもSSD ドライブの最適化の実行を推奨します。言われるんだが?

275名無しさん@お腹いっぱい。2018/05/22(火) 19:09:54.84ID:g6iPIB9R0
SDDでやりすぎると壊れやすくなるぞ

276名無しさん@お腹いっぱい。2018/05/23(水) 04:04:50.78ID:R/ZjwpZS0
>>271
ゴミ箱削除時のTrimはゴミ箱から削除されるファイルのみに対して行われるのですか?

277名無しさん@お腹いっぱい。2018/05/23(水) 08:22:22.39ID:ntUc4O/M0
このソフトまだあったの?

278名無しさん@お腹いっぱい。2018/05/23(水) 18:56:35.74ID:R4zN9z7v0
SSDはどんなに断片化してもアクセスが早いからデフラグが不要なのか
それとも、デフラグするとすぐ寿命が縮まって死ぬからやらない方がいいのか
どっちなんだ

279名無しさん@お腹いっぱい。2018/05/24(木) 13:38:02.48ID:jPnZXfnO0
>>278
@物理的な記憶位置が固定しないからデフラグが無意味
Aセルに対する書き込み回数を均一化するため、必ず断片化する
B @の理由で意味ないしデータの移動の分だけセルの書き換え回数を消費する


速さの問題じゃない 断片化しにくい状態に戻すには書き換え回数が均一な状態で、SecureErase後でないと
再度書き込むときに(ウェアレベリングの影響で)またすぐに断片化する

1度使ったら、断片化は避けられない

それとHDDみたいにヘッドが動いたりしないから、HDDほどには影響少ない

280名無しさん@お腹いっぱい。2018/05/25(金) 07:55:18.20ID:Hg0lRIiE0
面倒だから簡単にしか書かないけど、断片化しているように見えているのは
Windowsで扱う際のファイルシステムで取り扱っている仮想化されたハードディスク上での各セクタの話しです
ファイルの読み書きの際にアクセスするファイルシステム上での最小転単位はクラスタです
これは、標準のNTFSファイルシステムでフォーマットしている場合には、
連続しているセクタ上での8セクタ分4096バイトなどを1回分の読み書きする際の単位としてファイルシステム上で扱われます
ですから、どんな小さなファイルだったとして4096バイト分はファイルシステム上で消費されて扱われます
これはSSDでも当然同じ考えで、
SSD内のファームウェアが中間アドレス変換テーブルを介してSSD上の各ブロック内の1ページに対応させてアクセスしています
ですからOS上やSSDのツールからTrimが発行されても、その1ブロック内の全てのページが未使用状態と判断されないと
そのブロックはクリアされずに空きブロックにはできない事になります
空きブロック上への書き込みにならない場合には、(ここは各自で調べて貰う事として)
そのブロック内でファイルデータとして使用されているページは残したままで
利用していないページへの書き処理をしなければならないので処理速度が少し非効率になります

ここからは、説明サイトでは非公開の内容になりますが、
あるファイルがSSDの1ブロック内で連続している各ページに順に割り当てられていて
またファイルシステム上で扱われている連続したクラスタに一対で対応していれば一度で処理できますので、
その分少し処理速度が効率的になる事になります
これを踏まえた上でデフラグの意味を考えてみるといいかも知れません
またデータサルベージする場合には、ファイルデータがブロッククリアされてしまっていない事が前提条件になりますが、
MFTが既に破壊されてしまっている状態だった場合には、
連続したクラスター領域にファイルがデフラグされて綺麗に並んでいた方が復元率が高くなる現実もあります

281名無しさん@お腹いっぱい。2018/05/25(金) 09:11:03.69ID:Hg0lRIiE0
http://ssd比較.com/?p=1189

現在のSSDではここまでの速度低下は起こらないと思いますが、
基本的な考え方は間違っていないし、SSDの各ブロックとその内部の1ページに関して説明してある部分は参考になると思います
各自でSSDのデフラグのロジックに対する効果を理論的に考えてみてください

282名無しさん@お腹いっぱい。2018/05/25(金) 10:17:04.03ID:V6eqANTo0
50%offセール来たぞ

283名無しさん@お腹いっぱい。2018/05/25(金) 13:34:41.33ID:RLZs4uwL0
>>280
ssd側もそういうのを考慮して論理セクタと物理セクタをマッピングしていくから、1つのページ内に立った1つだけ使用されてるセクタがあるために、
そのページをtrimできないというのは、そういう状況が起こりにくいようにssdは論理セクタと物理セクタのマッピングする。

具体的にはそのページを消去したほうがいいと判断すれば、使われてる1セクタのデータを他のページに書き込み、そのページはまるごと消去する。

物理的に連続してたほうがわずかながらデータの読み込みが早いというのはそのとおりで、デフラグのメリットを敷いてあげるなら、その1点だけだと思う。

しかしそもそもssd読み出しは非常に早く、むしろ最近はsataやpcieの帯域がネックになるぐらいだから、デフラグはいらないと思う。
もうssd側に任せるべき。trimコマンドで「そのセクタのデータはもう使ってない」という情報を与え、あとはssd側が賢く処理してくれることを期待すべき。

284名無しさん@お腹いっぱい。2018/05/25(金) 15:44:26.57ID:8f6xLscl0
>>282
デフォルトでチェックが入ってる「PerfectDisk Pro Maintenance \778」って
何なんだろうね

「1-Year Technical Support and Upgrade Protection」
→「1年間の技術サポートとアップグレード保護」だそうだけど

これを一緒に払っとかないと、小規模アップデートが受けられないとか
アップデート発生の知らせも受けられないとかだと確かに困るな

米国人スタッフ常駐サポセンとのメールやり取り権利(1年間有効)程度なら
いらんが

285名無しさん@お腹いっぱい。2018/05/25(金) 15:51:10.37ID:8f6xLscl0
すいません、\1,297でした

286名無しさん@お腹いっぱい。2018/05/25(金) 16:42:34.15ID:Hg0lRIiE0
>脱字等がありましたので正しい意味で分面が捉えられないかも知れませんので再投稿しておきます

面倒だから簡単にしか書かないけど、デフラグソフトのドライブマップグラフ表示で断片化しているように見えているのは
Windows OSで扱う際のファイルシステムで取り扱っている仮想化されたハードディスク上での各クラスタの配置です
ファイルの読み書きの際にアクセスするファイルシステム上での最小転送単位はクラスタです
これは、標準のNTFSファイルシステムでフォーマットしている場合には、
連続しているセクタ上での8セクタ分4096バイトなどを1回分の読み書きする際の単位としてファイルシステム上で扱われます
ですから、どんな小さなファイルだったとして4096バイト分はファイルシステム上で消費されて扱われます

これはSSDでも当然同じ考えで扱われていて、
SSD内のファームウェアが中間アドレス変換テーブルを介してSSD上の各ブロック内の1ページにそれざれ対応させてアクセスしています
ですからOS上やSSDメーカーのツールからTrimが発行されても、その1ブロック内の全てのページが未使用状態と判断されないと
そのブロックはクリアされずに空きブロックにはできない事になります
空きブロック上への書き込みにならない場合には、(ここは各自で調べて貰う事としてSSDでの書き込み処理速度の要です)
そのブロック内でファイルデータとして現在使用されている各ページは残したままで
利用していない事になっているページへの書き込み処理をしなければならないので処理速度が少し非効率になります

287名無しさん@お腹いっぱい。2018/05/25(金) 16:42:57.45ID:Hg0lRIiE0
ここからは、SSDの説明サイトなどでは非公開の内容になりますが、
あるファイルがSSDの1ブロック内で連続している各ページに順に割り当てられていて
またファイルシステム上で扱われている連続したクラスタに一対で対応していればシーケンシャルに一度に処理できますので、
その分少し処理速度が効率的になる事になります
これを踏まえた上でデフラグの意味を考えてみるといいかも知れません
またデータサルベージする場合には、ファイルデータがブロッククリアされてしまっていない事が前提条件になりますが、
MFTが既に破壊されてしまっている状態だった場合には、
連続したクラスター領域にファイルがデフラグされて綺麗に並んでいた方が復元率が高くなる現実もあります

288名無しさん@お腹いっぱい。2018/05/25(金) 16:45:42.60ID:Hg0lRIiE0
>SSD内のファームウェアが中間アドレス変換テーブルを介してSSD上の各ブロック内の1ページにそれざれ対応させてアクセスしています

SSD内のファームウェアが中間アドレス変換テーブルを介してSSD上の各ブロック内の1ページにそれぞれ対応させてアクセスしています

289名無しさん@お腹いっぱい。2018/05/25(金) 17:12:33.77ID:V6eqANTo0
>>284
1年以内に次のバージョン(15)が出た場合無償になる
実際は778円払っているけど
http://anago.5ch.net/test/read.cgi/software/1332014473/574

290名無しさん@お腹いっぱい。2018/05/25(金) 19:05:50.36ID:8f6xLscl0
>>289
その程度の恩恵の違いなら、払うのは止めといた方がいいですね

291名無しさん@お腹いっぱい。2018/05/26(土) 08:56:04.37ID:aSdk+EeN0
SSD内部の各ページの配置順序は調べようがないので検証できないんだけど、
綺麗にデフラグしたものをシステムバックアップしてから
Secure Eraseした後にシステムリストアすればSSD内部で使用されている各ページは
シーケンシャルに仮想ハードディスク内のクラスター配置に準じて整列されて割り当てられるんじゃないかと想像するんだけど
詳しい方々はどう思いますか?

292名無しさん@お腹いっぱい。2018/05/26(土) 09:09:07.40ID:08BdDhSe0
なにがしたいんだ
こんなところで長文だらだらと書き綴って

293名無しさん@お腹いっぱい。2018/05/26(土) 09:35:15.74ID:aSdk+EeN0
SSDをデフラグした際の効果について
どの程度の知識を持った人達がいるのかを確認したくて・・・
同一ブロックに何度も書き込むことは消耗度合いを避けるためにも、
シーケンシャルな書き込み時には一度の書き込みで済むようなロジックになっているはずですよね?

294名無しさん@お腹いっぱい。2018/05/26(土) 09:49:00.66ID:aSdk+EeN0
スレを遡って確認してみましたが、
そんな大した詳しい論議までされている方々はいなかったようですね
ただひたすら消耗度合いが増すだけだからやらない方がいいってだけで・・・
一度のデフラグで各ブロックに一回の書き込みが発生したぐらいで問題視する必要もないと思うんですよね
一つのブロック内の各ページ全てにデフラグ作業が毎回上書きしているようだと
確かに頻度によってはセルの消耗度合いは増すかも知れませんけど、
実際の効果は理論的にはどうなんですかね?

295名無しさん@お腹いっぱい。2018/05/26(土) 10:45:48.40ID:at3igHlh0
不連続なファイルを連続させるだけのデフラグなら、そんなに負担にならないだろうけど、
なるべくフラグメントが起きにくいように、空き領域を詰めるデフラグもするじゃん。
その場合、毎回ssdにとっては不要な書き込みが生じるわけで。

ファイルシステムれえるの話をすれば単純なファイルコピーなら、
よほど空き領域が足りない場合でなければ、連続した領域に配置される。
問題はブラウザのキャッシュとかファイルサイズが確定しないファイルの書き込み。
まあ最近のhttpはファイルサイズも分かるはずだから、最初にそのサイズ確保すれば
フラグメントしないはずだけど、なぜかブラウザのキャッシュファイルはフラグメントしてるものが多い。

しかし気分が悪いというだけで、いずれにせよ不連続性による速度低下は
ほとんど問題にならないはず。

296名無しさん@お腹いっぱい。2018/05/26(土) 11:08:11.67ID:at3igHlh0
>>281
> http://ssd比較.com/?p=1189

この記事は2011年のだよね。あれからssd側の処理は大きく進歩した。
ssdのことはssd自身に任せるのが一番。
ただ「そのセクタのデータを使ってない」という情報はssdはわからない
(ファイルシステムは不要になったセクタをわざわざ0で埋めるとかしない)から、
それだけはssdに伝える必要があって、それがtrimの処理。
それさえssd側に知らせれば、あとはssdが善処してくれる。

あと秋両機が20%の状態というのもね…。
そしてこのベンチはわざとフラグメントを起こさせるツール「デデフラグ」を
使ってテストしてるから、通常の使い方じゃない。

297名無しさん@お腹いっぱい。2018/05/26(土) 12:44:47.60ID:yR7Umn+L0
全くの未使用領域への一発目の書き込み以外
SSDのファームウェアが満遍なくばらけさせちゃうから
デフラグする意味ほとんど無いんでしょ
デフラグしてOSから見て連続してるように見えるようになっても内部的にはバランバランなわけで

298名無しさん@お腹いっぱい。2018/05/26(土) 14:28:43.65ID:aSdk+EeN0
SSDはガベージコレクションとかをしてあちこちのブロックからページ移動を頻繁に行うので
一つのブロック内で一つのファイルに対して整然とページ配列保存をしていても無意味という事でいいですか?
ではファイルの上書きで一つのブロック内に全てのページに対してじゃなく複数のページ書き込みが発生したら
セルの消耗を避けるためにもそのブロック内には書き込まずに、
使用していた各ページはファーム側の管理テーブルだけを未使用状態にした上で
クリアになっている他のブロックを使用してシーケンシャルに(それぞれに対して複数回ではなく)
一度でまとめて各ページに書き込み処理すると考えればいいですかね?

299名無しさん@お腹いっぱい。2018/05/26(土) 15:00:45.55ID:at3igHlh0
ssdというのは、たとえるなら最初は0が書かれていて、それを1や3などにすることは簡単にできる。
しかし一度1や3にした場所を5とか6に変えることはできない。
その場合そのページを丸ごと0にして、あらあためて5や6を書き込む。

だから丸ごと0が書かれてる状態のページには、どんなデータでも、順不同で複数回書けるわけ。
わざわざ物理ページをバラバラに書き込む必要ない。
というかそんなことをするとリードが遅くなって不利。

300名無しさん@お腹いっぱい。2018/05/26(土) 15:03:21.80ID:at3igHlh0
んでこの「ページを丸ごと0にする」処理の回数に上限がある(いわゆる寿命)ので、
なるべくこれが起きないように、起きるならどのページも均等に起きるようにする。

301名無しさん@お腹いっぱい。2018/05/26(土) 19:19:26.15ID:vCUeWFu+0
少しググってみた参考文献

SSDの現状とチャンス
https://pc.watch.impress.co.jp/docs/column/hot/153772.html

http://www.snia-j.org/tech/WH/SSD/files/SSD_Performance-A_Primer_J.pdf
*この記載内容からすると、SSD内のマッピングテーブルも断片化するそうである
だとすると、使いっ放しじゃなくある程度の期間でシステムバックアップしてから
Secure Erace後にシステムリストアした方が速度低下は抑えられるんだと思います

302名無しさん@お腹いっぱい。2018/05/26(土) 23:21:45.72ID:at3igHlh0
>>301
1番目のは2009年でかなり古い。たとえばSLCとMLCについて語られてるけど、
いまや主力は1個ずれてMLCとTLCだよね。SLCが一番早くTLCが一番遅い。
しかし容量的にはTLCが一番有利なので、最近のSSDの大容量化を支えてるのはTLC。

逆にTLCの遅さをいかにカバーするかが技術の見せ所。なのでとりあえずデータをSLCとして
書き込んでおいて、暇なときにこっそりTLCの部分に書き写すとかの技法も使われる。
だから2009年の記事ほど現在のssdは単純ではない。というか外からはもはやssdが
やってることを追いかけるのは不可能。

> *この記載内容からすると、SSD内のマッピングテーブルも断片化するそうである

これは記事の日本語の表現だと思う。確かにそう書いてあるけれど、
マッピングテーブルそのものが断片化するのではなくて、
マッピングが断片化している場合のことを言ってるんじゃないかと。

> Secure Erace後にシステムリストアした方が速度低下は抑えられるんだと思います

そりゃその方が論理セクタも物理セクタも断片化が最小になる(ゼロになる)から、
速度的には有利だけど、それが「見合う」ほどのものか?が問題。
だって1回ほぼすべてのセクタに対して、書き込み回数が減る(寿命が縮む)わけで。

secure eraseも当然だけど寿命の1回分を消費するんだよ。

303名無しさん@お腹いっぱい。2018/05/26(土) 23:27:37.10ID:at3igHlh0
secure eraseがーと、よく言われたのはまだssdが出始めの頃だよね。
trimもなかったから、ssdはそのセクタが使われてるか使われてないか判断できなかった。
trimによってそれが可能になった。それ以外もssdも賢くなったし。
だから昔ほどsecure eraseは重要ではなくなった。

まあいまも効果はゼロではないとは思うけどね。手間や寿命に見合うか?
俺は否定的だけどね。ただ結局はどういう使い方をするかで変わるから、
「こうだ」という一つの答えはない。

304名無しさん@お腹いっぱい。2018/05/26(土) 23:39:44.82ID:aSdk+EeN0
http://jp.fujitsu.com/platform/server/primergy/performance/pdf/wp-solid-state-drives-faq-ww-ja.pdf
冒頭の部分だけでも目を通すとSSDに対しての正しい知識が身に付くかも知れません
デフラグスレでも正しい知識を浸透させたいと思います

305名無しさん@お腹いっぱい。2018/05/27(日) 00:00:29.66ID:yV+QhFXK0
一つ付け加えておくとOS側で発動するTrimは、削除されたファイルが使用していたクラスタを
SSD側のファームウェアに全て教えて、該当するブロック内の1ページを未使用としてマークするだけで
そのブロック内に使用しているページが残っている場合には瞬時にはブロッククリア作業はしないそうである
その後のガベージコレクション作業によって空きブロックを新規に作り出すことになります

一方SSDメーカーて提供しているTrimツールは、ファイルが削除されて未使用クラスタになっているものを
SSD側のファームウェアに全て伝えてから、ガベージコレクションを踏まえた作業を促すようです

306名無しさん@お腹いっぱい。2018/05/27(日) 09:48:26.74ID:emhWgC5l0
要約してくれ

307名無しさん@お腹いっぱい。2018/05/27(日) 11:23:35.24ID:yV+QhFXK0
SSDとして内容を説明します
SSDは、中間に管理テーブルを持っていてそれを介して各ファイルをMFTを介して定義された仮想ハードディスク内の
各セクタとSSDの物理セクタを関連づけています
標準のアロケーションでフォーマットした場合を例にして説明しますが、
ここで頭に入れておいて欲しいのは、仮想ハードディスク上のファイルシステムは、
連続したセクタ(512バイト)を8個分まとめたクラスター(4096バイト)という単位で管理されていて、
OSからはドライバを介してこの単位でファイルにアクセスしています
これらのクラスターそれぞれ全てに一対一で対応するようにSSDの管理テーブルは、
どのブロックの何ページ目にそのクラスターを割り当ててあるかを規定しています
そして、ファイルを書き替える際にはそれらの割り当てられているページ1つ1つを更新します

これらを理解されていれば、投稿されたURLに記載されている内容は把握できると思います

308名無しさん@お腹いっぱい。2018/05/27(日) 12:42:47.96ID:yGW97dFu0
>>305
osが発行するtrimコマンドもsecure eraseも基本は同じだよ。
osが発行するtrimコマンドは、当たり前だえけど使用されてるセクタに対しては発行されない。
そんなことしたらデータが消えちゃうからね。
secure eraseは全データを消去するツールだから、結果的に全セクタにtrimコマンドを
発行するのと同じになる。

またガーベージコレクションとページの消去がごっちゃになってるように見える。
どのページを消去するのが最適か?を決めるのにガーベージコレクションを行い、
決まったらそのページを消去する。

ガーベージコレクションは一部しか使われてないページのデータをほかのページに移し、
その後そのページを消去うするから、この作業自体が限りある
ssdの書き換え回数の1回分を消費する。

ssdはこの先度のセクタのデータが書き換わるか
わからないので(それはユーザーの使い方に依存する)、
なるべく消去を先延ばししようとする。
せっかく移動したばかりのデータがまた書き換えが必要になったら、
移動による書き換え+ユーザーによる新たなファイルの保存による書き換えで
2回も書き換え回数を消費してしまうからね。

だからssdはできる限り「ぎりぎり」まで消去をしないしガーベージコレクションもしない。
その方が寿命に有利だから。しかし一方で大量のデータが書き込まれた場合、
ガーベージコレクションをしながら書き込むことになり、どうしてもライト速度が遅くなる。
それはユーザーにとって「このssdって遅い」と感じさせてしまう。
だからある程度の大量書き込みの余力を残しつつ、
できる限りガーベージコレクションを先延ばしする。

309名無しさん@お腹いっぱい。2018/05/27(日) 12:46:46.82ID:yGW97dFu0
んでこういう調整が「技術」でありssdの性能を決める。
ssdはssdなりに、最適になるタイミングでガーベージコレクションを行おうとするのに、
それをユーザーがsecure eraseを使って強制的に全ページの消去をしてしまうと、
ssd側のこうした努力が無駄になってしまう。

もちろんsecure eraseをして、退位させておいたファイルを元に戻せば、
誰かが言ってるように、物理ページも連続するから、読み込み速度には有利。
でもその代償として限りある書き換え回数を消費してるわけ。
直接ユーザーからは感じられなくてもね。

一方で物理ページの連続による読み込み速度の向上は確かにゼロではないけど、
書き換え回数の消費と引き換えにするほど、メリットがありますか?という話。

310名無しさん@お腹いっぱい。2018/05/27(日) 12:59:42.11ID:yV+QhFXK0
OS側がファイルを削除した際、瞬時に発行するTrimコマンドは、
そのファイルが使用していたクラスター領域にしか有効でないのは
いろいろなサイトで私も確認しましたし、またサルベージソフトを介して
私も確認しています

311名無しさん@お腹いっぱい。2018/05/27(日) 13:05:23.89ID:yV+QhFXK0
遊びでやっているんですから、多少の寿命は縮んだって問題ではありません
それに、こんな事していたって平気で5年程度は持ちますよ
その頃には新しいSSDに買い換えた方が経済的効率もいいと思いますしね

312名無しさん@お腹いっぱい。2018/05/27(日) 13:57:05.68ID:yV+QhFXK0
ちょうど1年経過したSanDiskのSSDも消耗指数92%残っていますし、
システムリストアもある程度頻繁に実行していますがこの程度です
また、代替ブロックも発生していませんけど、SSDですから突然壊れる可能性もあります

5年経過したIntelのSSDも同じような使い方をして来ましたけど、
消耗指数は88%程度を示していて、代替ブロックは22程度の発生ですが、
購入当初時に結構一度に増えて以来、その後は希に発生する程度で
何の問題もなく機能しています
代替ブロックが増えた際には、システムをバックアップ後にSecure Eraceで対応して
システムリストアでもいいのかも知れませんが、
何かしらの不具合を感じたら気分的にも悪いのでOSの再インストール作業をしています

313名無しさん@お腹いっぱい。2018/05/27(日) 14:43:59.90ID:yGW97dFu0
>>312
逆にSecure Eraseの効果を実感できてるの?
読み込みが遅くなったのが元に戻ったとか、書き込みが遅くなってたのが、元に戻ったとか。

314名無しさん@お腹いっぱい。2018/05/27(日) 15:26:48.66ID:UGjGOJA80
ぶっちゃけそこはRead、Write共に誤差の範疇ですし、
デフラグ後に体感出来るようなものはありませんね
ただ、検証も含めて遊びの範疇ですよ

315名無しさん@お腹いっぱい。2018/05/28(月) 00:52:12.99ID:++2VNmXY0
何様?ww ID:aSdk+EeN0

316名無しさん@お腹いっぱい。2018/05/28(月) 20:37:56.21ID:7RKFpeU10
>>310
俺(>>308)もそういってるはずだけどね。
trimコマンドとsecure eraseが基本が同じ、と書いた部分が伝わらなかったのかな。
あたりまえだけどtrimコマンドはセクタ単位、secure eraseはssd全体が対象なんだから、
消去される「範囲」が違うのは当たり前。「動作」が同じということ。

317名無しさん@お腹いっぱい。2018/05/30(水) 02:21:02.72ID:fJUqpgPg0
素人目には、

「HDD = メガネ、SSD = コンタクトレンズ」みたいなものに思える

コンタクトの方が、視界の縁が歪んだりしないし、何の問題も起きていない時なら
視力が悪くなる前の裸眼に近い感覚で便利に使えてるけど
(出費が割高になるのも許せる気になれる位に有り難いが)

眼球に直接触れてる分、どうしてもドライアイ体質が進行したり、

塵やホコリが少しでも眼球に触れたらレンズ-眼球間の水分まで吸われてカサカサ目
になって痛むは、

沢山かいてしまった汗が目にも入ってしまったら、汗が涙と浸透圧近いもんだから
レンズを着脱したくなっても吸い付いて中々剥がせなくなるわ、

まだまだ万全では無い・・・けど、一度旨味を知ったら、メガネには無い諸々の
リスクを背負い込んでも、あえて使いたくなる

318名無しさん@お腹いっぱい。2018/05/30(水) 17:01:39.01ID:9lMF0Ijg0
その例えで言うならコンタクトやレーシックは怖いから
メガネ、HDDのままでいいわ

319名無しさん@お腹いっぱい。2018/06/11(月) 16:46:41.33ID:K9yuegh10
今思えばDiskeeper12が最高やったわ。

320名無しさん@お腹いっぱい。2018/06/13(水) 13:09:15.29ID:zGCnT2AE0
MicrosoftがRaxco社を買収して、Perfect DiskがOS標準デフラグになってくれるのが

たぶんベストなんだろうな

もしくは特許に触れずして同等のデフラグを開発

321名無しさん@お腹いっぱい。2018/06/14(木) 13:54:39.06ID:Z0wnmHZe0
このソフト自動でデフラグしてくれんの?

322名無しさん@お腹いっぱい。2018/06/14(木) 18:18:22.51ID:IVL/6OZ/0
というか基本は初期設定して自動で快適デフラグライフだ
Windows10のデフォなんか使ってるより圧倒的に快適だぞ当たり前だが
Windows7なら話にならないレベルで良い

新着レスの表示
レスを投稿する