Author Topic: Дефрагментаторов много - какой лучше  (Read 5816 times)

0 Members and 1 Guest are viewing this topic.

Offline Fedor

  • Full Member
  • ***
  • Posts: 186
  • Karma: +0/-0
Пробывал разные дефрагментаторы, но довольно большой выбор. Посоветуйте наиболее оптимальный?

Offline fredina

  • Sr. Member
  • ****
  • Posts: 367
  • Karma: +0/-0
Дефрагментаторов много - какой лучше
« Reply #1 on: February 13, 2007, 22:08:20 »
 чего?

Offline Unit

  • Global Moderator
  • Hero Member
  • *****
  • Posts: 1263
  • Karma: +9/-1
Дефрагментаторов много - какой лучше
« Reply #2 on: February 13, 2007, 22:27:39 »
В последнее время отдаю предпочтение продукту от O&O.

Offline Fedor

  • Full Member
  • ***
  • Posts: 186
  • Karma: +0/-0
Дефрагментаторов много - какой лучше
« Reply #3 on: February 13, 2007, 22:31:02 »
Quote from: Unit
В последнее время отдаю предпочтение продукту от O&O.

Можно по подробнее ?

Offline Unit

  • Global Moderator
  • Hero Member
  • *****
  • Posts: 1263
  • Karma: +9/-1
Дефрагментаторов много - какой лучше
« Reply #4 on: February 13, 2007, 22:31:34 »
O&O Defragmentator.

Offline Diver

  • Hero Member
  • *****
  • Posts: 790
  • Karma: +2/-0
Дефрагментаторов много - какой лучше
« Reply #5 on: February 14, 2007, 08:43:05 »
Diskeeper IMHO лучший.
MCP

Offline MaksT

  • Jr. Member
  • **
  • Posts: 62
  • Karma: +0/-0
    • ithz.ru
Дефрагментаторов много - какой лучше
« Reply #6 on: February 14, 2007, 14:16:29 »
Последняя версия O&O Defragmentator порадовала своей скоростью.
Еще PerfectDisk мне тоже понравился.

Но все же O&O Defragmentator кажется пошустрее будет и плюс к этому несколько алгоритмов дефрагментации в зависимости от использования того или иного дискового раздела.

Offline Слава

  • Jr. Member
  • **
  • Posts: 50
  • Karma: +0/-0
Дефрагментаторов много - какой лучше
« Reply #7 on: February 27, 2007, 05:57:10 »
Где то читал исследование, говорящее, что использование дефрагментатора на NTFS через некоторое время порождает повышенную фрагментацию. Не понял, гон это или нет. Так что выбор - или постоянно дефрагментировать NTFS , или ни разу! К FATам это не относиться...Или у Вас WinFS?

Offline Unit

  • Global Moderator
  • Hero Member
  • *****
  • Posts: 1263
  • Karma: +9/-1
Дефрагментаторов много - какой лучше
« Reply #8 on: February 27, 2007, 15:36:38 »
Невнимательно читали, повышенная фрагментация на NTFS начинается, когда заполнено более 90% всей ёмкости раздела.

Offline Слава

  • Jr. Member
  • **
  • Posts: 50
  • Karma: +0/-0
Дефрагментаторов много - какой лучше
« Reply #9 on: February 27, 2007, 19:25:55 »
Quote from: Unit
Невнимательно читали, повышенная фрагментация на NTFS начинается, когда заполнено более 90% всей ёмкости раздела.
То, что Вы написали, это логично и понятно, а той статье приводился был какой-то более тонкий эффект, вот только непомню, какой. Что-то типа, если алгоритмы распределения кластеров у дефрагментатора и файловой подсистемы windows различаются, тогда получается неожиданное для windows размещение файлов и она начинает неоптимально выделять место для следующих операций. Но это просто пример, там в реальности было что-то другое, причем не теоретические выкладки, а сугубо реальный результат, который и обсуждался...

Offline MART

  • Full Member
  • ***
  • Posts: 105
  • Karma: +0/-0
Дефрагментаторов много - какой лучше
« Reply #10 on: March 02, 2007, 07:35:10 »
Quote from: Слава
То, что Вы написали, это логично и понятно, а той статье приводился был какой-то более тонкий эффект, вот только непомню, какой. Что-то типа, если алгоритмы распределения кластеров у дефрагментатора и файловой подсистемы windows различаются, тогда получается неожиданное для windows размещение файлов и она начинает неоптимально выделять место для следующих операций. Но это просто пример, там в реальности было что-то другое, причем не теоретические выкладки, а сугубо реальный результат, который и обсуждался...
Просто при заполнении диска NTFS более чем на 88% (точный процент не помню) начинается необратимая фрагментация NMT области диска, под которуй при создании резервируется 12% объема.
Штатный дефрагментатор Windiows данную область не дефрагментирует.
« Last Edit: March 02, 2007, 07:36:05 by MART »

Offline Eugeny

  • Newbie
  • *
  • Posts: 1
  • Karma: +0/-0
Дефрагментаторов много - какой лучше
« Reply #11 on: May 12, 2007, 19:24:02 »
Извиняюсь за длинный постинг(сам в данный момент в поисках лучшего дефрага), просто в моих архивах есть данная статья, а ссылка на данный момент не рабочая. Из нее подчерпнул много интересного:

Фрагментация NTFS.
Или факты, которые Diskeeper 'забывает' нам рассказать...

  В самом начале утверждалось, что NTFS не подвержена фрагментации файлов. Это оказалось не совсем так, и утверждение сменили - NTFS препятствует фрагментации. Оказалось, что и это не совсем так. То есть она, конечно, препятствует, но толк от этого близок к нулю... Сейчас уже понятно, что NTFS - система, которая как никакая другая предрасположена к фрагментации, что бы не утверждалось официально. Единственное что - логически она не очень от этого страдает. Все внутренние структуры построены таким образом, что фрагментация не мешает быстро находить фрагменты данных. Но от физического последствия фрагментации - лишних движений головок - она, конечно, не спасает. И поэтому - вперед и с песней...

   NTFS - очень экономная система. Размер кластеров в ней разумно минимален - обычно это 4 кб (на стандартных сейчас дисках в десяток-другой гигабайт). Как известно, система сильнее всего фрагментирует файлы когда свободное место кончается, когда приходится использовать мелкие дырки, оставшиеся от других файлов. Тут возникает первое свойство NTFS, которое прямо способствует серьезной фрагментации.
   Диск NTFS поделен на две зоны. В начала диска идет MFT зона - зона, куда растет MFT, Master File Table. Зона занимает минимум 12% диска, и запись данных в эту зону невозможна. Это сделано для того, чтобы не фрагментировался хотя бы MFT. Но когда весь остальной диск заполняется - зона сокращается ровно в два раза . И так далее. Таким образом мы имеем не один заход окончания диска, а несколько. В результате если NTFS работает при диске, заполненном на около 90% - фрагментация растет как бешенная.

Попутное следствие - диск, заполненный более чем на 88%, дефрагментировать почти невозможно - даже API дефрагментации не может перемещать данные в MFT зону. Может оказаться так, что у нас не будет свободного места для маневра.
   Далее. NTFS работает себе и работает, и всё таки фрагментируется. Этому способствует странный алгоритм нахождения свободного места - второе серьезное упущение. Если файл пишется большими кусками - всё нормально. Но если файл медленно растет - алгоритм такой: берется какой-то определенный объем диска и заполняется файлом до упора. Причем по очень интересному алгоритму: сначала заполняются большие дырки, потом маленькие. Т.е. типичное распределение фрагментов файла по размеру на фрагментированной NTFS выглядит так (размеры фрагментов):
   16 - 16 - 16 - 16 - 16 - [скачек назад] - 15 - 15 - 15 - [назад] - 14 - 14 - 14 .... 1 - 1 - 1 -1 - 1...
   Так процесс идет до самых мелких дырок в 1 кластер, несмотря на то, что на диске наверняка есть и гораздо более большие куски свободного места.

   Может быть я забыл написать что-то еще... Смысл в том, что никак нельзя сказать, что NTFS препятствует фрагментации файлов. Наоборот, она с радостью их фрагментирует. Фрагментация NTFS через пол года работы доведет до искреннего удивления любого человека, знакомого с работой файловой системой. Поэтому приходится запускать дефрагментатор. Но на этом все наши проблемы не заканчиваются, а, увы, только начинаются...

   В NT существует стандартное API дефрагментации. Обладающее интересным ограничением для перемещения блоков файлов: за один раз можно перемещать не менее 16 кластеров (!), причем начинаться эти кластеры должны с позиции, кратной 16 кластерам в файле. В общем, операция осуществляется исключительно по 16 кластеров. Следствия:

В дырку свободного места менее 16 кластеров нельзя ничего переместить (кроме сжатых файлов, но это тонкости).
Файл, будучи перемещенный в друге место, оставляет после себя (на новом месте) "временно занятое место", дополняющее его по размеру до кратности 16 кластерам.
При попытке как-то неправильно ("не кратно 16") переместить файл результат часто непредсказуем. Что-то округляется, что-то просто не перемещается.. Тем не менее, всё место действия щедро рассыпается "временно занятым местом". Наверное о нас заботятся, чтобы мы отстали от этого места - чтобы алгоритм дефрагментации не клинило.  
"Временно занятое место" освобождается через некоторое время, обычно где-то пол минуты. Гы.
   Тем не менее, логично было бы использовать это API. Его и используют. Поэтому процесс стандартной дефрагментации, с поправками на ограниченность API, идет следующими фазами, не обязательно в этом порядке:

Вынимание файлов из MFT зоны. Не специально - просто обратно туда их положить не представляется возможным  Безобидная фаза, и даже в чем то полезная.
Дефрагментация файлов. Безусловно полезный процесс, несколько правда осложняемый ограничениями кратности перемещений - файлы часто приходится перекладывать сильнее, чем это было бы логично сделать по уму.
Дефрагментация MFT, виртуалки (pagefile.sys) и каталогов. Возможна через API только в Windows2000, иначе - при перезагрузке, отдельным процессом, как в Diskeeper-е.
Складывание файлов ближе к началу - так называемая дефрагментация свободного места. Вот это - воистину страшный процесс...
   Допустим, мы хотим положить файлы подряд в начало диска. Кладем один файл. Он оставляет хвост занятости дополнения до кратности 16. Кладем следующий - после хвоста, естественно. Через некоторое время, по освобождению хвоста, имеем дырку <16 кластеров размером. Которую потом невозможно заполнить через API дефрагментации! В результате, до оптимизации картина свободного места выглядела так: много дырок примерно одинакового размера. После оптимизации - одна дыра в конце диска, и много маленьких <16 кластеров дырок в заполненном файлами участке. Какие места в первую очередь заполняются? Правильно, находящиеся ближе к началу диска мелкие дырки <16 кластеров... Любой файл, плавно созданный на прооптимизированном диске, будет состоять из дикого числа фрагментов. Да, диск потом можно оптимизировать снова. А потом еще раз.. и еще.. и так - желательно каждую неделю. Бред? Реальность.

   Таким образом, имеется два примерно равнозначных варианта. Первый - часто оптимизировать диск таким дефрагментатором, смиряясь при этом с дикой фрагментацией заново созданных файлов. Второй вариант - вообще ничего не трогать, и смириться с равномерной, но гораздо более слабой фрагментацией всех файлов на диске.

   Пока есть один дефрагментатор, который игнорирует API дефрагментации и работает как-то более напрямую - Norton Speeddisk 5.0 для NT. Когда его пытаются сравнить со всеми остальными - Diskeeper, O&O defrag, т.д. - не упоминают этого главного, самого принципиального, отличия. Просто потому, что эта проблема тщательно скрывается, по крайней мере уж точно не афишируется на каждом шагу. Speeddisk - единственная на сегодняшний день программа, которая может оптимизировать диск полностью, не создавая маленьких незаполненных фрагментов свободного места. Стоит добавить также, что стандартное API не может дефрагментировать тома NTFS с кластером более 4 Кбайт - а SpeedDisk, по прежнему, может.

   К сожалению, в Windows 2000 засунули дефрагментатор, который работает через API, и соответственно плодит дырки <16 кластеров. Так что как только появится (если уже не появился) - так сразу надо качать Speeddisk для W2k. Как некоторый вывод из всего этого - все остальные дефрагментаторы при одноразовом применении просто вредны. Если вы запускали его хоть раз - нужно запускать его потом хотя бы раз в месяц, чтобы избавится от фрагментации новоприбывающих файлов. В этом основная суть сложности дефрагментации NTFS теми средствами, которые сложились исторически.

Offline Ghost Dog

  • Jr. Member
  • **
  • Posts: 58
  • Karma: +0/-0
    • http://
Дефрагментаторов много - какой лучше
« Reply #12 on: May 12, 2007, 22:51:35 »
Статья видимо 2000 выпуска, в связи с этим интересно - в XP/Vista API дефрагментации избавили от этих недостатков или нет?

Вот например автор дефрагментатора JkDefrag (http://www.kessels.com/JkDefrag/, Windows 2000/2003/XP/Vista, лицензия GPL) говорит только об одном недостатке API применительно к NTFS - не работает на кластерах размером >4 кбайт. А про то что только по 16 кластеров за раз перемещает - не пишет.
А программа хоть через это API и работает, в процессе дефрагментации регулярно пишет "moving 1 cluster from xxxx to yyyy". То есть никаких проблем.

Offline Kim

  • Newbie
  • *
  • Posts: 20
  • Karma: +0/-0
Дефрагментаторов много - какой лучше
« Reply #13 on: May 29, 2007, 00:38:16 »
Так никто и не написал толком о хорошем дефраге... Может, возродим тему?
От себя могу сказать Ghost Dog'у, что в 2к3 сервер встроенный дефраг просто отстоище  Дефрагил раздел в 100 гигов при свободных 30: во-первых, жутко долго, во-вторых, после повторного анализа снова сказал, что неплохо было бы пройтись по разделу... Картинка состояния раздела была просто ужасной...

Offline Diver

  • Hero Member
  • *****
  • Posts: 790
  • Karma: +2/-0
Дефрагментаторов много - какой лучше
« Reply #14 on: May 29, 2007, 13:59:07 »
Лично я юзаю Diskeeper. Не жалуюсь. Я думаю все дефраги похожи сейчас. Помню поставил О&О или как там его, отдефрагил, повторно запустил он мне опять пишет что надо бы продефрагментировать - послал его в жопу и поставил назад Дискипер.
MCP