так есть же rar и zip, задача бекапа с ними, имхо, решаема
[snapback]2296[/snapback]
Ну насколько я помню у zip-a тоже есть ограничение на 2G...
Насчет рара не знаю...
Вопрос, а могут они uid, guid сохранять при сжатии...
Хм... вроде одну возможность нашел... star... надо будет проверить...
З.Ы. А еще не могет это случайно ограничением самбы быть...
А то я по ней кидаю на NTFS... Последняя проблем с большими файлами вроде не должна иметь...
[snapback]2298[/snapback]
У меня на ASPL 7.3 на ext3 tar (1.15.1 и тот что шел в комплекте с дистром, т.е древний) прекрасно создает архивы размером около 3 гиг уже в tar.gz виде. Правда tar сам файловую систему не мучает он работает с gzip
примерно так
tar -cpf - dir_for_backup |gzip -f9 - > arcfile.tar.gz
По самбе с linux'а на Win эти файлы и образы DVD прекрасно сливаются и заливаются обратно.
У меня на ASPL 7.3 на ext3 tar (1.15.1 и тот что шел в комплекте с дистром, т.е древний) прекрасно создает архивы размером около 3 гиг уже в tar.gz виде. Правда tar сам файловую систему не мучает он работает с gzip
примерно так
tar -cpf - dir_for_backup |gzip -f9 - > arcfile.tar.gz
По самбе с linux'а на Win эти файлы и образы DVD прекрасно сливаются и заливаются обратно.
[snapback]2307[/snapback]
Хм... надо так попробовать...
Я делал проще... tar -czvf /path_to_backup/file.tgz /home/users/
или tar -cvf /path_to_backup/file.tar /home/users/
В первом случае выдало broucken pipe
во втором то, что я уже писал...
Правда версия тара у меня вроде старее
tar (GNU tar) 1.13.25...
Надобы поновее помореть... для начала...
Хм... надо так попробовать...
Я делал проще... tar -czvf /path_to_backup/file.tgz /home/users/
или tar -cvf /path_to_backup/file.tar /home/users/
В первом случае выдало broucken pipe
во втором то, что я уже писал...
Правда версия тара у меня вроде старее
tar (GNU tar) 1.13.25...
Надобы поновее помореть... для начала...
[snapback]2312[/snapback]
Версия tar из дистра ASPL7.3 tar-1.13.25-4.i386.rpm работала тоже правильно. Дистр кстати довольно древний (середины 2002-го года кажется).
От конструкции tar -czvf /path_to_backup/file.tgz /home/users/ отказался по причине желания иметь гибкость в скрипте
строка там такая на самом деле
$TAR $NEWER -cpf - $DIRECTORIES |$ZIP $ZIPOPT - > $BACKUPDIR/$DOWDIR/$ARC_NAME-$DOW.tar$ZIPSUFFIX
Если будет время tar -czvf /path_to_backup/file.tgz ...... проверю на чем нибудь большом, но думаю, что тоже без проблем.
Кстати в исходном сообщении не сказано что был за дистр
А кто мешает star пользовать? Его Георг Шиллинг написал (и cdrecord тоже). У star нет ограничений на размер файла плюс дополнительные функции как раз для резервного архивирования.
[snapback]2319[/snapback]
Я в эту сторону уже начинаю думать... Думаю сегодня-завтра протестирую...
Я в одном из форумов про него прочитал... Правда там ответ был, что с ним то же не получилось от чела с такой же проблемой как у меня...
А кто мешает star пользовать? Его Георг Шиллинг написал (и cdrecord тоже). У star нет ограничений на размер файла плюс дополнительные функции как раз для резервного архивирования.
[snapback]2319[/snapback]
Попробовал star через gzip проблема осталась... Заткнулся на тех же двух гигах...
Завтра попробую без gzip, а то медленно все бэкаит... Тормозная машина+плюс передача по сети+ плюс передача по USB1.1
Буду теперь выяснсть в чем проблема дальше... Попробую обновить tar,gzip...
А никто не знает случаем во 2-ой самбе не было ограничений на 2 гига?
Буду теперь выяснсть в чем проблема дальше... Попробую обновить tar,gzip...
А никто не знает случаем во 2-ой самбе не было ограничений на 2 гига?
[snapback]2355[/snapback]
У меня самба 2.2.12 проблемы не замечал
Зачем вообще создавать каждый раз такие огромные файлы-архивы и гонять их по сети. Если данные активно изменяются, используйте инкрементальные средства архивирования.
Например: http://www.opennet.ru/dev/fsbackup/ (http://www.opennet.ru/dev/fsbackup/)
[snapback]2360[/snapback]
Спасибо за совет... На новом серваке я скорее всего ею воспользуюсь (хотя планировал пользовать Acronis True Image под линух), а на том который сейчас стоит сделаю по старому... Так как медленный он очень... Два целерона 366...
Ну если уж идет вопрос о замене самбы то может быть имеет смысл брать 3-й версии данный продукт.
На FreeBSD 4.9 Samba version 3.0.7 прекрасно справляется с файлами любых размеров в любом направлении. Только что специально протестил :) : файл 3Гб, average 7 678 kb/s, закачал себе на винду.
[snapback]2435[/snapback]
Система постоянно используется в дневное время... И переход на тройку будет проблематичен, так как придется менять конфиги (конфиг у 2-ки и 3-ки разный)- по новой вводить в домен... А при переходе с одной двойки на другую достаточно установить и рестартовать сервис... И все...
Это меня и останавливает... На тройку я буду переходить когда летов новый сервер буду вводить, а старый выводить, так как в это время занятий не будет и пользователей практически не будет и я смогу спокойно перенести все файлы на новый сервер и перенести все настройки, а потом старый загасить... Еще мне предстоит перевод виндового сервера на освободившуюся мошину от линуха...
Мда.
Может вот тут кроется проблема?
Попробуй скопировать на винду не посредством данной утилитки, а стандартными средствами самбы, smbclient-ом.
[snapback]2437[/snapback]
Ну файл готовый я в принципе могу залить с помощью клиента, а вот можноли перенаправлением из тара туда сразу влить...
Я вот думаю могет все-таки перегрузить сервак вечером... Может помогет...
Самба могет и перестартовала нормально, но ведь инфомация о том, что smbfs имеет ограничение еще осталась... Ладно завтра еще поэкспеиментирую...
А пока решил написать скрипт, чтобы он мне всех пользователей в номе поодному в разные файлы закатал...
Вот пытаюсь скинуть бэкап на внешний винт по самбе используя tar,
а он оказывается не могет создавать файлы больше 2 Гиг...
Я сейчас исследую инфу на этот предмет в гугле, но связь мертвая...
Могет кто сталкивался с такой проблемой и знает как ее побороть...
[snapback]2294[/snapback]
Обновить самбу до последней 3.0.XX и использовать вместо smbfs cifs.
P. S. fsbackup можно настроить чтобы всегда делал полный backup и создавал tar-ы по 2Гб