Re: Backup
18.02.2018 23:07, Artem Chuprina пишет:
> artiom -> debian-russian@lists.debian.org @ Sun, 18 Feb 2018 21:23:52 +0300:
>
> >> >> >> >> - rsync поддерживает использование ssh как транспорт, существуют так же
> >> >> >> >> надстройки разные
> >> >> >> >>
> >> >> >> > Да, rsync хорошая штука. Я пользуюсь. Но дело в том, что над ним
> >> >> >> > придётся всё доделывать самостоятельно, а в той же Bacula большинство
> >> >> >> > функций реализовано и отлажено.
> >> >> >>
> >> >> >> >> Ничего не знаю по поводу "репликации в облко с шифрованием". Это всё так
> >> >> >> >> абстрактно...
> >> >> >> >>
> >> >> >> > 1. Шифрование бэкапов.
> >> >> >> > 2. Репликация в выбранное облако (например, dropbox).
> >> >> >>
> >> >> >> > Т.к. dropbox и подобные - одна сплошная дыра, требуется надёжное шифрование.
> >> >> >> > Т.к. раньше я ими не пользовался, ничего конкретного про
> >> >> >> > репликацию/наличие API спросить не могу.
> >> >> >>
> >> >> >> "Тут ведь как..." "Отправлять зашифрованное", "минимально гонять по
> >> >> >> сети", и "восстанавливать за разумное время" - выберите любые два из
> >> >> >> трех.
> >> >> > Первые два, но время именно "разумное", я же не говорю "быстро".
> >> >>
> >> >> Я тоже говорю "разумное". Выберите любые два из трех.
> >> >>
> >> > В процессе изучения вопроса я обнаружил, что есть такая технология, как
> >> > дедупликация на клиенте.
> >> > И вообще, как ни странно, в случае с файлопомойками, дедап позволяет
> >> > экономить до 98% дискового пространства.
> >>
> >> Это, гм, новость. По моим представлениям, дедупликация на файлопомойке
> >> (где вообще-то каждый файл в среднем чуть более чем в одном экземпляре)
> >> дает от силы процентов 10, если она пофайловая, и процентов 20, если
> >> поблочная. А более вероятно - 3 и 5% соответственно. 98% - это надо
> >> чтобы каждый файл (или блок) хранился в среднем в 50 экземплярах. Я могу
> >> себе такое представить на хранилище, откуда работают сотни виртуальных
> >> машин, но на файлопомойке?
> >>
> > Видимо, там большая файлопомойка с большим числом пользователей.
> > Пользователи, как правило, не создают контент.
> > Потому, файлы (и, тем более, блоки) часто дублируются.
>
> На файлопомойках пользователи как раз обычно создают контент. Если не
> сам контент целиком, то выборка-то у всех разная. И для 50-кратного
> дублирования надо устраивать очень специфический набор пользователей. Я
> бы, пожалуй, взялся только роботами такое обеспечить, причем специально
> криво написанными.
>
Возможно.
> >> Вот дедупликация на ее бэкапе - да, в разы. Но опять же, при разумной
> >> политике хранения бэкапов ну, в 10 раз (если история бэкапов - штук
> >> 15). Но не в 50.
> >>
> > Ещё неплохо, чтобы дедупликация делалась на клиенте.
>
> Тут, кстати, палка как минимум о двух концах. Я, например, дома
> предпочитаю, чтобы отобранные фотографии из поездок хранились отдельно
> от совпадающих с ними файлов из подборки оригиналов даже в бэкапе. Из
> соображений "в случае сбоя диска будет второй экземпляр". Если сделать
> полную дедупликацию, сбой диска убьет единственный.
>
Возможно, при ограниченных ресурсах по аппаратуре это применимо, но в
целом, я считаю, подход неправильный.
Надёжность хранилища должна нижним уровнем обеспечиваться.
Явно не прикладным, на котором работает система резервного копирования.
Reply to:
- Follow-Ups:
- Re: Backup
- From: Victor Wagner <vitus@wagner.pp.ru>