Backups/ru

Чтобы пользователи не волновались лишний раз, Miraheze создаёт внутренние и внешние резервные копии (бэкапы) всех вики. Впридачу к этому мы раз в месяц загружаем дампы всех публичных вики на archive.org, чтобы пользователи могли их самостоятельно скачивать, для пущей уверенности.

Таким образом, на Miraheze существует три типа бэкапов. К этому ещё добавляется то, что пользователи могут создавать собственные бэкапы, быстро и обычным методом по запросу через наш инструмент DataDump.

Типы резервных копий
Mihareze создаёт три типа резервных копий, обеспечивая большую устойчивость баз данных.


 * Внутреннние бэкапы находятся под рукой у системных администраторов Miraheze чтобы быстро привести в работу весь сайт в случае фатальной ошибки. Эти бэкапы имеют полные дампы баз данных, которые включают в себя информацию учётных записей и проверки пользователей. Подробнее в разделе ниже.
 * Внешние бэкапы создаются автоматически и хранятся на подконтрольных нам серверах, но под другим хостингом и в другой стране. Это делается для того, чтобы предотвратить долгие отключения или потерю данных наших пользователей в случае падения одного хоста или электросети в одной стране, и др. Эти бэкапы включают в себя критические части нашей инфраструктуры, такие как базы данных всех вики, данные приватного Git репозитория, конфигурации Phabricator и многое другое. Подробнее в разделе ниже.
 * Публичные бэкапы это бэкапы всех публичных вики в формате XML, которые мы загружаем ежемесячно на archive.org. Мы делаем этого для того, чтобы иметь надежные бэкапы всех вики на внешнем ресурсе и обеспечить пользователям спокойствие доступными для использования как ими, так и нами, готовыми бэкапами.



Автоматическое копирование
Актуально на 12 января 2023 года

Miraheze автоматически отрабатывает следующие процедуры резервного копирования для восстановления данных после инцидентов:


 * Внутренние/Внешние


 * Раз в неделю: приватный Git репозиторий для конфигурационных секретных данных и ключей SSL
 * Раз в неделю: базы данных mhglobal (CreateWiki, ManageWiki, глобальные таблицы) и сообщений службы доверия и безопасности (TSPortal)
 * Раз в две недели: прочие базы данных в формате SQL для всех вики и других служб
 * Раз в две недели: изображения и база данных Phabricator
 * Раз в месяц: база данных piwik (Matomo)
 * Раз в месяц: XML дамп всех приватных вики
 * Раз в три месяца: полные XML дампы всех вики, включая приватные
 * По запросу: XML бэкапы всех вики поставленных на удаление


 * Не работает в данный момент: статичные изображения для всех вики


 * Публичные
 * Раз в месяц: все публичные вики; XML дамп загружается на archive.org

Ручное копирование
В дополнение к нашим внутренним, внешним и публичным бэкапам, пользователи могут формировать собственные копии разными способами.



DataDump (рекомендуется)
В дополнение к этим приватным бэкапам, любой администратор вики может сформировать бэкап своей вики в виде файла XML или изображений, перейдя на страницу Служебная:DataDump на своей вики и выбрать тип, XML или изображения. Эти резервные копии могут потом хранится в целости и сохранности где-нибудь по вашему усмотрению. XML бэкапы не несут в себе информацию аккаунтов пользователей и проверки участников, но имеют вики страницы в текстовом формате и логи, которые можно импортировать на любой сайт на MediaWiki. Дамп изображений содержит все файлы загруженные на вики, но без описаний или лицензий.

To use DataDump, go to Special:DataDump on your wiki and select what backup you want. Once you submit your request, your backups will be generated. Depending on the size of the wiki, it may take from a few seconds up to a few hours to generate a database dump.

DataDump API
DataDump offers an API module which lets users use DataDump via the command line. As of yet, there are no scripts that make use of this.

Mediawiki Scraper
While we strongly recommend using DataDump as it's the most convenient, you may also generate a database dump using less interactive command-line scripts. We do not recommend any in particular nor do we endorse any. However, one of these such well-known scripts is the Mediawiki Client Tools' Mediawiki Scraper Python 3 dumpgenerator script, based on the original WikiTeam Python 2.7 dumpgenerator script.

User account information will not be preserved. The XML dump can include full or only most recent page history. The images dump will contain all file types with associated descriptions. The siteinfo.json file will contain information about wiki features such as the installed extensions and skins.



См. также

 * Bacula (former backup system)