Backups/ja

Mirahezeは内的・及び外的なバックアップ過程を持っています. 以下のスケジュールに従って、私達のインフラの一定の重要な部分は自動的に外部サーバーにバックアップされています（「外部」とは、私達の制御下にあるものの、私達の全ての現行サーバーとは異なる国の異なるサーバーホストに提供されていることを意味します）. これらの「内部」バックアップは完全なデータベースのダンプを含み、その中には利用者アカウント情報やチェックユーザー情報が含まれています. これらのバックアップはサイト信頼性エンジニアリングチームだけがアクセス可能で、サイトに大規模な障害が起こった場合にサイト全体を最新の状態に素早く戻すために使うことができます.

As such, Miraheze has a total of three types of backups which are taken. On top of this, users may generate their own backups, quickly and conveniently on demand using our DataDump tool.

Backup types
Miraheze takes three types of backups to ensure as much resiliency as possible.


 * Internal backups are backups kept on hand which the Site Reliability Engineering team can use to quickly bring the entire site up in the event of a catastrophic failure. These backups include full database dumps, which include user account information and CheckUser information. See the schedule below for more information.
 * External backups are automatic backups kept on servers controlled by us but on a different host and in a different country. This is done to ensure that a failure on one host or in the power grid of one country, etc., doesn't cause extended downtime or data loss to our users. These types of backups include critical parts of our infrastructure such as the databases of all wikis, private Git repository data, Phabricator configurations, and much more. See the schedule below for more information.
 * Public backups are XML backups which we upload every month to archive.org of all public wikis. We do this to make sure we have a reliable backup of all wikis on an external site along with to ensure users have peace of mind by seeing a backup that is readily available for usage by us/them.



バックアップ作成の予定
Up to date as of 12 January, 2023

Miraheze automatically runs the following backups for disaster recovery purposes:


 * Internal/External


 * 以下は、毎週日曜日に完全にバックアップされます.
 * 私達の非公開Gitレポジトリ（puppet1に保管）
 * これには確認されたパスワード、プライベート・キー、ドメインの証明書が含まれています.
 * これには、プライベート・キーや証明書の元々のソースや、Let's Encrypt（私達が無料認証に使用している認証局）用のアカウント情報が含まれております.
 * 以下は、毎月第一日曜日に完全にバックアップされます. ファイルの変更や新しいファイルは、毎月第三日曜日にバックアップされます.
 * 全てのウィキ用のデータベース（利用者情報含む）
 * 私達の静的コンテンツ（ウィキ画像、利用者XMLダンプ）
 * Phabricatorの静的情報（問題追跡ソフトウェアで利用されているコンテンツ）


 * Not currently ran: Static images for all wikis


 * Public
 * Monthly: All public wikis; XML dumps uploaded to archive.org

Manual backups
On top of our internal, external, and public backups, users may generate their own using different ways.



データダンプ(推奨)
これらの非公開バックアップに加え、ウィキの管理者であれば、誰でも、ご自身のウィキのSpecial:DataDumpにて、バックアップのタイプを指定することによって、XMLダンプや画像のバックアップを作成することができます. これらのバックアップは、お望みの時にいつでも安全に保管することができるようになります. XMLバックアップには利用者アカウント情報やチェックユーザー情報は含まれていませんが、あらゆるMediaWikiサイトへインポート可能なページ本文とログが含まれております. 画像バックアップには、ウィキにアップされたすべての形式のファイルが含まれておりますが、ライセンシング情報や説明は含まれておりません.

To use DataDump, go to Special:DataDump on your wiki and select what backup you want. Once you submit your request, your backups will be generated. Depending on the size of the wiki, it may take from a few seconds up to a few hours to generate a database dump.

DataDump API
DataDump offers an API module which lets users use DataDump via the command line. As of yet, there are no scripts that make use of this.

Mediawiki Scraper
While we strongly recommend using DataDump as it's the most convenient, you may also generate a database dump using less interactive command-line scripts. We do not recommend any in particular nor do we endorse any. However, one of these such well-known scripts is the Mediawiki Client Tools' Mediawiki Scraper Python 3 dumpgenerator script, based on the original WikiTeam Python 2.7 dumpgenerator script.

User account information will not be preserved. The XML dump can include full or only most recent page history. The images dump will contain all file types with associated descriptions. The siteinfo.json file will contain information about wiki features such as the installed extensions and skins.



関連項目

 * Bacula (former backup system)