Backups/fr

Miraheze dispose d'une procédure de sauvegarde interne et externe. Selon le calendrier ci-dessous, certaines parties critiques de notre infrastructure sont automatiquement sauvegardées sur un serveur externe (signification externe sous notre contrôle mais fournie par un hôte de serveur différent et dans un pays différent de tous nos serveurs actuels). Ces sauvegardes «internes» incluent des sauvegardes complets de la base de données, qui incluent des informations de compte utilisateur et des informations CheckUser. Ces sauvegardes ne sont accessibles que par notre équipe d'ingénierie de fiabilité du site et peuvent être utilisées en cas de défaillance catastrophique du site pour ramener rapidement l'ensemble du site à un état récent.

As such, Miraheze has a total of three types of backups which are taken. On top of this, users may generate their own backups, quickly and conveniently on demand using our DataDump tool.

Backup types
Miraheze takes three types of backups to ensure as much resiliency as possible.


 * Internal backups are backups kept on hand which the Site Reliability Engineering team can use to quickly bring the entire site up in the event of a catastrophic failure. These backups include full database dumps, which include user account information and CheckUser information. See the schedule below for more information.
 * External backups are automatic backups kept on servers controlled by us but on a different host and in a different country. This is done to ensure that a failure on one host or in the power grid of one country, etc., doesn't cause extended downtime or data loss to our users. These types of backups include critical parts of our infrastructure such as the databases of all wikis, private Git repository data, Phabricator configurations, and much more. See the schedule below for more information.
 * Public backups are XML backups which we upload every month to archive.org of all public wikis. We do this to make sure we have a reliable backup of all wikis on an external site along with to ensure users have peace of mind by seeing a backup that is readily available for usage by us/them.

General backup schedules
Up to date as of 12 January, 2023

Miraheze automatically runs the following backups for disaster recovery purposes:


 * Internal/External


 * Les éléments suivants sont sauvegardés dans leur intégralité chaque Dimanche:
 * Notre dépôt Git privé (stocké sur puppet1)
 * Cela inclut les mots de passe configurés, les clés privées et les certificats pour nos domaines
 * Cela inclut la source d'origine des clés privées et des certificats, ainsi que les informations de notre compte pour Let's Encrypt (l'autorité de certification que nous utilisons pour les certificats gratuits)
 * Les éléments suivants sont sauvegardés complètement le premier dimanche de chaque mois. Les fichiers modifiés et les nouveaux fichiers sont sauvegardés le troisième dimanche du mois:
 * Les bases de données, y compris les informations utilisateur, pour tous les wikis
 * Notre contenu statique (images du wiki, sauvegardes xml des utilisateurs)
 * Le contenu statique de Phabricator (contenu utilisé par notre logicel de suivi)


 * Not currently ran: Static images for all wikis


 * Public
 * Monthly: All public wikis; XML dumps uploaded to archive.org

Manual backups
On top of our internal, external, and public backups, users may generate their own using different ways.



Sauvegardes d'un wiki
En plus de ces sauvegardes privées, tout administrateur de wiki peut créer une sauvegarde XML ou image de son wiki en accédant à Special:DataDump sur son wiki et en sélectionnant XML ou type d'image. Ces sauvegardes peuvent ensuite être stockées en toute sécurité où vous le souhaitez. Les sauvegardes XML n'incluent pas les informations de compte utilisateur ou les informations CheckUser, mais contiennent le texte de la page wiki et les journaux que vous pouvez importer sur n'importe quel site MediaWiki. Les vidages d'images contiennent tous les types de fichiers téléchargés sur le wiki, mais sans descriptions ni type de licence.

To use DataDump, go to Special:DataDump on your wiki and select what backup you want. Once you submit your request, your backups will be generated. Depending on the size of the wiki, it may take from a few seconds up to a few hours to generate a database dump.

DataDump API
DataDump offers an API module which lets users use DataDump via the command line. As of yet, there are no scripts that make use of this.

Mediawiki Scraper
While we strongly recommend using DataDump as it's the most convenient, you may also generate a database dump using less interactive command-line scripts. We do not recommend any in particular nor do we endorse any. However, one of these such well-known scripts is the Mediawiki Client Tools' Mediawiki Scraper Python 3 dumpgenerator script, based on the WikiTeam Python 2.7 dumpgenerator script.

User account information will not be preserved. The XML dump can include full or only most recent page history. The images dump will contain all file types with associated descriptions. The siteinfo.json file will contain information about wiki features such as the installed extensions and skins.