Backups/pt-br

Miraheze possui um procedimento de backup interno e externo. Seguindo o cronograma abaixo, certas partes críticas da nossa infraestrutura são automaticamente respaldadas em um servidor externo (significado externo sob nosso controle, mas fornecido por um host de servidor diferente e em um país diferente de todos os nossos servidores atuais). Esses backups "internos" incluem despejos de banco de dados completos, que incluem informações de conta de usuário e CheckUser em formação. Esses backups só são acessados pela nossa equipe de Operações e podem ser usados no caso de uma falha catastrófica no site para levar rapidamente o site inteiro para um estado recente.

Backups de uma wiki
Além desses backups privados, Administradores do sistema da Miraheze, a pedido, criaremos dumps XML de wikis e hospedá-los em nosso servidor estático (veja abaixo) se forem públicos, ou enviá-los por e-mail para o solicitante, se forem privados. Esses backups podem ser armazenados com segurança onde você desejar. Esses backups não incluem informações de conta de usuário ou de CheckUser, mas contêm texto e logs da página da wiki que você pode importar para qualquer site da MediaWiki.

Horários gerais de backup
Miraheze executa dois cronogramas de backup em produção:


 * The following are backed up in their entirety every Sunday:
 * Our private Git repository (stored on puppet1)
 * This includes configured passwords, private keys, and certificates for our domains
 * This includes the original source of private keys and certificates, and includes our account information for Let's Encrypt (the CA we use for free certificates)
 * The following are backed up completely on the first Sunday of every month. Changed files and new files are backed up on the third Sunday of the month:
 * Databases, including user information, for all wikis
 * Our static content (wiki images, user xml dumps)
 * Phabricator static (content used by our tracking software)

Local backups
To make backups to your local PC, use WikiTeam's dumpgenerator.py Python script. This is run from the command line and requires Python 2.7 and will produce an XML dump with page histories and a folder of files, (but not user accounts nor extensions). WikiTeam's tutorial offers further details. Note that large wikis may fail to export leaving an incomplete XML dump. The presence of a siteinfo.json file probably indicates a succesful XML dump.

Example usage:

For private wikis use:

Veja também
Para obter mais detalhes técnicos sobre nosso servidor de backup automático, consulte Tech:Bacula