Skip to content

Commit

Permalink
Disaster recovery (23.10 and 24.04) (#2788)
Browse files Browse the repository at this point in the history
* Disaster recovery (23.10 and 24.04)

* Add missing files + translate ToC item
  • Loading branch information
cg-tw authored Nov 2, 2023
1 parent dc6fe59 commit 4ad4c8c
Show file tree
Hide file tree
Showing 17 changed files with 372 additions and 68 deletions.
4 changes: 4 additions & 0 deletions i18n/fr/docusaurus-plugin-content-docs/version-23.04.json
Original file line number Diff line number Diff line change
Expand Up @@ -290,5 +290,9 @@
"sidebar.docs.category.Upgrading Centreon HA": {
"message": "Monter de version Centreon HA",
"description": "The label for category Upgrading Centreon HA in sidebar docs"
},
"sidebar.docs.category.Disaster recovery": {
"message": "Reprise après sinistre",
"description": "The label for category Disaster recovery in sidebar docs"
}
}
4 changes: 4 additions & 0 deletions i18n/fr/docusaurus-plugin-content-docs/version-23.10.json
Original file line number Diff line number Diff line change
Expand Up @@ -290,5 +290,9 @@
"sidebar.docs.category.Upgrading Centreon HA": {
"message": "Monter de version Centreon HA",
"description": "The label for category Upgrading Centreon HA in sidebar docs"
},
"sidebar.docs.category.Disaster recovery": {
"message": "Reprise après sinistre",
"description": "The label for category Disaster recovery in sidebar docs"
}
}
Original file line number Diff line number Diff line change
@@ -0,0 +1,58 @@
---
id: backup-poller
title: Sauvegarder et restaurer vos collecteurs
---

## Cas n°1 : Faire des sauvegardes pour pouvoir installer un nouveau collecteur à partir de zéro

### Données à sauvegarder sur le collecteur actif

> Dans cette section, nous partons du principe que [l'installation automatique des plugins Centreon](../monitoring/pluginpacks.md#installation-automatique) est activée.
Sauvegardez les éléments suivants afin d'être en mesure de complètement reconstruire votre collecteur en cas de problème.

- Plugins personnalisés (par exemple: plugins de la communauté, ou développements spécifiques)
- Si vous utilisez le connecteur **centreon-vmware-daemon** (installation et configuration): sauvegardez **/etc/centreon/centreon_vmware.pm**
- Si vous utilisez le connecteur **centreon-as400** (installation et configuration): sauvegardez **/etc/centreon-as400/**
- Synchronisez les fichiers suivants régulièrement (par exemple avec la commande **rsync**) :
- **/var/log/centreon-engine/retention.dat** (jusqu'à toutes les 15 minutes) pour garder les acquittements, les plages de maintenance et les statuts.
- **/var/lib/centreon/centplugins/\*** (jusqu'à toutes les 5 minutes) pour garder le cache des plugins.
- **/etc/centreon-gorgone/config.d/\*** (une seule fois) pour garder les informations de connexion au serveur central.
- **/var/lib/centreon-gorgone/.keys/\*** (une seule fois) pour garder l'empreinte pour l'authentification ZeroMQ.

### Basculer vers le nouveau collecteur

Si votre collecteur devient hors d'usage, [installez un nouveau collecteur](../installation/installation-of-a-poller/using-packages.md), dans la version correspondant à votre plateforme, rattachez-le au serveur central, puis restaurez tous les éléments listés ci-dessus.

Si vous n'aviez pas sauvegardé le fichier **/var/lib/centreon-gorgone/.keys/\***, vous devrez changer l'empreinte du collecteur dans la configuration du serveur central. Voir [l'article suivant](https://thewatch.centreon.com/troubleshooting-41/poller-does-not-work-after-migration-or-reinstallation-fingerprint-changed-for-target-1177) sur notre plateforme communautaire The Watch.

## Cas n°2: Collecteur de secours

Une autre façon de se préparer à un problème est d'avoir un collecteur de secours sur lequel vous synchronisez les données de votre collecteur actif. Si votre collecteur devient hors d'usage, il vous suffira de basculer sur le collecteur de secours.

### Données à synchroniser

Installez et configurez les mêmes éléments sur votre collecteur de secours que sur votre collecteur actif, et synchronisez les données [comme décrit ici](#données-à-sauvegarder-sur-le-collecteur-actif).

### Basculer vers le collecteur de secours

1. Démarrez le collecteur de secours si celui-ci est arrêté.
2. Changez la configuration réseau du collecteur de secours afin de lui attribuer l'adresse IP de l'ancien collecteur.
3. Redémarrez **gorgoned** d'abord sur le collecteur, puis sur le central.

```shell
systemctl restart gorgoned
```

4. Vérifiez que le log de Gorgone ne présente pas d'erreurs de communication.
```shell
tail -F /var/log/centreon-gorgone/gorgoned.log | grep ERROR
```
5. [Déployez la configuration](../monitoring/monitoring-servers/deploying-a-configuration.md) pour le collecteur, en utilisant la méthode **Restart** (dans la liste **Redémarrer l'ordonnanceur**).
6. Si vous n'aviez pas sauvegardé le fichier **/var/lib/centreon-gorgone/.keys/\***, vous devrez changer l'empreinte du collecteur dans la configuration du serveur central. Voir [l'article suivant](https://thewatch.centreon.com/troubleshooting-41/poller-does-not-work-after-migration-or-reinstallation-fingerprint-changed-for-target-1177) sur notre plateforme communautaire The Watch.
## Cas n°3 : Snapshots de machines virtuelles
Si votre collecteur tourne sur une VM, faites des snapshots réguliers de votre collecteur. Si un problème survient, restaurez le snapshot comme pour n'importe quelle machine virtuelle.
Original file line number Diff line number Diff line change
@@ -1,6 +1,6 @@
---
id: backup
title: Sauvegarde
title: Sauvegarder et restaurer votre serveur central
---

## Fonctionnement
Expand Down
Original file line number Diff line number Diff line change
@@ -0,0 +1,10 @@
---
id: disaster-recovery
title: Reprise après sinistre
---

Pour que votre plateforme résiste aux pannes, assurez-vous que faire des sauvegardes, stockées sur un autre serveur. Vous pouvez :

- faire des snapshots de vos VMs.
- faire des sauvegardes régulières de la configuration [de votre serveur central](backup.md) et [de vos collecteurs](backup-poller.md).
- [installer un collecteur de secours](backup-poller.md#cas-n°2-collecteur-de-secours) synchronisé avec votre collecteur actif, afin que le collecteur de secours puisse prendre le relais en cas de panne.
4 changes: 4 additions & 0 deletions i18n/fr/docusaurus-plugin-content-docs/version-24.04.json
Original file line number Diff line number Diff line change
Expand Up @@ -290,5 +290,9 @@
"sidebar.docs.category.Upgrading Centreon HA": {
"message": "Monter de version Centreon HA",
"description": "The label for category Upgrading Centreon HA in sidebar docs"
},
"sidebar.docs.category.Disaster recovery": {
"message": "Reprise après sinistre",
"description": "The label for category Disaster recovery in sidebar docs"
}
}
Original file line number Diff line number Diff line change
@@ -0,0 +1,58 @@
---
id: backup-poller
title: Sauvegarder et restaurer vos collecteurs
---

## Cas n°1 : Faire des sauvegardes pour pouvoir installer un nouveau collecteur à partir de zéro

### Données à sauvegarder sur le collecteur actif

> Dans cette section, nous partons du principe que [l'installation automatique des plugins Centreon](../monitoring/pluginpacks.md#installation-automatique) est activée.
Sauvegardez les éléments suivants afin d'être en mesure de complètement reconstruire votre collecteur en cas de problème.

- Plugins personnalisés (par exemple: plugins de la communauté, ou développements spécifiques)
- Si vous utilisez le connecteur **centreon-vmware-daemon** (installation et configuration): sauvegardez **/etc/centreon/centreon_vmware.pm**
- Si vous utilisez le connecteur **centreon-as400** (installation et configuration): sauvegardez **/etc/centreon-as400/**
- Synchronisez les fichiers suivants régulièrement (par exemple avec la commande **rsync**) :
- **/var/log/centreon-engine/retention.dat** (jusqu'à toutes les 15 minutes) pour garder les acquittements, les plages de maintenance et les statuts.
- **/var/lib/centreon/centplugins/\*** (jusqu'à toutes les 5 minutes) pour garder le cache des plugins.
- **/etc/centreon-gorgone/config.d/\*** (une seule fois) pour garder les informations de connexion au serveur central.
- **/var/lib/centreon-gorgone/.keys/\*** (une seule fois) pour garder l'empreinte pour l'authentification ZeroMQ.

### Basculer vers le nouveau collecteur

Si votre collecteur devient hors d'usage, [installez un nouveau collecteur](../installation/installation-of-a-poller/using-packages.md), dans la version correspondant à votre plateforme, rattachez-le au serveur central, puis restaurez tous les éléments listés ci-dessus.

Si vous n'aviez pas sauvegardé le fichier **/var/lib/centreon-gorgone/.keys/\***, vous devrez changer l'empreinte du collecteur dans la configuration du serveur central. Voir [l'article suivant](https://thewatch.centreon.com/troubleshooting-41/poller-does-not-work-after-migration-or-reinstallation-fingerprint-changed-for-target-1177) sur notre plateforme communautaire The Watch.

## Cas n°2: Collecteur de secours

Une autre façon de se préparer à un problème est d'avoir un collecteur de secours sur lequel vous synchronisez les données de votre collecteur actif. Si votre collecteur devient hors d'usage, il vous suffira de basculer sur le collecteur de secours.

### Données à synchroniser

Installez et configurez les mêmes éléments sur votre collecteur de secours que sur votre collecteur actif, et synchronisez les données [comme décrit ici](#données-à-sauvegarder-sur-le-collecteur-actif).

### Basculer vers le collecteur de secours

1. Démarrez le collecteur de secours si celui-ci est arrêté.
2. Changez la configuration réseau du collecteur de secours afin de lui attribuer l'adresse IP de l'ancien collecteur.
3. Redémarrez **gorgoned** d'abord sur le collecteur, puis sur le central.

```shell
systemctl restart gorgoned
```

4. Vérifiez que le log de Gorgone ne présente pas d'erreurs de communication.
```shell
tail -F /var/log/centreon-gorgone/gorgoned.log | grep ERROR
```
5. [Déployez la configuration](../monitoring/monitoring-servers/deploying-a-configuration.md) pour le collecteur, en utilisant la méthode **Restart** (dans la liste **Redémarrer l'ordonnanceur**).
6. Si vous n'aviez pas sauvegardé le fichier **/var/lib/centreon-gorgone/.keys/\***, vous devrez changer l'empreinte du collecteur dans la configuration du serveur central. Voir [l'article suivant](https://thewatch.centreon.com/troubleshooting-41/poller-does-not-work-after-migration-or-reinstallation-fingerprint-changed-for-target-1177) sur notre plateforme communautaire The Watch.
## Cas n°3 : Snapshots de machines virtuelles
Si votre collecteur tourne sur une VM, faites des snapshots réguliers de votre collecteur. Si un problème survient, restaurez le snapshot comme pour n'importe quelle machine virtuelle.
Original file line number Diff line number Diff line change
@@ -1,6 +1,6 @@
---
id: backup
title: Sauvegarde
title: Sauvegarder et restaurer votre serveur central
---

## Fonctionnement
Expand Down
Original file line number Diff line number Diff line change
@@ -0,0 +1,10 @@
---
id: disaster-recovery
title: Reprise après sinistre
---

Pour que votre plateforme résiste aux pannes, assurez-vous que faire des sauvegardes, stockées sur un autre serveur. Vous pouvez :

- faire des snapshots de vos VMs.
- faire des sauvegardes régulières de la configuration [de votre serveur central](backup.md) et [de vos collecteurs](backup-poller.md).
- [installer un collecteur de secours](backup-poller.md#cas-n°2-collecteur-de-secours) synchronisé avec votre collecteur actif, afin que le collecteur de secours puisse prendre le relais en cas de panne.
54 changes: 54 additions & 0 deletions versioned_docs/version-23.10/administration/backup-poller.md
Original file line number Diff line number Diff line change
@@ -0,0 +1,54 @@
---
id: backup-poller
title: Back up and restore your pollers
---

## Case n°1: Making backups to be able to install a new poller from scratch

### What you need to back up on your active poller

> In this list, we assume you have enabled the [automatic installation of the Centreon plugins](../monitoring/pluginpacks.md#automatic-installation).
You need to back up the following elements to be able to rebuild your poller from scratch in case of a problem.

- Custom plugins (example: community plugins, or custom developments)
- If you are using the **centreon-vmware-daemon** connector (installation and configuration): backup **/etc/centreon/centreon_vmware.pm**
- If you are using the **centreon-as400** connector (installation and configuration): backup **/etc/centreon-as400/**
- Synchronize the following files regularly (e.g. using the **rsync** command):
- **/var/log/centreon-engine/retention.dat** (up to every 15 minutes) to keep acknowledgements, downtimes and statuses.
- **/var/lib/centreon/centplugins/\*** (up to every 5 minutes) to keep the plugins cache.
- **/etc/centreon-gorgone/config.d/\*** (once) to keep the connection information to the central server.
- **/var/lib/centreon-gorgone/.keys/\*** (once) to keep the same fingerprint for ZeroMQ authentication.

### Switching to the new poller

If your poller has died, [install a new poller](../installation/installation-of-a-poller/using-packages.md), in the correct version for your platform, attach it to the central server, then restore all the elements listed above.

If you didn't backup **/var/lib/centreon-gorgone/.keys/\***, you will need to change the poller's fingerprint in the configuration of the central server. Read [the following article](https://thewatch.centreon.com/troubleshooting-41/poller-does-not-work-after-migration-or-reinstallation-fingerprint-changed-for-target-1177) on our community platform The Watch.

## Case n°2: "Standby" poller

Another way to prepare for disaster is to have a "standby" poller on which you synchronize the data from your active poller. If your poller dies, just switch to the standby poller.

### What you need to synchronize

Install and configure the same elements on your standby poller as on your active poller, and synchronize your data [as described here](#what-you-need-to-back-up-on-your-active-poller).

### How to switch to the standby poller

1. Start the standby poller if it is stopped.
2. Change the new poller's network configuration to give it the old poller's IP address.
3. Restart **gorgoned** on the poller first, then on the central.
```shell
systemctl restart gorgoned
```
4. Make sure there are no communication errors in Gorgone's log.
```shell
tail -F /var/log/centreon-gorgone/gorgoned.log | grep ERROR
```
5. [Deploy the configuration](../monitoring/monitoring-servers/deploying-a-configuration.md) for the poller using the **Restart** method (in the **Restart Monitoring Engine** list).
6. If you didn't backup **/var/lib/centreon-gorgone/.keys/\***, you will need to change the poller's fingerprint in the cache of the central server. Read [the following article](https://thewatch.centreon.com/troubleshooting-41/poller-does-not-work-after-migration-or-reinstallation-fingerprint-changed-for-target-1177) on our community platform The Watch.
## Case n°3: VM snapshots
If your poller is running on a VM, take regular snapshots of your poller. In case a problem occurs, restore the snapshot as with any virtual machine.
Loading

0 comments on commit 4ad4c8c

Please sign in to comment.