Mes services
Assistance à distance

Team Viewer est un outil qui permet au Service Desk CISEL de vous dépanner à distance.

Actualités
24.08.17

Dès lors qu’il s’agit d’effectuer des vérifications sur un parc informatique, les points essentiels sont la rapidité et la précision du diagnostic.

En la matière, les outils de monitoring occupent une place primordiale dans l’armada à la disposition des entreprises et de leurs équipes informatiques.

Afin de comprendre comment fonctionne le monitoring, il faut s’attacher à savoir quels sont les objectifs de ses outils, de quelle manière ils s’intègrent, comment ils effectuent leur travail, ainsi que leur limite et comment les repousser.

#1. Un ancien monitoring automatique face à un nouveau monitoring dynamique
Les outils de monitoring automatique sont issus de technologie ayant parfois plus d’une quinzaine d’années.

Si ces systèmes d’avertissement ont eu leur heure de gloire, ils sont dorénavant largement dépassés.

Afin de comprendre en quoi ces programmes ne sont plus adaptés aux nouvelles problématiques informatiques, nous allons décortiquer leur installation et leur fonctionnement.

Mais pourquoi parle-t-on d’automatisme ?
Dans le terme même d’automatisation se niche une double signification.

D’une part l’idée de base est que les ordres sont exécutés automatiquement, sans nécessiter la moindre intervention humaine.

Cette facilité d’utilisation permet d’éviter les interventions manuelles.

Mais pour mettre en place l’automatisation, il est nécessaire de pouvoir paramétrer correctement le logiciel de surveillance qui déclenchera les alertes.

C’est bien là que les premières difficultés se font sentir.

Installer ce type de programme nécessite des jours de paramétrage précis et fastidieux.

Il s’agit de ne pas omettre le moindre paramètre à intégrer dans l’automatisation de l’analyse et des avertissements transmis au service informatique.

La mise en place manuelle du système est bien le talon d’Achille le fragilisant.

#2. Monitoring : L’ajout d’un simple disque dur

Un exemple simple.

Le rajout d’un disque dur sur un serveur peut devenir bien plus long et fastidieux que ce que l’on pourrait supposer.

Une fois l’installation effectuée, le monitoring se doit d’être paramétré à nouveau afin de prendre en compte ce tout nouveau disque dur.

Il est nécessaire d’expliquer au logiciel de surveillance de lancer un avertissement sur ce nouvel espace de stockage lorsque ce dernier se trouve rempli à 90%.

Toute cette configuration se fait manuellement, avec les risques d’erreurs humaines, en particulier lors d’oublis dans le paramétrage: une panne peut intervenir si le disque est rempli à 100% car le technicien n’a pas mis en place l’ensemble des ordres.

De plus, une forme de rigidité se fait ressentir lorsque des alertes sont lancées, sans que la moindre hiérarchie soit établie entre les différentes formes de signalement.

Ainsi sur un serveur équipé d’une douzaine de switchs, si l’un devient défaillant, sa fonction est automatiquement basculée sur le switch suivant.

Cependant, l’alerte va être émise quoi qu’il advienne.

Impossible de savoir au moment de la réception du message d’erreur le niveau de gravité.

Les vérifications doivent donc se faire par le biais de techniciens qui s’attacheront à vérifier les réseaux, puis les serveurs, puis les applicatifs, etc., et chacun avec ses propres outils d’analyses.

#3. Trop d’alertes tuent l’alerte

Cette automatisation ne permet pas d’avoir une vision globale.

Par ailleurs, la multiplication des alertes affaiblit la vigilance face à ces dernières.

Lors des premiers messages d’avertissement envoyés par le monitoring, les vérifications peuvent estimer que ces signalements ne sont pas forcément critiques, ou pire, non pertinents.

Les techniciens IT commencent à être habitués à recevoir ses alertes et n’y prêtent plus autant d’attention.

De cela advient une négligence globale face aux alertes et donc aux problèmes.

Jusqu’au moment où un véritable problème apparaît et passe au travers du filet de surveillante et d’analyse des responsables IT.

#4. Vers une solution globale et générale

Avec le monitoring dynamique de CISmon, vous avez accès à une solution globale.

Elle intégre les dernières technologies en matière

  • D’intelligence artificielle
  • De Big Data (traitement des données de masse)
  • D’opérateur virtuel

Contrairement aux versions automatiques des systèmes d’alertes, CISmon ne pratique pas une analyse de bas en haut, mais de haut en bas.

Qu’est-ce qu’une analyse de haut en bas ?

Afin de comprendre la différence essentielle dans le processus d’analyse, il faut s’attacher à comprendre l’analyse mise en place par le système.

Une analyse classique de bas en haut va commencer par la recherche des problèmes dans l’infrastructure, peu importe l’importance du problème.

Dans une analyse de haut en bas, le but n’est pas de voir l’infrastructure fonctionner, mais de voir le business fonctionner.

Reprenons l’exemple des switchs sur le serveur.

Si l’un tombe en panne pendant la nuit, une analyse de bas en haut va lancer une alerte immédiate et urgente.

Inversement, dans une analyse de haut en bas, telle que l’effectue le package CISmon, l’analyse va conclure qu’un autre switch a pris le relais, le système continue de fonctionner, et CISmon va attendre la présence d’un technicien le lendemain matin avant d’émettre un signalement.

On économise des frais importants de mobilisation de personnel.

Le package CISmon est un ensemble de solutions  informatique, vous offrant une longueur d’avance sur les problèmes pouvant éventuellement subvenir.

Son installation est extrêmement rapide, de l’ordre de trente secondes par serveur.

Un parc de cinquante serveurs est équipé en un petit quart d’heure !

De plus, cette mise en place n’est pas intrusive et l’analyse se fait entièrement depuis le cloud de CISEL.

#6. Un petit aperçu des différents outils inclus dans l’offre

  • Dynatrace:

Ce programme est le cœur du service CISmon, combinant Intelligence Artificielle et Big Data.

La manière dont il va analyser intelligemment les dysfonctionnements va être approfondi par l’ensemble des éléments qu’il va intégrer.

Ainsi il va se demander à quelle heure a lieu une surcharge sur le CPU d’un serveur, et s’attacher à vérifier que cela ne correspond pas à un fonctionnement normal dû à un autre système.

Dans le cadre de ce monitoring intelligent, CISmon, avec Dynatrace, tentent de trouver des corrélations entre différents faits afin de cumuler plusieurs alertes en une.

Alors que sur du monitoring automatique, chaque système travaille indépendamment, avec Dynatrace, une vue d’ensemble est mise en place.

Les alertes répétées sont ainsi temporisées de manière à émettre un seul signalement global.

Il y a également une estimation de la gravité !

Avec Dynatrace, c’est l’ensemble des aspects applicatifs, du réseau, des lignes, des connexions, des vitesses des liens, des ports et des routeurs qui sont dynamiquement surveillés, ainsi que la charge sur les CPU et la vitesse des RAM.

Le responsable informatique possède, dans son éventail d’outils, un panneau de contrôle lui donnant enfin cette prise de recul nécessaire.

Ainsi, si en quittant son bureau le soir, on lui signale un ralentissement, il peut immédiatement indiquer qu’il est au courant, qu’il connaît l’origine de cette lenteur et que son niveau de gravité ne nécessite pas d’intervention urgente.

CISmon va chercher à comprendre la racine du problème, déterminer que la baisse de la vitesse ne trouve pas son origine sur une application, mais provient en réalité d’un autre serveur, d’une base de données ou d’un disque plein… ce qui entraîne ce ralentissement.

Le degré de la sensibilité de Dynatrace est paramétré en fonction des besoins du client et des évènements sur le serveur.

Le contrôle ne se fait donc plus manuellement, et est déchargé sur le monitoring CISmon.

Le gain de temps est énorme, et le personnel moins mobilisé sur ces tâches d’analyse.

La force de Dynatrace réside dans sa capacité « Deep Dive ».

Lorsqu’il faut remonter dans le passé afin de tracer une erreur, le panneau de contrôle permet de visualiser l’ensemble de l’historique.

  • Opsgénie:

Voici ce qui distingue totalement le service CISmon des autres solutions incluant Dynatrace.

Dynatrace en soit est un logiciel extrêmement performant, et offre au responsable IT un outil d’analyse approfondi.

Mais sans un opérateur virtuel, cela n’a que peu d’intérêt !

Opsgénie est cet opérateur qui – en coulisse – va recevoir en temps réel les alertes de Dynatrace afin de les filtrer et de les traiter.

Concrètement, si douze serveurs souffrent de lenteurs du réseau et du disque dur, Dynatrace va émettre un signalement, et Opsgénie va vérifier si l’heure ne correspond pas en réalité à une sauvegarde.

  • Service Now

Le dernier élément du service CISmon est un logiciel de gestion des incidents Service Management, qui permet d’assurer une traçabilité de tout ce qui  se déroule, et forme une garantie de conformité des services informatiques.

Les entreprises sont particulièrement soucieuses sur ce dernier point.

De cette manière, tous les incidents, toutes les interventions et toutes les activités des ingénieurs ou du service desk sont répertoriés.

  • Intelligence Artificielle, Big Data et Opérateur Virtuel

C’est en se basant sur ces trois piliers fondamentaux que CISmon parvient à fournir l’un des outils les plus avancés en terme de monitoring.

Il parvient à résoudre totalement, en quelques minutes, des problématiques qui subsistaient depuis des semaines sur de nombreux réseaux, serveurs et applications.