L'utilisation des réseaux d'entreprise devient de plus en plus complexe. Les deux dernières décennies ont vu un changement radical dans le paysage de la mise en réseau en raison de la dépendance croissante à l'égard du réseau d'entreprise pour une large gamme d'applications. La convergence des réseaux voix, vidéo et données a ajouté beaucoup plus de variables pour déterminer le comportement d'un réseau. Différentes applications influencent le réseau de différentes manières, ce qui impose d'exercer un contrôle complet sur l'utilisation de la bande passante du réseau pour garantir des performances réseau optimales. Pour ajouter à cela, l'éclatement de la bulle des médias sociaux a eu son propre impact sur le réseau. Cela conduit à un réseau complètement complexe qui gère de nombreuses classes, types et sous-catégories de trafic. Il est extrêmement important d'identifier et d'attribuer une priorité maximale au trafic essentiel à votre entreprise pour utiliser efficacement votre réseau. La qualité de service, connue sous le nom de QoS, est un excellent moyen d'atteindre cet objectif et d'attribuer la priorité au type de trafic souhaité sur le réseau. Cela offre une multitude d'avantages tels qu'une meilleure prévisibilité, sécurité, mesurabilité et une garantie de prestation de services essentiels. Voici quelques principes de base de la qualité de service que vous devez connaître pour le concevoir et l'implémenter avec succès sur le réseau.
La qualité de service (QoS) est le terme utilisé pour définir la capacité d'un réseau à fournir différents niveaux d'assurance de service aux différentes formes de trafic. La QoS est une technique pour optimiser l'utilisation du réseau en priorisant le trafic en fonction de vos objectifs. Chaque organisation est différente en termes de nature de l'entreprise et des processus suivis. En fonction des différents objectifs d’entreprises, le réseau est utilisé à différentes fins en fonction du trafic à prioriser sur le réseau. Cela garantit à tout moment la livraison hautement prioritaire des applications critiques et sensibles aux retards. La QoS est un ensemble de normes et de techniques garantissant des performances élevées des applications critiques sur le réseau. La qualité de service, en tant que mécanisme, pourrait être exploitée par les administrateurs réseau pour utiliser au mieux leurs ressources sans avoir besoin d’extension ou d’améliorations sur le réseau. La QoS permet d'assurer un réseau performant, en accordant une priorité maximale aux applications hautement critiques pour l'entreprise. Cela garantit la livraison rapide des applications stratégiques, ce qui optimise l'utilisation de votre réseau d'entreprise.
À l'ère actuelle des réseaux convergents, il s'agit d'un réseau unique qui gère différents types de trafic comme la voix, les données et la vidéo. Tout cela relève de la catégorie de livraison au meilleur effort, ce qui signifie que tous ont une chance égale d'être abandonnés en cas de congestion. Cela conduit à une situation où la bataille entre les applications critiques de l'entreprise et d'autres applications commence. Pour une utilisation efficace de la bande passante du réseau, il est essentiel que les applications critiques soient plus prioritaires que les autres applications. L'exigence fondamentale dans ce cas devient la classification de l'application. Les applications exécutées sur le réseau doivent être classées en deux ensembles, le premier étant les applications critiques pour l'entreprise (CRM, ERP, VoIP d'entreprise, etc.) et le second les applications intensives en bande passante qui ne contribuent pas à l'entreprise (streaming, partage de fichiers peer-to-peer, jeux en ligne, radio Internet, etc.).
Lorsqu'un certain nombre d'applications intensives en bande passante s'exécutent en parallèle sur le réseau, le réseau est sujet à l'encombrement en raison d'un volume de trafic beaucoup plus volumineux qu'il ne peut réellement le gérer. Lorsque la congestion se produit, le trafic est interrompu, ce qui peut entraîner la perte de données et l'échec de la livraison des applications qui peuvent être critiques pour l'entreprise. Il devient ainsi la priorité absolue d'un administrateur de réseau d'attacher une importance maximale aux applications stratégiques par rapport aux autres applications intensives en bande passante qui ne sont pas pertinentes pour l'entreprise.
Prenons un scénario où un réseau encombré gère le FTP et un appel VoIP. FTP a un niveau de sensibilité inférieur à la latence et à la lenteur du réseau. Bien que le transfert puisse se produire à un rythme plus lent, la livraison du fichier n'est pas affectée mais pour la vitesse de livraison. Mais, si les paquets VoIP sont affectés en raison de la lenteur du réseau, cela entraînera un son haché à la réception, ce qui ira à l'encontre du but même de la communication. La dépendance du réseau pour la voix et la vidéo a ouvert un facteur critique appelé «sensibilité au retard d'une application». Même les moindres retards peuvent entraîner une mauvaise qualité de la VoIP ou de l'appel vidéo, affectant ainsi le bon fonctionnement de l'entreprise qui dépend largement du réseau. Dans ce scénario, la hiérarchisation des applications devient une fonction essentielle d'un administrateur réseau.
Les modèles d'utilisation du réseau ont radicalement changé au fil des ans. Le volume de trafic vidéo sur le réseau augmente les variétés. La demande de haute définition et de 3D demande plus de bande passante et ajoute encore plus à l'encombrement du réseau. Voici quelques statistiques des résultats de l'index de réseautage visuel Cisco :
Avec la vitesse explosive à laquelle la majeure partie du trafic vidéo augmente dans le réseau, ajouter plus de bande passante est un moyen de le gérer. Mais, lorsque des approches telles que la «durabilité», «l'utilisation judicieuse des ressources existantes» sont la clé pour gérer une entreprise en ces temps, une utilisation optimale des ressources actuellement disponibles est une meilleure approche. La QoS est un mécanisme qui aide à atteindre cet objectif avec une grande facilité.
Une compréhension de ce qui constitue votre configuration QoS est extrêmement importante pour une mise en œuvre efficace. Les aspects fondamentaux de la QoS sont :
Comme nous l'avons vu précédemment, il existe différents types d'applications qui s'exécutent sur le réseau. Des applications comme le courrier électronique, le CRM, le point de partage, l'intranet, la base de données, la VoIP, le streaming, les jeux, le partage de fichiers, l'hébergement de fichiers, etc. dépendent fortement du réseau et tous ces éléments ne sont pas importants pour les entreprises. Même parmi les applications stratégiques, le niveau d'importance de chaque application est différent. Dans un premier temps, la classification des applications est essentielle pour déterminer comment hiérarchiser ces différentes applications. Les 2 étapes suivantes constituent la classification du trafic :
Traditionnellement, les listes de contrôle d'accès (ACL) étaient utilisées comme outils d'identification. La liste d'accès est généralement un ensemble d'instructions qui définit un modèle spécifique qui serait trouvé dans un paquet IP. Dans cette approche, le paquet entrant dans une interface est analysé pour le modèle spécifique et la décision de l'autoriser ou de le refuser dépend de la correspondance du modèle. Un handicap majeur de cette approche est que plus la liste est longue, plus le temps de recherche est long. Dans le cas d'applications sensibles aux retards, cette approche ne fonctionnerait pas bien en raison de son insensibilité à la latence.
Catégories d'application
Sous-catégories d'application
NBAR est donc un moteur de classification intelligent qui aide à conduire vos métriques de QoS dans des normes acceptables.
NBAR est un système de classification du trafic sur le réseau. NBAR est une reconnaissance d'application basée sur le réseau capable d’analyser le trafic de Layer 4 au Layer 7 et pas seulement la couche d'application. Avec une telle visibilité, il peut reconnaître les applications qui utilisent des ports dynamiques comme skype qui se rapportent à des catégories et sous-catégories spécifiques d'applications sur le réseau. Certaines catégories d'applications exécutées sur le réseau sont :
Dans l'action de marquage, le paquet identifié est associé à une valeur unique (marquée avec) relative à sa classe de trafic. Le paquet sera identifié avec cette valeur marquée, en termes de QoS et son traitement dépendra de cette valeur marquée. Les options de marquage communes disponibles sur les routeurs et commutateurs Cisco sont les valeurs IP Precedence, DSCP, CoS, ToS, QoS group et MPLS EXP. Pour une utilisation optimale des ressources du routeur, il est fortement recommandé de marquer le plus près possible de la source. Le marquage est la base pour attribuer la priorité au trafic sur le réseau.
Une file d'attente est utilisée pour stocker le trafic jusqu'à ce qu'il soit autorisé à passer. Il est impératif d'avoir un mécanisme de mise en file d'attente en place même si les risques de congestion sont très minimes. La mise en file d'attente est particulièrement utile lorsque les organisations attribuent des liens à faible vitesse pour des applications non essentielles concernant le trafic Web, comme le partage de fichiers, etc. Des vitesses élevées sont généralement recommandées pour les applications professionnelles telles que Citrix, Webex, etc.
Parmi les mécanismes de mise en file d'attente disponibles, l'administrateur réseau peut suivre une approche qui correspond le mieux aux buts et objectifs de l'organisation, au type de réseau, etc. Mais, il est fortement recommandé d'avoir un mécanisme de mise en file d'attente en place.
Les trois éléments clés de la mise en œuvre de la QoS sont :
La carte de classe est l'endroit où les critères du Layer 3, du Layer 4 et du Layer 7 sont définis, ce qui permet d'identifier la classe de trafic. Il s'agit d'un élément important de la classification des différents types de trafic sur le réseau. Une carte de classe est la base avec laquelle le trafic est classé et on définit les différentes classes de trafic sur le réseau avec les informations que nous obtenons de la couche Application, Transport et Réseau.
La carte de classe est l'endroit où les critères du Layer 3, du Layer 4 et du Layer 7 sont définis, ce qui permet d'identifier la classe de trafic. Il s'agit d'un élément important de la classification des différents types de trafic sur le réseau. Une carte de classe est la base avec laquelle le trafic est classé et on définit les différentes classes de trafic sur le réseau avec les informations que nous obtenons de la couche Application, Transport et Réseau. Les composants clés des mappages de classes sont les «déclarations de correspondance» et les «critères de correspondance». Un ensemble de conditions est spécifié en fonction de l'exigence de l'administrateur réseau de classer le trafic. Lorsque les exigences de correspondance sont remplies, le paquet est classé sous le nom de classe respectif. Si l'instruction de correspondance échoue, le paquet appartient à la classe par défaut. La classe dans laquelle tombe un paquet déterminera ses chances d'être abandonné ou passé en cas de congestion.
Une déclaration de correspondance pourrait être écrite pour séparer les paquets FTP et les paquets VoIP. Les paquets VoIP sont beaucoup plus sensibles au délai que les paquets FTP. Ainsi, lorsque les paquets VoIP sont séparés des paquets par défaut, cela aiderait à hiérarchiser les paquets VoIP compte tenu de leur sensibilité à la latence et au retard.
Une fois les cartes de classe créées, l'étape suivante consiste à décider comment gérer le trafic classifié. La segmentation du trafic en différentes classes est désormais terminée et l'administrateur réseau doit décider comment gérer ces différentes classes de manière efficace.
L'activation des stratégies se produit à l'aide de la commande de stratégie de service. Une fois les classes définies et la stratégie déterminée, l'activation de ces stratégies est l'étape de mise en œuvre qui se produit via les stratégies de service.
Après la conception et l'implémentation de la QoS, la validation est l'étape finale et clé. La seule façon de valider une quantité est de la mesurer. Ainsi, la mesure et l’analyse de la QoS deviennent un aspect essentiel pour garantir des politiques de QoS efficaces dans le réseau. La profondeur et la portée d’analyse de la qualité de service varient au cas par cas. Mais, selon des normes minimales, le contrôle devrait inclure les tendances d'utilisation des liaisons et les informations sur les pertes de paquets.
Il existe plusieurs façons de surveiller la qualité de service, comme la QoS-MIB basée sur Cisco, NetFlow, etc. informations sous des formes faciles à interpréter. L'outil doit également être capable de trier les données et de signaler les taux de chute.
NetFlow Analyzer de ManageEngine prend en charge Cisco CBQoS et rend ainsi compte des politiques de QoS que vous avez déployées. Le rapport montre la pré-politique, la post-politique et les baisses de classe de trafic différentes avec la mise en file d'attente. L’analyse CBQoS à un niveau aussi profond vous aide à valider les politiques de QoS. Vous pouvez modifier vos stratégies en fonction des rapports que vous voyez dans NetFlow Analyzer. Il s'agit d'un outil qui peut être utilisé au mieux pour la validation de la politique de la QoS.