Les réseaux changent. Son avenir et une grande partie de l'innovation et de la rentabilité se produisent à la pointe. Il y a un changement qui commence à se produire et c'est un changement que vous ne pouvez pas ignorer si vous voulez profiter des possibilités offertes par la périphérie du réseau. Les applications devraient passer des centres de données à la périphérie et, ce faisant, ouvriront une énorme nouvelle opportunité de marché.
Sommaire
A propos de l'auteur
Julius Francis, directeur de la gestion des produits et du marketing, Juniper Networks.
Les chiffres racontent une histoire fascinante. Le marché mondial de l'informatique de pointe devrait croître à un taux de croissance annuel composé de 34% entre 2018 et 2024, atteignant une valeur de près de 7 milliards de dollars américains. L'Europe est l'un des acteurs majeurs de l'espace. Mais au cœur de cette prévision de croissance se trouve l'importance de l'intelligence pour que le réseautage de pointe fonctionne à son plein potentiel.
Le boom de l'informatique de pointe est l'adoption rapide du Internet des objets (IoT), véhicules autonomes, trading à grande vitesse, streaming de contenu et jeux multijoueurs. Ces applications partagent un besoin spécifique: le transfert de données à latence quasi nulle, généralement défini comme moins de cinq millisecondes.
Pour de nombreuses technologies émergentes, même cinq millisecondes est trop élevé, c'est pourquoi il est logique de déplacer les applications et les données métier aussi près que possible du point d'ingestion des données. Cela réduit le temps d'aller-retour global et en tant que tel, les applications telles que les véhicules autonomes peuvent accéder aux informations en temps réel pour naviguer efficacement et éviter les collisions.
Surmonter les obstacles
Cependant, l'informatique de pointe n'est pas sans défis – en particulier pour les fournisseurs de services de télécommunications. Un facteur de complication que nous constatons de plus en plus est que les fonctions réseau évoluent vers des applications de cloud computing déployées sur une infrastructure informatique virtualisée, partagée et élastique.
Regardez la plupart des environnements virtualisés et vous verrez que chaque serveur physique héberge des dizaines de machines virtuelles et / ou de conteneurs. Et ces machines sont constamment créées et détruites plus rapidement que les humains ne peuvent les gérer. Les outils d'orchestration peuvent être utiles ici car ils gèrent automatiquement l'environnement virtuel dynamique en fonctionnement normal. Cependant, en ce qui concerne le dépannage, les humains sont toujours responsables de son exécution manuelle.
Et c'est là que les choses peuvent devenir difficiles. Les interruptions de service ont un effet négatif sur les fournisseurs de services, de sorte qu’elles exercent à leur tour une pression sur la direction informatique pour qu’elle règle tout problème le plus rapidement possible. Les informations dont ils ont besoin pour identifier la source du problème et trouver une solution sont déjà là et le plus grand défi est en fait de parcourir les rames de données de télémétrie des composants matériels et logiciels. Ce dont ils ont besoin, c'est d'un coup de main pour travailler rapidement sur les données et obtenir les bonnes informations en fonction des tendances qu'ils observent.
Une réponse basée sur les données
Une infrastructure riche en données, hautement dynamique et dispersée est l'environnement parfait pour l'intelligence artificielle, en particulier l'apprentissage automatique. L'apprentissage automatique est efficace pour parcourir des pools de données afin de repérer des modèles d'une manière qui dépasse les capacités des opérateurs de réseau.
Les outils basés sur l'apprentissage automatique s'améliorent constamment et s'adaptent en s'auto-apprenant à partir de leurs expériences et en effectuant des analyses de type humain rapides en conséquence. Et avec l'automatisation ajoutée au mélange, les informations peuvent être transformées en actions. Cela permet de surmonter le défi d'arriver à des résultats concrets dans le monde dynamique et désagrégé de l'informatique de périphérie.
Déployez l'apprentissage automatique et la surveillance du réseau en temps réel et les informations que vous obtenez à l'autre extrémité alimenteront des outils automatisés qui peuvent provisionner, instancier et configurer des fonctions de réseau physique et virtuel. De plus, ce processus se fera beaucoup plus rapidement et avec plus de précision que si un humain devait effectuer manuellement la tâche. En utilisant l'intelligence et l'efficacité de l'apprentissage automatique et de l'automatisation, vous économiserez un temps considérable au personnel, qui peut être utilisé pour diriger des initiatives stratégiques qui contribuent plus directement à la construction des résultats.
Construire et évoluer dans le cloud
L'apprentissage automatique peut jouer un rôle clé dans le développement d'applications dans un contexte informatique de pointe. Les opérateurs télécoms se sont largement éloignés du développement de logiciels en cascade, où de longues étapes d'approbation entre chaque service signifiaient que les applications pouvaient prendre des années. Le développement natif dans le cloud repose davantage sur le développement agile et DevOps, ce qui signifie que plusieurs versions peuvent être déployées en une semaine.
Cependant, le passage à la périphérie pose des défis pour la mise à l'échelle des applications natives du cloud. Si vous êtes habitué à un environnement composé de quelques centres de données centralisés, vous savez que les opérateurs humains peuvent déterminer de manière réaliste les conditions de performances optimales des fonctions de réseau virtuel (VNF) qui composent l'application.
L'environnement étant divisé en milliers de petits sites, c'est une toute autre histoire avec des besoins plus sophistiqués qui doivent être pris en compte. En effet, chacun des petits sites a des caractéristiques opérationnelles légèrement différentes. Les opérateurs humains n'ont tout simplement pas la bande passante pour faire face. C'est là que l'apprentissage automatique est requis. Des algorithmes d'apprentissage non supervisés peuvent exécuter tous les composants individuels tout au long d'un cycle de pré-production pour évaluer leur comportement sur un site de production. Cela donne au personnel d'exploitation la confiance que le VNF testé fonctionnera comme souhaité au bord.
Utiliser l'IA pour éliminer les problèmes de dépannage
Un autre domaine dans lequel l'IA et l'automatisation peuvent apporter une valeur ajoutée est le dépannage dans les environnements natifs du cloud. Supposons, par exemple, que le VNF pour une application native dans le cloud s'exécutant à un emplacement périphérique fonctionne à un niveau inférieur aux autres instances de l'application. Le fait initial à établir est de savoir s'il existe réellement un problème, car certaines variations de performances entre les applications ne sont pas inhabituelles.
Pour répondre à la question, il faut déterminer la plage normale des valeurs de performance VNF en fonctionnement réel. Une façon de le découvrir serait qu'une personne prenne des lectures d'un grand nombre d'instances VNF et utilise ces lectures pour calculer des valeurs d'indicateurs de performance clés acceptables. Cette approche n'est pas recommandée pour plusieurs raisons. Cela prend beaucoup de temps, il est sujet aux erreurs et doit être répété à chaque fois qu'il y a des mises à niveau logicielles, des remplacements de composants ou des variations des modèles de trafic.
L'IA, en revanche, fonctionne différemment. Il peut déterminer les KPI plus rapidement et plus précisément, tout en ajustant les valeurs des KPI selon les besoins lorsque les paramètres changent. Tout cela se produit sans intervention humaine. Une fois que l'IA détermine les valeurs KPI, l'automatisation prend le relais. À l'aide d'un outil automatisé, il est possible de surveiller en continu les performances et d'identifier les VNF sous-performants.
De là, les informations peuvent être examinées pour voir si un nouveau VNF ou un nouveau serveur physique est nécessaire. La puissante combinaison de l'intelligence artificielle et de l'automatisation garantit que la conformité aux SLA est étanche et réduit également la charge pesant sur les opérateurs humains.
Un avenir à la pointe
Une nouvelle normalité se crée autour de nous. Les fournisseurs de services utilisent de plus en plus les architectures orientées périphérie et, en tant que tels, les groupes informatiques utilisent l'IA et l'apprentissage automatique pour trouver de nouvelles façons d'optimiser les opérations réseau, dépanner les VNF sous-performants et assurer la conformité SLA à grande échelle.
Pour accélérer le voyage vers cet avenir axé sur l'IA, les technologies s'améliorent au rythme, offrant de nouveaux avantages. Par exemple, divers systèmes et dispositifs peuvent fournir une télémétrie haute fidélité et haute fréquence qui peut être analysée, des bus de messages hautement évolutifs tels que Kafka et Redis peuvent capturer et traiter cette télémétrie, et calculer la capacité et les cadres d'IA tels que TensorFlow et PyTorch créer modèles des flux de télémétrie bruts. Il s'agit d'un ensemble d'outils robustes qui peuvent voir en temps réel si les systèmes de production fonctionnent comme ils le devraient et également détecter et résoudre les problèmes qui surviennent dans les opérations.
Cela dit, les fournisseurs de services ont beaucoup à explorer afin de tirer un avantage des réseaux de périphérie et ils devraient voir la transition vers la périphérie comme une opportunité. En déployant l'apprentissage automatique et l'automatisation, ils peuvent resserrer leurs processus pour réduire les charges de travail chronophages. Et ils peuvent également modifier tous les flux de travail en utilisant de nouvelles informations auxquelles ils n'avaient jamais accès auparavant.