7 impacts des attaques DDoS sur les environnements Cloud

Une question que j’ai rencontré à maintes reprises dans le domaine de la cybersécurité ces derniers temps est de savoir quels sont les impacts des attaques DDoS (Distributed Denial of Service) sur les environnements cloud ?

Le principal avantage du cloud est qu’il s’adapte élastiquement pour répondre à la demande variable, augmente instantanément, diminue lorsque la demande diminue – en quelques secondes. Ainsi, la logique du profane pourrait dire que les services basés dans le cloud sont à l’abri des effets de temps d’arrêt des attaquants DDoS, mais la possibilité de gigantesques factures inattendues est une évidence ?

Après avoir exploré le sujet avec des architectes du cloud et des solution cloud provider, avec une expérience dans l’exécution de services sur des plates-formes de cloud comme Amazon AWS et Azure, voici sept complexités interconnectées sur lesquelles réfléchir :

L’expérience client est la clé

Le fait est que la majorité des attaques DDoS ont l’ambition limitée de tuer entièrement un service, mais plutôt de nuire de façon significative à l’expérience client. Ainsi, sans une protection DDoS capable de distinguer le trafic légitime du mauvais, il n’est pas rare que les attaques DDoS passent inaperçues et gâchent l’expérience client dans les environnements cloud, comme c’est le cas dans les centres de données physiques traditionnels.

Les problèmes d’infrastructure DDoS sont différents entre les centres de données traditionnels et le cloud computing.

Dans les environnements de centres de données physiques traditionnels, toute l’infrastructure de base est la cible de la charge DDoS. Dans les environnements Cloud, ce modèle change. Pour commencer, les attaques contre l’infrastructure, habituellement un outil de mitigation des flux est présent en amont des services, outil pris en charge par le fournisseur de services cloud. Il y a des pannes enregistrées où les fournisseurs de services cloud sont eux même les victimes, comme l’attaque de l’entreprise DynDns en 2016, mais de tels incidents demeurent des exceptions à la règle pour l’instant. Le résultat de la protection intégrée est que les clients ne ressentent normalement pas d’une attaque DDOS ou l’augmentation de la facture à cause d’une augmentation de la consommation de la bande passante.

Passer d’un centre de données traditionnel vers le cloud auto-scalable.

Si un client intègre son centre de données traditionnel dans un environnement cloud sans transformation, il relèvera inévitablement la majorité de ses capacités d’hébergement. Dans une attaque, le client serait presque assuré d’atteindre une limite de licence, un seuil d’OS, une file d’attente de messagerie ou une autre interconnexion entre les applications frontend et backend qui causerait une panne ou une dégradation majeure du service qu’aucune auto-scalabilité ou des ressources de RAM et CPU virtuelles ne pourrait atténuer. Dans un sens, cet échec de la mise à l’échelle pourrait les protéger contre le pire d’une attaque dite de déni de service économique, EDoS, AKA, une facture énorme. Ce n’est pas quelque chose à applaudir, bien sûr.

La prévention de la surfacturation est à votre charge

Les principaux fournisseurs de cloud computing ne fournissent tout simplement pas de plafonds de consommation. Ce n’est pas qu’il s’agit de revenus contraires aux intérêts (ce qui est bien sûr le cas), mais autant ils ne veulent pas être acteur de la limitation de consommation de leur client en raison de leur implication dans la fermeture automatique du service. Pour cette raison, il appartient aux utilisateurs finaux de définir les seuils d’alerte de dépenses, puis de prendre des contre-mesures pour limiter l’impact d’une attaque EDoS.

Les applications cloud sont la voie vers une facturation à l’infini.

Les clients font face à une menace sous-jacente : la facturation infinie de leur plateforme cloud. Dépouiller un environnement des limites traditionnelles au profit d’applications cloud est un boulevard pour une attaque DDoS dans le but de nuire économiquement. Il est primordial de définir des limites de consommation. Il est préférable de dégrader le niveau de service d’une application plutôt que de faire exploser le budget.

Le savoir, c’est le pouvoir, les métriques comptent.

Les organisations qui prennent leur jeu du cloud très au sérieux sont parmi les organisations les plus susceptibles de tirer parti d’une meilleure compréhension de l’utilisation pour mieux comprendre l’expérience client et prédire la demande future pour leurs produits. Une société dite Data Driven Company. Dans un exemple frappant, un service de streaming comme Netflix mesurerait le volume de commencements vidéo, la logique étant qu’un ratio de commencements plus élevé que la normale pourrait indiquer un problème de service avec des utilisateurs frustrés qui tentent de recommencer le contenu en cas d’échec initial. Il n’est pas difficile de comprendre qu’une attaque DDoS dans le service, si elle n’est pas atténuée, pourrait complètement rejeter de telles métriques et la valeur qu’elles ont vers le résultat net de l’entreprise.

La mise à l’échelle automatique combinée à des attaques par impulsions est la principale douleur pour les impacts économiques et d’expérience.

L’une des tendances clés est l’attaque par impulsion, par laquelle les organisations subissent des attaques multi-vecteurs qui oscillent entre la couche volumétrique et la couche d’application sur de courtes périodes de temps qui ne laissent aucune place à l’infrastructure pour récupérer ou à la formation de contre-mesures manuelles. Pensez à la façon dont de telles attaques par rafales se jouent contre les déclencheurs de mise à l’échelle automatique, même si l’organisation dispose de la technologie DDoS. La technologie devrait être capable de détecter et d’atténuer les attaques en quelques secondes afin d’empêcher les déclencheurs à échelle automatique. Flottes de serveurs virtuels s’activant automatiquement, restant en ligne pendant un certain temps, puis s’arrêtant à nouveau lorsque la charge disparaît. Vous n’avez plus qu’à penser aux factures inutiles causées par le survisionnement de masse – ce qui s’additionnerait certainement. Cependant, plus sérieusement, quelles sont les implications pour l’expérience client et les frais généraux de gestion pour la supervision des services en ligne et hors ligne à haute fréquence. La plupart des organisations s’attendraient à ce que le service ne soit surmené qu’une ou deux fois par jour pour répondre à une demande variable, et si cela se produisait plus de 500 fois par jour ? Les organisations dont j’ai entendu parler et qui ont été confrontées à ce scénario étaient fières de la façon dont elles ont combattu les attaques de 48 heures grâce aux efforts déterminés du personnel de DevOps pour continuer à installer des bouchons dans le barrage afin de limiter le rayon de facturation de l’explosion. Mais dans les campagnes qui durent beaucoup plus longtemps, la distraction pour l’organisation des TIC est irréfutablement très problématique sans une technologie d’atténuation DDoS très efficace.

En conclusion, le cloud computing ne donne aucune assurance que l’évolutivité inhérente peut atténuer les attaques DDoS.

La douleur pourrait être une panne de service, une dégradation de l’expérience de l’utilisateur ou des dépenses récurrentes inutiles, et la seule atténuation viable est la technologie DDoS qui est suffisamment automatisée pour y faire face.

7 impacts des attaques DDoS sur les environnements Cloud
Notez ce post
Pierre Brévart

DSI d'un grand groupe automobile Français j'ai toujours eu à coeur de promouvoir des solutions innovantes, économiques et éco-responsable. Aujourd'hui je partage ma veille publiquement dans ce que j'appelle mon "Labo Digital". Je teste pour vous les dernières innovations en matière de système d'information et de nouvelles technologies.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *