Archives de
Auteur : corexpert

TeamWork annonce l’acquisition de Corexpert, le pure player AWS français, pour accélérer son développement sur le marché du Cloud en France et dans le monde.

TeamWork annonce l’acquisition de Corexpert, le pure player AWS français, pour accélérer son développement sur le marché du Cloud en France et dans le monde.

Paris, le 25 septembre 2017 – TeamWork, spécialisé en conseil, intégration, infogérance de solutions SAP et plateformes technologiques, annonce l’acquisition de Corexpert, spécialiste et pure player Amazon Web Services. Cette complémentarité unique permet à TeamWork de renforcer sa position sur le marché du Cloud en France et dans le monde.

Amazon Web Services (AWS), pionnier du Cloud, fournit un grand nombre de services permettant à tous types de clients de trouver un accélérateur dans le déploiement de leurs infrastructures et de leurs applications business. C’est également le seul fournisseur Cloud répondant à toutes les exigences de performances et de sécurité, et qui plus est certifié sur l’intégralité de l’offre SAP. Les déploiements de projets sont ainsi accélérés et les clients profitent d’une agilité et d’une flexibilité jusqu’à présent réservées à l’industrie du web.

Expert reconnu dans le conseil, la conception et la réalisation d’infrastructures Cloud AWS, Corexpert apporte à TeamWork son savoir-faire, son expérience et son approche DevOps. Certifiée AWS Advanced Consulting Partner, l’équipe Corexpert élabore, déploie et maintient en condition opérationnelle des solutions pour leurs clients, basées sur les services managés les plus innovants d’Amazon Web Services, tout en optimisant en permanence le TCO.
TeamWork, véritable partenaire de la transformation numérique des entreprises, intervient sur les quatre grands métiers : Business Consulting, SAP Business Solutions, Technology Platforms et Data Analytics. Reconnu par ses clients pour son expertise et son expérience, TeamWork accompagne aussi bien des grands comptes internationaux que des PME. Les 15 implantations internationales de TeamWork lui permettent de garantir une infogérance technique et fonctionnelle en 24/7 ainsi qu’une proximité géographique avec ses clients.

“Corexpert nous a permis d’accélérer le déploiement sur le cloud AWS et le Time to Market de l’offre SaaS Graphics Workstation d’Orinox (OCWS). Ce rapprochement avec TeamWork nous conforte dans leur capacité à nous accompagner dans nos projets clients (grandes entreprises de l’énergie françaises, américaines et asiatiques) à l’international et en 24/7”
Maxime Fourreau, Fondateur et CEO de Orinox

Le rachat de Corexpert par TeamWork s’inscrit dans une stratégie de développement d’un centre de compétences Cloud AWS permettant d’adresser de nouveaux besoins comme l’IoT, le Big Data ou la Blockchain, véritables leviers de croissance de la transformation digitale. La collaboration avec Corexpert, démarrée depuis plusieurs mois, a permis également à TeamWork de conforter sa position d’intégrateur SAP sur la plateforme AWS.

“L’acquisition de Corexpert par le groupe TeamWork était une évidence aussi bien pour notre développement et partenariat avec Amazon Web Services que nous avons démarré avec des projets SAP On HANA, que sur les valeurs partagées par nos deux structures. La parfaite complémentarité de nos expertises va permettre à nos clients de poursuivre ou accélérer leur transformation digitale, notamment avec l’adoption du cloud AWS.”
Philippe Rey-Gorrez, PDG du Groupe TeamWork
« La prise de participation majoritaire dans Corexpert par le groupe TeamWork est un signal fort envoyé à tous nos clients nationaux et internationaux. Les projets Cloud sont de plus en plus ambitieux et nécessitent des équipes plus importantes et pluridisciplinaires. Corexpert prouve au quotidien sa valeur technologique et innovante ; rejoindre le groupe TeamWork va permettre un développement plus rapide et structuré pour répondre à un marché demandeur de partenaires de tailles intermédiaires. »
Alexis Daguès, Cofondateur et DG de Corexpert

TeamWork et Corexpert reviendront plus en détails sur leur partenariat à l’occasion de l’AWS Transformation Day qui aura lieu le 8 novembre prochain à la Salle de la Mutualité à Paris et le 14 novembre au Centre de Congrès de Lyon. TeamWork et Corexpert seront également présents au AWS re:Invent à Las Vegas du 27 novembre au 1er décembre 2017, réunissant cette année plus 40 000 clients et partenaires d’Amazon Web Services.

À propos de TeamWork

TeamWork, groupe international fondé en 1999 à Genève, est une société indépendante intervenant sur les quatre grands métiers : Business Consulting, SAP Business Solutions, Technology Platforms et Data Analytics. Reconnu par ses clients pour son expertise et son expérience, TeamWork est un véritable partenaire de la transformation numérique des entreprises, accompagnant aussi bien des grands comptes internationaux que des PME. Comptant aujourd’hui près de 450 collaborateurs et 15 implantations internationales (Suisse, France, Vietnam, Singapour, Chine, Inde, Canada, Etats-Unis), TeamWork se distingue par sa capacité à garantir une infogérance technique et fonctionnelle en 24/7 ainsi qu’une proximité géographique avec ses clients. La compétence, le goût du challenge, les valeurs humaines et le talent de ses équipes permettent à TeamWork une croissance linéaire et une forte fidélisation de ses clients. Pour plus d’informations, visitez www.teamwork.net

À propos de Corexpert

Corexpert, pure player du cloud AWS, a été fondé en 2006. Véritable ESN Cloud Native, son équipe d’une vingtaine de consultants se compose de Développeurs, DevOps et d’Architectes Cloud. Tous ont construit leur expertise en enchaînant les succès clients notamment grâce au Cloud Amazon Web Services dont Corexpert fait l’usage depuis 2010. Partenaire AWS depuis 2014, puis Advanced Consulting Partner en janvier 2017, Corexpert propulse ses clients vers l’usage du Cloud avec un accompagnement soutenu et assure la montée en compétence des équipes clients dans l’usage au quotidien des services managés de AWS. Acteurs de la transformation des organisations IT, les équipes de Corexpert élaborent avec leurs clients la meilleure stratégie Cloud AWS, les accompagnent dans l’adoption du DevOps, automatisent leurs infrastructures Cloud et proposent une supervision dynamique et pro-active.
www.corexpert.net

Contacts Presse

COREXPERT
Alexis Dagues
a.dagues@corexpert.net
+33(0)6.67.45.38.35
TEAMWORK
Daphné Savoundiraradjane
daphne.savoundiraradjane@teamwork.net
+33 (0)6.38.46.07.40

pdf-icon1

Téléchargez le communiqué au format PDF

Bien débuter avec Amazon EC2 Container Service (101) – ECR

Bien débuter avec Amazon EC2 Container Service (101) – ECR

Docker est une technologie qui fait grand bruit depuis plusieurs années maintenant dans le domaine de l’IT.

docker-vs-aws
AWS vs docker in google search

Tous les grands cloud publics (Amazon Web Service, Google Cloud, Microsoft Azure) proposent une solution plus ou moins intégrée pour la gestion des containers. Dans ces articles nous allons vous expliquer comment débuter avec succès sur le service managé Amazon EC2 Container Service.

Cette série d’articles suppose que vous avez créé un VPC où seront créé les instances hôtes pour les containers docker, que la CLI AWS est installée sur votre poste et nous utiliserons une image “Hello-world” (dockercloud/hello-world) disponible sur le docker hub.

1 – Création du dépôt Docker Privé (ECR)

Pour être déployé, une image de container doit être mis à disposition dans un dépôt docker.
Plusieurs solutions sont disponibles, Amazon Web services (AWS) nous propose un dépôt privé managé (ECR) à un tarif intéressant (0,1$/Go/mois au 01/08/2017).

Pour déployer notre image sur ECR ( Amazon EC2 Container Registry ) nous allons tout d’abord récupérer cette image sur le docker hub.

Maintenant que nous avons notre image, nous allons la déposer sur ECR
Nous allons nous connecter à la console web aws pour ecs.

1a – Si vous n’avez pas encore utilisé le service

  • vous allez tomber sur la page “get Started”, il vous suffira alors de cliquer sur le bouton bleu “getStarted” au milieu de la page.
  • Sur l’écran suivant (Getting Started with Amazon EC2 Container Service), décocher la case pour ne pas déployer la demo ECS (sample)
Getting Started with ECS
Getting Started with ECS

1b – Si vous avez déjà utilisé ECS

Il suffit de cliquer sur “Repositories” puis sur “Create Repository”

2 – Sur la page suivante

vous allez pouvoir donner un nom à votre dépôt, helloworld dans notre cas. Puis l’on passe à l’étape suivante (Next step)

ecr-name

3 – La dernière page

elle nous donne toutes les indications pour utiliser le dépôt qui vient d’être créé.

2 – Ajout d’une image sur ECR

Nous allons déposer notre image HelloWorld sur le dépôt. Pour cela nous allons nous connecter sur ECR à partir de notre machine (notre dépôt est en ireland)

Nous obtenons une ligne de commande qui va nous permettre de nous connecter à ECR

Nous sommes maintenant connectés, nous pouvons pousser l’image locale

Si vous vous connectez sur la console web AWS, vous pourrez voir votre image dans le dépôt

Docker Image in ECR repository
Docker Image in ECR repository

Dans le prochain article nous allons utiliser cette image pour lancer un container docker sur ECS.

@ Très bientôt

Planifiez vos tâches CRON avec AWS

Planifiez vos tâches CRON avec AWS

Utilisé en conjonction avec Amazon CloudWatch Events, Amazon SNS permet le déclenchement de tâches CRON appelant des web services. Nous allons voir dans ce post comment mettre cela en place facilement.

Dans un premier temps, il nous faut créer un topic SNS.
create_topic

Puis, créer une subscription vers la route du web service. Ainsi, à chaque publication dans le topic SNS par l’event Cloud Watch, une notification sera envoyée à la route HTTP définie.create-subscription

Avant de créer cette subscription, il faut savoir que toute subscription nécessite une confirmation dont la demande est envoyée à la cible. La demande de confirmation est envoyée lors de la création de la subscription mais celle-ci peut être faite manuellement via la console AWS.

Voici un exemple de code PHP qui vérifie la signature des messages envoyés par Amazon SNS et confirme automatiquement la subscription au topic :

Enfin, il ne nous reste plus qu’a créer une rule pour déclencher un Event Amazon CloudWatch selon un Schedule qui publiera dans ce topic tous les x minutes/heures/jours . create_cw_rule

Et voilà ! notre web service est maintenant appelé toutes les 5 minutes.

Conjuguer les services Run Command et Auto Scaling Group

Conjuguer les services Run Command et Auto Scaling Group

Une commande à lancer sur la centaine de machines de votre Auto-Scaling Group ? Rien de plus facile avec le « Systems Manager Run Command » !

Configuration des droits

Les instances cibles doivent avoir un rôle contenant la policy AmazonEC2RoleforSSM.

iam-policy-ssm

L’utilisateur lançant les commandes doit avoir la policy AmazonSSMFullAccess.

 

Installation de l’agent sur les instances

L’agent est responsable de l’exécution de la commande. Sur les instances Windows, il est déjà installé. Pour Linux, il faut l’installer manuellement : soit en se connectant à l’instance et en lançant les commandes, soit via les user data (à utiliser pour l’Auto-Scaling Group).

Toutes les commandes d’installation de l’agent sont disponibles dans la page de documentation « Installing SSM Agent ».

Exemple de launch configuration avec une instance Amazon Linux AMI:

launch-configuration

 

Identification des instances

Les instances de l’Auto-Scaling Group doivent être identifiables par un tag dont la key/value est spécifique à celui-ci.

autoscalinggroup-tag

 

Lancement d’une commande depuis la console

Dans le menu de l’interface EC2, aller dans « Systems Manager Services » -> « Run command » et cliquer sur le bouton « Run command ».

goto-runcommand

Remplir le formulaire avec les informations suivantes :

  • Command document : sélectionner « AWS-RunShellScript »
  • Select targets by : sélectionner « Specifiying a Tag » et entrer le tag de l’auto scaling group

select-targets-by-tag

  • Commands : entrer « ps -aux »

Appuyer sur le bouton « Run » en bas à droite.

Vous pouvez alors suivre l’état d’avancement de la commande :

run-command-table

Le résultat de la commande est accessible via l’onglet « Output »:

run-command-output

 

Lancement d’une commande depuis AWS CLI

A la fin du formulaire précédent, un cadre donne la commande AWS CLI équivalente :

cli-from-form

 

Il est alors possible d’intégrer cette commande dans un scheduler afin de lancer des commandes de maintenance telles qu’un vidage de cache.

 


Sources :

AWS & COREXPERT organisent le 1er AWS DevDay en France

AWS & COREXPERT organisent le 1er AWS DevDay en France

Le 27 avril prochain et pour la première fois en France, Amazon Web Services en partenariat avec COREXPERT, organise un événement incontournable du Cloud à Lyon :

L’ AWS DevDay


Après San Francisco, Austin, Munich, il s’agira du lieu parfait pour les profils techniques souhaitant perfectionner leurs connaissances sur le Cloud AWS.

Evénement gratuit et situé à La Tour du Web, vous pourrez en apprendre plus sur les annonces récentes du Cloud Computing grâce à l’intervention de deux Solutions Architects AWS, et celle de Julien Simon, AWS Principal Technical Evangelist.

COREXPERT est un partenaire privilégié du Cloud Public Amazon Web Services. A travers ses deux business units : Cloud Native Apps & Cloud Infrastructure, l’équipe d’architectes et développeurs certifiés AWS joue un rôle essentiel dans la transformation digitale cloud de la PME aux Multinationales.

awsome-day-event

Vous pourrez compléter vos connaissances avec l’équipe technique de AWS et celle de Corexpert, qui auront le plaisir de vous conseiller sur les bonnes pratiques et les outils incontournables de la plateforme.

sinscrire-gratuitement

La journée


Celle-ci sera rythmée par des démonstrations en live, et des temps d’échanges dédiés à vos questions, sur vos problématiques.

La journée débutera avec La bataille des Big Data, une session où nous verrons comment Redshift, Athena, Spark et Hive se comportent face à un gros dataset. Qui sera le plus rapide ? Le plus efficace en terme de coûts ? Le plus simple d’utilisation ? Assistez à cette session, votez en direct pour votre favori et découvrez les résultats avec nous !

Next up : A 60 minutes tour of AWS ComputeAvec plus de 10 familles d’instances, Elastic Beanstalk, ECS et Lambda, le choix peut vite s’avérer difficile. Dans cette session, nous verrons donc en une heure quelle solution convient le mieux à chaque cas de figure.

L’après-midi, nous nous répartirons en 3 groupes, chacun abordant un sujet différent. Rejoignez un groupe, puis un autre, libre à vous de composer votre après-midi telle que vous la concevez ! Vous pourrez également proposer des sujets pendant la pause déjeuner.

Voir l’agenda de la journée ]

Cet événement AWS à l’initiative et sponsorisé par COREXPERT

aws-advanced

COREXPERT : AWS Advanced Consulting Partner

COREXPERT profite d’une expertise de plus de 7 ans dans l’exploitation des services managés AWS, à la fois dans le développement applicatif (Web, SaaS, etc.) et la gestion de la croissance d’infrastructures.

L’équipe comptabilise plus d’une dizaine de certifications AWS, qui ont validé l’expérience acquise et les nombreux projets déployés sur la plateforme Cloud leader mondial.
Partenaire depuis 2014, l’un des premiers en région, COREXPERT a rejoint peu de temps après le réseau de distribution AWS Channel Reseller et reçu le label Consulting Partner. Le réseau de partenaires AWS (Amazon Partner Network) est un programme de partenariat proposé par AWS qui évalue la capacité de ses partenaires à accompagner les clients vers les bonnes pratiques et la meilleure exploitation de la plateforme Cloud. De plus, il confirme les compétences (certifications, accréditations) des équipes techniques.

En développant son expertise des services AWS et son engagement, COREXPERT a accédé début février au niveau APN supérieur : Advanced Consulting Partner, une étape importante dans sa croissance et son partenariat.

Ce niveau de partenariat avec Amazon Web Services est le fruit du travail de nos architectes et développeurs qui accompagnent nos clients, vos projets, dans la conception, le déploiement ou la migration et l’exploitation des infrastructures & applications sur AWS.

Acteur incontournable des quarts sud-est et sud-ouest, COREXPERT accompagne également ses clients sur toute la métropole et à l’international.

Partenariat : ORINOX choisit COREXPERT et Amazon Web Services pour propulser OCWS

Partenariat : ORINOX choisit COREXPERT et Amazon Web Services pour propulser OCWS

Dans le cadre du développement de sa plateforme cloud de services dédiée à la digitalisation de site industriel nommée OCWS (Orinox Cloud Web Services), ORINOX s’appuie sur COREXPERT, afin de s’assurer que sa solution répondra aux exigences les plus élevées en termes de sécurité, contrôle et scalabilité.

logo-orinox-xs

AWS Consulting Partner, COREXPERT est un partenaire privilégié du Cloud Public Amazon Web Services. Au travers de ses deux business units Cloud Native Apps et Cloud Infrastructure, ses architectes et développeurs certifiés AWS apportent leur expertise à tous types de projets IT s’appuyant sur le cloud AWS.

COREXPERT profite d’une expertise de plus de 6 ans dans l’exploitation des services managés AWS, à la fois dans le développement applicatif (Web, SaaS, 3D, etc.) et la gestion de la croissance d’infrastructures.

Il s’agit d’une étape nécessaire pour la migration d’OCWS sur la plateforme AWS afin de répondre au besoin de clients industriels globaux.

aws_logo_advanced_consulting_partner

En travaillant avec COREXPERT et AWS, ORINOX bénéficie pour la mise en place de cette offre de l’expérience et de la présence à l’échelle mondiale de spécialistes des services Cloud.

A son terme, le but de cette opération est de faire bénéficier chaque industriel et chaque ingénierie de l’expertise d’ORINOX pour assurer la digitalisation d’installation complexe, avec la facilité des solutions Cloud en terme de déploiement et de maintenance du Digital Asset, ainsi que l’accès à l’ensemble du portfolio des solutions AVEVA & LFM. Pour nos clients, cette solution permettra un accès à l’information transformée et simplifiée, tout en renforçant la sécurité de ces données très sensibles.

Cette offre complètera l’offre globale d’Orinox qui accompagne depuis déjà plus de 8 ans les industriels dans leur transition numérique via le déploiement des solutions AVEVA à l’échelle mondiale.

min_orinox_-_aveva_global_registered_services_partner

En effet, ORINOX est depuis 2016 l’un des tout premier AVEVA Registered Services Partner.

Nous nous engageons, par la digitalisation, à :

  • Réduire les temps de conception, d’achat et de réalisation de projet ;
  • Simplifier la transmission de dossier d’ouvrage exécuté ;
  • Assurer l’accès à l’information technique des projets ;
  • Améliorer la formation des opérateurs ainsi que l’accès et la flexibilité des formations ;
  • Limiter le risque industriel ;
  • Réduire les couts de production et maintenance des installations.

ORINOX est à votre écoute pour parler de vos projets et pour tout diagnostic. Vous pouvez les contacter ici : contact@orinox.com.

http://www.orinox.com/fr/societe/actualites-orinox/755-01-2017-partenariat-ocws-corexpert-amazon-aws

http://www.orinox.com/en/company/orinox-news/756-01-2017-partnership-ocws-corexpert-amazon-aws

Des statistiques en temps réel grâce à Corexpert et AWS

Des statistiques en temps réel grâce à Corexpert et AWS

Startup spécialisée dans l’advertising mobile, la plateforme en ligne de Vidcoin gère chaque jour plusieurs centaines de millions d’appels sur ses infrastructures cloud, en mettant en relation des utilisateurs d’applications et des annonceurs. Jeune et dynamique, la startup française à toujours su se démarquer par sa réactivité.

Le besoin

Pour devenir la référence en réactivité de leur secteur, Vidcoin a pu s’appuyer sur différentes statistiques de diffusion avec des délais de disponibilité réduits (moins d’une heure). Avec l’évolution de leur activité et l’accroissement de la concurrence, il a fallu mettre en place de nouveaux outils, avec l’objectif du temps réel. La multiplication du nombre de valeurs à mesurer (métrique), combinée aux nombreuses dimensions possibles a obligé Corexpert à imaginer une solution générique, et suffisamment flexible pour évoluer facilement avec les besoins métier de Vidcoin.

L’existant

Des millions d’événements sont envoyés par les applications clientes et les partenaires publicitaires. Un outil simplifié de statistiques en temps réel est déjà en place, qui permet de suivre quatre combinaisons définies de métrique x dimension.

Le défi

Le challenge de Corexpert est de mettre en place un système capable de supporter la forte volumétrie de Vidcoin, tout en permettant de faire évoluer les différentes visualisations en fonction des besoins métier. La flexibilité et la capacité de montée en charge sont essentielles afin de suivre l’évolution permanente de la startup.

La solution

Après une étude des outils existants, Amazon Elasticsearch Service est apparu comme l’outil idéal. La simplicité de mise en place et de sécurisation du service sont ses principaux atouts. Les objectifs principaux lors de la création de l’infrastructure sont d’assurer une montée en charge élevée, tout en minimisant les temps de maintenance nécessaires et en conservant un niveau de sécurité élevé. Il a été décidé de s’appuyer sur les services Amazon Kinesis et AWS Lambda pour récolter et envoyer les évènements collectés dans ElasticSearch. Ces services permettent de faire transiter les différents événements au sein de la plateforme AWS, tout en conservant une infrastructure découplée et orientée micro-services : donc très flexible.

Le plugin Kibana permet une visualisation par le biais de tableaux de bords simplifiés. Il est installé par défaut, ce qui réduit le volume de développements ou temps de mise en place nécessaires.

vidcoin-use-case-aws-lambda-elasticsearch

Pourquoi ElasticSearch

AWS permet l’utilisation de la solution open-source ElasticSearch de manière managée. Grâce à ce service, il est possible d’administrer, augmenter la taille du cluster et sécuriser la solution ElasticSearch de manière simplifiée et efficace. Plutôt qu’une infrastructure qui aurait demandé un investissement important en administration pour assurer un haut niveau de disponibilité et de sécurité, il n’a fallu que quelques heures pour mettre en place en production la solution ElasticSearch, sans aucun risque pour le client car totalement découplée du reste de l’infrastructure technique.

Le résultat

Grâce à cette solution, Vidcoin peut visualiser l’ensemble de ses statistiques détaillées en temps réel et à tout moment. Les tableaux de bord évoluent au fur et à mesure de leurs besoins sans développement additionnel.

Les tableaux de bord Kibana, intégrés au back-office interne de Vidcoin, sont très rapidement devenus des outils incontournables, utilisés quotidiennement dans le pilotage de l’activité opérationnelle de la start-up.

aymeric_roffe_photo

Dans notre industrie, il faut en moyenne plusieurs heures pour pouvoir détecter un problème et le résoudre.
Grâce à ces dashboards, nous sommes en mesure de réagir en temps réel à n’importe quelle situation, sans contrainte, et apporter des solutions à nos clients.
Aymeric Roffe – Co-founder & CTO @Vidcoin

realtime-analytics-aws-corexpert

Le cloud public n’est pas infaillible, vous en doutiez ?

Le cloud public n’est pas infaillible, vous en doutiez ?

Cette douce nuit du 28 février au 1er mars 2017 a tenu éveillés beaucoup d’européens, le service S3 de Amazon Web Services a connu une indisponibilité de plusieurs heures dans la région historique us-east-1 situé en Virginie (USA). Mais pourquoi de grands noms du web se trouvent autant impactés ? Ces grands du web, Trello, Slack, etc. valorisés à plusieurs millions voire milliards auraient-ils un bad-design d’infrastructure ?

Lire la suite Lire la suite

Le SLA chez Amazon Web Services #AWS

Le SLA chez Amazon Web Services #AWS

Chez Corexpert, nos clients nous posent souvent cette question :

« On nous parle toujours de Haute Disponibilité et Très Haute Disponibilité chez AWS, mais s’engagent-ils vraiment ? Existe-t-il un SLA ? »

 

Qu’est ce que le SLA ?

Le SLA, ou Service Level Agreement, est le niveau de qualité et de performance contractuel d’un service ou d’une infrastructure technique. Dans le cas de AWS, fournisseur Cloud, on parlera donc bien d’un service, vue qu’on évolue dans le monde IaaS – Infrastructure as a Service !

Le SLA doit cadrer en premier lieu de quelle fourniture nous parlons, et les critères de performances sur lesquels le fournisseur va s’engager. On pourra donc parler de temps de réponse, de fonctionnalité assurée, de disponibilité complète du service etc.

SLA chez AWS

Nous allons parcourir ci-dessous les principaux services, ou services majeurs de l’offre AWS, qui possèdent un SLA à la date de rédaction de cet article. Bien évidemment la liste est non exhaustive.

Amazon Route 53 : SLA du DNS AWS

Le service DNS de AWS, Amazon Route 53, possède un SLA de disponibilité du service du niveau le plus haut possible. En effet on a ici un engagement de disponibilité de 100% sur le service, ce qui est explicité par « Amazon Route 53 n’échouera pas pour répondre à vos requêtes DNS dans le cycle de facturation d’un mois ». Pourquoi parler d’un mois ? Car AWS, s’engage, en cas d’éventuelle défaillance avérée, de vous rembourser sous forme de crédits sur ce cycle de facturation.

sla-amazon-route-53

Extrait de la page SLA – Amazon Route 53 au 29 décembre 2016

Amazon EC2 ou Elastic Cloud Compute : SLA des VM AWS

Service principal de AWS, Amazon EC2 et Amazon EBS fournissent respectivement l’hyperviseur managé pour executer vos Machines Virtuelles, aka instances EC2 et le stockage virtualisé Amazon Elastic Block Store.

Le SLA de ces services, avec l’engagement de Amazon Web Services, est d’au moins 99.95% mensuel. Soient moins de 22 minutes.

Si une indisponibilité était avérée entre 99.95 et 99.0%, AWS s’engage à effectuer une remise de 10% en crédits AWS sur le service EC2, en deça de 99.0% de disponibilité AWS proposera une remise de 30% en crédits.

Il est important de noter que le SLA est lié à l’état « Region Unavailable« . Si vous ne le savez pas déjà, une région est l’ensemble de plusieurs zones (2+) de disponibilités, mais dans le cadre du SLA, AWS précise que l’état « Région indisponible » vous concerne si plus d’une zone de disponibilité où vous exécutez des instances EC2 est indisponible, comprendre les instances n’ont plus accès à Internet.

L’insdisponibilité de EBS, est si vos volumes de stockage ne génèrent plus d’I/O alors que la file d’attente n’est pas vide.

Amazon RDS, SLA des bases de données managées AWS

Amazon RDS est le service de Base de données managée par AWS, il supporte à ce jour MySQL, Oracle, PostgreSQL, MariaDB, Microsoft SQL Server, AuroraDB. Mais le SLA proposé par AWS, concerne uniquement les instances Multi-AZ (c’est à dire avec un serveur en Stand-By mode dans une autre zone de disponibilité) des moteurs SQL : Oracle, MariaDB, MySQL & PostgreSQL. Ce SLA est de 99.95% de disponibilité du service. L’indisponibilité est avérée quand toutes les requêtes de connection échouent pendant une minute sur l’instance RDS
multi-AZ.

sla-amazon-rds

Engagement de AWS et remboursement en crédits au 29 décembre 2016

Amazon S3, SLA du stockage AWS

Amazon S3 est le service de stockage d’objets, il est l’un des plus anciens services de AWS, et possède une durabilité des données de 99.999999999% en mode de stockage standard. Toutefois le SLA, concerne la disponibilité d’accès à la données stockée via l’API AWS. Le SLA de Amazon S3 est donc calculé sur le comptage d’erreurs ou d’indisponibilité de l’API sur 5 minutes.

L’engagement de AWS est de conserver une disponibilité au-delà de 99.9% mensuel, ce qui représente moins de 43 minutes 36 secondes.

Si AWS ne peut assurer cette disponibilité sur la région où est stocké votre bucket S3, alors 10% de remise sur le coût de stockage S3 seront reversés en crédits, et en deça de 99.0%, alors la remise en crédit s’élèvera à 25% du coût du service Amazon S3.

Amazon CloudFront, SLA du CDN AWS

Amazon Cloudfront est le service CDN de AWS, avec plusieurs dizaines de « Edge Locations », ce service met en cache les requêtes web selon vos comportements et pattern d’URLs choisis. Il permet des diffusions et donc des chargements de données accélérés sur les sites web et applications mobile, notamment lorsque du contenu media transite.

AWS s’engage à maintenir une disponibilité globale du service au-dessus de 99.9% mensuel (identique à Amazon S3). Les remises effectués sur le service, en cas de défaillance avérée, également basé sur la fréquence des erreurs d’accès aux données sont identiques à celles de Amazon S3.

AWS Shield, SLA du service de protection anti-DDoS

Récemment lancé lors du re:Invent 2016, AWS Shield est l’officialisation de la protection anti DDoS de AWS. Le service utilise et protège les autres services Amazon CloudFront et Amazon Route 53, et son SLA, ramené sur des périodes de 24 heures, est lié directement aux SLA des produits cités précédemment. On pourra donc traduire ce SLA, par un simple rappel que l’utilisation du service AWS Shield devant Amazon CloudFront ou Amazon Route 53 ne modifie pas leur SLA.

Synthèse des SLA chez AWS

 

Service AWS SLA mensuel SLA minutes/mois
Amazon Route 53 100.00 % 0 seconde
Amazon EC2 99.95 % 21 minutes et 36 secondes
Amazon RDS 99.95 % 21 minutes et 36 secondes
Amazon S3 99.90 % 43 minutes et 12 secondes
Amazon CloudFront 99.90 % 43 minutes et 12 secondes
AWS Shield Cf. CloudFront ou Route 53 Cf. CloudFront ou Route 53

 

Calcul du SLA d’une infrastructure AWS

Partons d’une infrastructure Web App, relativement classique. Elle est composée de plusieurs serveurs applicatifs frontaux, ici EC2 C4.Large, le code exécuté est le même sur chaque instance, et nous avons une redondance multi-zone de disponibilités. La base de données est un MySQL sur RDS en Multi-AZ (Stand-By Instance). Les éléments statiques du sites sont stockés sur S3. CloudFront, est placé devant le Load Balancer, il met en cache les éléments statiques de S3 et reroute les autres requêtes sur le LoadBalancer. Route53 gère le nom de domaine du site.

cloudcraft-web-app

Infrastructure Web : Amazon Route 53, CloudFront, S3, EC2 et RDS

Voici comment nous pouvons calculer le SLA de cette infrastructure, bien entendu celui-ci est dans le cas d’une défaillance de tous les services AWS utilisés sur une région, et dans le cadre du SLA de chacun de ses services. Dans ce cas l’infrastructure ne peut prétendre à un SLA supérieur sans redondance supplémentaire.

  • RDS Multi-AZ MySQL : SLA de 99,95 %
  • EC2 : SLA de 99.95 %
  • CloudFront : SLA de 99.9 %
  • S3 : SLA de 99.9%
  • Route 53 : 100.0 %

Le SLA de l’infrastructure brute sera de :

99.95% x 99.95% x 99.9% x 99.9% x 100% = 99,70 %

Si l’on considère que l’indisponibilité S3 n’est pas critique pour la conservation de la disponibilité de l’infrastructure web (par exemple une API) et qu’on gère via Route 53 l’éventuel downtime de CloudFront en pointant vers le Load Balancer en secours, nous gagnerons 0,2% de SLA juste par modification et optimisation du Design de l’infrastructure :

99.95% x 99.95% x 100% = 99,90 %

N’hésitez pas à poser vos questions ou nous contacter pour plus d’informations.

Jenkins CI – Identifiants AWS

Jenkins CI – Identifiants AWS

Aujourd’hui, un petit article concernant l’automatisation et l’utilisation des services AWS depuis une instance Jenkins. AWS fournit de nombreux outils permettant l’automatisation de votre infrastructure, de vos déploiements, de vos backups, et j’en passe. On pense notamment au AWS CLI, AWS SDK et AWS CloudFormation. Cependant, il est nécessaire de contrôler la façon dont vous vous identifiez pour utiliser ces outils, par exemple vous pouvez avoir besoin de vous identifier sur plusieurs comptes AWS ou encore gérer différents droits en fonction du type d’environnement.

Tout d’abord, il faut vous munir d’identifiants AWS, liés à un utilisateur qu’il faudra créer :

add_user

Ensuite, rendez-vous sur votre instance Jenkins (si vous n’en avez pas encore, je vous conseille de suivre ce tutoriel). Jenkins permet de centraliser tous vos identifiants nécessaires pour les appels à tous les services externes dont vous avez besoin (Git, SSH, AWS, etc). Afin d’ajouter des identifiants AWS dans ce « Credentials Manager », il faut au préalable installer le CloudBees AWS Credentials Plugin. Il est maintenant possible d’ajouter les identifiants de notre utilisateur AWS :aws_credentials

Vous avez enfin vos identifiants AWS managés par Jenkins. Il ne reste plus qu’à les utiliser dans vos jobs. Pour cela, il faut se rendre dans la section « Build Environment » de votre job et sélectionner l’option « Use secret text(s) or file(s) ». Ajoutez un binding « AWS access key and secret » et choisissez les identifiants de votre choix :

job_aws_credentials

Par défaut, le plugin va ajouter les variables d’environnement AWS_ACCESS_KEY_ID et AWS_SECRET_ACCESS_KEY au runtime de votre job. Ces variables sont reconnues automatiquement par les outils AWS (CLI et SDK) et vous permettront de réaliser les actions de votre choix sur votre compte AWS (ex : aws s3api list-buckets).

Si cette article vous a été utile, n’hésitez pas à commenter, le partager ou nous contacter. Plus d’articles à venir sur l’automatisation…