DEV Community

loading...

Rancher - How to

slashgear_ profile image Antoine Caron Originally published at slashgear.github.io on ・18 min read

Mon expérience en tant que stagiaire chez Zenika m’a amené à utiliserRancher pour orchestrer mes conteneurs Docker. Je vous présente ici uncondensé de mon expérience avec cet outil, de son intérêt et de sespoints forts, par le biais d’un petit “How to“ sur comment déployer sonapplication ?

On constate que de plus en plus d’utilisateurs Docker cherchent àmanipuler plus facilement leurs conteneurs et à mettre en place dudéploiement continu. L’environnement technique autour de laproblématique d’orchestration des modèles CaaS (Container as a Service)est très large et il est parfois difficile de s’y retrouver.

Qu’en est-t-il de Rancher ?

Késako

Rancher, projet open-source créé par la société Rancher Labs est unoutil gratuit d’orchestration de conteneurs Docker. Il permet defacilement déployer des conteneurs Docker sur des machines possédantDocker. Grâce à une configuration simple et complète, il permet de lierses conteneurs afin de composer des architectures de services aisément.Il peut déployer des containeurs sur des services cloud comme AWS,Azure, DigitalOcean mais aussi sur des machines personnaliséespossédant Docker tout en s’appuyant sur docker-machine.

Une installation assez simple

Pour installer Rancher, à ce jour il suffit de posséder une machinelinux 64-bit avec au moins 1GB de mémoire vive.

$ sudo docker run -d --restart=always -p 8080:8080 rancher/server
Enter fullscreen mode Exit fullscreen mode

Après quelques minutes d’installation, le server Rancher est disponiblesur le port 8080 de votre machine (l’image contient une base MySQL, unZookeeper, Redis, et le serveur rancher). Vous pouvez vous y connectercar l’accès est par défaut ouvert à tous. Par la suite, vous pourrezactiver l’authentification,et ainsi facilement configurer des comptespour vos utilisateurs.




Interface graphique de Rancher

Déployer une application simple avec Rancher

Après l’IaaS, le SaaS, le PaaS, le DaaS et Patricia Kaas, voilamaintenant venue l’ère du Caas (Container as a Service). L’objectifici est de conteneuriser les services de son(ses) application(s) et deles faire interagir. Pour montrer simplement la mécanique de Rancher,j’ai choisi de vous présenter le déploiement d’une application web trèssimple nommée whoami, disponible sur le Docker Hub (développé en Gopar Emile Vauge).

Pour ce faire, je vais vous expliquer la méthode de création deservices par l’interface graphique. Sachez que l’on peut interagiravec Rancher par l’intermédiaire d’un outil en ligne de commande(rancher-cli,encore très limité pour l’instant) ou d’API REST.

Ajouter des hosts sur lesquels déployer

Dans un premier temps il faut définir des machines sur lesquellesdéployer votre application.




Création de machines

Rancher propose des connecteurs à plusieurs services cloud du web commeAmazon EC2, Azure, Digital Ocean, mais vous pouvez également ajoutern’importe quelle machine disposant de docker comme “host” Rancher(“Custom”).

Pour l’exemple, j’ai ajouté deux machines au cluster nommées node1 etnode2, et j’ai ajouté l’hôte Rancher lui-même self(c’est possible mais non recommandé).




Hosts

Créer son service

Il faut maintenant créer une stack pour accueillir notre service whoami.Dans la logique Rancher, une stack est un ensemble de services.




Stack

On peut remarquer que pour l’ajout d’une stack, on peut importer unfichier docker-compose.yml et un fichier rancher-compose.yml.

Le fichier docker-compose.yml définit la structure de la stack,l’ensemble de ses services ainsi que leurs configurations.Ce fichier est natif de l’api Docker Compose.`

Le fichier rancher-compose est un “add-on” au docker compose,il permet de configurer des paramètres Rancher comme la configurationdes loadbalancer (HA-Proxy) et la scalabilité horizontale des services.Ces deux fichiers sont exportables à tout moment, cela peut-être trèspratique pour une réinstallation (par exemple, voici laconfiguration de la stackqui est installée dans cette partie).

Une fois la stack créée en lui donnant uniquement un nom, il fautajouter notre service whoami. Pour cela il suffit de cliquer sur“Add service” et de le définir comme cela.




Whoami example

On remarque que seul le nom du service, l’image docker et le “port map”ont été définis (ie: c’est un exemple simple, vous pouvez voir par lesonglets du bas que la configuration peut être beaucoup plus poussée,gestion des volumes, du network du service, des HealthCheck).

Après cette simple configuration, il suffira de cliquer sur “Create” etinformagiquement votre service sera déployé sur un host choisi par Cattle.

Vous allez me dire, “qu’est ce que Cattle ?”, et vous aurez raison.Cattle est l’orchestrateur par défaut utilisé par Rancher. Il estmaintenu par l’équipe de Rancher et le projet est open-source etdisponible sur Github.

Sachez que Rancher fonctionne également avec Kubernetes, Swarm etMesos mais pour cet article, je me suis limité à l’utilisation de Cattle.

Scaler et Loadbalancer

Après quelques temps de démarrage, votre service whoami devrait êtredisponible.




Start

Si vous cliquez sur le “80”, vous devez accéder au service whoami.Il vous donnera plusieurs informations sur lui-même, notamment son nom.

Le but maintenant est de scaler notre service, afin de le distribuersur plusieurs machines.

Dans le détail du service, on peut voir que la scale est actuellementdéfinie à 1. Il suffirait donc de l’augmenter ? Et bien non, le serviceque nous venons de définir occupe le port 80 de la machine. Il nepourrait donc pas être disponible plus d’une fois par machine. Et c’estlà l’une des problématiques des microservices : l’allocation dynamiquede port et la “connaissance” des services par le loadbalancer. Rancheroffre une solution simple à ce problème, il ne faut plus réserver deport pour son application, le loadbalancer va connaître les servicespar l’orchestrateur.

Il faut donc supprimer la configuration du port statique du service.

Une fois le port libéré , il faut donc créer un loadbalancer quidistribue la charge entre les instances de whoami. Dans la stack,cliquez sur “Add Load Balancer”




Load balancer

Une fois le loadbalancer créé, on peut donc augmenter la scale de sonapplication sans avoir de problème d’allocation de port. Si vous cliquezle “80” du loadbalancer, vous devez atteindre votre service, et s’ilest scalé, l’hostname devrait changer au refresh.

A ce stade du déploiement, on peut se demander, ce qu’il en est del’infrastructure des machines créées plus tôt.




Hosts

Rancher a déployé les conteneurs docker de façon équilibrée entre lesdifférentes machines. On peut définir nos propres règles de déploiementpar l’utilisation de label sur les machines.

Par exemple, on peut ajouter le label “name = frontend”, et pour chaqueservice que l’on crée, définir si il peut démarrer ou non sur la machinedont le name est frontend.

Sur chacun des conteneurs, rancher nous permet d’accéder à un shell etune vue des logs, ce qui est très pratique pour le débug.

Certes cet exemple était simple, mais on peut facilement déployer desarchitectures plus complexes grâce à Rancher, et c’est là tout sonintérêt. Voici l’architecture des services de l’un des projets que j’aidéployé grâce à lui.




Hosts

Un « blue/green deployement » et une “rolling upgrade” en 5 minutes

Dans la plupart des cas, une mise en production est souvent unpassage difficile pour le développeur. Les outils DevOps ont bienévidemment permis de simplifier cette étape cruciale de la vie d’unprojet.

Rancher permet d’utiliser plusieurs méthodes pour mettre à jour unservice déjà en production tout en garantissant la continuité desservices :

La rolling upgrade (remplacement d’un service par un autre)

Hosts

Le blue/green deployement

Ces deux méthodes ont été présentées par Christophe Furmaniak etYoucef Yekhlef (deux consultants architectes de Zenika) lors de leurintervention à de pendant la Devoxx 2016. Je ne peux que vousconseiller de la regarder :

Un service DNS et Network overlay

Pour ceux qui ont déjà bien pratiqué Docker, faire communiquer deuxcontaineurs entre eux sans avoir d’outil d’orchestration n’est pas trèsaisé. Bien sûr, il y a la publication de port sur le Host, mais onarrive vite aux limites. Rancher apporte nativement une fonctionnalitéd’overlay network via un tunnel ipsec permettant à deux containers surdeux machines différentes d’être sur le même réseau virtuel. Rancher vaplus loin puisqu’il possède son service DNS dans lequel il enregistrechaque nouveau container qu’il crée. Cela a plusieurs avantages:

  • Deux services d’une même Stack se connaissent par leur nom ;
  • Un service peut connaître un service d’une autre stack par nomService.nomStack.

Un catalogue qui s’enrichit




Rancher catalogue

Rancher possède son propre catalogue d’applications, ces applicationssont sous la forme de groupes de stacks pré-configurées qui s’appuientsur les images du Docker Hub :

  • La stack Elastic ;
  • Janitor, un service basé sur docker-cleanup, pour nettoyer les images et conteneurs non-utilisés. ;
  • Traefik, un load balancer développé en Go par Emile Vauge de la Zstartup Containous ;
  • Gluster, un gestionnaire de volume partagé ;
  • Odoo, le célèbre ERP open source ;
  • etc.

Il est aussi possible d’ajouter son proprecatalogue de stacks d’entreprise

Je vous ai présenté ici les principales features de Rancher,je ne peux que vous conseiller de le tester pour faire joujou avec vosconteneurs Docker. Cependant, la question qu’on peut encore se poseraujourd’hui reste la suivante : Rancher ne restera-t-il qu’un joujoupour orchestrer des services ? On sait déjà que des entreprises commeOrange et Sony commencent à l’utiliser pour des besoins interne(cf : Sony et le playstation Network https://www.youtube.com/watch?v=hwhxXwT6zlw)

N’hésitez surtout pas à partager vos expériences avec Rancher.

Merci encore à Youcef Yekhlef, Christophe Furmaniak et à mon tuteur destage Christophe Tardella pour l’aide apportée à la rédaction de cet article.

Discussion (0)

pic
Editor guide