Attention ceci est mon brouillon avant de faire une belle documentation sur Docker (il y a à boire et à manger). Sachant que celui-ci c’est 100% échec :( .
Cette fois je vais m’attaquer au logs, et pour ce faire je vais monter un container faisant uniquement du syslog. Voici l’architecture cible que je veux :
Je vais partir sur un ubuntu pour faire plus simple.
Attention ceci est mon brouillon avant de faire une belle documentation sur Docker (il y a à boire et à manger).
Je me suis planté complètement avec HAProxy, pour l’instant je n’ai pas compris mes erreurs car je n’ai pas réussi à avoir accès au logs. Mon étape va être de voir si avec l’autre server de répartition de charge : nginx, j’arrive à faire mieux.
On commence par le téléchargement de la version :
Attention ceci est mon brouillon avant de faire une belle documentation sur Docker (il y a à boire et à manger). Sachant que celui-ci c’est 100% échec :( .
J’ai repoussé plusieurs fois l’installation de HAproxy maintenant je vais devoir le faire. Pour cela je vais m’appuyer sur mon server4.c qui va recevoir la charge du HAproxy. Je vais lancer 4 server4 qui vont écouter sur 4 ports différents (8080/tcp, 8081/tcp, 8082/tcp, 8083/tcp) .
Attention ceci est mon brouillon avant de faire une belle documentation sur Docker (il y a à boire et à manger).
On passe donc à l’étape de l’installation de HAProxy, l’installation cible est la suivante (il va falloir que j’améliore mon server.c (que l’on va appeler server2.c) afin d’avoir une connexion avec la base de donnée):
Voici un nouveau server2.c , mais avant cela il faut installer le RPM qui permet de faire de dev :
Attention ceci est mon brouillon avant de faire une belle documentation sur Docker (il y a à boire et à manger).
Avant de me lancer dans “HAProxy”, je vais faire un test avec “Docker Swarm”.
Pour l’instant “Docker Swarn” n’est pas un répartiteur de charge comme “HAproxy”. En fait il répartit la charge au moment du déploiement. Et aussi il permet le déploiement sur plusieurs servers à la fois, ce qui est un gain de temps énorme pour les administrateurs.
Attention ceci est mon brouillon avant de faire une belle documentation sur Docker (il y a à boire et à manger).
Je commence donc par faire table rase de toutes les images, a force de jouer je ne sais plus ou j’en suis ;)
[root@localhost ~]# docker rmi $(docker images -q)
[root@localhost ~]# docker rm $(docker ps -a -q)
Error response from daemon: conflict: unable to delete 0f3af79d8673 (cannot be forced) - image is being used by running container f33064cbf168
[root@localhost ~]# docker images
REPOSITORY TAG IMAGE ID CREATED SIZE
postgres latest 0f3af79d8673 9 days ago 265.7 MB
Visiblement ils (les containers) n’étaient pas tous arrêtés .
Attention ceci est mon brouillon avant de faire une belle documentation sur Docker (il y a à boire et à manger).
Maintenant on a mieux compris le système (enfin j’ai mieux compris) et l’on sait qu’il faut faire les choses dans une certain ordre (Les précédents POST n°1 et n°2 ) .
Maintenant on va pouvoir lancer des containers en utilisant la syntaxe :
Attention ceci est mon brouillon avant de faire une belle documentation sur Docker (il y a à boire et à manger).
Fort de mon expérience du premier POST ( https://www.cyber-neurones.org/2016/04/docker-les-premiers-pas/ ), je vais refaire une installation. J’ai pu voir qu’il me fallait 16 Go pour le “mkfs.btrfs” et j’ai vu que l’installation faisait 2 Go. Je vais donc garder 2 Go de plus, ce qui fait que je vais donc faire une installation à 20 Go.
Attention ceci est mon brouillon avant de faire une belle documentation sur Docker (il y a à boire et à manger).
Pour faire ses premiers pas, j’ai choisi de faire avec :
Bravo pour l’organisation de cet évènement sur Sophia, voici quel était le lien : http://www.telecom-valley.fr/workshop-docker-birthday-celebration-3/
Il y avait un Workshop pour ceux qui avait eu la chance d’avoir une place, et un retour d’expérience. C’est une technologie très intéressante mais aussi très complexe. Pour l’instant la complexité fait que peu de personnes en comprennent l’utilité, ce qui est bien dommage.
Pour plus d’information :
Un système de clustering qui est conçu pour gérer des applications atteignant des centaines de millions d’utilisateurs, et qu’elle envisage désormais d’associer à Swarm