Skip to content

Latest commit

 

History

History
407 lines (326 loc) · 15.1 KB

Composicion_de_contenedores.md

File metadata and controls

407 lines (326 loc) · 15.1 KB

Composición de contenedores

Objetivos

Cubre los siguientes objetivos de la asignatura

  • Conocer las diferentes tecnologías y herramientas de virtualización tanto para procesamiento, comunicación y almacenamiento.
  • Instalar, configurar, evaluar y optimizar las prestaciones de un servidor virtual.
  • Diseñar, implementar y construir un centro de procesamiento de datos virtual.
  • Documentar y mantener una plataforma virtual.
  • Optimizar aplicaciones sobre plataformas virtuales.
  • Realizar tareas de administración en infraestructura virtual.

Objetivos específicos

  1. Entender cómo las diferentes tecnologías de virtualización se integran en la creación de contenedores.

  2. Crear infraestructuras virtuales completas.

  3. Comprender los pasos necesarios para la configuración automática de las mismas.

Composición de servicios

Una aplicación consiste generalmente en un conjunto de servicios interconectados (y acoplados de forma ligera) que se van a desplegar de forma conjunta; el código que describe la infraestructura debe incluir la descripción de esta estructura para que los despliegues puedan ser fácilmente reproducibles.

En clusters o grupos de contenedores, a veces llamados pods, se consigue que los diferentes servicios ejecutándose en los diferentes contenedores usen una red común, y estén conectados entre sí como si se tratara de servicios ejecutándose simplemente en el sistema operativo. Esto añade una capa de seguridad, pero también de funcionalidad, que no se puede conseguir de otra forma.

En la mayor parte de los despliegues de aplicaciones habrá que crear este tipo de clusters; todos las aplicaciones van a necesitar servicios externos, como mínimo un almacenamiento de logs, adicionalmente a cualquier servicio de datos que vaya a necesitar. Usando esta composición de servicios se pueden hacer pruebas de integración o end to end, o crear entornos de desarrollo que se asemejen lo más posible al entorno de producción final. En general, para pasar a producción habrá que usar herramientas más potentes como Nomad o Kubernetes.

A continuación veremos diferentes formas de crear grupos de contenedores y manejarlos, comenzando con la forma más simple, usar pods.

Como estos clusters son contenedores + red + almacenamiento, haremos una pequeña introducción al uso de las redes virtuales, tal como se usan en Docker y su ecosistema.

Sobre almacenamiento, consultar el tema sobre contenedores, donde se habla de forma extensa del mismo.

Redes en Docker

Una parte importante de la infraestructura virtual son las redes definidas por software, o SDN (Software Defined Networks). En general, si creas algo que va a actuar como un nodo de la red, también puedes crear redes virtuales que se superpongan a las redes reales, lo que permite otra capa de seguridad y también funcionalidad específica.

Docker es un protocolo de aislamiento, y como tal tiene también una serie de capacidades para crear, manejar y aislar redes virtuales. Docker, por omisión, asigna una MAC y una IP a cada uno de sus contenedores que se estén ejecutando, que forman por tanto un SDN.

Sin embargo, también permite definir el tipo de red que van a usar. Por omisión, el tipo de red que usan se llama bridge, un tipo de red puente que permite que los contenedores se comuniquen entre sí, usando las IPs por omisión que cada uno reciben.

La otra alternativa es host, que hace aparecer todos los servicios en el mismo nodo, y cualquier servicio se puede referir a cualquier otro como localhost.

Pods con podman

Podman recibe su nombre, precisamente, del hecho que se puede trabajar con estos pods.

Si no has instalado podman, hazlo ya y recuerda instalarlo para que se ejecute sin root, lo que es imprescindible si quieres manejar usuarios dentro de los contenedores.

Todas las órdenes relacionadas con pod se ejecutan con podman pod. Crearemos para empezar un pod y expondremos un puerto del mismo.

podman pod create -n hugitos -p 1415

Esto crea un pod llamado hugitos y expone el puerto 1415 del mismo. Es un pod vacío, ahora mismo no hay nada. Para ver todo lo que se puede hacer ahora mismo, como listar los pods existentes, ver este tutorial.

Vamos a añadirle un contenedor con Logstash. Vamos a utilizar este contenedor de Logstash proporcionado por Bitnami. La configuración es la necesaria para que funcione y reciba entradas de un programa externo.

export LOGSTASH_CONF_STRING='input {      tcp {     port => 8080     codec => json   } } output { stdout {} }'
podman run --pod hugitos --rm -dt --env LOGSTASH_CONF_STRING=$LOGSTASH_CONF_STRING --name logstash bitnami/logstash:latest

Con --pod hugitos añadimos este contenedor al pod que hemos creado anteriormente; con --dt lo ejecutamos como daemon, de forma que esté disponible. En principio, este contenedor estaría ya listo para ejercer de log de cualquier otro. Así que le añadimos otro:

podman run --pod hugitos --rm -dt jjmerelo/hugitos:test

Con podman logs [número] se puede acceder a los logs de cada uno de los contenedores que se han creado.

Nuestro podman pod maneja de esta forma el grupo de contenedores, y podemos pararlo con podman pod stop hugitos. Alternativamente, podemos arrancar el pod directamente con el primer contenedor que arranquemos:

podman run -p 31415:31415 --pod new:hugitos --name hugitos_web --rm -dt jjmerelo/hugitos:test

Con esto, además, exponemos el puerto 31415 y lo conectamos al interior, y le damos un nombre al contenedor para que sea sencillo acceder a sus logs. La clave para crear el pod es el usar --pod new:, que avisa a podman que se trata de un pod; además le asignamos un nombre al contenedor para que sea más fácil acceder a los logs. El Dockerfile incluye la definición del puerto correspondiente, así como la ejecución de un servicio web lanzado con Green Unicorn como se indicó en el tema de microservicios.

Con estas dos órdenes creamos el pod, y además, a partir de él se puede generar la configuración de Kubernetes (que, recordemos, sería necesaria para hacer un despliegue).

podman generate kube -s hugitos

Crear un pod con dos o más contenedores, de forma que se pueda usar uno desde el otro. Uno de los contenedores contendrá la aplicación que queramos desplegar.

Composición de servicios con docker compose

Docker compose tiene que instalarse de forma individual porque no forma parte del conjunto de herramientas que se instalan por omisión (el daemon y el cliente de línea de órdenes, principalmente). Su principal misión es crear aplicaciones que usen diferentes contenedores, entre los que se citan entornos de desarrollo, entornos de prueba o en general despliegues que usen un solo nodo. Para entornos que escalen automáticamente, o entornos que se vayan a desplegar en la nube las herramientas necesarias son muy diferentes.

docker-compose es una herramienta que parte de una descripción de las relaciones entre diferentes contenedores y que construye y arranca los mismos, relacionando los puertos y los volúmenes; por ejemplo, puede usarse para conectar un contenedor con otro contenedor de datos, de la forma siguiente:

version: '2'

services:
  config:
    build: config
  web:
    build: .
    ports:
      - "80:5000"
    volumes_from:
      - config:ro

La especificación de la versión indica de qué versión del interfaz se trata. Hay hasta una versión 3, con cambios sustanciales. En este caso, esta versión permite crear dos servicios, uno que denominamos config, que será el contenedor que tenga la configuración en un fichero, y otro que se llama web. YAML se organiza como un hash o diccionario, de forma que services tiene dos claves config y web. Dentro de cada una de las claves se especifica como se levantan esos servicios. En el primer caso se trata de build o construir el servicio a partir del Dockerfile, y se especifica el directorio donde se encuentra; solo puede haber un Dockerfile por directorio, así que para construir varios servicios tendrán que tendrán que ponerse en directorios diferentes, como en este caso. El segundo servicio está en el mismo directorio que el fichero, que tiene que llamarse docker-compose.yml, pero en este estamos indicando un mapeo de puertos, con el 5000 interno cambiando al 80 externo (que, recordemos, es un puerto privilegiado) y usando volumes_from para usar los volúmenes, es decir, los datos, contenidos en el fichero correspondiente.

Para ejecutarlo,

docker-compose up

Esto construirá las imágenes de los servicios, si no existen, y les asignará un nombre que tiene que ver con el nombre del servicio; también ejecutará el programa, en este caso de web. Evidentemente, docker-compose down parará la máquina virtual.

Podemos reproducir en Docker Compose el "pod" creado anteriormente usando podman y combinarlo con este. Este fichero lo haría:

version: "3.9"
services:
  data:
    build: data
  web:
    build:
      context: .
      dockerfile: nodata.Dockerfile
    environment:
      LOG_HOST: log
      LOG_PORT: 8080
    ports:
      - "31415:31415"
    volumes_from:
      - data:ro
  log:
    image: bitnami/logstash:latest
    env_file: ./log.env
    ports:
      - "8080:8080"

Ha habido que hacer unos pequeños cambios, en el fichero y en los contenedores. Para empezar, el contenedor anterior incluía también el fichero de datos que ahora hemos decidido externalizar, por lo que el nuevo nodata.Dockerfile sería este:

FROM bitnami/python:3.9
LABEL version="1.0.1" maintainer="JJMerelo@GMail.com"

ARG PORT
ENV PORT=${PORT:-31415}
RUN useradd -ms /bin/bash hugitos
USER hugitos
WORKDIR /home/hugitos

ENV PATH $PATH:/home/hugitos/.poetry/bin

RUN curl -sSL https://raw.githubusercontent.com/python-poetry/poetry/master/get-poetry.py | python -

ADD pyproject.toml .
ADD HitosIV/* HitosIV/
RUN poetry install

EXPOSE 31415

CMD [ "sh", "-c", "poetry run gunicorn --bind 0.0.0.0:${PORT} HitosIV.hugitos:__hug_wsgi__ --log-file -" ]

La única diferencia es, en realidad, que se elimina la copia al contenedor, en el directorio /data, de los datos que se van a servir.

Que constituyen en este caso la única fuente de verdad, SSOT.

El servicio web usa ahora dos variables de entorno para establecer dónde se encuentra el log (y esas variables de entorno se usan desde el interior del mismo, como es natural).

finalmente, para simplificar un poco el fichero, en el caso de de Logstash usamos un fichero de entorno en vez de definir las variables de entorno. Ese fichero de entorno contiene la definición, en el formato VARIABLE=valor, de las variables de entorno que se usan, en este caso la definición de la configuración de Logstash.

Como en el caso anterior, se puede usar build para construirlo y a continuación up para lanzarlo.

Usar un miniframework REST para crear un servicio web y introducirlo en un contenedor, y componerlo con un cliente REST que sea el que finalmente se ejecuta y sirve como "frontend".

En este artículo se explica cómo se puede montar un entorno de desarrollo con Python y Postgres usando Docker Compose. Montar entornos de desarrollo independientemente del sistema operativo en el que se encuentre el usuario es, precisamente, uno de los casos de uso de esta herramienta.

La ventaja de describir la infraestructura como código es que, entre otras cosas, se puede introducir en un entorno de test tal como Travis. Travis permite instalar cualquier tipo de servicio y lanzar tests; estos tests se interpretan de forma que se da un aprobado global a los tests o se indica cuales no han pasado.

Y en estos tests podemos usar docker-compose y lanzarlo:

services:
  - docker
env:
  - DOCKER_COMPOSE_VERSION=1.17.0

before_install:
  - sudo rm /usr/local/bin/docker-compose
  - curl -L https://github.com/docker/compose/releases/download/${DOCKER_COMPOSE_VERSION}/docker-compose-`uname -s`-`uname -m` > docker-compose
  - chmod +x docker-compose
  - sudo mv docker-compose /usr/local/bin
  - docker-compose up

script:
  - docker ps -a | grep -q web

Como se ve más o menos, este fichero de configuración en YAML reproduce diferentes fases del test. Después de seleccionar la versión con la que vamos a trabajar, en la fase before_install borramos (por si hubiera una versión anterior) e instalamos desde cero docker-compose, y finalmente hacemos un build usando el fichero docker-compose.yml que debe estar en el directorio principal; con up además levantamos el servicio. Si hay algún problema a la hora de construir el test parará; si no lo hay, además, en la fase script que es la que efectivamente lleva a cabo los tests se comprueba que haya un contenedor que incluya el nombre web (el nombre real será algo así como web-algo-1, pero siempre incluirá el nombre del servicio en compose). Si es así, el test pasará, si no, el test fallará, con lo que podremos comprobar offline si el código es correcto o no.

Estos tests se pueden hacer también con simples Dockerfile, y de hecho sería conveniente combinar los tests de los servicios conjuntos con los tests de Dockerfile. Cualquier infraestructura es código, y como tal si no está testeado está roto.

Alternativamente, podemos usar este test exclusivo, usando GitHub actions, para comprobar que se puede construir y funciona

name: Comprobar que docker compose funciona
on: [push,pull_request]
jobs:
  test:
    runs-on: ubuntu-latest
    steps:
      - uses: actions/checkout@v2
      - name: Construye el cluster
        run: docker-compose up -d
      - name: Testea el cluster
        run: wget http://localhost:31415/status || exit 1

Esencialmente, lanza el cluster y a continuación hace una petición sobre el mismo para comprobar que está funcionando, saliendo si wget devuelve un error. No es que sea muy extensivo, pero fallará si no se puede construir, por ejemplo.

A dónde ir desde aquí

En producción habría que usar algo más avanzado como Kubernetes.