FreeBSD y todo al demonio

Esta no es mi primera experiencia con FreeBSD, la primera vez que lo usé fue hace mas de 15 años, en un servidor firewall que funcionó por 7 años sin ninguna modificación (trascendental), en sintesis, es una roca, cuando funciona, nada lo rompe.

Cómo fue volver a FreeBSD? Exactamente igual, en serio, exactamente igual. Después de 15 años.

FreeBSD Logo

Los servicios se corren de la misma forma, los comandos son los mismos, las configuraciones se hacen en el mismo lugar, bueno, casi, pero de la misma forma que antes.

Lo único que cambio desde ese tiempo a esta parte es el gestor de paquetes, que por debajo sigue siendo algo que descarga archivos comprimidos y los descomprime en la raíz del S.O. y ya. En su momento los «ports» o instalación desde código fuente ya era algo amigable para la época, eso sigue funcionando por cierto.

Si pensaban que habían distribuciones de GNU/Linux que eran conservadoras, este sistema operativo se lleva el primer premio en conservador.

Voy a hacer una análisis filosófico, tenganme paciencia. Este sistema operativo es explícito, declarativo e imperativo incluso a veces, uno tiene que ponerle voluntad y empeño para hacer funcionar la orden, y hay que decirle con claridad: «esto es lo que quiero que hagas, de esta forma lo harás» nada es «automágico», nada funciona «out of the box». Pensarán «para que quiero algo así?». Yo quiero algo así, en situaciones especiales.

Si es un sistema que sabemos que no debe cambiar demasiado en el tiempo, o que debiera estar optimizado al máximo, FreeBSD es el nombre de la herramienta.

Mi análisis es sobresimplificado, hay más cosas detrás de FreeBSD, primero: Es un gusto adquirido, no es facil a la primera, ni a la segunda, apenas a la tercera, y después de 10 intentos aun frustra, pero lo segundo: Una vez que está funcionando, uno lo deja y se olvida que existe. Porque es categórico que para dejarlo funcionando uno ya hizo todas las configuraciones inciales, medias y avanzadas porque sino no funciona, y cuando ya está todo hecho, levanta el servicio, ya todo esta hecho, vuelvo mes a mes sólo para ver logs, el servicio ya no lo toco nunca más. (ojo, esto no les salva de hacer actualizaciones de seguridad y demás, eso se hace siempre).

Es una experiencia de administración avanzada, y como tal, nada se rompe, todo es «scripteable» y mi script va a seguir funcionando mes a mes, versión a versión, no así como versiones de GNU/Linux, que por mantenerse a la vanguardia con herramientas (llámese firewall, network config, gestión de servicios, entre otros) más faciles rompen cosas que ya estaban funcionando bien, o hace dificil replicar algo ya funcionando en la última versión del sistema operativo.

No me malinterpreten, es loable la tarea de facilitar las cosas al nuevo administrador o al nuevo usuario, y las herramientas son cada vez mas versátiles, pero no cambia uno de los problemas de fondo: lo que funciona en la versión X puede no funcionar exactamente igual en la versión Y.

Si tuviera un backup de las configuraciones de mi firewall de hace 15 años, me animo a pensar que aún funcionaría.

Introducción al software libre

Me honra poder realizar después de 13(trece) años nuevamente la charla de introducción al software libre en un FLISoL.

Haciendo retrospectiva en lo que fue ese primer FLISoL, la perspectiva que tenía de mi audiencia en ese entonces y la que me espera mañana, si es que se presenta, me hace pensar: «Ha pasado el tiempo, y lo bueno se mantiene».

Les dejo mi presentación para vuestro deleite:

Jerarquía de méritos

Nunca fui muy fanatico de las figuras de autoridad, se da que en nuestra cultura (paraguaya) la autoridad no permite ser cuestionada en su mayor parte. Este es el primer problema con el que nos topamos.

En los líderes que me toca ver en todos los ámbitos donde me desempeño, veo que uno de los rasgos que me invita a seguirlos es que hacen.

Se da la casualidad (o no) que al hacer tantas cosas, es decir, hacer y dan el ejemplo con eso, traen consigo un mérito, que a veces simplemente es hacer y equivocarse, hacer y atinarla, hacer y luego dejar de hacer también. Hacer finalmente.

Sólo haciendo las cosas, y cometiendo errores muchas veces es que nos merecemos el lugar donde estamos, los espacios de liderazgo son para los que hacen, el resto que «lo mira por TV» opinará lo que quiera, y ultimamente más que antes el que «hace» méritos, el que suda la camiseta, lidera en un mundo cada vez más apático.

Cuantos es demasiado?

Cuantas ocurrencias de un hecho son necesarias para que llamen la atención? En el trascurso de 2 semanas, he visto accidentes bastante aparatosos ocurriendo en un mismo tramo de una avenida.

Los testigos siempre indican que el problema está en los desniveles que presenta ese tramo, no sabría si eso es cierto o no, pero que desde que ese desnivel está ahí, han habido varios accidentes en el mismo lugar.

La ocurrencia de 1 (un) hecho podría decirse que es fortuito, 2 (dos) ya me hace sospechar.. y por encima de eso, ya es demasiado como para mirar a otro lado  decir que no pasa nada.

Parte del problema quizás es que no hay estadísticas concretas de cuantos accidentes ocurrieron, de que manera, con cuantas víctimas, y asociadas a una coordenada geográfica específica para identificar de forma fehaciente que hay un problema.

Si no hay números concretos que respalden la observación, pueden seguir mirando a un lado, como siempre lo hicieron.

Mas detalles

El siguiente nivel de Docker es Atomic

Los contenedores son una interesante forma de distribuir aplicaciones y plataforma pero cuando hay aplicaciones que requieren de varias partes, como servidor web, base de datos, etc. todos ellos en contenedores diferentes, esto puede ser una tarea colosal. Son muchos contenedores que deben presentarse unos a otros con puertos especificos de cada uno y variables de acceso, etc, y hacer todo esto de forma manual puede ser una tarea de adminstración muy compleja.

Para estos casos el proyecto atomic juega un rol muy importante. Es un conjunto de herramientas que permiten presentar aplicaciones con sus diferentes contenedores ya todos integrados de acuerdo a reglas definidas.

La guia de inicio del proyecto es bastante sencilla de seguir y una vez funcionando el cluster de servidores es bastante sencillo de desplegar aplicaciones, aunque sigue siendo bastante manual porque se basa en archivos de texto, al igual que los Dockerfile de los contenedores, con las configuraciones para deplegar los «pods» (conjunto de contenedores vinculados), y luego el aplicar los mismos al cluster tambien es manual, a los sumo se puede automatizar un poco. Podemos decir que atomic presenta un lenguaje para juntar especificaciones de cada contenedor y desplegar los contenedores ya todos vinculados.

Creo que en el futuro, nos presentaran una herramienta de gestión de los «pods» más visual, pero por ahora, permite una administración muy fácil de algo que puede volverse engorroso con el tiempo.

Nota al margen: el cluster de atomic, no tiene una seguridad muy elaborada entre servidores y clientes, me supongo que es porque se espera que corra en un «ambiente aislado y seguro».

Creando imagenes en docker

En esta entrega trabajaremos con crear una imagen con nuestras configuraciones y publicarla para que otros puedan usarla en sus proyectos.

Empecemos descargando una imagen como base para nuestro trabajo.

docker pull fedora:latest

Para este ejemplo he creado un repositorio con los archivos usados, en este caso es simplemente un archivo PHP que contiene una función básica.

Crearé una imagen de Fedora 23 con el servidor Apache instalado y configurado para usar PHP. Este servidor luego mostrará una página con toda la informacón del ambiente PHP.

Primero creamos un directorio de trabajo, luego crearé un archivo llamado Dockerfile en el mismo.

mkdir fedora-test
touch fedora-test/Dockerfile

En este mismo directorio crearé un archivo, llamado archivo.php, cuyo contenido será el siguiente:

 <?php
phpinfo();
?>

Esto será para un ejemplo que usaremos mas adelante.

El archivo Dockerfile es el que define las acciones a realizar para obtener la imagen y se ejecuta de la siguiente forma:

cd fedora-test
docker build -t docker.io/rodolfoarce/fedora-test:0.1 .

El parametro -t docker.io/rodolfoarce/fedora-test:1.0 es para identificar la imagen con una etiqueta, así luego podremos publicar esta imagen con una etiqueta especifica en los repositorios publicos.

La clave de la construccion de la imagen es el archivo Dockerfile, que contiene todas las instrucciones para crear la imagen en cuestión.

Editamos el archivo Dockerfile, para que contenga las siguientes lineas, las explicaré por partes, y el archivo final deberá ser como este: click aquí

FROM fedora:latest

MAINTAINER Rodolfo Arce <mail@ejemplo.com>

La primera linea indica la instrucción FROM, que es la imagen original desde donde partiremos, en este caso yo parto desde fedora en su última version. Luego se indica la instrucción MAINTAINER quien es el que crea o mantiene esta imagen.

Acá empieza la parte divertida, esta imagen deberá ser modificada a través de varias tareas. Cada una de estas tareas, o conjunto de tareas se reaizan usando la instrucción RUN y a partir de ahí suceden los cambios

RUN dnf -y install httpd php && dnf clean all

Estos comandos instalan el serviro Apache y las librerías de PHP. Observación: Los comandos que fueras a realizar NO son interactivos, deben ser automáticos, por eso en se ejecutó con el parametro correspondiente dnf -y

Luego borro la cache de archivos descargados y los metadatos, esto es una buena practica para mantener las imagenes limpias y compactas en tamaño.

Hasta ahora el sistema es capaz de ejecutar el servidor web, pero yo quiero una pagina web en específico que sea mostrada. Existen dos formas de hacer esto, voy a ponerlas ambas a continuación, pero en el archivo mantendré la forma mas amigable con otros usuarios.

Primera forma:

Copiarla desde el directorio de trabajo, para esto se usa la instrucción COPY

COPY archivo.php /var/www/html/info.php && chown apache:apache /var/www/html/info.php

De esta forma yo estoy copiando archivo.php de mi directorio actual, al sistema de archivos de la imagen a ser creada y cambiando el usuario dueño del mismo.

La otra forma es descargar en vivo el archivo desde algún repositorio público legible por los nuevos usuarios.

RUN curl -L -s https://github.com/rodolfoarces/docker-test/raw/master/archivo.php -o /var/www/html/info.php && chown apache:apache /var/www/html/info.php

Esto es mas amigable porque otras personas podrán ver el contenido del archivo en vez de recibir una caja negra que no saben lo que hace.

Finalmente vienen tres instrucciones que van mas o menos de la mano:

EXPOSE 80

CMD ["-D", "FOREGROUND"]

ENTRYPOINT ["/usr/sbin/httpd"]

La instrucción EXPOSE indica que puerto deberá abrirse en comunicación con el exterior, la siguiente instrucción CMD indica parametros que deberán pasarse al ejecutable inicial ENTRYPOINT de la imagen, en este caso es el servidor httpd.

Si yo fuera a crear una imagen de otro servicio o ejecutable que escuche en otro puerto, deberé cambiar la instrucción EXPOSE, si este ejecutable no requiera de parametros de inicio, la instrucción CMD es innecesaria.

Para ejecutar esta imagen inicializamos un contenedor usando el siguiente comando:

docker run -d --name=test -p 80:80 rodolfoarce/fedora-test:0.1

Apuntamos nuestro navegador a la IP del servidor en cuestión y debería de mostra la información del ambiente.

En mi caso puedo observar esta información: Apache/2.4.18 (Fedora) PHP/5.6.17

Ahora para publica esta nueva imagen, la envío a los un repositorio fedora-test previamente creado en mi cuenta de docker hub.

docker push docker.io/rodolfoarce/fedora-test

Seguimos luego con otras entregas de mas funcionalidades de Docker

Primeras experiencias con docker

Docker logo

Docker llegó para revolucionar la ejecución, la administación y aprovisionamiento del software para siempre.

Si algunas vez escuchaste la expresión «No funciona en mi maquina» mientras observabas el mismo software funcionando perfecto en tu maquina, entonces Docker es la herramientas que necesitas.

Creo que docker no soluciona todos los males, si traes contigo malos habitos y vicios en el ciclo de vida de desarrollo, docker solo agregará una nueva capa de complejidad a los mismos. Usar con cuidado 🙂

Resumiendo lo que es y que hace: Docker es una herramienta que permite la ejecución de software proveyendo TODO el ambiente (librerías) para el mismo, si necesidad de instalarlo en la maquina ejecutora del mismo o la necesidad de una aislamiento de hardware como lo hace la virtualización. Wow, eso lo hizo mas confuso!. Bueno, ejemplo.

No más hyperviosores

No más hyperviosores

Mi maquina es fedora, para ejecutar un software que requiere Debian, debo instalar Debian (directo a la maquina, o en maquina virtual), ejecutar el software. Docker permiter que puedas descargar todo el sistema de archivos de la distribución debian, y ejecutar el software en ese entorno descargado. Les parecerá muy similar a la virtualización, pero no es así, porque la virtualización presenta un sistema operativo completo y aislado ejecutado en memoria por medio de un hypervisor, en el caso de docker es solo UN SOLO proceso ejecutado en memoria no asi TODO el sistema operativo.

Manos a la obra!

Para fedora:

dnf install docker

para Debian/Ubuntu

apt-get install docker

para CentOS/Red Hat

rpm install docker

Bajo la misma premisa expuesta, ahora quiero ejecutar un software en Debian. Para esto como el usuario root del sistema, descargo la imagen del sistema operativo, y lo preparo para la ejecución de un software

[root@laptop ~]# apt-get --version    <- Esto es Fedora
bash: apt-get: command not found
[root@laptop ~]# docker pull debian
.. Aca muestra varios mensajes..
[root@laptop ~]# docker run --name=test -t -i debian:latest /bin/bash
root@a1b2c3d4e5:/#  cat /etc/issue    <- Esto es debian 
Debian GNU/Linux 8 \n \l
root@a1b2c3d4e5:/# apt-get --version
apt 1.0.9.8.1 for amd64 compiled..

Para explicar un poco mejor lo sucedido. En mi maquina Fedora ejecuto, apt-get, un comando muy conocido de las distribuciones de Debian. Me dice el interprete que estoy mal de la cabeza, eso no existe, lo cual es cierto. Luego descargo la imagen del sistema operativo de debian. Inicio un contenedor con esa imagen (explicaré mejor eso en unos parrafos más) y ya estoy dentro de la distribución debian. Ejecuto el mismo comando y ahí si existe. Puedo realizar las tareas con el mismo.

Un poco de contexto, que es muy importante. Todas las tareas y cambios que realice suceden dentro del contexto del contenedor. NO afecta la maquina host, en este caso, todo pasa en Debian, nada en Fedora.

El contenedor crea un sistema de archivo virtual para ejecución, con lo cual todas las modificaciones se mantienen durante la vida del contenedor. Hacemos todo lo que tenemos que hacer, salimos.

En la consola de Debian, ejecutamos «exit» y con eso salimos del contenedor, pero el sistema de archivo del contenedor sigue almacenado (aunque ya no «en vivo»). Entonces para entender la ejecución terminación y limpieza de las imagenes y contenedores vamos a un par de comandos más de ejemplo.

Lo primero que necesitamos es imagenes, estan son la base para los contenedores y nos dan un sistema de archivo desde el cual iniciar las tareas. Vemos cuales imagenes tenemos disponibles con «docker images»

[root@laptop ~]# docker images
REPOSITORY                        TAG                 IMAGE ID            CREATED             VIRTUAL SIZE
docker.io/debian                  latest              2b90562fac36        2 weeks ago         125.5 MB
docker.io/centos                  latest              60e65a8e4030        4 weeks ago         196.6 MB

Tengo imagenes de Debian y CentOS, a partir de estas imagenes se crean los contenedores, que son la ejecucion de los mismos. Creamos un contenedor del mismo ejemplo anterior. Para descargar imagenes de sistema operativo, el comando es «docker pull [nombre][:etiqueta]«.. la etiqueta es algo opcional, para versiones

[root@laptop ~]# docker pull debian
.. Aca muestra varios mensajes..
[root@laptop ~]# docker pull debian:7
.. Aca muestra varios mensajes..

Descargamos la imagen de debian, la ultima version, «latest«, que es la opcion por defecto si no es especifica la etiqueta, y la versión 7 que sería la anterior ya espeficicando la etiqueta.

Luego iniciamos el contenedor, pasando como parametros un nombre legible con «–name=«, ya verán eso porque es mejor así, «-t -i» son opciones para abrir (o mostrar) la consola , luego la imagen de base, en este caso «debian:latest» y luego el comando a ejecutar, en este caso el interprete de comandos «/bin/bash«, pero en otras entregas veremos como esto puede ser otro ejecutable. Ejemplo actual:

[root@laptop ~]# docker run --name=prueba -t -i debian:latest /bin/bash
root@a1b2c3d4e5:/#

Notesé el interprete bash entrega un conjunto de numero y letras luego del usuario «root@a1b2c3d4e5«, esto es un ID unico del contenedor.

Se pueden observar los contenedores en ejecución con «docker ps«, de la siguiente forma, abrimos otra consola en la maquina host y hacemos lo siguiente:

[root@laptop ~]# docker ps
CONTAINER ID        IMAGE                                    COMMAND                  CREATED             STATUS              PORTS                NAMES
a1b2c3d4e5           debian                                   "/bin/bash"              34 seconds ago      Up 32 seconds                            prueba

En el momento en que cerramos el interprete bash en el contenedor, el proceso muere y desaparece, pero el sistema de archivos aun sigue almacenado, de esta forma todos los contenedores de alguna forma se mantienen en el tiempo. Y la forma de iniciarlos nuevamente es por su ID. Y luego uno debe «conectarse» nuevamente.

[root@laptop ~]# docker ps
CONTAINER ID        IMAGE                                    COMMAND                  CREATED             STATUS              PORTS                NAMES
[root@laptop ~]# docker start a1b2c3d4e5     <-Con esto iniciamos el contenedor ya conocido
a1b2c3d4e5
[root@laptop ~]# docker ps
CONTAINER ID        IMAGE                                    COMMAND                  CREATED             STATUS              PORTS                NAMES
a1b2c3d4e5           debian                                   "/bin/bash"              1 hour ago      Up 60 seconds                            prueba
[root@laptop ~]# docker attach a1b2c3d4e5    <-Con esto nos "conectamos" al contenedor nuevamente  
root@a1b2c3d4e5:/#

Con lo anterior estamos iniciando nuevamente el contenedor original de Debian, usando su ID. Nos conectamos a nuevamente al contenedor usando «docker attach [ID]«. Para detenerlo, salimos de la consola o desde cualquier otra consola hacemos «docker stop [ID/Nombre]«.

[root@laptop ~]# docker stop a1b2c3d4e5

Luego de detener el contenedor, el mismo puede ser iniciado nuevamente, pero en caso de haber realizado todas las actividades y ya no lo necesitamos mas, lo borramos para que no ocupe espacio de almacenamiento, un poco de limpieza con «docker rm [ID]«. Si lo que queremos borrar es una imagen descargada usamos «docker rmi [nombre][:etiqueta]»

[root@laptop ~]# docker rm a1b2c3d4e5
[root@laptop ~]# docker rmi debian:latest

Con esto cerramos los primero pasos con docker y en las proximas entregas estaré comentando mis experiencias creando imagenes y un poco mas de administración de contenedores.