Pruebas con ELK (Elasticsearch, Logstash y Kibana) (3)

Lo último que nos falta es un entorno que nos permita explotar eficientemente toda la información almacenada  en ElasticSearch, con este fin vamos a proceder con la instalación de Kibana.

Empezamos descargando desde la web oficial de Elastic la versión correspondiente:

Instalamos el paquete con el siguiente comando:

Como resultado nos encontraremos Kibana instalado en /opt/kibana , el archivo de configuración en /opt/kibana/config/kigana.yml  y el script de arranque en /etc/init.d/kibana .

Como ElasticSearch tiene la configuración por defecto y está instalado en el mismo servidor, no tenemos que configurar nada y podemos ejecutar Kibana sin problemas:

Podemos ver que Kibana ya está funcionado y escuchando en el puerto 5601, así que procederemos a acceder desde nuestro explorador favorito a http://localhost:5601 :

kibana01

Una vez en este paso, aceptaremos los valores por defecto, ya que solo tendremos un índice creado (todos los que empiezan por «logstash-«) y solo tenemos un campo de tipo fecha (@timestamp). Solo le tendremos que dar al botón CREATE.

Pero antes de seguir profundizando en Kibana y ahora que hemos comprobado que está funcionando correctamente, vamos a detener la ejecución e instalarlo como servicio en el arranque del sistema:

Ahora, reiniciamos la máquina y comprobamos que Kibana ha arrancado correctamente accediendo a servicio web anteriormente mencionado.

kibana02

Ya tenemos todo el entorno ELK funcionando correctamente, solo nos falta definir correctamente los filtros en Logstash y realizar algunas pruebas sobre cómo crear consultas, vistas y dashboard dentro de Kibana, que lo explicaremos en el próximos articulos.


Referencias de interés: