Aprende a proteger Nginx con Let’s Encrypt en CentOS 7

El uso de certificados SSL es una práctica muy utilizada en portales web donde la información debe ir encriptado para evitar problemas de seguridad. En el mercado, nos podemos encontrar un gran número de autoridades certificadoras que nos proporcionan este tipo de certificados de seguridad, aunque la mayoría de ellos son de pago. Hoy lo que haremos, será explicaros el proceso para generar un SSL gratuito para utilizarlo en vuestro servidor Nginx. Para ello utilizaremos Let’s Encrypt.

Para aquellos que no hayan escuchado hablar sobre Let’s Encrypt, decir que se trata de una autoridad certificadora que proporciona una manera sencilla de obtener e instalar certificados TLS/SSL gratuitos. Si te interesa utilizar este tipo de certificados, sigue leyendo y descubre cómo hacerlo.

Prerrequisitos

Antes de empezar con este tutorial, será necesario que conozcas algunos requisitos previos.

  • Disponer de un servidor CentOS 7 con usuario root que tenga todos los privilegios.
  • Administrar el nombre del dominio sobre el que deseas utilizar el certificado.
  • Asegurarse de que la zona de DNS del dominio cuenta con un registro A que apunte a la dirección IP pública del servidor. Esto es necesario, ya que Let’s Encrypt lo utilizará para realizar la validación.

Una vez que cumplamos estos requisitos, será el momento de instalar el software del cliente Let’s Encrypt.

Paso 1 – Instalar el software de Let’s Encrypt

Para obtener el certificado SSL, lo primero será instalar el software que nos permitirá hacer esto en nuestra máquina. La mejor forma de hacerlo es a través del repositorio EPEL. Para ello, lo primero será habilitar el acceso a ese repositorio ejecutando lo siguiente:

sudo yum install epel-release

Una vez habilitado, podemos obtener el paquete escribiendo:

sudo yum install certbot

De esta forma, el cliente certbot estará instalado y listo para ser utilizado.

Paso 2 – Obtener el certificado

Let’s Encrypt ofrece varias opciones para crear el certificado a través de varios complementos. Nosotros nos centraremos en el uso del plugin Webroot.

¿Cómo utilizamos el plugin Webroot?

Este complemento funciona colocando un archivo especial en el directorio /.well-known dentro de nuestro raíz. Dependiendo de nuestra configuración, puede ser que sea necesario darles permisos para que Let’s Encrypt pueda acceder a él.

Si no tiene instalado Nginx, lo puede hacer ahora ejecutando la siguiente instrucción.

sudo yum install nginx

Para asegurarnos de que ese directorio estará accesible para Let’s Encrypt, vamos a realizar un cambio rápido en la configuración predeterminada de Nginx. Si estamos utilizando la configuración predeterminada, lo que haremos será crear un archivo que le pondremos de nombre le-well-known.conf. Lo editaremos con el siguiente comando.

sudo vi /etc/nginx/default.d/le-well-known.conf

A continuación, en su interior colocaremos las siguientes líneas:

location ~ /.well-known {
        allow all;
}

Guardaremos y saldremos de la edición. También chequearemos que no hemos cometido ningún tipo de error en la sintaxis utilizada. Lo podemos revisar ejecutando:

sudo nginx -t

Si no hay ningún error, reiniciaremos el servidor Nginx con esta instrucción.

sudo systemctl restart nginx

También será necesario que nos aseguremos de que están abiertos los puertos 80 y 443. Si estamos utilizando un cortafuegos, podemos abrirlos ejecutando los siguientes comandos:

sudo firewall-cmd –add-service=http
sudo firewall-cmd –add-service=https
sudo firewall-cmd –runtime-to-permanent

Si por el contrario, estamos utilizando IP Tables, las instrucciones que deberemos utilizar dependerán de nuestras actuales reglas. En el caso de estar utilizando reglas básicas, con estas dos instrucciones deberían ser suficientes.

sudo iptables -I INPUT -p tcp -m tcp –dport 80 -j ACCEPT
sudo iptables -I INPUT -p tcp -m tcp –dport 443 -j ACCEPT

Una vez realizados los anteriores pasos, ya podremos utilizar el plugins Webroot para solicitar el certificado SSL utilizando el siguiente comando.

sudo certbot certonly -a webroot –webroot-path=/usr/share/nginx/html -d example.com -d www.example.com

Hay que utilizar la opción –d para indicar el nombre del dominio sobre el que se instalará el certificado. En caso de utilizar más de un dominio, habrá que indicarlo de forma separada incluyendo delante de cada uno de ellos esta opción. También hay que tener en cuenta, que un dominio con y sin www es considerado diferente.

Cuando Certbot se inicie, nos pedirá una serie de datos. Esto dependerá de si ya lo hemos utilizado anteriormente o si es la primera vez. Nosotros supondremos que nunca antes lo habíamos utilizado. De esta forma, en la primera pantalla que nos aparecerá, introduciremos nuestro correo electrónico. Aquí será donde recibamos los avisos y recuperación de claves perdidas.

Luego debemos aceptar los términos de Let’s Encrypt.

Si todo ha ido bien, deberíamos ver algo parecido a lo siguiente.

IMPORTANT NOTES:
 - Congratulations! Your certificate and chain have been saved at
 /etc/letsencrypt/live/example.com/fullchain.pem. Your
 cert will expire on 2017-01-10. To obtain a new version of the
 certificate in the future, simply run Let's Encrypt again.
 - If you lose your account credentials, you can recover through
 e-mails sent to sammy@digitalocean.com
 - Your account credentials have been saved in your Let's Encrypt
 configuration directory at /etc/letsencrypt. You should make a
 secure backup of this folder now. This configuration directory will
 also contain certificates and private keys obtained by Let's
 Encrypt so making regular backups of this folder is ideal.
 - If like Let's Encrypt, please consider supporting our work by:

Donating to ISRG / Let's Encrypt: https://letsencrypt.org/donate
 Donating to EFF: https://eff.org/donate-le

En el anterior mensaje, podremos ver la fecha de expiración y la ruta de nuestro SSL.

Archivos del certificado

Una vez que hemos generado el certificado, deberíamos tener los siguientes archivos:

  • pem: Certificado de nuestro dominio
  • pem: Certificado de Let’s Encrypt
  • pem: Una combinación de los dos anteriores.
  • pem: Clave privada de nuestro certificado.

Generar un grupo fuerte Diffie-Hellman

Para aumentar aún más la seguridad, también es necesario generar un grupo Diffie-Hellman fuerte. Para generar un grupo de 2048 bits, deberemos ejecutar los siguiente:

sudo openssl dhparam -out /etc/ssl/certs/dhparam.pem 2048

Paso 3 – Configurar TLS/SSL en el servidor Nginx

El siguiente paso, será editar la configuración de Nginx para usar los archivos del certificado que hemos generado con Let’s Encrypt. Para ello, crearemos un nuevo bloque en el archivo de configuración en el que indicaremos que utiliza SSL/TLS y escucha en  el puerto 443.

Por defecto, este nuevo bloque se puede colocar en /etc/nginx/conf.d. Para ello, crearemos un nuevo archivo al que llamaremos ssl.conf. Una vez creado, lo editaremos y en su interior colocaremos el siguiente código.

server {
 listen 443 http2 ssl;

server_name example.com www.example.com;

ssl_certificate /etc/letsencrypt/live/example.com/fullchain.pem;
 ssl_certificate_key /etc/letsencrypt/live/example.com/privkey.pem;

########################################################################
 # from https://cipherli.st/ #
 # and https://raymii.org/s/tutorials/Strong_SSL_Security_On_nginx.html #
 ########################################################################

ssl_protocols TLSv1 TLSv1.1 TLSv1.2;
 ssl_prefer_server_ciphers on;
 ssl_ciphers "EECDH+AESGCM:EDH+AESGCM:AES256+EECDH:AES256+EDH";
 ssl_ecdh_curve secp384r1;
 ssl_session_cache shared:SSL:10m;
 ssl_session_tickets off;
 ssl_stapling on;
 ssl_stapling_verify on;
 resolver 8.8.8.8 8.8.4.4 valid=300s;
 resolver_timeout 5s;
 # Disable preloading HSTS for now. You can use the commented out header line that includes
 # the "preload" directive if you understand the implications.
 #add_header Strict-Transport-Security "max-age=63072000; includeSubdomains; preload";
 add_header Strict-Transport-Security "max-age=63072000; includeSubdomains";
 add_header X-Frame-Options DENY;
 add_header X-Content-Type-Options nosniff;

##################################
 # END https://cipherli.st/ BLOCK #
 ##################################

ssl_dhparam /etc/ssl/certs/dhparam.pem;

location ~ /.well-known {
 allow all;
 }

# The rest of your server block
 root /usr/share/nginx/html;
 index index.html index.htm;

location / {
 # First attempt to serve request as file, then
 # as directory, then fall back to displaying a 404.
 try_files $uri $uri/ =404;
 }
}

En el código anterior, deberemos cambiar el nombre del dominio example.com por el que estemos utilizando. Guardamos y cerramos el archivo.

Lo siguiente será configurar Nginx para redirigir las peticiones HTTP del puerto 80 hacia HTTPS en el puerto 443, recuerda que si además tienes activo HTTP2 todo irá más rápido. Para ello, deberemos crear un archivo, al que llamaremos ssl-redirect.conf, dentro de la ruta /etc/nginx/default.d. Lo abriremos y en su interior pegaremos lo siguiente:

return 301 https://$host$request_uri;

Guardamos los cambios y salimos. Comprobamos que todo está correcto

sudo nginx -t

Y si no hay errores, reiniciamos Nginx.

sudo systemctl restart nginx

Una vez hecho todo esto, el certificado ya está activo. Solo quedaría probar que funciona correctamente, visitando nuestro dominio con el protocolo HTTPS desde un navegador web.

Paso 4 – Configurar la renovación automática

Los certificados que se genera, son válidos para 90 días, aunque se recomiendan que sean renovados cada 60 días por si ocurriera cualquier error. Para renovar todos nuestros certificados, tendremos que ejecutar los siguiente:

sudo certbot renew

Si queremos asegurarnos de que nuestros certificados se renuevan automáticamente, lo más sencillo y cómodo es programar una cron que se ejecute cada día o cada semana. De esta forma, si hubiera algún certificado a punto de vencer se renovaría. Si no fuera así, no pasaría nada.

Para ello, editaremos el crontab para crear una nueva tarea que se encargue de ejecutar este comando por el usuario root.

30 2 * * 1 /usr/bin/certbot renew >> /var/log/le-renew.log
35 2 * * 1 /usr/bin/systemctl reload nginx

Guarda los cambios y cierra el archive. De esta forma, se ejecutará la orden de renovación todos los lunes a las 2:30 horas de la mañana.

 

 

 

 

 

 

 

Cómo importar y exportar bases de datos en MySQL o MariaDB

Hoy en día, se ha vuelto prácticamente imprescindible, realizar copias de seguridad de nuestros sitios y aplicaciones web. Cuando hablamos de backups, no solo nos referimos a los archivos que forman parte de la web, sino también a la base de datos. Una vez que hemos realizado nuestra copia de respaldo, podemos restaurarla en cualquier momento en caso de sufrir algún tipo de hackeo o pérdida de información.

En nuestra entrada de hoy, nos centraremos en el proceso de copia de seguridad de bases de datos MySQL y MariaDB, así como en los pasos a seguir para su restauración. Una tarea sencilla cuyos pasos podréis descubrir a continuación.

Requisitos previos

Antes de nada, será interesante conocer los requisitos que necesitaremos para poder importar o exportar una base de datos MySQL o MariaDB:

  • Acceso al servidor donde está instalado MySQL o MariaDB.
  • El nombre de la base de datos, el usuario y la contraseña de acceso a la base de datos.

Exportando la base de datos

Para realizar la exportación de la base de datos, tendremos que hacer uso del comando “mysqldump” que utilizaremos desde consola. Una vez que hayamos realizado el backup, el archivo generado lo podremos mover de forma sencilla.

Para realizar la exportación de la base de datos, deberemos ejecutar lo siguiente:

mysqldump -u username -p database_name > data-dump.sql
  • username hace referencia al nombre del usuario de la base de datos.
  • database_name tendrá que ser sustituido por el nombre de la base de datos.
  • data-dump.sql es el archivo que se generará con toda la información de la base de datos.

Ese comando no producirá ningún tipo de salida visual. De todas formas, podemos inspeccionar el archivo generado para asegurarnos de que se trata de una copia SQL utilizando la siguiente instrucción.

head -n 5 data-dump.sql

Ese comando nos deberá devolver algo parecido a lo que os dejamos a continuación.

-- MySQL dump 10.13  Distrib 5.7.16, for Linux (x86_64)
--
-- Host: localhost    Database: database_name
-- ------------------------------------------------------
-- Server version       5.7.16-0 ubuntu 0.16.04.1

Importando la base de datos

Para importar un volcado de MySQL o MariaDB, lo primero que deberemos hacer será crearnos la base de datos donde haremos la importación. Para hacer esto, si no tenemos ningún gestor de bases de datos, tendremos que conectarnos al servidor de bases de datos como usuario root.

mysql -u root –p

Esto hará que se abra el Shell de MySQL o MariaDB. A continuación, crearemos la base de datos.

mysql> CREATE DATABASE new_database;

Si todo ha ido correcto, deberás ver una salida parecida a lo siguiente.

Query OK, 1 row affected (0.00 sec)

Cuando ya la hayamos creado, tendremos que salir de ese Shell. Para ello, pulsaremos CTRL+D. Cuando estemos en la línea de comandos normal, será el momento de lanzar el comando que se encargará de realizar la importación de la base de datos.

mysql -u username -p new_database < data-dump.sql
  • username será el nombre del usuario con acceso a la base de datos
  • new_database es el nombre de la base de datos donde se realizará la importación
  • data-dump.sql es el nombre del archivo que contiene todas las instrucciones sql que vamos a importar.

Si durante el proceso de importación se produjera algún tipo de error, estos se mostrarían por pantalla.

Como habéis podido leer, el proceso de exportación e importación de una base de datos MySQL o MariaDB, es un proceso muy sencillo que se puede realizar mediante unos sencillos pasos.

Stackscale opta a los premios Open Awards 2017

Hemos lanzado nuestra web y nos estrenamos optando a los premios Open Awards 2017 en la categoría de Mejor Solución Cloud. Stackscale está especializado en soluciones de infraestructura, cloud privado y almacenamiento.

¿Nos ayudas a estar entre las cinco candidaturas finalistas con más votos?

Stackscale opta a los Open Awards 2017

¿Conoces la vulnerabilidad Dirty Cow? Aprende a proteger tu servidor Linux de ella

Es habitual localizar bugs en el kernel de Linux, agujeros que permanecen vigentes durante varios años sin que nadie haga nada para solucionarlos, incluso en muchas ocasiones, teniendo conocimiento de sus existencia. Es lo que ha ocurrido con el último caso sacado a la luz. Lleva por nombre Dirty Cow aunque su nombre técnico es CVE-2016-5195 publicado en Canonical, Red Hat, y Debian. Un problema de seguridad muy importante que ha estado vigente durante 9 años.

¿En qué consiste la vulnerabilidad Dirty Cow?

La vulnerabilidad de la que hablamos en esta entrada, fue descubierta por Phil Oester, un experto en seguridad y desarrollador de Linux. Este bug, lo que permite es una escalada de privilegios de forma remota o local.

En sí, el problema está localizado en el subsistema de memoria kernel y afecta al proceso de copia virtual de operaciones de escritura que hace el núcleo. De forma resumida, lo que permite esta vulnerabilidad es que un usuario normal sin privilegios, podría utilizarla para escribir y tener acceso a partes del sistema que pertenecen a otros usuarios, incluso de root. Es decir, archivos que únicamente son de lectura, podrían ser modificados por usuarios que no son sus propietarios, con los problemas que esto podría acarrear.

Como no podía ser de otra forma, esta vulnerabilidad ya fue corregida por los responsables del kernel, aunque no todos los usuarios tendrán acceso a esa actualización donde se corrige este problema.

¿Cómo se si mi equipo sufre la vulnerabilidad Dirty Cow?

Según se ha comprobado, la vulnerabilidad ha existido dentro del kernel del Linux desde su versión 2.6.22 liberada en el año 2007. Ya en su momento, se tuvo conocimiento de ella. Para mitigar sus efectos, se lanzó un parche que no dio los resultados esperados ya que era incompatible con otras funciones del kernel. Ahí se quedó la cosa hasta hace unos días que volvió a salir a la luz.

Para saber si la versión que utilizamos en nuestro sistema es segura, deberemos mirar la versión que utilizamos y asegurarnos de que está dentro del listado de versiones seguras. En este momento son Linux 4.8.3, 4.7.9 y 4.4.26 LTS.

Dependiendo de la versión del sistema operativo que utilicemos, la forma de localizar el kernel que estamos utilizando puede variar.

Ubuntu / Debian

Para encontrar la versión, desde la línea de comandos deberemos ejecutar la siguiente instrucción.

uname –rv

Por pantalla, nos deberá aparecer información parecida al siguiente ejemplo que os dejamos.

4.4.0-42-generic #62-Ubuntu SMP Fri Oct 7 23:11:45 UTC 2016

Si vuestra versión es anterior a estas que os dejamos, entonces la vulnerabilidad os afecta directamente.

  • 8.0-26.28para Ubuntu 16.10
  • 4.0-45.66para Ubuntu 16.04 LTS
  • 13.0-100.147para Ubuntu 14.04 LTS
  • 2.0-113.155para Ubuntu 12.04 LTS
  • 16.36-1+deb8u2 para Debian 8
  • 2.82-1para Debian 7
  • 7.8-1para Debian unstable

CentOS

Algunas versiones de CentOS, pueden utilizar este script proporcionado por Red Hat para comprobar la vulnerabilidad del sistema. Para probarlo, lo primero que debemos hacer será descargarlo.

wget https://access.redhat.com/sites/default/files/rh-cve-2016-5195_1.sh

Posteriormente, lo deberemos de ejecutar.

bash rh-cve-2016-5195_1.sh

Si el sistema es vulnerable, por pantalla aparecerá un mensaje parecido a lo siguiente que os dejamos.

“Your kernel is 3.10.0-327.36.1.el7.x86_64 which IS vulnerable.
Red Hat recommends that you update your kernel. Alternatively, you can apply partial
mitigation described at https://access.redhat.com/security/vulnerabilities/2706661 .”

Poner solución a la vulnerabilidad Dirty Cow

Por suerte, poner solución a este problema es sencillo. Lo único que debemos hacer es actualizar el sistema y reiniciar el servidor.

En Ubuntu y Debian, podemos actualizar utilizando “apt-get”.

sudo apt-get update && sudo apt-get dist-upgrade

En el caso de CentOS 5, 6 y 7, podéis actualizar el sistema con “sudo yum update”, pero si sólo quieres solucionar este problema, entonces deberías ejecutar lo siguiente:

sudo yum update kernel

Una vez que se haya actualizado, debemos reiniciar el sistema.

Android, uno de los más afectados

En el punto anterior, hemos visto que poner solución a esta vulnerabilidad es fácil, únicamente hay que actualizar la versión del kernel de nuestro sistema. El problema lo podemos encontrar en aquellos sistemas operativos que hacen uso del kernel de Linux pero cuya actualización no es tan rápida como cabría de esperar.

El caso más claro lo tenemos con Android. En la mayoría de los casos, la actualización del sistema depende de los propios fabricantes y en muchos casos, pasan de llevarlas a cabo. De esta forman, nos encontramos en una situación en la que la mayoría de usuarios con terminales Android, serán susceptibles de que alguien pueda atacarles mediante este problema. La solución en estos casos es esperar a que los fabricantes lancen actualizaciones o bien utilizar rooms de terceras empresas que solucionen este problema.

Te estamos buscando: administradores de sistemas y redes

Stackscale es un proveedor de servicios de Cloud Computing que ofrece soluciones IaaS (Infrastructure as a Service) dirigidas a grandes consumidores de recursos de computación, red y almacenamiento.

Actualmente la compañía tiene sedes en Madrid y Ámsterdam, estando ubicado su Centro de Operaciones de Redes y Sistemas, así como su departamento de I+D, en Elda (Alicante).

Puesto de trabajo: Administrador de sistemas y redes.

Ubicación: Buscamos candidatos para las tres ubicaciones de la empresa: Elda (Alicante), Madrid, Ámsterdam.

DESCRIPCIÓN DEL PUESTO

Stackscale precisa incorporar un administrador de redes y sistemas Unix/Linux para desarrollar las funciones propias del puesto en un ámbito de sistemas heterogéneos, así como apoyar al departamento de I+D.

REQUERIMIENTOS

  • Al menos 2 años de experiencia como administrador de sistemas Linux/Unix.
  • Conocimientos avanzados en redes IP.
  • Conocimientos en tecnologías de virtualización.
  • Conocimientos medios en lenguajes de programación: PHP, Python, Perl, C, Shell-Script, HTML, Javascript.
  • Inglés medio-alto (hablado y escrito).

HABILIDADES DESEABLES

Conocimientos y experiencia en:

  • Virtualización con VMware (especialmente vSphere y vCloud), KVM, Libvirt, Openstack, Xen, XenServer y Proxmox.
  • Almacenamiento: NetApp, ZFS y Ceph.
  • Monitorización: Nagios, Cacti, ELK – Elasticsearch, Logstash, Kibana, NewRelic, netdata.
  • Automatización: Saltstack.
  • Entornos altamente disponibles: HAProxy, Varnish, NGINX, Apache HTTP, PHP, Memcached, Redis, RabbitMQ, MySQL, MongoDB, etc.
  • Trato directo con el cliente.

Puedes inscribirte te recomendamos rellenar nuestro formulario para esta oferta de empleo, aunque también puedes escribirnos a jobs@stackscale.com.

Aplica para nuestros puestos de administración de sistemas y redes a través de nuestra página de empleo.

Stackscale colabora con el evento de emprendimiento Fashion Weekend Lab 2016

Para montar una startup resulta fundamental contar con una infraestructura desde el primer momento. Por ello, los organizadores de la Fashion Weekend Lab 2016 han confiado en el cloud privado de Stackscale para desarrollar los proyectos de emprendimiento que durante el evento verán la luz.

Este fin de semana (21, 22 y 23 de octubre), en Campus Madrid, tendrá lugar el evento donde participarán 100 personas de diversas disciplinas (diseño de moda, estilismo, creatividad, desarrollo web, informática, periodismo, publicidad, finanzas…). Entre ellas harán grupos con la finalidad de idear, cada uno de ellos, un MVP (Producto Mínimo Viable) relacionado con el sector de la moda. Sin duda, una brillante iniciativa para fomentar la generación de nuevas startups en el sector de la moda.

El diseñador Assaad Award, los fashion influencers Inés Rovira y Álvaro Mel, y el organizador de eventos Javier Esteban, entre otros, serán los mentores que asesorarán a los asistentes.

Medios y Redes, Estasdemoda.com, Pirendo, Uber, Climbcrew Venture Capital y el European Institute Entrepreneurship son algunos de los colaboradores con los que cuenta este evento al que desde Stackscale nos hemos sumado para facilitar la infraestructura web necesaria para los emprendedores participantes.

Las entradas ya están agotadas, pero puedes informarte sobre este evento en su web oficial: fwlab.es

Stackscale estará presente en la tercera edición de Meet Magento Spain 2016

Stackscale estará presente en el evento de referencia para la comunidad internacional del ECommerce. Meet Magento Spain 2016 (#MM16ES) vuelve de nuevo el día 25 de Octubre a Madrid en su tercer año consecutivo.

La conferencia anual de la comunidad Magento de referencia a nivel mundial, no solo cuenta con el respaldo oficial de la compañía, sino que también cuenta con el respaldo y la representación de las empresas más destacadas del comercio electrónico a nivel nacional e internacional.

meet-magento-spain-2016

Más de 400 merchants, ecommerce y market places, volverán este año al evento para debatir y conocer las nuevas tendencias que se están moviendo alrededor de este sector. Stackscale tiene una gran presencia en el ecosistema del comercio electrónico en Europa, dando soluciones de infraestructura y cloud hosting a grandes ECommerce.

Meet Magento Spain va dirigido a todos los profesionales del eCommerce y se espera reunir a más de 500 expertos nacionales e internacionales en el comercio electrónico. Un espacio idóneo donde desarrolladores, comerciantes y proveedores se darán cita para compartir sus conocimientos, experiencias y así generar oportunidades de negocio sobre los productos y servicios relacionados con el Ecommerce.

El objetivo principal de este año en el Meet Magento Spain será profundizar en las novedades que nos traerá de la mano Magento 2 en el entorno ECommerce.

El Teatro Goya de Madrid volverá a ser un año más el escenario del evento. El espacio del evento estará distribuido en 3 salas con charlas y workshops sobre Marketing, Ecommerce, negocio y desarrollo, funcionando en paralelo y que están dirigidas a todos aquellos que tienen un negocio online y que quieren mejorar sus resultados de ventas.

Entre los Speakers, podéis encontrar nombres como Ben Marks (miembro de Magento desde 2014), Carlos Liébana (fundador y director de FactorLibre, empresa de desarrollo de software en nuestro país), Thomas Goletz (también de Magento), Jorge Cano (eCommerce Manager de Unode50), o Montse Labiaga (CEO de Fotografía eCommerce, empresa especialista en fotografía de productos para tiendas online). Podéis encontrar todos los speakers que participan en el evento desde aquí: Speakers del Meet Magento Spain 2016.

Aunque todavía aún no está todo el programa y faltan eventos por confirmar, desde aquí puedes acceder a toda la Agenda de Meet Magento Spain 2016.

Desde Stackscale te queremos invitar a esta importante cita del comercio electrónico en España, aprovecha el código de 100% de descuento que tenemos para ti. Suscríbete a nuestro boletín de noticias y recibirás un cupón por email.

De nuevo Meet Magento Spain vuelve a estar organizado por Interactiv4 y Stackscale te acompañará en el evento como uno de los sponsors de referencia en soluciones de infraestructura y cloud hosting.

Los robots de Chanel desfilan sobre la recreación de un centro de datos en París

Karl Lagerfeld quería sorprender un año más al mundo de la moda con un impresionante desfile en París que apuntase a lo mas alto de la vanguardia creativa. Es más, su objetivo era llamar la atención de la nueva generación “millennial”, caracterizada por el uso de las nuevas tecnologías. Así nació su idea de recrear un centro de datos, el #DataCenterChanel, sobre el que desfilaron sus modelos – robots para presentar la nueva colección primavera – verano 2017.

Data Center Channel. Data Center Chanel. Imagen de instagram @franckbenhamou

Pero el centro de datos ha sido mucho más que un simple escenario. En realidad, ha sido la base de inspiración para esta renovación de los diseños más elegantes y míticos de la firma. Sus trajes de “tweed” se han reinventado con estampados y colores ácidos que nos recuerdan a los cables de un centro de datos y a los bolsos 2.55 se les han incorporado luces LED, por no hablar de aquellos que parecen una reproducción de una placa base como puedes ver en la siguiente imagen.

coleccion-datacenter-channel-paris

Al ritmo de la banda sonora de Daft Punk y con cascos propios de los robots soldados Stormtroopers de “La guerra de las galaxias” o gorras juveniles, las modelos desfilaron y presentaron esta nueva colección pensada para las nuevas generaciones que dará mucho de que hablar.

DataCenterChanel colección primavera - veranoData Center Chanel. Imagen de instagram @chanelofficial

En definitiva, Chanel nos muestra una alegoría a la gran cantidad de información que nos envuelve en la actualidad y a las nuevas tecnologías, llegando a su culmen cuando entras en la web oficial de Chanel para ver el desfile y te encuentras con que la descripción se encuentra en un gif animado donde se va escribiendo un código HTML con los datos.

Guía de uso del panel de control de Cloud Elástico

Son muchas las posibilidades que ofrece nuestro producto cloud elástico por medio del panel de control que ofrece. A simple vista puede parecer algo completo, pero a la hora de la verdad, su uso es muy intuitivo. De todas formas, hemos querido preparar esta guía donde explicaremos el uso de este panel d control para que no tengáis problemas con él.

Empecemos a descubrir todo lo que podemos hacer desde este panel de control.

Creación y administración de entornos

Si queremos crear un nuevo entorno de trabajo, los pasos que debemos seguir son los siguientes.

1.- En la esquina superior izquierda, pulsaremos en la opción “New environment”.

Crear un entorno cloud elástico Stackscale

2.- Se abrirá un cuadro de diálogo donde podemos personalizar todos los valores del entorno que queremos crear.

Creando un entorno con HA en cloud elástico Stackscale

3.- Cuando lo hayas terminado de configurar, tendrás que escribir un nombre para ese entorno recién creado y pulsar el botón “Create”. Esto te llevará a un listado de los entornos que tienes creado mostrando cierta información de cada uno de ellos.

Entorno desplegado con cloud elástico Stackscale

  • Name: En esta columna aparece el nombre del entorno, su dominio y el icono de la región. Si se pulsa sobre el icono del triángulo que aparece delante del nombre, se puede ver la lista de nodos que forma parte de él.
  • Status: Esta otra columna muestra el estado del entorno (Running, Sleeping, Stopped) o el proceso actual que está realizando (Creating, Launching, Stopping, Cloning, Exporting, Installing, Migrating, Deleting).
  • Deployed: Sirve para indicar si cualquier paquete de la aplicación se ha desplegado o si se está desplegando en este momento.
  • Usage: Muestra la cantidad de espacio en disco que el entorno consume actualmente. También nos encontramos con un icono hacia el historial de facturación.
  • Owner: Se trata de una columna opcional donde aparece el propietario del entorno.

Iconos de función para entornos

Si pasamos el ratón sobre alguno de los entornos creados, nos aparecerá una serie de iconos cada uno de ellos con una función determinada.

Detalle de entorno desplegado en cloud elástico Stackscale

1.- Region

Al pasar el ratón sobre este icono, aparecerá el nombre. Al pulsar sobre él, se abrirá la sección de migración. Sólo está disponible si dispones de una zona de cloud privado en Cloud Elástico Stackscale.

2.- Abrir en el navegador

Al pulsar sobre él, el entorno se abrirá en una nueva pestaña del navegador.

3.- Configuración

Al pulsar sobre este icono, se abrirá una nueva pestaña con las opciones de configuración disponibles.

  • Custom domains: Da acceso a las subopciones: Domain binding y Swap domain.
  • Custom SSL: Esta opción permitirá subir los archivos necesarios para la instalación de un certificado SSL.
  • SSH Access: Podrás añadir la clave SSH pública y de esta forma poder conectarse de forma segura a ese entorno creado.
  • Monitoring: Permite conocer la cantidad de recursos consumidos por el entorno. Puedes crear alertas que le avisen cuando se supere un determinado umbral.
  • Endpoints: Desde dentro de esta sección, se puede gestionar los puertos TCP / UDP para garantizar una conexión directa con los recursos externos.
  • Migration: Desde esta opción, podremos migrar ese entorno a otra localización.
  • Account Manager: Desde aquí, podremos ver el listado de cuentas que tiene acceso al entorno.
  • Change Owner: Si queremos cambiar el propietario, lo podremos hacer desde esta sección.
  • Export: Permite generar un archivo descargable con la configuración del entorno, que puede ser utilizado posteriormente para crear un entorno idéntico en cualquier otro proveedor.Info: Sección que muestra información sobre este paquete.

4.- Clone environment

Si queremos duplicar un entorno determinado, tan fácil como pulsar sobre este icono. Se abrirá una nueva ventana donde tendremos que indicar el nombre del nuevo entorno.

5.- Change environment topology

Podemos cambiar la topología del entorno pulsando en esta opción. Modifica aquellas cosas que necesites cambiar en la ventana que se abrirá y pulsa sobre el botón “Apply” para que los cambios tomen efecto.

6.- Delete environment

Si por algún motivo tuviéramos que eliminar un entorno, sólo tendríamos que pulsar sobre este icono y confirmar que queremos borrarlo.

Iconos de cada instancia

Si pulsamos sobre el triángulo que aparece delante del nombre del entorno, se desplegará un menú con la lista de servidores instalados, bases de datos y otros servicios activos. Para cada uno de estos servicios, están disponibles una serie de iconos que aparecen al pasar el ratón sobre ellos.

Detalle iconos de instancia Apache en Cloud Elástico Stackscale

Veamos a continuación para que son utilizados cada uno de esos iconos.

  • Open in browser: Abrirá la aplicación en una nueva pestaña del navegador.
  • Restart node: Esta opción será la que tendremos que elegir si queremos reiniciar un determinado servicio.
  • Config: Abrirá una pestaña donde podremos gestionar la configuración del nodo, pudiendo hacer cambios siempre que lo necesitemos.
  • Log: Nos permite ver los diferentes archivos log del nodo.
  • Statistics: Permite conseguir información sobre consumo de CPU, RAM, espacio en disco…

Determinados nodos pueden tener botones opcionales como Add-ons para añadir plugins adicionales y Add Project para instalar app vía GIT/SVN.

Marketplace

Cerca de la opción de “New environment”, en la parte superior del panel, podemos encontrarnos el botón “Markeplace” que también es ampliable, tal y como podéis ver en la imagen siguiente.

Si pulsamos en “Applications”, accederemos a una lista de paquetes de aplicaciones preconfiguradas.

Marketplace de aplicaciones cloud elástico stackscale

Podemos pulsar en el botón de instalación de cada una de esas aplicaciones para crear un entorno adecuado para ella y producir el despliegue de la herramienta elegida.

La opción Docker® Containers abrirá el panel donde podemos encontrar, y posteriormente implementar la imagen Docker® deseada utilizando alguna de las tres fichas disponibles.

Buscador de contenedores Docker

  • Quick Start que contiene un conjunto de las plantillas más populares.
  • Buscar en el registro, que permite localizar plantillas en el sistema de plantillas de Docker®.
  • Opción de añadir nuestras propias plantillas a partir de un registro personalizado.

Gestor de despliegue

El gestor de despliegue se utiliza para cargar los paquetes de aplicación y posteriormente desplegarlos en un servidor de aplicaciones de su entorno de ejecución.

Para hacer uso de él, debemos seguir los siguientes pasos que explicamos a continuación.

1.- Pulsaremos en el botón “Upload” para acceder a la caja de subida de archivos. Podemos utilizar la opción de subir un archivo desde nuestro disco duro, o bien indicar una dirección url.

subir archivos a gestor de despliegues

Cumplimentaremos los campos y pulsaremos sobre el botón.

2.- Seleccionamos el archivo subido y pulsaremos sobre el botón “Deploy to” para ver los distintos entornos que tenemos creados. Tendremos que elegir uno de ellos para que se lleve a cabo el despliegue de la aplicación.

Desplegar en entorno

3.- En la caja de diálogo que se mostrará ante nosotros, podremos confirmar el despliegue, utilizando el contexto por defecto o bien podemos indicar un contexto personalizado.

desplegar en cloud elástico

4.- Por último, sólo quedaría pulsar el botón “Deploy”.

Panel de tareas

Este panel aparece en la parte inferior del panel de control y contiene datos en tiempo real e histórico de las tareas que Cloud Elástico está llevando a cabo o que ya ha hecho.

Panel de tareas cloud elástico

Este panel incluye las columnas “Date”, “Name” y “Status”, que aportan información sobre cada tares.

  • Cuando se ha llevado a cabo.
  • Qué tipo de acción ha realizado.
  • El resultado de dicha acción.

Este panel de tareas, supervisa todos los procesos globales como es la creación del entorno, la adicción de nodos, los cambios llevados a cabo o las acciones llevadas a cabo en el gestor de archivos.

Configuraciones de la cuenta

Si pulsamos sobre el botón de configuración que aparece en la esquina superior derecha del panel, tendremos acceso a otras opciones que pueden ser interesantes y que se aplican a toda la cuenta.

configurar cuenta cloud elástico Stackscale

Cuando accedamos, veremos dos secciones disponibles: SSH Keychain y Collaboration.

Configuración de cuenta cloud elástico Stackscale

a) SSH Keychain

Aquí podemos encontrar información útil del uso del protocolo SSH en el Cloud Elástico, además de varios enlaces que pueden ser de gran utilidad para el manejo de las claves privadas y públicas.

b) Collaboration

Dentro de esta opción, nos encontramos dos artículos: Account Management y Shared with Me. El primero de ellos le permite compartir ciertas actividades con otras cuentas por medio de la creación y configuración de su propia colaboración, mientras que el segundo está destinado a la gestión de aquellos que ya han compartido con nosotros las cuentas.

Actualizar cuenta de prueba y balance

Dependiendo del tipo de cuenta que tengamos (prueba o de facturación), veremos la opción de “Upgrade trial account” o el botón “Balance” en la parte superior del panel. Actualmente si estás en las Beta Privada o Pública no verás opciones para actualizar la cuenta, pero te contamos como serán.

1.- Si estás utilizando una cuenta de prueba, verás la opción “Upgrade trial account”. Pulsa sobre ese botón para que se te abra un menú con varias opciones.

  • Pulsa sobre “Upgrade trial account” para conseguir una cuenta sin limitación, totalmente funcional.
  • “Learn about trial limitations”, mostrará información sobre las limitaciones que tienen las cuentas de prueba.
  • “Learn about pricing” te redirigirá hacia la página de la empresa para que pueda ver los precios de las distintas licencias que ofrecen.
  • La opción “See statistics on recent resource usage” abrirá tu histórico de facturas.

2.- Si ya está utilizando una licencia para tu cuenta, puedes pulsar sobre el botón “Balance” que se muestren algunas otras opciones.

  • Balance: Muestra tu saldo actual y sus componentes.
  • Refresh balance: Te permite ver los cambios de tu balance desde que has estado utilizando el panel.
  • Refill balance: Se utiliza para enviar el pago.
  • Configure auto-refill: Permite establecer una carga mensual del saldo eligiendo una de estas opciones: semanal, mensual o cuando el saldo sea inferior a una suma indicada.
  • Payments methods: Opción que te permite elegir el método de pago, así como añadir uno nuevo.
  • Quotas & pricing: Muestra una ventana con información sobre las limitaciones y precios de la cuenta Cloud Elástico.
  • Billing history: Muestra lo facturado en un determinado periodo de tiempo.
  • View invoices: Opción para ver las facturas que deben ser pagadas.

Opciones adicionales: caja de búsqueda, ayuda y dirección de email

Dentro del panel de control, nos encontramos algunas otras opciones en la esquina superior derecha.

1.- Si tienes dudas de cómo utilizar la plataforma, puedes buscar información por medio de la caja de texto que aparece en la parte superior.

2.- Si pulsamos en el menú “Help”, se desplegará una serie de opciones que pueden ser de gran ayuda.

Ayuda cloud elástico Stackscale

  • Contact support: Se trata de un enlace hasta el centro de soporte.
  • Docs: Enlace hacia la documentación de este panel de control.
  • API docs: Enlace hacia el API de Jelastic.
  • Video: Enlace hacia el canal de Youtube donde se muestra vídeos de uso del panel.
  • Go to community: Un enlace para conectar con la comunidad del panel.
  • Show Jelastic tutorial: Lleva a una página donde se explica paso a paso cómo comenzar con Cloud Elástico.

3.- La última opción que aparece es “Login”. Cuando pulsamos sobre ella, se despliega un menú con diferentes opciones.

configurar cuenta cloud elástico Stackscale

  • Change Password: Opción que permite cambiar nuestra contraseña.
  • Language: Permite seleccionar el idioma que utilizaremos en el panel.
  • Signout: Cerrar la sesión.

Son muchas las opciones que ofreces el uso de este panel de control dentro de Cloud Elástico, ahora os toca a vosotros que empecéis a utilizarlo.