Desayuno tecnológico IT-3: dimensionar tus sistemas de forma óptima

El 21 de noviembre de 2019, Stackscale participará en el «desayuno tecnológico» organizado por ServoTIC, TransparentCDN y Raipson Security en Impact Hub (calle de la Alameda, 22, Madrid).

Nuestro cofundador y VP Sales, David Carrero, hablará sobre el expertise y la calidad del servicio que posiciona a Stackscale como una apuesta segura y cercana a la hora de elegir soluciones de Cloud Privado e infraestructura.

El evento empezará a las 9.00 (y se alargará hasta las 14.00 aproximadamente), y reunirá a varias empresas tecnológicas. Con las que tendrás tiempo de hacer un poco de networking durante la pausa para el café y el cóctel de despedida.

ponentes invitados al desayuno tecnológico IT-3 del 21 de noviembre de 2019

Temática del desayuno tecnológico IT-3

ServoTIC y TransparentCDN enfocarán sus ponencias en torno a cómo dimensionan de forma óptima los sistemas de sus clientes, con su consecuente ahorro de costes.

Nosotros hablaremos del papel de Stackscale como proveedor de Cloud Privado e infraestructura para los clientes de estas empresas. La eficiencia en la resolución de incidencias, los costes dimensionados y controlados, y el servicio de calidad son algunas de las claves del éxito en nuestra colaboración.

Asimismo, Raipson Security, IP-Label y Sun Media también aportarán ideas y experiencias en torno a temas relacionados, como el hacking ético.

Si te interesan estas temáticas y quieres saber más o intercambiar opiniones, no dudes en apuntarte al evento a través de este formulario. ¡Nos vemos el día 21 de noviembre en Impact Hub!

Stackscale asistirá al Meet Magento Spain 2019

Meet Magento, el evento oficial de la comunidad Magento, vuelve a Madrid. El Meet Magento Spain 2019 se celebrará el 28 de octubre de 2019 en el Teatro Goya Multiespacio.

Este evento de referencia a nivel internacional, del que somos patrocinadores, es el lugar ideal para descubrir las últimas tendencias e innovaciones tecnológicas del sector del eCommerce. Cada edición gira en torno a un tema y el Meet Magento Spain 2019 pone el foco en los profesionales del comercio electrónico.

Al igual que en las ediciones anteriores, el evento cuenta con el respaldo y la representación de empresas relevantes en el mundo del comercio electrónico, nacionales e internacionales. Durante el evento, merchants y expertos en eCommerce compartirán las experiencias y estrategias que les han ayudado a alcanzar el éxito.

Agenda y oradores que estarán en el Meet Magento Spain 2019

El Meet Magento Spain 2019 contará con expertos dentro del sector ecommerce y tech como: Mikel Ruiz, CTO en On4U; Kathleen Claes, Director of EMEA Sales en Adobe; Francesca Ceron, Digital Project Manager en PRONOVIAS GROUP o Javier Moreno, Head of Merchant Services, Spain & Portugal en Paypal.

evento eCommerce Meet Magento Spain 2019

El evento despegará con la ponencia de Ben Marks, «The future of Magento ecosystem», y un taller impartido por Hamid Lakaf y Carlos Dufour de Akeneo. A estas le seguirán muchas otras ponencias interesantes en torno al comercio electrónico como: «Innovating for the digital consumer» de David Recio, «Automatiza tu logística y échate a dormir» de Noelia Lázaro o «El entorno fintech como elemento potenciador del comercio» de José M. Amezcua.

Además, durante el Meet Magento Spain 2019 tendrán lugar varias mesas redondas y nuestro Country Manager, David Carrero, participará en la que se centrará en el hosting.

La agenda de este año es completa y variada, así que elige bien las ponencias que más te interesan para sacarle el máximo partido al evento. Y si quieres hablar de soluciones Cloud para eCommerce, no dudes en acercarte a nuestro stand durante el evento para hablar sobre tus proyectos.

Stackscale está muy presente en el ecosistema eCommerce y damos soluciones de infraestructura y Cloud Privado a grandes comercios electrónicos, ¡estaremos encantados de intercambiar experiencias y hablar del futuro!

¿No quieres perderte el evento eCommerce del año? Aún puedes conseguir tu entrada para el Meet Magento Spain 2019. Si eres merchant, consíguela gratis.

¡Nos vemos en el Meet Magento Spain 2019!

Stackscale no se pierde la Tarugoconf 2019, ¿y tú?

La Tarugoconf vuelve con fuerza en 2019, con conferencias y talleres que girarán en torno al diseño, la construcción y la comercialización de tecnología. Desde su primera edición en 2016, el evento reúne a perfiles muy variados dentro del mundo del software e Internet: programadores, gente de marketing, diseñadores…

Tras el éxito de las ediciones anteriores, este año los organizadores han echado el resto y han multiplicado por 5 el número de entradas, y nosotros no nos lo queremos perder por nada del mundo. Así que, además de patrocinar el evento, estaremos allí viernes y sábado para disfrutar de las ponencias y del buen ambiente que caracteriza al evento.

Participantes Tarugoconf 2018

4ª edición de la Tarugoconf

La Tarugoconf 2019 tendrá lugar del jueves 24 al sábado 26 de octubre y nos trae una agenda repleta de actividades, con ponentes y talleres de lo más interesantes. Este año, la Tarugoconf despega el jueves 24 de octubre con una jornada previa llena de talleres —que tendrán lugar en el Google for Startups Campus—, que terminará con el reestreno de Matrix en el Palacio de la Prensa, para conmemorar su 20 aniversario.

El evento principal tendrá lugar el viernes 25 en La Nave (Calle Cifuentes, 5, Madrid), en torno a temas tan interesantes y dispares como el viaje de los bits, el unicornio 2.0, o el software en el mundo post-RGPD.

Ponencia Tarugoconf 2018

Además, como patrocinador, Stackscale tendrá una presencia especial durante el evento, así que no te pierdas detalle y ¡mantente conectado!

Por último, como ya es tradición, el evento se clausurará con el clásico «Sábado Tarugo» (la parte más familiar del evento), que este año tendrá lugar en Faunia.

Échale un vistazo a la web de la Tarugoconf 2019 para ver todos los detalles del evento y apuntarte a la experiencia Tarugo, si aún quedan entradas…

¡Nos vemos en la Tarugoconf o en Twitter, con el hashtag #tarugo4!

HTTP/3, el nuevo protocolo de alta velocidad basado en UDP

En noviembre de 2018, el IETF se reunió en Bangkok para adoptar un nuevo borrador de Internet. El protocolo de transporte QUIC, sucedor del HTTP/2, fue renombrado como HTTP/3 y está basado en el protocolo UDP. Actualmente está siendo utilizado por grandes empresas de Internet como Google y Facebook.

El protocolo HTTP/3 se beneficia de las características del protocolo UDP, definiendo muchas de las nuevas características que estaban en versiones anteriores de HTTP en la capa TCP. Gracias a esto, es posible resolver las restricciones que existen dentro de la infraestructura de Internet.

Aunque se trata de un proyecto nuevo, los primeros resultados son muy prometedores. Cuando expire el borrador de Internet de IEFT layman en junio de 2019, se espera que HTTP/3 se promocione como un nuevo estándar HTTP de tercera generación.

¿Qué es HTTP / 3?

HTTP/3 es la tercera versión del protocolo de transferencia de hipertexto (HTTP), anteriormente conocido como HTTP-over-QUIC (Conexiones rápidas de Internet UDP). Este fue desarrollado inicialmente por Google y es el sucesor de HTTP/2. Empresas tan importantes como Google y Facebook ya han estado utilizando QUIC para acelerar la web.

Un poco de historia, empezando por HTTP/2

El sueño de cualquier propietario de una página web es conseguir que esta cargue lo más rápido posible. Para ello se puede utilizar la versión más reciente de PHP, entregando información a través de la red de nivel superior de Google Cloud Platform o bien almacenar en caché nuestra información.

El protocolo HTTP/2 trajo algunas interesantes mejoras con las descargas no bloqueadas, la canalización y el empuje del servidor, que nos ha ayudado a superar algunas limitaciones del protocolo TCP. También nos permitió minimizar el número de ciclos de solicitud-respuesta, mejorando la velocidad de carga.

Con la llegada de HTTP/2 fue posible enviar más de un recurso en una sola conexión TCP. También obtuvimos más flexibilidad a la hora de descargar los recursos estáticos, además de eliminar la limitación de la descarga lineal de nuestra página.

HTTP2 push

En la práctica, esto se traduce que un gran recurso javascript no tiene por qué ser un punto problemático para la carga del resto de recursos estáticos

A todo lo dicho hay que añadir la compresión HPACK en el encabezado HTTP/2 y el formato binario predeterminado de transferencia de datos, consiguiendo de esta forma un protocolo más eficiente.

HTTP2 Hpack

Para aprovechar toda su potencia, los principales navegadores hicieron que el uso de un SSL fuera requisito obligatorio. En ocasiones, debido a una carga de cómputo, estas mejoras de velocidad apenas se notaban.

Aunque algunos de estos problemas se resuelven ahora, si nos fijamos en toda la pila de protocolos, veremos como la restricción principal se encuentra en un nivel inferior al que HTTP/2 se atrevió a aventurar. Para probar esto, analizaremos la pila de protocolos de Internet desde su capa inferior hasta la superior.

Protocolo Internet (IP)

El protocolo de Internet (IP) se encarga de definir la parte inferior de toda la topología de la red. Podemos afirmar que se trata de una capa que ante cualquier cambio que se haga sobre ella, conlleva una sustitución de toda la infraestructura de hardware, desde los enrutadores a los servidores e incluso las máquinas de los usuarios finales. Debajo de este protocolo, nos encontramos una capa de enlace y que es la parte del protocolo más “simple”, por decirlo de alguna forma.

Para ver los inicios del protocolo IP hay que viajar hasta 1974, en un artículo publicado por el Instituto de Ingenieros Eléctricos y Electrónicos y escrito por Vint Cerf y Bob Cahn. En él se detalló como los paquetes se envían a través de una red, enrutándolos por medio de direcciones IP y direcciones numéricas definidas de nodos. El protocolo definió el formato de estos paquetes o datagramas: sus encabezados y su carga útil.

Después de la definición de RFC 760 de 1980, el IETF lanzó la definición que se viene utilizando hasta el día de hoy. Se trata de la cuarta versión del protocolo, pero podemos decir que es la primera versión de producción.

El protocolo utiliza direcciones de 32 bits, lo que estable una restricción en el número de direcciones de unas 4 mil millones. Esta limitación es la que explica como la mayoría de los usuarios corrientes, disponen de IPs dinámicas en sus conexiones y no fijas, además de que las fijas conllevan un cargo adicional por parte de su ISP.

Direcciones IP racionalizadas

No tuvo que pasar mucho tiempo hasta que se dieron cuenta de que las direcciones de 32 bits no eran suficientes, avecinándose un problema de escasez para dar respuesta a la demanda de direcciones IP. Para dar solución a este problema, se publicaron muchos RFC. Aunque estas soluciones se vienen utilizando hoy en día, es muy problema que sigamos diciendo que siguen siendo insuficientes.

El protocolo IPv6 se presentó como una forma de abordar estas limitaciones, incluso para ser adoptado de forma gradual sobre la versión anterior. En 1998 se elaboró un borrador por parte del IEFT, elevándose a un estándar de Internet en 2017.

Si bien el espacio de direcciones IPv4 estaba limitado por su longitud de dirección de 32 bits, al estándar IPv6 se le asignaron 128 bits, o 3,4 * 10 ^ 38 direcciones posibles. Esto debería ser suficiente para que nos dure bastante tiempo.

Según datos de Google, la adopción de IPv6 es algo superior al 25% a marzo de 2019.

Según datos de Google, la adopción de IPv6 es algo superior al 25% a marzo de 2019.

Centrándonos en el protocolo IP, se puede decir que es una capa rudimentaria de la pila de Internet, que define la mayoría de las cosas básicas, pero sin garantizar la entrega, la integridad de los datos o el orden de los paquetes transmitidos. Por sí solo no es confiable. El formato del encabezado de IPv4 proporciona una suma de comprobación del encabezado, que los nodos de transmisión utilizan para verificar la integridad del encabezado. Esto lo hace diferente de la versión de IPv6, que se basa en la capa de enlace que se encuentra debajo, lo que le permite ser más rápido.

Cabecera datagrama internet

Entendiendo el rol de TCP y UDP

Ahora es el momento de explorar dónde encaja HTTP/3 con TCP y UDP.

TCP

Si bien IP es la capa subyacente de todas nuestras comunicaciones en red, TCP es una parte de nivel superior del protocolo de Internet que se encarga de proporcionar la confiabilidad necesaria para la web o la transferencia de archivos, entre otras cosas. Esto incluye el establecimiento de la conexión en varios pasos, manteniendo un orden seguro de paquetes y ofreciendo la retransmisión de los paquetes perdidos. También ofrece un cálculo de suma de comprobación para detectar errores. Todas estas características hacen que TCP sea la base de los servicios de Internet más notorios que utilizamos en la actualidad.

Su especificación se remonta a 1974 (RFC 675) y 1981 (RFC 793) y no ha cambiado sustancialmente hasta el día de hoy. Sin embargo, la confiabilidad de proporciona TCP conlleva una importante penalización: la sobrecarga de todos los viajes de ida y vuelta requeridos para garantizar la entrega correcta de la información. Esto ha convertido a TCP en un cuello de botella a la hora de intentar conseguir mayor velocidad, aunque HTTP/2 ofrece algunas mejoras.

El problema es que cambiar el TCP de una manera sustancial no es nada sencillo ya que forma parte de la pila TCP/IP estando profundamente integrado en los sistemas operativos, el firmware, etc.

UDP

UDP es otra de las partes que forman parte del protocolo de Internet, cuya especificación se remonta a 1980 (RFC 768). Es un protocolo sin conexión basado en datagramas, lo que significa que no hay garantías en la entrega y que no se estable relación previa. De esta forma, cualquier entrega de información, la integridad de los datos u otras cosas, son delegadas a la capa de aplicación.

Al igual que TCP, UDP está muy extendido, por lo que lograr cualquier mejora requerirá importantes cambios en el firmware de todos los dispositivos conectados a Internet, e incluso en los sistemas operativos.

Las especificaciones del formato de paquetes UDP es bastante  mínima. Su encabezado consiste en el puerto de origen, el puerto de destino, la longitud del paquete en bytes, el encabezado del paquete y los datos del paquete. También incluye la suma de comprobación que se puede utilizar para verificar la integridad de los datos.

Hay que destacar que la suma de comprobación es opción cuando la capa de protocolo subyacente es IPv4 y obligatoria con IPv6. Hasta la fecha, UDP se ha venido utilizando para aplicaciones VoIP, transmisiones de vídeo, sistemas DNS o protocolo DHCP.

QUIC and HTTP/3

Google implementó por primera vez el QUIC (Conexiones rápidas de Internet UDP) en 2012. Mediante QUIC, redefinieron los límites de las capas de red, confiando en el protocolo UDP de nivel inferior, además de redefinir las comunicaciones, las características de confiabilidad y las características de seguridad en el espacio de usuario, evitando la necesidad de actualizar los núcleos del sistema de Internet.

Al igual que con HTTP/2, un avance tecnológico encabezado por SPDY de Google, se aprovechó de estos logros para el desarrollo de HTTP/3.

Como hemos hablado anteriormente, HTTP/2 llegó con la multiplexacion debajo del brazo, lo que mitigaba el problema de la descarga lineal, aunque seguía restringido por TCP. El problema que nos encontramos es que se puede utilizar una sola conexión TCP para múltiples transmisiones, pero cuando una de ellas sufre una pérdida de paquetes, toda la conexión se mantiene como “rehén”, por así decirlo, a la espera de que TCP haga su trabajo, retransmitiendo el paquete perdido. Esto significa que todos los paquetes, incluso si ya han sido transmitidos, se bloquean hasta que se retransmita el paquete perdido.

QUIC no está limitado por este problema. QUIC integrado en el protocolo UDP sin conexión, no ofrece las limitaciones de TCP, por lo que las fallas de una secuencia no influyen en el resto.

Con un cambio en el enfoque de las trasmisiones UDP, QUIC logra la multiplexación sin tener que volver en una conexión TCP. QUIC construye su conexión en un nivel más alto que TCP. Las nuevas secuencias dentro de las conexiones QUIC no se ven obligadas a esperar a que las otras terminen. También se benefician de la eliminación de sobrecarga de TCP, lo que reduce la latencia.

Si bien QUIC elimina algunas de las características de confiabilidad de TCP, lo compensa por encima de la capa UDP, proporcionando retransmisión de paquetes, pedidos, etc. Google Cloud Platform introdujo el soporte QUIC para sus balanceadores de carga en 2018 y vio una mejora en el tiempo promedio de carga de la página en un 8% a nivel mundial, y hasta un 13% en regiones donde la latencia es mayor.

La versión de QUIC de Google se centró solo en el transporte HTTP, utilizando para ello la sintaxis HTTP/2. La gente de IETF, encargada de la estandarización de QUIC, decidieron que este estándar debería poder transportar más cosas además de HTTP.

Si abrimos Chrome Dev Tools y cargamos algunos de los productos de Google, como Gmail, en la columna Protocolo de la pestaña Red, veremos que se están cargando muchos recursos a través de la versión de Google del protocolo QUIC.

Servicio google QUIC

Aunque UDP proporciona a QUIC y HTTP/3 algunas ventajas, también presenta ciertos desafíos. TCP ha sido el protocolo principal durante años, por lo que los sistemas operativos y el software en general, no están optimizados para su utilización. Debido a esto, hay una mayor carga de CPU con QUIC, según algunas estimaciones, el doble que con HTTP/2.

Las conexiones QUIC combinan TLS y el protocolo de transporte. Una vez establecido, se identifica mediante un ID de conexión único. Estos IDs persisten en los cambios de IP, pudiendo ayudar a asegurar las descargas.

El uso de TLS es obligatorio y está destinado a dificultar que los dispositivos en el medio manipulen o detecten el tráfico. Es por eso que no es raro ver a proveedores de firewall y proveedores como Cisco que ven el protocolo UDP como un problema, proporcionando formas de desactivarlo.

Los flujos QUIC se envían a través de conexiones QUIC, ya sean unidireccionales o bidireccionales. Estos flujos tienen un ID que se encargan de identificar a quien comienza la transmisión.

Dado que la compatibilidad con versiones anteriores es muy importante, la implementación de HTTP/3 promovida por IETF incluirá las versiones anteriores. Se incluirá un encabezado que informa al cliente que HTTP/3 está disponible, junto con la información del puerto, tal y como se describe en el RFC 7838.

Conclusión

Hay quienes piensan que como el estándar HTTP/2 no se ha adoptado completamente, puede ser demasiado pronto para lanzar su tercera versión. Aunque esto puede ser un punto a tener en cuenta, las pruebas realizadas son tan satisfactorias que animan a su lanzamiento, en beneficio de todos los usuarios. Hay que recordar que Google empezó a utilizarlo en 2015 y que Facebook se sumó en 2017. Desde entonces, otras empresas han empezado a utilizarlo como Akamai o Mozilla.

Habrá que estar atentos a lo que ocurre este año y ver cómo actúan los principales proveedores de software para implementar este nuevo estándar.

¿Qué es un Data Center?

Un centro de procesamiento de datos (CPD) es la ubicación física donde se concentran los recursos necesarios de computación de una organización o proveedor de servicios. También es conocido como «Internet Data Center» (IDC) en inglés, centro de cómputo en Latinoamérica, o centro de cálculo o centro de datos en España.

El término centro de datos o Data Center es de uso muy habitual hoy en día. Muchos de los datos que manejamos hoy –desde móviles, tabletas y ordenadores– acaban almacenados en estos centros de datos; en lo que muchos llaman «la nube» como un término realmente genérico.

¿Cómo es un centro de datos por dentro?

A través del siguiente vídeo podéis conocer cómo es un centro de datos por dentro. En este caso se trata de nuestro centro de datos en Madrid, Interxion MAD2. Estamos seguros de que a los más curiosos les encantará conocer más sobre una de nuestras infraestructuras de alojamiento en Madrid.

Un centro de datos dispone de espacios de uso exclusivo donde las empresas mantienen y operan sus infraestructuras IT. Es ese espacio donde se pueden alojar los servidores y sistemas de almacenamiento para ejecutar las aplicaciones que procesan y almacenan datos de empresas. Algunas empresas disponen de una Jaula o de solo uno o varios racks (bastidores), mientras que otras pueden disponer de salas privadas para alojar un número determinado de armarios rack, dependiendo del tamaño de la empresa.

El centro de datos proporciona el espacio técnico preparado con falso suelo por debajo de cual se instalan las tomas eléctricas para conectar los bastidores.

El control de clima es esencial para mantener unos parámetros de temperatura y humedad correctos que garanticen el correcto funcionamiento y la integridad operativa de los sistemas alojados. Para ello, los centros de datos cuentan con sistemas de alimentación eléctrica, alimentación de reserva, refrigeración, cableado, detección y extinción de incendios, detectores de fugas de agua y controles de seguridad.

Un Data Center físico puede alojar Datacenters virtuales, conocidos como Cloud Datacenters o Cloud privado, con un menor coste gracias a la capa de virtualización. Cada centro de datos virtual es totalmente independiente del resto, por lo que, cuenta con las máximas garantías de seguridad, disponibilidad y flexibilidad.

Stackscale selecciona los centros de datos de referencia en cada ubicación geográfica que pone en funcionamiento. Hoy disponemos de infraestructura en Madrid en Interxion MAD2 y Equinix MD2, además de Amsterdam en Equinix AM5.

Stackscale apoya el evento para desarrolladores de Magento, Mage Titans

Mage Titans es un evento creado y diseñado por desarrolladores Magento para desarrolladores Magento. Un año más contará con el apoyo de Stackscale, mayorista de infraestructura y cloud privado líder en soluciones de alojamiento para plataformas de comercio electrónico.

Un evento internacional desarrollado por Onestic en la ciudad de Valencia con un objetivo claro, contribuir. Creado por desarrolladores, para desarrolladores, busca favorecer el intercambio de conocimiento y sabiduría. Decenas de profesionales del comercio electrónico y Magento se darán cita el próximo 28 de junio de 2019 en Valencia.

Onestic y Space 48 son los organizadores de esta nueva edición que contará con grandes speakers como Alessandro Ronchi (MSI – Awesome Architectures in Magento 2.3), Jesús Sánchez (Hay vida detrás del deploy), Javier Villanueva (Desarrollando PWAs con Magento y Vue Storefront), Eugene Shakhshuvarov (In Store Pickup: The Next Step in Inventory evolution), Marc Bernabeu (Boost your magento 2 performance), Riccardo Tempesta (Growing as developer in the Magento community), Cristian Partica (GraphQL api coverage and use with PWA), Houssam Kassahla (Accelerate your business with the future of Commerce Cloud), Alex Tse (PWA is not about reinventing the wheel, but creating something evolutionaly different), Ignacio Riesco (Moderador Mesa redonda: It`s about PWA, Magento and developers), Rik Ter Beek (PSD2 and 3DS2, have you heard about it? No? You will!!), Nathan Smith (Creating a custom payment method for Magento 2), Pedro Díaz (Mesa redonda: It`s about PWA, Magento and developers), Kirian Murgadella (Mesa redonda: It`s about PWA, Magento and developers) y David Bolufer (Mesa redonda: It`s about PWA, Magento and developers).

Mage Titans es un evento sin ánimo de lucro, en el que los principales objetivos son conectar con los grandes desarrolladores, colaborar en los grandes proyectos presentes y futuros y contribuir con la experiencia de cada uno de los asistentes.

 

Soluciones Cloud, la referencia para cumplir con la nueva GDPR

No hacen falta muchos estudios para saber que la mayoría de las empresas están apostando por soluciones Cloud de forma general y también aprovechando la nueva GDPR ya en vigor.

La GDPR o Reglamento General de Protección de Datos es de obligada aplicación para todas las empresas de la Unión Europea y también para las que quieran operar en el marco de la unión. España siempre ha sido líder en lo que a protección de datos se refiere y es por ello que desde Stackscale siempre hemos apostado por soluciones de infraestructura y cloud que te ayudan a cumplir con las normativas de privacidad y protección de datos.

El nuevo Reglamento General de Protección de Datos es un paso importante para garantizar los derechos de privacidad y protección de datos personales. Si tu empresa ya cumplía con LOPD aplicar los cambios para la GDPR no deberían suponer un gran esfuerzo, pero si es importante evaluar el impacto para adaptarse a los cambios. Stackscale pone a disposición una completa oferta de infraestructura, cloud privado y apoyo en administración de sistemas completa, segura y fiable, acompañada de servicios especializados de la mano de nuestros partners que podrán apoyar en diferentes áreas, incluida la adaptación al GDPR.

Migrar a la nube es la mejor solución

Las soluciones cloud vienen a dar una respuesta sencilla a los principales obstáculos que una empresa encuentra para adecuarse a las GDPR. Casi la mitad de las empresas destacan que cuenta con una limitación de recursos, ausencia de presupuesto y desconocimiento de como abordar un cambio así.

Implantar una infraestructura de cloud privado es la forma más rápida y sencilla para tener localizados los datos y poder organizarlos. De esta forma podrás garantizar la seguridad, privacidad y gestión de los datos. Siempre en un entorno de costes fijos y totalmente controlados en nuestros centros de datos en Madrid o Amsterdam.

La fases para iniciar la adecuación al GDPR en soluciones de infraestructura y cloud podrían resumirse en:

  • Identificación: Tenemos identificar los datos personales que gestiona nuestra empresa para poder hacer un inventario detallado. Así como conocer el uso de los mismos, del que tendremos que informar a los usuarios.
  • Gestión y responsables: Una vez identificados los datos tenemos que definir unas políticas de acceso con responsabilidades.
  • Protección: Nuestros sistemas deben ser seguros y contar con medida de prevención y detección. Ante una vulnerabilidad hay que poder informar.
  • Información y transparencia: La empresas deberán tener un registro de procesos y uso de los datos personales. Dotar de la máxima transparencia a estos procesos nos ayudará a dar un mejor servicio e imagen.

A estas alturas es posible que tu empresa ya esté adaptada al nuevo GDPR, en Stackscale lo estamos, pero aun así te invitamos a conocer la documentación y guías de la Agencia de Protección de Datos Española:

Infografía: Adaptación al RGPD del setor privado

Infografía sobre la adaptación al RGPD del setor privado

Te estamos buscando: administradores de sistemas y redes en Madrid

Stackscale es un proveedor de servicios de Cloud Computing que ofrece soluciones IaaS (Infrastructure as a Service) dirigidas a grandes consumidores de recursos de computación, red y almacenamiento.

Actualmente la compañía tiene sedes en Madrid, Elda (Alicante) y Ámsterdam. Aunque este perfil ese busca para Madrid estamos abiertos para el resto de ubicaciones.

Puesto de trabajo: Administrador de sistemas y redes.

DESCRIPCIÓN DEL PUESTO

Administrador de sistemas Linux y redes, para formar parte del departamento de administración de sistemas que se encarga de:

  • Administrar y monitorizar la propia infraestructura de Stackscale.
  • Diseñar, administrar y monitorizar los entornos gestionados de clientes.
  • Apoyar al departamento de desarrollo e I+D.
  • Dar soporte técnico a clientes.

Las principales tecnologías utilizadas en nuestra infraestructura son:

  • Linux, VMware vSphere / ESXi, XenServer, KVM, Docker.
  • NAS/SAN, NFS, FC, copy-on-write filesystems (COW), NetApp ONTAP 9+.
  • Arista EOS, Juniper JunOS, Cisco IOS.
  • Saltstack, Python y bash scripting par automatizar procesos.
  • Nagios, Cacti, netdata, ELK, New Relic, Graylog.
  • HAProxy, Keepalived, Varnish, NGINX, php-fpm, PowerDNS.
  • MySQL, PerconaDB, Percona XtraDB Cluster, Galera, ProxySQL, MongoDB.
  • Docker Swarm.
  • Redis, Memcached, RabbitMQ.
  • Soluciones de Disaster Recovery y Business Continuity multi-datacenter.

Localización:

Aunque el puesto se oferta para trabajar en nuestra oficina de Madrid, si el candidato lo desea, también podría incorporarse a nuestra oficina de Elda (Alicante).

Puedes inscribirte te recomendamos rellenar nuestro formulario para esta oferta de empleo, aunque también puedes escribirnos a jobs@stackscale.com.

Aplica para nuestros puestos de administración de sistemas y redes a través de nuestra página de empleo.

¿Por qué necesitamos la monitorización de sistemas y servidores?

La administración de sistemas siempre debe estar acompañada de un buen sistemas de monitorización. Stackscale somos conscientes de la importancia de los servicios de monitorización de sistemas, estos forman parte de nuestro día a día y están integrados en cada proyecto de sysadmin de plataformas de forma directa o con nuestros partners.

El conocimiento de como se han desplegado los sistemas y sus configuraciones es vital para actuar en caso de necesidad, así como el uso de buenas herramientas que nos aporten información detallada de cada punto de los servidores físicos, servidores virtuales, almacenamiento zScale, sistemas Linux o Windows, bases de datos, etc. Todos los datos que guardamos en los sistemas de monitorización y logs son realmente importantes para predecir problemas y también para ser proactivos.

¿Por qué debemos monitorizar 24×7 cualquier sistema?

Disponer de una visión en tiempo real de los datos y logs que genera nuestro comercio electrónico, nuestro diario online de alto tráfico o cualesquiera sea nuestra plataforma en el cloud nos ayudará. Anticiparnos con datos para detectar debilidades, cuellos de botella, mejorar servicios, y por supuesto evitar y solucionar cualquier problema incluso antes de que llegue a manifestarse. Así es como podemos evitar que nuestro sitio web esté caído.

Implantar un sistema de monitorización de sus servidores, sistemas y servicios es muy importantes por algunas razones como:

  • Son el complemento necesario a un servicio de administración de sistemas.
  • Podrás disponer de alarmas que te avisan cuando algo no funciona bien o cuando algo podría llegar a un punto de fallo.
  • Con herramientas con Netdata puede conocer en detalle el rendimiento de tus servicios, Wanguard para medir el tráfico y además podemos combinar con Newrelic para conocer el detalle del software y otras tantas herramientas.
  • Los logs son como la biblia para buscar errores y fallos, lo ideal es contar con un sistema centralizado de logs, si puede ser en tiempo real.
  • La monitorización te permite detectar el origen de las incidencias.
  • Las estadísticas que tendrás con el paso del tiempo te darán una visión de cuando suben o bajan tus necesidades y como podrás anticiparte en el futuro gracias a estos datos.
  • Por supuesto la monitorización permite ahorrar costes unido al mantenimiento y administración de sistemas.

Nuestro equipo en Stackscale nos cuentan que las plataformas gestionadas internamente o por nuestros partners cuentan con avanzados sistemas de monitorización 24×7 unidos a un equipo de profesionales siempre dispuestos para actuar en caso de necesidad. Disponer de un equipo de Sysadmins + monitorización te permitirá aprovechar los recursos y sacar el máximo partido a tu infraestructura, reduciendo costes, optimizando muchos procesos y por supuesto aportará una mayor satisfacción para el cliente.

Conoce las soluciones de sysadmin y monitorización de Stackscale y sus Partners

¿Cómo funciona la monitorización de sistemas?

Disponer de herramientas para monitorizar es tan importante como establecer los procedimientos y decidir cuales son los KPIs/métricas que debemos controlar.

Stackscale y sus partners de sysadmin aplican un filosofía de proactividad, trabajo continuo y sentido común. Unido a un amplio equipo de profesionales que permiten cubrir el servicio 24×7, algo clave para actuar en cualquier momento que sea necesario.

Todo proceso de monitorización y administración de sistemas comienza por un estudio previo de las necesidades para después realizar en caso de necesidad una auditoría de sistemas y de seguridad.

Si la plataforma es nueva se definirá al arquitectura de sistemas ideal según si se trata de un proyecto de comercio electrónico Magento, un WordPress de alto tráfico o un desarrollo a medida en JAVA, Python, etc.

Desde el momento cero en el que la nueva (o actual) arquitectura de sistemas va tomando forma, se va desarrollado un mapa de elementos que formarán parte del sistema de monitorización, así como los protocolos de actuación en cada caso.

 

Herramientas para visualizar y obtener métricas en tiempo real: Netdata

Netdata es una herramientas de código abierto que te permite visualizar y monitorizar métricas/KPIs en tiempo real. Se puede controlar casi todo y almacenar los datos para su consulta histórica. Imagina controlar datos como el consumo de CPU, actividad del disco, consulta SQL, visitas de un sitio web de alto tráfico, etc.

Netdata se instala como un demonio en el sistema y obtiene información en tiempo real, por segundo, para presentarla en un dashboard con un bonito y funcional diseño.

Es una herramienta muy ligera, escrita mayormente en C, la cual apenas consume un 2% de CPU en un único hilo y unos pocos megabytes de RAM para funcionar y recopilar datos en tiempo real.

Stackscale dispone de una demo en tiempo real de Netdata que podéis consultar.

Herramientas de monitorización: Nagios

Nagios es el sistema más popular para la monitorización de redes y servidores, entre otras muchas posibilidades de control a nivel hardware y software.

Entre sus características principales están la monitorización de servicios de red (SMTP, IMAP, POP3, HTTP, HTTPS, SNMP…), la monitorización de los recursos de sistemas hardware (carga del procesador, uso de los discos, memoria RAM, estado de ventiladores, estado de los puertos,…), etc. Es de código abierto y funciona en cualquier sistema operativo.

Sus posibilidades de personalización y configuración con muchísimas, pudiendo conectar su sistemas de alertas para enviar avisos por email, por SMS, por Telegram e incluso con nuestra centralita telefónica para realizar llamadas.

Herramientas de monitorización: Zabbix

Zabbix es otro sistema de monitorización de redes que está desplazando en muchos casos a Nagios.

Zabbix puede funciona con bases de datos MySQL, PostgreSQL, SQLite, Oracle o IBM DB2. Su backend está escrito en C y el frontend web está escrito en PHP, lo que permite «tocar» con más facilidad la parte pública para muchos programadores.

Hay muchas más herramientas de monitorización de sistemas como Pandora FMS o Cacti, al final la decisión de cual usar depende de cada departamento de sistemas o equipo de administración de sistemas.

Conoce las soluciones de sysadmin y monitorización de Stackscale y sus Partners

¿Qué es PHP-FPM? Un PHP para webs de alto tráfico

PHP es uno de los lenguajes de programación más populares de Internet para el desarrollo de aplicaciones que funciona en la web, plataformas como Magento, WordPress, Drupal, … funcionan con PHP.

PHP: Hypertext Preprocessor es un lenguaje de programación de propósito general de código del lado del servidor originalmente diseñado para el desarrollo web de contenido dinámico. Este fue de los primeros lenguajes que se podían incorporar en código HTML. Es un código que se interpreta por el servidor web con un módulo de procesador de PHP en el servidor web Apache o Nginx. Desde sus inicios PHP ha evolucionado para ser soportado por cualquier sistema operativo o plataforma web.

Este lenguaje fue creado por Rasmus Lerdorf en 1995. PHP sigue evolucionando y está publicado bajo la licencia PHP, que es incompatible con la Licencia Pública General de GNU debido a las restricciones del uso del término PHP.

¿Qué es PHP-FPM?

PHP-FPM (FastCGI Process Manager) es la implementación alternativa de PHP FastCGI más popular con características adicionales que son realmente útiles para sitios web de alto tráfico.

Entre sus características están:

  • Manejo avanzado para detener/arrancar procesos de forma fácil.
  • Posibilidad de iniciar hilos de procesos con diferentes uid/gid/chroot/environment, escuchar en diferentes puertos y usar distintos php.ini.
  • safe_mode.
  • Registro stdout y stderr.
  • Reinicio de emergencia en caso de destrucción accidental del caché opcode.
  • Soporte acelerado de subidas.
  • «slowlog» – scripts de registro de procesos (no sólo sus nombres, sin sus backtraces también, usando ptrace y similares para leer procesos execute_data remotos) que son inusualmente lentos.
  • fastcgi_finish_request() – Función especial para detener y descargar todos los datos mientras continua haciendo algún proceso más largo (conversión de vídeos, procesamiento de estadísticas, etc.).
  • Creación dinámico/estático de hilos.
  • Información básica del status SAPI (similar al mod_status de Apache).
  • Basado en archivos de configuración php.ini.

Nginx y PHP-FPM los compañeros ideales

Utilizar Nginx como un servidor web de alto rendimiento estable y con un muy bajo consumo de recursos es el compañero ideal de PHP-FPM. Nginx tiene una arquitectura asíncrona que es mucho más escalable y está basada en eventos.

PHP corre como un servicio separado utilizando PHP-FPM (FastCGI Process Manager) que mejorar mucho la eficiencia de memoria. Utilizando esta versión de PHP como intéprete del lenguaje las peticiones se procesan a través de un socket TCP/IP. Separamos el servidor web Nginx que maneja la peticiones HTTP y PHP-FPM que interpretará el código PHP. Esto es mucho más eficiente.

HHVM una alternativa a PHP-FPM

Hasta la llegada de PHP 7 muchos haciamos uso del procesador de PHP HHVM que desarrollo Facebook y fue liberado en GitHub con Licencia PHP y Licencia Zend.

HHVM (conocido como HipHop Virtual Machine) es una máquina virtual de código abierto basado en compilador Just-in-Time (JIT), el cual sirve como un motor de ejecución para los lenguajes PHP y Hack. Usando el principio del compilador JIT, ejecuta código PHP o Hack en código Bytecode HipHop intermedio, el cual es entonces traducido en código máquina, optimizado, y ejecutado nativamente.​ Esto contrasta con la ejecución interpretada usual de PHP, el cual el Motor Zend transforma código fuente PHP en opcode (forma de bytecode), el cual el Zend Engine’s virtual CPU se encarga de ejecutar.

Cada vez se utiliza menos HHVM, que ya es compatible con PHP 7 en su mayoría de funciones, ya que la llegada de la última versión de PHP junto con FPM han conseguido igualar o mejorar el rendimiento de este lenguaje sin necesidad de esta alternativa.

WordPress con PHP-FPM

Si tienes un plataforma de contenidos, diario online o un simple WordPress que necesita un alto rendimiento, recibirá miles o millones de visitas está claro que necesitas un Nginx con soporte PHP-FPM. Esto permitirá configurar de forma eficiente la ejecución del código PHP de tu gestor de contenidos WordPress.

Magento con PHP-FPM

La plataforma de comercio electrónico Magento también se integra muy bien con Nginx y PHP-FPM. De hecho para conseguir el mejor rendimiento de nuestra tienda online, además de balanceadores y caches, es clave utilizar este popular servidor web junto con el soporte para PHP-FPM.

Stackscale puede ayudarte con la infraestructura, cloud y sysadmin de tu Magento o WordPress.