HTTP/3, el nuevo protocolo de alta velocidad basado en UDP

En noviembre de 2018, el IETF se reunió en Bangkok para adoptar un nuevo borrador de Internet. El protocolo de transporte QUIC, sucedor del HTTP/2, fue renombrado como HTTP/3 y está basado en el protocolo UDP. Actualmente está siendo utilizado por grandes empresas de Internet como Google y Facebook.

El protocolo HTTP/3 se beneficia de las características del protocolo UDP, definiendo muchas de las nuevas características que estaban en versiones anteriores de HTTP en la capa TCP. Gracias a esto, es posible resolver las restricciones que existen dentro de la infraestructura de Internet.

Aunque se trata de un proyecto nuevo, los primeros resultados son muy prometedores. Cuando expire el borrador de Internet de IEFT layman en junio de 2019, se espera que HTTP/3 se promocione como un nuevo estándar HTTP de tercera generación.

¿Qué es HTTP / 3?

HTTP/3 es la tercera versión del protocolo de transferencia de hipertexto (HTTP), anteriormente conocido como HTTP-over-QUIC (Conexiones rápidas de Internet UDP). Este fue desarrollado inicialmente por Google y es el sucesor de HTTP/2. Empresas tan importantes como Google y Facebook ya han estado utilizando QUIC para acelerar la web.

Un poco de historia, empezando por HTTP/2

El sueño de cualquier propietario de una página web es conseguir que esta cargue lo más rápido posible. Para ello se puede utilizar la versión más reciente de PHP, entregando información a través de la red de nivel superior de Google Cloud Platform o bien almacenar en caché nuestra información.

El protocolo HTTP/2 trajo algunas interesantes mejoras con las descargas no bloqueadas, la canalización y el empuje del servidor, que nos ha ayudado a superar algunas limitaciones del protocolo TCP. También nos permitió minimizar el número de ciclos de solicitud-respuesta, mejorando la velocidad de carga.

Con la llegada de HTTP/2 fue posible enviar más de un recurso en una sola conexión TCP. También obtuvimos más flexibilidad a la hora de descargar los recursos estáticos, además de eliminar la limitación de la descarga lineal de nuestra página.

HTTP2 push

En la práctica, esto se traduce que un gran recurso javascript no tiene por qué ser un punto problemático para la carga del resto de recursos estáticos

A todo lo dicho hay que añadir la compresión HPACK en el encabezado HTTP/2 y el formato binario predeterminado de transferencia de datos, consiguiendo de esta forma un protocolo más eficiente.

HTTP2 Hpack

Para aprovechar toda su potencia, los principales navegadores hicieron que el uso de un SSL fuera requisito obligatorio. En ocasiones, debido a una carga de cómputo, estas mejoras de velocidad apenas se notaban.

Aunque algunos de estos problemas se resuelven ahora, si nos fijamos en toda la pila de protocolos, veremos como la restricción principal se encuentra en un nivel inferior al que HTTP/2 se atrevió a aventurar. Para probar esto, analizaremos la pila de protocolos de Internet desde su capa inferior hasta la superior.

Protocolo Internet (IP)

El protocolo de Internet (IP) se encarga de definir la parte inferior de toda la topología de la red. Podemos afirmar que se trata de una capa que ante cualquier cambio que se haga sobre ella, conlleva una sustitución de toda la infraestructura de hardware, desde los enrutadores a los servidores e incluso las máquinas de los usuarios finales. Debajo de este protocolo, nos encontramos una capa de enlace y que es la parte del protocolo más “simple”, por decirlo de alguna forma.

Para ver los inicios del protocolo IP hay que viajar hasta 1974, en un artículo publicado por el Instituto de Ingenieros Eléctricos y Electrónicos y escrito por Vint Cerf y Bob Cahn. En él se detalló como los paquetes se envían a través de una red, enrutándolos por medio de direcciones IP y direcciones numéricas definidas de nodos. El protocolo definió el formato de estos paquetes o datagramas: sus encabezados y su carga útil.

Después de la definición de RFC 760 de 1980, el IETF lanzó la definición que se viene utilizando hasta el día de hoy. Se trata de la cuarta versión del protocolo, pero podemos decir que es la primera versión de producción.

El protocolo utiliza direcciones de 32 bits, lo que estable una restricción en el número de direcciones de unas 4 mil millones. Esta limitación es la que explica como la mayoría de los usuarios corrientes, disponen de IPs dinámicas en sus conexiones y no fijas, además de que las fijas conllevan un cargo adicional por parte de su ISP.

Direcciones IP racionalizadas

No tuvo que pasar mucho tiempo hasta que se dieron cuenta de que las direcciones de 32 bits no eran suficientes, avecinándose un problema de escasez para dar respuesta a la demanda de direcciones IP. Para dar solución a este problema, se publicaron muchos RFC. Aunque estas soluciones se vienen utilizando hoy en día, es muy problema que sigamos diciendo que siguen siendo insuficientes.

El protocolo IPv6 se presentó como una forma de abordar estas limitaciones, incluso para ser adoptado de forma gradual sobre la versión anterior. En 1998 se elaboró un borrador por parte del IEFT, elevándose a un estándar de Internet en 2017.

Si bien el espacio de direcciones IPv4 estaba limitado por su longitud de dirección de 32 bits, al estándar IPv6 se le asignaron 128 bits, o 3,4 * 10 ^ 38 direcciones posibles. Esto debería ser suficiente para que nos dure bastante tiempo.

Según datos de Google, la adopción de IPv6 es algo superior al 25% a marzo de 2019.

Según datos de Google, la adopción de IPv6 es algo superior al 25% a marzo de 2019.

Centrándonos en el protocolo IP, se puede decir que es una capa rudimentaria de la pila de Internet, que define la mayoría de las cosas básicas, pero sin garantizar la entrega, la integridad de los datos o el orden de los paquetes transmitidos. Por sí solo no es confiable. El formato del encabezado de IPv4 proporciona una suma de comprobación del encabezado, que los nodos de transmisión utilizan para verificar la integridad del encabezado. Esto lo hace diferente de la versión de IPv6, que se basa en la capa de enlace que se encuentra debajo, lo que le permite ser más rápido.

Cabecera datagrama internet

Entendiendo el rol de TCP y UDP

Ahora es el momento de explorar dónde encaja HTTP/3 con TCP y UDP.

TCP

Si bien IP es la capa subyacente de todas nuestras comunicaciones en red, TCP es una parte de nivel superior del protocolo de Internet que se encarga de proporcionar la confiabilidad necesaria para la web o la transferencia de archivos, entre otras cosas. Esto incluye el establecimiento de la conexión en varios pasos, manteniendo un orden seguro de paquetes y ofreciendo la retransmisión de los paquetes perdidos. También ofrece un cálculo de suma de comprobación para detectar errores. Todas estas características hacen que TCP sea la base de los servicios de Internet más notorios que utilizamos en la actualidad.

Su especificación se remonta a 1974 (RFC 675) y 1981 (RFC 793) y no ha cambiado sustancialmente hasta el día de hoy. Sin embargo, la confiabilidad de proporciona TCP conlleva una importante penalización: la sobrecarga de todos los viajes de ida y vuelta requeridos para garantizar la entrega correcta de la información. Esto ha convertido a TCP en un cuello de botella a la hora de intentar conseguir mayor velocidad, aunque HTTP/2 ofrece algunas mejoras.

El problema es que cambiar el TCP de una manera sustancial no es nada sencillo ya que forma parte de la pila TCP/IP estando profundamente integrado en los sistemas operativos, el firmware, etc.

UDP

UDP es otra de las partes que forman parte del protocolo de Internet, cuya especificación se remonta a 1980 (RFC 768). Es un protocolo sin conexión basado en datagramas, lo que significa que no hay garantías en la entrega y que no se estable relación previa. De esta forma, cualquier entrega de información, la integridad de los datos u otras cosas, son delegadas a la capa de aplicación.

Al igual que TCP, UDP está muy extendido, por lo que lograr cualquier mejora requerirá importantes cambios en el firmware de todos los dispositivos conectados a Internet, e incluso en los sistemas operativos.

Las especificaciones del formato de paquetes UDP es bastante  mínima. Su encabezado consiste en el puerto de origen, el puerto de destino, la longitud del paquete en bytes, el encabezado del paquete y los datos del paquete. También incluye la suma de comprobación que se puede utilizar para verificar la integridad de los datos.

Hay que destacar que la suma de comprobación es opción cuando la capa de protocolo subyacente es IPv4 y obligatoria con IPv6. Hasta la fecha, UDP se ha venido utilizando para aplicaciones VoIP, transmisiones de vídeo, sistemas DNS o protocolo DHCP.

QUIC and HTTP/3

Google implementó por primera vez el QUIC (Conexiones rápidas de Internet UDP) en 2012. Mediante QUIC, redefinieron los límites de las capas de red, confiando en el protocolo UDP de nivel inferior, además de redefinir las comunicaciones, las características de confiabilidad y las características de seguridad en el espacio de usuario, evitando la necesidad de actualizar los núcleos del sistema de Internet.

Al igual que con HTTP/2, un avance tecnológico encabezado por SPDY de Google, se aprovechó de estos logros para el desarrollo de HTTP/3.

Como hemos hablado anteriormente, HTTP/2 llegó con la multiplexacion debajo del brazo, lo que mitigaba el problema de la descarga lineal, aunque seguía restringido por TCP. El problema que nos encontramos es que se puede utilizar una sola conexión TCP para múltiples transmisiones, pero cuando una de ellas sufre una pérdida de paquetes, toda la conexión se mantiene como “rehén”, por así decirlo, a la espera de que TCP haga su trabajo, retransmitiendo el paquete perdido. Esto significa que todos los paquetes, incluso si ya han sido transmitidos, se bloquean hasta que se retransmita el paquete perdido.

QUIC no está limitado por este problema. QUIC integrado en el protocolo UDP sin conexión, no ofrece las limitaciones de TCP, por lo que las fallas de una secuencia no influyen en el resto.

Con un cambio en el enfoque de las trasmisiones UDP, QUIC logra la multiplexación sin tener que volver en una conexión TCP. QUIC construye su conexión en un nivel más alto que TCP. Las nuevas secuencias dentro de las conexiones QUIC no se ven obligadas a esperar a que las otras terminen. También se benefician de la eliminación de sobrecarga de TCP, lo que reduce la latencia.

Si bien QUIC elimina algunas de las características de confiabilidad de TCP, lo compensa por encima de la capa UDP, proporcionando retransmisión de paquetes, pedidos, etc. Google Cloud Platform introdujo el soporte QUIC para sus balanceadores de carga en 2018 y vio una mejora en el tiempo promedio de carga de la página en un 8% a nivel mundial, y hasta un 13% en regiones donde la latencia es mayor.

La versión de QUIC de Google se centró solo en el transporte HTTP, utilizando para ello la sintaxis HTTP/2. La gente de IETF, encargada de la estandarización de QUIC, decidieron que este estándar debería poder transportar más cosas además de HTTP.

Si abrimos Chrome Dev Tools y cargamos algunos de los productos de Google, como Gmail, en la columna Protocolo de la pestaña Red, veremos que se están cargando muchos recursos a través de la versión de Google del protocolo QUIC.

Servicio google QUIC

Aunque UDP proporciona a QUIC y HTTP/3 algunas ventajas, también presenta ciertos desafíos. TCP ha sido el protocolo principal durante años, por lo que los sistemas operativos y el software en general, no están optimizados para su utilización. Debido a esto, hay una mayor carga de CPU con QUIC, según algunas estimaciones, el doble que con HTTP/2.

Las conexiones QUIC combinan TLS y el protocolo de transporte. Una vez establecido, se identifica mediante un ID de conexión único. Estos IDs persisten en los cambios de IP, pudiendo ayudar a asegurar las descargas.

El uso de TLS es obligatorio y está destinado a dificultar que los dispositivos en el medio manipulen o detecten el tráfico. Es por eso que no es raro ver a proveedores de firewall y proveedores como Cisco que ven el protocolo UDP como un problema, proporcionando formas de desactivarlo.

Los flujos QUIC se envían a través de conexiones QUIC, ya sean unidireccionales o bidireccionales. Estos flujos tienen un ID que se encargan de identificar a quien comienza la transmisión.

Dado que la compatibilidad con versiones anteriores es muy importante, la implementación de HTTP/3 promovida por IETF incluirá las versiones anteriores. Se incluirá un encabezado que informa al cliente que HTTP/3 está disponible, junto con la información del puerto, tal y como se describe en el RFC 7838.

Conclusión

Hay quienes piensan que como el estándar HTTP/2 no se ha adoptado completamente, puede ser demasiado pronto para lanzar su tercera versión. Aunque esto puede ser un punto a tener en cuenta, las pruebas realizadas son tan satisfactorias que animan a su lanzamiento, en beneficio de todos los usuarios. Hay que recordar que Google empezó a utilizarlo en 2015 y que Facebook se sumó en 2017. Desde entonces, otras empresas han empezado a utilizarlo como Akamai o Mozilla.

Habrá que estar atentos a lo que ocurre este año y ver cómo actúan los principales proveedores de software para implementar este nuevo estándar.

¿Qué es un Data Center?

Un centro de procesamiento de datos (CPD) es la ubicación física donde se concentran los recursos necesarios de computación de una organización o proveedor de servicios. También es conocido como «Internet Data Center» (IDC) en inglés, centro de cómputo en Latinoamérica, o centro de cálculo o centro de datos en España.

El término centro de datos o Data Center es de uso muy habitual hoy en día. Muchos de los datos que manejamos hoy –desde móviles, tabletas y ordenadores– acaban almacenados en estos centros de datos; en lo que muchos llaman «la nube» como un término realmente genérico.

¿Cómo es un centro de datos por dentro?

A través del siguiente vídeo podéis conocer cómo es un centro de datos por dentro. En este caso se trata de nuestro centro de datos en Madrid, Interxion MAD2. Estamos seguros de que a los más curiosos les encantará conocer más sobre una de nuestras infraestructuras de alojamiento en Madrid.

Un centro de datos dispone de espacios de uso exclusivo donde las empresas mantienen y operan sus infraestructuras IT. Es ese espacio donde se pueden alojar los servidores y sistemas de almacenamiento para ejecutar las aplicaciones que procesan y almacenan datos de empresas. Algunas empresas disponen de una Jaula o de solo uno o varios racks (bastidores), mientras que otras pueden disponer de salas privadas para alojar un número determinado de armarios rack, dependiendo del tamaño de la empresa.

El centro de datos proporciona el espacio técnico preparado con falso suelo por debajo de cual se instalan las tomas eléctricas para conectar los bastidores.

El control de clima es esencial para mantener unos parámetros de temperatura y humedad correctos que garanticen el correcto funcionamiento y la integridad operativa de los sistemas alojados. Para ello, los centros de datos cuentan con sistemas de alimentación eléctrica, alimentación de reserva, refrigeración, cableado, detección y extinción de incendios, detectores de fugas de agua y controles de seguridad.

Un Data Center físico puede alojar Datacenters virtuales, conocidos como Cloud Datacenters o Cloud privado, con un menor coste gracias a la capa de virtualización. Cada centro de datos virtual es totalmente independiente del resto, por lo que, cuenta con las máximas garantías de seguridad, disponibilidad y flexibilidad.

Stackscale selecciona los centros de datos de referencia en cada ubicación geográfica que pone en funcionamiento. Hoy disponemos de infraestructura en Madrid en Interxion MAD2 y Equinix MD2, además de Amsterdam en Equinix AM5.

Stackscale apoya el evento para desarrolladores de Magento, Mage Titans

Mage Titans es un evento creado y diseñado por desarrolladores Magento para desarrolladores Magento. Un año más contará con el apoyo de Stackscale, mayorista de infraestructura y cloud privado líder en soluciones de alojamiento para plataformas de comercio electrónico.

Un evento internacional desarrollado por Onestic en la ciudad de Valencia con un objetivo claro, contribuir. Creado por desarrolladores, para desarrolladores, busca favorecer el intercambio de conocimiento y sabiduría. Decenas de profesionales del comercio electrónico y Magento se darán cita el próximo 28 de junio de 2019 en Valencia.

Onestic y Space 48 son los organizadores de esta nueva edición que contará con grandes speakers como Alessandro Ronchi (MSI – Awesome Architectures in Magento 2.3), Jesús Sánchez (Hay vida detrás del deploy), Javier Villanueva (Desarrollando PWAs con Magento y Vue Storefront), Eugene Shakhshuvarov (In Store Pickup: The Next Step in Inventory evolution), Marc Bernabeu (Boost your magento 2 performance), Riccardo Tempesta (Growing as developer in the Magento community), Cristian Partica (GraphQL api coverage and use with PWA), Houssam Kassahla (Accelerate your business with the future of Commerce Cloud), Alex Tse (PWA is not about reinventing the wheel, but creating something evolutionaly different), Ignacio Riesco (Moderador Mesa redonda: It`s about PWA, Magento and developers), Rik Ter Beek (PSD2 and 3DS2, have you heard about it? No? You will!!), Nathan Smith (Creating a custom payment method for Magento 2), Pedro Díaz (Mesa redonda: It`s about PWA, Magento and developers), Kirian Murgadella (Mesa redonda: It`s about PWA, Magento and developers) y David Bolufer (Mesa redonda: It`s about PWA, Magento and developers).

Mage Titans es un evento sin ánimo de lucro, en el que los principales objetivos son conectar con los grandes desarrolladores, colaborar en los grandes proyectos presentes y futuros y contribuir con la experiencia de cada uno de los asistentes.

 

Soluciones Cloud, la referencia para cumplir con la nueva GDPR

No hacen falta muchos estudios para saber que la mayoría de las empresas están apostando por soluciones Cloud de forma general y también aprovechando la nueva GDPR ya en vigor.

La GDPR o Reglamento General de Protección de Datos es de obligada aplicación para todas las empresas de la Unión Europea y también para las que quieran operar en el marco de la unión. España siempre ha sido líder en lo que a protección de datos se refiere y es por ello que desde Stackscale siempre hemos apostado por soluciones de infraestructura y cloud que te ayudan a cumplir con las normativas de privacidad y protección de datos.

El nuevo Reglamento General de Protección de Datos es un paso importante para garantizar los derechos de privacidad y protección de datos personales. Si tu empresa ya cumplía con LOPD aplicar los cambios para la GDPR no deberían suponer un gran esfuerzo, pero si es importante evaluar el impacto para adaptarse a los cambios. Stackscale pone a disposición una completa oferta de infraestructura, cloud privado y apoyo en administración de sistemas completa, segura y fiable, acompañada de servicios especializados de la mano de nuestros partners que podrán apoyar en diferentes áreas, incluida la adaptación al GDPR.

Migrar a la nube es la mejor solución

Las soluciones cloud vienen a dar una respuesta sencilla a los principales obstáculos que una empresa encuentra para adecuarse a las GDPR. Casi la mitad de las empresas destacan que cuenta con una limitación de recursos, ausencia de presupuesto y desconocimiento de como abordar un cambio así.

Implantar una infraestructura de cloud privado es la forma más rápida y sencilla para tener localizados los datos y poder organizarlos. De esta forma podrás garantizar la seguridad, privacidad y gestión de los datos. Siempre en un entorno de costes fijos y totalmente controlados en nuestros centros de datos en Madrid o Amsterdam.

La fases para iniciar la adecuación al GDPR en soluciones de infraestructura y cloud podrían resumirse en:

  • Identificación: Tenemos identificar los datos personales que gestiona nuestra empresa para poder hacer un inventario detallado. Así como conocer el uso de los mismos, del que tendremos que informar a los usuarios.
  • Gestión y responsables: Una vez identificados los datos tenemos que definir unas políticas de acceso con responsabilidades.
  • Protección: Nuestros sistemas deben ser seguros y contar con medida de prevención y detección. Ante una vulnerabilidad hay que poder informar.
  • Información y transparencia: La empresas deberán tener un registro de procesos y uso de los datos personales. Dotar de la máxima transparencia a estos procesos nos ayudará a dar un mejor servicio e imagen.

A estas alturas es posible que tu empresa ya esté adaptada al nuevo GDPR, en Stackscale lo estamos, pero aun así te invitamos a conocer la documentación y guías de la Agencia de Protección de Datos Española:

Infografía: Adaptación al RGPD del setor privado

Infografía sobre la adaptación al RGPD del setor privado

Te estamos buscando: administradores de sistemas y redes en Madrid

Stackscale es un proveedor de servicios de Cloud Computing que ofrece soluciones IaaS (Infrastructure as a Service) dirigidas a grandes consumidores de recursos de computación, red y almacenamiento.

Actualmente la compañía tiene sedes en Madrid, Elda (Alicante) y Ámsterdam. Aunque este perfil ese busca para Madrid estamos abiertos para el resto de ubicaciones.

Puesto de trabajo: Administrador de sistemas y redes.

DESCRIPCIÓN DEL PUESTO

Administrador de sistemas Linux y redes, para formar parte del departamento de administración de sistemas que se encarga de:

  • Administrar y monitorizar la propia infraestructura de Stackscale.
  • Diseñar, administrar y monitorizar los entornos gestionados de clientes.
  • Apoyar al departamento de desarrollo e I+D.
  • Dar soporte técnico a clientes.

Las principales tecnologías utilizadas en nuestra infraestructura son:

  • Linux, VMware vSphere / ESXi, XenServer, KVM, Docker.
  • NAS/SAN, NFS, FC, copy-on-write filesystems (COW), NetApp ONTAP 9+.
  • Arista EOS, Juniper JunOS, Cisco IOS.
  • Saltstack, Python y bash scripting par automatizar procesos.
  • Nagios, Cacti, netdata, ELK, New Relic, Graylog.
  • HAProxy, Keepalived, Varnish, NGINX, php-fpm, PowerDNS.
  • MySQL, PerconaDB, Percona XtraDB Cluster, Galera, ProxySQL, MongoDB.
  • Docker Swarm.
  • Redis, Memcached, RabbitMQ.
  • Soluciones de Disaster Recovery y Business Continuity multi-datacenter.

Localización:

Aunque el puesto se oferta para trabajar en nuestra oficina de Madrid, si el candidato lo desea, también podría incorporarse a nuestra oficina de Elda (Alicante).

Puedes inscribirte te recomendamos rellenar nuestro formulario para esta oferta de empleo, aunque también puedes escribirnos a jobs@stackscale.com.

Aplica para nuestros puestos de administración de sistemas y redes a través de nuestra página de empleo.

¿Por qué necesitamos la monitorización de sistemas y servidores?

La administración de sistemas siempre debe estar acompañada de un buen sistemas de monitorización. Stackscale somos conscientes de la importancia de los servicios de monitorización de sistemas, estos forman parte de nuestro día a día y están integrados en cada proyecto de sysadmin de plataformas de forma directa o con nuestros partners.

El conocimiento de como se han desplegado los sistemas y sus configuraciones es vital para actuar en caso de necesidad, así como el uso de buenas herramientas que nos aporten información detallada de cada punto de los servidores físicos, servidores virtuales, almacenamiento zScale, sistemas Linux o Windows, bases de datos, etc. Todos los datos que guardamos en los sistemas de monitorización y logs son realmente importantes para predecir problemas y también para ser proactivos.

¿Por qué debemos monitorizar 24×7 cualquier sistema?

Disponer de una visión en tiempo real de los datos y logs que genera nuestro comercio electrónico, nuestro diario online de alto tráfico o cualesquiera sea nuestra plataforma en el cloud nos ayudará. Anticiparnos con datos para detectar debilidades, cuellos de botella, mejorar servicios, y por supuesto evitar y solucionar cualquier problema incluso antes de que llegue a manifestarse. Así es como podemos evitar que nuestro sitio web esté caído.

Implantar un sistema de monitorización de sus servidores, sistemas y servicios es muy importantes por algunas razones como:

  • Son el complemento necesario a un servicio de administración de sistemas.
  • Podrás disponer de alarmas que te avisan cuando algo no funciona bien o cuando algo podría llegar a un punto de fallo.
  • Con herramientas con Netdata puede conocer en detalle el rendimiento de tus servicios, Wanguard para medir el tráfico y además podemos combinar con Newrelic para conocer el detalle del software y otras tantas herramientas.
  • Los logs son como la biblia para buscar errores y fallos, lo ideal es contar con un sistema centralizado de logs, si puede ser en tiempo real.
  • La monitorización te permite detectar el origen de las incidencias.
  • Las estadísticas que tendrás con el paso del tiempo te darán una visión de cuando suben o bajan tus necesidades y como podrás anticiparte en el futuro gracias a estos datos.
  • Por supuesto la monitorización permite ahorrar costes unido al mantenimiento y administración de sistemas.

Nuestro equipo en Stackscale nos cuentan que las plataformas gestionadas internamente o por nuestros partners cuentan con avanzados sistemas de monitorización 24×7 unidos a un equipo de profesionales siempre dispuestos para actuar en caso de necesidad. Disponer de un equipo de Sysadmins + monitorización te permitirá aprovechar los recursos y sacar el máximo partido a tu infraestructura, reduciendo costes, optimizando muchos procesos y por supuesto aportará una mayor satisfacción para el cliente.

Conoce las soluciones de sysadmin y monitorización de Stackscale y sus Partners

¿Cómo funciona la monitorización de sistemas?

Disponer de herramientas para monitorizar es tan importante como establecer los procedimientos y decidir cuales son los KPIs/métricas que debemos controlar.

Stackscale y sus partners de sysadmin aplican un filosofía de proactividad, trabajo continuo y sentido común. Unido a un amplio equipo de profesionales que permiten cubrir el servicio 24×7, algo clave para actuar en cualquier momento que sea necesario.

Todo proceso de monitorización y administración de sistemas comienza por un estudio previo de las necesidades para después realizar en caso de necesidad una auditoría de sistemas y de seguridad.

Si la plataforma es nueva se definirá al arquitectura de sistemas ideal según si se trata de un proyecto de comercio electrónico Magento, un WordPress de alto tráfico o un desarrollo a medida en JAVA, Python, etc.

Desde el momento cero en el que la nueva (o actual) arquitectura de sistemas va tomando forma, se va desarrollado un mapa de elementos que formarán parte del sistema de monitorización, así como los protocolos de actuación en cada caso.

 

Herramientas para visualizar y obtener métricas en tiempo real: Netdata

Netdata es una herramientas de código abierto que te permite visualizar y monitorizar métricas/KPIs en tiempo real. Se puede controlar casi todo y almacenar los datos para su consulta histórica. Imagina controlar datos como el consumo de CPU, actividad del disco, consulta SQL, visitas de un sitio web de alto tráfico, etc.

Netdata se instala como un demonio en el sistema y obtiene información en tiempo real, por segundo, para presentarla en un dashboard con un bonito y funcional diseño.

Es una herramienta muy ligera, escrita mayormente en C, la cual apenas consume un 2% de CPU en un único hilo y unos pocos megabytes de RAM para funcionar y recopilar datos en tiempo real.

Stackscale dispone de una demo en tiempo real de Netdata que podéis consultar.

Herramientas de monitorización: Nagios

Nagios es el sistema más popular para la monitorización de redes y servidores, entre otras muchas posibilidades de control a nivel hardware y software.

Entre sus características principales están la monitorización de servicios de red (SMTP, IMAP, POP3, HTTP, HTTPS, SNMP…), la monitorización de los recursos de sistemas hardware (carga del procesador, uso de los discos, memoria RAM, estado de ventiladores, estado de los puertos,…), etc. Es de código abierto y funciona en cualquier sistema operativo.

Sus posibilidades de personalización y configuración con muchísimas, pudiendo conectar su sistemas de alertas para enviar avisos por email, por SMS, por Telegram e incluso con nuestra centralita telefónica para realizar llamadas.

Herramientas de monitorización: Zabbix

Zabbix es otro sistema de monitorización de redes que está desplazando en muchos casos a Nagios.

Zabbix puede funciona con bases de datos MySQL, PostgreSQL, SQLite, Oracle o IBM DB2. Su backend está escrito en C y el frontend web está escrito en PHP, lo que permite «tocar» con más facilidad la parte pública para muchos programadores.

Hay muchas más herramientas de monitorización de sistemas como Pandora FMS o Cacti, al final la decisión de cual usar depende de cada departamento de sistemas o equipo de administración de sistemas.

Conoce las soluciones de sysadmin y monitorización de Stackscale y sus Partners

¿Qué es PHP-FPM? Un PHP para webs de alto tráfico

PHP es uno de los lenguajes de programación más populares de Internet para el desarrollo de aplicaciones que funciona en la web, plataformas como Magento, WordPress, Drupal, … funcionan con PHP.

PHP: Hypertext Preprocessor es un lenguaje de programación de propósito general de código del lado del servidor originalmente diseñado para el desarrollo web de contenido dinámico. Este fue de los primeros lenguajes que se podían incorporar en código HTML. Es un código que se interpreta por el servidor web con un módulo de procesador de PHP en el servidor web Apache o Nginx. Desde sus inicios PHP ha evolucionado para ser soportado por cualquier sistema operativo o plataforma web.

Este lenguaje fue creado por Rasmus Lerdorf en 1995. PHP sigue evolucionando y está publicado bajo la licencia PHP, que es incompatible con la Licencia Pública General de GNU debido a las restricciones del uso del término PHP.

¿Qué es PHP-FPM?

PHP-FPM (FastCGI Process Manager) es la implementación alternativa de PHP FastCGI más popular con características adicionales que son realmente útiles para sitios web de alto tráfico.

Entre sus características están:

  • Manejo avanzado para detener/arrancar procesos de forma fácil.
  • Posibilidad de iniciar hilos de procesos con diferentes uid/gid/chroot/environment, escuchar en diferentes puertos y usar distintos php.ini.
  • safe_mode.
  • Registro stdout y stderr.
  • Reinicio de emergencia en caso de destrucción accidental del caché opcode.
  • Soporte acelerado de subidas.
  • «slowlog» – scripts de registro de procesos (no sólo sus nombres, sin sus backtraces también, usando ptrace y similares para leer procesos execute_data remotos) que son inusualmente lentos.
  • fastcgi_finish_request() – Función especial para detener y descargar todos los datos mientras continua haciendo algún proceso más largo (conversión de vídeos, procesamiento de estadísticas, etc.).
  • Creación dinámico/estático de hilos.
  • Información básica del status SAPI (similar al mod_status de Apache).
  • Basado en archivos de configuración php.ini.

Nginx y PHP-FPM los compañeros ideales

Utilizar Nginx como un servidor web de alto rendimiento estable y con un muy bajo consumo de recursos es el compañero ideal de PHP-FPM. Nginx tiene una arquitectura asíncrona que es mucho más escalable y está basada en eventos.

PHP corre como un servicio separado utilizando PHP-FPM (FastCGI Process Manager) que mejorar mucho la eficiencia de memoria. Utilizando esta versión de PHP como intéprete del lenguaje las peticiones se procesan a través de un socket TCP/IP. Separamos el servidor web Nginx que maneja la peticiones HTTP y PHP-FPM que interpretará el código PHP. Esto es mucho más eficiente.

HHVM una alternativa a PHP-FPM

Hasta la llegada de PHP 7 muchos haciamos uso del procesador de PHP HHVM que desarrollo Facebook y fue liberado en GitHub con Licencia PHP y Licencia Zend.

HHVM (conocido como HipHop Virtual Machine) es una máquina virtual de código abierto basado en compilador Just-in-Time (JIT), el cual sirve como un motor de ejecución para los lenguajes PHP y Hack. Usando el principio del compilador JIT, ejecuta código PHP o Hack en código Bytecode HipHop intermedio, el cual es entonces traducido en código máquina, optimizado, y ejecutado nativamente.​ Esto contrasta con la ejecución interpretada usual de PHP, el cual el Motor Zend transforma código fuente PHP en opcode (forma de bytecode), el cual el Zend Engine’s virtual CPU se encarga de ejecutar.

Cada vez se utiliza menos HHVM, que ya es compatible con PHP 7 en su mayoría de funciones, ya que la llegada de la última versión de PHP junto con FPM han conseguido igualar o mejorar el rendimiento de este lenguaje sin necesidad de esta alternativa.

WordPress con PHP-FPM

Si tienes un plataforma de contenidos, diario online o un simple WordPress que necesita un alto rendimiento, recibirá miles o millones de visitas está claro que necesitas un Nginx con soporte PHP-FPM. Esto permitirá configurar de forma eficiente la ejecución del código PHP de tu gestor de contenidos WordPress.

Magento con PHP-FPM

La plataforma de comercio electrónico Magento también se integra muy bien con Nginx y PHP-FPM. De hecho para conseguir el mejor rendimiento de nuestra tienda online, además de balanceadores y caches, es clave utilizar este popular servidor web junto con el soporte para PHP-FPM.

Stackscale puede ayudarte con la infraestructura, cloud y sysadmin de tu Magento o WordPress.

 

Plataformas Magento para comercio electrónico en alta disponibilidad

Magento es la plataforma líder para montar un comercio electrónico de alto tráfico. De hecho ser un programador Magento certificado es un valor añadido muy importante para muchas empresas que demandan este tipo de perfiles especializados para plataforma de tiendas online Magento.

A través de este artículo, publicado también Revista Cloud, os contaremos algunos puntos de interés en lo que los partners de Stackscale pueden ayudarte para encontrar un buen programador Magento y como Stackscale puede ayudarte para desplegar una infraestructura y cloud con soporte de administración de sistemas para llegar a millones de compradores.

Consultoría para Infraestructura con Magento

Crear una tienda online con Magento no es algo sencillo ni rápido. Hay que planificar de donde partimos y hasta donde queremos llegar. Es muy importante definir de base una infraestructura y cloud privado Magento de alta disponibilidad.

Desde Stackscale siempre recomendamos montar servicios redundantes como balanceadores HaProxy con soporte SSL (https), servidores varnish de cache para acelerar tu tienda al máximo, servidores nginx, un cluster de bases de datos Mysql y por supuesto servidores para búsquedas como Redis. Sin olvidar un buen entorno de preproducción sobre el que trabajar antes de subir a producción las mejoras de tu tienda Magento.

La administración de sistemas Magento y la monitorización 24×7 deben ser un complemento que no debe faltar en nuestro comercio electrónico.

Consultoría para programación Magento

Contar con un buen equipo de profesionales, un programador de magento o empresa, que te ayude a resolver cualquier problema, desarrollar módulos, posicionarte mucho mejor, etc. Envía tu consulta a Stackscale y nos pondremos en contacto para ayudarte con nuestros partners certificados de Magento y nuestro equipo de sistemas.

Desarrollo de tiendas completas

Cuenta con expertos en el desarrollo de tiendas completas a través de la red de colaboradores y programadores de Magento. Consigue ayuda para diseñar tu Magento basado en plantillas, pasar un Photoshop (PSD) a Magento o el desarrollo de una plantilla con un diseño a medida. Lo mejor es conocer el proyecto y presupuesto para conseguir una orientación en base a tus necesidades para el desarrollo de una propuesta.

Optimización de Hosting Magento

Si tu comercio electrónico es lento o sufre de caídas frecuentes es posible que necesites ayuda de un equipo de administración de sistemas para Magento. La optimización de infraestructura y cloud para Magento es una de las especialidades en la que pueden ayudarte.

Optimización de programación Magento

Tu tienda online es muy lenta, presenta errores de programación o de Magento, la solución seguro que es más sencilla de lo que parece. Los especialistas en optimización de Magento estarán encantados de ayudarte.

SEO para Magento

Como cualquier proyecto online el posicionamiento en buscadores (SEO) es realmente importante y para ello hay que conocer como implantar las extensiones y programación a medida necesaria para que un comercio electrónico con Magento consiga estar bien posicionado en Google y otros buscadores.

Instalación de medios de pago y TPV Magento

Ofrecer un amplio abanico de opciones de pago puede ser importante para llegar a muchos más clientes potenciales, así como cambiar los medios de pago o TPV cuando es necesario. Recuerda que desarrollar o instalar una extensión para TPV Magento puede ser cuestión de pocas horas.

Instalación de plataformas de transporte en Magento

La logística se ha convertido en una de las claves de todo comercio electrónico y por ello conectarse con las plataformas de transporte para dar el máximo de información de cada envío en Magento puede ser diferencial para tus clientes.

Importación de catálogo a Magento

Si estás haciendo uso de un ERP o programa de gestión de Stock y necesitas actualizar precios o disponibilidad con frecuencia, la mejor opción es automatizar el proceso en tu Magento.

¿Por qué necesitas un programador Magento con experiencia?

Magento es una plataforma compleja y avanzada para crear un comercio electrónico que podría llegar a facturar millones de euros y recibir millones de visitas.

Un experto programador magento puede necesitar entre uno y dos años para conocer Magento en profundidad, la curva de aprendizaje necesita tiempo. Por ello debes tener en cuenta algunas cosas cuando contrates tu desarrollo en Magento:

  • Freelance Programador de Magento. Para proyectos pequeños si la dedicación no es completa o para proyectos de mayor envergadura si es con dedicación completa pueden ser una gran opción. Sobre todo comprueba su portfolio y años de experiencia.
  • Empresa especializada en desarrollo en Magento. Siempre se recomienda buscar empresas con el sello de «Partner Magento» ya que es un voto de confianza y conocimiento de la plataforma. Además esto te asegura que cuenta con programadores Magento certificados y con una experiencia demostrada.
  • Empresas de desarrollo web. Pueden ser una buena opción aunque lo normal es que no tengan programadores Magento experimentados. Es cuestión de conocer tus necesidades y lo que te ofrecen para ver si es una opción.

De la ecuación quitamos por supuesto programadores freelance sin experiencia o empresas que no sepan nada de Magento. Si bien también recuerda que cuando hables con una empresa lo ideal es que tengas acceso a conocer al equipo de programación Magento antes de firmar para conocer de su experiencia.

¿Por qué necesitas un hosting Magento con experiencia?

Ya hemos hablado de la importancia de contar con un buen profesional de Magento. Para el hosting de tu Magento no puede ser menos. Stackscale es la mejor solución para el despliegue de infraestructura y cloud privado para plataformas Magento de cualquier tamaño.

Stackscale y nuestros partners cuentan con amplia experiencia en comercio electrónico para tiendas pequeñas, medianas y grandes. Tiendas online que facturan millones de euros y tienen millones de visitas, pero lo más importante que son capaces de soportar las avalanchas de pedidos en navidad, blackfriday, cybermonday y otras fechas clave para todo comercio online.

¿Cómo configurar un diario online con WordPress en alta disponibilidad?

Disponer de una infraestructura de alta disponibilidad debería ser una obligación para muchos proyectos que dependen directamente de estar al 100% online tanto si es un comercio electrónico como si es un diario online o blog basado en WordPress. Esta plataforma de gestión de contenidos es la más popular del mundo y por ello es importante desplegar una infraestructura de cloud privado con Stackscale que sea altamente disponible, redundante y segura.

Nuestra soluciones de infraestructura, cloud privado, almacenamiento all-flash y servicios gestionados directos o a través de nuestros partners ya están dando servicio a plataformas de WordPress de diarios online, blogs y otras webs de alto tráfico. Entre los múltiples proyectos WordPress en nuestros centros de datos se superan los 100 millones de usuarios al mes y están preparados para ir mucho más allá.

Solicita una estudio y cotización para un proyecto de alto tráfico

Configurando una infraestructura redundante para WordPress

Desde Stackscale recomendamos pensar en la evolución y necesidades de tu futura plataforma de publicación de contenidos que tendrá que soportar millones de visitas cada día.

  • Desplegar al menos 2 nodos físicos de cloud privado para disponer de alta disponibilidad real.
  • Disponer de múltiples volúmenes de almacenamiento All-Flash SSD en diferentes cabinas redundantes.
  • Ancho de banda «sin límites» o muy elevado para absorber avalanchas de tráfico incluso ataques.
  • En algunos caso una réplica en el centro de datos en Amsterdam si es necesario
  • Definir la política de seguridad y Anti-DDOS por si es necesario mitigar algún ataque en el futuro.
  • Una completa política de copias de seguridad y snapshots es vital.
  • Un servicio de administración de sistemas que cuente con un equipo de profesionales y atención 24×7 para emergencias.

Después unas recomendaciones iniciales que siempre se complementan a un estudio previo de cada proyecto os vamos a comentar algunos de los elementos básicos que debería tener tu infraestructura WordPress.

Importante destacar que todos estos elementos deberían ser redundantes en diferentes nodos físicos y diferentes volúmenes de almacenamiento redundante.

Seguridad de acceso a la gestión y administración

No dejes al azar la seguridad de acceso a la gestión de tu WordPress y la administración de cualquier elemento clave. El directorio «wp-admin» de tu WordPress puede ser renombrado o no, pero es importante que el acceso al mismo esté protegido mediante contraseña del servidor web, además de su propia protección de usuario y password. Pero además puesto que todas las soluciones de Stackscale cuenta con una VPN para conexiones cifradas y seguras, podría ser una buena idea colocar detrás de esta VPN todos los elementos de gestión que se pueda.

Balanceadores HAProxy

HAProxy es una solución de balanceo de código abierto que proporciona balanceadores en alta disponibilidad para servicios web normales y también seguros con SSL. Esta aplicación cuenta con una amplia reputación entre empresas y la comunidad de administración de sistemas, siendo capaz de gestionar millones de peticiones para proyectos de alto tráfico y visitas. HAProxy es utilizado por muchos grandes proyectos de Internet que incluyen GitHub, Bitbucket, Stack Overflow, Reddit, Speedtest.net, Tumblr, Twitter y Tuenti.

Servidores de cache y aceleración Varnish

Varnish Cache es posiblemente la mejor solución para cachear y acelerar páginas web, incluso hay proyectos que lo usan como balanceador. Varnish se instala delante de cualquier servidor web, como Apache o Nginx, y se configura para almacenar en la caché del servidor una copia de las páginas solicitadas, de esta forma después seremos mucho más rápidos y eficientes para servir el contenido.

Es utilizado por muchos sitios web de alta demanda y tráfico como The New York Times, The Guardian, The Hindu, Corriere della Sera, y sitios de redes sociales y contenidos como Wikipedia, Facebook, Twitter, Vimeo, Tumblr, entre otros. Se estima que del top 10.000 de sitios web mundial cerca del 20% utilizan Varnish Cache.

Servidores web Ngnix + PHP-FPM

Nginx (pronunciado en inglés “engine X”) es un servidor web muy ligero de alto rendimiento creado por el ingeniero ruso Igor Sysoev. Ngnix también es código abierto bajo Licencia BSD, aunque cuenta con una versión comercial denominada nginx plus.

Nginx se complementa con el módulo PHP-FPM (PHP FastCGI Process Manager) que es una potente alternativa al PHP FasCGI que cuenta con características especiales pensadas para sitios webs de mucho tráfico.

Este servidor web utilizado por una larga lista de empresas y sitios webs, empezando por la propia WordPress y siguiendo por algunas conocidas como Facebook, NetFlix, GitHub, SourceForge, entre otros muchos sitios.

Clúster de base de datos Mysql

MySQL es la base de datos de código abierto más popular del mercado y cuenta con alternativas como MariaDB o Percona MySQL. Su rendimiento probado, su fiabilidad y su facilidad de uso han hecho realmente popular esta base de datos que es utilizada por millones de sitios web, incluyendo muchos de alto perfil como Twitter, Youtube o Facebook.

Desplegar un clúster de base de datos con MySQL o Percona permitirá hacer altamente disponible tus datos, así como mejorar un mayor rendimiento y una disponibilidad del 99,999%. Una arquitectura distribuida y multimaestro y sin puntos de error con MySQL en clúster te proporcionará una escalabilidad para grandes necesidades de manejo de datos.

Es importante contar con un buen equipo de administración de sistemas para bases de datos que desarrollen los procedimientos para que la misma funcione en las situaciones más críticas, a la par que pueda crecer cuando sea necesario.

Infraestructura para desarrollo y despliegues

Olvídate del FTP si puedes y da la bienvenida a los despliegues con GIT o soluciones similares. Sin olvidar que es muy importante disponer de un entorno de desarrollo que sea una copia simplificada del entorno de producción real.

Administración de Sistemas con Stackscale

Stackscale ofrece soluciones de administración de sistemas y monitorización 24×7 con un equipo de profesionales propio y también a través de partners especializados en soluciones gestionadas. Actualmente entre nuestros partners y nuestro equipo estamos gestionando más de 50 grandes proyectos que requieres necesidades especiales dentro de sectores como comercio electrónico, diarios online y blogs, servicios financieros, plataformas de viajes y también algunos ISPs.

¡Podemos ayudarte a definir una infraestructura de alta disponibilidad para tu proyectos!

Solicita una estudio y cotización para un proyecto de alto tráfico

Entrevistas: Antonio José Moreno y Roberto Ballesteros de Zent.io

Continuamos con nuestra serie de entrevistas y la de hoy es prácticamente un dos en uno. José Moreno y Roberto Ballesteros nos cuentan cómo, por qué y cuándo crearon Zent.io, una plataforma multicanal de atención al cliente basada en cloud. No te puede perder sus interesantísimas reflexiones sobre el panorama actual y futuro de la atención al cliente en la era del eCommerce.

¿Qué es exactamente Zent.io? ¿cómo os definiríais?

Antonio. Zent.io es un Software Omnicanal para Contact Center en la nube. Si eres un contact center interno o un contact center que da servicio a los clientes de otras compañías que confían en ti la atención de sus clientes, ofrecer atención multicanal es una necesidad hoy en día y llegamos para cubrir esta necesidad incipiente.

Aunque Zent.io es también Antonio J. Moreno y Roberto Ballesteros, fundadores de la solución a finales de 2013 y actuales director técnico y director de ventas de la compañía. Lanzamos el primer MPV en marzo de 2015 con un importante actor en la industria del E-commerce en España y a día de hoy gestionamos decenas de miles de comunicaciones diarias entre empresas y sus clientes

¿Hasta qué punto el despegue del eCommerce ha tenido importancia en un modelo de negocio como el vuestro?

Antonio. Como algunos podrían pensar el crecimiento del E-commerce eliminaría muchas de las relaciones cliente-vendedor que se daban en el comercio tradicional, pero lo que ha ocurrido es que los clientes siguen queriendo una comunicación ágil incluso el uso del teléfono ha crecido muchísimo. La mayor diferencia con el escenario anterior al despegue del eCommerce es que han aparecido multitud de canales diferentes de venta y comunicación y el reto ahora reside en poder gestionarlos eficientemente.

¿Qué tipo de empresas y sectores son los que más partido sacan a Zent.io?

Antonio. Todas aquellas empresas que ofrecen un servicio de atención a sus clientes y ofrecen diferentes canales de comunicación encontrarán en Zent.io el aliado perfecto para mejorar su productividad y dar la máxima satisfación al cliente, por lo que el abanico es muy amplio. Normalmente este problema está apareciendo en todos los negocios online ya que al menos tienen teléfono, correo electrónico y presencia en las redes sociales o chat en su web y al final terminan con 4 aplicativos diferentes para hablar al mismo cliente o bien dejan de atender algunos canales para centrarse en aquellos que creen son más importantes.

En principio parece que la capilaridad y diversificación de medios de contacto es al mismo tiempo amenaza y oportunidad. ¿Cuál es a vuestro juicio el mayor desafío para una idea de negocio así? ¿qué barreras tenéis que vencer?

Roberto. Aunque parece que todo apunte a la reducción de interacciones con servicios de atención al cliente en el futuro, la relación cliente-vendedor siempre existirá y agilizar los procesos de atención y mejorar los índices de resolución de incidencias aumenta la tasa de retorno de los clientes, por eso dotar a los equipos de atención al cliente con herramientas multicanal que les permitan acceder a la información del cliente de manera rápida y precisa, permite aumentar la rentabilidad y productividad de los centros de soporte

 ¿… y las mayores ventajas que se puede lograr?

Roberto. Aumentar la productividad de nuestro equipo de atención al cliente, lo cual se traduce en ahorro de costes y mejora de la rentabilidad y ofrecer unos tiempos de respuesta al consumidor final mejorando su satisfacción como consumidor. La filosofía de empresa de poner al cliente como centro del negocio, Disponer de amplia información de nuestros clientes y cómo interactúan con nuestro negocio aplicables a distintas estrategias dentro de las empresas.

Vuestro negocio es nativamente online, por eso os preguntamos ¿Qué importancia dais a vuestro partner técnico del 0 al 10? ¿por qué?

Antonio. Un rotundo 10. Junto al soporte es uno de nuestros costes y es una pieza muy importante de Zent.io que puede hacernos más o menos competitivos en el mercado. Por otro lado es de vital importancia para nuestra solución ofrecer unos SLA de servicios inmejorables, algunos de nuestros clientes usan Zent.io 24/7 h en su negocio y necesitamos poder asegurar ese nivel de servicio por eso exigimos muchísimo de nuestro partner de infraestructura.

 ¿Qué os llevó a confiar en Stackscale en este aspecto?

Antonio. Dentro de España nos parecía casi imposible encontrar una empresa como Stackscale y los servicios que ofrecía. Era justo lo que necesitábamos, migramos nuestra infraestructura en cuanto vimos que íbamos a tener las máximas garantías y la toda la infraestructura que soportaba su servicio.

 Desde la idea original a la realidad que vivís ahora mismo ¿cuánto ha cambiado el proyecto?

Antonio. El proyecto añadió redes sociales durante el año pasado pero en esencia hemos continuado con el mismo concepto que nos ha hecho que cada vez más clientes confíen en nuestra solución.

Roberto. El proyecto conserva la energía de su creación, la multicanalidad, únicamente se ha visto modificado por la incursión de los canales de RRSS, ampliando con ello los oferta multicanal de Zentio.

Una predicción de futuro ¿cómo piensas que evolucionará la atención al cliente y los contact centers?

Antonio. El uso de soluciones como Zent.io desde luego crecerá enormemente en el futuro, los canales de comunicación están muy lejos de converger en 2, 3 canales únicos si no que cada vez nos encontraremos con diferentes y mejores formas de comunicarse que harán cambiar la forma en la que las relaciones comerciales cambien y evolucionen también. Por otro lado estoy seguro que cada vez tomará más fuerza las aplicaciones de la inteligencia artificial a esta industria y quizás Zent.io en 10 años gestione el 50% de sus comunicaciones entre clientes y bots.