Si en el anterior vídeo de esta serie vimos como montar enrutamiento y balanceo de carga con el reverse proxy Nginx hoy aprenderemos a configurar una cache. Últil y casi obligatorio para nuestras aplicaciones corporativas.
Gracias por la información y el taller muy útil como siempre, si en algún momento podría hacer cache distribuida con redis para microservicios estaría de pelicula...saludos
Interesante video. Una pregunta, has probado la versión enterprise Albert? Sabes las diferencias he hay con estos mismos casos de uso? Te agregó a LinkedIn, para que estemos en contacto. (mokhtar)
Gracias Albert. Está muy bien explicado. Qué pena que la opción de proxy_cache_background_update no esté hasta la versión 1.11.10 de nginx. Estoy usando una versión old-stable de Debian y no tiene dicha versión, así que ya tengo excusa para actualizarla a la última stable. Me vendrá bien para tener cacheada todo o casi todo mi sitio web. También muy útil lo de cachear sesiones. La diferencia de rendimiento del 4,5% (no del casi 10%) no se aprecia bien cuando estás haciendo la prueba con un liferay pelado y dockerizado. Seguramente esté en memoria y el acceso será súper rápido, pero en un sistema real, con acceso a base de datos y con múltiples recursos, se nota muchísimo más. En mi caso tengo un sistema que es capaz de servir 5 peticiones por minuto y, si no lo tuviera cacheado, sería imposible servir muchas peticiones por segundo. Tengo un par de preguntas: 1. ¿Sería muy complicado establecer diferentes tiempos de cacheo en función del contenido servido? Por ejemplo los CSS, JS, IMG, PDF... 2. ¿Es posible borrar un elemento (url) de caché? He leído sobre el comando PURGE, pero no logro que me funcione. Un saludo, y gracias por el vídeo.
Alberto, una consulta, se puede compartir una sesion entre distintos frontends atras de un proxy reverso? La idea es que puedas hacer login en la pagina en un frontend y en los otros frontends se mantenga la sesión