Pour améliorer les performances d’un site web, la mise en cache est une stratégie incontournable.
Varnish Cache est un proxy HTTP haute performance conçu pour accélérer la livraison des contenus.
Dans cet article, nous allons voir comment installer, configurer et optimiser un serveur Varnish.
Plan de l’article
- Présentation de Varnish Cache
- Installation de Varnish
- Configuration de base
- Optimisations avancées
- Conclusion
Présentation de Varnish Cache
- Proxy inverse HTTP : placé devant le serveur web (Apache, Nginx).
- Mise en cache des pages : permet de livrer le contenu sans interroger le serveur en permanence.
- Gain de performance énorme : réduit la charge du serveur et améliore le temps de réponse.
Installation de Varnish
Sous Debian/Ubuntu :
sudo apt update
sudo apt install varnish
Sous CentOS/RHEL :
sudo yum install varnish
Le service s’exécute sur le port 6081
par défaut.
Configuration de base
Le fichier principal est /etc/varnish/default.vcl
.
Exemple de configuration pour mettre Varnish devant Apache :
vcl 4.0;
backend default {
.host = "127.0.0.1";
.port = "8080";
}
sub vcl_recv {
if (req.url ~ "^/admin") {
return (pass);
}
}
backend
: définit le serveur web en arrière-plan.vcl_recv
: permet d’exclure certaines URL du cache (ici/admin
).
Optimisations avancées
- Augmenter la taille du cache mémoire via
/etc/default/varnish
:
DAEMON_OPTS="-a :6081 -T localhost:6082 -s malloc,1G"
- Purger le cache quand nécessaire :
varnishadm ban "req.url ~ /"
- Surveiller les performances :
varnishstat
Conclusion
Avec Varnish, vous pouvez considérablement améliorer la rapidité et la scalabilité de vos applications web.
En le combinant avec un serveur web comme Nginx ou Apache, il devient un atout majeur pour optimiser les performances et réduire la charge serveur.