{"id":1152,"date":"2026-02-18T17:00:00","date_gmt":"2026-02-18T16:00:00","guid":{"rendered":"https:\/\/darioiannascoli.it\/blog\/monitoraggio-risorse-server-plesk-grafana-prometheus\/"},"modified":"2026-02-18T17:00:00","modified_gmt":"2026-02-18T16:00:00","slug":"monitoraggio-risorse-server-plesk-grafana-prometheus","status":"publish","type":"post","link":"https:\/\/darioiannascoli.it\/blog\/monitoraggio-risorse-server-plesk-grafana-prometheus\/","title":{"rendered":"Come Monitoro le Risorse Server su Plesk con Grafana e Prometheus: Guida al Setup Completo"},"content":{"rendered":"<p>Se gestisci uno o pi\u00f9 server con <strong>Plesk<\/strong>, saprai bene quanto sia fondamentale avere <strong>visibilit\u00e0 in tempo reale<\/strong> su CPU, RAM, disco e rete. Per anni mi sono affidato ai grafici base del pannello, ma quando ho iniziato a gestire pi\u00f9 macchine contemporaneamente ho capito che serviva qualcosa di pi\u00f9 potente. La risposta? <strong>Grafana e Prometheus<\/strong>: il duo che oggi rappresenta lo standard de facto per il monitoraggio server professionale.<\/p>\n<p>In questa guida vi mostro <em>passo dopo passo<\/em> come ho configurato il mio stack di monitoring su un server Plesk con <strong>Prometheus<\/strong>, <strong>Node Exporter<\/strong> e <strong>Grafana<\/strong>, ottenendo dashboard interattive, alerting via email e una visione completa della salute dell&#8217;infrastruttura. Non \u00e8 una guida teorica: \u00e8 la procedura che uso in produzione, con i problemi che ho incontrato e le soluzioni che hanno funzionato.<\/p>\n<p>Se avete gi\u00e0 letto la mia guida su <a href=\"https:\/\/darioiannascoli.it\/blog\/cronjob-plesk-backup-manutenzione-server\/\">come configuro i cronjob su Plesk per automatizzare backup e manutenzione<\/a>, saprete che mi piace avere il server sotto controllo. Questo articolo \u00e8 il passo successivo: <strong>monitorare tutto con dashboard professionali<\/strong>.<\/p>\n<h2>Perch\u00e9 Monitorare il Server Plesk con Grafana e Prometheus<\/h2>\n<p>Plesk offre gi\u00e0 un sistema di <strong>Monitoring integrato<\/strong> basato sull&#8217;estensione Advanced Monitoring, che lavora in tandem con l&#8217;estensione Grafana ufficiale per visualizzare le metriche del server. Tuttavia, nella mia esperienza, questo approccio ha diversi limiti: la versione di Grafana inclusa \u00e8 datata, i dashboard non sono personalizzabili a fondo e non \u00e8 possibile centralizzare il monitoraggio di pi\u00f9 server in un&#8217;unica interfaccia.<\/p>\n<p>Installando <strong>Prometheus<\/strong> come sistema di raccolta metriche e un&#8217;istanza <strong>Grafana<\/strong> esterna e aggiornata, si ottiene una soluzione flessibile, scalabile e completamente sotto il proprio controllo. Prometheus utilizza un <em>modello pull-based<\/em>: interroga periodicamente gli endpoint HTTP che espongono metriche (tipicamente sulla porta 9100 tramite Node Exporter), le immagazzina come <em>time-series data<\/em> e le rende interrogabili tramite <strong>PromQL<\/strong>.<\/p>\n<p>Grafana, dal canto suo, si collega a Prometheus come data source e trasforma quei dati grezzi in grafici, gauge e tabelle interattive. In pi\u00f9, offre un potente sistema di <strong>alerting<\/strong> che vi notifica quando qualcosa non va \u2014 ad esempio se la CPU supera l&#8217;80% per pi\u00f9 di 5 minuti.<\/p>\n<h2>Prerequisiti e Architettura dello Stack di Monitoring<\/h2>\n<p>Prima di iniziare, ecco cosa vi serve:<\/p>\n<ul>\n<li>Un server con <strong>Plesk Obsidian<\/strong> (18.x) su Linux (Ubuntu 22.04\/24.04 o AlmaLinux 8\/9)<\/li>\n<li>Accesso <strong>SSH root<\/strong> al server<\/li>\n<li>Porte <strong>9090<\/strong> (Prometheus), <strong>9100<\/strong> (Node Exporter) e <strong>3000<\/strong> (Grafana) disponibili<\/li>\n<li>Almeno <strong>1 GB di RAM<\/strong> libera per lo stack completo<\/li>\n<\/ul>\n<p>L&#8217;architettura \u00e8 semplice: <strong>Node Exporter<\/strong> gira sul server Plesk ed espone le metriche hardware su <code>localhost:9100\/metrics<\/code>. <strong>Prometheus<\/strong> effettua lo scraping di queste metriche ogni 15 secondi e le salva nel suo database time-series. <strong>Grafana<\/strong> si collega a Prometheus e visualizza tutto su dashboard personalizzabili.<\/p>\n<h2>Step 1: Installare Node Exporter sul Server Plesk<\/h2>\n<p><strong>Node Exporter<\/strong> \u00e8 l&#8217;agente leggero che espone le metriche hardware e kernel del sistema operativo. \u00c8 il componente ufficiale di Prometheus per il monitoraggio di host Linux.<\/p>\n<h3>Download e installazione<\/h3>\n<p>Collegatevi in SSH al server e scaricate l&#8217;ultima versione stabile:<\/p>\n<pre><code># Creare un utente dedicato per sicurezza\nuseradd --no-create-home --shell \/bin\/false node_exporter\n\n# Scaricare Node Exporter (verificate l'ultima versione su github.com\/prometheus\/node_exporter\/releases)\nwget https:\/\/github.com\/prometheus\/node_exporter\/releases\/download\/v1.10.2\/node_exporter-1.10.2.linux-amd64.tar.gz\n\n# Estrarre e installare il binario\ntar xvfz node_exporter-1.10.2.linux-amd64.tar.gz\nsudo mv node_exporter-1.10.2.linux-amd64\/node_exporter \/usr\/local\/bin\/\n\n# Impostare i permessi\nsudo chown node_exporter:node_exporter \/usr\/local\/bin\/node_exporter<\/code><\/pre>\n<h3>Creare il servizio systemd<\/h3>\n<p>Per far partire Node Exporter automaticamente al boot, create un file di servizio:<\/p>\n<pre><code>sudo nano \/etc\/systemd\/system\/node_exporter.service<\/code><\/pre>\n<p>Inserite questo contenuto:<\/p>\n<pre><code>[Unit]\nDescription=Prometheus Node Exporter\nWants=network-online.target\nAfter=network-online.target\n\n[Service]\nUser=node_exporter\nGroup=node_exporter\nType=simple\nRestart=on-failure\nRestartSec=5s\nExecStart=\/usr\/local\/bin\/node_exporter\n\n[Install]\nWantedBy=multi-user.target<\/code><\/pre>\n<p>Attivate e avviate il servizio:<\/p>\n<pre><code>sudo systemctl daemon-reload\nsudo systemctl start node_exporter\nsudo systemctl enable node_exporter\nsudo systemctl status node_exporter<\/code><\/pre>\n<p>Verificate che le metriche siano esposte visitando <code>http:\/\/IP-SERVER:9100\/metrics<\/code> nel browser. Dovreste vedere una lunga lista di metriche in formato testo. All&#8217;inizio non funzionava perch\u00e9 il firewall di Plesk bloccava la porta 9100: ho dovuto aggiungere una regola specifica.<\/p>\n<h2>Step 2: Installare e Configurare Prometheus<\/h2>\n<p>Prometheus \u00e8 il cuore del sistema: raccoglie, salva e rende interrogabili tutte le metriche.<\/p>\n<h3>Download e installazione<\/h3>\n<pre><code># Creare utente dedicato\nuseradd --no-create-home --shell \/bin\/false prometheus\n\n# Creare le directory necessarie\nsudo mkdir \/etc\/prometheus\nsudo mkdir \/var\/lib\/prometheus\nsudo chown prometheus:prometheus \/var\/lib\/prometheus\n\n# Scaricare Prometheus\nwget https:\/\/github.com\/prometheus\/prometheus\/releases\/download\/v3.2.1\/prometheus-3.2.1.linux-amd64.tar.gz\ntar xvfz prometheus-3.2.1.linux-amd64.tar.gz\ncd prometheus-3.2.1.linux-amd64\n\n# Copiare i binari\nsudo mv prometheus \/usr\/local\/bin\/\nsudo mv promtool \/usr\/local\/bin\/\nsudo chown prometheus:prometheus \/usr\/local\/bin\/prometheus\nsudo chown prometheus:prometheus \/usr\/local\/bin\/promtool\n\n# Copiare i file di configurazione\nsudo mv consoles \/etc\/prometheus\nsudo mv console_libraries \/etc\/prometheus\nsudo chown -R prometheus:prometheus \/etc\/prometheus<\/code><\/pre>\n<h3>Configurare prometheus.yml<\/h3>\n<p>Il file di configurazione principale \u00e8 dove definite <em>cosa<\/em> monitorare. Createlo cos\u00ec:<\/p>\n<pre><code>sudo nano \/etc\/prometheus\/prometheus.yml<\/code><\/pre>\n<pre><code>global:\n  scrape_interval: 15s\n  evaluation_interval: 15s\n\nscrape_configs:\n  # Monitorare Prometheus stesso\n  - job_name: 'prometheus'\n    static_configs:\n      - targets: ['localhost:9090']\n\n  # Monitorare il server Plesk tramite Node Exporter\n  - job_name: 'plesk_server'\n    static_configs:\n      - targets: ['localhost:9100']\n        labels:\n          instance_name: 'plesk-main'\n          environment: 'production'<\/code><\/pre>\n<p>Lo <em>scrape_interval<\/em> di 15 secondi \u00e8 il valore standard. Vi consiglio di non scendere sotto i 10 secondi a meno che non abbiate esigenze specifiche, perch\u00e9 aumenta il carico sul database time-series.<\/p>\n<h3>Creare il servizio systemd per Prometheus<\/h3>\n<pre><code>sudo nano \/etc\/systemd\/system\/prometheus.service<\/code><\/pre>\n<pre><code>[Unit]\nDescription=Prometheus Monitoring System\nAfter=network.target\n\n[Service]\nUser=prometheus\nGroup=prometheus\nType=simple\nExecStart=\/usr\/local\/bin\/prometheus \n  --config.file=\/etc\/prometheus\/prometheus.yml \n  --storage.tsdb.path=\/var\/lib\/prometheus \n  --storage.tsdb.retention.time=30d \n  --web.console.templates=\/etc\/prometheus\/consoles \n  --web.console.libraries=\/etc\/prometheus\/console_libraries\nRestart=always\n\n[Install]\nWantedBy=multi-user.target<\/code><\/pre>\n<pre><code>sudo systemctl daemon-reload\nsudo systemctl start prometheus\nsudo systemctl enable prometheus<\/code><\/pre>\n<p>Verificate che Prometheus sia attivo su <code>http:\/\/IP-SERVER:9090<\/code>. Nella sezione <strong>Status \u2192 Targets<\/strong> dovreste vedere sia <em>prometheus<\/em> che <em>plesk_server<\/em> con stato <strong>UP<\/strong>.<\/p>\n<h2>Step 3: Installare Grafana sul Server Plesk<\/h2>\n<p>Plesk offre un&#8217;estensione Grafana nel suo marketplace, ma io preferisco installare Grafana in modo indipendente per avere sempre l&#8217;ultima versione e pieno controllo. Ecco come fare su sistemi Debian\/Ubuntu:<\/p>\n<pre><code># Aggiungere il repository Grafana\nsudo apt-get install -y apt-transport-https software-properties-common wget\nsudo mkdir -p \/etc\/apt\/keyrings\/\nwget -q -O - https:\/\/apt.grafana.com\/gpg.key | gpg --dearmor | sudo tee \/etc\/apt\/keyrings\/grafana.gpg &gt; \/dev\/null\necho \"deb [signed-by=\/etc\/apt\/keyrings\/grafana.gpg] https:\/\/apt.grafana.com stable main\" | sudo tee \/etc\/apt\/sources.list.d\/grafana.list\n\n# Installare Grafana OSS\nsudo apt-get update\nsudo apt-get install grafana\n\n# Avviare e abilitare il servizio\nsudo systemctl daemon-reload\nsudo systemctl start grafana-server\nsudo systemctl enable grafana-server<\/code><\/pre>\n<p>Grafana \u00e8 ora accessibile su <code>http:\/\/IP-SERVER:3000<\/code>. Le credenziali di default sono <strong>admin\/admin<\/strong>: vi verr\u00e0 chiesto di cambiarle al primo accesso. Vi consiglio vivamente di farlo subito.<\/p>\n<h2>Step 4: Collegare Prometheus a Grafana e Creare le Dashboard<\/h2>\n<h3>Aggiungere Prometheus come Data Source<\/h3>\n<p>Una volta loggati in Grafana:<\/p>\n<ol>\n<li>Andate su <strong>Configuration \u2192 Data Sources<\/strong> (icona ingranaggio nella sidebar)<\/li>\n<li>Cliccate su <strong>Add data source<\/strong><\/li>\n<li>Selezionate <strong>Prometheus<\/strong><\/li>\n<li>Nel campo URL inserite: <code>http:\/\/localhost:9090<\/code><\/li>\n<li>Cliccate <strong>Save &amp; Test<\/strong><\/li>\n<\/ol>\n<p>Se tutto \u00e8 configurato correttamente, vedrete il messaggio verde <em>&#8220;Data source is working&#8221;<\/em>. Se ricevete errori di connessione, verificate che Prometheus sia in ascolto e che non ci siano regole firewall che bloccano la comunicazione sulla porta 9090.<\/p>\n<h3>Importare una dashboard pre-configurata<\/h3>\n<p>Invece di costruire tutto da zero, potete importare una delle tante dashboard community. La mia preferita per il monitoraggio server \u00e8 la <strong>Node Exporter Full<\/strong> (ID: 1860):<\/p>\n<ol>\n<li>Andate su <strong>Dashboards \u2192 Import<\/strong><\/li>\n<li>Inserite l&#8217;ID <strong>1860<\/strong> nel campo<\/li>\n<li>Cliccate <strong>Load<\/strong><\/li>\n<li>Selezionate il data source Prometheus configurato<\/li>\n<li>Cliccate <strong>Import<\/strong><\/li>\n<\/ol>\n<p>In pochi secondi avrete una dashboard completa con <strong>CPU usage, RAM, disco, I\/O, rete, uptime<\/strong> e decine di altre metriche, tutte aggiornate in tempo reale. \u00c8 stato un momento davvero soddisfacente vedere finalmente tutto il server &#8220;in un colpo d&#8217;occhio&#8221;.<\/p>\n<h2>Step 5: Configurare gli Alert su Grafana<\/h2>\n<p>Le dashboard sono utilissime, ma il vero valore del monitoring sta negli <strong>alert automatici<\/strong>. Grafana permette di creare regole di alerting direttamente dall&#8217;interfaccia. Ecco un esempio pratico per ricevere un alert quando la CPU supera l&#8217;80%:<\/p>\n<ol>\n<li>Aprite un pannello della dashboard<\/li>\n<li>Cliccate <strong>Edit \u2192 Alert<\/strong><\/li>\n<li>Create una nuova regola con questa query PromQL: <code>100 - (avg by(instance) (irate(node_cpu_seconds_total{mode=\"idle\"}[5m])) * 100) &gt; 80<\/code><\/li>\n<li>Impostate la condizione <strong>&#8220;for 5m&#8221;<\/strong> (evita falsi positivi da spike momentanei)<\/li>\n<li>Configurate il <strong>notification channel<\/strong> (email, Slack, Telegram)<\/li>\n<\/ol>\n<p>Per il canale email, dovrete configurare l&#8217;SMTP nel file <code>\/etc\/grafana\/grafana.ini<\/code> nella sezione <code>[smtp]<\/code>. Vi consiglio anche alert per <strong>RAM sopra il 90%<\/strong>, <strong>disco sopra l&#8217;85%<\/strong> e <strong>load average elevato<\/strong>.<\/p>\n<h2>Mettere in Sicurezza lo Stack di Monitoring<\/h2>\n<p>Un aspetto che spesso viene trascurato \u00e8 la <strong>sicurezza<\/strong>. Non volete che le metriche del vostro server siano accessibili a chiunque. Ecco cosa ho fatto io:<\/p>\n<ul>\n<li><strong>Limitare l&#8217;accesso alle porte<\/strong>: Node Exporter (9100) e Prometheus (9090) devono ascoltare solo su <code>localhost<\/code> o essere protetti da firewall. Aggiungete <code>--web.listen-address=\"127.0.0.1:9100\"<\/code> a Node Exporter e <code>--web.listen-address=\"127.0.0.1:9090\"<\/code> a Prometheus<\/li>\n<li><strong>Reverse proxy con Nginx<\/strong>: esponete Grafana tramite un virtual host Nginx con <strong>HTTPS<\/strong> (usando Let&#8217;s Encrypt) invece di accedere direttamente sulla porta 3000<\/li>\n<li><strong>Autenticazione<\/strong>: cambiate immediatamente la password admin di Grafana e abilitate l&#8217;autenticazione a due fattori se disponibile<\/li>\n<\/ul>\n<p>Se avete gi\u00e0 configurato <a href=\"https:\/\/darioiannascoli.it\/blog\/configurare-fail2ban-plesk\/\">Fail2Ban su Plesk<\/a>, potete aggiungere un jail anche per proteggere l&#8217;accesso a Grafana dai tentativi di brute force. Allo stesso modo, se avete seguito la mia guida su <a href=\"https:\/\/darioiannascoli.it\/blog\/http3-quic-plesk-nginx\/\">come abilitare HTTP\/3 QUIC su Plesk con Nginx<\/a>, potete sfruttare lo stesso setup per servire Grafana con le migliori performance.<\/p>\n<h2>Query PromQL Utili per il Monitoraggio del Server Plesk<\/h2>\n<p>Ecco le <strong>query PromQL<\/strong> che uso quotidianamente per tenere sotto controllo i miei server Plesk:<\/p>\n<ul>\n<li><strong>CPU Usage %<\/strong>: <code>100 - (avg(irate(node_cpu_seconds_total{mode=\"idle\"}[5m])) * 100)<\/code><\/li>\n<li><strong>RAM Utilizzata %<\/strong>: <code>(1 - node_memory_MemAvailable_bytes \/ node_memory_MemTotal_bytes) * 100<\/code><\/li>\n<li><strong>Spazio Disco Usato %<\/strong>: <code>(1 - node_filesystem_avail_bytes{mountpoint=\"\/\"} \/ node_filesystem_size_bytes{mountpoint=\"\/\"}) * 100<\/code><\/li>\n<li><strong>Network Traffic In\/Out<\/strong>: <code>irate(node_network_receive_bytes_total{device=\"eth0\"}[5m])<\/code><\/li>\n<li><strong>Server Uptime<\/strong>: <code>time() - node_boot_time_seconds<\/code><\/li>\n<li><strong>Load Average<\/strong>: <code>node_load1<\/code>, <code>node_load5<\/code>, <code>node_load15<\/code><\/li>\n<\/ul>\n<p>Queste query le uso sia nelle dashboard che nelle regole di alerting. Vi consiglio di iniziare semplici e aggiungere complessit\u00e0 man mano che capite quali metriche sono pi\u00f9 rilevanti per il vostro workload specifico.<\/p>\n<h2>Monitorare Pi\u00f9 Server Plesk da un&#8217;Unica Dashboard<\/h2>\n<p>Se gestite pi\u00f9 macchine, la vera forza di questo stack \u00e8 la possibilit\u00e0 di centralizzare il monitoring. Basta installare <strong>Node Exporter su ogni server<\/strong> e aggiungere i target nel file <code>prometheus.yml<\/code>:<\/p>\n<pre><code>scrape_configs:\n  - job_name: 'plesk_servers'\n    static_configs:\n      - targets:\n        - 'server1-ip:9100'\n        - 'server2-ip:9100'\n        - 'server3-ip:9100'\n        labels:\n          environment: 'production'<\/code><\/pre>\n<p>In questo caso, \u00e8 fondamentale che le porte 9100 siano raggiungibili tra i server, preferibilmente attraverso una <strong>rete privata<\/strong> o una VPN. Se avete seguito la mia guida sulla <a href=\"https:\/\/darioiannascoli.it\/blog\/sicurezza-rete-wifi-casa-router-dns-vlan\/\">segmentazione VLAN e sicurezza di rete<\/a>, sapete quanto sia importante isolare il traffico di monitoring dal traffico pubblico.<\/p>\n<h2>Backup delle Configurazioni e Retention dei Dati<\/h2>\n<p>Non dimenticate di includere nel vostro piano di backup:<\/p>\n<ul>\n<li><code>\/etc\/prometheus\/prometheus.yml<\/code> \u2014 configurazione Prometheus<\/li>\n<li><code>\/var\/lib\/prometheus\/<\/code> \u2014 database time-series<\/li>\n<li><code>\/var\/lib\/grafana\/<\/code> \u2014 database Grafana (dashboard, utenti, alert)<\/li>\n<li><code>\/etc\/grafana\/grafana.ini<\/code> \u2014 configurazione Grafana<\/li>\n<\/ul>\n<p>Per la <em>retention<\/em> dei dati, nel servizio systemd ho impostato <code>--storage.tsdb.retention.time=30d<\/code>: Prometheus conserva 30 giorni di metriche. Regolatelo in base allo spazio disco disponibile. Su un server con monitoring di una singola macchina, 30 giorni occupano circa <strong>1-2 GB<\/strong>. Se avete gi\u00e0 configurato il <a href=\"https:\/\/darioiannascoli.it\/blog\/plesk-backup-remoto-s3-wasabi\/\">backup remoto S3 con Wasabi<\/a>, potete includere anche queste directory.<\/p>\n<h2>FAQ<\/h2>\n<h3>Posso usare l&#8217;estensione Grafana integrata in Plesk insieme a Prometheus?<\/h3>\n<p>L&#8217;estensione Grafana di Plesk usa come data source l&#8217;estensione Advanced Monitoring (che raccoglie metriche tramite RRD). Questa istanza di Grafana \u00e8 limitata e non facilmente personalizzabile. Nella mia configurazione, installo Grafana separatamente e uso Prometheus con Node Exporter come data source, ottenendo molte pi\u00f9 metriche e dashboard completamente personalizzabili. Le due soluzioni possono coesistere sullo stesso server senza conflitti, a patto di usare porte diverse.<\/p>\n<h3>Quanto consuma in termini di risorse lo stack Prometheus + Grafana + Node Exporter?<\/h3>\n<p>Node Exporter \u00e8 estremamente leggero: circa <strong>10-15 MB di RAM<\/strong>. Prometheus con scrape_interval a 15 secondi e un solo target utilizza circa <strong>100-200 MB di RAM<\/strong>. Grafana consuma circa <strong>50-100 MB di RAM<\/strong> a riposo. In totale, lo stack completo richiede meno di <strong>500 MB di RAM<\/strong>, il che lo rende adatto anche a server con risorse limitate.<\/p>\n<h3>\u00c8 possibile monitorare anche i servizi specifici di Plesk come Apache, Nginx e MySQL?<\/h3>\n<p>S\u00ec, e lo consiglio vivamente. Per <strong>MySQL\/MariaDB<\/strong> potete usare il <em>mysqld_exporter<\/em>, per <strong>Nginx<\/strong> il <em>nginx_exporter<\/em> (che legge lo stub_status) e per <strong>Apache<\/strong> l&#8217;<em>apache_exporter<\/em>. Basta aggiungere i rispettivi target nel file <code>prometheus.yml<\/code> e importare le dashboard dedicate su Grafana.<\/p>\n<h3>Come aggiorno Prometheus e Node Exporter?<\/h3>\n<p>L&#8217;aggiornamento \u00e8 semplice: scaricate la nuova versione dal sito ufficiale, fermate il servizio con <code>sudo systemctl stop prometheus<\/code>, sostituite il binario in <code>\/usr\/local\/bin\/<\/code> e riavviate il servizio. La stessa procedura vale per Node Exporter. Le configurazioni e i dati vengono preservati.<\/p>\n<h3>Grafana pu\u00f2 inviare alert su Telegram o Slack oltre che via email?<\/h3>\n<p>Assolutamente s\u00ec. Grafana supporta nativamente decine di <strong>notification channels<\/strong> tra cui Telegram, Slack, Discord, PagerDuty, OpsGenie e webhook personalizzati. Nella mia configurazione uso sia email che Telegram per le notifiche critiche, cos\u00ec ho sempre la situazione sotto controllo anche quando non sono al PC.<\/p>\n<h2>Conclusione: Monitorare il Server Plesk con Grafana e Prometheus \u00e8 Essenziale<\/h2>\n<p>Configurare uno stack di <strong>monitoraggio risorse server su Plesk con Grafana e Prometheus<\/strong> \u00e8 stato uno dei miglioramenti pi\u00f9 significativi che ho apportato alla mia infrastruttura. Avere dashboard in tempo reale, alert automatici e storico delle metriche mi ha permesso di prevenire problemi invece che reagire quando ormai il danno \u00e8 fatto.<\/p>\n<p>La procedura richiede circa <strong>30-45 minuti<\/strong> per un setup base, ma il ritorno in termini di controllo e tranquillit\u00e0 \u00e8 impagabile. Se gestite siti WordPress su Plesk \u2014 e magari avete gi\u00e0 affrontato il tema della <a href=\"https:\/\/darioiannascoli.it\/blog\/sicurezza-wordpress-brute-force\/\">sicurezza WordPress contro i brute force<\/a> o dell&#8217;<a href=\"https:\/\/darioiannascoli.it\/blog\/audit-plugin-wordpress-vulnerabilita-sicurezza\/\">audit dei plugin per le vulnerabilit\u00e0<\/a> \u2014 il monitoring \u00e8 il tassello che completa il quadro.<\/p>\n<p>Se avete domande o volete condividere la vostra esperienza con il monitoring su Plesk, lasciate un commento qui sotto. Sono sempre curioso di scoprire come altri sysadmin configurano il loro stack!<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Guida completa per configurare Prometheus, Node Exporter e Grafana su server Plesk: dashboard in tempo reale, alerting e query PromQL testate in produzione.<\/p>\n","protected":false},"author":1,"featured_media":1153,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_seopress_robots_primary_cat":"","_seopress_titles_title":"Monitoraggio Server Plesk con Grafana e Prometheus | Guida","_seopress_titles_desc":"Scopri come monitoro le risorse server su Plesk con Grafana e Prometheus: setup completo con Node Exporter, dashboard e alert. Guida step-by-step testata.","_seopress_robots_index":"","footnotes":""},"categories":[4],"tags":[246,120,248,249,116,247],"class_list":["post-1152","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-plesk","tag-grafana","tag-linux","tag-monitoraggio-server","tag-node-exporter","tag-plesk","tag-prometheus"],"_links":{"self":[{"href":"https:\/\/darioiannascoli.it\/blog\/wp-json\/wp\/v2\/posts\/1152","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/darioiannascoli.it\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/darioiannascoli.it\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/darioiannascoli.it\/blog\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/darioiannascoli.it\/blog\/wp-json\/wp\/v2\/comments?post=1152"}],"version-history":[{"count":0,"href":"https:\/\/darioiannascoli.it\/blog\/wp-json\/wp\/v2\/posts\/1152\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/darioiannascoli.it\/blog\/wp-json\/wp\/v2\/media\/1153"}],"wp:attachment":[{"href":"https:\/\/darioiannascoli.it\/blog\/wp-json\/wp\/v2\/media?parent=1152"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/darioiannascoli.it\/blog\/wp-json\/wp\/v2\/categories?post=1152"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/darioiannascoli.it\/blog\/wp-json\/wp\/v2\/tags?post=1152"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}