La Mia Sala Server Domestica: Dal Raspberry Pi al Machine Learning
7 Gen. 2026
Era la fine del 2021 quando ho comprato il mio primo server: un Raspberry Pi 4. Non immaginavo che quella piccola scheda da pochi watt avrebbe dato inizio a un percorso che mi avrebbe portato a costruire una vera e propria sala server domestica. Oggi, tre anni dopo, gestisco cinque macchine dedicate che mi permettono di sperimentare con tecnologie enterprise, hosting di servizi, e soprattutto intelligenza artificiale.
Il Primo Passo: Raspberry Pi e l'Addio a Heroku
La motivazione iniziale era pratica: Heroku aveva appena eliminato il suo piano gratuito e io non volevo pagare per hostare i miei progetti personali. Il Raspberry Pi 4 che avevo comprato durante il liceo sembrava la soluzione perfetta. Era debole, certo, ma abbastanza per far girare un server HTTP e imparare le basi del system administration.
Quel piccolo dispositivo mi ha insegnato più di quanto potessi immaginare. Ho imparato a gestire Linux, a configurare Apache, a litigare con i firewall e le porte forward del router. Era lento, si bloccava spesso, e ogni errore richiedeva ore per essere debuggato. Ma funzionava, e soprattutto era mio.
Il Salto di Qualità: ThinkCentre e il Backend di Produzione
Dopo qualche mese ho capito che il Raspberry Pi non sarebbe bastato per progetti più seri. Avevo bisogno di più potenza, più RAM, più affidabilità. Ho trovato un ThinkCentre usato con un Intel i5-6400T, 16GB di RAM e 2TB di SSD. Non era certo un mostro di potenza, ma per me rappresentava un salto di qualità enorme.
Questo server è diventato il cuore della mia infrastruttura. Ancora oggi ospita il backend di questo sito web, gira Apache, PHP e MySQL, e gestisce diversi container Docker. È la macchina più affidabile che ho: accesa 24/7 da oltre due anni senza un singolo problema hardware.
È qui che ho imparato a scrivere codice che deve girare in produzione. Non più script usa-e-getta sul laptop, ma servizi che devono essere sempre disponibili, performanti, e facili da mantenere. Ogni bug in produzione era una lezione, ogni downtime un'opportunità per migliorare il monitoring e i backup.
Il Colpo di Fortuna: HP ProLiant DL380 Gen9 a 300€
Un giorno, scorrendo distrattamente eBay, mi sono imbattuto in un venditore che liquidava server enterprise. Tra questi c'era un HP ProLiant DL380 Gen9 con doppio Xeon E5-2690 v3 e 256GB di RAM. Il prezzo? 300 euro.
Non ci ho pensato due volte. Era un'occasione irripetibile. Certo, consuma un bel po' di energia e fa un rumore non indifferente quando si avvia, ma avere 24 core e un quarto di terabyte di RAM a disposizione apre possibilità che prima erano impensabili.
Al momento il server è offline, in attesa che trovi una GPU usata per machine learning a un prezzo ragionevole. Il mercato è impazzito con il boom dell'AI e tutti stanno vendendo vecchie schede grafiche a prezzi assurdi. Sto aspettando che la bolla scoppi per completare il setup. Nel frattempo, studio e pianifico cosa ci farò girare sopra.
Il NAS Fatto in Casa: Componenti Riciclati, Massima Utilità
Quando ho aggiornato il mio PC da gaming, invece di vendere i componenti vecchi, ho deciso di metterli a frutto. Un Ryzen 7 3700X, 32GB di DDR4, e una scheda madre B450 Pro4 sono finiti in un nuovo server assemblato con componenti consumer.
Per lo storage ho implementato una configurazione seria: due SSD da 256GB in RAID0 per il sistema operativo (massimizzando velocità), e quattro HDD da 4TB in RAID5 gestito con mdadm per i dati (bilanciando capacità, velocità e ridondanza). Questo server ospita Plex per lo streaming media e funziona come NAS principale per tutta la casa.
Montare un RAID5 software mi ha insegnato molto sulla gestione dello storage enterprise. Ho dovuto studiare mdadm, capire come funziona la parità distribuita, e soprattutto imparare a mia spese l'importanza dei backup. Spoiler: "hope for the best" non è una strategia di backup consigliata, ma per ora mi è andata bene.
Il PC da Gaming: Quando Divertimento e Machine Learning si Incontrano
Il mio setup principale è un PC da gaming con Ryzen 7 9800X3D, 32GB di DDR5 e una RTX 3090. Originariamente pensato per i videogiochi, è diventato la mia workstation principale per machine learning e sviluppo.
La RTX 3090 con i suoi 24GB di VRAM è perfetta per eseguire modelli linguistici localmente. Attualmente ci faccio girare principalmente Qwen Coder e Gemma attraverso Ollama. È incredibile avere a disposizione modelli di intelligenza artificiale capaci sul proprio computer, senza dover dipendere da API esterne o servizi cloud.
Uso questa macchina anche per il progetto Local RAG Example, dove sperimento con retrieval-augmented generation e database vettoriali. Avere la GPU sempre disponibile permette iterazioni rapide e test immediati, fondamentali quando si lavora con l'AI.
Ubuntu Ovunque: La Scelta Pragmatica
Su tutti i server gira Ubuntu. La scelta non è stata particolarmente filosofica: Ubuntu è la distribuzione Linux più popolare, il che significa che per qualsiasi problema esiste già una guida, un thread su Stack Overflow, o almeno qualcuno che l'ha già risolto prima di te.
Quando alle 2 di notte qualcosa si rompe e hai bisogno di una soluzione veloce, la popolarità della distribuzione conta molto più della purezza tecnica. Inoltre, essendo la stessa distribuzione su tutte le macchine, posso riutilizzare script, configurazioni e procedure senza dover adattare nulla.
Networking: VPN, SSH e CI/CD
Tutti i server sono accessibili attraverso una VPN. Questa mi permette di gestirli da qualsiasi luogo mantenendo la sicurezza. Ho anche configurato SSH con proxy per permettere alle pipeline di CI/CD su GitHub Actions di deployare automaticamente il codice sui server.
Vedere una push su GitHub tradursi automaticamente in un deploy in produzione sul mio server di casa è una di quelle cose che non smette mai di stupirmi. È la magia del DevOps che incontra l'home lab.
Docker: L'Orchestra che Gestisce Tutto
Sul ThinkCentre gira Docker, che orchestra tutti i servizi del backend. Container isolati per ogni servizio, facile da aggiornare, semplice da scalare se necessario. Ho imparato a scrivere Dockerfile efficienti, a gestire volumi persistenti, e a debuggare container che si comportano in modo strano.
Docker mi ha anche insegnato l'importanza dell'immutabilità e della riproducibilità. Un container che funziona sul mio laptop funzionerà identico in produzione. Niente più "ma sul mio computer funzionava".
Monitoring: O Meglio, la Mancanza di Esso
Devo ammetterlo: non ho un sistema di monitoring strutturato. Niente Grafana, niente Prometheus, niente alert automatici. Il mio approccio è molto più... empirico. Se qualcosa si rompe, me ne accorgo quando qualcosa non funziona.
È una cosa che devo migliorare? Assolutamente sì. Ma fa parte del percorso di apprendimento. Ogni volta che qualcosa va storto e non me ne accorgo subito, imparo l'importanza di avere visibility sui sistemi. Le prossime cose della mia lista sono proprio monitoring e alerting proattivo.
Backup Strategy: Hope for the Best
Anche qui, confesso: la mia strategia di backup è... ottimistica. "Speriamo bene" non è esattamente quello che ti insegnano nei corsi di system administration, ma finora mi è andata bene. I dati veramente critici li ho duplicati su cloud, ma per il resto confido nel RAID5 e nella fortuna.
Questo approccio nasce dal fatto che tutto quello che gira sui miei server è sperimentale o riproducibile. Se domani il RAID5 decidesse di suicidarsi, perderei media e file, ma non perderei codice (quello è su GitHub) né configurazioni critiche (quelle le ho documentate). È un rischio calcolato, anche se forse un po' troppo calcolato.
Cosa Ho Imparato in Tre Anni
Gestire un'infrastruttura domestica mi ha insegnato cose che nessun tutorial o corso online avrebbe potuto insegnarmi. Ho imparato che la teoria è importante, ma niente batte l'esperienza diretta di dover risolvere un problema reale su un sistema in produzione.
Ho imparato che l'uptime è difficile. Mantenere servizi sempre disponibili richiede pianificazione, ridondanza, e soprattutto la capacità di intervenire rapidamente quando qualcosa va storto. Ho imparato a scrivere codice più resiliente, a pensare ai casi limite, a non dare mai per scontato che qualcosa funzionerà sempre.
Ho imparato che ogni server che aggiungi è un nuovo problema da gestire: più potenza, ma anche più complessità, più consumi, più punti di failure. L'infrastruttura va progettata, non solo assemblata.
Il Futuro: GPU e Oltre
I piani per il futuro sono chiari: trovare una GPU per l'HP ProLiant e trasformarlo in una powerhouse per machine learning. Con 256GB di RAM e 24 core, sarà perfetto per training di modelli più grandi e sperimentazione più seria con l'AI.
Voglio anche migliorare il monitoring, implementare backup automatici più strutturati, e magari sperimentare con Kubernetes per avere un'orchestrazione più sofisticata dei container. C'è sempre qualcosa di nuovo da imparare, sempre un'ottimizzazione da fare, sempre un esperimento da provare.
Perché Dovresti Costruire il Tuo Home Lab
Se stai leggendo questo articolo e ti stai chiedendo se vale la pena iniziare, la risposta è un sonoro sì. Non serve partire con server enterprise da migliaia di euro. Un Raspberry Pi, un vecchio laptop, o anche solo una VM sul tuo computer possono essere il punto di partenza.
Quello che conta è iniziare a sperimentare. Installare Linux, configurare un web server, rompere qualcosa e imparare a aggiustarlo. Ogni errore è una lezione, ogni problema risolto è una competenza acquisita. Non esiste modo migliore per imparare system administration, networking, e DevOps che avere un sistema reale su cui sperimentare.
L'home lab ti dà la libertà di provare cose che sul lavoro non potresti mai fare. Vuoi crashare un database per vedere cosa succede? Fallo. Vuoi testare una configurazione di rete complessa? Provaci. Vuoi vedere se riesci a far girare un cluster Kubernetes su hardware consumer? Perché no?
E soprattutto, ti dà la soddisfazione di aver costruito qualcosa di tuo. Vedere i tuoi servizi girare su hardware che hai configurato tu, su sistemi che gestisci tu, con codice che hai scritto tu, è una sensazione che nessun servizio cloud può replicare.
Conclusioni
Tre anni fa non avrei mai immaginato di arrivare a gestire cinque server e un'infrastruttura completa da casa. È iniziato come un modo per risparmiare sui costi di hosting e si è trasformato in un percorso di apprendimento che continua ancora oggi.
Ogni server che ho aggiunto ha rappresentato una nuova fase del mio sviluppo come sviluppatore e system administrator. Dal Raspberry Pi che mi ha insegnato le basi, al ThinkCentre che mi ha fatto capire cosa significa produzione, fino all'HP ProLiant che mi aprirà le porte del machine learning enterprise.
Se c'è una cosa che ho imparato in questi anni è che non serve aspettare di avere il setup perfetto per iniziare. Inizia con quello che hai, sperimenta, rompi cose, impara, e migliora passo dopo passo. L'infrastruttura perfetta non esiste, ma il percorso per costruirla è la parte più divertente e formativa.

