Nel mondo digitale contemporaneo, l’adozione del cloud computing è diventata un fenomeno dominante nel settore IT, soprattutto per le aziende di certe dimensioni, accelerata dall’innovazione e dalla promessa di agilità, scalabilità e riduzione dei costi.
Tuttavia, eventi recenti come il significativo blackout di Amazon Web Services (al secolo AWS) del 20 ottobre 2025, riaccendono il dibattito su quale sia la scelta tecnologica più opportuna per imprese e organizzazioni: affidarsi al cloud o mantenere infrastrutture on-premise, un dubbio amletico.
Facciamo una veloce valutazione critica di queste opzioni, integrando considerazioni sull’inarrestabile trend verso servizi digitali in abbonamento che stanno progressivamente sostituendo la proprietà tradizionale di beni digitali, analogamente a tutti gli altri beni che si stanno trasformando da beni in servizi senza sosta (vedi streaming online).
Questo modello è noto come “servitization” o “access economy” e riguarda diversi settori, non solo l’IT.
Il blackout AWS: una lezione sull’affidabilità del cloud
Il blackout di AWS ha avuto ripercussioni globali, centinaia di aziende e milioni di utenti sono rimasti senza accesso a servizi cruciali per ore.
L’interruzione ha messo in luce la dipendenza critica dall’infrastruttura cloud, in particolare dai leader di mercato, come Amazon, che detengono una quota di circa il 37% del mercato globale del cloud. La causa principale è stata una problematica di risoluzione DNS su DynamoDB (un servizio database servless), che ha innescato un effetto domino su numerosi servizi, compromettendo settori come finanza, sanità, intrattenimento e commercio elettronico.
Questo evento dimostra un rischio intrinseco del cloud: la concentrazione di una massa critica di dati e risorse in pochi provider crea un “single point of failure” che, in caso di malfunzionamento, può paralizzare interi ecosistemi digitali.
Nonostante la rapidità nella risoluzione e il ritorno completo alla normalità in poche ore, l’episodio ha sollevato domande sulla resilienza della dipendenza da servizi esterni e ha spinto le aziende a riflettere seriamente su strategie di backup, piani di continuità operativa e gestione del rischio.
Ma partiamo dal principio approfondendo l’argomento anche per i più profani.
Cloud computing: cos’è, vantaggi e limiti.
Il cloud computing è una tecnologia che permette di utilizzare servizi informatici di vario tipo (vedi archiviazione, programmi o potenza di calcolo tramite Internet), senza dover avere fisicamente i dispositivi o i server a casa o in azienda. In pratica, è come noleggiare risorse informatiche da grandi server remoti, accessibili ovunque con una connessione a Internet.
Questo rende più semplice, veloce e spesso meno costoso (in quanto potresti comprare il servizio commisurato alle tue esigenze anche se dovessero variare) gestire dati e applicazioni, perché non dovrai preoccuparti di acquistare o mantenere hardware e software, tutto è disponibile on demand, come un servizio.
È un po’ come avere a disposizione un enorme computer virtuale sempre pronto all’uso, senza doversi occupare della sua manutenzione, spazio fisico o potenza computazionale.
La migrazione al cloud porta numerosi vantaggi che spiegano la sua crescente popolarità:
- Scalabilità e flessibilità: possibilità di adattare risorse a domanda, importante per picchi di traffico o crescita rapida;
- riduzione dei costi upfront: assenza di spese per hardware fisico e manutenzione;
- accessibilità globale: utilizzo di dati e applicazioni da qualunque luogo con connessione internet;
- aggiornamenti automatici e sicurezza gestita: riduzione del carico di gestione IT interna;
- tempi di implementazione rapidi: provisioning quasi istantaneo di risorse;

Tuttavia, checché se ne dica, il cloud non è privo di limiti:
- uno dei punti più dolenti è la dipendenza da internet. Interruzioni di connessione possono paralizzare l’accesso ai dati (nei miei giorni in assistenza TLC ho visto aziende con linee estremamente pro/business ferme per mesi a causa di cavi tranciati da lavori in strada);
- problemi di sicurezza e conformità, nonostante i grandi investimenti delle piattaforme cloud, la responsabilità della protezione dei dati sensibili resta condivisa e può essere complessa da gestire. Di questo punto ho discusso spesso quando ho scritto circa la privacy sui sistemi decentralizzati, che probabilmente ancora, per i sistemi Cloud non sono certamente pronti;
- rischio di vendor lock-in: trasportare dati e applicazioni tra provider può diventare difficile e costoso e se domani non sei più soddisfatto del servizio, portare indietro le tue risorse o trasferirle altrove sarà un’operazione difficile e costosa;
- i costi saranno ricorrenti e talvolta imprevedibili, i modelli pay-per-use potranno sicuramente permetterti di risparmiare se amministrati in maniera parsimoniosa, ma possono sorprendere con spese maggiori di quelle previste.
Questi aspetti devono essere valutati attentamente in funzione delle specifiche esigenze aziendali e del settore di appartenenza.
On-premise: il controllo a scapito della flessibilità
Rimane invece il modello on-premise, basato su server e infrastrutture gestiti internamente. I vantaggi principali possono includere:
- pieno controllo e personalizzazione dato che l’infrastruttura è di propria appartenenza, si può avere massima libertà nel configurare e proteggere dati e applicazioni;
- di contro quindi, sicuramente una minore dipendenza da infrastrutture esterne, resilienza in caso di problemi di rete globale o provider cloud.
- conformità normativa facilitata, gestione diretta e localizzata di dati sensibili o regolati.
D’altro canto, l’on-premise non ha chiaramente solo lati positivi, si accompagna a costi elevati legati a hardware, energia, manutenzione e personale specializzato, oltre a tempi di provisioning più lunghi e scalabilità più complicata a causa di migrazioni a nuovi sistemi (perché la sicurezza viene meno quando il supporto ad una distribuzione viene terminato) o esaurimento dello spazio.
La gestione IT diventa complessa e onerosa, specie nelle organizzazioni con risorse limitate, che spesso sono quelle che curano meno questi aspetti e, di conseguenza, optano ancora per un on-premise molto votato al fai da te.
Molte realtà adottano un modello ibrido, mantenendo on-premise servizi critici e delegando al cloud carichi di lavoro più elastici o sistemi e dati sotto specifici audit.
In un ambiente ibrido, i dati vengono gestiti sia internamente che su infrastrutture cloud esterne, aumentando la complessità di gestione della sicurezza. Diventa più difficile monitorare, controllare e proteggere uniformemente i dati, soprattutto quelli sensibili o regolamentati.
Gestire un’infrastruttura ibrida richiede competenze sia sul data center interno che sulle tecnologie cloud, aumentando i costi e la complessità operativa. La sincronizzazione tra sistemi on-premise e cloud può causare problemi di compatibilità, latenza o inconsistenza nei dati.
La trasformazione verso i servizi in abbonamento: impatti critici

Questo crea un problema: servono professionisti che comprendano entrambe le realtà, sappiano gestire un data center fisico, reti, virtualizzazione, backup, disaster recovery, ma anche architetture cloud-native, automazione, IaC (Infrastructure as Code) e DevOps.
Parallelamente alla transizione verso il cloud, si osserva un cambio di paradigma nella fruizione di software, dati e tecnologie.
La proprietà di beni sta cedendo il posto a un modello di consumo basato su servizi in abbonamento (SaaS, PaaS, IaaS, etc…), che offrono vantaggi di agilità e accesso continuo ma che ha introdotto nuove dinamiche:
In primis, una dipendenza economica e contrattuale. le aziende pagano un canone continuativo senza mai possedere realmente “il bene”. Questa dinamica può generare una sorta di “stanchezza da abbonamento“, che scritto così potrebbe sembrare una brutta sindrome metabolica, ma penso che chiunque, nel proprio piccolo, abbia sperimentato una sensazione simile con i vari abbonamenti di streaming, connessioni dati fissi e mobili o piattaforme AI. Ogni abbonamento a modo suo rappresenta una nuova superficie di attacco e quindi un potenziale rischio.
E infine c’è lui, il terrore di ogni PMI, che come hanno dimostrato i fatti del 20 ottobre può avere un fondo di verità, la perdita relativa di controllo. L’utente finale delega infrastruttura, aggiornamenti, e sicurezza al provider, aumentando il rischio di fallimenti o cambi di policy (questo insieme alla necessità di know-how, credo sia uno dei motivi principali che tiene le piccole-medie imprese italiane lontane dal settore).
Nonostante le innovazioni, il modello a abbonamento solleva dunque questioni su sostenibilità economica e autonomia decisionale. L’episodio AWS evidenzia che la comodità e la velocità del cloud si accompagnano a vulnerabilità sistemiche e rischi che l’utente deve imparare a gestire con strategie ponderate.
Affidarsi totalmente a sistemi remoti gestiti da provider esterni mette davanti al paradosso di potersi trovare da un momento all’altro e senza alcun preavviso completamente sprovvisti di qualsiasi strumenti lavorativi. Come se un pizzaiolo avesse la sua cucina super attrezzata piena di forni a legna e impastatrici professionali, e proprio mentre sta per infornare la prima pizza della serata, qualcuno gli dicesse: “Scusa, oggi niente forno, devi cuocerla su ferro da stiro!”
Considerazioni finali
Non esiste una ricetta che risolva tutti i problemi, di costi e scalabilità per i grossi gruppi che magari si affidano a Cloud esterni, o di proprietà e ridondanza fisica, occorre svolgere una valutazione critica delle proprie esigenze aziendali, il livello di controllo e sicurezza richiesto, la capacità organizzativa e finanziaria di sostenere infrastrutture interne e il grado di tolleranza al rischio di interruzioni di servizio.
Questo blackout AWS genera un momento di riflessione per l’intero settore IT. È stato dimostrato dimostrato come l’interdipendenza tra servizi cloud e mercato digitale possa generare rischi sistemici, mettendo in luce la necessità di bilanciare innovazione e affidabilità. Scegliere il cloud significa abbracciare un futuro dinamico e agile, ma non senza dover affrontare le nuove sfide di resilienza, sicurezza e gestione economica che il modello a servizi in abbonamento comporta.
La proprietà, intesa come controllo diretto su infrastrutture e dati, si sta ridefinendo, non più un possesso fisico, ma una responsabilità condivisa con fornitori che agiscono su scala globale.
Per le aziende è fondamentale sviluppare consapevolezza e competenze per navigare questo scenario in continua evoluzione, adottando strategie che non rinuncino a flessibilità senza perdere di vista la sicurezza e la continuità operativa.



