
Batterie a fine vita, sfida o opportunità?
Le batterie giunte a fine vita non sono necessariamente un rifiuto: possono aprire nuove opportunità di …
Dietro ogni applicazione digitale ci sono infrastrutture di dati che raccolgono, trasformano e rendono disponibili informazioni. Le architetture moderne, dai data lakehouse alle pipeline ELT, aprono nuove opportunità ma richiedono attenzione a costi e complessità. Proporzionalità, efficienza e sostenibilità diventano principi guida per sistemi davvero utili e durevoli.
Quando si parla di trasformazione digitale, l’attenzione tende a concentrarsi su tecnologie “spettacolari”: intelligenza artificiale, algoritmi predittivi, strumenti di automazione. Tuttavia, dietro queste innovazioni si cela una disciplina meno visibile ma assolutamente cruciale: l’ingegneria del dato o data engineering in inglese.
Un buon paragone è la rete elettrica o internet: nessuno le osserva direttamente, ma ci accorgiamo subito se smettono di funzionare. Allo stesso modo, senza ingegneria del dato non avremmo né analisi avanzate né sistemi di intelligenza artificiale basati sui dati.
Secondo IBM, l’ingegneria del dato è la pratica di progettare e costruire sistemi per l’aggregazione, lo stoccaggio e l’analisi di grandi quantità di dati. Questo lavoro è alla base sia dei processi decisionali sia dell’addestramento dei modelli di machine learning.
Le attività principali includono:
Per lungo tempo, il modello di riferimento è stato l’ETL, con architetture centralizzate come i data warehouse, dove i dati venivano caricati solo dopo essere stati puliti, aggregati, inseriti all’interno di una struttura ben definita e ottimizzati. Questa scelta garantiva potenza e velocità, ma introduceva anche rigidità e inefficienze: duplicazioni di dati, calcoli ripetuti e inutili, overhead di gestione.
Negli ultimi anni, lo scenario è cambiato. Oggi si preferisce il modello ELT (Extract-Load-Transform): i dati vengono estratti e salvati subito nel contenitore finale, per poi essere trasformati solo quando servono.
Questa evoluzione è direttamente collegata al passaggio dal data warehouse al data lakehouse:
📌 Nota: Non mancano però gli svantaggi. La maggiore flessibilità dei lakehouse può portare a complessità di gestione più elevate, a costi imprevisti per orchestrare i vari livelli e alla necessità di competenze tecniche avanzate.
Dietro ogni “cloud”, dove vengono ospitati e gestiti i dati, c’è un’infrastruttura fisica: i data center. Queste strutture sono diventate protagoniste anche per il loro impatto ambientale.
Il Environment, Social and Governance Report 2025 di Structure Research evidenzia dati significativi:
Questa crescita dei consumi e delle emissioni ha stimolato la ricerca di contromisure: soluzioni emergenti come i sistemi di raffreddamento a circuito chiuso o il recupero del calore dei data center per il riscaldamento urbano stanno diventando parte integrante delle strategie di sostenibilità del settore.
➡️ In sintesi, i dati mostrano una crescita costante di consumi ed emissioni, mitigata solo parzialmente dai progressi in efficienza e sostenibilità dei data center.
Un altro mito da ridimensionare riguarda i Big Data.
Secondo un’analisi dei dati pubblicati da Snowflake e Redshift:
👉 Questo significa che i “Big Data” riguardano una minoranza di utenti. Nella pratica quotidiana, la maggior parte delle organizzazioni lavora con volumi molto più contenuti. Non sorprende quindi che si parli sempre più di Small Data: dati più piccoli, ma più mirati e significativi.
Dall’analisi fatta emergono alcuni principi guida per il futuro dell’ingegneria del dato:
In definitiva, l’ingegneria del dato non deve più essere vista solo come un insieme di strumenti tecnici, ma come una disciplina che unisce precisione ingegneristica, sostenibilità ambientale ed efficienza economica.
🔍 Abbiamo davvero bisogno di un’infrastruttura “Big Data” o i nostri dati sono in realtà “Small”?
⚖️ L’architettura scelta è proporzionata al problema o rischiamo sovradimensionamento e costi superflui?
🌱 Sono state valutate le implicazioni ambientali (consumi energetici, uso di acqua, emissioni)?
⚡ Le pipeline sono ottimizzate per ridurre sprechi di calcolo e memoria?
🛠️ La soluzione è abbastanza agile e adattabile a futuri cambiamenti di scala?
💰 Abbiamo stimato i costi di overhead (es. servizi accesi h24 non necessari)?
👉 Rispondere a queste domande significa non solo avere sistemi più sostenibili e performanti, ma anche contenere i costi e ridurre rischi strategici.
Le batterie giunte a fine vita non sono necessariamente un rifiuto: possono aprire nuove opportunità di …
Il Machine Learning è sempre più diffuso in ambito aziendale e nella gestione di sistemi complessi come …