La sfida più grande per la maggior parte delle aziende oggi è nella capacità di acquisire un vantaggio competitivo lavorando sui dati. Tutte le aziende e tutte le Pubbliche Amministrazioni stanno diventando grandi “fabbriche di dati”. Noi stessi contribuiamo costantemente, consapevolmente e spesso anche inconsapevolmente, alla “produzione di dati”. “Big Data” vuol dire (letteralmente) “Grandi dati”, ovvero grandi quantità di dati, che presi insieme occupano molto spazio di archiviazione, nell’ordine dei Terabyte (unità di misura multipla del byte, corrispondente a 2 alla quarantesima byte, ovvero a 1.048.576 megabyte, il simbolo è TB). Una ricerca su Google, un nostro acquisto al supermercato, una foto, un messaggio vocale, un tweet. Tutti questi sono dati. La maggior parte delle nostre attività quotidiane, oggi, crea dei dati, che possono essere raccolti, analizzati e monetizzati.
Super computer e algoritmi ci permettono di analizzare la sempre crescente mole di dati generati ogni giorno. Le CPU dei computer potrebbero a breve arrivare alla potenza di calco del cervello umano. L’intelligenza artificiale potrebbe in poco tempo far sostituire ai robot molti dei lavori che facciamo oggi. Questo è possibile anche grazie alla enorme quantità di dati che oggi vengono generati, che possono essere facilmente analizzati dalle macchine, rivelando percorsi e connessioni tra le molte attività umane, oltre a creare dei profili dettagliati su di noi. Entra in gioco anche un discorso di privacy, che non è per niente banale. Il fenomeno dei “Big Data”, o meglio il fenomeno di immagazzinare, gestire e analizzare grandi quantità di dati non è in realtà un fenomeno recente, anzi è un fenomeno che fa parte della lunga storia dell’evoluzione del genere umano.
Alle basi dei Big Data e della Data Science
Per comprendere lo sviluppo dei Big Data occorre anche saper individuare i modelli di utilizzo degli Analytics nelle imprese e ancora una volta è necessaria una distinzione duale nelle tipologie di dati:
- dati strutturati
- dati destrutturati
Nel caso dei dati destrutturati si tratta poi tipicamente di
- testo
- immagini
- video
- audio
- elementi di calcolo
Richiamando ancora i dati dell’Osservatorio Big Data del Politecnico di Milano si vede che le imprese italiane nel 2016 hanno lavorato prevalentemente sui dati strutturati che rappresentano ancora l’83% dei volumi legati ai sistemi di Analytics. I dati destrutturati, con un +31% rispetto al 2015, crescono il doppio rispetto ai dati strutturati (15%).
Dato destrutturato vuol dire dato eterogeneo, che significa, banalizzando un po’, dati che rispecchiano la “eterogeneità” della realtà. In altre parole si sentono gli effetti dell’Internet of Things che si aggancia ai fenomeni già più consolidati del Mobile e dei Social Media. Maggiore aderenza alla realtà vuol anche dire inoltre maggiore possibilità di trasformare i dati in conoscenza reale. Per le aziende questo significa maggiori capacità di rappresentare la realtà e dunque maggiori opportunità di agire sulle leve che permettono di ottenere un risparmio, di attuare efficienze, di ottimizzare processi interni e di sviluppare nuovi prodotti e servizi.
Big Data e Data Science: i componenti
Prima di entrare nel merito delle figure che sono chiamate a lavorare in tutte quelle imprese che sono destinate a diventare “fabbriche di dati” è utile vedere il concetto stesso di Big Data e Data Science.
I temi di riferimento per inquadrare le opportunità e le caratteristiche del tema Analytics si focalizzano su alcuni ambiti:
- Big Data
- Data Science
- Business Intelligence
- Real Time Analytics
- Data Analytics
- Data Mining
- … in aggiornamento costante
Letteralmente con Big Data si vuole descrivere la capacità di sviluppare attività di calcolo e di intelligenza su grandissimi volumi di dati e di sviluppare più forme di lettura, di interpretazione e di conoscenza, sia quelle più contingenti, finalizzate a un utilizzo specifico e perimetrato (come ad esempio possono essere i dati relativi ai pagamenti digitali dei flussi di cassa di un supermercato), sia poi l’analisi di tutti i fenomeni che si possono individuare, leggere e schematizzare attraverso una lettura più “alta”, sempre di grandissimi volumi di dati (come ad esempio i riflessi a livello di customer experience legati alla introduzione di un nuovo sistema di pagamento digitale tanto a livello del singolo supermercato quanto a livello di area o di catena. O ancora, per fare un altro esempio, nella identificazione delle relazioni che questo tipo di servizi di payment ha saputo sviluppare in termini di percezione del brand nei social o in termini di maggiore utilizzo del proprio smartphone nel punto vendita).