Una nuova idea di Business Intelligence

Forse non tutti sanno che il primo utilizzo della scrittura non fu per dare l’eternità a ispirati versi di poesia, ma per contabilizzare la compravendita di merci o animali domestici.

In pratica, se la pittura rupestre era una forma d’arte con profondi significati simbolici, la capacità di misurare le quantità e di rappresentarle su un supporto stabile prende forma quando da cacciatori e raccoglitori ci siamo trasformati in agricoltori ed allevatori, per cui abbiamo iniziato ad accumulare ricchezza ed abbiamo dovuto affrontare il problema di quantificarla per commerciarla.

L’aritmetica e la geometria nascono per analoghi motivi – motivi che sono validi ancora oggi – ma è solo da più o meno un secolo che abbiamo iniziato ad automatizzare su vasta scala la gestione delle informazioni.

Quantità e qualità

Dunque i dati e le aggregazioni di dati (informazioni) non sono altro che la rappresentazione quantitativamente esatta di qualcosa; anche il termine “digitale” ha un’origine che conferma quest’idea: deriva infatti da “dito” in latino – ad indicare che il più antico sistema di calcolo è la mano.

Tuttavia la realtà è più complessa di ciò che consideriamo computabile e molti fenomeni introducono tante e tali variabili che la loro rappresentazione sotto forma di semplici dati può essere oltre la portata dei nostri strumenti: non si tratta di dover prendere in considerazione numeri arbitrariamente grandi, quanto di correlare svariate misure per dare un senso a quello che stiamo analizzando, ovvero dedurne caratteristiche e significato in senso qualitativo.

Insomma: una cosa è contare quanti fulmini all’ora si scaricano in un temporale o a che velocità soffia il vento in un preciso momento, altra è descrivere un evento meteorologico includendo tutte le relazioni reciproche che intercorrono tra le miriadi di elementi che lo compongono ed, eventualmente, fare una previsione esatta.

Relazioni nascoste

I nostri sensi, basati su strumenti biologici di tipo analogico (cioè non numerico), riescono a destreggiarsi abbastanza bene con la complessità; pensiamo alla vista: con un semplice sguardo possiamo discriminare un’immagine in primo piano dallo sfondo, capire di cosa si tratta e – nel caso fosse un volto – comprendere a chi appartiene o stabilire se si tratta di qualcuno che non abbiamo mai visto.

Sembra una cosa ovvia, ma è solo da poco che questa capacità naturale è stata riprodotta artificialmente in modo affidabile ed efficiente attraverso complicati algoritmi. Non solo: esistono più approcci per mettere a punto una tale strategia di elaborazione, uno dei quali consiste nell’apprendimento, ovvero nella capacità di costruire dinamicamente modelli in base all’esperienza, cioè alla casistica esaminata.

Oltre l’evidenza

I dati, specie quando sono tanti e sono associati a fenomeni per loro natura complessi, hanno molto da dirci: si tratta di raccogliere informazioni omogenee tra loro e considerarle nel tempo, introducendo quindi un’ulteriore, fondamentale, variabile capace di restituirci l’evoluzione di un processo.

In pratica non facciamo che ripercorre gli stessi meccanismi analogici che abbiamo nella testa alla ricerca di indizi che rivelino proprietà nascoste di un insieme dinamico – proprietà la cui esistenza è in qualche modo associata ad un’aggregazione coerente di elementi.

Abbondanza di dati: confusione o conoscenza?

Se l’ingrediente fondamentale è un sistema capace di rivelare le correlazioni nello spazio e nel tempo, cosa che sanno fare benissimo anche gli organismi semplici con il loro sistema nervoso primitivo, allora non basta soltanto mettere a punto un algoritmo (che si tratti di forme elementari di intelligenza artificiale o di sistemi dotati di autoapprendimento) ma occorre anche raccogliere i dati all’origine senza interferire con i processi che li utilizzano e disporli su un supporto abbastanza veloce e capiente da gestirne le serie storiche – oltre ad avere a disposizione la potenza di calcolo sufficiente per elaborare il tutto in tempi ragionevoli.

È questo lo scoglio su cui si sono arenati molti progetti di business intelligence: se le variabili in gioco (essendo ragionevolmente poche) erano manipolabili in modi realisticamente fattibili, allora i risultati potevano non dire un gran che; se invece si cercava di affrontare la complessità, si rischiava di non riuscire a farlo in modo abbastanza efficiente da ricavarne qualcosa senza dover aspettare tempi tali da rendere praticamente inutile lo sforzo.

Le soluzioni tecnologiche

Finalmente, con l’avvento del cloud da cui pescare una vera infinità di dati (Big Data), la disponibilità di supporti di registrazione dei dati capienti e veloci (dischi a stato solido), l’introduzione di memorie di lavoro (RAM) raggruppate in cluster e capaci di raggiungere dimensioni dell’ordine dei Terabyte, connessioni in fibra e sofisticati algoritmi non solo capaci di fare previsioni ma anche di apprendere, è arrivato il momento in cui si può cominciare a fare sul serio con l’analisi dei dati.

I campi di applicazione sono tantissimi e riguardano settori come l’energia, la finanza, le aziende manifatturiere e persino il marketing. Cosa si può fare? Pianificare la produzione di corrente in funzione dell’andamento dei consumi, identificare l’offerta più adatta per un dato cliente e proporgliela (ovviamente nel rispetto delle normative sulla Privacy ed in particolare del nuovo GDPR emanato dalla Comunità Europea), ottimizzare i processi di fabbricazione minimizzando gli scarti, scoprire dove si possono risparmiare risorse, effettuare attività di manutenzione predittiva e molto altro.

In pratica siamo nelle condizioni di utilizzare i dati in modo pieno, ricavarne valore e mettere in pratica il concetto di azienda data-driven in cui ogni attività (non solo i processi decisionali) sono guidati in tempo reale dalle informazioni.

In sintesi

Da tempo si parla di Business Intelligence; oggi la tecnologia è matura per esaudire la promessa di riciclare i dati di business trasformandoli in conoscenza. Certo, le premesse sono assai diverse rispetto a soltanto un decennio fa (pensiamo all’in-memory computing).

Le conseguenze? Risultati in tempo quasi reale partendo dai Big Data.