Digital Transformation, Industry 4.0, Artificial Intelligence, Cyber Security sono solo alcuni dei principali mega trend che stanno impattando violentemente sulle nostre organizzazioni.

Ma siamo tutti consapevoli che le innovazioni non possono basarsi su dati di scarsa qualità ? Sappiamo quanti dati rimangono “dispersi” nella nostra azienda, non integrati con i processi, difficili da ritrovare ed aggiornare, spesso anche duplicati ?

Uno dei temi che prima o poi dovremo affrontare in azienda è quello della qualità del dato, una sfida complessa ma un valore vero per la nostra impresa.
Quando oggi parliamo di dati sappiamo che non ci riferiamo più solamente ai “master data”, clienti, fornitori o articoli ma anche ad una miriade di informazioni che siamo costretti a gestire per alimentare la nostra presenza sul mercato (marketing, listini di vendita, sito internet, social tanto per citarne alcuni) e le nostre infrastrutture interne (ERP, configuratori, CRM, ecc.).

Capita di non avere nemmeno la percezione della quantità di dati digitali che vengono preparati in azienda e raramente ci preoccupiamo di come gestirli al meglio.

Gli IT Manager più attenti si preoccupano dell’integrità dei dati, cioè dell’affidabilità delle informazioni in termini di validità fisica e logica basandosi su parametri quali l’accuratezza, la validità e la coerenza dei dati durante il loro ciclo di vita. Ma ciò non serve se non si è capaci in origine di assicurare la qualità dei dati.

Occuparsi della qualità dei dati significa garantire che le informazioni siano corrette per ogni singolo scopo che sia esso di vendita, di pianificazione, di decisione direzionale o di operations. E questo è molto più difficile. Qualcuno penserà che già da anni le aziende possono contare sull’integrità e sulla qualità dei loro dati: utilizzando un buon sistema ERP !

Ma spesso l’ERP non è sufficiente come strumento di gestione di tutti i dati aziendali, per questo sono nati sistemi CRM, BI, PDM/PLM, Configuratori commerciali, BIM, PIM, e chi più ne ha più ne metta !

Ecco allora che gli IT Manager approcciano sofisticate soluzioni, magari studiando architetture complesse basate sul concetto di disaccoppiamento dei sistemi operazionali dai sistemi di sintesi grazie all’introduzione di Staging Areas cioè di strati architetturali alimentati in modo controllato dai software aziendali.

Tali soluzioni risultano spesso solo parziali e non assolvono al problema di base che è quello del controllo della produzione e della propagazione dei dati.
Perseguire l’obiettivo della qualità dei dati significa porre attenzione a tutte le risorse e a tutti i processi aziendali in modo che il lavoro svolto da una risorsa aziendale sia l’inizio del lavoro che dovrà svolgere la risorsa successiva definita nel processo.

Per realizzare questo è necessaria una visione unica della base dati e la volontà forte di perseguire questo obiettivo. Coinvolgimento, consapevolezza e chiarezza verso tutti i collaboratori sui compiti da svolgere e sugli obiettivi da raggiungere sono le chiavi per ottenere ottimi risultati.

In questa attività possiamo anche valutare di adottare strumenti che ad esempio ci aiutino ad effettuare un’analisi di ri-mappatura dei processi (BPR), ma il punto chiave su cui lavorare restano a mio parere i collaboratori. Individuare persone che possano supervisionare tutti i flussi aziendali con il costante obiettivo di armonizzarli, perseguire la crescita delle competenze informatiche aziendali per la continua costruzione di connettori tra sistemi e processi.

Nel prossimo futuro i dati avranno un valore altissimo e potranno determinare il successo o il fallimento della nostra impresa. I Big Data diverranno il nuovo “oro nero” della nostra economia.

Tuttavia i dati saranno un prodotto davvero prezioso solo quando saranno di alta qualità.

Renato Paradisi
Senior Consultant & Team Manager