Introduzione
I dati nelle aziende costituiscono la base per le decisioni a livello operativo e strategico. Dati di scarsa qualità possono quindi avere impatti significativamente negativi sull’efficienza di un’organizzazione, mentre dati di alta qualità sono spesso cruciali per il successo di un’azienda.
Diverse indagini di esperti del settore, tuttavia, indicano che la qualità dei dati è un’area a cui molte aziende sembrano non prestare sufficiente attenzione o trattare in modo efficiente.
In letteratura i dati vengono classificati in tre categorie:
- dati anagrafici
- dati transazionali
- dati storici o audit log
I dati anagrafici sono definiti come le caratteristiche di base delle entità aziendali, ovvero clienti, prodotti, dipendenti, fornitori, ecc. Pertanto, in genere, i dati anagrafici vengono creati una volta, utilizzati molte volte e non cambiano frequentemente.
I dati delle transazioni descrivono gli eventi rilevanti in un’azienda, ad es. ordini, fatture, pagamenti, consegne, registrazioni di magazzino ecc. Poiché le transazioni sono basate su dati anagrafici, dati errati possono avere costi significativi: ad es. un articolo con un prezzo errato può implicare una perdita di denaro, una giacenza non aggiornata può portare all’insoddisfazione del cliente, e così via.
Gli audit log archiviano le operazioni svolte nel sistema e permettono di ricostruire la catena degli eventi.
Gran parte della letteratura accademica afferma che i dati aziendali di scarsa qualità costituiscono un fattore di costo significativo per le aziende, il che è supportato dai risultati di diverse indagini di esperti industriali (Marsh, 2005).
Le aziende, in genere, sostengono costi da due lati quando si parla di qualità dei dati anagrafici:
- in primo luogo, sostengono costi per la pulizia e la garanzia di un’elevata qualità del dato;
- in secondo luogo, sostengono costi anche per i dati di scarsa qualità poiché potrebbero portare a un processo decisionale manageriale errato.
Qualità dei dati
La qualità dei dati è spesso definita come “idoneità all’uso”’, ovvero una valutazione della misura in cui questi servono agli scopi dell’utente. Una definizione spesso citata è fornita da Ballou e Pazer (1985), i quali dividono la qualità dei dati in quattro dimensioni: accuratezza, tempestività, completezza e coerenza. La dimensione dell’accuratezza è la più facile da valutare in quanto si tratta semplicemente di analizzare la differenza tra il valore corretto e il valore effettivo utilizzato (ad es. codice fiscale errato vs codice fiscale corretto). La valutazione della tempestività e completezza può essere effettuata in modo analogo e non problematico. D’altra parte, la valutazione della consistenza è più complessa, poiché richiede due o più schemi di rappresentazione per poter fare un confronto.
Impatto dei dati di scarsa qualità
Lo sviluppo della tecnologia dell’informazione negli ultimi decenni ha consentito alle organizzazioni di raccogliere e archiviare enormi quantità di dati. Tuttavia, all’aumentare dei volumi di dati, aumenta anche la complessità della loro gestione.
Un altro problema correlato ai dati è che le aziende spesso gestiscono i dati a livello locale (ad esempio, dipartimento o posizione). Ciò implica la creazione di “silos di informazioni” in cui i dati vengono archiviati, gestiti ed elaborati in modo ridondante. Questo è particolarmente vero nei gestionali per ottici in commercio che lavorano con archivi locali. La frammentazione del dato e la sua duplicazione (ad esempio in sedi differenti) crea difficoltà di analisi, problemi e, in definitiva, costi aggiuntivi.
La scarsa qualità dei dati può implicare una moltitudine di conseguenze negative in un’azienda (Ballou et al., 2004; Wang & Strong, 1996):
- minore soddisfazione del cliente;
- aumento dei costi di gestione;
- processi decisionali inefficienti;
- prestazioni inferiori e minore soddisfazione sul lavoro dei dipendenti (Kahn et al., 2003; Leo et al., 2002; Redman, 1998).
La scarsa qualità dei dati aumenta anche i costi operativi poiché vengono spesi tempo e altre risorse per rilevare e correggere gli errori.
Poiché i dati vengono creati e utilizzati in tutte le operazioni quotidiane, sono input fondamentali per quasi tutte le decisioni e danno un contributo significativo alla cultura organizzativa. Scarsa qualità dei dati significa anche avere meno fiducia in qualsiasi iniziativa basata su di essi (campagne di marketing, analisi statistiche, etc).
Secondo Redman (1998), i tassi di errore misurati sul campo si attestano tra 0,5-30% e possono portare a consumare tra il 40 e il 60% della spesa per la gestione dei servizi.
Un altro studio interessante, Häkkinen e Hilmola (2008), sostiene che inesattezze marginali dei dati (1-5%) possono essere molto significative, non tanto nella fase di produzione, quanto più in termini di vendite perse ed interruzioni operative nella fase post-vendita.
Sforzo di manutenzione dei dati e costi causati da dati di scarsa qualità
Sulla base di una revisione della letteratura, Eppler e Helfert identificano 23 esempi di costi derivanti da dati di scarsa qualità, che tra gli altri sono: costi di manutenzione più elevati, costi di manodopera in eccesso, costi di valutazione, costi di reinserimento dei dati, perdita di entrate, costi di perdita di clienti, maggiori costi di incasso, maggiori costi di amministrazione dei dati, costi di fallimento del processo, scarto di informazioni e costi di rilavorazione, costi dovuti a tempi di consegna maggiori.
Raman raccomanda due passaggi per migliorare la qualità dei dati, che possono riassumersi in:
- le aziende dovrebbero fare un uso maggiore dei dati che hanno archiviato;
- le aziende inizino a misurare la qualità dei dati per quanto possibile.
E nel centro ottico?
Optix non solo ti permette di misurare la qualità dei dati che inserisci, ma ti aiuta nell’inserimento di dati di qualità fin da subito.
Quando inserisci le anagrafiche dei clienti, le schede optometriche, le LAC, vengono attivati centinaia di controlli e auto-completamenti che ti renderanno la vita più semplice.
Una delle sezioni che abbiamo visto essere più trascurata è l’anagrafica del clienti: errori di battitura, NOMI e cognomi scritti in modo non uniforme, codici fiscali errati, date di nascita non valide o in formati differenti, cap inesistenti, numeri di telefono ed indirizzi email mancanti.
Optix può davvero fare la differenza indicandoti, azione dopo azione, cosa dovresti fare per raggiungere un punteggio sufficiente e soprattutto evitando a monte quegli errori dovuti alla distrazione o alla mancanza di attenzione e tempo.
Siamo ritornati a scuola? 😅 Forse sì, ma solo per far aumentare il valore dei dati che inserisci.
Dati di alta qualità ti permettono di:
- creare campagne di marketing efficaci;
- mantenere un’alta fidelizzazione dei clienti;
- evitare errori durante produzione e vendita;
- anticipare le esigenze del cliente;
- aumentare il valore della tua attività.
Anche in organizzazioni con molte sedi, Optix si rivela il miglior alleato per monitorare e perfezionare l’operato dei dipendenti.
I grafici con il punteggio danno un’immediata comprensione della validità dei dati inseriti e incentivano l’operatore a correggere subito le anomalie evidenziate.
Inoltre, in ogni momento, il management può monitorare il livello dei dipendenti verificando la bontà dei dati inseriti. 🧐
Definizione dello sforzo ottimale di manutenzione dei dati
In primo luogo, durante la manutenzione dei dati ci si concentra sui dati più critici (cioè quelli con il maggior payoff per risorse spese) prima di passare a quelli meno critici. Ciò implica che il primo lavoro per garantire la qualità dei dati avrebbe l’effetto maggiore, ovvero i costi inflitti da dati di scarsa qualità diminuiscono in modo esponenziale. Pertanto, i costi per garantire la qualità dei dati sono una relazione lineare tra qualità dei dati e costi per garantirne la qualità.
Ciò che si può dedurre dalla figura 1 è che il collegamento tra i costi inflitti da dati di scarsa qualità e i costi per garantire un’elevata qualità dei dati è un compromesso: si accetta la perdita di qualità in cambio della riduzione dei costi per la loro gestione. La tesi centrale qui è che pulire ampiamente i dati, garantendo così un’elevata qualità dei dati, ad un certo punto diventa meno redditizio (come evidenziato dalla linea tratteggiata).
Sebbene la Figura 1 sembri fornire una prospettiva molto logica sulla stima degli sforzi ottimali per il mantenimento della qualità dei dati, c’è ancora molta strada da fare. Per applicare il dato su un’area di un’azienda è necessario valutare le due tipologie di costi, ovvero i costi di mantenimento dei dati e i costi inflitti da dati di scarsa qualità. Il primo (i costi per garantire la qualità dei dati) è relativamente facile da valutare, poiché si tratta semplicemente di registrare le risorse utilizzate in questo lavoro, ovvero le ore interne spese, gli onorari dei consulenti, il software, ecc. D’altra parte, stimare i costi inflitti da dati di scarsa qualità è molto più difficile a causa dei molti effetti indiretti e intangibili ad essi associati.
Conclusioni
Come abbiamo visto, la qualità dei dati è molto importante per la tua attività. L’obiettivo non è quello di ottenere dati perfetti, ma un livello in cui i costi di gestione del dato non superino il risparmio ottenuto.
Optix ti aiuta in questo processo, rendendo semplice, predicibile e automatico l’inserimento di dati di qualità.
Non sei ancora registrato? Se anche tu pensi che la qualità dei dati sia importante, prova Optix gratuitamente registrandoti subito!