La quête de l’excellence opérationnelle des entreprises se heurte à la mauvaise qualité des données qu’elles utilisent au quotidien. C’est ce que révèle la dernière étude signée Revefi, acteur majeur de la Data.
Des incidents de données fréquents et coûteux
Dans le contexte de l’étude, la donnée non pertinente est une donnée inutile, incomplète, non fiable ou obsolète… et son impact sur la compétitivité des entreprises est majeur, comme l’explique Revefi :
- Incidents de données : 40 % des spécialistes IT sondés sont confrontés à 11 à 100 incidents de données chaque mois ;
- Blocage opérationnel : 65 % des sondés rapportent que les données erronées entravent les processus opérationnels ;
- Gestion des coûts : la maîtrise des coûts associés aux entrepôts de données (ou data warehouses) constitue un enjeu majeur pour 75 % des professionnels interrogés.
Le temps alloué à la gestion de ces incidents est tout aussi inquiétant. Pour 25 % des répondants, l’identification de la majorité des incidents de données peut prendre jusqu’à huit heures. Aussi, 10 % estiment que cette détection peut s’étirer sur plusieurs jours, voire dépasser la semaine. Suite à la détection, 43 % des professionnels signalent qu’une période de plus de 48 heures est nécessaire pour tout remettre en ordre.
Des conséquences sur la prise de décision
Près de 58 % des professionnels IT estiment que la Data Cleanliness (exactitude, cohérence, élimination des doublons, etc.) reste leur principal défi, et plus d’un sondé sur deux (57 %) est régulièrement confronté à une problématique de qualité des données.
Les conséquences sont importantes :
- 57 % affirment que la Data de mauvaise qualité conduit à de mauvaises décisions ;
- 56 % estiment qu’elle réduit la précision des modèles IA ;
- 40 % pensent qu’elle diminue la confiance des clients.