Zephyrnet Logosu

Kötü Verilerin Etkisini Anlamak – DATAVERSITY

Tarih:

Düşük veri kalitesinin maliyetini biliyor musunuz? Aşağıda veri gözlemlenebilirliğinin önemini, kötü veri risklerini nasıl azaltabileceğini ve yatırım getirisini ölçmenin yollarını araştırıyorum. Kuruluşlar, kötü verilerin etkisini anlayarak ve etkili stratejiler uygulayarak, veri kalitesi girişimlerinin faydalarını en üst düzeye çıkarabilir. 

Veriler, modern karar alma sürecinin ayrılmaz bir parçası haline geldi ve bu nedenle, iş paydaşlarının doğru sonuçlara varmasını sağlamak için veri kalitesi son derece önemlidir. 

Ancak her modern veri liderinin size söyleyeceği şey şu: Veri kalitesi yönetimi zordur. Zaman ve çaba gerektirir. Ayrıca ROI'yi (yatırım getirisi) ölçmek genellikle zordur. 

Kötü Veri Ne Kadar Kötü?

Kötü veriler önemli mali kayıplara yol açabilir. Gartner, zayıf veri kalitesinin kuruluşlara her yıl ortalama $ 12.9 milyon. 2022'da, Unity Yazılımı 110 milyon dolar gelir ve 4.2 milyar dolar piyasa değeri kaybı bildirdi. Şirket, "Büyük bir müşteriden kötü veri almanın sonuçları" dedi. Benzer şekilde, kötü veriler de Equifaxhalka açık bir kredi raporlama kurumu olan kredi verenlere hatalı kredi puanları göndermek için milyonlarca Müşterilerin. Yakın zamanda meydana gelen bir veri olayı, İngiltere ve İrlanda hava trafiğinde büyük aksamalara neden oldu. 2,000'den fazla uçuşun iptal edilmesi nedeniyle yüz binlerce yolcunun mahsur kaldığı bildirilirken, havayollarının birikmiş mali kaybının 126.5 milyon dolar olduğu tahmin ediliyor.

Kötü Verilerin Etkileri 

Veriler her modern işletmenin kalbinde yer alır. Veri ekibinin temel sorumluluğu, müşterilere dahili ve harici olarak sunulan veri ürünlerini oluşturmak ve sürdürmek, aynı zamanda kuruluşun ölçeklenmesine ve hedeflerine ulaşmasına olanak sağlamaktır. 

Kuruluşun veri girişimlerinin başarıya hazır olmasını sağlamak söz konusu olduğunda, bir veri ekibinden bazı temel beklentiler şu şekilde özetlenebilir:

  • Çalışma Zamanı: Veri bir hizmettir ve bu nedenle ihtiyaç duyulduğunda kullanılabilir olmasını sağlamak çok önemlidir.
  • Güvenlik: Düzenlemelere uygunluk (GDPR veya HIPAA gibi). Ekip, hassas bilgilerin korunması ve veri gizliliğinin sürdürülmesine yönelik tedbirlerin ve uygulamaların uygulanmasından sorumludur.
  • Güvenilirlik: Hem verilerden hem de veri platformundan. Bunun bir kısmı çalışma süresinin yanı sıra geleneksel anlamda veri kalitesi ve doğruluğunu da kapsar. 
  • ölçek: Veri platformu, artan veri hacimlerine, kullanım senaryolarının sayısına ve iş ihtiyaçlarına uyum sağlayacak şekilde ölçeklenebilirliğe izin vermelidir.
  • yenilik: Veriler yeniliği teşvik etmelidir ve bu, veri ekibinin veri uygulamalarına ve dışına yenilik getirerek örnek olarak liderlik etmesinin önemli olduğu bir alandır. 

Veri Gözlemlenebilirliği Yoluyla Veri Kalitesine Ulaşmak

Veri gözlemlenebilirliği, yaşam döngüsü boyunca verilerin durumunu proaktif olarak izlemeye ve korumaya yönelik bir çözümdür. Kuruluşlar, günlüğe kaydetme, izleme ve izleme tekniklerini uygulayarak veri akışlarına ilişkin görünürlük elde eder, veri kalitesi sorunlarını hızlı bir şekilde tanımlayıp giderir ve analitik kontrol panellerinde kesintileri önler. Veri okuryazarlığıVerilerin kaynaklanması, yorumlanması ve iletilmesini içeren bu süreç, karar vericilerin verileri etkili bir şekilde iş değerine dönüştürmeleri için çok önemlidir. Veriye dayalı bir kültürün geliştirilmesi ve doğru araçlara yatırım yapılması, veri gözlemlenebilirliği yoluyla veri kalitesine ulaşma yolunda önemli adımlardır. 

Veri Gözlemlenebilirliğinin Yatırım Getirisinin Ölçülmesi

Veri gözlemlenebilirliğinin yatırım getirisini ölçmek, iş liderlerinin bu uygulamaya yatırım yapmanın değerini ve faydalarını anlamalarına yardımcı olur. Birkaç ölçülebilir ölçüm, kötü verilerin maliyetini değerlendirmek için bir başlangıç ​​noktası olarak hizmet edebilir; bunlar arasında meydana gelme oranı veya yıllık olay sayısı, tespit süresi ve çözüm süresi de yer alır.

Etkisi veri kalitesi sorunları iş operasyonlarının büyüklüğüne ve karmaşıklığına bağlı olarak değişebilir. Hasarı değerlendirmek ve bir veri gözlemlenebilirlik çözümü için güçlü bir vaka oluşturmak amacıyla, veri uygulayıcılarının kolayca uygulayabileceği ve izleyebileceği ve bir vakayı dahili olarak desteklemek için kullanılabilecek beş temel ölçüm öneriyoruz:

  1. Olayların sayısı ve sıklığı: Bazı şirketler günlük olarak veri olayları yaşayabilirken, diğerleri haftalarca olmasa da günlerce bir olay olmadan geçebilir. Olayların kritikliği, uzun süredir kimsenin kullanmadığı bir kontrol paneline bağlı eski veriler gibi "küçük" bir şeyden, sunucunun aşırı şarj olmasına ve sonunda kapanmasına neden olan bir veri çoğaltma sorununa kadar değişebilir (gerçek hikaye, Netflix 2016). Bunun çoğunlukla şunlarla bağlantılı olduğunu görüyoruz: veri platformunun boyutu ve karmaşıklığı, şirketin sektörü (bazı sektörler doğası gereği diğerlerinden daha fazla veri olgunluğuna sahiptir), veri mimarisi türü (merkezi, merkezi olmayan, hibrit) vb. Olayların belgelenmesi, Bir dahaki sefere nelere bakılacağına dair daha iyi bir fikir, tekrarlanan olaylar genellikle altta yatan bir şeyin daha yakından ilgilenilmesi gerektiğinin iyi bir göstergesidir.  
  2. Olay sınıflandırması: Veri olaylarının tümü aynı önem derecesine sahip değildir; bazıları önemsiz olabilir ve kolayca hafifletilebilir, bazıları ise ciddi sonuçlara yol açabilir. Olayların kritikliğinin belgelenmesi, uygun şekilde üst kademeye iletilmesini ve önceliklendirilmesini sağlamak için önemlidir. Kritikliğin daha iyi anlaşılması için olayın aşağı yöndeki etkisinin değerlendirilmesine olanak tanıdığı için veri kökeninin faydalı olabileceği nokta burasıdır. CEO'nun favori kontrol paneline, üretim veritabanına veya önemli bir veri ürününe bağlı bir olayın yüksek kritikliğe sahip olması muhtemeldir. 
  3. Ortalama tespit süresi (MTTD): Verilere ve veri ekibine güven oluşturmak söz konusu olduğunda, her veri uygulayıcısının kabusu, veri kalitesi sorunlarını ilk tespit edenlerin iş paydaşları olmasıdır. Ekibin güvenilirliğine ve şirketin gerçekten veri odaklı olma becerisine gerçekten zarar verebilir. Olayları belgelemeye ve kritiklik düzeylerini sınıflandırmaya başladığınızda, bunların nasıl tespit edildiğini ve veri ekibinin bunları onaylaması için geçen süreyi de takip etmek önemlidir. Bu ölçüm, olay yönetiminizin sağlamlığının iyi bir göstergesi olabilir, ancak aynı zamanda bunu azaltmak, olayın daha fazla hasara neden olabileceği riskini de azaltacağınız anlamına gelir. 
  4. Çözüme kadar geçen ortalama süre (MTTR): Bir olay bildirildiğinde ne olur? MTTR, bir veri olayının farkına varılması ile bu olayın çözülmesi arasında geçen ortalama süredir. Çözüm süresi, olayın kritikliğinden ve veri platformunun karmaşıklığından büyük ölçüde etkilenmektedir; bu nedenle, bu çerçevenin amacı doğrultusunda ortalamayı dikkate alıyoruz.
  5. Ortalama üretim süresi (MTTP) yeni veri ürünlerinin gönderilmesi için geçen ortalama süredir veya başka bir deyişle veri ürünlerinin pazara sürülmesi için geçen ortalama süredir. Bu, bir analistin bir veri bilimi modeli için verileri "temizlemek" için harcadığı zaman olabilir. Aslında göre ForbesVeri hazırlama, veri bilimcilerin çalışmalarının yaklaşık %80'ini oluşturur. Verileri bir ürün olarak ele almak istediğimiz bir dünyada, veri kalitesinin iyileştirilmesi, pazara sunma süresinin kısaltılması üzerinde doğrudan bir etkiye sahip olabilir. 

Yukarıdaki ölçülebilir ölçümlere ek olarak, daha az ölçülebilir olan ancak aynı derecede önemli olan diğer ölçümler, kötü verilerin maliyetine bakarken dikkate alınmaya değerdir.

  • Güven erozyonu: Verilerde ve veri ekibi. Bana göre bu, kötü verilerin en tehlikeli sonucudur; bu, veri ekibinde personel değişimi veya şirketin veri odaklı olma ve gelişen dijital ortama ayak uydurma becerisine olan güvenin kaybolması gibi daha büyük sorunlara yol açabilir. Ve güven bir kez kırıldı mı, onu yeniden kazanmak çok zordur. Önceki bir deneyimimde, verileri kullanmak istemeyen ve çok değişken bir hisse senedi alım satım ortamında, hatalı olma ihtimalinin yüksek olduğunu bilerek kullanmak yerine "deneyime" ve "içgüdüsel hislere" güvenmeyi tercih eden veri tüketicileri üzerinde çalışmıştım. . 
  • Verimlilik kaybı: Kötü verilerle ekipler ortaya çıktıkça müdahale etmek ve hataları düzeltmek zorunda kalıyor. Bu sürekli yangınla mücadele sadece yorucu değil, aynı zamanda verimsizdir. Stratejik planlama ve büyüme girişimlerine harcanabilecek değerli zaman, sorun gidermede israf ediliyor ve kaynaklar daha kritik görevlerden uzaklaştırılıyor.
  • Mevzuat ve itibar riski: Mali raporlamadaki hatalar veya kişisel verilerin yanlış kullanılması, yüksek maliyetli para cezalarına ve hukuki mücadelelere yol açabilir. Uyumluluk sorunlarıyla uğraşmak, getirdikleri mali yükün yanı sıra üretkenlik üzerinde de önemli bir yük oluşturur.
  • Kötü iş performansı: Kötü veriler, veri ekibindeki üretkenliği kaybetmenin yanı sıra, şirketin müşterilerinin önünde dijital hazırlık ve güvenilirlik konusunda zorluk yaşaması ve dış tehditlere karşı savunmasız hale gelmesi nedeniyle genel iş performansını da engelleyebilir. 

Veri kalitesi sorunları, verilere duyulan güvenin kaybı, ekip üretkenliğinin ve moralinin azalması, düzenlemelere uyumsuzluk ve karar alma kalitesinin düşmesi gibi çeşitli sorunlara yol açabilir. Departmanlar veya iş birimleri içindeki silolanmış veriler, kuruluşun veri ortamına ilişkin bütünsel bir görünüm elde etmeyi zorlaştırır. Bu, karar vermenin etkisiz olmasına yol açabilir, veri kültürünü engelleyebilir ve GDPR ve HIPAA gibi düzenlemelere uyumu tehlikeye atabilir. Dahası, veri ekipleri, veri sorunlarını gidermek için aşırı zaman harcayarak hayal kırıklığına uğrayabilir, bu da iş tatminlerini olumsuz yönde etkileyebilir ve potansiyel olarak çalışanların işten ayrılmasına yol açabilir. 

1x10x100 kuralı

Olay yönetiminde yaygın olarak kabul edilen bir prensip olan 1x10x100 kuralı, kötü veri kalitesiyle ilişkili artan maliyetleri vurgular. Bu kurala göre, veri kalitesi sorununu giriş noktasında ele almanın maliyeti orijinal maliyetin yaklaşık 1 katıdır. Sorun tespit edilmezse ve sistem içinde yayılırsa, düzeltme ve iyileştirme çalışmaları da dahil olmak üzere maliyet yaklaşık 10 katına çıkar. Bununla birlikte, zayıf veri kalitesi son kullanıcıya veya karar verme aşamasına ulaşırsa, operasyonel kesintiler, kaybedilen fırsatlar ve müşteri memnuniyetsizliği gibi önemli iş sonuçları nedeniyle maliyet, ilk masrafın 100 katına kadar şaşırtıcı bir şekilde fırlayabilir. Bu kural, kötü veri kalitesinin katlanarak artan etkisinin altını çizerek kuruluşların veri gözlemlenebilirliğine yatırım yapmasını hayati önem taşır; bu da sorunların ortaya çıkması durumunda kök nedene daha yakın tutulmasına yardımcı olur.

Sonuç

Veri kalitesi sorunları işletmeleri önemli ölçüde etkileyerek kaynakların israf edilmesine ve fırsatların kaçırılmasına yol açar. Kötü verilerle ilişkili riskleri önlemek ve azaltmak için veri gözlemlenebilirliğine yatırım yapmak çok önemlidir. Kuruluşlar, ölçülebilir metriklerden yararlanarak ve ölçülemeyen faktörleri göz önünde bulundurarak, veri gözlemlenebilirliğinin yatırım getirisini ölçebilir ve bunun değerini karar vericilere gösterebilir. Veri güvenini sağlamak, etkili alan adı karar almayı teşvik etmek, düzenlemelere uymak ve memnun bir veri ekibini teşvik etmek, veri kalitesi girişimlerinin faydalarını en üst düzeye çıkarmanın kritik yönleridir. Veri gözlemlenebilirliğini benimsemek, günümüzün veri odaklı dünyasında verilerin doğruluğunu, güvenilirliğini ve kullanımını koruyan stratejik bir yatırımdır. 

Zengin bir gözlemlenebilirlik uygulaması geliştiren kuruluşlar, iç içe geçmiş ortamlarında daha fazla görünürlüğe sahip olur; bu da daha az kesinti, daha hızlı sorun çözümü, uygulamalarının güvenilirliğine daha fazla güven ve sonuçta daha fazla gelir ve daha mutlu müşteriler anlamına gelir.

spot_img

En Son İstihbarat

spot_img