Logo Zéphyrnet

L'ADN d'une organisation de transformation réussie (Partie 5)

Date :

Remplacer Anecdata par Real Insights

Le mathématicien, physicien et ingénieur irlandais Lord Kelvin nous a laissé de nombreuses inventions scientifiques et ces mots de sagesse saisissants : « Ce qui n'est pas défini ne peut être mesuré. Ce qui n'est pas mesuré ne peut pas être amélioré. Ce qui n'est pas amélioré est toujours dégradé.

Dans les quatre épisodes précédents, nous avons plaidé en faveur d'une transformation réussie non pas comme un changement linéaire et ponctuel, mais comme des efforts cycliques qui offrent une valeur incrémentielle et mesurable et sont suffisamment agiles pour s'adapter aux conditions changeantes. Dans le dernier volet, nous examinons comment une approche structurée et intentionnelle des données, des rapports et de la prise de décision empirique peut être utilisée pour aligner les réalités organisationnelles sur les impératifs stratégiques et piloter le programme de transformation.

De nombreuses institutions financières ont formalisé une infrastructure de planification stratégique et de définition d'objectifs, un budget, des processus de planification des investissements et des cadres de livraison agiles. Mais ils peuvent encore souffrir d'insuffisances dans ces processus, et manquer d'un pilier commun qui les rassemble.

Ce pilier mesure la santé de l'organisation en utilisant des données concrètes avec le moins de retard possible. Malgré une compréhension généralisée de l'importance des données pour la stratégie d'une organisation, il existe généralement deux manières de collecter les informations nécessaires à la prise de décision :

  • Anecdonnées. Les organisations sont souvent guidées par les pressions générées par les clients ou les parties prenantes internes. Alors que le service client est un objectif admirable, une approche désorganisée ou fragmentée sur qui servir en premier peut souvent entraîner des perturbations. Ces organisations finissent par donner la priorité aux voix les plus fortes dans la salle plutôt qu'aux plus nécessiteuses. Les initiatives sont entreprises avec des objectifs mal définis et des retours sur investissement mal compris. Une fois terminé, la victoire est revendiquée sur la base de l'exécution réussie des jalons ou des péages de gestion de projet, par opposition à une évaluation objective des résultats commerciaux et des données de performance.
  • Données ad hoc. Dans les services financiers, il est courant de demander aux gestionnaires de préparer rapidement des présentations sur le dernier problème ou le sujet d'actualité. Mais il y a des problèmes potentiels à venir. En s'appuyant sur des données « ponctuelles » recueillies à la hâte, ces présentations ne reconnaissent pas les impacts négatifs que des données incomplètes ou hors contexte peuvent avoir sur la prise de décision et la planification stratégique. Ce type de données se présente généralement sous l'une des deux formes suivantes :
  1. Extraits de données de production fournis par les équipes d'application pour montrer l'état actuel d'un système, d'un produit ou d'un parcours utilisateur spécifique. Ce type de données comporte son propre ensemble de risques et de lacunes, notamment le manque de contexte commercial dans lequel les données doivent être prises en compte, la taille et les caractéristiques d'échantillonnage de l'ensemble de données en question, l'obscurcissement des données source et la latence. Celles-ci entraînent une confusion et une distraction importantes lors de l'identification et de la collecte du bon ensemble de données.
  2. Données d'incident ou de problème provenant des équipes de support de production représentant un instantané historique des événements répondant à certains critères opérationnels. Ces informations sont souvent entachées d'un manque d'exhaustivité, ainsi que du risque d'embellissement par des biais de survie et de confirmation. Les enregistrements indiquent où le temps et les ressources ont été investis pour résoudre les problèmes de production, mais masquent souvent la cause profonde.

Ces deux approches conduisent à une utilisation inefficace des ressources pour court-circuiter une approche de surveillance et de mesure plus robuste. Plus préoccupant encore, le niveau d'intervention humaine requis se prête à la distorsion des données, soit en raison d'une différence dans la définition des points de données clés, soit en raison d'un malaise avec le message principal fourni par les données.

Dans les deux cas, la quantité de travail nécessaire pour tirer des informations significatives des données et les risques associés à une mauvaise interprétation en font une proposition sans grande valeur pour les institutions financières qui cherchent à être des leaders de l'innovation. Intrinsèquement orientée vers la récompense, cette approche oblige l'organisation à diriger la voiture en ne regardant que dans le rétroviseur.

Une idée fausse courante sur la résolution de ce problème de manque de données structurées consiste à trop se fier à des outils spécifiques tels que Tableau ou Microsoft Power BI. En réalité, les problèmes sont bien plus profonds qu'un simple manque d'outils d'analyse ou de visualisation ; ils s'étendent depuis les toutes premières étapes du processus de planification stratégique, jusqu'à la livraison et jusqu'aux activités habituelles.

D'après notre expérience, les organisations qui réussissent développent des niveaux élevés de compétence dans les domaines suivants pour créer des capacités de surveillance et de mesure fiables :

1. Mesurer ce qui compte. Les conditions du marché, les attentes des clients, les technologies émergentes, les perturbations concurrentielles et les changements réglementaires créent un paysage opérationnel en constante évolution pour les institutions financières. Il est essentiel de comprendre les objectifs prospectifs et les indicateurs de performance clés pour aider à valider la prise de décision et permettre une planification commerciale plus adaptative.

Cela signifie exiger plus qu'une simple prévision de revenus ou de réduction des coûts sur cinq ans avant d'approuver une nouvelle initiative. Cela signifie créer une connectivité de haut en bas entre les objectifs stratégiques de l'organisation et le travail des équipes de livraison et opérationnelles. Ce cadre établit le cœur même de la capacité de surveillance et de mesure d'une institution financière et ne peut être contourné.   

 2. Ingénierie et analyse des données. Avant de créer des tableaux de bord, les bases doivent être posées pour s'assurer que toutes les sources de données sont identifiées et que les points de données permettant de dériver des mesures commerciales pertinentes sont catalogués. Il est également extrêmement important pour toutes les parties prenantes de comprendre à quoi les données seront utilisées et comment elles contribuent à générer les métriques dont elles ont besoin. Par exemple : le délai de confirmation correspond-il au temps nécessaire pour confirmer une transaction à partir du moment de la réservation ou à partir du moment où elle entre dans la pile de confirmation ? Cette identification permet d'éviter toute confusion et de réduire les retouches. Ce processus se construit progressivement à partir du cadre établi ci-dessus et représente les modèles de données physiques et l'infrastructure nécessaires pour surveiller et justifier l'objectif stratégique de l'organisation.

3. Gouvernance des données. Tous les ensembles de données doivent être conformes aux politiques de données organisationnelles. Bien que ceux-ci varient considérablement en fonction du modèle commercial, de la clientèle et des ensembles de produits, les principes clés d'une gouvernance efficace des données sont cohérents et commencent toujours par le besoin commercial au premier plan. Les questions à considérer incluent :

  • Disponibilité des données. À quelle granularité et fréquence les données sont-elles nécessaires pour soutenir les objectifs de mesure et de surveillance de l'entreprise ? Bien que les tableaux de bord fonctionnent mieux sur des données de haut niveau en raison d'exigences de performances, les données agrégées ne se prêtent pas à l'analyse des causes profondes car les transactions individuelles ne peuvent pas être identifiées. Cela signifie qu'une architecture qui répond le mieux aux besoins de chaque organisation doit être sélectionnée et conçue intentionnellement. Il faut être prudent lors de la définition de la fréquence d'actualisation des données. Les KRI sont généralement en temps réel ou mis à jour quotidiennement, tandis que les KPI peuvent être actualisés à une cadence plus lente. Une fréquence plus rapide n'est souvent pas nécessairement meilleure lorsqu'elle est équilibrée par rapport aux coûts d'infrastructure et aux considérations de performance.
  • Intégrité des données. À qui appartient une source de données spécifique et où ces données vivront-elles dans l'infrastructure de données de l'organisation ?  La prise de décision stratégique est érodée lorsqu'une organisation ne peut pas garantir aux consommateurs qu'ils accèdent aux bonnes données provenant des bonnes sources. Des anti-modèles peuvent se former lorsqu'une organisation crée de manière organique des capacités de données et d'analyse uniques dans tous les secteurs d'activité, chacun avec des méthodes uniques pour l'approvisionnement et le stockage des données. Une propriété et une responsabilité claires pour les données, combinées à des rôles et responsabilités définis de manière centralisée, sont des facteurs de succès essentiels. 
  • Sécurité des données. Que peut faire une organisation pour s'assurer que les règles de confidentialité et de sécurité des données sont en place et largement respectées ? La création d'un modèle de gouvernance des données qui garantit que les informations commerciales sensibles ne sont accessibles qu'aux personnes ayant le besoin opérationnel de savoir peut parfois être contre-productive, érigeant des barrières inutiles. Les organisations de transformation qui réussissent reconnaissent ce défi et centralisent de nombreuses fonctions de collecte, d'obscurcissement et de visualisation des données. Ceci est essentiel, en particulier lorsqu'il s'agit de données au niveau des transactions qui fournissent des informations sur l'activité financière des clients et des informations personnellement identifiables.

 4. Culture de l'intelligence économique. Il s'agit de l'élément de la science des données orienté utilisateur et qui retient généralement le plus l'attention. La promotion d'une culture où les utilisateurs utilisent activement des informations auparavant inaccessibles ouvre un monde de possibilités pour analyser et améliorer les performances organisationnelles. Malheureusement, la plupart de ces outils ne sont pas utilisés comme prévu, mais plutôt après coup, pour analyser les problèmes. Il est impératif pour les organisations de pousser l'utilisation des outils d'analyse en tant qu'outils proactifs de gestion des performances pouvant être utilisés pour anticiper les tendances.

La clé est d'identifier différents cas d'utilisation et de créer plusieurs couches d'analyse pour différentes bases d'utilisateurs. En règle générale, les cadres intermédiaires ont besoin de plus de détails sur un éventail de fonctions plus restreint, tandis que les cadres supérieurs ont besoin de mesures de niveau supérieur dans l'ensemble de l'entreprise. L'alignement des données, des KPI, de la visualisation et de la conception organisationnelle est ce qui crée une culture de prise de décision et d'agilité basées sur les données.

En conclusion, une fois que ces capacités sont disponibles dans toute l'organisation, elles sont payantes de plusieurs façons. Les équipes de direction peuvent identifier les domaines de leur entreprise les mieux adaptés ou les plus nécessitant une transformation. Les équipes de transformation peuvent suivre les résultats de leurs efforts en temps quasi réel. Et les deux extrémités du spectre peuvent être liées de manière transparente par un cadre OKR bien pensé. 

En fin de compte, une approche progressive de la surveillance et de la mesure - permettant un modèle commercial agile et axé sur les données - est ce qui distingue bon nombre des organisations de transformation les plus performantes. Ils utilisent leurs données et une culture d'agilité pour prendre les meilleures décisions pour ce qui les attend dans l'environnement commercial ultra-concurrentiel et en évolution rapide d'aujourd'hui.

spot_img

Dernières informations

spot_img