Indexel

Dossier décisionnel : comment ça marche ?

Par Marie Varandat le 31/03/2004 - indexel.net
 

Un système décisionnel est toujours construit autour de trois "briques" de base : l´alimentation et le stockage des données, l´extraction des informations disponibles dans l´entreprise et les outils de restitution. Explications.

 

 

L´architecture décisionnelle varie peu. Quelle que soit la solution retenue par l´entreprise - produit d´un éditeur spécialisé ou développement spécifique -, son architecture est toujours bâtie sur trois composantes majeures : l´alimentation, brique logicielle sous forme de script ou packagée dans un ETL (Extract Transform Loading) qui extrait les données des sources existantes et les transforme avant de les insérer dans une solution de stockage, la seconde brique de l´architecture. Alors seulement les données sont réunies pour pouvoir être filtrées, recoupées et croisées par des outils de restitution, troisième composante de l´architecture décisionnelle (voir notre schéma).

1. Stockage : choisir entre SQL et OLAP, un entrepôt central et des bases métier

Le principe de base d´une application décisionnelle repose sur le croisement de données pour en tirer des tendances, des indicateurs, des statistiques, etc. Les bases de données traditionnelles (ou relationnelles) n´ayant pas été prévues pour le rapprochement de plusieurs types de données simultanément (analyse multidimensionnelle) rencontrent des problèmes de performances. Raison pour laquelle, dès lors que l´on pratique de l´analyse multidimensionnelle, il faut s´appuyer généralement sur un moteur OLAP (On-Line Analytical Processing). Spécialement conçu pour l´informatique décisionnelle, ce dernier pré-calcule certains croisements de données afin d´optimiser les performances de l´application.

Le moteur OLAP n´est toutefois pas toujours indispensable et présente même certains inconvénients. Tous les pré-calculs doivent en effet être stockés. En moyenne, on estime qu´avec un moteur OLAP, le volume de données d´une application décisionnelle est doublé. En outre, comme le souligne Khoder Arnaout, responsable des solutions analytiques chez Micropole Univers, SSII spécialisée dans le décisionnel "certaines opérations telles que le reporting de masse n´ont pas besoin de la flexibilité apportée par un moteur OLAP. Les croisements varient peu et la structure de la base relationnelle peut être organisée de façon à optimiser les traitements sans avoir à doubler la volumétrie des données comme c´est le cas avec un moteur OLAP". Le moteur SQL proposé par la base relationnelle constitue alors la meilleure solution pour traiter les requêtes décisionnelles, surtout quand il est optimisé pour ce type d´applications comme c´est le cas chez Sybase.Enfin, il également possible d´optimiser les temps de réponse des applications décisionnelles avec des bases spécialisées par métier appelées Datamart. Quand l´entrepôt (ou datawarehouse) qui fédéralise les données devient trop volumineux, il peut en effet être avantageux d´extraire une partie de données pour constituer des bases plus petites. Destinées à l´usage d´un service par exemple, ces bases n´ont pas besoin de contenir toutes les données mais seulement celles qui sont utiles aux besoins d´analyse du métier des utilisateurs.

2. ETL, l'extracteur qui nettoie et fédère les données

La richesse d´une application décisionnelle repose sur la quantité et la qualité des données qu´il est possible de rapprocher pour en tirer des tendances. Ces données sont généralement réparties dans le système d´information au sein d´un PGI (progiciel de gestion intégré), d´une solution de GRC (gestion de la relation client) ou encore d´une base de données. Bien que ce ne soit pas impossible d´effectuer des requêtes multi sources (qui vont interroger plusieurs sources de données), l´approche la plus simple en décisionnel consiste à réunir les données éparses au sein d´un datawarehouse qui sera ensuite utilisé par les outils d´analyse. Elle est non seulement plus simple mais également souvent indispensable car toutes les sources de données ne partagent pas les mêmes définitions. Ainsi, les intitulés "client" de la GRC et "n° de compte" du PGI peuvent faire référence à une même personne. Mais le système n´en sait rien si on ne le lui dit pas.C´est précisément là qu´interviennent les ETL. Chargés d´extraire les informations des différentes sources, ils effectuent ces rapprochements entre intitulés assurant ainsi la cohérence des informations, transforment les données pour les adapter au format du datawarehouse et les insèrent finalement dans l´entrepôt. La richesse d´un ETL repose sur ses connecteurs, c´est-à-dire sa capacité à se greffer sur les sources de données existantes, et ses outils de paramétrage qui permettent de configurer le "nettoyage" des données hétérogènes avant leur introduction dans le datawarehouse.

3. Les outils de restitution, un large éventail de solutions pour analyser

Stockage et ETL constituent les briques d´infrastructure d´une architecture décisionnelle mais la véritable analyse se passe au niveau des outils de restitution, terme consacré pour regrouper une multitude d´outils très variés. Les plus anciens et qui, selon Alain Darmont, directeur technique d´Actuate, éditeur spécialisé dans le reporting de masse, "représentent aujourd´hui encore 80% des besoins", sont destinés aux rapports statistiques récurrents. Autrefois paramétrés et émis sous forme de kilomètres de papier par le service informatique, ces outils de reporting de masse se rapprochent aujourd´hui du client final. Les listings se distribuent également via Internet ou intranet. Ces outils d´analyse restent toutefois peu interactifs (les requêtes évoluent peu) et sont surtout utilisés pour des rapports statistiques sur les ventes, les stocks, etc.

Beaucoup plus dynamiques, les tableaux de bord permettent aux utilisateurs de réaliser leurs propres croisements de données selon différents axes d´analyse (analyse multidimensionnelle), de créer de nouveaux axes pour dégager de nouvelles tendances, d´approfondir ou affiner les résultats d´une analyse en effectuant des requêtes de type "drill down", mécanisme de navigation dans une structure multidimensionnelle permettant d´aller du plus global au plus détaillé, etc. Entre ces deux extrêmes, il existe tout un éventail d´outils d´analyse spécifiques à des métiers, destinés à la gestion d´alertes quand un seuil préalablement défini est atteint afin d´alerter l´utilisateur, intégrant des mécanismes de "push" pour diffuser automatiquement un rapport ou une information par mail, etc.