Téléphone Next Decision02.34.09.31.70

Contact Next Decisioncontact@nextdecision.fr

Youtube facebook twitter
google plus viadeo linkedin

Mise en production de Talend

Talend - Stratégie de mise en production

Le déploiement, la mise en production d'un projet Talend, est un processus critique, contenant souvent une distinction entre :

  • Phase de recette/test.
  • Mise en production.

Problématiques de la mise en production de Talend

Pour un projet Talend, le résultat des développements sera présenté comme un exécutable indépendant. Afin d'éviter d'obtenir des comportements différents entre la phase de recette et de mise en production, nous avons deux solutions :

  1. Générer au même moment un exécutable Talend pour chacune de ces phases.
  2. Utiliser un unique exécutable Talend.

Mise en production de Talend

Solution 1 : compilation Talend par environnement

La première solution, bien que viable, présente un inconvénient considérable : La multiplication des éléments générés.

Ici, nous considérons seulement deux phases pour le déploiement d'un projet. Elles peuvent être bien plus nombreuses.

Créer autant d'environnements d'exécution que nous aurons d'étapes lors du déploiement.
Cette option consiste à créer autant d'association variable/valeur que d'environnement dans le projet.

Apports :

  • Le passage d'un environnement à un autre dans l'outil de développement est aisé.
  • L'environnement d'exécution apparait dans les logs générés

Contraintes :

  • Le paramétrage est contenu dans le projet; chaque changement impliquera un redéploiement de l'exécutable.
  • La configuration ne peut pas être partagée entre plusieurs projets.

Toutefois, cette solution reste éligible pour notre problématique : utiliser un même exécutable pour les différentes phases de déploiement.
Pour cela, il nous suffira de changer le nom de l'environnement d'exécution dans le script du projet (--context='nom de l'environnement').

Solution 2 : compilation Talend unique

La deuxième solution permet la gestion d'un nombre indéfini d'environnements.
Pour parvenir à ce type d'exécutables, nous devons prendre en compte la gestion des environnements d'exécution dans nos projets.

Externaliser la configuration des projets.
Cette option consiste à mettre en place un référentiel de paramétrage des projets.
Ces référentiels sont souvent stockés dans des fichiers ou bases de données.

Apports :

  • La configuration de l'environnement peut être partagée à tous les projets.
  • Un changement de configuration est réalisé sans redéploiement des projets; ce qui nous évite un nouveau processus de déploiement du projet.
  • Le nom des variables de contexte des différents projets doivent être standardisés.

Contraintes :

  • Le nom de l'environnement d'exécution n'apparait pas dans les logs générés ; l'emplacement de stockage pourra vous indiquer l'environnement utilisé.
  • Il ne sera pas possible d'utiliser les environnements de recette et production avec l'outil de développement.

Cette solution répond à notre problématique.
Sa mise en place peut être faite de deux manières :

  • Dans le cas d'environnements séparés, un chemin identique peut contenir le référentiel de paramétrage des projets.
  • Dans le cas d'un unique environnement d'exécution (un seul serveur d'exécution) pour les différentes phases, nous pouvons utiliser un chemin relatif.
    • Le déplacement d'un exécutable dans un répertoire Recette ou Production changera automatiquement la configuration utilisée lors de son exécution.

Conclusion sur la mise en production Talend

Afin de définir la solution qui vous correspond le mieux, vous devez répondre aux questions suivantes :

  • De combien d'environnements d'exécution ai-je besoin ?
  • Est-ce que mon paramétrage peut être contenu dans mes projets ?
  • Dois-je exécuter mes projets dans un autre environnement que celui de développement ?

Retour au Wiki

Des conseils dans la mise en production de Talend, les consultants certifiés Talend de Next Decision sont là ! alors Contactez-nous !

Les nouveautés SAP BI 4.2 SP6

Les nouveautés SAP BI 4.2 SP6

Disponible en juillet 2018, le Service Pack 6 (SP6) de SAP BI propose son lot d’innovations. Petit point sur les nouveautés de SAP BI SP6.

SAP BI 4.2 SP6 : les principales nouveautés

Interface / Manipulation des rapports Webi

Grâce à l’autorefresh du document avec autorisation du fullscreeen, SAP BI SP6 offre la possibilité de faire de l'affichage sur écran de contrôle.

L’ajout des fonctions drill, sorting, folding vient compléter l’interface Fiori. SAP BI SP6 offre en outre la possibilité de cacher à certains utilisateurs des boutons de l’interface Fiori lors de la consultation de rapports.

Développement de rapport Webi

Web Intelligence, ou Webi, l’outil incontournable de reporting de SAP BI, bénéficiera aussi d’améliorations dans sa version SAP BI 4.2 SP6.

Possibilité de création de dimension temps
Différente de la dimension date, cette dimension temps comblera les trous des dates. Sorte de calendrier, elle évitera la création d'une requête qui récupère toutes les dates du calendrier et permettra également de créer des indicateurs N et N-1 simplement.

Appliquer de la sécurité lors de l'ouverture du document
Si le document Webi contient déjà les données sans avoir besoin de l'actualiser, des filtres d'affichage basés sur la sécurité seront directement appliqués sans actualisation de la requête.

Possibilité de créer des liens intra-document
La création, dans un document Webi, d’un lien permettant d'accéder à un onglet ou un bloc du même document donnera plus de dynamisme aux rapports.

Amélioration du OpenDoc
Parmi les nouveautés de SAP BI 4.2 SP6 : l’ajout de nouveaux paramètres à la fonction OpenDoc.

Possibilité de bloquer le rafraîchissement de certaines requêtes
Une fonction utile lorsqu’une requête ramène toujours les mêmes données à chaque rafraîchissement puisqu’elle permet un gain de temps sur l’actualisation.

SAP BI 4.2 SP6, c’est aussi d’autres nouveautés telles que la possibilité de prendre en compte les fichiers CSV et TXT en source de données d'un document Webi directement depuis l'interface web ou encore l’ajout de la fonction PageInSection() pour créer un numéro de page dans une section…

RESTful Web Services

  • API pour la dimension temps.
  • API pour la dimension géolocalisation.
  • API pour les fichiers textes et CSV en source de données.
  • etc…

Roadmap de SAP BI

SP7, disponible fin décembre 2018

SAP BI SP 7 proposera les nouveautés suivantes :

  • Supporter les extensions dans la partie Fiori.
  • Amélioration des blocs et des graphiques : changement de couleur par défaut (bleu dans l'entête, une ligne grisée sur deux), changement d’apparence des graphiques.
  • Possibilité de zoomer directement dans le graphique.
  • Nouveaux graphiques disponibles.
  • Webi pourra consommer les outils SAP Cloud.
  • Amélioration de la fusion entre 2 sources de données : possibilité de créer non plus des fusions classiques mais plutôt des fusions pensées comme des jointures (jointure gauche, jointure stricte).

Fonctionnalités SP disponible pour 2019

  • Créer des éléments liés globaux qui impacteront la totalité du document et non uniquement des parties du rapport.
  • Possibilité de personnaliser les tooltips : alors qu’actuellement, seuls la dimension et l’indicateur s'affichent quand on passe la souris sur un graphique, il sera dorénavant possible d'ajouter des informations supplémentaires, voire même d'intégrer des graphiques dans la tooltip pour afficher l’analyse.
  • Création de templates comme dans PowerPoint.
  • Création des hiérarchies directement depuis Webi.
  • Possibilité d'exécuter la requête uniquement quand l'objet sera glissé dans l'interface de création dans le rapport et non plus lors de l'actualisation dans le créateur de la requête.

SP disponible en 2020

  • Créer des alertes directement dans Webi, avec notification par mail ou directement dans la plateforme.
  • L'outil proposera la meilleure représentation graphique pour les données sélectionnées.
  • Partage de données : l’export de données Excel vers Webi permettra de créer un fournisseur de données.

Retour au Wiki

Des conseils dans la mise en place de SAP BI4.2 SP6, un accompagnement dans la migration vers SAP BI4.2 SP6, les consultants certifiés SAP de Next Decision sont là ! alors Contactez-nous !

Installation d’une licence SAS sur le serveur SAS

Installation d’une licence SAS sur le serveur SAS

SAS Visual Office Analytics 9.4

Dans ce tutoriel, Next Decision vous explique comment installer une licence Sas sur le serveur SAS. La licence étant échue tous les ans, il est plus confortable d’avoir un protocole établi.

Pour toute problématique autour de l’administration de la plateforme SAS, les consultants Next Decision sont à votre disposition.

Ma licence SAS a expiré

Si vous recevez un message de ce type, c’est que votre licence SAS arrive à expiration

Ma licence SAS a expiré

Les instructions qui suivent vont vous permettre d’appliquer la nouvelle licence sur votre serveur.

Ce processus se décompose en trois phases :

1ère phase : Application de la licence

2ème phase : Arrêt/Relance des services SAS

3ème phase : Vérifications

1ère Phase de l’installation de la nouvelle licence SAS

  1. Procurez-vous le nouveau fichier de licence (Cf. Next Décision)
  2. Connectez-vous sur le serveur à l’aide du compte d’installation : VOACELCA1\sas (Administrateur)
  3. Copiez le fichier de licence sur le serveur dans le répertoire : E:\sas_celca_Référentiel\SAS Software Depot Windows 9.4 Celca\sid_files
  4. Ouvrez l’écran de sélection des applications
    SAS sélection des applications
  5. Lancez le programme ci-dessous
    Renew SAS Software
  6. Si une boite de dialogue de ce type s’affiche
    SAS Compte utilisateur
  7. Validez en cliquant sur OUI
  8. Le SAS Deployment Manager 9.4 doit démarrer et afficher l’écran ci-dessous
    SAS Deployment Manager
  9. Validez en cliquant sur OK
    SAS Deployment Manager
    SAS Deployment Manager
  10. Validez en cliquant sur SUIVANT
    SAS Deployment Manager
  11. Cliquez sur le bouton [Parcourir] pour aller chercher le nouveau fichier de licence stocké dans le répertoire : E:\sas_celca_Référentiel\SAS Software Depot Windows 9.4 Celca\sid_files. Les informations ci-dessous doivent s’afficher. Elles indiquent les produits qui vont être mis à jour
    SAS Deployment Manager
  12. Assurez-vous que les dates d’expiration sont valides. Si oui alors cliquez sur SUIVANT
  13. Un écran récapitulatif des actions qui vont être entreprises s’affiche
    SAS Deployment Manager
  14. Cliquez sur DEMARRER
  15. Le processus de mise à jour démarre, il doit durer quelques secondes et déboucher sur l’écran ci-dessous
    SAS Deployment Manager
  16. La coche verte indique que l’opération s’est correctement déroulée. Cliquez sur SUIVANT
  17. Si ce n’est pas le cas, contactez Next Décision afin que nous analysions ensemble le problème
  18. Un dernier écran s’affiche, cliquez sur suivant
    SAS Deployment Manager
  19. La première phase du renouvellement de licence est terminée.

2ème Phase de l’installation de la clé de licence SAS

Il faut maintenant stopper et relancer les services SAS, pour que la licence soit correctement prise en compte.

Il est important de noter que durant cette opération, les utilisateurs seront déconnectés du serveur. Si des travaux sont en cours, les données non sauvegardées (WORK) seront perdues !

Arrêt manuel des services SAS. Voici l’ordre que vous devez respecter

Ordre d’arrêt des services SAS :

 

Module

Environnement

12

SAS Deployment Agent

Server et MiddleTier

11

SAS [Config-Lev1] SAS Environment Manager Agent

Server et MiddleTier

10

SAS [Config-Lev1] SAS Environment Manager

Middle tier

9

SAS [Config-Lev1] SASServer1_1 - WebAppServer

Middle tier

8

SAS[Config-Lev1]httpd-WebServer

Middle tier

7

SAS [Config-Lev1] Cache Locator on port 41415

Middle tier

6

SAS [Config-Lev1] JMS Broker on port 61616

Middle tier

5

SAS[Config-Lev1]DIPJobRunner

Server tier

4

SAS [Config-Lev1] Deployment Tester Server

Server tier

3

SAS [Config-Lev1] Object Spawner

Server tier

2

SAS [Config-Lev1] Web Infrastructure Platform Data Server

Server tier

1

SAS [Config-Lev1] SASMeta - Metadata Server

Server tier

Relance des services SAS. Voici l’ordre que vous devez respecter

Ordre de lancement des services SAS :

 

Module

Environnement

1

SAS [Config-Lev1] SASMeta - Metadata Server

Server tier

2

SAS [Config-Lev1] Web Infrastructure Platform Data Server

Server tier

3

SAS [Config-Lev1] Object Spawner

Server tier

4

SAS [Config-Lev1] Deployment Tester Server

Server tier

5

SAS[Config-Lev1]DIPJobRunner

Server tier

6

SAS [Config-Lev1] JMS Broker on port 61616

Middle tier

7

SAS [Config-Lev1] Cache Locator on port 41415

Middle tier

8

SAS[Config-Lev1]httpd-WebServer

Middle tier

9

SAS [Config-Lev1] SASServer1_1 - WebAppServer

Middle tier

10

SAS [Config-Lev1] SAS Environment Manager

Middle tier

11

SAS [Config-Lev1] SAS Environment Manager Agent

Server et MiddleTier

12

SAS Deployment Agent

Server et MiddleTier

Le processus d’Arrêt/Relance manuel peut s’avérer fastidieux. Il est possible de créer des scripts qui regroupent ces commandes. Voici des exemples :

Script d’arrêt des services : Stop_services.bat

Echo Script à exécuter en mode administrateur

sc stop "SAS Deployment Agent"
timeout /t 2
sc stop "SAS [Config-Lev1] SAS Environment Manager Agent"
timeout /t 2
sc stop "SAS [Config-Lev1] SAS Environment Manager"
timeout /t 2
sc stop "SAS [Config-Lev1] SASServer1_1 - WebAppServer"
timeout /t 2
sc stop "SAS[Config-Lev1]httpd-WebServer"
timeout /t 2
sc stop "SAS [Config-Lev1] Cache Locator on port 41415"
timeout /t 2
sc stop "SAS [Config-Lev1] JMS Broker on port 61616"
timeout /t 2
sc stop "SAS[Config-Lev1]DIPJobRunner"
timeout /t 2
sc stop "SAS [Config-Lev1] Deployment Tester Server"
timeout /t 2
sc stop "SAS [Config-Lev1] Object Spawner"
timeout /t 2
sc stop "SAS [Config-Lev1] Web Infrastructure Platform Data Server"
timeout /t 2
sc stop "SAS [Config-Lev1] SASMeta - Metadata Server"
timeout /t 3

Script de lancement des services : Start_services.bat

Echo Script à exécuter en mode administrateur

sc start "SAS [Config-Lev1] SASMeta - Metadata Server"
timeout /t 3
sc start "SAS [Config-Lev1] Web Infrastructure Platform Data Server"
timeout /t 2
sc start "SAS [Config-Lev1] Object Spawner"
timeout /t 2
sc start "SAS [Config-Lev1] Deployment Tester Server"
timeout /t 2
sc start "SAS[Config-Lev1]DIPJobRunner"
timeout /t 2
sc start "SAS [Config-Lev1] JMS Broker on port 61616"
timeout /t 2
sc start "SAS [Config-Lev1] Cache Locator on port 41415"
timeout /t 2
sc start "SAS[Config-Lev1]httpd-WebServer"
timeout /t 2
sc start "SAS [Config-Lev1] SASServer1_1 - WebAppServer"
timeout /t 2
sc start "SAS [Config-Lev1] SAS Environment Manager"
timeout /t 2
sc start "SAS [Config-Lev1] SAS Environment Manager Agent"
timeout /t 2
sc start "SAS Deployment Agent"
timeout /t 2

3ème Phase du renouvellement de licence SAS

Cette ultime étape consiste à tester le fonctionnement de la plateforme à partir d’un poste client.

  1. Lancez SAS Guide puis connectez-vous
  2. Cliquez sur Serveurs, SASApp. La boite de dialogue indiquant que « la licence va bientôt expirer » ne doit plus apparaître
    SAS APP
  3. Créez un programme dans lequel vous allez saisir les instructions suivantes : proc setinit ; run ;
  4. Exécutez ce code. Vous devriez obtenir le résultat suivant dans le journal
    SAS Enterprise Guide

Fin de la procedure de renouvellement de licence SAS

Retour au Wiki

Next Decision vous accompagne dans l’administration de votre plateforme SAS, dans le développement de traitement SAS ainsi que dans l’acquisition de licence SAS. Contactez-nous !

Comment connecter MyReport à Hadoop et/ou Elastic Search ?

Comment connecter MyReport à Hadoop et/ou Elastic Search ?

En exclusivité mondiale et accompagné par notre partenaire Saagie, Next Decision a l'honneur de vous annoncer qu'il est possible (et ce de manière très simple), de connecter votre MyReport à un sytème de stockage BigData de type Hadoop!

Pour cela, rien de plus simple : nous avons simplement profité de la haute qualité du framework BigData proposé par Saagie, au sein duquel nous avons tout d'abord chargé plusieurs dizaines de millions de lignes (soit rien du tout) contenant les Logs d'une application cliente sur une journée.

Nous avons ensuite travaillé et nettoyé quelque peu les données pour les rendre plus simple à lire. Nous nous sommes amusés à indexer toutes les données dans Elastic Search et avons conçu un tableau de bord sympa dans Kibana (le tout en moins d'une journée bien sûr!). Le système de Log sous Elastic Search couplé à un découpage des données effectué via JAVA, nous permet de décomposer les logs et ainsi fournir des indicateurs analytiques.

Nous étions presque arrivés à la fin de notre préparation de démo quand nous nous sommes rappelés que notre client possédait MyReport. Nous nous sommes alors demandés dans quelle mesure il aurait été possible de connecter cet outil de reporting avec les données mises dans le cloud Saagie.

Qu'à cela ne tienne : en nous entendant en parler, nos amis de chez Saagie nous disent :

Saagie : On pourrait mettre en place Hive pour directement se connecter à Elastic Search ? Ou bien pourquoi pas un Impala ?
Next Decision : Oui pourquoi pas mais ce n'est pas anodin en terme d'architecture.
Le client : Et puis il faut installer et configurer des couches supplémentaires d'accès, non ?
Saagie / Next Decision : Installer et configurer ? Rien de plus agile, on pourrait simplement profiter des produits déjà disponibles dans SAAGIE ?
Le client : Oui mais ça prendrait combien de temps ?
Saagie / Next Decision : le temps que de cliquer sur le bouton Hive, disponible sous SAAGIE...

Dès lors, Nous sommes partis à la recherche d'un connecteur ODBC pour attaquer Hive (ça tombe bien, ça existe et c'est gratuit!). Au bout de 5 minutes, la connexion était réalisée. Il ne nous restait plus qu'à lancer le MyReport Data pour créer la connexion et le modèle (en environ 30 secondes). Puis c'est au tour du Builder embarqué dans Excel de travailler quelques minutes de plus pour voir les données d'Elasticsearch se déverser dans notre feuille.

Tout ça pour vous dire que quand vous êtes bien équipés et accompagnés, tout devient possible!! MyReport comme outil de reporting du Big Data, MyReport sur des logs stockées ElasticSearch, MyReport sur Hadoop !

Retour au Wiki

Vous cherchez des consultants pour vous accompagner dans la mise en place d'une connexion MyReport à Hadoop, et/ou Elastic Search ? Contactez-nous !

Applications Mobiles opérationnelles sous MicroStrategy

Applications Mobiles opérationnelles sous MicroStrategy

MicroStrategy est un pionnier et un leader sur la mobilité chez les éditeurs de solutions décisionnelles.

Nos expériences chez les clients de NEXT DECISION sur des conceptions d’applications de reporting sur smartphone ou tablettes nous amène à confirmer sans équivoque que le rendu est au rendez-vous, et que les temps de développements et les compétences engagées sont comparables à ceux de la production de reporting classique.

MSTR promet aussi la possibilité de développer des applications mobiles plus opérationnelles, traditionnellement opérées par du développement mobile natif (iOs et Android), ou par un AGL (type Windev). Qu’en est-il réellement ?

Quelles sont les solutions possibles ?

MicroStrategy Mobile :

La liste des fonctionnalités disponibles nativement dans ce module et allant dans le sens de l'opérationnel est impressionnante: génération d’une application mobile native pour iOs et Android (gestures, composants natifs type dates, etc…), gestion de la sécurité, navigation, cartographie, notifications push sur seuils déclencheurs, et surtout la capacité d’écrire de la donnée en base via le module Transaction Services.

Les tests et retours d'expériences chez les clients NEXT DECISION sont concluants, il convient néanmoins de garder à l’esprit qu’il subsiste des différences entre iOs et Android. Tant sur le rendu (voir les bests practices Next Decision ci-dessous) que sur les fonctionnalités. iOs est souvent en avance, et le retard est rattrapé lors de la version mineure suivante (à fréquence trimestrielle).

MicroStrategy SDK :

Le module permet le “rebranding” de l’application, à savoir remplacer logo, splash screen et toutes les références MicroStrategy par les couleurs du client. Cela permet aussi d’avoir plusieurs applications sur le terminal. Simple à mettre en place, elle ne nécessite que de légères connaissances et un environnement de développement natif de iOs et Android. Le module permet aussi de la customisation via l’intégration dans une application native du framework MicroStrategy. Il est alors possible d’utiliser la puissance des widgets graphiques MicroStragey dans des applications natives. Malheureusement cette dernière fonctionnalité n’est disponible que sur iOs.

MicroStrategy REST API :

Le module permet d’interagir avec MicroStrategy via son API. La liste des fonctions est importante, et la documentation très correcte, notamment par la disponibilité d’exemples de code à télécharger. Il est possible de tester cette API facilement à partir de l’environnement de démo mis en ligne par MicroStrategy. La limite de son utilisation étant qu’il faut coder tout ce qui est fourni nativement avec MicroStrategy Mobile.

Comment choisir l’une ou l’autre solution ?

Next Decision recommande MicroStrategy Mobile lorsque la faisabilité de chaque fonctionnalité de l’application a été vérifiée.

En effet cette solution permet de se concentrer sur l'expérience utilisateur (widgets graphiques MicroStrategy) plutôt que sur les sujets techniques type gestion de la sécurité ou implémentation de la navigation. Elle permet aussi une maintenance centralisée et un développement unique, dans l’esprit de ce que peuvent faire les AGL.

Next Decision recommande d’utiliser MicroStrategy SDK pour sa fonction de rebrand. Simple à mettre en place et à utiliser, elle permet une vraie personnalisation des applications. L’utilisation des fonctionnalités de customisation peut être une solution pour bénéficier de la puissance graphique de MicroStrategy dans le cas d’une application native existante iOs.

Next Decision recommande d’utiliser MicroStrategy REST API dans le cas d’applications natives existantes qui doivent comporter une légère partie de reporting, limitée à l’affichage de quelques indicateurs. Il est alors simple et rapide d’aller récupérer la donnée brute via l’API et de la mettre en forme via du code natif mobile.

Quelles sont les best practices à appliquer ?

MicroStrategy Mobile n’est pas responsive mais adaptative. NEXT DECISION constate qu’il est possible de ne faire qu’un développement portable sur iOs et Android, à la condition d’appliquer les bests practices suivants :

  • Fixer l’affichage pour iOs. Nous constatons que Android s’adapte bien, l’inverse étant moins vrai.
  • Limiter le nombre d’information à l’écran et utiliser des objets adaptés à l’étirement. Ce conseil étant générique au développement d’applications mobiles et non lié au fonctionnement sous MicroStrategy.

Dans le cas où ces 2 conseils ne sont pas suffisant, il sera alors nécessaire de développer un document pour iOs et un document pour Android. La différence entre les 2 étant essentiellement autour du paramétrage d’affichage, cela ne correspond pas à une double charge de travail comme cela peut l’être dans le cadre d’un développement natif.

Applications Mobiles opérationnelles sous MicroStrategy

Applications Mobiles opérationnelles sous MicroStrategy

Applications Mobiles opérationnelles sous MicroStrategy

Applications Mobiles opérationnelles sous MicroStrategy

Applications Mobiles opérationnelles sous MicroStrategy

Retour au Wiki

Vous cherchez des consultants pour vous accompagner dans la mise en place de SAP BI sur SAGE X3 ? Contactez-nous !

Mise en place de SAP BI sur SAGE X3

Mise en place de SAP BI sur SAGE X3

Est-il possible de faire une véritable base décisionnelle via les outils de SAGE X3 ?

La réponse est : oui mais...

Il est tout à fait possible de construire un système décisionnel avec SAGE X3 car celui-ci dispose d'un module BI qui est pas mal du tout, si on en connait bien les limites.

On peut considérer qu’il existe deux grandes parties dans le module BI de SAGE X3. On rencontre d’une part la partie Extract Transform Load (ETL) que l’on retrouve dans la majorité des systèmes décisionnels, et d’autre la partie plus orientées restitutions, pour y faire des « Univers » à destination de l’outil de restitution SAP BI.

Point 1 : La partie ETL SAP BI SUR SAGE X3

Via une interface de paramétrage dans SAGE X3, il est possible de venir paramétrer des "Datamarts" en automatique. On y indique quelles sont les tables de dimensions, les tables de faits souhaitées etc.

Sage X3 Datamarts

Cela correspond à nos entrepôts décisionnels orientés métiers (comptabilité, achats, ventes et.c) que l'on a l'habitude d'alimenter via les ETL Talend, SAP BODS etc.

Ce module permet de s'exonérer de la création technique d'un entrepôt de données "From scratch". On dispose alors rapidement d’un entrepôt fait de A à Z. A partir de la même interface, on va venir paramétrer les fréquences d'actualisation des Datamarts etc.

Point 2 : La partie reporting SAP BI SUR SAGE X3

Il existe la possibilité de générer de façon automatique un univers SAP BI, certains verrons cela comme un avantage, d'autres comme un inconvénient, et non des moindres.

A l'heure actuelle, le module SAGE X3 de génération des univers SAOP BI est conçu pour être utilisé en "One shot". Ce module génère les univers compte tenu du paramétrage réalisé dans le module BI de SAGE X3 a un instant T. Pratique si vous souhaitez initialiser un univers, le module permet d'avoir les objets "de base" qui ont été paramétrés.

Par contre, il n'est pas possible simplement, de réaliser une re-génération d'univers sans derrière avoir des problèmes de mapping des rapports.

En effet, le concept de génération des univers vient faire un annule et remplace de celui qui existait déjà. A l'heure actuelle, l'enrichissement d'un univers existant avec les nouveaux objets, les modifications etc. n'est pas possible via le module SAGE X3. Ce point a été remonté à la R&D par un de nos clients.

Ainsi pour faire évoluer un univers, il sera nécessaire de disposer d'une ressource faisant évoluer celui-ci pour prendre en compte les évolutions de modèle via le Designer BO.

En résumé :

Faire du décisionnel avec SAGE X3, c'est bien pour la partie ETL pour des besoins standards. Il faudra étudier l’opportunité d’avoir un autre ETL pour réaliser du spécifique dédié.

Pour la partie univers SAP BI, il faut penser que le module SAGE permettant cela est fait uniquement pour faire une initialisation de modèle et non pas pour le faire évoluer dans le temps.

En conclusion : une solution clé en main telle que SAGE X3 module BI est un bon début pour mettre en place un SI décisionnel, mais se suffit difficilement à lui-même pour combler l’ensemble des besoins décisionnels d’une entreprise.

Les consultants Next Decision peuvent vous préconiser d’autres solutions efficientes permettant de faire du reporting sur SAGE X3. De même, nous avons assez de recul pour vous accompagner dans la complétude de votre solution de Reporting sur SAGE X3.

Retour au Wiki

Vous cherchez des consultants pour vous accompagner dans la mise en place de SAP BI sur SAGE X3 ? Contactez-nous !

Retour sur un projet BI AGILE

Retour sur un projet BI AGILE

Voici un retour d’expérience sur l’application de la méthode AGILE lors de la mise en place d’une application sur la relation client (CRM) à la demande d’un client bancaire. Historiquement, la pratique AGILE et l’investissement dans les nouvelles technologies et notamment sur le rapid delivery.

Avec ce constat, le projet partait sur une bonne base avec un client final qui connait l’Agile et qui est demandeur de ce type de méthode en connaissant les contraintes que ça amène : ne pas avoir tout et tout de suite.

Les étapes clés d’un sprint AGILE

BI Agile

Phase 1 : Les ateliers fonctionnels (2 jours minimum)

Une fois que le besoin de l’application a été émis, nous avons mis au point des ateliers fonctionnels avec :

  • 3 banquiers demandeurs de l’application (= le final User) -> Le rôle est fixe.
  • 1 scrum master (cette personne réalise les tâches d’un traditionnel chef de projet, mais pas que, elle sait déléguer en cas de bourre, elle fait aussi du développement et de la spécification) -> Le rôle est fixe.
  • 2 PO (Product owner, il s’agit des garants des livrables et des tests associés) : les rôles tournent avec les équipiers.
  • Les équipiers : il s’agit de l’équipe de Réalisation : les rôles tournent avec les PO.

La présence de l’ensemble des personnes de la chaîne est essentielle pour que tout à chacun dispose d’une vue d’ensemble de l’application finale, même si lors de ces ateliers, les équipiers parlent moins et écoutent davantage.

Lors de l’atelier, le scrum master, les PO écoutent les banquiers exprimer leur besoin à l’aide de PPT. Les PO/scrum traduisent le besoin en fonctionnalités. Les PO et Scrum master posent des questions pour définir plus précisément les fonctionnalités : user story.

Une user story doit être une phrase assez vague pour laisser la liberté aux équipiers de développer ce qu’ils souhaitent, et pas trop précis pour éviter de rentrer dans la granularité de la règle de gestion.

Ex : Le client souhaite une application de CRM, il veut établir un rapport Cognos permettant de connaître les conquêtes de client sur le mois.

  • User story trop vague : Je souhaite connaître mes clients (qui ? quand ?).
  • User story top précise : Un client gagné sur le mois, c’est un client dont l’identifiant n’était pas présent dans la base durant les 3 mois précédents (beaucoup trop précis, l’équipe de développement n’a plus à réfléchir).
  • User story OK : Je (banquier) souhaite connaître le nombre de clients que j’ai gagné dans le mois.

A la fin, on arrive avec environ 20 User stories, chacune faisant l’objet de rapports Cognos, et il devra être possible de croiser les données in fine :

  • Quels sont les clients gagnés par le banquier sur le mois passé ?
  • D’où proviennent les clients que j’ai gagnés sur le mois passé ?
  • Ces clients, sont-ils des conquêtes interne à la banque (quelqu’un qui était venu pour un prêt bancaire, vient ouvrir une assurance-vie), ou des conquêtes externes (arrivées via internet, recommandation etc.).
  • Quelle est la typologie de mes clients en terme de : Age, Métier, Géographie, Sexe…

Phase 2 : Planning Poker (PO + équipiers, 0.5j au premier sprint, puis à chaque sprint on refait un.

Le temps passé : 0.25j avec l’effet d’expérience).

Une fois que l’on connaît l’ensemble des Users story, on vient chiffrer avec les cartes de points de complexité, chacune des Users story en termes de réalisation.

Phase 3 : Sprint planning (0.25j)

En fonction des points de complexités qu’il est possible d’absorber sur un sprint (compte tenu des congés, de la capacité à faire etc.), on vient mettre les user story dans le sprint ou non, et aussi en fonction des priorités des banques.

Ex : Il est inutile de savoir d’où proviennent les clients, si je ne sais pas qui il sont.

Phase 4 : Sprint (durée dépend de ce qui est définie, mais pas plus de 3 semaines, nous c’était 2 semaines)

Les réalisations de spécifications et les recettes sont faites par les PO et les développements par les équipiers. En gros, une même personne aura tous les rôles dans un même sprint mais ne fera jamais ces 2 rôles sur la même user story.

Phase 5 : Démonstration (0.25j à 0.5j)

Montrer les rapports qui on été produits aux banquiers, ils nous dissent ce qui leur manque, ce qui est bien, pas bien. Très important : le rapport, même incomplet, est utilisable tout de suite, ce qui lui permettra de le maintenir dans la boucle Agile, sinon on les perd car ils investissent du temps sans rien avoir de concret en retour.

Phase 6 : Rétrospective (0.25j, scrum, PO et équipiers, clients finaux si besoin)

Cette étape essentielle, permet de voir ce qui va, ne va pas dans les sprints, pour prendre les actions correctrices pour les phases suivantes. Ainsi, les cycles suivants pourront s’améliorer afin que le client soit satisfait du produit qui lui a été proposé.

En résumé

La méthode AGILE permet de donner un livrable très rapidement au client afin qu’il puisse commencer à travailler immédiatement sur le nouveau produit, et ce, même si le produit ne répond pas au besoin final. Cette méthode itérative permet de définir au plus les besoins du client et pour les équipes informatiques d’être plus efficiente.

Retour au Wiki

Vous cherchez des consultants pour vous accompagner dans l'application de la méthode BI AGILE ? Contactez-nous !

Les nouveautés de Myreport 8.1

Les nouveautés de MyReport 8.1

La société Report One, éditeur du logiciel MyReport, outil intégré à Excel et optimal pour réaliser des projets de Business Intelligence, a annoncé le lancement de la nouvelle version de MyReport Standard : MyReport Standard V8.1

Intégrée à Excel, MyReport Standard est une suite logicielle qui propose une solution de reporting, de pilotage et d'analyse destinée aux PME.

MyReport présente, à partir d’Octobre 2017, sa nouveauté tellement attendue : la possibilité de faire du reporting sous POWERPOINT !

V8.1 : une fonctionnalité d'export sur PowerPoint

Avec la version 8.1 de MyReport Standard, deux clics suffisent à exporter dans Powerpoint vos tableaux et graphiques réalisés à partir du Builder. Un bouton est conçu spécialement à cet effet. Ensuite, il vous est possible d'effectuer votre mise en forme dans POWERPOINT et ainsi construire via MyReport votre présentation de vos données.

Cerise MyReport sur le gâteau ! Pour rafraîchir les données, plus besoin de sortir de l'environnement Office. Vous effectuez les mises à jour en un seul clic, directement depuis Powerpoint, via le tout nouvel et flambant onglet MyReport Builder.

Vous tirez ainsi le meilleur des possibilités de Microsoft Office et de MyReport. Vos statistiques s’affichent désormais aussi bien dans Excel que dans Powerpoint sans intervention de type copier/coller !

V8.1 : L'export MyReport sous PowerPoint est gratuit

Et oui, vous avez bien lu, ce nouveau module n'est pas un module à acquérir en plus. Cette fonctionnalité est disponible gratuitement si vous possédez une ou des licences MyReport Builder. Evidemment, vous devez être à jour des paiements de votre maintenance, mais tout le monde s'en doutait...

Migration vers MyReport 8.1

Clients MyReport, n'hésitez pas à tester la nouvelle fonctionnalité 8.1 rapidement, vos utilisateurs vont adorer ! L'intégration de bout en bout (XLSX - PPTX) était véritablement une attente des directions métier, cela est désormais chose simple et on se doute bien que l'éditeur va continuer d'investiguer pour intégrer MyReport dans Microsoft PowerPoint

Pour tout échange sur votre migration vers Myreport 8.1, n'hésitez pas à contacter Next Decision, nos consultants experts et certifiés Report One seront ravis de répondre à vos questions ou de vous accompagner dans la réalisation technique de la migration [PS : pensez bien à vos sauvegardes avant action].

Retour au Wiki

Vous cherchez des consultants pour vous accompagner dans une migration MyReport 8.1, votre intégrateur actuel ne vous tient pas au courant des nouveautés de l'outil : Contactez-nous !

Les nouveautés de ODI 12c

Les nouveautés de ODI 12c

Les nouveautés de ODI 12C (12c, comme la base de données) offre de grands changements par rapport aux versions précédentes.

Passons rapidement sur le fait que ODI 12c intègre beaucoup mieux GoldenGate et permet de mieux gérer les problématiques de Change Data Capture ce qui nous emmène à proximité du rêve des alimentations « presque » en temps réel.

ODI 12 et WareHouse Builder

Le sujet est plutôt l’intégration dans ODI des fonctionnalités d’Oracle WareHouseBuilder.
Tout d’abord, la migration entre de WareHouseBuilder vers ODI 12c est simple. De plus ODI 12C apporte beaucoup de souplesse en terme de développement, notamment grâce aux nouveaux composants accessibles depuis les mappings (anciennement Interfaces).

Cela sera l’objet de notre billet, nous allons détailler quelques uns de ces composants.

Les nouveaux composants ODI 12

Grâce à la V12c nous allons pouvoir alimenter N cibles à partir de N sources. Ceci va grandement faciliter la vie des développeurs mais aussi diminuer le nombre d’interfaces. Au fait, pourquoi parlons-nous encore d’interfaces ? En effet, les interfaces ODI 12C ont changées de nom pour devenir « Mappings ».

Partons d’un exemple simple, j’ai à disposition 1 table TIERS qui contient des données issues de FOURNISSEUR, CLIENT et CLIENT_INTERNE. Mes chers amis du contrôle de gestion souhaitent avoir non pas une mais trois tables bien distinctes, à savoir FOURNISSEUR, CLIENT et CLIENT_INTERNE.

Dans les versions précédentes, j’aurais tout simplement fait trois interfaces ODI pour répondre à la problématique et ainsi, j’aurai lu 3 fois ma table source.

Et bien c’est terminé grâce à ODI V12c… Voyons comment s’y prendre dans les faits :

Je créé mon nouveau mapping, via un clic droit :

ODI 12 - Nouveau mapping

Comme d’habitude, je donne un nom à mon mapping et surtout je n’oublie pas la petite description qui va bien.

ODI 12 - mapping

Je fais un « drag & drop » de ma table source tiers dans la partie « Default »

ODI 12 - table source tiers

Afin de décomposer mon alimentation en 3, je vais utiliser un nouveau composant de la V12c, le « Fractionnement » ou « Split »

ODI 12 - Fractionnement

Je le lie à ma table source

ODI 12 - table source

Reste à déplacer mes 3 cibles dans mon espace de travail, toujours par « Drag&Drop »

ODI 12

On clique sur l’objet Split pour le configurer et on clique sur l’onglet « Ouput Connectors Points » :

ODI 12 - Ouput Connectors Points

On renomme les Outputs comme désiré et on renseigne les conditions via l’éditeur

ODI 12 - Ouput Connectors Points

Reste à choisir le chemin emprunté par chacun des cas :

ODI 12

Et voilà, c’est terminé. Une interface pour alimenter 3 cibles !

ODI 12

Les nouveautés ODI 12 : le Sort

Dans les nouveautés de ODI 12c, un nouveau composant est particulièrement apprécié notamment lorsque l’on veut alimenter un fichier plat de façon ordonné, c’est le composant « Tri » ou « Sort ».

Il va nous permettre de choisir l’ordre de tri de notre flux. Fini donc la modification des modules de connaissances (KM) et l’utilisation des UDx pour gérer cette problématique.

ODI 12 - tri de flux

Dans les faits, il suffit de déplacer notre composant de glisser les éléments à trier. Le bonheur est parfois simple.

ODI 12 - tri de flux

Les nouveautés ODI 12 : le composant Agregat

Pour nos agrégations (somme, moyenne, etc…), nous utiliserons le composant « Agregat »

ODI 12 - Agregat

Il suffit ensuite de spécifier les champs à agréger

ODI 12 - Agregat

Les nouveautés ODI 12 : le composant Distinct

Un point négatif cependant dans cette version, c’est le composant « Distinct ».

ODI 12 - Distinct

Dans les versions précédentes de ODI, un simple clic sur une case à cocher au niveau du choix de l’IKM ODI nous permettait de faire un distinct.

Désormais, il faut intégrer le composant au flux ODI 12 et déplacer dedans tous les éléments qui vont être à utiliser. Une pure perte de temps.

ODI 12 - Distinct

Les nouveautés ODI 12 : le composant Expression

Le composant « Expression » va nous permettre de spécifier du code directement.

ODI 12 - Expression

ODI 12 - Expression

Les nouveautés ODI 12 : le composant Unpivot

Un composant qui manquait depuis des années à ODI est le composant UNPIVOT ou permutation de colonnes en lignes

ODI 12 - Unpivot

Imaginons que nous ayons une table composée d’un champ année et de 4 champs représentant le chiffre d’affaires par trimestre. Nous souhaiterions avoir en fait une structure plus simple qui consisterait à avoir un champ ANNEE, un champ TRIMESTRE et un champ CA.

Dans ce cas, l’utilisation du UNPIVOT va être très utile.

Voyons cela dans le détail : Je positionne ma table source et ma table cible dans l’espace de travail. J’y ajoute notre composant UNPIVOT.

ODI 12 - Unpivot

Je glisse et déplace le champ année dans le composant UNPIVOT

ODI 12 - Unpivot

Et je clique ensuite sur « Attributs » et j’ajoute les attributs « TRIMESTRE » et « CA »

ODI 12 - Unpivot

Je retourne sur général et choisit le pointeur de ligne « TRIMESTRE »

ODI 12 - Unpivot

Je passe ensuite sur « Transformation de permutation colonnes vers lignes » et je renseigne les valeurs pour chaque trimestre et le CA associé à chaque.

ODI 12 - Unpivot

Je finis par le mapping vers ma table finale et c’est terminé.

ODI 12 - Unpivot

Ma table de départ qui contenait :

ODI 12 - Unpivot

M’a permis d’alimenter ma table cible :

ODI 12 - Unpivot

Les nouveautés ODI 12 : le composant Pivot

Evidemment nous pouvons faire l’inverse grâce au composant PIVOT qui va nous permettre de permuter les lignes vers les colonnes

ODI 12 - Pivot

Retour au Wiki

Vous cherchez des consultants pour vous accompagner dans une migration ODI 10 vers ODI12, dans une migration ODI 11 vers ODI 12 voire même Sunopsis vers ODI12, Contactez-nous !

Présentation ELK - Elasticsearch - Logstash - Kibana

Présentation ELK
Elasticsearch - Logstash - Kibana

Présentation ELK - Elasticsearch - Logstash - Kibana

Retour au Wiki

Vous cherchez des consultants experts sur Elasticsearch - Logstash - Kibana (ELK), Contactez-nous !

La segmentation client Récence Fréquence Montant - Segmentation client RFM

La segmentation client Récence Fréquence Montant - Segmentation client RFM

Mise en œuvre d’une segmentation client.
Les principes

Capacités :

La solution permet de trouver des groupes et des segments proches des habitudes de consommation clients. Ces groupes peuvent alors être adressés de façon plus intelligente, plus pertinente et plus performante en quelques étapes. Avec des vues par canal, par magasin, par zone, par univers, …

Objectif :

Réduire les coûts d’acquisition et augmenter les taux de conversion en ciblant les clients & prospects ayant des profils identiques à certains groupes dont on connaît le comportement. Mieux cibler les clients en augmentant ceux qui ont le potentiel d’être plus profitable parmi les clients « ambassadeurs », « occasionnels », « zappeurs », « familiers » par exemple.

Mise en œuvre d’une segmentation client

Segmentation RFM
Les principes

  • Récence : ceux qui ont acheté le plus récemment.
  • Fréquence : ceux qui ont acheté le plus fréquemment.
  • Montant : ceux qui dépensent le plus

Typologie des clients RFM

Typologie des clients RFM

  1. clients perdus depuis longtemps.
  2. clients non confirmés.
  3. clients réguliers perdus récemment.
  4. clients récents à petit CA.
  5. clients récents à fort CA.
  6. clients réguliers en décroissance.
  7. clients réguliers à petit CA.
  8. clients réguliers en développement.
  9. très bons clients réguliers.

La segmentation RFM

La segmentation RFM

La segmentation RFM
Pour quoi faire ?

Le principal atout de la segmentation RFM est, d'une part, d'obtenir une analyse comportementale de vos clients afin de les regrouper dans des segments homogènes, et d'autre part, de définir un plan d'actions commerciales et/ou marketing adapté.

  • Sur un plan commercial, grâce à cette segmentation comportementale vos décisions d'investissement vont pouvoir mieux se répartir entre la fidélisation des meilleurs clients, les actions anti-attrition, les actions de relance des inactifs, le programme d'accueil des nouveaux clients...
  • Sur un plan marketing, vous pouvez mettre en œuvre une tarification et un niveau de service différencié. Vous pouvez élaborer un plan de nouveaux produits sur des cibles mieux identifiées.

Analyse RFM globale
Sélection des clients à réactiver

L’intérêt d’une segmentation RFM est d’identifier les clients inactifs (récence, fréquence) à potentiel (montant) pour réaliser des actions commerciales de ré activation :

Analyse RFM globale

Analyse RFM
Exportation des clients à réactiver dans un fichier Excel

Analyse RFM

Analyses RFM multi périodes
Définition des clients Actifs, Inactifs et Nouveaux

  • On cherche à identifier les changements d’activité des clients entre 2 périodes (P1 et P2).
  • Les inactifs ont réalisé leurs premiers achats à la période 1 et n’ont pas consommé à la période 2.
  • Les actifs ont réalisé leurs premiers achats à la période 1 et ont fait au moins un achat à la période 2.
  • Les nouveaux ont réalisé leurs premiers achats à la période 2.
Analyses RFM multi périodes

Cycle de vie et parcours clients

Capacités :

La solution permet de découvrir les cycles de vie des achats des clients.

Éventuellement combinés à une segmentation, il devient possible de trouver des règles d’achats et ainsi de pouvoir retrouver qui sont les acheteurs potentiels de certains produits, les univers préférés, mais aussi amener des clients vers d’autres univers pour lesquels ils sont appétant.

Objectif :

  • Mettre en place des campagnes de ventes croisées et augmenter le taux de retour.
  • Booster le chiffre d’affaires sur certains univers de produits en maîtrisant les coûts de communication.
Cycle de vie et parcours clients

Analyse des transferts

  • D’une période à l’autre 70% des clients OR sont restés OR et 25% sont devenus ARGENT.
  • 55% des nouveaux de la première période n’ont pas consommé à la deuxième période.
  • 80% des inactifs de la première période ne se sont pas réactivés à la deuxième période.

Analyse des transferts

Analyse des transferts RFM
Exportation Excel des segments de clients RFM intra périodes

  • Exportation des données pour alimenter un fichier au format Excel directement depuis IBM® SPSS® Modeler :

Analyse des transferts RFM

Analyse des univers consommés par segment client

  • L’analyse de la fréquentation et de la dépense par univers par segment permet d’isoler les leviers d’actions prioritaires par segment en termes de :
  • Cross-selling : inciter les clients à consommer sur des « univers » non fréquentés auparavant.
  • Up-selling : inciter les clients à augmenter leur consommation sur des « univers » déjà fréquentés.
Analyse des univers consommés par segment client

Cross-Selling et Up-Selling

Cross-selling : pour chaque segment il faut inciter les clients à fréquenter les « univers » du bloc 1, puis du bloc 2, puis du bloc 3 et enfin du bloc 4.

Cross-selling

Up-selling : pour chaque « univers », il faut inciter les clients à avoir une dépense équivalente au bloc 1, puis au bloc 2, puis au bloc 3 et enfin au bloc 4.

Up-selling

Analyses croisées des sous familles de vente vs segments clients Résultats

  • Il y a des disparités de consommation entre segments et sous familles de ventes -> Actions Xsell et Upsell possibles

Analyses croisées

Les associations de produits
Définition

  • L’association de produits est une technique d’analyse qui vise à étudier les relations entre un ensemble de produits.
    • Exemple d’une règle d’association : Si achat du produit A alors achat du produit B dans 80% des cas.
  • Objectifs :
    • Mettre en relation les différents produits et mieux comprendre les comportements de cross-selling des clients.
    • Quantifier l’existence des liaisons entre plusieurs produits achetés.
    • Identifier les ponts entre les différents univers de produits.
    • Analyser le parcours des clients dans un magasin, sur un site web …
    • Optimisation des rayons.
    • Mise en avant ou retrait d’un produit.
  • Domaines d’applications :
    • Les associations permettent de montrer les catégories de produits phares ou au contraire des produits « sans valeur commerciale complémentaire » pour l'enseigne.
    • Dans les directions opérationnelles, les associations permettent d'identifier des cross sell produits (tendances lourdes évidentes ou des micro phénomènes peu connus).

Les associations de produits

  • Différents indicateurs sont calculés afin de mesurer la pertinence des associations de produits :
    • L’indice de support : mesure la fréquence d’apparition de A et B sur un même ticket (nombre de tickets avec A et B/nombre total de tickets).
    • L’indice de confiance : probabilité d’apparition de B sur les tickets comprenant A (nombre de tickets avec A et B/nombre de tickets avec A).
    • L’indice de confiance attendue : probabilité d’apparition de B sur la totalité des tickets (nombre de tickets avec B/nombre de tickets).
    • Le levier ou le lift : le poids relatif de cette association compte tenu de la fréquence d’apparition naturelle de B.

Les indicateurs statistiques des règles d’associations

  • Le Lift quantifie l’effet levier entre deux produits A et B :
    • Lift>1 : l’achat du produit A induit une plus forte probabilité d’achat du produit B.
    • Lift<1 : l’achat du produit A induit une plus faible probabilité d’achat du produit B.
  • Dans la pratique, seules les valeurs éloignées de 1 sont intéressantes.
  • Le Support révèle la fréquence d’apparition d’une association.
  • La Confiance quantifie en terme probabiliste l’association. Lorsque le Lift et le support sont élevés (>1%), l’indice de confiance prend alors toute sa signification . C’est le révélateur du pouvoir de prédiction de l’achat de B sachant A.
  • En conclusion on s’intéressera aux règles dont le Lift est > 1 et dont le Support et Confiance sont élevés.

Règles d’associations au niveau code produit

Règles d’associations au niveau code produit

Règles d’associations au niveau code produit

Retour au Wiki

Vous cherchez des consultants experts sur la segmentation clients, Contactez-nous !

Démonstration des fonctionnalités de IBM Planning Analytics

Démonstration des fonctionnalités de IBM Planning Analytics

Démonstration des fonctionnalités de IBM Planning Analytics

Retour au Wiki

Vous cherchez des consultants experts sur IBM Planning Analytics, Contactez-nous !

Nouveautés de la BI 4.2 SP4

Nouveautés importantes de la plateforme Business Objects BI 4.2 SP4

  • Refonte graphique de la zone de lancement BI et de l’interface de visualisation (Fiori) des rapports Web intelligence.
  • Nouveaux graphiques Web Intelligence : Jauges et Tuiles.
  • Migration massive des rapports utilisant des UNV vers des UNX.
  • Suppression de Java pour la création des rapports Web Intelligence.
  • Installation des SP avec les patchs dans une même exécutable.

Plateforme BO :

Business Objects BI 4.2 SP4

  • Refonte de la zone de lancement BI (BI Launchpad) pour les utilisateurs.
  • Rassemblement de toutes les planifications de l’utilisateur dans une même interface :
    • Afficher toutes les planifications.
    • Filtrer les planifications sur leurs états.
    • Filtrer les planifications par date.
    • Créer des planifications simples depuis cette interface.
  • Attention, la nouvelle zone de lancement BI possède quelques limitations :
    • Possibilité de créer uniquement de simples planifications.
    • Impossibilité de créer ou modifier les hyperliens.
    • Impossibilité de trier, filtrer ou redimensionner les colonnes.
    • Impossibilité de souscrire à des alertes.
    • Impossibilité d’ouvrir un dossier depuis une URL opendoc.
    • Aucune personnalisation ou customisation possible.
    • Utilisation du BI Workspace ou du SAP JAM Integration.
    • Les messages d’erreurs affichés sont génériques dans la plupart des interactions.

Web intelligence :

  • Amélioration des éléments personnalisés (custom elements) :
    • Nouvelle API de personnalisation.
    • Amélioration de l’API de rendu.
  • Ajout de nouvelles configurations de sécurité pour le SQL à la carte.
  • Créer ses propres fonctions Web Intelligence avec Visual Studio 2015.
  • Business Objects BI 4.2 SP4

  • Amélioration de Web Intelligence REST Web Services :
    • Contrôleur d’entrée.
    • Lecture des commentaires.
    • Support des sections, des sauts, des axes et des blocs.
    • Retour des prompts.
    • Liens d’éléments.
    • Pour les sources HANA : tri multplie, variables Interval.
  • Possibilité de changer massivement les univers utilisés par des rapports Web Intelligence de UNV vers UNX.
  • Refonte de l’interface de visualisation des documents Web Intelligence :
    • Simplifier la lecture et l’analyse des rapports.
    • Penser pour le tactile.
    • Impacte tous les rapports Web Intelligence.
    • Navigation par rapport, par section ou par page.
    • Business Objects BI 4.2 SP4

    • Icones et barre d’outil unifiées.
    • “Action in place” propose de trier et d’établir un top.
  • Attention, la nouvelle interface de visualisation Web Intelligence possède quelques limitations :
    • Répondre ou créer un commentaire.
    • Plier et déplier les sauts et les sections.
    • Geler l’entête.
    • Créer ou éditer un document Web Intelligence.
  • Suppression du mode Java pour la création des rapports Web Intelligence.
  • Nouveaux graphiques disponibles :
    • Jauges : Lineao, Speedometer et Angular.
    • Tuiles pour afficher des KPI.
    • Business Objects BI 4.2 SP4

  • Nouvelles fonctions :
    • TimeBetween.
    • DateBetween.
    • Nouveaux paramètres pour le PromptSummary.
  • Support de SAP HANA HTTP :
    • Support des hiérarchies.
    • Support du Direct Access.
    • Support des univers personnalisés.
  • Ajout des sélections complexes sur les variables BEx pour SAP BW.

Couche sémantique :

  • Nouvelle API pour la gestion de données et les profils de sécurités : UniverseSecuritycache.
  • Amélioration des performances.
  • Set Analysis : Editeur propose :
    • Segmentation par mesure et par attribut.
    • Support de l’éditeur de requête pour sélectionner un sujet.
    • Prise en compte des invites et des contextes dans l’éditeur de requête.
    • Nouveauté : diagramme de Venn.
    • Business Objects BI 4.2 SP4

  • Meilleur intégration de SAP HANA :
    • Prise en charge des filtres complexes.
    • Gestion et personnalisation des variables SAP HANA.
    • Prise en charge des connexions HTTP SAP HANA et l’Authoring UNX.

Live Office :

  • Intégration des éléments personnalisés Web intelligence en tant qu’image.

Crystal Report for Enterprise :

  • Amélioration du SDK.
  • Possibilité de changer la source de données d’un document Crystal Report.
  • Connectivité SAP BW.
  • Connectivité SAP S/4HANA.
  • Prise en charge en que source :
    • Access 2013.
    • XML.
    • Sybase SQL Anywhere 27.
    • Microsoft SQL Server 2012 / 2014 / 2016.

Crystal Report :

  • Amélioration du SDK.
  • Prise en charge en que source :
    • SAP HANA SPS12 and SPS13.
    • Sybase SQL Anywhere 17.
    • Microsoft SQL Server 2016.
    • Oracle MySQL 5.7.
    • IBM DB2 for iSeries 7.3.

Analysis for OLAP :

  • Amélioration de l’affichage du nom des colonnes lors de l’utilisation des DrillThrough.
  • Affichage par défaut d’une valeur lors de la sélection d’un membre hérité de BEx.
  • Business Objects BI 4.2 SP4

  • Ajout d’option de sécurité.
  • Ajout d’une erreur indiquant qu’un membre est manquant du cube.
  • Amélioration du panneau d’invite.
  • Possibilité de rechercher une connexion.

Plateforme BI :

  • Assigner un groupe de serveur :
    • à un dossier spécifique pour la planification.
    • à un groupe d’utilisateur pour visualiser les documents Crystal Report et Web Intelligence.
    • à un dossier spécifique pour visualiser les documents Crystal Report et Web Intelligence.
  • Créer l’exclusivité d’un groupe de serveur à un groupe d’utilisateur afin d’assurer la disponibilité des serveurs.
  • Intégration d’un anti virus scannant tous les fichiers déposé sur le File Repository.
  • Ajout de nouvelles compatibilités à OpenSSL dont pour la configuration SMTP.
  • Ajout de l’authentification X.509.
  • Renforcement de la sécurité (RSA et VSU).
  • Business Objects BI 4.2 SP4

  • Amélioration de la compatibilité avec le NetWeaver Enterprise Portal.
  • Amélioration des tests de connexion HANA.
  • Ajout du statut “Actif” ou “Inactif” dans la liste des utilisateurs.
  • Ajout d’une colonne indiquant le nombre d’instance d’un document.
  • Possibilité de limiter le nombre de document contenu dans la boite de réception BI (BI Inbox).
  • Amélioration des performances lors d’une recherche :
    • Réduction de la consommation du CMS.
    • Réduction de la taille de l’index.
    • Augmentation des performances de l’index.
  • Gestion des promotions :
    • Diverses améliorations (utilisation de caractères spéciaux dans les noms des travaux, saisi du système lors de la création des travaux, …).
    • Amélioration de la gestion par ligne de commande :
      • Possibilité de nettoyer les paramètres.
      • Sélection d’utilisateurs ou de groupes d’utilisateurs.
      • Intégration de nouveaux objets tel que Lumira 2.0.
      • Business Objects BI 4.2 SP4

      • le paramètre BatchJobQuery permet d’exécuter de petites requêtes dans un unique job améliorant les performances et le taux de réussite.
  • Installation :
    • Possibilité de combiner dans un seul package un SP et des patchs.
    • Temps d’installation réduit.
    • Support des caractères spéciaux dans le mot de passe Administraror.
    • Possibilité d’utiliser SAP MaxDB pour le CMS et la base d’audit.

BI Platform SDK

Les améliorations portent sur :

  • Boite de réception BI.
  • Gestionnaire de documents.
  • Corbeille.
  • Gestion des utilisateurs.
  • Planification.
  • Publication.
  • Alertes et Notifications.
  • Calendrier.
  • Generique.
  • OpenDocument.

Crystal Report Javascript API

  • Nouvelles API pour :
    • setEnableDrillDown.
    • setToolPanelViewMode.
    • setHasToggleGroupTreeButton.
    • setHasToggleParameterPanelButton.
    • setHasSearchButton.

Système :

  • Composant par défaut :
    • Mise à jour de SQL Anywhere 17 si la base de données par défaut est SQL Anywhere.
    • Mise à jour de Tomcat 8.5.4.
  • Nouveaux systèmes d’exploitation compatibles :
    • Red Hat Enterprise LINUX (RHEL) 7.2.
    • IBM AIX 7.2.
    • Oracle Linux Kernel incluant UEK.
  • Nouveaux web application compatibles :
    • Jboss EAP 7.0.
  • Nouveaux portails compatibles :
    • SAP NW 7.5 SP05 Application Server Java.
  • Autres compatibilités :
    • Visual Studio 2015 avec compileur.

Source de données :

  • Nouvelles sources de données compatibles :
    • SAP HANA 2.0.
    • Apache Spark 2.0.
    • Hive 2.0.
    • Cloudera Impala 2.3.
    • SQL Anywhere 17.
    • Oracle Exadata 12.
    • Microsoft Parallel Datawarehouse (uniquement JDBC).
    • Microsoft SQL Server 2016.
    • DB2 for zOS 12.
    • DB2 for iSeries 7.3.
    • MySQL 5.7.

Retour au Wiki

Vous cherchez des consultants pour vous accompagner dans une migration Business Objects BI 4.2 SP4, Contactez-nous !

Les nouveautés de ODI 11 (Oracle Data Integrator 11)

les nouveautés de ODI 11
Oracle Data Integrator 11

32 et 64 bits

ODI fonctionne désormais en 32 et en 64 bits ce qui permet d’utiliser pleinement les architecture 64 bits et d’allouer de la mémoire Java à la JVM au-delà de 3G. Ceci permet d’améliorer les performances et de traiter plus de volumétrie en mémoire notamment pour les fichiers csv, xml, etc…

Les nouveaux agents

L'agent autonome est plus facile à déployer n'importe où, mais n'a pas de clustering ou de pool de connexions. Il peut compter sur Oracle Process Manager et Notification Server (OPMN) pour être protégé et surveillé comme un service et il peut utiliser la fonctionnalité intégrée ODI Load Balancing.

L'agent Java EE nécessite une configuration légèrement plus complexe (installation WLS, configuration d’un domaine, etc.), mais permet d'accéder à un monde différent en termes de déploiement à l'échelle de l'entreprise: clustering, équilibrage de charge, ainsi qu’un suivi centralisé.

Présentation d’ODI 11 Console

Toutes les interfaces web sont maintenant regroupées en une seule application « Console ODI ». Cette console fournit des fonctionnalités pour configurer et surveiller un environnement ODI, et parcourir les métadonnées et suivre les exécutions.

ODI 11 Console

Présentation d’ODI 11 Studio

ODI Studio : le client

  • Le client Oracle Data Integrator 11g est appelé Oracle Data Integrator Studio est basé sur la plate-forme Fusion Client.
  • Il n’y a maintenant plus que 1 outil pour avoir accès à la topologie, la sécurité, le journal et le designer : ODI64.exe.

ODI Studio : l’IHM

  • L’interface utilisateur à été modernisée pour être plus intuitive.

ODI Studio : l’interface

  • On peut désormais ouvrir plusieurs objets sous forme d’onglets.
  • Un seul bouton pour lancer l’exécution des objets.

ODI Studio : les objets globaux

  • Même si l’utilisation des objets globaux au sein de projet ODI est déconseillé, on appréciera cependant de pouvoir centraliser les KM.

ODI Studio : différent type d’export

  • ODI 11G permet d’exporter plus facilement.

ODI Studio : export intelligent

  • L’export intelligent permet d’exporter un objet avec toutes ses dépendances.

ODI Studio : import intelligent

  • L’import intelligent permet d’importer un objet avec toutes ses dépendances.

ODI 11 import intelligent

Présentation d’ODI Studio 11. Vue de l’interface de développement

ODI Studio : les mappings

Nouveau « Mapping » dans l’interface :

  • Ce nouvel éditeur fournit un meilleur rendu des diagrammes, le support du zoom et des objets pliables.
  • L'édition a été améliorée pour prendre en charge les changements qui facilitent la vie du développeur.
  • Possibilités de sélectionner plusieurs colonnes sources pour alimenter un champ cible.
  • Les colonnes peuvent être triées.

ODI Studio : les flux

Sur l’onglet Flux:

  • Il est possible de changer la valeur d’un filtre sans retourner dans le « mapping » :

ODI 11 les flux

ODI Studio : Modification Rapide

Nouveauté, l’onglet « Modification rapide » :

  • Il permet de synthétiser et de modifier tout éléments posés dans l’onglet « mapping ».

ODI Studio : les erreurs

  • Lorsqu’on clique sur le bouton Erreurs dans la barre d'outils de l'éditeur d'interface, la liste des erreurs de conception détectées s'affiche avec des messages et des conseils utiles.
  • Des corrections automatiques sont proposées et peuvent être appliquées en un seul clic.
  • Lors de l'enregistrement et de la tentative d'exécution d'interfaces, un rapport est généré avec tous les problèmes restants.

ODI Studio : la simulation

  • Avant l’exécution, il est possible de lancer une simulation.

ODI Studio : les datasets

  • Les ensembles de données sont un grand saut dans la conception d'interface dans ODI 11g.
  • Imaginez que vous souhaitez enregistrer dans une table cible des informations provenant d'un ensemble de fichiers plats avec des informations d'un ensemble de tables (avec des transformations différentes, bien sûr).
    • En ODI 10g, on pense multiples interfaces, procédures et packages.
    • ODI 11g permet de le faire dans une seule interface !

ODI Studio : les lookup

  • Oracle Data Integrator 11g introduit le concept de « Lookup » dans les interfaces.
  • Les recherches sont créées à l'aide d'un assistant. Les lookup sont générées par ODI pour le traitement dans le moteur de base de données sous la forme d'une jointure externe gauche dans la clause FROM ou comme expression dans la clause SELECT (recherche en mémoire avec boucle imbriquée).

ODI Studio : le partionning

  • Le partionning : les informations de partitionnement peuvent être utilisées dans les datastores et des partitions spécifiques peuvent être utilisées lorsque le datastore est utilisé comme source ou cible.

ODI Studio : les index

  • Les jointures et les filtres dans les interfaces peuvent être indexés automatiquement pour de meilleures performances. En sélectionnant des types d'index sur une jointure ou un filtre, l'utilisateur peut demander à ODI de créer des index temporaires sur les colonnes participant à la jointure ou à l'index lors de l'exécution de cette interface.

ODI Studio : les jointures naturelles

  • Les jointures dans les interfaces prennent désormais en charge le type de jointure naturelle. Ces jointures n'exigent aucune expression de jointure et sont gérées par le moteur d'exécution, qui met en correspondance automatiquement les colonnes portant le même nom.

ODI Studio : les tables dérivées

  • ODI 11 g offre la possibilité d’utiliser des sous-requêtes.  Cette fonctionnalité offre de nouvelles possibilités d’optimisation, permet de réduire le nombre d’interfaces exécutées. Au niveau du développement, il faut développer une interface temporaire pour chaque sous-requête.
  • Le seul inconvénient de cette fonctionnalité serai la maintenance, l’abus de sous-requêtes peut rendre difficile la compréhension du développement.

ODI 11 : Nouveautés du journal d’exécution

ODI Studio : Arrêt des sessions

  • On peut désormais faire un arrêt immédiat d’une session depuis le journal d’exécution.

ODI Studio : les messages d’erreurs

  • En version 10g lorsqu’un serveur était inaccessible, le message est le suivant :
    java.sql.SQLException: [OWLS][SQLServer JDBC Driver]Error establishing socket to host and port: localhost:1433. Reason: Connection refused: connect
    at
  • En version 11g, nous aurons ce type de message :
    ODI-1217: Session Refresh Customer (119011) fails with return code 8000.
    ODI-1226: Step Load Customer fails after 1 attempt(s).
    ODI-1240: Flow Load Customer fails while performing a Loading operation. This flow loads target table NorthwindEmps.
    ODI-1227: Task SrcSet0 (Loading) fails on the source MICROSOFT_SQL_SERVER connection MSSQL.
    Caused By: java.sql.SQLException: [OWLS][SQLServer JDBC Driver]Error establishing socket to host and port: localhost:1433. Reason: Connection refused: connect.

ODI Studio : les variables

  • A chaque Step sur ODI dans le journal, on pourra voir les variables et la valeur prise par celle-ci au moment de l’exécution.

ODI 11 Variable

ODI : Focus sur l’ XML

ODI Studio : Focus XML

  • Amélioration du driver jdbc pour XML qui permet désormais de ne plus stocker le schéma XML « en mémoire » (in mémory).
  • L’approche « en mémoire » fonctionne très bien pour des fichiers simples ou léger mais peut s’avérer très gourmande en ressources voir difficile à réaliser. Pour palier à cela, le driver XML permet d’être adossé à une vraie base de données type Oracle, Microsoft SQL server ou MySQL qui stockera le schéma XML et sera utilisé ensuite en source ou en cible.
  • Méthode :
    • Déclaration dans la topologie du driver XML.
    • Définition du serveurs de données et du schéma qui sera adossé à la base de données.
    • Définition des modèles dans le désigner.
    • Création des interfaces d’alimentation en choisissant le schéma cible différent de la source.
    • Mapping des champs et définition des différents flux des interfaces.
  • Définition d’un fichier de connexion à la base de données pour le driver XML.
  • En préalable, construction d’un fichier properties qui sera à mettre dans les répertoires.
  • Le fichier contiendra les définitions suivantes :
    • driver=oracle.jdbc.driver.OracleDriver
    • url=jdbc:oracle:thin:@localhost:1521:xe
    • user=XML_STAGING
    • password=g0yXfhlSfzhz4bro5P7HCBQ
    • schema=XML_STAGING
    • drop_on_connect=Y
    • create_tables=AUTO
    • create_indexes=Y
    • truncate_before_load=Y
    • ids_in_db=Y
    • drop_tables_on_drop_schema=Y
    • use_prepared_statements=Y
    • use_batch_update=Y
    • batch_update_size=30
    • commit_periodically=Y
    • num_inserts_before_commit=1000
    • reserve_chars_for_column=3
    • reserve_chars_for_table=3
  • Au niveau de la topologie, il faudra ajouter à la définition du driver JDBC XML, l’information de connexion via le fichier .properties.
  • Définition de l’architecture physique du serveur de données.
  • Définition du schéma physique et du schéma logique.
  • Création du modèle dans le designer et reverse du modèle.
  • Faire du reverse « physiquement » va créer les tables dans le schéma de base de données associés au fichier XML.
  • Pour pouvoir écrire dans le fichier XML, nous allons avoir besoin de deux modules de connaissances :
    1. LKM xxx to SQL – pour charger les données depuis la source vers l’environnement de travail.
    2. IKM XML Control Append – pour écrire les données de l’environnement de travail vers la cible XML.
  • Il conviendra de préciser sur chaque interface que l’espace de travail est différent de la cible et de choisir celui de notre schéma de données
  • Imaginons le fichier XML suivant à alimenter à partir de table.

ODI 11 XML

  • La première interface alimentera l’axe Région.
  • Les autres interfaces, sauf la dernière, seront classiques sans préciser le « Truncate Schéma » et le root schéma.
  • On laissera en fait les options par défaut sur le IKM XML Control Append.
  • Pour la dernière interface, au niveau du IKM XML Control Append, on précisera le nom du fichier XML à obtenir et on mettra le CREATE_XML_FILE à « True ».

Retour au Wiki

Vous cherchez des consultants pour vous accompagner dans une migration ODI, Next Decision est experte dans les migrations Oracle Data Integrator, Contactez-nous !

Outil ETL ou Script

Outil ETL ou Script ?

Au sein de l'entreprise, les données sont si nombreuses que l'on parle parfois d' « infobésité ». Elles sont partout, mais pas toujours à la bonne place, dans différents formats et souvent sans valeur uniforme. Leur traitement représente un enjeu majeur.

Le traitement, oui, mais avec quel outil ? Opter pour un outil ETL ou développer son propre ETL via une approche scriptée ?

Petit point sur la question.

Les outils ETL

Définition

Un ETL (Extract Transform Load) est un middleware permettant d’effectuer des synchronisations de données entre différents systèmes. Il extrait les données, les manipule (conversion, suppression des doublons, etc.) et les intègre dans un référentiel commun : l'entrepôt de données (datawarehouse).

La technologie ETL repose sur :

  • des connecteurs permettant de récupérer et transférer des données,
  • des transformateurs permettant d’effectuer des manipulations complexes sur ces données,
  • des mises en correspondance afin de faire correspondre le schéma des données au schéma du ou des systèmes cibles.

Les outils ETL sont des logiciels disposant d’un Environnement de Développement Intégré (IDE). Ils mettent à disposition tous les éléments nécessaires au développement et à la mise en production de flux de transformation et chargement de vos données.

De nombreuses solutions sont disponibles sur le marché :

Talend
Oracle
Informatica
IBM
Semarchy

Avantages d'un outil ETL

  • Il dispose de connecteurs bdd, webservices et fichiers plats prêts à l’emploi.
  • Il permet de structurer et rassembler l'ensemble des morceaux de code nécessaires aux transferts et aux transformations des données.
  • Il offre une représentation graphique des flux et opérations.
  • Il permet de traiter rapidement un grand nombre de données.
  • Il facilite la maintenance et l'évolution de l'ETL.
  • Il gère nativement l’encryption des données.
  • Il intègre la gestion des métadonnées, la gestion des erreurs, la gestion des processus et de leur hiérarchie, la gestion de la documentation.
  • Il permet un déploiement facile des flux sur un environnement de production.
  • Il est appréhendable par une une personne sans connaissances avancées en développement.
  • Il gère le load balancing entre serveurs.
  • Il est extensible à l’aide de script.

Inconvénients d'un outil ETL

  • Il nécessite un ou plusieurs développeurs avec des connaissances sur l’outil d’ETL utilisé ou nécessite un temps d’apprentissage.
  • Il est difficilement intégrable à un outil de gestion de versions.

L'approche Scriptée

Définition

L’approche scriptée, ou « hand made », consiste à développer le ou les outils nécessaires à la mise en place d’un traitement ETL, à l’aide d’un ou plusieurs langages de programmation.

Ces outils consistent généralement en une combinaison de procédures stockées au niveau des bases de données ainsi que de différents scripts nécessaires au transport des données et aux transformations complexes.

Avantages de l'approche scriptée

  • Elle permet une homogénéité technologique avec les solutions déjà en place au niveau du SI.
  • Elle permet d’utiliser les langages que les équipes maîtrisent déjà, sans apprentissage et médiation d'un outil tiers.
  • Elle peut, dans certains cas, simplifier le traitement des fichiers plats.
  • Elle permet une intégration poussée avec des outils de gestion de versions.

Inconvénients de l'approche scriptée

  • Elle nécessite de tout développer.
  • Elle impose de nombreuses modifications lors d’une modification au niveau de la source, du contenu ou de la destination.
  • Elle est facteur d’un grand nombre de bugs et de régressions à chaque modification.
  • Elle nécessite l’utilisation d’un planificateur de tâches externe.
  • Elle nécessite de tout documenter, au risque de se perdre dans le code produit.
  • Elle peut être éparpillée sur plusieurs serveurs.

Conclusion : outil ETL ou Script ?

L’utilisation d’une solution scriptée est envisageable pour des besoins simples. Dès lors que ces besoins évoluent et se complexifient, une réévaluation de la solution s'impose : ne serait-il pas plus opportun de passer à un outil ETL ?

Le coût initial de la mise en place d’un outil ETL et de la formation de ses utilisateurs est vite compensée par sa simplicité d’utilisation et les fonctionnalités prêtes à l’emploi.

Grâce au support fourni par les éditeurs de solution ETL, vous vous affranchissez des tâches inhérentes aux évolutions du cœur de la solution. Vous vous concentrez ainsi sur l'essentiel : solutionner rapidement et simplement votre besoin, à moindre frais.

S'il fut une époque au cours de laquelle les avantages d'un développement maison prenaient le pas sur ceux d'un outil ETL, ce n'est plus le cas aujourd'hui. Bien au contraire, opter pour un outil ETL, c’est s’assurer de la pérennité et de l’adaptabilité de son système de transport et de transformation de données.

Retour d’expérience sur la validation de données géolocalisées

Retour d’expérience sur la validation de données géolocalisées

Problématique

Vous disposez d'enregistrements qui contiennent différentes données, notamment des coordonnées géographiques. Chaque enregistrement géolocalisé renvoie également à une commune.

Cependant, vous constatez que certaines données sont erronées : les coordonnées géographiques ne correspondent pas à la commune qui leur est associée…

Mais alors comment procéder à la validation de ces données géolocalisées et s'assurer de leur fiabilité ?

Éléments nécessaires à la validation des données géolocalisées

Pour la validation des données géolocalisées, vous devez disposer de deux éléments :

  • Des enregistrements contenant les deux informations suivantes :
    • 1 localisation par enregistrement à valider (coordonnées GPS en degrés décimaux) ;
    • 1 commune (avec son code INSEE) associée à cet enregistrement.
  • Un fichier contenant les localisations des communes INSEE ainsi que leur superficie, fichier téléchargeable gratuitement sur l'Open Data de l'INSEE.

Logique de validation des données géolocalisées

Il est possible de mesurer la distance qui sépare deux points grâce à leurs coordonnées géographiques respectives. Ainsi, on peut obtenir la distance (D) entre le centre de la commune et notre point géolocalisé, puis comparer cette distance au rayon (R) de cette même commune (rayon extrapolé à partir de la superficie).

  • Si la distance est inférieure au rayon de la commune, la donnée est fiable : le point géolocalisé se situe bien dans la commune.

    Si D ≤ R, alors la donnée est validée.


  • Si la distance est comprise entre 1 et 3 fois le rayon de la commune ou si cette distance est inférieure à 5 km, la donnée est « à vérifier ».

    Si R ≤ D ≤ 3R ou si D ≤ 5 km, alors la donnée est à vérifier.


  • Si la distance est supérieure au rayon de la commune (ou supérieure à 5 km), alors le point géolocalisé ne peut pas être associé à la commune.

    Si D > R ou si D > 5 km, alors la donnée est invalidée.

Formules de calcul

Soit deux points A et B géolocalisés. Ci-dessous la formule pour calculer la distance D qui sépare ces deux points :

DA-B = arc cos [sin(LatA)*sin(LatB) + cos(LatA)*cos(LatB)*cos(LonB – LonA)]

Lat : latitude en radians
Lon : longitude en radians

Pour convertir les degrés en radians, il suffit d'appliquer la formule suivante :

Latitude (en degrés) * π/180 = Latitude (en radians)
Longitude (en degrés) * π/180 = Longitude (en radians)

exemple : Nantes

Nantes Degré Radian
Longitude (x) 47.216671 0.8240864
Latitude (y) -1.55 0.027052

La distance DA-B obtenue est une distance angulaire, exprimée en radians. Pour l'obtenir en kilomètres, il faut la multiplier par le rayon terrestre (6378,137 km).

La formule devient :

DA-B = arc cos [sin(LatA)*sin(LatB) + cos(LatA)*cos(LatB)*cos(LonB – LonA)] * 6378,137

Ensuite, il ne reste plus qu'à implémenter cette formule et à la valider avec un « si », « alors », « sinon » dans votre outil de traitement favori. Vous automatisez ainsi la validation des données géolocalisées.

Rappel :

La superficie des communes dans le fichier INSEE est exprimée en hectares. Sachant qu'un hectare vaut 0,01 km2, on peut extrapoler le rayon moyen de la commune grâce à la formule suivante :

rayon superficie

L'implémentation de cette formule en SQL Server donne : sqrt(Superficie/100*pi())

Retour au Wiki

Vous souhaitez bénéficier d'experts sur la validation de données géolocalisées ? Rendez vous sur la page Contact

Les nouveautés de SAP Business Objects BI 4.2

Les nouveautés de SAP Business Objects BI 4.2

Web Intelligence :

Parallélisation des requêtes

  • Les requêtes des documents Web Intelligence sont exécutées en parallèle (Activé par défaut, ne peut pas être désactivé) et non plus en séquentiel.
  • Le nombre maximum de requête exécutée en simultanée est paramétrable.

Gestion des grands nombres

  • Gestion du format IEEE 754 (virgule flottante) permettant une précision de 15 à 40 chiffres.
  • Nouvelles fonctions disponibles pour gérer la conversion.
  • Menu contextuel pour convertir certaines mesures au format décimal.

Les commentaires

  • Possibilité d’ajouter, modifier et supprimer des commentaires depuis l’interface Web Intelligence.
  • Les commentaires sont directement visibles dans le rapport.
  • Le panneau propose la création, la suppression et l’édition des commentaires.

Les nouveautés de SAP Business Objects BI 4.2

Les nouveautés de SAP Business Objects BI 4.2

Les éléments partagés

Permet de partager une partie d’un rapport Web Intelligence (Exemple : graphique, tableau, etc…) avec d’autres utilisateurs depuis une interface dédiée.

Ces éléments sont synchronisés entre eux : si une modification de l’élément source est effectuée, une notification est envoyée aux utilisateurs pour indiquer qu’une mise à jour est disponible.

Les nouveautés de SAP Business Objects BI 4.2

Geo Maps

Créer des éléments cartographiques dans un rapport Web Intelligence. Geo Maps intègre une base de données géographique (ville de plus de 100 000 habitants, département, région, pays) et différentes représentations (bulles, point, diagramme circulaire).

Intégration d’extensions

Possibilité d’intégrer des composants de visualisation fournis par des éditeurs tiers. Ces éléments sont intégrés dans Web Intelligence comme un élément interne.

Accès direct aux vues SAP HANA

Permet de naviguer directement dans les vues HANA à travers des connexions OLAP et relationnel. La connexion OLAP permet l’utilisation des hiérarchies HANA.

SAP HANA Online

Permet de sous-traiter les calculs Web Intelligence à SAP HANA sans utiliser le panneau de requête ou un microcube.

La plateforme BI :

Outil de mise à niveau

  • Possibilité de préciser le niveau de log depuis l'interface utilisateur.
  • Filtrer la sélection du contenu.
  • Exporter les instances en attente et récurrentes.
  • Possibilité de ne pas exporter la sécurité.
  • Estimation de la taille du contenu sélectionné.

Gestion des promotions

  • Amélioration des performances.
  • Réduction de la charge du serveur d’application.
  • Pouvoir sélectionner une partie du contenu du fichier lcmbiar pour sa récupération.
  • SFTP en tant que destination.

Notification des utilisateurs

  • Diffuser des informations simplement à des utilisateurs ou des groupes.
  • Préciser l’heure et la durée la notification.
  • Créer une notification par email.
  • Les notifications sont affichées en haut de l’interface utilisateur.

Les nouveautés de SAP Business Objects BI 4.2

La corbeille

  • Seuls les documents et les dossiers publics peuvent être restaurés.
  • Par défaut, la durée de rétention des objets est de 30 jours. Au-delà, ils sont définitivement supprimés. Ce paramètre peut être configuré.
  • La corbeille est désactivée par défaut.

Les commentaires

  • Ils sont directement intégrés à Web Intelligence.
  • Ils sont centralisés et gérés par des droits des groupes et utilisateurs.
  • Les commentaires sont sensibles aux contextes.

Audit

  • Amélioration de l’audit : meilleurs performances lorsque les événements sont activés et qu’un grand nombre d’utilisateurs accèdent au référentiel.

Publication

  • Supprime les publications quand aucun document n’est produit.
  • Gestion des logs améliorée lorsque les destinataires sont dynamiques.

Cockpit d’administration BI

  • Une page simplifiée regroupant les indicateurs clés du serveur.
  • Possibilité de rentrer dans le détail des informations et de les filtrer.
  • Statistiques clés disponibles.

Les nouveautés de SAP Business Objects BI 4.2

Rest API

Rest API permet désormais de gérer :

  • Les utilisateurs : ajout, création et modification.
  • Les planifications.
  • Importation et exportation des documents BOE.

Couche sémantique :

Liaison entre des univers de type UNX

Permet de lier des univers.

Création d’univers basé sur BW

Permet l’accès aux requêtes Bex depuis l’interface de création des informations. La couche sémantique reste synchronisée avec Bex offrant la possibilité de renommer, regrouper ou supprimer automatiquement les objets.

Crystal Report for Enterprise :

Alignement vertical du texte

Possibilité d’effectuer un alignement vertical vers le haut, le centre ou le bas.

Gestion des codes-barres et des QR code

Les formats supportés sont :

  • Aztec.
  • EAN 8.
  • Code 128.
  • ITF.
  • Code 39.
  • PDF 417.
  • Data Matrix.
  • QR Code.
  • EAN 13.

Graphique en cascade

Nouveau graphique en cascade basé sur le CVOM.

Sources de données

Ajout de nouvelles sources de données :

  • SAP Hana SPS9.
  • SAP Hana SPS10.
  • IBM Netezza 7.1.
  • IBM DB2 z/OS 11.
  • PostgreSQL 9.3.
  • Sybase IQ 16.
  • Oracle 12c.
  • Teradata 14.1.
  • Teradata 15.
  • Greenplum 4.3.

Crystal Report 2016 :

Alignement vertical du texte

Possibilité d’effectuer un alignement vertical vers le haut, le centre ou le bas.

Description des paramètres

Possibilité de consulter les valeurs des paramètres et ajout de nouvelles fonctions.

Format conditionnel sur les lignes et les boites

Possibilité de modifier l’affichage des lignes ou des boites selon certaines conditions.

Sources de données

Ajout de nouvelles sources de données :

  • SAP Hana SPS9.
  • SAP Hana SPS10.
  • Sybase IQ 16.
  • Oracle 12c.
  • SQL Server 2014.

Analysis for OLAP :

Amélioration des connecteurs HTTP vers SAP HANA

Nouvelle connexion pour SAP HANA.

Gestion des alias Essbase

Utilisation d’alias pour personnaliser les noms des dimensions et des mesures si elles sont définies dans Essbase 9 ou 11.

Conversion de devises avec SAP BW

Possibilité d’utiliser le convertisseur de devises de SAP BW 7.x

Trier une hiérarchie

Permet de mettre en place un tri sur une hiérarchie sans limitation de source de données.

Mobile BI :

Utilisation des alertes IOS

Possibilité de recevoir les notifications définies par l’administrateur, lors de la mise à jour de documents ou de la réception d’un message dans la BI Inbox.

SDK :

Ajout de nouvelles fonctionnalités

  • Gestion des utilisateurs : création, changement de groupes, récupérer certaines informations.
  • Gestion du contenu : création de publication, import ou export de documents agnostiques dans la plateforme, données liées aux planifications.
  • Amélioration de l’API lié à l’infostore, à l’opendoc, aux traductions et à Crystal Report.

Autres évolutions :

Système d’exploitation

  • Nouveau système supporté : SLES 12 et Red Hat Enterprise Linux 7.
  • Système ne rentrant plus dans le cadre du support : Windows Server 2008 x64 et Red Hat Enterprise Linux 5.

Navigateur internet

  • Nouveau système supporté : Firefox ESR 38, dernière version de Chrome et Safari 8 (Yosemite 10.10).
  • Système ne rentrant plus dans le cadre du support : Internet Explorer 8, Internet Explorer 9 et Firefox ESR 31.

Serveur d’application

  • Nouveau système supporté : Tomcat 8 et JBoss EAP 6.2.
  • Système ne rentrant plus dans le cadre du support : JBoss AS, Tomcat 6 et IIS 7.

Base de données du référentiel

  • Nouveau système supporté : SQL Anywhere 16 (intégré).
  • Système ne rentrant plus dans le cadre du support : SQL Server 2008 SP2, SQL Server Express 2008, MySQL 5.1, HANA (SPS5, SPS6) et Max DB.

Base de données de l’audit

  • Nouveau système supporté : SQL Anywhere 16 (intégré)
  • Système ne rentrant plus dans le cadre du support : SQL Server 2008 SP2, SQL Server Express 2008, MySQL 5.1, HANA (SPS5, SPS6) et Max DB.

Java

  • Nouveau système supporté : Java 8.
  • Système ne rentrant plus dans le cadre du support : Java 6.

Serveur LDAP

  • Nouveau système supporté : ODSEE 11
  • Système ne rentrant pas dans le cadre du support : IBM Tivoli 6.2, Microsoft AD 2008.

AD et Sécurité

  • Nouveau système supporté : Certification AD SSO avec CMS sous Linux.

Autres

  • Nouveau système supporté : dernière version Adobe Reader et de Flash Player.
  • Système ne rentrant pas dans le cadre du support : Office 2007 SP3+ et Citrix XenApp 5.

Accès aux données :

Big Data

  • Apache Spark 1.1 ( nouveau support).
  • Hive 0.14 Support (direct) (Incremental).
  • Update Impala Hive support to 0.14 (Incremental).
  • Big Data sources incluant HANA / Hive.

SFDC

  • Support du SFDC à travers des drivers Simba.

Performance

  • Amélioration des performances des sources de données ERP/SAP.

oDATA

  • Permet l’utilisation de oDATA.

Sécurité

  • Support de l’ODBC 2.3 UNIX.
  • JDBC SSO.

Web Services

  • Amélioration des Web Services afin de gérer les nouveaux standards (SSO/auth).

HP

  • Nouveau système supporté : Vertica 6.2 / 7.1
  • Système ne rentrant pas dans le cadre du support : Neoview 2.3.1 / 2.3.3 / 2.4

IBM

  • Nouveau système supporté : IBM IDS 12.1 (ECS france) et IBM Netezza 7.1 / 7.2
  • Système ne rentrant pas dans le cadre du support : IBM DB2 for i (iSeries) 5.4, IBM DB2 for LUW 9.5 & 9.7, IBM DB2 for z/OS * 9.1 / 10 / 10.1 et IBM Netezza 4.0 / 4.5 / 4.6 / 5.0

Teradata

  • Nouveau système supporté : Teradata 12.0 / 13.0 / 13.10

EMC

  • Nouveau système supporté : Greenplum 4.3
  • Système ne rentrant pas dans le cadre du support : Greenplum 4.0 / 4.1 / 4.2

Microsoft

  • Système ne rentrant pas dans le cadre du support : Microsoft Excel 2007, Microsoft Access 2007 et Microsoft SQL Server 2008 SP1/SP2.

Ingress

  • Système ne rentrant pas dans le cadre du support : Ingress 9 et 10.1

PostgreSQL

  • Système ne rentrant pas dans le cadre du support : PostgreSQL 8.4 / 9

Oracle

  • Système ne rentrant pas dans le cadre du support : Oracle 10gR2 et Oracle 11gR1

MySQL

  • Système ne rentrant pas dans le cadre du support : MySQL 5

Voici les nouveautés apportées par le SP3 de la version SAP BI 4.2

Possibilité de faire en sorte que les publications ne partent pas si les documents sont vides :

Les nouveautés de SAP Business Objects BI 4.2

La version HTML est maintenant au même niveau que le mode Java :

  • Possibilité de créer de documents sur Excel.
  • Possibilité de créer du formatage conditionnel (comme dans Excel).
  • Possibilité de créer des formats de nombre personnalisés.
  • Possibilité de changer de source sur un rapport en mode HTML.

Possibilité de faire des contrôles d'entrée en cascade.

Les nouveautés de SAP Business Objects BI 4.2

Possibilité de faire référence à une cellule quelque part dans un document :

Les nouveautés de SAP Business Objects BI 4.2

A la manière d'Excel, cela permet facilement de faire référence au contenu d'une autre cellule, sans avoir à créer de nouvelle variable.

Possibilité de fusionner des variables entre elles.

Les nouveautés de SAP Business Objects BI 4.2

Retour au Wiki

Vous souhaitez bénéficier d'experts sur SAP Business Objects BI 4.2 ? Rendez vous sur la page Contact

Qlik Sense VS Qlikview

Qlik Sense VS Qlikview

Présentation de QlikView : le discours de l’éditeur

QlikView un outil orienté utilisateurs métier

La technologie de recherche associative de Qlikview permet d'obtenir des réponses dès que de nouvelles questions émergent. Vous pouvez interagir avec les données sans aucune limite pour générer des perspectives inédites. En un clic vous connaissez les relations entre les dimensions qu’elles soient existantes ou inexistantes.

QlikView : une BI en libre-service fournie par l'IT

Qlikview permet aux professionnels de l'informatique de déployer un modèle complet de BI en libre-service. Qlikview révolutionne ainsi les relations entre l'informatique et les métiers en garantissant une qualité, une gouvernance et une sécurité optimales des données.

QlikView simplifie la vie des professionnels et des développeurs décisionnel

Grâce à Qlikview, les analystes métier et les développeurs de BI peuvent créer facilement des applications de BI de pointe. Les utilisateurs peuvent ensuite étendre leurs fonctionnalités et les perfectionner en fonction de l'évolution des besoins métier.

Présentation de Qlik Sense: le discours de l’éditeur

Qlik Sense : la Data Discovery interactive et la visualisation de données pour laisser votre instinct vous guider

Qlik Sense rend la création de dashboards simple et intuitive. Avec Qlik Sense, les utilisateurs peuvent désormais créer eux même les tableaux de bord sans aucune compétence informatique. Qlik Sense permet aussi l’exploration simple des données afin de répondre aux questions Qui, Quoi, comment et pourquoi. Comme dans un moteur de recherche, vous arrivez page blanche. Posez des questions. Suivez votre réflexion. Parcourez de manière innée de très grandes bases de données et ce sans se soucier des relations entre les données. Partagez vos réflexions, vos axes d’optimisation de manière visuelle et précise soit dans le tableau de bord soit via un système de Stories telling. Il est à noter que le contenu des données, les analyses ou les commentaires sont issues d’alimentation des données qui sont justes et pilotées.

qlik analyse du CA

qlik CA et Marge

qlik CA et Marge

Caractéristiques techniques Qlik Sense

Qlik Sense dispose de la seconde génération de moteur de données. Plus performante que la version actuelle implémentée dans Qlikview, prochainement disponible dans Qlikview.

L’architecture distribuée de Qlik Sense Enterprise permet une grande flexibilité de déploiement. Celle-ci est prévue :

  • Pour les déploiements internationaux.
  • Pour évoluer vers des centaines de milliers d'utilisateurs.
  • Pour traiter des données à l'échelle à des milliards de lignes de données.

L’objectif de la plateforme Qlik Sense est d’accompagner les entreprises par la gouvernance de la donnée sur une plateforme :

  • Conçue pour la livraison de données sécurisée et flexible.
  • Conçue pour self-service et la collaboration.
  • Conçue pour tirer parti des investissements existants.
  • Conçue pour une gestion des droits granulaire et souple.
  • Indépendante de la plateforme de restitution (mobilité).

qlik demographie

Le comparatif QlikView vs Qlik Sense

QlikView vs Qlik Sense : points communs

Les technologies Qlik se basent sur un brevet (le modèle associatif), ce qui fait leurs spécificités sur le marché de la BI.

Ces technologies associatives, couplés notamment à une base vectorielle, permettent :

  • Le calcul à la volée lors de sélection, En conséquence, la sélection dans un objet (graphique, liste de sélection…) met à jour l’ensemble des graphiques.
  • Une expérience utilisateur visuelle (vert/blanc/gris pour représenter l’associativité) donnant la réponse et la non-réponse aux questions que l’utilisateur se pose. L’associativité permet de voir tous les arbres de décisions en un clin d'œil, ce qui généralement conduit à découvrir de nouvelles questions.

Le modèle associatif est opposé

  • Au modèle relationnel (périmètre limité et contraint, je dois savoir ce que je souhaite analyser avant de le demander).
  • Au modèle multidimensionnel (dont le changement de périmètre nécessite la reconstruction des cubes).

Il est à noter que le moteur de Qlik Sense a été amélioré par rapport à Qlikview. La performance et la compression ont été améliorées. Par exemple, issu de nos laboratoires Next Décision, le changement d’une base de 15 Mo et d’une base de 7 Mo dans le même modèle a généré une base QVF de 705 Ko.

QlikView vs Qlik Sense : les différences

Les usages par outils pour les utilisateurs métiers

L’analyse guidée (application construite intégralement) :

  • Qlikview OK
  • Qlik Sense OK

L’analyse guidée et la modification par ajouts ou modifications de graphique :

  • Qlikview OK mais difficile
  • Qlik Sense OK

Bac à sable pré-packagé (Application avec les données chargées et préparées) :

  • Qlikview Complexe
  • Qlik Sense OK

Appli vierge :

  • Qlikview KO
  • Qlik Sense OK

Les évolutions a venir

Qlikview v12 vient juste de sortir. Cette dernière permet d’intégrer la base Qliksense comme moteur de gestion de base de données.

Qlik Sense dispose d’une roadmap jusqu’à la version 5.
Ce qui est prévue : 1 version majeure + 2 versions « mineurs » par an.

Au rythme de :

  • Juin : version majeur.
  • Septembre et Février : version mineur.

A fin décembre 2015, Qlik Sense est en version 2.1, la version 2.2 est prévue pour Février 2016, la version 3.0 en Juin 2016, la version 3.1 pour Septembre 2016 et ainsi de suite jusqu’à Juin 2018 avec la version 5.0.

Les versions dites mineures intègre pour l’instant de grandes évolutions. Exemple, pour la version 2.2 est prévue l’intégration d’un ETL graphique.

Qlikview étant un outil plus mature, le planning des évolutions majeures n’est pas annoncé. La prochaine version devrait intégrer le nouveau moteur associatif sans toutefois de refonte graphique.

Les fonctionnalités

Par sa maturité, Qlikview permet plus de variation dans les représentations (Affichage conditionnel, chaque élément (feuille, graphique, partie du graphique) dispose de propriétés paramétrables…) quand Qlik Sense est plus restreint.

Ceci permet de donner une orientation plus technique à Qlikview et plus métier à Qlik Sense.

L’interface

Qlikview dispose de deux interfaces, Qlikview Developer et Qlikview Webview dont le rendu est parfois relativement différent. L’outil Qlikview Desktop est la plateforme officielle de développement. Il permet de visualiser les deux interfaces de rendus. La consultation en mode web n’est pas responsive design, il faut donc développer les interfaces en fonction d’une taille et d’une résolution d’écran définit. Le mode webview permet difficilement de construire des graphiques.

Qlik Sense ne dispose que d’une interface qui est la même pour le développement et la consultation. Tout est réalisable à travers un navigateur Web. Initialement conçue pour les tablettes, l’interface est responsive design et s’adapte aux ordinateurs comme aux smartphones.

La couche sémantique

Qlik Sense seul dispose de la possibilité de mettre en place une couche sémantique par l’intermédiaire des « Eléments principaux », permettant à toutes personnes manipulant régulièrement les données (et formées à la syntaxe Qlik) de mettre à disposition des calculs complexes pour les utilisateurs métiers n’ayant pas cette compétence. Les utilisateurs n’ont plus qu’à glisser-déposer ces éléments pour les utiliser dans les graphiques (exemple : taux de marge YTD…).

Les graphiques

A part une faiblesse sur les tableaux par rapports à Qlikview, Qlik Sense dispose de l’ensemble des représentations de Qlikview. Si toutefois un type de représentation manque, les extensions permettent de combler ce besoin.

qlik Sales margin

Les extensions

Qlikview comme Qlik Sense permettent tous deux de développer des extensions. Avantage à Qlik Sense dont l’implémentation est simplifiée par l’architecture distribuée et le fait que pour Qlikview, seul la vue Webview permet d’utiliser les extensions.

Retour au Wiki

Vous souhaitez bénéficier d'experts sur le choix entre QlikView et Qlik Sense ? Rendez vous sur la page Contact

Nos métiers - Savoir mesurer

Savoir mesurer, c'est savoir manager

Des statistiques justes et précises sont la source d’un management serein et juste des services et des hommes. En effet, bon nombre d'employés se plaignent d'un management reposant sur une vision subjective de l'encadrant sur les indicateurs de performances des salariés. Nous avons pu observer à de nombreuses reprises des gérants certains de leur vision. Au vu des nouvelles données présentées dans les tableaux de bord, ces mêmes gérants ajustaient plus précisément l'interprétation du monde dans lequel ils intervenaient. Voilà l'enjeu de notre métier, ne pas piloter les entreprises par des fellings mais par des indicateurs incontestables car d'une qualité irréprochable.

L’informatique décisionnelle permet, de manière automatisée, la collecte, l’épuration, le stockage et la restitution des données de la société.

Mise en place de votre projet décisionnel :

  • Gestion de projet.
  • Préconisation des bonnes pratiques.
  • Staffing des équipes.
  • Validation et réalisation des jalons et livrables.
  • Lotissement et définition du périmètre projet.

Définition du projet :

  • Conseil sur le choix des mesures et indicateurs métiers.
  • Définition des règles mathématiques et de gestion des indicateurs.
  • Définition des règles d’agrégation.
  • Définition des axes d’analyse.
  • Définition des règles d’historisation.

Collecte de l’information :

  • Spécification des traitements d’alimentation.
  • Optimisation des traitements.
  • Transcodification des informations non compatibles techniquement (sur plusieurs systèmes d’information sources).
  • Alimentation à partir de systèmes d’information sources discordants fonctionnellement et techniquement.
  • Définition des fenêtres de tir pour les traitements d’alimentation.

Stockage :

  • Choix du mode de stockage : base relationnelle, cubes ou base vectorielle.
  • Définition d’architectures optimales en fonction du client (ODS-Environnement d’Intégration, Datawharehouse, Datamarts).
  • Modélisation de la base de données avec un compromis respectant une restitution rapide et un temps d’alimentation possible.
  • Optimisation de la base de données avec des outils de type clefs, indexes, vues (indexées ou matérialisées).
  • Implémentation.

La restitution :

  • Création de la couche sémantique permettant à l’utilisateur de faire des «glisser/déplacer» pour extraire son information.
  • Optimisation de la couche sémantique.
  • Gestion des droits d’accès à l’information.
  • Méthode de développement des rapports.
  • Transformation des rapports en PDF, XLS et/ou envoi par mail.
  • Référencement des rapports.
  • Méthode d’automatisation, de publication et d’émission des résultats des rapports.

Le conseil et l’organisation décisionnelle :

  • Recrutement d’équipes.
  • Organisation des projets.
  • Choix et comparaison des outils du marché en fonction des besoins utilisateurs et des possibilités techniques : ETL, SGBD et outils de restitutions.
  • Best Practices décisionnelles.
  • Définition des circuits et des rôles des intervenants dans un projet décisionnel : utilisateurs (finaux et avancés), maîtrise d’œuvre, maîtrise d’ouvrage, chefs de projets informatiques.
  • Création des dictionnaires des indicateurs et axes d’analyses et interaction de celui-ci avec les éléments techniques du système d’information décisionnel.
  • Organisation de la maintenance et de la vie du projet pour créer simplicité et souplesse.  

Laissez-nous vos coordonnées et nous vous rappellerons sous 24 heures.

Les adresses
Next Decision