Category Archives: Gestion du Cycle de Vie des Données Applicatives (ILM)

Le Partitioning : il doit être Intelligent

L’archivage applicatif est une solution éprouvée qui  permet de maitriser les volumétries grandissantes des bases de données  et  conserver les niveaux de performance exigés.

Cet archivage consiste à déplacer et purger les données historiques (non modifiables) vers un SGBD annexe (base historique) ou vers un container d’archive hautement compressé, tout en conservant les modèles relationnels et en gérant leurs évolutions, jusqu’à la purge définitive des données.

Dans certains contextes, il est parfois délicat, voire impossible d’archiver ces données historiques car même si fonctionnellement elles sont figées, elles peuvent faire l’objet d’une mise à jour technique dans l’application d’origine.

Un exemple avec la fonction de lettrage dans une application financière : il faut lettrer des écritures qui appartiennent à  des périodes clôturées, et il est nécessaire que les données soient présentes physiquement dans la base pour y parvenir.  Il est impossible d’archiver et purger ces écritures.

Récemment, Informatica a introduit la fonction « Smart Partitioning » (Partitionnement Intelligent) dans son offre « Data Archive » qui permet de contourner ce problème.

Le Smart Partitioning consiste à combiner les deux opérations suivantes :

1)       les données historiques sont  déplacées de manière « intelligente »  dans des nouvelles partitions de la base de production.

2)      la fonctionnalité de type Oracle VPD (Virtual Private Database) est activée et les utilisateurs ont ainsi accès seulement aux données qui sont pertinentes et non plus à l’ensemble comme avant.

Ainsi, les performances sont améliorées de manière impressionnante  - et les temps de réponse qui peuvent parfois être divisés par 7.

Même si le partitionnement est techniquement géré par le SGBD,  la création des partitions,  la gestion des clefs de partitionnement  et le déplacement des données historiques est entièrement géré par Informatica Data Archive.

Le déplacement  « intelligent » consiste à traiter des entités fonctionnelles.  Par exemple sont concernés  les  «Commandes », « Mouvements de Stock », « Factures », « Règlements », « Demandes d’achat »…  et aussi évaluer des règles métiers précises pour décider si ces entités sont éligibles à l’historisation.

Le Smart Partitioning est une étape très intéressante et novatrice,  qui permet d’avoir les mêmes bénéfices de l’archivage (maitrise des volumétries, amélioration très significative des performances) avec un impact moindre sur l’infrastructure et les utilisateurs métiers.

Il permet aussi d’implémenter le droit à l’oubli facilement.

Share
Posted in Archivage des Données, Gestion du Cycle de Vie des Données Applicatives (ILM) | Tagged , , , | Leave a comment

Qui a le droit ?

En termes de sécurité de l’information on se doit toujours de se poser la question : qui a le droit de faire quoi, qui a le droit d’accéder à certaines informations – ou pas -

Souvent cela prend du temps car chaque personne dans une société a un profil individuel paramétré différemment selon les applications utilisées. Il faut donc à chaque fois paramétrer les règles d’usages pour chaque application. Créer de nouveaux profils prend du temps, qui plus est s’il faut le faire pour chacune des applications, sachant que celles-ci se multiplient dans l’entreprise.

Chaque département de l’entreprise a ses propres règles de sécurité. En fonction des différents rôles de chacun dans le service. D’ailleurs dans chacune des applications, tout le monde n’a pas accès à toutes les informations.

Au-delà de la personne qui accède à l’information, il faut identifier quelles sont les données sensibles de l’entreprise. Les différentes données de l’entreprise ne sont pas utilisées de la même manière au service financier, RH, marketing, commercial ou logistique… Ainsi il faut définir quelles sont les données nécessaires pour chacune des tâches affectées à chacun en fonction de son poste, son niveau hiérarchique et dans les différents services. Identifier ces données est vraiment le point critique car il faut être d’accord sur la donnée en elle-même, mais aussi l’endroit où elle se trouve. Dans quel Datawarehouse ? Et ensuite il faut définir les règles d’accès. Ce qui est très long si on doit le faire, par service, par profil, par application.

L’alternative évidente dans ce cas est bien de masquer les données à leur source : le Datacenter. A chaque demande faite, juste avant de les renvoyer, les règles sont appliquées, – alors regarde – les données sont affichées, floutées, décalées, masquées, ou tout s’efface  selon la personne qui les demande, peu importe l’application qui fait la requête. Mais bien sûr, sans que cela ne ralentisse le système et les performances des applications !

Il suffit donc d’identifier les données sensibles dans le datacenter, les hiérarchiser pour mettre en corrélation les données et les utilisateurs du LDAP. Ainsi peu importe l’application utilisée, chacun ne pourra accéder qu’aux informations auxquelles il est autorisé, sinon il verra une chaine de caractère qui remplace l’information d’origine, sans pouvoir la décoder. – car l’important ce n’est pas la donnée, c’est ce que l’on en fait –

Cette technologie est d’autant plus intéressante dans l’ère du #BigData  où de plus en plus de données doivent être traitées, de plus en plus vite, en provenance de multiples sources différentes, toujours plus nombreuses. Les règles de protection des données s’appliquent donc de manière homogène dans l’ensemble de l’entreprise, sans avoir à reprogrammer toutes les informations des accès de chacun. Ainsi, l’entreprise bénéficie d’une protection des données à leur source, un service d’information sécurisé optimum avec un retour sur investissement important et rapide.

Pour plus d’informations, il n’est pas besoin de se donner rendez-vous dans 10 ans, vous pouvez dès à présent en savoir plus en visionnant cette courte vidéo ou lire notre dernier livre blanc sur le sujet.

Share
Posted in Gestion du Cycle de Vie des Données Applicatives (ILM), Protection des Données | Tagged , , , , | Leave a comment

Informatica Day Paris 2013 – Emmanuel Serrurier

Emmanuel Serrurier, Directeur Général Informatica France parle des nouveautés de cette année, marquée par les 20 ans de la société.

Share
Posted in Archivage des Données, Big Data, Cloud, Gestion des Données de Référence (MDM), Gestion du Cycle de Vie des Données Applicatives (ILM), Informatica Day, Intégration des Données, Protection des Données, Qualité des Données, Vibe | Tagged , , , , , | Leave a comment

Informatica Day Paris 2013 en 2 minutes

Revivez les moments forts de cette journée intense et riche…

Share
Posted in Archivage des Données, Big Data, Gestion des Données de Référence (MDM), Gestion du Cycle de Vie des Données Applicatives (ILM), Informatica Day, Intégration des Données, Protection des Données, Qualité des Données, Réplication des Données, Vibe | Tagged , , , , , , , , , , , , , , , , , | Leave a comment

Retour sur Informatica Day 2013 : la table ronde sécurité des données

L’Informatica Day est l’événement annuel des utilisateurs Informatica en France. L’édition 2013, qui a eu lieu le 10 octobre, placée sous le signe de l’anniversaire des 20 ans d’Informatica, fût une nouvelle fois un succès avec plus de 260 participants qui ont répondu présent à l’appel de toute l’équipe d’Informatica France.

Moment fort de cette grande journée dédiée à l’échange et au partage autour de la Gestion des Données, la deuxième table ronde qui fût consacrée à la sécurité des données. Il est vrai que ces dernières constituent le 1er capital de l’entreprise. En effet, elles sont à la source de l’économie de l’entreprise tant elles concernent aussi bien les clients, les  flux  financiers, les partenaires, les collaborateurs…

InformaticaDay13_SecuriteAnimée par Bruno Labidoire (Directeur Technique Europe du Sud chez Informatica), [de gauche à droite], cette table ronde a accueilli Philippe Ravaton (Sales Specialist chez Hitachi Data Systems), Anne-Sophie Poggi (Avocate chez Avocats IT) et Olivier Patole (Partner Manager chez Deloitte) pour faire le point sur les dispositifs en cours, les bonnes pratiques mais aussi les normes et réglementations en vigueur dans le domaine de la sécurité des données.

Honneur à Anne-Sophie Poggi qui rappelle en préambule que «  le patrimoine informationnel de l’entreprise est ce qui donne sa valeur. Et c’est aujourd’hui tout l’enjeu de notre société numérique où il n’y a plus d’industries mais où la valeur des pays comme les nôtres se situe dans ses données et son savoir-faire. On identifie la donnée, on la valorise. La seconde chose, c’est la « conformité réglementaire ». Qui dit données exige que l’on soit en règle avec les niveaux de sécurité, d’archivage, de protection des données. La conformité, qui touche les grosses entreprises comme les plus petites, est déterminante : on fait des audits, on vérifie les contrats, le propriétaire de la donnée, qui peut l’utiliser et comment… Qui plus est, les entreprises sont confrontées à la monétisation de leurs données.

Toutes les données n’ont pas la même valeur. Reste à identifier les données les plus critiques… Pour Olivier Patole, « une des bonnes approches consiste à réunir au sein de l’entreprise les propriétaires des informations – principalement les métiers – qui, pilotés par une analyse de risques, vont déterminer les données sensibles qui ne peuvent être manipulées par tout un chacun ou divulguées à l’extérieur, modifiées ou altérées de manière accidentelle, etc. »

Le Cloud ne va-t-il pas compliquer la donne ? « Il n’existe pas de législation à proprement parlé sur le Cloud » souligne Anne-Sophie Poggi. « La Commission Européenne et toutes les CNIL réfléchissent au niveau des données personnelles pour trouver des modalités de leur protection dans le Cloud. Sur les Cloud privés, on sait où sont les données et comment elles sont gérées. On a une certaine sécurité de traçabilité. Ce qui n’est pas le cas pour les Cloud publics. Or en Europe, nous avons une contrainte très forte sur les données personnelles comme une photo, une adresse IP, un N° de téléphone… Tout fichier contenant des données personnelles doit être déclaré et resté sur le territoire européen. Les offres Cloud prolifèrent mais toutes ne respectent pas cette législation, notamment du fait du prix. Prudence donc ! Il est important de bien anticiper et savoir ce que l’on met ou pas sur le Cloud. »

« La donnée fait partie d’un système. Ce qui va gouverner la donnée c’est le niveau d’ouverture dans lequel elle sera gérée », commente pour sa part Philippe Raveton. « Plus le système sera ouvert, plus on sera capable de récupérer la donnée à n’importe quel moment. C’est aussi cela la sécurité. La première des sécurités est de travailler dans un monde ouvert basé sur des normes et des standards. On met ensuite en place des niveaux de services comme la durée de rétention répondant à un écosystème de lois, la traçabilité des données avec un journal de logs ou encore des mécanismes de duplication des données sur des plates-formes de stockage. La donnée doit pouvoir être restituée à tout instant sans risque. »

« Avec le Cloud, il faut revoir tous les aspects de gouvernance » insiste Olivier Patole. « Les process vont changer tout comme les interlocuteurs. Les autres grandes différences sont au niveau de la traçabilité, des contrôles d’accès et de la confidentialité des données. Tout ceci doit être validé par des clauses contractuelles avec son prestataire de services. »

Qu’en est-il au niveau des contraintes réglementaires de conservation des données ? « Les prescriptions en droit français sont très nombreuses et liées aux métiers. Une facture doit être gardée 6 ans ; un contrat dématérialisé sur un site Internet, 10 ans ; un bulletin de paye, la vie entière du salarié… » rappelle Anne-Sophie Poggi. « Plus globalement, ce sont tous les services de l’entreprise qui sont impactés par le stockage de la donnée. La sécurité, le stockage et l’archivage des données sont donc un projet d’entreprise. »

L’un des grands changements de paradigme est que l’information est créée naturellement sous forme numérique. Quels sont alors les impacts sur le SI ? « Il faut désormais que l’organisation soit matricielle, certaines équipes du SI faisant du reporting au service juridique. On doit segmenter le rôle de chacun » commente Olivier Patole.

Quid de la qualité des données ? Olivier Patole répond : « Une donnée dite de qualité est précise, exhaustive et pertinente. Les questions que l’on doit se poser sont : L’information que je manipule est-elle liée au sujet que je traite ? Est-elle trop riche par rapport au traitement que je vais lui appliquer ? D’un point de vue sécurité, cela va se traduire par la gestion des accès aux informations et la traçabilité de leur manipulation pour maintenir cette qualité de données. »

Share
Posted in Gestion du Cycle de Vie des Données Applicatives (ILM), Informatica Day | Tagged , | Leave a comment

Archivez vos données Salesforce.com

Alors que le Salesforce Customer Company Tour Paris 2013 ferme ses portes en ayant rencontré un gros succès, il est établi que de plus en plus d’entreprises en France utilisent Salesforce.com. On constate aussi que des réflexions autour de l’archivage et de la conservation des données commencent à apparaitre avec ces 2 raisons principales : 

  • Besoin de gérer la conservation des données Salesforce et de pouvoir y accéder facilement pour des raisons juridiques
  • Réduire les coûts en retirant les données qui ne sont plus actives

Comment feriez-vous pour archiver des données de Salesforce aujourd’hui, quelle serait  la meilleure approche selon vous ?

Avec la solution Informatica Data Archive, la première étape est de se connecter à Salesforce avec  le connecteur Informatica Cloud puis définir les critères d’archivage et/ou de purge souhaités. Ensuite, les traitements Informatica Data Archive peuvent être ordonnancés et exécutés de manière récurrente ou occasionnelle. Les données inactives sont donc extraites de Salesforce pour être archivées dans un format d’archivage hautement compressé.

Avec  ce format  d’archive sous formes de fichiers optimisé vous pourrez :

  • Atteindre un niveau de compression très important (jusqu’à  98% de réduction de la volumétrie initiale), avec un taux de compression moyen d’environ 90% -95%.
  • Archiver des pièces jointes
  • S’assurer que les données sont non altérables et non modifiables
  • Accéder directement à ces données avec n’importe quel  outil de reporting ou avec un portail d’accès sécurisé inclus dans Informatica Data Archive
  • Voir les pièces jointes dans leur format natif de type MIME.
  • Gérer de manière centralisée la politique de conservation des archives et des purges définitives, en pouvant synchroniser ces durées de rétention pour des archives provenant de sources différentes
  • Purger définitivement  certaines données  archivées  selon les calendriers de conservation définis, pour respecter les règlementations et obligations légales

Les données de Salesforce et leurs relations sont présentes dans les archives et cela facilite la consultation à partir du portail d’accès sécurisé.

La politique de conservation des données peut être appliquée à plusieurs niveaux de granularité : elle peut concerner toute les données, ou un sous modèle de données avec des critères basés sur les valeurs de certaines données archivées.  Ainsi, lors de la purge définitive, Informatica Data Archive veillera à respecter  l’intégrité du référentiel des données pour que les archives restantes soient cohérentes.

Les données archivées peuvent être stockées sur un support dédié de type WORM (Write Once Read Many), tels que EMC Centera , Hitachi HCP ou Symantec EV pour assurer leur conservation dans un contexte réglementaire. Vous pouvez ensuite purger les archives de vos données  en appliquant vos politiques de conservation. Les requêtes (e-discovery) peuvent être faites directement sur les données archivées. Dans certains cas, des règles d’exception peuvent être appliquées  pour isoler temporairement certaines catégories de données de la purge définitive (par exemple en cas de litige, ou d’une procédure judiciaire)  et ainsi les données seront conservées même si la période de rétention a expirée.

Pour ceux d’entre vous qui envisagent d’archiver des données de Salesforce.com, merci de prendre quelques minutes pour répondre à notre sondage sur le sujet ICI.

Share
Posted in Archivage des Données, Cloud, Gestion du Cycle de Vie des Données Applicatives (ILM) | Tagged , , | Leave a comment

Informatica World 2013 : l’événement mondial à ne pas rater

Il y a plusieurs bonnes raisons de ne pas manquer Informatica World 2013, et nous en avons sélectionné 5 ci-dessous :

 #1 – Vous plongez dans la connaissance de l’intégration de données

Découvrez les dernières solutions et produits, les dernières innovations, la ‘roadmap’ etc…ainsi que les dernières démonstrations, avant tous les autres.

 #2 – Gagnez du temps en face à face

Les experts d’Informatica seront présents sur les stands ‘Hands On Lab’, donnant des conseils et des astuces.

 #3 – Gagnez des points pour vous et votre entreprise

90% des participants des années précédentes ont indiqué que ce qu’ils ont appris à Informatica World a eu un effet immédiat et positif sur leur poste, et le succès de leur organisation. 

#4 – Le ‘networking’

Réseauter avec vos pairs. Il y a aura des participants venus du monde entier.

 #5 – Rick Smolan

Avec Rick Smolan, l’auteur du livre The Human Face of Big Data, découvrez comment le Big Data peut faire une difference dans votre vie de tous les jours

 

Share
Posted in Big Data, Gestion des Données de Référence (MDM), Gestion du Cycle de Vie des Données Applicatives (ILM), Intégration des Données | Tagged , | Leave a comment

Rester au top sur les questions de sécurité informatique

Ces dernières années, les histoires de fuites de données retentissantes et très médiatisées n’ont pas manqué. Par exemple, tout le monde a entendu parler de l’affaire des documents secrets du gouvernement britannique retrouvés dans un train en juin 2008. On se souvient que ces documents expliquaient en détail la politique de lutte du Royaume-Uni contre le financement du terrorisme, le trafic de drogue et le blanchiment d’argent… 

Si elles sont très médiatisées, les affaires de ce type sont cependant rares… On parle beaucoup moins des milliers d’entreprises qui se font pincer pour avoir manipulé ou utilisé à mauvais escient des informations confidentielles sur leurs clients. Dans une étude récente sur la sécurité des données, près de la moitié des 500 responsables informatiques interrogés ont reconnu avoir déjà été confrontés à une violation de données. 

Ce genre d’événement est terriblement dommageable en termes d’image mais, de plus, les entreprises convaincues de violation de données s’exposent à des sanctions de plus en plus sévères. Par exemple, au Royaume-Uni, l’Information Commissioner’s Office (ICO), un organisme public indépendant a été créé pour promouvoir l’accès aux informations officielles et protéger les données personnelles. Celui-ci a durci son approche et a collecté 2 millions de livres sterling suite aux amendes distribuées aux entreprises qui enfreignaient ses consignes. 

Dans notre économie de l’information, les données d’une organisation sont son principal actif. Mais si des données privées sont rendues publiques ou tombent entre de mauvaises mains, cet actif peut aussi causer sa chute. Le développement commercial, l’implantation de nouveaux territoires, les fusions-acquisitions sont autant d’activités qui rendent la question de la protection des données de plus en plus complexe. Qu’est-ce qu’un professionnel de la sécurité doit faire pour s’assurer que les efforts de son entreprise vont dans le bons sens et la mettent à l’abri du danger ?

 1.    Connaître les lois et les réglementations

Selon une étude récente, 65% des responsables informatiques estiment qu’il est difficile de respecter les réglementations sur la confidentialité et la protection des données. Le fait qu’en Europe les lois sur la confidentialité des données diffèrent d’un pays à l’autre suffit à expliquer pourquoi. Les professionnels de la sécurité informatique doivent faire en sorte d’être au courant de tous les textes de loi et réglementations qui sortent pour réagir en conséquence et réduire le risque de violation de données. 

2.    Rester informé sur ce qui se passe et les nouveaux risques

Les professionnels de la sécurité doivent aussi faire leur travail personnel. Il est indispensable qu’ils se tiennent au courant de ce qui se passe, des problématiques qui apparaissent, qu’ils sachent qui a été victime d’une fuite de données et comment cela s’est produit. Actuellement par exemple, l’origine la plus fréquente des fuites de données est la perte d’un ordinateur portable ou d’un appareil mobile contenant des données de l’entreprise. Les responsables sécurité sont-ils conscients de ce problème, en prennent-ils toute la mesure et si oui, que font-il pour le résoudre ?

Ils doivent s’intéresser activement aux problématiques qui émergent, lire et se documenter, participer aux conférences sur ces sujets, écouter ce que leurs homologues ont à dire sur la manière dont les criminels, mais aussi des personnes de l’entreprise bien intentionnées ou au contraire malveillantes, mettent à mal ou déjouent la sécurité, et sur ce qu’il est possible faire pour réduire les risques.

 3.    Communiquer, communiquer, communiquer

Les professionnels de la sécurité ne doivent pas se contenter de communiquer avec leurs homologues. Il est essentiel qu’ils échangent avec les membres du comité exécutif de l’entreprise pour s’assurer que les mesures prises pour éviter les fuites de données sont les bonnes. Les membres du ComEx qui ne s’occupent généralement pas de technologie, typiquement le directeur général et le directeur financier, doivent également être dans la boucle si le responsable sécurité veut démontrer son utilité et justifier l’investissement dans les technologies et les services nécessaires pour protéger l’entreprise. 

4.    Veiller à protéger les résultats

Les professionnels de la sécurité doivent toujours avoir à l’esprit la performance et les résultats de l’entreprise. L’arbitrage peut être difficile entre consacrer des ressources énormes au déploiement des technologies et des services de sécurité et prendre le risque, jamais certain, qu’une fuite de données se produise. C’est aux professionnels de la sécurité qu’il incombe de trouver le bon équilibre. 

Quand l’information est le principal actif d’une organisation, celle-ci doit s’assurer qu’elle fait tout ce qu’il est possible de faire pour protéger cet actif. Cela l’aidera à éviter les pièges et les risques de la violation de données.  En suivant ces quelques conseils, les responsables sécurité peuvent facilement réduire le risque de se voir attaquer sur ce qui relève de leur responsabilité.

 

 

Share
Posted in Gestion du Cycle de Vie des Données Applicatives (ILM), Protection des Données | Tagged , , , | Leave a comment

Et si vous amélioriez la qualité de vos environnements de test tout en réduisant les coûts ?

La problématique de la mise à la disposition des environnements de test n’est pas nouvelle, mais elle s’aggrave d’années en années pour les raisons suivantes :

  • La volumétrie des environnements de production  ne cesse de croître, les infrastructures de test ne sont pas extensibles et la stabilisation des coûts devient une exigence. Le cas le plus courant est la réplication de l’environnement de production avec un clonage du SGBD
  • Quand le nombre d’applications ou de projets augmente,  les demandes d’environnements de test progressent en même temps  alors que le temps imparti aux équipes IT est limité
  • De plus en plus de données à caractères sensibles sont exposées  et répliquées plusieurs fois, accessible à des catégories d’utilisateurs qui ne devraient pas y avoir accès

Pour faire face à ces défis, les entreprises choisissent de se limiter à un nombre restreint d’environnement de test car les infrastructures ne sont pas prévues pour recevoir  autant de copies voulues. De plus,  elles s’accommodent d’un délai  significatif entre la formulation de la demande et la mise à disposition (souvent plusieurs jours, parfois plusieurs semaines). Il est assez rare de voir un processus de copie partielle développé avec des scripts « spécifiques » pour des raisons liées à la difficulté de respecter l’intégrité référentielle et aux performances de transfert nécessaires.

Pour les données sensibles, on observe que dans le meilleur des cas, des scripts spécifiques sont développés et maintenus « manuellement » pour anonymiser et masquer  certains champs et que dans le cas le plus courant, rien n’est masqué car les responsables pensent que les clauses de confidentialité passées avec les salariés et les prestataires sont suffisantes pour se mettre à l’abri des fuites de données. Néanmoins, de plus en plus d’interlocuteurs sont conscients que les environnements de test sont concernés par ces aspects de sécurité et ne répondent pas aux exigences, notamment formulées par des organismes tels que la CNIL.

Ces approches  « traditionnelles » sont insuffisantes et se traduisent souvent par une frustration des équipes chargées des test de recettes fonctionnelles : il faut toujours plus de temps pour mettre à disposition un environnement, et la qualité des données se dégradant rapidement après une campagne de test, il faut souvent rafraichir le même système de test avec des données source. Il est difficile également de satisfaire toutes les demandes de mise à disposition et un arbitrage est souvent nécessaire car l’espace de stockage dédié aux environnements de test ne permet pas de répliquer  indéfiniment une base de données source qui fait assez souvent plusieurs centaines de Gigaoctets et de moins en moins rarement plusieurs Téraoctets.

La multiplication des technologies SGBD (Oracle, Teradata, MySQL…) ne facilite pas non plus une standardisation des processus de réplication et de mise à disposition.

D’autre part, lorsque  la confidentialité des données est « déléguée »  à quelques scripts SQL appliqués lors de l’étape « post-clone », on s’aperçoit  que les algorithmes de masquage sont très limités et ne permettent pas de conserver un panel  fonctionnel aussi riche que la source pour les testeurs. De plus, le développement des scripts nécessite une période de mise au point significative et donc prévoir  de passer du temps à maintenir ces scripts pour les adapter dès qu’une nouvelle version ou que de nouvelle données sensibles apparaissent. La réutilisation des scripts est également plus compliquée lorsque plusieurs  technologies SGBD sont présentes.

Le cycle complet de test et de recette est ainsi pénalisé et  il n’est pas difficile d’évaluer le nombre de jours hommes perdus dans ces processus manuels et itératifs « traditionnels » versus une solution « industrielle »  à condition de couvrir à minima les aspects suivants :

  • Créer un environnement de test  à parti d’un « Subset » en ne prenant qu’une partie de l’environnement source (par exemples prendre  10 % de la volumétrie)
  • Respecter l’intégrité des données au moment de l’extraction et du chargement
  • Détecter la présence des données à masquer et offrir une panoplie riche et complète de fonctions d’anonymisation, réutilisables et centralisées
  • Automatiser facilement ces processus de rafraichissement et/ou anonymisation
  • S’affranchir de la technologie SGBD
  • Garantir des performances à la hauteur de déplacement massif de données
  • Mutualiser facilement la plate-forme : toutes les applications de l’entreprise
    pourront bénéficier des capacités de Subset et d’Anonymisation
  • Montée en compétence rapide des utilisateurs
  • Intégration facile dans le SI

Et vous, quels aspects souhaitez-vous couvrir ?

Share
Posted in Gestion du Cycle de Vie des Données Applicatives (ILM), Protection des Données | Leave a comment

Retour sur Informatica Day 2012 : les clients à l’honneur !

 

Informatica Day 2012 - Table Ronde

Moment fort de cette grande journée dédiée à l’échange et au partage autour de la Gestion des Données, qui s’est tenue le 4 octobre 2012, la Table Ronde a permis à plusieurs clients d’exposer leurs projets et les bénéfices offerts par les solutions Informatica. 

L’Informatica Day est l’événément annuel des utilisateurs Informatica en France. L’édition 2012 fût une nouvelle fois un succès avec plus de 250 participants qui ont répondu présent à l’appel de toute l’équipe d’Informatica France.

Qui dit utilisateurs dit témoignages… Ce fût l’objet de la Table Ronde qui constitua l’un des moments forts de cette journée. Animée par le journaliste Cyril Dhénin, elle a réuni des membres des directions informatique de 7 grandes entreprises et institutions françaises : Yves Lambert (BNP Paribas), Jean-François Hamon (Cecab), Laurent Borde (Electricité de Strasbourg), Corentin Violle (Longchamp), Hicham Bahjawi (Neopost), Bruno Couleau (Pernod Ricard) et Benoît Hollebecq (Voies Navigables de France).

VNF : Construite au « fil de l’eau », l’informatique de VNF se retrouve 20 ans après avec un environnement en silos et une multitude de données réparties dans de multiples bases de données. 5 grands référentiels sont alors créés : bateaux, tiers, clients, patrimoine et nomenclatures. « Nous avons décidé de coupler le projet de Master Data Management avec la refonte du système décisionnel pour donner aux directions métiers une visibilité très rapide via des tableaux de bord » commente Benoît Hollebecq. « Le choix s’est alors porté sur le couple éditeur [Informatica] / intégrateur [Logica/CGI] ainsi que sur l’ouverture du modèle de données offert par Informatica. » « Notre projet s’étalant sur 4 ans, il est difficile de faire un bilan à cette heure. Ce qui est important, c’est d’intégrer les équipes car c’est un projet d’entreprise qui est passionnant » conclut Benoît Hollebecq.

Pernod Ricard : Pour faire communiquer et échanger les différents systèmes d’informations entre eux, la DSI du Groupe décide de reconstruire l’épine dorsale de son SI en adoptant la plate-forme Informatica. « Nous avons environ 500 flux (analyses provenant du Laboratoire, reporting financier…)… d’où le besoin d’interfacer de nombreux systèmes entre eux, soit pour l’opérationnel (livrer un client), soit pour produire des chiffres et ce, dans un contexte temps réel important » déclare Bruno Couleau. En tant que chef de projet, celui-ci a été sensible au cadre méthodologique de la solution. Et, au-delà des qualités techniques de la solution, à l’accompagnement de l’éditeur et à la formation des chefs de projets. « Nous avons constaté des gains de performances importants, de traçabilité des flux au niveau du reporting. A noter le support technique d’un très bon niveau » souligne Bruno Couleau.

Neopost : Leader européen en équipement de salles de courrier et de systèmes logistiques, Neopost a choisi Informatica en 2010 pour créer un datawarehouse au niveau du Groupe et créer une interface avec les applications SAP et Siebel… Après un test comparatif portant sur 3 solutions concurrentes, Neopost adopte la plate-forme Informatica pour son utilisation intuitive. « Grâce à l’accompagnement d’Informatica dans la phase d’implémentation et à la méthodologie Velocity des équipes des services professionnels (« la mine d’or »), nous avons très facilement pu mettre en place des Web Services entre SAP, Siebel et nos sites extranet » déclare Hicham Bahjawi .

Longchamp : Maroquinier français de renom, Longchamp décide – dans un contexte de refonte de sa BI avec l’intégration de Cognos – de moderniser les interfaces avec ses applications métiers et de résoudre ses problématiques temps réels. En janvier 2011, Longchamp adopte la plate-forme Informatica sur deux critères principaux  : une seule et même interface pour l’ensemble des opérations et une grande richesse fonctionnelle. « L’un des principaux gains que nous a offert Informatica est la surveillance de nos interfaces. Grâce au monitoring et au système d’alertes, nous sommes immédiatement avertis du dysfonctionnement de l’une d’elles. Nous avons également constaté des gains au niveau du développement » note Corentin Violle.

Cecab : Dans le cadre de la refonte de l’ensemble de ses systèmes d’information, la coopérative agro-alimentaire lance le projet d’un vaste projet d’intégration de données. Sur la base d’un cahier des charges, le choix s’est rapidement concentré sur 4 puis 2 solutions avant de retenir Informatica suite à un pilote concluant. « Outre la facilité de prise en mains par nos équipes, nous avions beaucoup d’attentes sur la traçabilité de nos flux ce que nous offre la plate-forme Informatica » souligne Jean-François Hamon. « Nous avons clairement gagné en agilité d’intégration. Installée en 2011, la plate-forme Informatica nous a permis d’intégrer une nouvelle comptabilité, un nouveau CRM, et un spécifique pour la nutrition animale… des choses que nous n’aurions pas pu faire avant ! ».

BNP Paribas : Le but du projet – de l’une des divisions de la banque – était de créer un entrepôt centralisé de données provenant des systèmes bancaires de 17 pays hors zone euro et ce, à des fins réglementaires et de mise en conformité. Pour bâtir son ETL, BNP Paribas adopte la plate-forme Informatica sur trois critères : financier, performance et pérennité. Si les développements sont réalisés par Capgemini, une équipe en interne se charge du support et de la gouvernance des règles. « Nous estimons que nous gagnons environ 30 % en temps de développement et surtout en qualification et recettes où les gains sont encore plus importants » déclare Yves Lambert.

Electricité de Strasbourg : Initié en 2007, suite à une refonte de son outil de facturation (450 000 clients, soit 2 à 3 millions de factures/an), le projet a consisté à récupérer les données dans le nouvel outil en vue de construire un système décisionnel. Fin 2001, dans le cadre de la migration d’Informatica 8 vers Informatica 9, Electricité de Strasbourg acquiert le module « Data Validation Option ». « Cela nous a permis d’accélérer la validation, d’optimiser les impacts et de rassurer les maîtrises d’ouvrage que l’évolution technique n’aurait pas d’impacts sur leurs données » déclare Laurent Borde qui met actuellement en place, avec Meta Data Manager, la gestion des méta-données pour bénéficier d’un suivi de l’information sur toute la chaîne.

Cette Table Ronde a ainsi permis de mettre en évidence que, quel que soit le contexte métier évoqué, les solutions Informatica ont permis aux entreprises de mener à bien leurs projets et de placer leur système d’information en alignement avec leur stratégie de développement.

Un grand merci à tous nos clients venus en nombre mais aussi à nos partenaires sponsors – Accenture, Deloitte, Homsys, Sopra Group et Wipro pour les intégrateurs, et QlikTech et EMC Greenplum pour les technologiques – qui ont eu l’occasion d’animer des ateliers et présenter leurs solutions dans l’espace d’exposition. Rendez-Vous le 10 octobre prochain pour l’édition 2013 !

Share
Posted in Big Data, Gestion des Données de Référence (MDM), Gestion du Cycle de Vie des Données Applicatives (ILM), Intégration des Données, Qualité des Données | Tagged , , | Leave a comment