jump to navigation

TRIBUNE – La DAF, au coeur du business de l’entreprise 4 décembre 2019

Posted by thparisot in Tribunes.
Tags: , , , ,
add a comment

Nicolas Gudin, Basware

La Direction administrative et financière (DAF) compte parmi les premiers services à avoir informatisé la saisie, la vérification et la consolidation des données relatives à la situation financière des entreprises. Elle a longtemps été considérée comme un producteur d’information financière, n’ayant pas ou peu d’interactions avec les opérationnels métiers. Progressivement, son rôle a évolué pour porter des projets dépassant le cadre de la direction financière : optimisation des coûts, mise en place de centres de services partagés ou encore implémentation de solutions informatiques structurantes pour l’entreprise (ERP, dématérialisation des factures, Purchase-to-pay…). Elle est aussi de plus en plus impliquée dans les projets de développement des entreprises, afin d’en évaluer l’impact financier et les nouvelles ressources nécessaires (en capital, en hommes, etc.).

Digitalisation, data intelligence et évolution des compétences

Pour accomplir ses nouvelles missions, la DAF peut s’appuyer (et compter) sur la nouvelle génération de technologies pour automatiser les tâches répétitives et/ou à faible valeur ajoutée, pour prévenir les risques de fraudes et de litiges, anticiper les besoins en trésorerie, garantir la conformité fiscale de l’entreprise, et aider la direction générale et les directions métiers à prendre des décisions de façon proactive, pour ne citer que quelques exemples.

Ces nouvelles technologies modifient en profondeur le quotidien des collaborateurs des directions financières, et surtout les compétences requises. Car au-delà de la saisie, de la vérification et de l’analyse des données, une simple appétence pour les outils digitaux ne suffit plus. De nouveaux profils intègrent la DAF, et notamment des data analysts et data scientists pour traiter et exploiter efficacement des volumes de données de plus en plus importants, en vue d’un meilleur pilotage de l’entreprise.

Par ailleurs, pour fédérer l’ensemble des directions métiers ainsi que tout l’écosystème de l’entreprise (clients, fournisseurs, sous-traitants…) autour des projets de digitalisation, la DAF doit développer les soft skills de ses collaborateurs. Et notamment de collaboration et de créativité pour gérer les projets et conduire efficacement le changement, ou encore de communication pour obtenir l’adhésion des parties prenantes. Le cliché du comptable plongé dans ses chiffres et ses tableaux est bel et bien éculé !

La DAF : de stratège financier à stratège géo-économique

En parallèle, la DAF n’échappe pas à la responsabilité sociétale des entreprises (RSE), qui suppose de faire évoluer le modèle économique et les règles de gouvernance pour intégrer les problématiques sociales, sociétales et environnementales, et ainsi répondre à deux enjeux clés pour la pérennité de l’entreprise : l’amélioration de la performance économique et la maîtrise des risques.

Pour ne citer qu’un seul exemple, et même si ce n’est pas encore vrai dans toutes les entreprises, les stratégies de relations avec les fournisseurs tendent à évoluer. Après de nombreuses années de cost-killing, et de fournisseurs priés de faire encore et toujours baisser leurs prix, de nombreuses entreprises font évoluer leurs pratiques. La DAF, par les outils de dématérialisation de bout en bout des achats et des factures qu’elle déploie, contribue à fidéliser les fournisseurs, devenus partenaires, grâce à des tarifs négociés et des délais de paiement respectés, voire raccourcis.

De façon plus générale, et dans un contexte de globalisation de l’économie, la DAF doit être en veille permanente des risques géopolitiques d’un pays en particulier, ou à l’échelle internationale, ou encore des risques liés à la concurrence transfrontalière. Ce qui appelle une nouvelle fois, outre la maîtrise de la langue anglaise, des compétences qui vont bien au-delà de la seule gestion financière.

TRIBUNE – Créer une organisation performante basée sur les données en 4 étapes 24 octobre 2019

Posted by thparisot in Tribunes.
Tags: , , , , ,
add a comment

Edouard Beaucourt, Tableau Software

La technologie et les lacunes en matière de compétences numériques ont encore une fois dominé les discussions en début d’année, lors du Forum économique mondial de Davos. Une réunion-débat animée, intitulée « Making Digital Globalization Inclusive » (*), qui a permis aux PDG de Microsoft, HCL, Dell et Salesforce de reconnaître que le monde faisait face à une fracture numérique potentiellement dangereuse.

L’un des principaux problèmes évoqués par les participants a été le fossé qui se crée entre les vastes capacités des données du secteur privé, qui s’accroît de façon exponentielle, et l’absence de ces capacités dans les secteurs public. Quant à l’exploitation des données, la plupart des organisations, publiques et privées, ne font qu’effleurer la question. Les recherches d’IDC indiquent que jusqu’à 90% des données ne sont ni traitées ni analysées. L’un des problèmes sous-jacents est qu’avec l’information générée par chaque service, les personnes ne savent souvent pas si cela relève de leur responsabilité ou même si elles sont autorisées à utiliser ces données. Pour en tirer le meilleur parti, tous les collaborateurs doivent être en mesure de les analyser et émettre des conclusions. L’analyse efficace des données ne doit pas rester l’apanage de quelques experts hautement qualifiés.

Alors, comment les organisations peuvent-elles tirer le meilleur parti des informations dont elles disposent ?

Ne rien négliger pour mieux s’organiser

Il est important pour les entreprises de s’assurer que leurs données soient aptes à être analysées par différents acteurs. Faute d’une solution pour les rendre lisibles et déchiffrables, il devient plus difficile de comprendre leur signification et de les interpréter.

Les outils et processus de conservation de données (tels que les catalogues de données et la gouvernance sémantique) convergent maintenant vers les plates-formes de BI pour lier les données à un contexte métier. Cela aide les analystes et les utilisateurs de contenu qui doivent vérifier l’origine des données, ainsi que les ingénieurs et les gestionnaires qui étudient l’impact des modifications apportées aux ensembles de données. En fin de compte, la curation des données réglementées fournira une base plus solide pour l’ensemble du pipeline d’analyse.

L’exploitation des données, une ressource clé pour tous

Presque toutes les tâches de chaque secteur sont à présent concernées par les données. Certes, certains aspects de l’IA et de l’informatique requièrent des compétences techniques spécialisées, mais la réalité est que toutes les équipes allant du département des ressources humaines jusqu’au conseil d’administration, soient capables de comprendre et de communiquer des données sous forme d’informations.

Il semblerait que les entreprises prennent ce défi au sérieux en investissant dans la formation et en mettant l’accent sur l’apprentissage pour élargir le vivier de talents. Un changement réel et durable nécessitera des actions soutenues et des investissements concrets de la part du gouvernement et du secteur privé.

Une visualisation et un traitement analytique modulable

Nous avons tous été témoins de l’expression douloureuse qui envahit le visage d’un employé lorsqu’il est contraint de se confronter à une technologie complexe. Lorsque les systèmes sont difficiles à utiliser, la plupart des employés ne les utilisent tout simplement pas. Les entreprises ont intérêt à ce que davantage de personnes se familiarisent avec l’utilisation des données dans le cadre de leur travail quotidien. La technologie elle-même doit donc être modulable à divers champs de compétences.

Par conséquence, le traitement du langage naturel aide les ordinateurs à comprendre la signification du langage humain. Les fournisseurs de solutions de BI incorporent le langage naturel à leurs plateformes, offrant une interface en langage naturel aux visualisations. Une déclaration peut être développée et itérée, tout comme une conversation.

Lorsque les utilisateurs peuvent interagir avec une visualisation, cela permet à plus de personnes, quel que soit leur niveau de compétences, de poser des questions plus approfondies sur leurs données. À mesure que le langage naturel évolue au sein du secteur de la BI, il supprimera les obstacles à l’analyse et contribuera à transformer les lieux de travail en systèmes de libre-service pilotées par les données.

Les données au cœur de la narration

Le pouvoir de la visualisation de données est de communiquer les résultats et ainsi avoir un réel impact sur votre analyse des données. C’est une compétence essentielle pour les analystes : être en mesure de communiquer les étapes de leur analyse de façon intelligible comme une « narration de données ». À mesure que les entreprises créent une culture de l’analyse, la définition de la narration de données évolue.

Au lieu de présenter une conclusion singulière, les méthodes actuelles de narration de données mettent l’accent sur le soutien d’une conversation. Cette approche d’analyse en réseau confère au créateur du tableau de bord et au public la responsabilité de tirer une conclusion quant à ce que les données leur communiquent. Cela permet une diversité de perspectives avant de prendre une décision. La prise en charge de la narration de données amplifie l’impact potentiel sur l’entreprise, car les données sont utilisées pour engager, informer et tester les idées à l’échelle de l’entreprise.

Suivre ces étapes aidera toute entreprise à créer une culture axée sur les données, mais notre expérience nous a appris que le véritable succès ne peut provenir que d’une alliance entre une technologie de pointe et un changement culturel profond. Encourager un plus grand nombre de personnes à utiliser des outils d’analyse tout en aidant chacun à se sentir à l’aise de manipuler les données dans son travail. Une fois que les entreprises auront compris cela, elles verront que leur analyse des données génèrera beaucoup plus de valeur.

(*) Rendre la mondialisation numérique inclusive

TRIBUNE – Le Chief data officer, nouveau chef d’orchestre des données 23 octobre 2019

Posted by thparisot in Tribunes.
Tags: , , , , ,
add a comment

Joseph Cohen, Stibo Systems

Si l’informatique décisionnelle, l’analyse en temps réel et la visualisation des données furent au cœur des préoccupations des entreprises dans les années 2000, aujourd’hui elles ont toutes les yeux rivés sur la gestion de la donnée et plus précisément, la donnée de référence (Master Data). Comment créer et gérer un référentiel unique de données client, produit, fournisseur ? Cette évolution et ces interrogations sont devenues essentielles. Et pour cause : sans une gouvernance et une qualité de donnée optimale, tout processus visant à en extraire de l’information pour en libérer de la puissance est vain. Aussi, conscientes que sans une gestion efficiente de la donnée les entreprises ne peuvent comprendre leurs clients et leur proposer des produits et services personnalisés et adaptés à leurs besoins, les entreprises et notamment celles du CAC 40 se sont dotées de Chief data officers ou CDO.

Les budgets alloués aux projets de données actifs ont également été revus à la hausse avec, pour 42 % des CDO d’entreprises mondiales interrogés lors de l’événement « CDO Exchange Event » des montants compris entre 1 et 5 millions de dollars sur les 6 à 24 prochains mois.

Un véritable défi de gestion des données

Au cœur des priorités des CDO : la qualité des données, suivi de la gouvernance des données et leur gestion. Ainsi, en charge d’un grand volume de données, les CDO sont confrontés à un éparpillement des data dans les divers applicatifs (ERP, CRM, chaîne d’approvisionnement, bases de données etc), à des champs renseignés de façons différentes, à des redondances, des informations incomplètes ou obsolètes et à une absence régulière de mises à jour.

Cette mauvaise gestion des données occasionne des pertes considérables. Selon IBM, la mauvaise qualité des données entraîne une perte de chiffre d’affaires de 3,1 milliards de dollars chaque année, uniquement aux Etats-Unis. 83% des entreprises affirment utiliser des données incomplètes ou inexactes. Cette situation présente donc un véritable défi de gestion de données, contraignant les CDO à recourir à des outils de centralisation des données pour en assurer la qualité et en faciliter l’accès. Une solution PIM (Product Information Management) est un exemple d’outil clé pour gérer les données Produit. Les centraliser en un lieu unique, les enrichir, les dédupliquer et les publier aux clients, fournisseurs et aux employés.

Une gestion des données conforme aux exigences réglementaires

La centralisation et la publication des données permettent aux entreprises de prendre des décisions plus pertinentes plus rapidement, de développer des produits et services adaptés aux clients, de prédire le comportement des consommateurs, de créer des expériences clients personnalisées, de supporter la stratégie omnicanale, ou encore d’acheminer plus rapidement leurs commandes.

A noter que le Règlement Général sur la Protection des Données (RGPD) constitue un autre levier de croissance des investissements dans les projets de gestion de données. Considérée comme prioritaire par les CDO, et notamment ceux du secteur financier, la réglementation européenne des données à caractère personnel entrée en vigueur il y a plus d’un an, nécessite de développer une gestion de la donnée capable d’évoluer pour répondre aux exigences réglementaires.

Devenu l’un des rôles les plus difficiles et les plus complexes de l’entreprise, les CDO doivent envisager la valeur des données de référence pour réaliser les objectifs métier et la transformation, en utilisant les données comme un actif stratégique. Une stratégie de données performante doit adopter un état d’esprit « business-first » mettant en avant la mission de l’entreprise et bien sûr ses clients.

TRIBUNE – La data au coeur des enjeux de performance achats et des nouvelles réglementations 19 novembre 2018

Posted by thparisot in Tribunes.
Tags: , , , , , ,
add a comment

Bertrand Gabriel, Acxias

A la recherche d’une plus grande efficacité, les directions achats les plus matures cherchent aujourd’hui à générer un maximum de performance de leurs systèmes d’information. D’abord en déployant des outils sur un périmètre étendu et en encourageant leur utilisation à grande échelle. Mais aussi en renforçant la qualité de leurs données, dont l’importance a parfois été négligée. Prenant conscience de l’impact de la qualité des informations manipulées sur la performance de leurs outils et la pertinence des résultats obtenus, nombre d’entreprises se sont d’ailleurs dotées d’organisations spécialisées sur la question (Schneider Electric, Vinci, etc.) et mis en place une gouvernance dédiée.

Cette prise de conscience touche notamment les informations relatives aux produits et services achetés. Mais aussi, de plus en plus souvent, les informations concernant les fournisseurs, domaine sur lequel la marge de progrès reste la plus grande. Dans de nombreuses entreprises, ces informations restent fréquemment éparpillées, cloisonnées dans des silos organisationnels, voire parfois délaissées, sans réel processus de gestion ni gouvernance. Et lorsque, par ailleurs, les sources sont disparates (langues, hétérogénéité des bases, granularité, classifications différentes, taxonomie, etc.), les équipes achats perdent en visibilité et donc en fiabilité. D’autant que les fonctions achats ont des missions de plus en plus transverses et que leur capacité à agir sera dès lors directement liée à la fiabilité et à la complétude de l’information dont elles pourront disposer sur leur périmètre d’activité.

Les achats prennent la mesure du problème

Signe de l’évolution dans ce domaine, les responsables informatiques et décisionnels ne seraient plus incontournables sur le sujet, selon plusieurs études. La gouvernance des données et des capacités analytiques sous-jacentes tendrait à juste titre à devenir partagée, voire à relever exclusivement des directions métiers. Ainsi, sans attendre que le chantier leur soit imposé, les directions des achats commencent à prendre seules la mesure du problème, comprenant qu’il ne suffit pas de déployer des outils informatiques pour mieux piloter le processus métier, y compris des outils d’analyse censés faciliter les prises de décision.

Pour optimiser leur performance, un pilotage des données s’impose ! Les années de crise et la globalisation de l’économie ont accentué ces dix dernières années la pression sur les achats, dont le rôle s’est renforcé, avec des axes d’action stratégiques recentrés sur la maîtrise des dépenses (couverture achats, conformité, renforcement de l’environnement concurrentiel fournisseurs), la gestion du risque et l’optimisation de l’efficience opérationnelle. Le lancement de stratégies d’amélioration sur ces trois plans a logiquement conduit les achats à s’intéresser davantage aux informations dont ils disposaient pour effectuer des analyses préalables à l’identification de leviers d’actions, et donc à la qualité des données sous-jacentes.

Plusieurs autres facteurs expliquent aussi l’intérêt porté au sujet par les entreprises. Des facteurs externes, comme la multiplication des sources, l’explosion des données non structurées, l’augmentation des échanges interentreprises. Ou encore les évolutions règlementaires telles que Reach (règlement contre les risques liés aux substances chimiques), Sapin 2 (loi relative à la transparence, à la lutte contre la corruption et à la modernisation de la vie économique) ou le Règlement général sur la protection des données (RGPD) entré en application en mai dernier. Mais aussi des facteurs internes : contribution croissante des systèmes d’information à la prise de décision, hétérogénéité des plateformes, évolution structurelle de l’entreprise (fusion-acquisition, externalisation, etc.), hausse des volumes de données collectées, structurations des référentiels métiers.

L’analytique achats intègre la mise en qualité

La direction des achats est de plus en plus souvent en pointe dans le déploiement de dispositifs dédiés à la capture et à la mise sous référentiel qualité des informations fournisseurs. D’ailleurs, les sociétés proposant un outil ou un service externalisé de structuration des données sur les entreprises, telles BvD (Bureau van Dijk), Easypics ou IAvenir, seraient de plus en plus confrontées à des problématiques achats, pour compléter et fiabiliser les bases fournisseurs de leurs clients. Et sur le marché des solutions digitales pour les achats, la plupart des outils d’analyse des dépenses, de mesure de la performance et de pilotage des risques incluent aujourd’hui des fonctions et des services d’agrégation, de nettoyage et de normalisation des données multi-sources.

Quelle que soit la démarche adoptée, les gains à attendre d’une mise en qualité des données apparaissent aujourd’hui évidents aux équipes achats. Si des données incomplètes ou peu précises entraînent des retards ou des erreurs, et in fine une augmentation des coûts, un système fiable et efficace permet de se mettre dans les meilleures conditions d’exécution du processus, en particulier pour négocier et renégocier. A un instant donné, mais surtout sur le moyen et long terme. De ce fait, malgré sa durée, son périmètre et sa complexité, un projet de mise en qualité des données est généralement soutenu par les équipes achats car identifié comme nécessaire pour réduire la charge de travail d’activités à faible valeur ajoutée et pour améliorer la performance achats : davantage de réactivité et d’agilité, une visibilité en temps réel, un reporting et des échanges facilités, etc.

Un audit et une mise en qualité en trois temps

Comment ajouter une dimension qualité aux dispositifs traditionnels de collecte et de gestion des données ? La première étape consiste à réaliser un audit, pour recenser et évaluer les données existantes au sein de l’entreprise, ainsi que celles qui ne sont pas forcément gérées en interne mais qui sont requises ou utiles pour les achats et collectées souvent de façon dispersée et sans règle. L’audit mettra également en évidence les principaux problèmes de qualité de ces données : erreurs de format (type de caractère, longueur de champ, etc.), données incomplètes, inexactes, manquantes, en double, etc. Il permettra aussi d’identifier les causes racines à l’origine de ces aléas de qualité : problèmes liés à l’informatisation du système de gestion (erreurs de programmation, de migration, de conversion, etc.), humains (erreurs de saisie, de ventilation, d’extraction, de modification dans une base, etc.), organisationnels (introduction de données externes erronées, saisies multiples, absence de langage commun, etc.) ou liés aux sources de données qui manquent elles-mêmes parfois de fiabilité et de complétude. Pour les données fournisseurs, ce travail d’audit vise essentiellement à répondre à des questions de base relatives à leur origine, l’utilisation qui en est faite, les opérations de transformation ou d’enrichissement effectuées, la codification utilisée, les processus de mise à jour et l’organisation mise en oeuvre.

L’audit réalisé, le traitement proprement dit de mise en qualité peut commencer, en trois temps : dédoublonnage, codification, consolidation. Pour supprimer les doublons, il est possible de combiner l’utilisation d’outils spécialisés, en interne, et de banque de données externes comme Altares (Dun & Bradstreet), BvD Electronic publishing, Ellisphere (ex Coface Services), Docapost, Infogreffe, Pouey International, Tessi, etc. ou de plates-formes agrégeant des informations enrichies et mises à jour, à partir de différentes sources : sites internet, réseaux sociaux, Business networks (Basware, Coupa, Proactis, SAP Ariba, etc.), « data providers », etc. Sans oublier les bases en Open data, comme le répertoire Sirene, disponible gratuitement depuis début 2017, qui recense les données d’identification de toutes les sociétés françaises et de leurs établissements sur le territoire.

L’entreprise peut également recourir à un prestataire spécialisé dans ce type d’opération, sur site ou par envoi régulier des données sous forme brute. Son travail consiste à appliquer un mode de classification en s’appuyant généralement sur des taxonomies spécialisées telles Duns (données fournisseurs) ou des standards de type eCl@ss ou UNSPSC (données produits ou services), avec le niveau de finesse approprié en fonction des besoins des achats, et à détecter d’éventuelles anomalies. Chaque nature de données (fournisseur, produit, etc.) peut ensuite être identifiée par un code unique, et donnera lieu à une mise sous contrôle avec un processus rigoureux et spécifiquement adapté.

Enrichissement et surveillance automatisée

Ces traitements peuvent aussi être l’occasion d’enrichir les données. En plus de remettre de la qualité dans les données administratives sur les fournisseurs, certains prestataires proposent d’ajouter des informations sur leur activité ou leur actionnariat, sur leur niveau de risque, les aider sur les problématiques Sapin 2 et de vigilance, en s’appuyant sur des bases d’entreprises tierces, à travers des partenariats. Il est également possible d’introduire des évaluations, basées sur un système de notation, à travers des questionnaires couvrant des critères comme la qualité, le prix, les délais ou le respect des obligations de vigilance. Ou d’ajouter des commentaires pour enrichir et argumenter les notes attribuées.

Sur ce marché, comme les autres, la dernière innovation est liée à l’arrivée des technologies d’intelligence artificielle (IA) et de blockchain. Que ce soit dans les outils d’ETL (Extract, Transform, Load) utilisés pour l’extraction-transformation contrôle puis le chargement et le transfert des données vers les systèmes cibles, qui évoluent vers l’ETQL en intégrant le « Q » de quality, ou dans les solutions digitales achats, l’IA apporte un niveau d’automatisation supplémentaire. En plus de prendre en charge les tâches élémentaires et récurrentes de mise en qualité, l’intégration d’outils d’intelligence artificielle doit surtout permettre de détecter au plus tôt les dérives, voire de les anticiper. En s’intéressant à ces technologies, les entreprises veulent limiter le mode réactif, consistant à intervenir lorsqu’une erreur est détectée, et passer en mode proactif, pour analyser et traiter les données dès leur injection dans le système d’information. L’IA doit aussi faciliter le contrôle de conformité vis-à-vis des nouvelles réglementations, que les entreprises ne doivent pas ignorer, et l’accompagnement fournisseurs en termes de risques, de responsabilité sociétale, de corruption, etc.

Instaurer une démarche d’amélioration continue

D’ailleurs, au-delà des éditeurs de solutions logicielles achats ou des acteurs historiques du marché du décisionnel, de nombreuses start-up lancent des solutions pour gérer les problématiques dans ces domaines. Certaines proposent par exemple une offre de lutte contre la fraude, avec un service de vérification des coordonnées bancaires des fournisseurs, un sujet sur lequel s’est aussi positionné Acxias, en s’appuyant sur l’autre technologie montante, la blockchain. Sa solution répond à un réel besoin : garantir que certaines informations sensibles reçues par les clients émanent de sources fiables et n’ont pas été altérées à des fins frauduleuses, alors qu’il n’existe pas d’organe central jouant le rôle de tiers de confiance et que les cas de fraude se multiplient, avec des coûts élevés. Avec cette application, les entreprises clientes utilisatrices ont la possibilité de contrôler de manière hautement sécurisée et avec certitude les informations sensibles de leurs fournisseurs par le biais d’une blockchain privée sans même que les informations sous-jacentes n’y soient stockées ou détenues par un organe central. Les échanges seront certifiés et tracés grâce à l’utilisation de Smart contracts.

Pour autant, l’ensemble du processus de gestion de la qualité des données ne peut pas être automatisé. En particulier parce qu’à l’issue du projet de nettoyage et de mise sous contrôle, un dispositif de maintien en conditions opérationnelles s’inscrivant dans la durée doit être déployé et opéré en continu. Il est indispensable de contrôler en permanence le niveau de qualité et de s’assurer qu’il n’y a pas de dérive. La démarche doit donc aussi comprendre un volet organisationnel et une gouvernance, et s’appuyer sur des « indicateurs clés de valeur » permettant de vérifier que chaque objet de données se conforme aux règles métiers préalablement définies et de définir et piloter la réalisation d’actions correctrices en cas de déviance.

En synthèse, il convient de mettre en place des outils et des procédures de contrôle en vue d’instaurer une démarche d’amélioration continue, à la fois au niveau de la DSI et de la direction des achats. Et de bien communiquer auprès de l’ensemble des parties prenantes, en particulier la direction générale de plus en plus sensible aux sujets du digital, notamment pour que les investissements, les efforts et le temps consacrés à la mise en qualité des données soient reconnus comme utiles et générateurs de valeur.

Le RGPD n’épargne pas les achats 17 septembre 2018

Posted by thparisot in Actualités, Tendances.
Tags: , , , , , , , ,
add a comment

Le nouveau texte européen sur la protection des données impose aux directions des achats de garantir la sécurité des informations relatives aux contacts fournisseurs, au moyen de procédures et d’outils dédiés. Elles doivent aussi s’assurer de la mise en conformité des prestataires qui hébergent ou traitent des données pour le compte de leur entreprise, en adaptant les contrats d’achats pour décrire les nouvelles obligations et les solutions envisagées en cas de problème.

Quelques mois après l’entrée en vigueur du Règlement général sur la protection des données personnelles (RGPD) de l’Union européenne, le 25 mai dernier, le niveau de conformité des entreprises pose toujours question. Depuis cette date pourtant, toutes les entreprises dont le siège social est basé en Europe, mais également toutes celles qui manipulent des informations personnelles collectées dans l’Union, doivent être en conformité avec le nouveau texte qui a pour objectif de permettre aux individus de contrôler plus facilement la manière dont leurs données sont collectées, utilisées, partagées et stockées. « Différent d’une directive, ce règlement s’impose à tous les pays européens, avec une marge très faible d’adaptation, uniquement pour tenir compte de l’accompagnement (certification, label, etc.) propre à chaque pays », précise Franklin Brousse, avocat des directions achats et digitales.

Si le RGPD concerne particulièrement les directions marketing et ressources humaines, gourmandes en données relatives aux clients/prospects ou aux salariés, les achats ont aussi une responsabilité. Pourquoi ? D’abord, parce que le système d’information de la fonction manipule des informations relatives aux contacts fournisseurs. « Le RGPD impose de mettre en place des mesures particulières, c’est-à-dire des procédures dédiées et des solutions de protection, notamment des outils de chiffrement et des dispositifs d’anonymisation ou de pseudonymisation », explique Franklin Brousse.

Les achats sont aussi concernés en raison du recours de l’entreprise à des tiers ou à des sous-traitants informatiques, potentiellement amenés à héberger ou à traiter des données (salariés, clients, fournisseurs, etc.) pour son compte. « Outre la mise en œuvre de mesures techniques et organisationnelles en interne, les entreprises doivent se poser la question de la mise en conformité des services fournis par leurs prestataires », confirme Jules-Henri Gavetti, Président et co-fondateur de l’hébergeur cloud Ikoula. Afin de s’assurer qu’ils respectent bien le RGPD, et ainsi se protéger, il est impératif d’adapter les contrats d’achats pour décrire leurs obligations (vérification de la sécurisation, procédure de notification en cas d’attaque, analyse d’impact, etc.), éventuellement à travers un « Data protection agreement » à annexer au contrat.

Dans les deux cas, les directions des achats doivent transformer la contrainte en opportunité, en travaillant avec la DSI et les juristes. « Idéalement, ce travail peut être mené avec l’aide du Délégué à la protection des données (ou DPO, pour Data protection officer) dont la mise en place, comme celle du Correspondant informatique et liberté (CIL) il y a quelques années, n’a toutefois aucun caractère d’obligation », explique Franklin Brousse.

Le projet RGPD constitue d’abord une opportunité pour se débarrasser des données de mauvaise qualité. « La meilleure solution consiste à mettre en place une base centralisée, soumise à des règles permettant à l’entreprise d’être en conformité », conseille Brenton Walton, Head of Business Development & Marketing North America chez SynerTrade. « Il peut être efficace de retracer le cycle de vie des données, en inscrivant celui-ci sur un support centralisé et accessible », acquiesce Florian Douetteau, PDG de Dataiku. « Ce cycle doit comporter un inventaire des données existantes, des personnes qui y accèdent et y ont régulièrement recours, ainsi que des modes de traitement de la donnée : copie, suppression, etc. ». De cette manière, il sera plus simple d’identifier les pratiques qui impliquent la manipulation de données personnelles et celles qui présentent des risques.

Avec les prestataires qui ne seraient pas conformes au RGPD, « c’est aussi l’occasion de pouvoir renégocier les termes et conditions des contrats, et d‘en profiter pour faire des économies », poursuit Brenton Walton. L’opération peut aussi nécessiter de mettre à jour son éventuel outil CLM (Contract lifecycle management), en particulier si l’éditeur a intégré la nouvelle réglementation en mettant à disposition des clauses ou des documents spécifiques. Voire de lancer une réflexion plus globale pour moderniser et mettre à niveau la partie concernée de son système d’information achats.

> Article inspiré du texte original disponible sur le site d’Acxias, mai 2018

Actualités en bref 8 décembre 2017

Posted by thparisot in Acteurs, Actualités, Offre, Projets, Tendances.
Tags: , , , , , , , , ,
add a comment

Vinci Energies dématérialise ses factures et commandes. La filiale du groupe Vinci, spécialisée dans les services liés aux technologies des énergies et de l’information, déploie un système pour rationaliser et dématérialiser les processus de traitement des factures et des commandes de ses 1 600 entités autonomes implantées dans 52 pays. Ce système, basé sur les solutions de Basware, doit permettre de gagner en productivité et en visibilité en centralisant et optimisant les traitements. Sur les flux entrants, après une extension progressive du périmètre fonctionnel et géographique du dispositif, Vinci Energies table sur un total de trois millions de factures fournisseurs et environ un million de commandes d’achats traitées avec la même solution à l’horizon 2022, à l’échelle mondiale.

Baiya agrège les données fournisseurs. La start-up toulousaine vient de lancer une plate-forme web de gestion de la relation fournisseurs, qui propose notamment un référentiel agrégeant des informations enrichies et mises à jour, à partir de différentes sources : open data, sites internet, réseaux sociaux, prestataires spécialisés, etc. Selon Alexandre et Fanny Lemaître, les cofondateurs de la société, en février dernier, les donneurs d’ordres peuvent par exemple y trouver des indications sur le niveau de risques financiers ou la conformité RSE de leurs partenaires commerciaux, en plus des données administratives. Il leur est aussi possible de compléter la base en ajoutant des fournisseurs dans certaines catégories, pour optimiser le sourcing.

BravoSolution dans le viseur de Jaggaer. L’Italien BravoSolution, l’un des principaux éditeurs sur le marché français de l’e-achat, pourrait passer sous pavillon américain après que Jaggaer (ex Sciquest) a annoncé son projet de rachat auprès de la holding Italmobiliare. En combinant leurs offres, les deux sociétés entendent construire une « super suite » métier, avec des versions spécialisées dans une dizaine de secteurs, dont le public. Une fois l’acquisition finalisée, le nouvel ensemble comptera plus de 1 850 clients connectés à un réseau de 3,7 millions de fournisseurs dans 70 pays, avec l’appui de bureaux en Amérique du Nord, en Amérique Latine, en Europe, en Asie-Pacifique et au Moyen-Orient. Il emploiera près de 1 000 personnes pour un chiffre d’affaires avoisinant 220 millions de dollars. Source : Acxias

Démarrage réussi pour Chorus Pro. A l’occasion du colloque « Facturation électronique, vecteur de performance publique » qui s’est tenu le 22 novembre à Paris, l’Agence pour l’informatique financière de l’Etat (AIFE) a annoncé que 9 millions de factures ont été traitées sur le portail Chorus Pro depuis le 1er janvier dernier , première étape de l’obligation de dématérialisation pour les fournisseurs des 150 000 entités du secteur public : collectivités locales, établissements publics, services de l’Etat. Si cette obligation ne concerne pour l’heure que les grandes entreprises, en 2020 ce seront près de 100 millions de factures qui devraient transiter chaque année via Chorus Pro, en provenance d’un million de fournisseurs. Source : Acxias

Actualités en bref 25 septembre 2017

Posted by thparisot in Acteurs, Actualités, Projets, Ressources.
Tags: , , , , , , , , ,
add a comment

Le Groupe Châtel passe à l’e-facturation. Pour optimiser sa comptabilité, gagner en efficacité et améliorer le suivi des opérations, la société de transport et logistique a opté pour la dématérialisation de ses 20 000 factures fournisseurs annuelles. Auparavant, les traitements s’effectuaient manuellement, après récupération des flux de documents en provenance des dix sociétés du groupe réparties sur sept sites. En choisissant la solution d’Esker, interfacée à l’ERP Cegid, le Groupe Châtel a pu accélérer le traitement des factures, avec notamment un gain de temps dans le circuit validation qui compte une cinquantaine d’intervenants et 4 à 6 niveaux d’approbation, sécuriser le processus grâce à une meilleure traçabilité et mieux gérer ses mouvements de trésorerie.

Les 100 éditeurs à connaître ou à suivre. Le site Spend Matters vient de publier ses 50 « to Know » et « to Watch », deux listes d’éditeurs que les décideurs métiers devraient connaître et suivre en 2017-2018. Plutôt complets, ces index non classés font toutefois une large place aux sociétés anglo-saxonnes et oublient à l’inverse nombre d’outsiders. Parmi les absents français figurent notamment Groupe Achats, Oalia, Orgasoftware, Oxalys Technologies ou Per Angusta. De même, aux côtés d’Oracle et SAP, des généralistes comme Kimoce, Microsoft ou Qualiac auraient mérités d’être référencés. En termes de roadmap, Spend Matters souligne la percée des technologies disruptives, telles l’intelligence artificielle ou la blockchain. Source : Acxias

Proactis finalise l’acquisition de Perfect Commerce. Un mois après l’annonce préliminaire, Proactis vient de finaliser le rachat de Perfect Commerce, suite à l’approbation de l’opération par leurs actionnaires respectifs et les autorités de contrôle. Siégeant à Londres, le nouvel ensemble compte environ 450 collaborateurs, au service de plus de 1 000 entreprises dans une centaine de pays, pour un chiffre d’affaires dépassant les 50 millions de livres (55 millions d’euros). Le rapprochement des deux portefeuilles applicatifs permettra d’offrir une solution complète source-to-pay adossée à un business network de plus de 2 millions de fournisseurs. Avec ce rachat, Proactis entend doper ses activités en Amérique du Nord, en Asie et à travers toute l’Europe. Source : Acxias

Livre blanc sur les données de voyages. L’Association française des travel managers (AFTM) publie un livre blanc traitant de l’importance de la donnée dans le cadre de la gestion des déplacements professionnels. Recueillies au fil du processus, de l’expression de la demande au retour du collaborateur, « ces données constituent une richesse qui permet d’étudier l’efficacité des outils et de mesurer la conformité aux différentes procédures internes, dont la politique voyage », rappelle le document édité sous forme de fiches pratiques. L’enjeu serait double : disposer d’informations normées, compréhensibles et répondant aux clés de lecture établies par l’entreprise, d’une part, travailler à leur raffinage et leur enrichissement en continu, d’autre part. Source : Acxias

Actualités en bref 22 août 2016

Posted by thparisot in Acteurs, Actualités, Offre, Ressources, Tendances.
Tags: , , , , , , , , ,
add a comment

Axys se renforce dans le digital avec Aquity. Après trente ans de croissance organique, Axys Consultants vient de procéder à sa première acquisition en rachetant le cabinet Aquity, spécialisé dans la transformation digitale opérationnelle. Le programme de transformation digitale de l’entreprise, initié en 2013, s’inscrit dans une évolution globale et graduelle touchant les aspects tant humains, qu’organisationnels et technologiques : analyse des opportunités sectorielles du digital et de sa déclinaison par les usages, développement des compétences ad hoc, investissements sur des outils s’appuyant sur des approches innovantes de conduite du changement et l’animation d’ateliers. Avec l’acquisition d’Aquity, Axys entend apporter à ses clients un savoir-faire global, de la stratégie à la mise en œuvre.

Interopérabilité de Sage eFacture. Dans la perspective de l’obligation d’e-facturation qui entrera en vigueur entre 2017 et 2020 selon la taille de l’expéditeur, l’éditeur britannique annonce avoir doté sa solution Sage eFacture d’une plate-forme d’interopérabilité développée en partenariat avec Cegedim. Intégrée de façon transparente, cette plate-forme permet, en l’absence d’une norme générale établie en France et en Europe, de convertir une facture vers n’importe quel format spécifique, pour en automatiser l’envoi et la réception. Tandis que la conversion s’effectue en passant par le format XML, Sage explique que les utilisateurs obtiennent un document final en PDF classique, facilitant la consultation, le suivi et l’archivage. Source : Acxias

Guide de bonne gestion des dépenses publiques. La direction générale des finances publiques (DGFiP) propose un « guide des bonnes pratiques de gestion des dépenses des collectivités territoriales et de leurs établissements publics ». Destiné à accompagner le déploiement de la dématérialisation globale de la chaîne de traitement de la dépense, ce document de 34 pages détaille les voies d’optimisation des trois grands segments du processus : l’amont (la gestion des achats, factures, subventions, aides, etc.), la partie centrale (le paiement), l’aval (le pilotage transverse et les régularisations). Il s’intéresse en particulier à la dématérialisation des pièces de dépenses et à l’utilisation de la carte d’achat pour les opérations de petits montants. Source : Acxias

Les métiers mobilisés autour de la donnée. La gouvernance liée aux données et à l’analytique tend à devenir partagée, voire à relever exclusivement des directions métiers, comme les achats, selon le dernier baromètre du CXP sur le sujet commandité par Qlik. Plus d’un tiers (34 %) des responsables informatiques et décisionnels sont conscients de ne plus être incontournables dans les projets, du fait notamment de la montée en puissance des solutions SaaS et des outils en libre-service. Jusqu’alors simples utilisateurs, les métiers souhaitent gagner en autonomie pour accéder à des tableaux de bord statiques et dynamiques, améliorer la qualité de la donnée et gérer son organisation, ou utiliser des outils prédictifs. Source : Acxias

Actualités en bref 20 août 2015

Posted by thparisot in Acteurs, Actualités, Ressources, Tendances.
Tags: , , , , , , , , ,
add a comment

Spend Matters liste les éditeurs clés. Le site d’information sur le marché des solutions e-achats vient de publier ses « 50 to Know » et ses « 50 to Watch« , deux listes d’éditeurs que les décideurs métiers devraient connaître et suivre en 2015-2016. Plutôt complets, ces index non classés offrent toutefois une large place aux sociétés anglo-saxonnes et oublient à l’inverse des acteurs très présents dans l’Hexagone. Parmi les absents figurent notamment B-Pack, qui vient d’intégrer le groupe Selectica, Perfect Commerce et SynerTrade, mais aussi des spécialistes plus modestes comme Oalia ou Oxalys Technologies. De même, aux côtés d’Oracle ou SAP, des éditeurs multilogiciels (dont ERP) comme Microsoft et Qualiac auraient mérités d’être référencés.

La difficile collecte des données fournisseurs. Dans une récente enquête de SharedServicelink et Tradeshift, menée auprès d’une centaine de responsables issus des fonctions finances, achats et comptabilité, près de la moitié (45 %) des acheteurs intéressés par la co-innovation avec leurs fournisseurs avouent qu’ils n’ont aucune donnée pour un tiers de leur panel. Par ailleurs, ceux qui ont essayé d’automatiser la collecte d’informations à travers un portail collaboratif rencontreraient des difficultés pour affilier leurs fournisseurs et les amener à interagir à travers le dispositif. Ces derniers percevraient la proposition comme une contrainte, coûteuse en temps et sans valeur ajoutée à leur niveau. Source : Acxias

Arnauld Batillat rejoint B-pack. Après plusieurs expériences dans le monde de l’édition de logiciel, Arnauld Batillat (48 ans, université Paris I) rejoint B-pack au poste de directeur des ventes. Cette nomination intervient dans le contexte de l’acquisition de l’éditeur par l’américain Selectica, qui entend ainsi renforcer sa présence sur le marché de l’e-achat : en poids et en couverture géographique, d’abord, mais aussi en termes d’offre. L’objectif est de proposer « une solution globale et transverse de type source-to-pay » associant les logiciels des deux sociétés, ainsi que ceux de Iasta, absorbé mi 2014. Dans le domaine spécifique des solutions e-achats, Arnauld Batillat a auparavant travaillé chez Zycus, Hubwoo et Capgemini-IBX.

Nouveau guide juridique de la dématérialisation. La Fédération des tiers de confiance (FNTC) vient de mettre à jour son vade-mecum juridique de la dématérialisation des documents, disponible en version papier et téléchargeable gratuitement sur son site. D’une centaine de pages, ce guide élaboré par le cabinet d’avocats Caprioli & Associés aborde les questions d’ordre réglementaire et jurisprudentiel que se posent les acteurs et utilisateurs du marché du numérique, en particulier pour la dématérialisation des factures et des divers documents intervenant dans le processus achats. Outre les enjeux dans les sphères privée et publique, l’édition 2015 détaille le nouveau règlement européen eIDAS sur l’identification et les services de confiance. Source : Acxias

Actualités en bref 13 mai 2015

Posted by thparisot in Acteurs, Actualités, Offre, Projets, Tendances.
Tags: , , , , , , ,
add a comment

Le ministère de la Défense déploie Oalia. Au terme d’un vaste programme de rationalisation, d’homogénéisation et de simplification de ses processus achats, le ministère de la Défense a retenu l’éditeur Oalia, dans le cadre d’un groupement l’associant à Klee Group et IBM, pour équiper l’ensemble de ses entités d’un outil métier. Le projet, qui s’étalera sur 2015 et 2016, avec une cible de plusieurs milliers d’utilisateurs, couvrira un périmètre fonctionnel allant de la programmation budgétaire à l’exécution des marchés, en passant par l’expression des besoins, la conduite de la procédure et la création du contrat. Il nécessitera la mise en place de nombreuses interfaces, en particulier avec le système financier Chorus. Source : Acxias

IAvenir se développe à l’étranger. Cinq ans après sa création, l’éditeur français a engagé un plan d’expansion à l’international, d’abord en Europe et en Asie, et plus particulièrement en Inde où un contrat vient d’être conclu avec la filiale du groupe coréen Dossan. Ce contrat porte sur l’utilisation des solutions d’e-sourcing (appels d’offres et enchères) et le développement d’un module spécifique d’e-procurement. Dans l’Hexagone, iAvenir a mené deux missions de classification de données achats : l’une pour Manutan, en même temps que la réalisation d’outil de cartographie, l’autre pour Pôle emploi, en s’appuyant sur la nomenclature CPV utilisée pour les marchés publics au niveau européen. Source : Acxias

Les achats professionnels en ligne progressent. D’après la dernière étude de Xerfi sur le sujet, le chiffre d’affaires du e-commerce inter-entreprises a progressé de 9 % en France en 2014 et, selon les experts du cabinet, la tendance haussière devrait se poursuivre à l’horizon 2017. Cette dynamique s’explique d’abord par un contexte économique plus favorable, avec une reprise des investissements attendue au second semestre 2015, mais aussi par le fait qu’Internet devient un canal incontournable offrant de nombreux avantages : accessibilité permanente, offre étendue, livraison rapide, prix attractifs, etc. Pour convaincre les donneurs d’ordres encore réticents, les e-commerçants développent des fonctionnalités avancées de recherche, d’évaluation, etc. ou des catalogues sur-mesure. Source : Acxias

L’Apeca aide à gérer les frais professionnels. L’Association des professionnels européens de la carte d’achat lance un nouveau service pour aider les entreprises à accélérer les traitements et réduire les coûts liés à la gestion des frais professionnels, notamment dans le cadre du processus achats. Proposé en partenariat avec ses membres spécialisés dans le voyage d’affaires (AirPLus International, American Express, BNP Paribas, Concur-SAP, Dimo Gestion, Traveldoo et Ugap-Déplacements professionnels), ce service vise à informer sur les avantages de l’automatisation et de la dématérialisation des opérations, mais aussi à accompagner les décideurs dans le choix d’une solution (carte, logiciel, etc.) et la conduite d’un projet dans ce domaine. Source : Acxias