Étiquettes

, , , , , , , , , , , , , , , , ,

clouds-978965_1280

I – Maîtrise de l’information et Contrôle Interne

  1. Lorsque l’on parle du contrôle interne, il est souvent question de bonne gouvernance et de respect de la conformité de l’entreprise.
  2. Lorsque l’on parle du flux Information d’une entreprise, il est question d’information sensible, engageante, structurante, personnelle, patrimoniale.

Comment les deux peuvent se rejoindre de façon complète, surtout en intégrant la vue globale de ce flux Information ? Qu’en pensez-vous, cela est il du ressort du contrôle interne que de s’assurer que ces familles d’informations soient bien maîtrisées ?

Dans l’état actuel de « l’art », il y a bien une dissociation entre les notions et les concepts d’information et de contrôle interne.

L’ambiguïté est qu’il est souvent évoqué la prise en compte de l’information lors de la mise en place d’un système de contrôle interne, mais il s’agit d’éléments participatifs à la gestion des processus et des risques, …, d’informations comptables et de données informatives contenues dans les différents reporting réalisés pour le management, les différents comités et la gouvernance.

Nous sommes plus dans une optique de gestion organisationnelle que dans une application complète de maîtrise de la stratégie définie par l’entité.

Si nous imaginons un lien entre ces deux notions/concepts, il ne peut être direct et, ce, même si nous parlons de protection. Dans les grandes entreprises, cette dernière fonction est souvent assurée par la fonction élargie de la sécurité.

C’est en premier le risk-manager ou le responsable des processus de gestion des risques qui doit disposer de toutes les informations internes et externes afin de les identifier, mais surtout de les évaluer, de déterminer des mesures de contrôle et de simuler différents scénarios d’incidents à analyser.

La maîtrise de l’information est le préalable incontournable de la gestion des risques.

Ce dernier commentaire s’applique de la même manière à l’intelligence économique (IE), bien que la vision de l’entreprise en soit différente. Il a d’ailleurs été constaté une redondance dans les travaux pratiqués par les fonctions dédiées à l’intelligence économique et au risk-management en termes de gestion de l’information.

Une autre confusion peut provenir du fait que certains risk-managers se voient confier la responsabilité du contrôle interne, des assurances et, parfois, de l’audit interne. Ceci est un autre débat en termes d’indépendance et de délégation.

Comme il a été dit plus haut, le contrôle interne intervient pour partie dans la réduction d’exposition aux risques retenus.

Toute l’information n’est pas contenue dans le système d’information.

Par exemple, certaines informations glanées lors de négociations par les acheteurs, vis-à-vis des fournisseurs, et par les commerciaux, en relation avec les revendeurs, ne sont pas forcément répercutées. Même si un reporting existe, qui peut être sûr que les informations y sont toutes retranscrites et en termes adéquats ?

Une donnée peut ne pas être jugée essentielle par ces populations, alors qu’elle le sera par un risk-manager ou un responsable de veille (IE).

Nous sommes entrés dans l’ère de l’instabilité et de bouleversements de structures organisationnelles, ce qui nous amène à une gestion holistique et intégrée des risques, voire même un concept innovant : l’intelligence des risques (management des risques selon les méthodes de l’intelligence économique).

En corollaire, le contrôle interne se doit d’évoluer dans le même sens. En se dirigeant vers un concept novateur : l’intelligence collective du contrôle interne.

« L’intelligence collective désigne les capacités cognitives d’une communauté résultant des interactions multiples entre ses membres. La connaissance des membres de la communauté est limitée à une perception partielle de l’environnement. Ils n’ont pas conscience de la totalité des éléments qui influence le groupe. Des membres aux comportements très simples peuvent ainsi accomplir des tâches apparemment très complexes grâce un mécanisme fondamental appelé synergie ou stigmergie¹. » (dixit Wikipédia).

Enfin, une nouvelle démarche est apparue : la prise en compte par l’audit interne des risques associés à l’atteinte des objectifs stratégiques. Ce qui inclut la gestion des risques stratégiques par le risk-manager et, de ce fait, une éventuelle prise en compte par le contrôle interne.

En conclusion, les évolutions évoquées doivent amener le contrôle interne à assurer la maîtrise des familles d’informations citées. Ceci sous réserve d’une organisation transversale et, pour les entreprises appliquant le référentiel COSO 2, de l’actualisation vers le COSO 3.

  ¹ Stigmergie : C’est une méthode de communication indirecte dans un environnement émergent auto-organisé, où les individus communiquent entre eux en modifiant leur environnement. Application de principes issus de la stigmergie à la collaboration dans des grands groupes et comme une méthode de gouvernance alternative à mi-chemin entre les organisations fonctionnant sur un modèle de compétition et celles fonctionnant sur un modèle de coopération.

II – A l’ère du « Big Data » ou de la folie des grandeurs

Dans une économie où on assiste à l’essor du Big Data, la gestion des documents devient de plus en plus complexe. Elle est pourtant un enjeu essentiel pour développer des projets.  (selon Damien Andrieu, Responsable marketing Lascom sur BFM Business du 29/01/16 -(confère rubrique « Consulter » en fin d’article) ).

1. Big Data :

9 projets Big Data qui sont censés marquer 2016 :

  • Maintenance prédictive des rames de la SNCF.
  • Suivi en temps réel des épidémies de grippe.
  • Détection des cas de fraude sur un site d’e-commerce.
  • Anticipation des métiers de demain dans le numérique.
  •  …

http://www.journaldunet.com/solutions/dsi/1177412-9-projets-big-data-a-suivre-en-2016/

Big Data, terme et notion très à la mode depuis quelques temps et, plus particulièrement, dans un esprit « marketing » au sens, dans un premier temps, de connaissance du client et, en second lieu, de ses actions et de ses interactions.

Phénomène nouveau correspondant en français à « méga-données »moins attrayant sur un plan marketing, se compose d’un ensembles de données qui sont tellement volumineuses qu’il est difficile de les traiter à l’aide des outils classiques de gestion de base de données ou de gestion de l’information.

Méga : en tant que préfixe : très grand. « Un million ».

Ensemble : Collection de nombres, d’éléments partageant des caractéristiques ou des propriétés communes (composé de x sous éléments ou Smart data + Smart data + Smart Data + … = Big Data).

Données : Élément connu qui sert de base à un raisonnement, à une recherche. • Résultat d’observations ou d’expériences. • Information représentée de façon à pouvoir être traitée par ordinateur.

Le « Big Data » fait suite à la  » Business Intelligence » (informatique décisionnelle- aide à la décision), à la « datawarehouse » (entrepôt de données ou base de données décisionnelles) et à la « datamining » (exploration de données).

Le « Big Data » a une histoire récente, et pour partie cachée, en tant qu’outil des technologies de l’information et comme espace virtuel prenant une importance volumique croissante dans le cyberespace.

L’expression « Big Data » serait apparue en octobre 1997 selon les archives de la bibliothèque numérique de l’Association for Computing Machinery (ACM), dans des articles scientifiques sur les défis technologiques à relever afin de visualiser des « grands ensembles de données ».

Mais dans son principe, sa création est bien plus antérieure que cette date.

1942 – 1960 :

How Robert McNamara And The Whiz Kids Invented Big Data : History mostly knows him as the disgraced architect of the Vietnam War, but McNamara first made his mark in the corporate world with his mastery of numbers before it was as fashionable as it is today http://www.worldcrunch.com/business-finance/how-robert-mcnamara-and-the-whiz-kids-invented-big-data

… McNamara was drawn, instead, to numbers. He was able to maximize company profits because he knew markets intimately. He could build an efficient organization based on data alone.

… McNamara dealt with thousands of numbers to maximize air operations: flight frequency, fuel consumption, crew turnover, loss ratio, number of bombs jettisoned, percentage of target destruction.

… They set up a cash-flow management system and a dashboard that could analyze all costs involved in making a car. This allowed them to plan the most cost-effective manufacture of a car.

Nous entrons dans une nouvelle dimension en ce qui se rapporte à la capture, le stockage, la recherche, le partage, l’analyse et la visualisation des données. Sur ce sujet, nous sommes encore au temps de « l’apprenti sorcier » ou de l’apprenant. A l’heure d’aujourd’hui, qui peut avoir la certitude de récupérer correctement toutes les données (de disposer d’outils en adéquation avec sa recherche), de ne pas stocker des données redondantes, de ne pas créer des »usines à gaz », de ne pas divulguer des informations à des personnes non-habilitées au sein d’une même entité et, surtout, de ne pas pratiquer une analyse erronée ?

Si vous êtes dans l’affirmative à ces questionnements, ne prenons-nous pas le sujet à l’envers ? Ou plus familièrement, ne mettons nous pas la « charrue avant les bœufs » ? Ne devons-nous pas nous interroger en premier lieu sur l’objectif de notre exploration de l’information : connaissances et évaluations, améliorant de l’analyse décisionnelle, analyses tendancielles et prospectives (climatiques, environnementales…) et de gestion des risques (commerciaux, assurantiels, industriels, naturels), pour la médecine (compréhension du fonctionnement du cerveau…), la météorologie et l’adaptation aux changements climatiques ou encore la sécurité et la lutte contre le blanchiment d’argent et le financement du terrorisme?

Confère Slideshare Jean-Michel Franco , Director, Product Marketing for Data Governance products at Talend  :   http://www.slideshare.net/jmfranco/niort-mars-14

Selon Michael Walker dans Data Science Central 19 septembre 2014 (http://nzzl.us/ncif4jC), un spécialiste de la science des données à la connaissance de la bonne combinaison et de la variété de  » Smart Data « ¹ qui est généralement plus important que le « Big Data » et il est plus susceptible d’y ajouter une valeur significative. L’ un des rôles majeurs d’un spécialiste de la science des données est de sélectionner la variété appropriée de petits ensembles de données pour un objectif spécifique, a contrario d’une collecte et d’un stockage d’ énormes volumes de données.

Il y a un certain nombre de raisons pour prioriser la sélection et la collecte des données appropriées et différentes variétés de « Smart Data » par rapport au « Big Data ». Une des principales raisons est la malédiction des grandes données. Autrement dit, vous trouverez plus de relations « statistiquement significatives » dans de plus grands ensembles de données. «Statistiquement significatif» signifie une évaluation statistique permettant de déterminer si les observations reflètent une véritable tendance plutôt que simplement le hasard ou si elles peuvent ne pas être significatives. Plus le jeu de données est important, plus les relations plus «statistiquement significatives» n’auront pas de sens, ce qui créera une plus grande possibilité de confondre le « bruit » pour le « signal« .

Ainsi, « Big Data » produit plus de corrélations et de modèles entre les données – mais produit également beaucoup plus de bruit que de signal. Le nombre de faux-positifs augmentera de manière significative. En d’autres termes, les corrélations sans lien de causalité conduisent à une illusion de la réalité.

Je suggère la valorisation de la stricte « Smart Data » sur la « Big Data » et de se concentrer soigneusement sur la sélection  d’une variété de données d’ensembles pertinents se rapportant à un objectif spécifique afin de maximiser la probabilité d’obtenir du sens et de la valeur propres à ces données.

¹ Smart Data : Méthode ou méthodologie permettant de rendre les données intelligentes et les contenus qualitatifs.

Enfin, le Big Data entraîne l’apparition de nouveaux risques.

  • Éthiques.
  • Inégalités de traitement des clients et forte discrimination.
  • Gouvernance et qualité des données (normes, piste d’audit…)
  • Confidentialité (notamment avec les solutions de type Cloud), risques juridique et conformité.

Les points de vigilance pour l’entreprise :

  • Confidentialité : respect des règles de protection de la clientèle (Loi informatique et libertés, CNIL…) : la collecte d’informations personnelles nécessite l’accord de la personne ou de la structure intéressée
  • Structuration des données et continuité d’activité (PCA/PRA):
  1. Forte augmentation du volume d’informations, mais baisse de la qualité des données
  2. Tri nécessaire et identification des données sensibles, impliquant des changements organisationnels :
  • Vigilance particulière sur la qualité des données utilisées pour les modèles internes et les plans de continuité de l’activité (PCA)
  •  Urbanisme des systèmes d’information : facteur de complexification des architectures SI avec la création de nouvelles bases de données, voire de nouvelles briques applicatives hétérogènes
  • Impact des volumes sur les traitements statistiques et décisionnels
  • Problème de stockage et d’accès à ces données : risques liés au recours aux services de Cloud Computing
  • Cybercriminalité : vulnérabilité liée aux nouveaux points d’accès

Confère Slideshare Stephane Droxler, Associate at UDITIS S.A :   http://fr.slideshare.net/StephaneDroxler/big-data-contrle-des-donnes

2. Ingénieur Data ou Scientifique Data ?

Il ne s’agit pas que d’un principe terminologique. La question se pose entre la nécessité de faire appel à un ingénieur data ou un scientifique data. Ou mieux encore entre un scientifique data et un statisticien data ?

Voici l’une des principales différences:

  • ETL (Extract / Load / Transform) est destiné aux ingénieurs de données, ou parfois des architectes de données ou DBA
  • DAD (Discover / Access / Distiller) est pour les scientifiques de données.

Parfois, les ingénieurs de données sont DAD, parfois les scientifiques de données sont ETL, mais c’est assez rare, et quand ils le sont, c’est purement interne (l’ingénieur de données faisant un peu d’analyse statistique pour optimiser certains processus de base de données, le scientifique de données faisant un peu de gestion de base de données pour gérer une petite base locale de données privée d’info résumée (non utilisé en mode habituelle de production, mais il y a des exceptions).

Laissez-moi vous expliquer ce que signifie DAD http://www.datasciencecentral.com/profiles/blogs/difference-between-data-engineers-and-data-scientists

III – De l’intelligence des risques et de l’intelligence collective du contrôle interne

Nous en trouvons une première expression dans les secteurs financier (Bâle II & III) et de l’assurance.(Solvency/Solvabilité 2). Pour ce dernier, l’Autorité de Contrôle Prudentiel et de Résolution (ACPR) insiste sur les points ci-après :

A – La nécessité et l’attention à porter à la qualité des données :

  • exhaustivité.
  • pertinence.
  • exactitude.
  • gouvernance des données.

Les organismes doivent mettre en place un dispositif de gouvernance des données : art. 48 sur la fonction actuarielle et art. 19, 20, 244 et 265 du règlement 2015/35 qui précisent notamment les critères de qualité de données, la gouvernance, le répertoire des données…

B – Les objectifs a inclure obligatoirement dans la gouvernance des données :

  1. Responsabilisation et transversalité : intégration dans la gouvernance globale de l’organisme en associant plusieurs directions (DSI, Métiers).
  2. Harmonisation et cohérence de l’utilisation des données dans l’entreprise.
  3. Agilité : permettre une prise de décision rapide.

C – Les dispositifs de contrôle interne et de conformité contribuent également au contrôle de la qualité des données (combinaison des art. 41, 46 de la directive et art. 256 du règlement 2015/35).

Je vous invite à consulter la présentation d’ATOS Consulting and Technologies Services au sein de l’EIFR (European Institute of Financial Regulation) 15/09/2015  » Qualité des données dans le cadre réglementaire : Les enjeux de conformité et de performance. Développer et promouvoir une « smart regulation » à travers l’échange entre régulateurs et régulés » http://www.eifr.eu/files/file5059961.pdf

1 ère partie :  La Qualité des données dans le monde bancaire et dans le monde des assurances et mutuelles

> Les exigences prudentielles et les cibles associées

> Le déploiement de chantiers « qualité des données »

> Mise en œuvre pratique / Retours d’expériences

2 ème Partie :  L’apport des nouvelles tendances technologiques pour un calcul, un traitement et une diffusion de données de qualité

> La vision du « Big Data » et l’approche en matière de « Data Quality »

> Le Big Data appliqué aux problématiques réglementaires

D – Qu’en est-il dans les autres secteurs d’activité ?

Confère Slideshare Francois Cazals, Affiliate Professor chez HEC Paris – Des Big Data au Big Business http://www.slideshare.net/cazals/confrence-big-data-hec-paris-2015

Visionnez la conférence Big Data HEC Paris 2015  et, plus particulièrement, les diapositives 36 à 39 à propos des algorithmes. C’est une invention humaine. Les calculs informatiques, bien qu’automatiques, n’en restent pas moins artificiels et soumis à l’intervention humaine. Nous sommes donc dans des cas de risques opérationnels.

La notion de risque opérationnel est plus présente dans le secteur financier depuis l’apparition des réglementations prudentielles (Bâle II & III, Solvency 2), mais elle est moins prise en compte, même si elle est connue, au sein des autres secteurs.

Il en ressort qu’il est de plus en plus impératif que toute entreprise est une approche cartographiée des risques opérationnels et, plus particulièrement, les entités qui doivent intégrer leurs processus de production dans un contexte de plus en plus réglementé (environnement, sécurité alimentaire,…).

L’expansion de la numérisation des processus et des services permet aux entreprises de collecter et de générer de plus en plus de données. Outre le développement de leurs activités, cette masse d’information peut être exploitée pour améliorer la gestion de leurs risques (financier, de marché, opérationnel, de conformité, etc.). Le besoin est d’autant plus important que différents cadres réglementaires (BCBS239, FCPA, Bribery Act…) se durcissent et imposent aux entreprises de piloter plus finement la gestion de leurs risques.

En matière de gestion des risques, les entreprises se limitent encore à des méthodes d’analyse de données basées sur des échantillons. Le traitement des méga-données leur permettra de mieux apprécier ces risques.(http://bfmbusiness.bfmtv.com/entreprise/gerer-les-risques-de-facon-plus-fine-grace-au-big-data-897706.html)

Les préoccupations en matière de risques et de cyber-sécurité opérationnelle convergent comme étant un sujet pour les gestionnaires de risques, qui font également face à un agenda constamment chamboulé en raison de la pression due à la nécessité de la transformation numérique des banques et des services financiers. (Cyber-security and operational risk converge : http://flip.it/u1Ljp).

La modélisation des risques est la continuité de la modélisation des processus.

Dans le cadre de la gestion préventive des risques, l’utilisation des Smart Data est envisageable, par exemple, dans le cadre de la lutte contre la fraude, de la modélisation de scénarios de PCA….

Le contrôle permanent est chapeauté par le contrôle périodique (audit interne).

« Toc, toc, toc, c’est pour l’audit de vos algorithmes ».Pour l’instant pure fiction, cette scène de la vie d’une entreprise pourrait un jour devenir réalité (confère rubrique « A consulter également » en fin d’article).

A ce stade du raisonnement, nous pouvons nous interroger sur la capacité de l’audit interne à disposer des compétences mathématiques poussées et, surtout, d’un savoir équivalent au Data Scientiste.

L’institut G9+, un think-tank fédérant des professionnels du numérique issus de grandes écoles, proposera dans un livre blanc, à paraître, de faire auditer par des experts indépendants les algorithmes utilisés par les entreprises pour valoriser le Big Data.

IV – Et maintenant ….

On le sait maintenant, le champ du big data – ces méga-données récoltées notamment à partir de tous les types de navigation sur Internet – recrute. Comment se spécialiser dans ce secteur en formation continue ? L’IUT Paris-Descartes a inauguré en 2015 un diplôme universitaire (DU) sur six mois, à raison de deux jours de cours par semaine.  http://mobile.lemonde.fr/campus/article/2016/03/30/un-du-pour-maitriser-les-outils-du-big-data_4892316_4401467.html?xtref=acc_dir).

L’ESAIP et l’ESSCA lancent un Master of Science « Digital & Big Data for Value » :

L’ESAIP et l’ESSCA, s’associent pour développer un Master of Science en Digital & Big Data For Value. Ce programme vise à former des cadres de haut niveau spécialisés dans la compréhension approfondie des enjeux business et des techniques relatives à l’analyse de données de sources multiples, au service des métiers de l’entreprise (gestion de la relation client, communication, gestion des risques, marketing). http://m.studyrama.com/formations/specialites/informatique-numerique/actualites/l-esaip-et-l-essca-lancent-un-master-of-science-102327

Le risk-manager étudie l’intérêt que peut lui apporter l’utilisation du « Big Data », en particulier dans le monde de l’assurance (est-ce une autre forme d’approche prévisionnelle ou est-ce seulement complémentaire à l’utilisation des probabilités ?).

En avri 2016, Financier Worldwide Magazine (FWM) moderates a discussion on the use of Big Data and data analytics as part of a risk management strategy between Paul Oughton at Advent IM, Michel de Goede at Alliander, Daniel Miessler at IoActive Inc, David Navetta at Norton Rose Fulbright US LLP, and Raj Kushwaha at Warburg Pincus LLC.Use of Big Data and data analytics as part of a risk management strategy (http://www.financierworldwide.com/forum-use-of-big-data-and-data-analytics-as-part-of-a-risk-management-strategy#.VxTue9SLQ-W).

 Jamie Dimon, PDG de JPMorgan Chase est « extrêmement préoccupé » par la quantité de données financières sensibles et précieuses des clients que d’autres entreprises pourraient obtenir avec votre permission.

La sécurité est une préoccupation claire, mais il en est de même à propos des bénéfices non-réalisés. Les données financières sont une mine d’or potentielle pour les grandes banques. JPMorgan utilise les grandes données pour trouver des clients de grande valeur, mais elles peuvent également être utilisées pour proposer des offres de souscription précises en temps réel et à la détection de la fraude. Donner à des tiers un accès illimité à ces précieuses données, en particulier à des concurrents non bancaires, est de l’auto-sabotage. http://flip.it/ZpAbO Your financial data is floating around everywhere and Jamie Dimon wants that to stop

TDM, trois initiales qui désignent le texte data-mining, une technique d’analyse des textes pour y trouver des corrélations inattendues. C’est aussi le nom d’un de ses débats comme le numérique en suscite. D’un côté, de nouvelles possibilités de recherche scientifique qui requièrent l’accès aux publications scientifiques. De l’autre, des éditeurs qui craignent une exemption au droit d’auteur qui menace leur équilibre économique. Le président du Conseil national du numérique prend parti, en faveur des chercheurs, en promouvant un droit au TDM sous conditions.

Pour simplifier, ces super logiciels sont capables de mettre en évidence dans un corpus théorique des liens implicites qui jusque-là avaient échappé aux spécialistes. Autant dire qu’il s’agît de l’application des techniques de big data à des corpus scientifiques. Pour bien fonctionner, les programmes spécialisés ont besoin d’études scientifiques, qu’ils vont mouliner jusqu’à obtention de résultats. Exclusif : l’avis du président du CNNum sur le ‘text data mining’ qui oppose chercheurs et éditeurs http://nzzl.us/APDQo9y

Pour le président du CNNum, le big data déshumanisé représente un grave danger.

L’impact du big data sur la société est-il vraiment bénéfique ? Oui, répond Mounir Mahjoubi, le président du Conseil national du numérique. Mais il peut aussi donner lieu à des dérives, notamment en matière d’automatisation, et c’est à nous de veiller à ce qu’elles n’aient pas lieu.http://www.usine-digitale.fr/editorial/pour-le-president-du-cnnum-le-big-data-deshumanise-represente-un-grave-danger.N383018

  1. LE DANGER D’UNE AUTOMATISATION À OUTRANCE
  2. TROP PERSONNALISER LES DONNÉES, UN DANGER ?

 

En France, il convient aussi de prendre en compte les impératifs édictés par la CNIL  (Conférence plénière Documentation – 26 mars 2014) : http://www.cil.cnrs.fr/CIL/spip.php?article2835 – Big data, métadonnées, données personnelles : réunir toutes les conditions indispensables pour pouvoir exploiter pleinement ses données, générer de la valeur, et respecter le droit des individus.

Nous devons également nous interroger à propos de la responsabilité de la transformation digitale de l’entreprise. Ceci est du ressort de sa gouvernance.

Parmi les membres de la direction générale, deux émergent naturellement comme potentiels sponsors de la transformation digitale. Mais qui du directeur marketing ou du DSI sera le prophète de la digitalisation ?

  1. La première révolution a conduit l’entreprise à créer son site Internet, réalisant, par là-même qu’une DSI n’avait ni les compétences, ni la réactivité d’une agence web.
  2. De technologique, le web est devenu soudainement un royaume de littéraires, dont le contenu serait roi. Les métiers ont définitivement pris leur indépendance à l’égard des SI.
  3. La troisième révolution numérique, celle des datas, apporte aux DSI les arguments pour prendre leur revanche.

Le DSI, leader logique mais pas stratégique de la transformation digitale?

… Qui du directeur marketing ou du DSI gagnera le match de la transformation digitale ? http://nzzl.us/dJzuvMg

En termes de gestion des risques et de contrôle interne, un des rôles essentiels est de s’assurer de la fiabilité et de l' »agilité » de tous les processus, de la qualification et de la protection de l’information, d’une réduction des risques de manière appropriée, ne tuant pas ou ne freinant pas l’innovation et, de ce fait, de pouvoir apporter l’assurance d’un contenu de données  réaliste, fiable et de qualité.

Cette assurance étant confirmée par les missions, portant sur les thèmes liés à la qualité des données et des datas, menées par l’audit interne.

Ce qui impose également l’exécution d’une ingénierie de formation en vue de fournir à tous employés, aux managements de proximité et supérieur, comme à la gouvernance, les sensibilisations et les formations les plus adéquates et les plus adaptées au cœur de  métier et aux stratégies actuelle et future.

Nous sommes en présence d’un torrent impétueux et non d’un long fleuve tranquille!

 

A consulter également :

Data Science Association : http://bit.ly/1ow9EVF

LeMagIT http://www.lemagit.fr/conseil/Big-Data-liste-de-controles-pour-la-mise-en-oeuvre-de-projets-analytiques

Cigref (octobre 2014) : http://www.cigref.fr/wp/wp-content/uploads/2014/10/CIGREF-Enjeux-business-donnees-2014.pdf

Les Echos Business (3/12/2014) : http://business.lesechos.fr/directions-numeriques/digital/big-data/0203983432673-bientot-des-audits-big-data-105910.php

Affiches Parisiennes (10/08/2015) :  http://www.affiches-parisiennes.com/comment-proteger-le-nouvel-or-noir-de-l-entreprise-tout-en-restant-transparent-5510.html

BFM Business :  http://bfmbusiness.bfmtv.com/01-business-forum/40percent-des-heures-travaillees-sont-perdues-a-rechercher-de-l-information-une-aberration-947257.html : 40% des heures travaillées sont perdues à rechercher de l’information, une aberration