Bienvenue sur mon blog

Vedette

Étiquettes

, , , , , , ,

Résilience : ce terme, appartenant au vocabulaire de la physique, s’emploie initialement pour exprimer la résistance aux chocs des matériaux.
Il fut ensuite utilisé en psychologie afin de préciser l’aptitude d’un être à affronter un stress intense et à s’y adapter.
Citons quelques synonymes de ce terme se rapprochant de notre propos : cohésion, homogénéité, robustesse, solidité, sûreté.
La résilience, nouveau mot à la mode dans les contextes actuels de crise et dans les années à venir, résumant l’agilité nécessaire à tout type d’organisation afin de « survivre » maintenant et dans le futur.
Afin d’éviter toute erreur d’interprétation, ceci n’exprime pas l’idée de revenir à une situation identique (comme résultante d’un Plan de Continuation de l’Activité), mais d’apporter une « assurance » évolutive et permanente des éléments composant, au sens large, tout système de contrôle interne, en corrélation avec la gestion des risques, et l’adaptation des objectifs stratégiques d’une organisation.

Quelle est la nécessité d’élaborer un blog à propos du contrôle interne, qu’une forte majorité de non-praticien considère comme une simple conformité réglementaire ou, dans de petites entités, comme inutile et coûteux?
Si vous consultez Internet à ce sujet, vous constaterez l’existence de peu de blogs traitant de ce sujet. Quelques uns ont pour auteurs des cabinets d’expertise comptable, d’autres émanent de professionnels (secteurs public et marchand).
Ces derniers sont tombés en désuétude par abandon par leurs auteurs.
C’est pour cela que l’expérience est tentée.

Les principaux objectifs de ce blog sont :
– de démystifier les concepts, de démontrer les processus de mise en oeuvre opérationnelle et les « passerelles » menant à la finalité d’un tel système : l’aide au décisionnel.
– d’apporter une vision dynamique et « agile » de l’implantation et de l’évolution
permanente de tout système de contrôle interne.
– de mettre en avant les similitudes, mais aussi les spécificités, entre secteur
« marchand » (privé) et secteur public.
– de mettre en exergue et de montrer les similitudes, mais également les complémentarités, entre le Contrôle permanent et la Qualité.
– d’entamer une réflexion, sous forme de recherche et développement (R&D), des évolutions de la fonction « Contrôle Interne » en tant que telle, mais aussi par rapport aux fonctions de Management des risques, de Conformité (incluant un nouveau phénomène : la protection des données), l’audit interne et la gouvernance.

Cette réflexion est déjà entamée, à l’aide d’une application de curation de contenu, depuis novembre 2011, consultable à l’aide de l’url : http://www.scoop.it/t/recherche-et-developpementcontrole-interne-r-d.
Il serait intéressant qu’un échange interactif de points de vue s’effectue ultérieurement (en premier sur ce blog et en second par l’utilisation de l’url déjà citée).

Enfin, un concept innovant, qui fera l’objet de posts ultérieurs, pourrait permettre au contrôle interne de participer plus amplement à la création de valeur et à l’amélioration de la performance : risques maîtrisés = opportunités.
Le contrôle interne est l’un des moyens de maîtrise des risques. Il offre également la possibilité d’identifier des gisements de valeur au travers de l’utilisation de constats objectifs ressortants du fonctionnement de l’entreprise.
Couplés à une réelle maîtrise de l’information, ceci améliorera de manière significative la prise de décision.

En espérant que les thèmes et les sujets, qui seront traités, participent au Knowledge-Management (KM) que vous recherchez, je vous souhaite une bonne lecture.

Big Data : nouvelle méthode marketing, nouvel or noir ou nouvelle approche des marchés et des projets ?

Étiquettes

, , , , , , , , , , , , , , , , ,

clouds-978965_1280

I – Maîtrise de l’information et Contrôle Interne

  1. Lorsque l’on parle du contrôle interne, il est souvent question de bonne gouvernance et de respect de la conformité de l’entreprise.
  2. Lorsque l’on parle du flux Information d’une entreprise, il est question d’information sensible, engageante, structurante, personnelle, patrimoniale.

Comment les deux peuvent se rejoindre de façon complète, surtout en intégrant la vue globale de ce flux Information ? Qu’en pensez-vous, cela est il du ressort du contrôle interne que de s’assurer que ces familles d’informations soient bien maîtrisées ?

Dans l’état actuel de « l’art », il y a bien une dissociation entre les notions et les concepts d’information et de contrôle interne.

L’ambiguïté est qu’il est souvent évoqué la prise en compte de l’information lors de la mise en place d’un système de contrôle interne, mais il s’agit d’éléments participatifs à la gestion des processus et des risques, …, d’informations comptables et de données informatives contenues dans les différents reporting réalisés pour le management, les différents comités et la gouvernance.

Nous sommes plus dans une optique de gestion organisationnelle que dans une application complète de maîtrise de la stratégie définie par l’entité.

Si nous imaginons un lien entre ces deux notions/concepts, il ne peut être direct et, ce, même si nous parlons de protection. Dans les grandes entreprises, cette dernière fonction est souvent assurée par la fonction élargie de la sécurité.

C’est en premier le risk-manager ou le responsable des processus de gestion des risques qui doit disposer de toutes les informations internes et externes afin de les identifier, mais surtout de les évaluer, de déterminer des mesures de contrôle et de simuler différents scénarios d’incidents à analyser.

La maîtrise de l’information est le préalable incontournable de la gestion des risques.

Ce dernier commentaire s’applique de la même manière à l’intelligence économique (IE), bien que la vision de l’entreprise en soit différente. Il a d’ailleurs été constaté une redondance dans les travaux pratiqués par les fonctions dédiées à l’intelligence économique et au risk-management en termes de gestion de l’information.

Une autre confusion peut provenir du fait que certains risk-managers se voient confier la responsabilité du contrôle interne, des assurances et, parfois, de l’audit interne. Ceci est un autre débat en termes d’indépendance et de délégation.

Comme il a été dit plus haut, le contrôle interne intervient pour partie dans la réduction d’exposition aux risques retenus.

Toute l’information n’est pas contenue dans le système d’information.

Par exemple, certaines informations glanées lors de négociations par les acheteurs, vis-à-vis des fournisseurs, et par les commerciaux, en relation avec les revendeurs, ne sont pas forcément répercutées. Même si un reporting existe, qui peut être sûr que les informations y sont toutes retranscrites et en termes adéquats ?

Une donnée peut ne pas être jugée essentielle par ces populations, alors qu’elle le sera par un risk-manager ou un responsable de veille (IE).

Nous sommes entrés dans l’ère de l’instabilité et de bouleversements de structures organisationnelles, ce qui nous amène à une gestion holistique et intégrée des risques, voire même un concept innovant : l’intelligence des risques (management des risques selon les méthodes de l’intelligence économique).

En corollaire, le contrôle interne se doit d’évoluer dans le même sens. En se dirigeant vers un concept novateur : l’intelligence collective du contrôle interne.

« L’intelligence collective désigne les capacités cognitives d’une communauté résultant des interactions multiples entre ses membres. La connaissance des membres de la communauté est limitée à une perception partielle de l’environnement. Ils n’ont pas conscience de la totalité des éléments qui influence le groupe. Des membres aux comportements très simples peuvent ainsi accomplir des tâches apparemment très complexes grâce un mécanisme fondamental appelé synergie ou stigmergie¹. » (dixit Wikipédia).

Enfin, une nouvelle démarche est apparue : la prise en compte par l’audit interne des risques associés à l’atteinte des objectifs stratégiques. Ce qui inclut la gestion des risques stratégiques par le risk-manager et, de ce fait, une éventuelle prise en compte par le contrôle interne.

En conclusion, les évolutions évoquées doivent amener le contrôle interne à assurer la maîtrise des familles d’informations citées. Ceci sous réserve d’une organisation transversale et, pour les entreprises appliquant le référentiel COSO 2, de l’actualisation vers le COSO 3.

  ¹ Stigmergie : C’est une méthode de communication indirecte dans un environnement émergent auto-organisé, où les individus communiquent entre eux en modifiant leur environnement. Application de principes issus de la stigmergie à la collaboration dans des grands groupes et comme une méthode de gouvernance alternative à mi-chemin entre les organisations fonctionnant sur un modèle de compétition et celles fonctionnant sur un modèle de coopération.

II – A l’ère du « Big Data » ou de la folie des grandeurs

Dans une économie où on assiste à l’essor du Big Data, la gestion des documents devient de plus en plus complexe. Elle est pourtant un enjeu essentiel pour développer des projets.  (selon Damien Andrieu, Responsable marketing Lascom sur BFM Business du 29/01/16 -(confère rubrique « Consulter » en fin d’article) ).

1. Big Data :

9 projets Big Data qui sont censés marquer 2016 :

  • Maintenance prédictive des rames de la SNCF.
  • Suivi en temps réel des épidémies de grippe.
  • Détection des cas de fraude sur un site d’e-commerce.
  • Anticipation des métiers de demain dans le numérique.
  •  …

http://www.journaldunet.com/solutions/dsi/1177412-9-projets-big-data-a-suivre-en-2016/

Big Data, terme et notion très à la mode depuis quelques temps et, plus particulièrement, dans un esprit « marketing » au sens, dans un premier temps, de connaissance du client et, en second lieu, de ses actions et de ses interactions.

Phénomène nouveau correspondant en français à « méga-données »moins attrayant sur un plan marketing, se compose d’un ensembles de données qui sont tellement volumineuses qu’il est difficile de les traiter à l’aide des outils classiques de gestion de base de données ou de gestion de l’information.

Méga : en tant que préfixe : très grand. « Un million ».

Ensemble : Collection de nombres, d’éléments partageant des caractéristiques ou des propriétés communes (composé de x sous éléments ou Smart data + Smart data + Smart Data + … = Big Data).

Données : Élément connu qui sert de base à un raisonnement, à une recherche. • Résultat d’observations ou d’expériences. • Information représentée de façon à pouvoir être traitée par ordinateur.

Le « Big Data » fait suite à la  » Business Intelligence » (informatique décisionnelle- aide à la décision), à la « datawarehouse » (entrepôt de données ou base de données décisionnelles) et à la « datamining » (exploration de données).

Le « Big Data » a une histoire récente, et pour partie cachée, en tant qu’outil des technologies de l’information et comme espace virtuel prenant une importance volumique croissante dans le cyberespace.

L’expression « Big Data » serait apparue en octobre 1997 selon les archives de la bibliothèque numérique de l’Association for Computing Machinery (ACM), dans des articles scientifiques sur les défis technologiques à relever afin de visualiser des « grands ensembles de données ».

Mais dans son principe, sa création est bien plus antérieure que cette date.

1942 – 1960 :

How Robert McNamara And The Whiz Kids Invented Big Data : History mostly knows him as the disgraced architect of the Vietnam War, but McNamara first made his mark in the corporate world with his mastery of numbers before it was as fashionable as it is today http://www.worldcrunch.com/business-finance/how-robert-mcnamara-and-the-whiz-kids-invented-big-data

… McNamara was drawn, instead, to numbers. He was able to maximize company profits because he knew markets intimately. He could build an efficient organization based on data alone.

… McNamara dealt with thousands of numbers to maximize air operations: flight frequency, fuel consumption, crew turnover, loss ratio, number of bombs jettisoned, percentage of target destruction.

… They set up a cash-flow management system and a dashboard that could analyze all costs involved in making a car. This allowed them to plan the most cost-effective manufacture of a car.

Nous entrons dans une nouvelle dimension en ce qui se rapporte à la capture, le stockage, la recherche, le partage, l’analyse et la visualisation des données. Sur ce sujet, nous sommes encore au temps de « l’apprenti sorcier » ou de l’apprenant. A l’heure d’aujourd’hui, qui peut avoir la certitude de récupérer correctement toutes les données (de disposer d’outils en adéquation avec sa recherche), de ne pas stocker des données redondantes, de ne pas créer des »usines à gaz », de ne pas divulguer des informations à des personnes non-habilitées au sein d’une même entité et, surtout, de ne pas pratiquer une analyse erronée ?

Si vous êtes dans l’affirmative à ces questionnements, ne prenons-nous pas le sujet à l’envers ? Ou plus familièrement, ne mettons nous pas la « charrue avant les bœufs » ? Ne devons-nous pas nous interroger en premier lieu sur l’objectif de notre exploration de l’information : connaissances et évaluations, améliorant de l’analyse décisionnelle, analyses tendancielles et prospectives (climatiques, environnementales…) et de gestion des risques (commerciaux, assurantiels, industriels, naturels), pour la médecine (compréhension du fonctionnement du cerveau…), la météorologie et l’adaptation aux changements climatiques ou encore la sécurité et la lutte contre le blanchiment d’argent et le financement du terrorisme?

Confère Slideshare Jean-Michel Franco , Director, Product Marketing for Data Governance products at Talend  :   http://www.slideshare.net/jmfranco/niort-mars-14

Selon Michael Walker dans Data Science Central 19 septembre 2014 (http://nzzl.us/ncif4jC), un spécialiste de la science des données à la connaissance de la bonne combinaison et de la variété de  » Smart Data « ¹ qui est généralement plus important que le « Big Data » et il est plus susceptible d’y ajouter une valeur significative. L’ un des rôles majeurs d’un spécialiste de la science des données est de sélectionner la variété appropriée de petits ensembles de données pour un objectif spécifique, a contrario d’une collecte et d’un stockage d’ énormes volumes de données.

Il y a un certain nombre de raisons pour prioriser la sélection et la collecte des données appropriées et différentes variétés de « Smart Data » par rapport au « Big Data ». Une des principales raisons est la malédiction des grandes données. Autrement dit, vous trouverez plus de relations « statistiquement significatives » dans de plus grands ensembles de données. «Statistiquement significatif» signifie une évaluation statistique permettant de déterminer si les observations reflètent une véritable tendance plutôt que simplement le hasard ou si elles peuvent ne pas être significatives. Plus le jeu de données est important, plus les relations plus «statistiquement significatives» n’auront pas de sens, ce qui créera une plus grande possibilité de confondre le « bruit » pour le « signal« .

Ainsi, « Big Data » produit plus de corrélations et de modèles entre les données – mais produit également beaucoup plus de bruit que de signal. Le nombre de faux-positifs augmentera de manière significative. En d’autres termes, les corrélations sans lien de causalité conduisent à une illusion de la réalité.

Je suggère la valorisation de la stricte « Smart Data » sur la « Big Data » et de se concentrer soigneusement sur la sélection  d’une variété de données d’ensembles pertinents se rapportant à un objectif spécifique afin de maximiser la probabilité d’obtenir du sens et de la valeur propres à ces données.

¹ Smart Data : Méthode ou méthodologie permettant de rendre les données intelligentes et les contenus qualitatifs.

Enfin, le Big Data entraîne l’apparition de nouveaux risques.

  • Éthiques.
  • Inégalités de traitement des clients et forte discrimination.
  • Gouvernance et qualité des données (normes, piste d’audit…)
  • Confidentialité (notamment avec les solutions de type Cloud), risques juridique et conformité.

Les points de vigilance pour l’entreprise :

  • Confidentialité : respect des règles de protection de la clientèle (Loi informatique et libertés, CNIL…) : la collecte d’informations personnelles nécessite l’accord de la personne ou de la structure intéressée
  • Structuration des données et continuité d’activité (PCA/PRA):
  1. Forte augmentation du volume d’informations, mais baisse de la qualité des données
  2. Tri nécessaire et identification des données sensibles, impliquant des changements organisationnels :
  • Vigilance particulière sur la qualité des données utilisées pour les modèles internes et les plans de continuité de l’activité (PCA)
  •  Urbanisme des systèmes d’information : facteur de complexification des architectures SI avec la création de nouvelles bases de données, voire de nouvelles briques applicatives hétérogènes
  • Impact des volumes sur les traitements statistiques et décisionnels
  • Problème de stockage et d’accès à ces données : risques liés au recours aux services de Cloud Computing
  • Cybercriminalité : vulnérabilité liée aux nouveaux points d’accès

Confère Slideshare Stephane Droxler, Associate at UDITIS S.A :   http://fr.slideshare.net/StephaneDroxler/big-data-contrle-des-donnes

2. Ingénieur Data ou Scientifique Data ?

Il ne s’agit pas que d’un principe terminologique. La question se pose entre la nécessité de faire appel à un ingénieur data ou un scientifique data. Ou mieux encore entre un scientifique data et un statisticien data ?

Voici l’une des principales différences:

  • ETL (Extract / Load / Transform) est destiné aux ingénieurs de données, ou parfois des architectes de données ou DBA
  • DAD (Discover / Access / Distiller) est pour les scientifiques de données.

Parfois, les ingénieurs de données sont DAD, parfois les scientifiques de données sont ETL, mais c’est assez rare, et quand ils le sont, c’est purement interne (l’ingénieur de données faisant un peu d’analyse statistique pour optimiser certains processus de base de données, le scientifique de données faisant un peu de gestion de base de données pour gérer une petite base locale de données privée d’info résumée (non utilisé en mode habituelle de production, mais il y a des exceptions).

Laissez-moi vous expliquer ce que signifie DAD http://www.datasciencecentral.com/profiles/blogs/difference-between-data-engineers-and-data-scientists

III – De l’intelligence des risques et de l’intelligence collective du contrôle interne

Nous en trouvons une première expression dans les secteurs financier (Bâle II & III) et de l’assurance.(Solvency/Solvabilité 2). Pour ce dernier, l’Autorité de Contrôle Prudentiel et de Résolution (ACPR) insiste sur les points ci-après :

A – La nécessité et l’attention à porter à la qualité des données :

  • exhaustivité.
  • pertinence.
  • exactitude.
  • gouvernance des données.

Les organismes doivent mettre en place un dispositif de gouvernance des données : art. 48 sur la fonction actuarielle et art. 19, 20, 244 et 265 du règlement 2015/35 qui précisent notamment les critères de qualité de données, la gouvernance, le répertoire des données…

B – Les objectifs a inclure obligatoirement dans la gouvernance des données :

  1. Responsabilisation et transversalité : intégration dans la gouvernance globale de l’organisme en associant plusieurs directions (DSI, Métiers).
  2. Harmonisation et cohérence de l’utilisation des données dans l’entreprise.
  3. Agilité : permettre une prise de décision rapide.

C – Les dispositifs de contrôle interne et de conformité contribuent également au contrôle de la qualité des données (combinaison des art. 41, 46 de la directive et art. 256 du règlement 2015/35).

Je vous invite à consulter la présentation d’ATOS Consulting and Technologies Services au sein de l’EIFR (European Institute of Financial Regulation) 15/09/2015  » Qualité des données dans le cadre réglementaire : Les enjeux de conformité et de performance. Développer et promouvoir une « smart regulation » à travers l’échange entre régulateurs et régulés » http://www.eifr.eu/files/file5059961.pdf

1 ère partie :  La Qualité des données dans le monde bancaire et dans le monde des assurances et mutuelles

> Les exigences prudentielles et les cibles associées

> Le déploiement de chantiers « qualité des données »

> Mise en œuvre pratique / Retours d’expériences

2 ème Partie :  L’apport des nouvelles tendances technologiques pour un calcul, un traitement et une diffusion de données de qualité

> La vision du « Big Data » et l’approche en matière de « Data Quality »

> Le Big Data appliqué aux problématiques réglementaires

D – Qu’en est-il dans les autres secteurs d’activité ?

Confère Slideshare Francois Cazals, Affiliate Professor chez HEC Paris – Des Big Data au Big Business http://www.slideshare.net/cazals/confrence-big-data-hec-paris-2015

Visionnez la conférence Big Data HEC Paris 2015  et, plus particulièrement, les diapositives 36 à 39 à propos des algorithmes. C’est une invention humaine. Les calculs informatiques, bien qu’automatiques, n’en restent pas moins artificiels et soumis à l’intervention humaine. Nous sommes donc dans des cas de risques opérationnels.

La notion de risque opérationnel est plus présente dans le secteur financier depuis l’apparition des réglementations prudentielles (Bâle II & III, Solvency 2), mais elle est moins prise en compte, même si elle est connue, au sein des autres secteurs.

Il en ressort qu’il est de plus en plus impératif que toute entreprise est une approche cartographiée des risques opérationnels et, plus particulièrement, les entités qui doivent intégrer leurs processus de production dans un contexte de plus en plus réglementé (environnement, sécurité alimentaire,…).

L’expansion de la numérisation des processus et des services permet aux entreprises de collecter et de générer de plus en plus de données. Outre le développement de leurs activités, cette masse d’information peut être exploitée pour améliorer la gestion de leurs risques (financier, de marché, opérationnel, de conformité, etc.). Le besoin est d’autant plus important que différents cadres réglementaires (BCBS239, FCPA, Bribery Act…) se durcissent et imposent aux entreprises de piloter plus finement la gestion de leurs risques.

En matière de gestion des risques, les entreprises se limitent encore à des méthodes d’analyse de données basées sur des échantillons. Le traitement des méga-données leur permettra de mieux apprécier ces risques.(http://bfmbusiness.bfmtv.com/entreprise/gerer-les-risques-de-facon-plus-fine-grace-au-big-data-897706.html)

Les préoccupations en matière de risques et de cyber-sécurité opérationnelle convergent comme étant un sujet pour les gestionnaires de risques, qui font également face à un agenda constamment chamboulé en raison de la pression due à la nécessité de la transformation numérique des banques et des services financiers. (Cyber-security and operational risk converge : http://flip.it/u1Ljp).

La modélisation des risques est la continuité de la modélisation des processus.

Dans le cadre de la gestion préventive des risques, l’utilisation des Smart Data est envisageable, par exemple, dans le cadre de la lutte contre la fraude, de la modélisation de scénarios de PCA….

Le contrôle permanent est chapeauté par le contrôle périodique (audit interne).

« Toc, toc, toc, c’est pour l’audit de vos algorithmes ».Pour l’instant pure fiction, cette scène de la vie d’une entreprise pourrait un jour devenir réalité (confère rubrique « A consulter également » en fin d’article).

A ce stade du raisonnement, nous pouvons nous interroger sur la capacité de l’audit interne à disposer des compétences mathématiques poussées et, surtout, d’un savoir équivalent au Data Scientiste.

L’institut G9+, un think-tank fédérant des professionnels du numérique issus de grandes écoles, proposera dans un livre blanc, à paraître, de faire auditer par des experts indépendants les algorithmes utilisés par les entreprises pour valoriser le Big Data.

IV – Et maintenant ….

On le sait maintenant, le champ du big data – ces méga-données récoltées notamment à partir de tous les types de navigation sur Internet – recrute. Comment se spécialiser dans ce secteur en formation continue ? L’IUT Paris-Descartes a inauguré en 2015 un diplôme universitaire (DU) sur six mois, à raison de deux jours de cours par semaine.  http://mobile.lemonde.fr/campus/article/2016/03/30/un-du-pour-maitriser-les-outils-du-big-data_4892316_4401467.html?xtref=acc_dir).

L’ESAIP et l’ESSCA lancent un Master of Science « Digital & Big Data for Value » :

L’ESAIP et l’ESSCA, s’associent pour développer un Master of Science en Digital & Big Data For Value. Ce programme vise à former des cadres de haut niveau spécialisés dans la compréhension approfondie des enjeux business et des techniques relatives à l’analyse de données de sources multiples, au service des métiers de l’entreprise (gestion de la relation client, communication, gestion des risques, marketing). http://m.studyrama.com/formations/specialites/informatique-numerique/actualites/l-esaip-et-l-essca-lancent-un-master-of-science-102327

Le risk-manager étudie l’intérêt que peut lui apporter l’utilisation du « Big Data », en particulier dans le monde de l’assurance (est-ce une autre forme d’approche prévisionnelle ou est-ce seulement complémentaire à l’utilisation des probabilités ?).

En avri 2016, Financier Worldwide Magazine (FWM) moderates a discussion on the use of Big Data and data analytics as part of a risk management strategy between Paul Oughton at Advent IM, Michel de Goede at Alliander, Daniel Miessler at IoActive Inc, David Navetta at Norton Rose Fulbright US LLP, and Raj Kushwaha at Warburg Pincus LLC.Use of Big Data and data analytics as part of a risk management strategy (http://www.financierworldwide.com/forum-use-of-big-data-and-data-analytics-as-part-of-a-risk-management-strategy#.VxTue9SLQ-W).

 Jamie Dimon, PDG de JPMorgan Chase est « extrêmement préoccupé » par la quantité de données financières sensibles et précieuses des clients que d’autres entreprises pourraient obtenir avec votre permission.

La sécurité est une préoccupation claire, mais il en est de même à propos des bénéfices non-réalisés. Les données financières sont une mine d’or potentielle pour les grandes banques. JPMorgan utilise les grandes données pour trouver des clients de grande valeur, mais elles peuvent également être utilisées pour proposer des offres de souscription précises en temps réel et à la détection de la fraude. Donner à des tiers un accès illimité à ces précieuses données, en particulier à des concurrents non bancaires, est de l’auto-sabotage. http://flip.it/ZpAbO Your financial data is floating around everywhere and Jamie Dimon wants that to stop

TDM, trois initiales qui désignent le texte data-mining, une technique d’analyse des textes pour y trouver des corrélations inattendues. C’est aussi le nom d’un de ses débats comme le numérique en suscite. D’un côté, de nouvelles possibilités de recherche scientifique qui requièrent l’accès aux publications scientifiques. De l’autre, des éditeurs qui craignent une exemption au droit d’auteur qui menace leur équilibre économique. Le président du Conseil national du numérique prend parti, en faveur des chercheurs, en promouvant un droit au TDM sous conditions.

Pour simplifier, ces super logiciels sont capables de mettre en évidence dans un corpus théorique des liens implicites qui jusque-là avaient échappé aux spécialistes. Autant dire qu’il s’agît de l’application des techniques de big data à des corpus scientifiques. Pour bien fonctionner, les programmes spécialisés ont besoin d’études scientifiques, qu’ils vont mouliner jusqu’à obtention de résultats. Exclusif : l’avis du président du CNNum sur le ‘text data mining’ qui oppose chercheurs et éditeurs http://nzzl.us/APDQo9y

Pour le président du CNNum, le big data déshumanisé représente un grave danger.

L’impact du big data sur la société est-il vraiment bénéfique ? Oui, répond Mounir Mahjoubi, le président du Conseil national du numérique. Mais il peut aussi donner lieu à des dérives, notamment en matière d’automatisation, et c’est à nous de veiller à ce qu’elles n’aient pas lieu.http://www.usine-digitale.fr/editorial/pour-le-president-du-cnnum-le-big-data-deshumanise-represente-un-grave-danger.N383018

  1. LE DANGER D’UNE AUTOMATISATION À OUTRANCE
  2. TROP PERSONNALISER LES DONNÉES, UN DANGER ?

 

En France, il convient aussi de prendre en compte les impératifs édictés par la CNIL  (Conférence plénière Documentation – 26 mars 2014) : http://www.cil.cnrs.fr/CIL/spip.php?article2835 – Big data, métadonnées, données personnelles : réunir toutes les conditions indispensables pour pouvoir exploiter pleinement ses données, générer de la valeur, et respecter le droit des individus.

Nous devons également nous interroger à propos de la responsabilité de la transformation digitale de l’entreprise. Ceci est du ressort de sa gouvernance.

Parmi les membres de la direction générale, deux émergent naturellement comme potentiels sponsors de la transformation digitale. Mais qui du directeur marketing ou du DSI sera le prophète de la digitalisation ?

  1. La première révolution a conduit l’entreprise à créer son site Internet, réalisant, par là-même qu’une DSI n’avait ni les compétences, ni la réactivité d’une agence web.
  2. De technologique, le web est devenu soudainement un royaume de littéraires, dont le contenu serait roi. Les métiers ont définitivement pris leur indépendance à l’égard des SI.
  3. La troisième révolution numérique, celle des datas, apporte aux DSI les arguments pour prendre leur revanche.

Le DSI, leader logique mais pas stratégique de la transformation digitale?

… Qui du directeur marketing ou du DSI gagnera le match de la transformation digitale ? http://nzzl.us/dJzuvMg

En termes de gestion des risques et de contrôle interne, un des rôles essentiels est de s’assurer de la fiabilité et de l' »agilité » de tous les processus, de la qualification et de la protection de l’information, d’une réduction des risques de manière appropriée, ne tuant pas ou ne freinant pas l’innovation et, de ce fait, de pouvoir apporter l’assurance d’un contenu de données  réaliste, fiable et de qualité.

Cette assurance étant confirmée par les missions, portant sur les thèmes liés à la qualité des données et des datas, menées par l’audit interne.

Ce qui impose également l’exécution d’une ingénierie de formation en vue de fournir à tous employés, aux managements de proximité et supérieur, comme à la gouvernance, les sensibilisations et les formations les plus adéquates et les plus adaptées au cœur de  métier et aux stratégies actuelle et future.

Nous sommes en présence d’un torrent impétueux et non d’un long fleuve tranquille!

 

A consulter également :

Data Science Association : http://bit.ly/1ow9EVF

LeMagIT http://www.lemagit.fr/conseil/Big-Data-liste-de-controles-pour-la-mise-en-oeuvre-de-projets-analytiques

Cigref (octobre 2014) : http://www.cigref.fr/wp/wp-content/uploads/2014/10/CIGREF-Enjeux-business-donnees-2014.pdf

Les Echos Business (3/12/2014) : http://business.lesechos.fr/directions-numeriques/digital/big-data/0203983432673-bientot-des-audits-big-data-105910.php

Affiches Parisiennes (10/08/2015) :  http://www.affiches-parisiennes.com/comment-proteger-le-nouvel-or-noir-de-l-entreprise-tout-en-restant-transparent-5510.html

BFM Business :  http://bfmbusiness.bfmtv.com/01-business-forum/40percent-des-heures-travaillees-sont-perdues-a-rechercher-de-l-information-une-aberration-947257.html : 40% des heures travaillées sont perdues à rechercher de l’information, une aberration

Les entreprises craignent de plus en plus les cyber-risques, selon le baromètre Allianz

Étiquettes

, , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ,

globalization-1082651_1280

Les cyber-risques font la une de toute l’actualité et le monde des affaires se focalise dessus en raison de l’apparition et de l’utilisation de nouvelles technologies numériques et par suite de la survenance d’importants incidents. Ces derniers portent sur l’e-réputation, l’image de marque, la protection des données, les violations d’accès, les piratages, les malversations frauduleuses…

Ces nouvelles menaces sont une des conséquences de la mondialisation des affaires. Cette même mondialisation, à laquelle s’ajoute une volatilité et une instabilité des marchés (voire des turbulences mineures ou majeures) de plus en plus accrues, ont nettement accentuée l’existence d’anciens risques pouvant être garantis par la Coface : pays, politique, économique, approche de nouveaux marchés et coûts de prospection…

Mais avant toute chose, c’est le risque d’interruption de l’activité qui prévaut. Cette dernière, ayant un fort impact sur le chiffre d’affaires, peut découler d’un seul facteur ou d’un faisceau d’une multitude de causes.

Nous sommes tous sûrs que notre dispositif de gestion des risques est parfait et qu’il a été éprouvé par l’expérience, tout comme nos processus de conformité (prévention et contrôle) et ceux de notre dispositif de contrôle interne.

Mais comme nous pratiquons des revues de direction dans tout système de la qualité, dont un des objectifs est l’amélioration continue,  nous ne pouvons, dans un tel contexte, nous contenter d’une simple révision et adaptation de nos dispositifs de protection.

Nous devons nous projeter plus loin et envisager une refonte des outils de gestion des risques et de contrôle .

Ce résultat est d’une actualité brûlante : plus que le risque d’incendie, d’atteinte à la réputation ou à l’image de marque ou encore de rappel de produits défectueux, les entreprises redoutent surtout les risques de cyber-attaques. Le «cyber-risque » (faille de sécurité informatique, piratage informatique, violation de données etc.) compte ainsi parmi les 5 facteurs de risques majeurs pour les entreprises basées en France et dans le monde. C’est ce que révèle le  Baromètre des risques 2017 d’Allianz, publié le 11 janvier.

Lire la suite

Voici les tendances de la cybersécurité que les PDG devraient connaître en 2017

Étiquettes

, , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ,

chaos-485499_1280

Même si vous pensez disposer de toutes les connaissances et compétences en matière de cyber-sécurité, je vous recommande de consacrer quelques minutes de votre temps précieux à la lecture de l’article cité à la fin de ce post.

J’attire également votre attention sur trois points précis qui me semblent devoir constituer toute base de processus de prévention :

  1. Le problème est souvent le manque de connaissance ouverte et de sensibilisation des utilisateurs, indispensable pour éviter que les cybercriminels entre de cette façon (réseaux).

  2. Il n’est pas dans la pratique française, en général, d’exercer un débriefing détaillé des attaques subies et, de ce fait, de s’assurer de la prise en compte de la moindre petite faille.
  3.   Par mesure de sécurité, mais aussi par crainte d’une utilisation frauduleuse par les employés, il est rare que les managers et les formateurs internes puissent utiliser les  résultats de débriefing comme cas pratiques lors des sessions internes de sensibilisation ou de formation.

Chaque violation de la sécurité peut coûter une entreprise d’environ quatre millions de dollars, et dans 26% des cas, une fuite peut éliminer plus de 10.000 dossiers. Voici quelques-uns des coûts de données d’une violation de données, selon une enquête Cost of a Breach Data qui a analysé les pratiques de sécurité de 383 entreprises […]

via Voici les tendances de la cybersécurité que les PDG devraient connaître en 2017 — La cybercriminalité

2017 : Disruption – Stratégie de disruption et innovation par la maîtrise des risques

Étiquettes

, , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ,

new-years-day-1807751_1280-copieAu départ, l’initiative apparaît comme une innovation presque fortuite, dont la portée, en tout cas, n’a pas été perçue immédiatement.

Nous vivons à une époque de turbulences majeures, de disruption, pour ne pas dire de “chaos” plus ou moins permanent.

Le professeur de Harvard Clayton Christensen a imposé mondialement, via son best-seller « Innovator’s Dilemma » (1997), une définition plus restrictive de « l’innovation disruptive ».

Pour Christensen, ne sont disruptifs que les nouveaux entrants qui abordent le marché par le bas, et se servent des nouvelles technologies pour proposer des produits ou services moins chers.

http://tempsreel.nouvelobs.com/economie/20160122.OBS3214/le-concept-de-disruption-explique-par-son-createur.html

https://hbr.org/2015/12/what-is-disruptive-innovation

http://nexize.com/fr/disruption-et-conformisme/

https://wecompanysocial.wordpress.com/2016/08/06/disruption-et-processus-dinnovation/

http://www.12manage.com/methods_christensen_disruptive_innovation_fr.html

http://www.nicolasbordas.fr/archives_posts/et-si-on-remettait-un-peu-dordre-dans-la-disruption

http://www.diplomatie-digitale.com/featured/strategie/entreprises-dilemme-innovation-1040

Quoi qu’il en soit, que vous soyez une start-up, une fintech, une petite ou moyenne entreprise ou une multinationale, il convient d’identifier les menaces et les opportunités. De même, il est nécessaire de connaître et d’anticiper les évolutions du milieu.

Ceci passe par une culture d’entreprise et un mode de gestion holistique des risques ou selon la méthode Entreprise Wide Risk Management (EWRM). Ce qui implique la promotion d’une culture du risque incluant l’éthique, la réputation et la sécurité.

La gestion des risques est une des composantes de la gestion stratégique. Au travers du management des risques, nous mettons en place les processus suivants :

  1. Une veille.
  2. Une protection de l’information.
  3. Une aide à la décision.
  4. Une dimension d’influence.

Même s’il ne s’agit pas d’actions directes, le pilotage par les risques, mené conjointement avec un management du contrôle interne efficace et efficient, fournit à toute entreprise un système d’intelligence économique. D’où la fin de la boucle permettant une gestion stratégique plus agile et plus conforme aux objectifs et à la réalité environnante.

Audit et contrôle internes sont au cœur de la performance durable des organisations.

Le contrôle et l’audit internes contribuent à sécuriser et améliorer l’activité afin d’assurer la pérennité du fonctionnement des sociétés.

En 2017, le contrôle interne doit évoluer vers un rôle de conseil et d’alerte en continu.

C’est le sens de mes vœux professionnels pour cette nouvelle année et celles à venir (afin qu’il ne s’agisse pas d’une simple résolution que nous oublions au fil du temps, mais une action dans la continuité du long terme).

En passant

Fraude aux virements : « Il faut réagir au plus tôt »

Étiquettes

, , , , , , , , , , , , , , , , , , , , , , , , , , , ,

lawyer-28782_1280

Mode d’emploi. Alors que 60 % des entreprises françaises ont été victimes d’au moins une tentative de fraude l’an passé, Guillaume Forbin et Marie Davy, avocats associés chez Altana, expliquent comment faire face à une fraude aux faux virements.

Lire la suite

En passant

Après les ransomwares, les bases de données MongoDB prises en otage

Étiquettes

, , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ,

men-161005_1280

 

Un ou plusieurs cybercriminels s’attaque aux bases MongoDB mal sécurisées. Ils en exfiltrent les données et réclament une rançon pour restituer l’information.

Après les fichiers bureautiques pris en otage, les bases de données ? Un cybercriminel ou un groupe de cybercriminels connu sous le pseudonyme Harak1r1 s’attaque aux bases MongoDB non protégées, remplace les données qu’elles renferment et demande une rançon en bitcoin pour restituer l’information. Selon Bleeping Computer, cette attaque dure depuis au moins une semaine et cible des serveurs dans le monde entier.

Lire la suite

En passant

Des hackeurs chinois volent les données de grands cabinets d’avocats américains

Étiquettes

, , , , , , , , , , , , , , , , , , , , , , , , , , , , ,

men-161005_1280

Les informations confidentielles sur plusieurs opérations de fusion-acquisition auxquelles ont eu accès les pirates leur ont permis de gagner par spéculation plus de 4 millions de dollars.

Lire la suite

En passant

Escroquerie à la Banque postale : 16 personnes condamnées

Étiquettes

, , , , , , , , , , , , , , , , , , , ,

service-1013724_1280

Des centaines de titulaires de comptes avaient été prélevés à leur insu, grâce à une vaste fraude.

La combine était bien rodée. Après avoir récupéré des relevés de comptes de clients de la Banque postale dans des boites aux lettres , des malfrats les revendaient à des intermédiaires. Ces derniers, en lien avec deux agents de la banque, achetaient des informations sur les titulaires des comptes, pour fabriquer de faux papiers et pouvoir effectuer des retraits d’espèces ou des virements.

Lire la suite

En passant

Doing the Two-Step : Prioritizing Risks and Allocating Resources

Étiquettes

, , , , , , , , , , , , , , , , , , , , , , , , , , , , , ,

Bâle III & Solvabilité II

Eléments de réglementation

Chief compliance officers face imposing tasks on a daily basis. The tasks often look insurmountable and it is easy for CCOs to just turn away and find a more manageable set of tasks.

Lire la suite

En passant

Euribor : Bruxelles sanctionne les banques Crédit Agricole, HSBC et JPMorgan pour manipulation des taux

Étiquettes

, , , , , , , , , , , ,

Etablissements financiers

Finance – Banque – Organismes financiers

La Commission européenne a sanctionné ce mercredi les banques française Crédit Agricole, britannique HSBC et américaine JPMorgan pour avoir participé à une entente de manipulation de taux d’intérêts…

Lire la suite