Cette revue est basée sur un ensemble de publications du mois d’octobre 2023, issues de sources en lien avec le sujet Data. A piocher suivant vos centres d’intérêts.
Pour ce mois d’octobre, quatre sujets pivots dans le monde des données, la qualité, les data plates-formes qui évoluent, le paradigme data mesh et les affres de la data architecture. Avec aussi sur le sujet des travailleurs de la donnée (en référence à Antonio Casilli), le travail caché des RN-coders.
Et pour le reste, un rapide tour d’horizon d’une sélection d’articles data.
Sommaire :
- Qualité des données : IA, données personnelles, cadre qualité, déformations litigieuses, gouvernance
- Le marché des plates-formes de données est en pleine effervescence: data observability, orchestration et pipelines, accès aux données, dataops
- Data mesh : le pour, ça marche, le contre, ça ne marche pas, les retours d’expérience
- Constats sur les architectures de données : silos, IT human middleware, stockage des données, streaming, travail des architectes et data engineer
- Data gouvernance offensive et défensive + l’argument IA
- Data capture – naissance des données, la face cachée des RN-coders
- Les données au service de l’observabilité des systèmes
- En vrac (More data, La data sauve la monde, Cas d’usage data, Stockage pour des milliers d’années, Data paralysie, Supprimer ses données personnelles, Souveraineté, Data breach chez un gardien des données, La data en 2025)
Qualité des données : IA, données personnelles, cadre qualité, déformations litigieuses, gouvernance, self serve data
1) L’IA comme copilote (en mode GenAI) au service de fonctions de gestion de la qualité des données : suggestions d’actions, de règles sur les données en lien avec des événements métiers (articles consultés sur un site de ecommerce, conversions en achat, churn…) à partir de descriptions en langage naturel des données et en offrant la possibilité d’interroger les données également en langage naturel. Amplitude (https://amplitude.com/blog/Amplitude-AI-data-assistant-data-governance ) peut se le permettre via une couche contextuelle / sémantique sur les données qui lui est propre (la traduction en langage naturel de requêtes SQL sans contexte est peu performante). Source :
2) Qualité des données personnelles, l’application du framework AIDA—Attention, Interest, Desire, Action (outil marketing), avec la frontière entre les données « effrayante » / creepy data (sans consentement, qui nous rendent mal à l’aise par leurs usages) et les données volontairement fournies / first data person (avec consentement). Source : https://blog.masterdata.co.za/2023/10/03/creepy-data-vs-first-person-data-why-data-quality-matters/
3) L’idée de cadre de qualité des données : profilage des données, standardisation, indicateurs qualité, nettoyage des données, gestion des métadonnées, data literacy . Remarque : il faudrait plutôt avoir un cadre général des données sur lequel la qualité des données doit s’appuyer, mais aussi la valorisation, la gouvernance, etc.
4) Quand les données sont réorganisées et déformées pour des intérêts personnels et comment la qualité des données doit en tenir compte. Exemple dans le monde de la santé :
« Researching the following question: “What percentage of Patient Health Records are populated with inaccurate data because nurses, doctors, and administrators have re-engineered the data due to insurance and liability reasons?” yielded some disturbing results.
Studies have suggested that this practice may be more common than expected and can negatively affect patient safety and quality of care. One study from 2018 found that 28% of nurses admitted to altering patient records to avoid blame or litigation, and 31% said they had witnessed their colleagues doing the same. Another study from 2019 reported that 18% of physicians had deliberately manipulated or withheld clinical information in the past year to increase their reimbursement or reduce their liability. These findings indicate that data re-engineering is not a rare phenomenon but a widespread and systemic issue in healthcare. »
Source : https://www.datasciencecentral.com/ais-kryptonite-data-quality/
5) La qualité des données est l’affaire de tous avec la gouvernance des données au centre. Source : https://tdan.com/who-is-responsible-for-data-quality-in-data-pipeline-projects/31253
Le marché des plates-formes de données est en pleine effervescence: data observability, orchestration et pipelines, accès aux données, dataops
Rachats, ajouts fonctionnels, data observability, orchestration, self data, data streaming, développements de couches UX spécialisées en fonction du profil, moteurs de bases de données revisités … l’actualité est riche sur le marché des plates-formes de données.
1) Evolutions de la data observability : les pipelines de données mis sous surveillance
« Data observability tools, or tools that enable companies to understand, diagnose and manage data health across multiple IT tools throughout the data lifecycle, continue to be one of the buzziest tech trends in big data. Last year, in the span of a single week, VCs poured hundreds of millions of dollars into three vendors — Cribl, Monte Carlo and Coralogix — developing tooling for data observability »
Source : https://techcrunch.com/2023/10/10/data-observability-startup-acceldata-raises-10m-more/ – Acceldata https://www.acceldata.io/
- Comprendre ce qu’il se passe dans les pipelines de données
- Détecter les problème de qualité de données dès qu’ils surviennent
- Supervision de bout en bout de la source, à la consommation en passant par les transformations
- Au travers de différents systèmes – cloud
Source : https://techcrunch.com/2023/10/16/observability-startup-pantomath-lands-14m-to-automate-data-pipelines/ – Pantomath https://www.getpantomath.com/
Autres acteurs : Sifflet, Observe, Manta, Metaplane
Un autre angle sur les pipelines de données, la vue cartographique (orientée connaissance) portée par des fonctions de data lineage. Source : https://www.opendatasoft.com/fr/blog/comprendre-et-accelerer-l-utilisation-des-donnees-grace-au-data-lineage-cas-d-usage/
2) Evolution de l’orchestration des traitements /pipelines de données : à mettre entre les mains des métiers.
Définir un pipeline ne suffit pas, il faut aussi être capable (en self) de le déployer, le schéduler, l’orchestrer, le superviser.
« And the reason why Kestra is bringing the infrastructure-as-code model to data orchestration is because the startup thinks data management should be handled by all engineers and business users instead of a specific team of data engineers…
Kestra also has a user interface that makes it easy to create scheduled and event-driven workflows (“if this happens, do that”). With this UI, business users can also rely on Kestra to create SQL queries and build internal tools for internal reporting. »
Source : https://techcrunch.com/2023/10/04/kestra-is-an-open-source-data-orchestration-platform-for-complex-workflows/ – Kestra https://kestra.io/ (à noter origine Française)
Et aussi : https://www.lebigdata.fr/plateforme-kestra-tout-savoir
A mettre entre les mains des métiers mais utile aussi pour l’IT quand on connait la complexité de Kubernetes (voir https://www.purestorage.com/fr/knowledge/why-traditional-storage-fails-big-data.html
3) Les données en libre-service, attendu par tous, facile à dire, difficile à faire !
Quelques challenges :
- Besoin d’avoir confiance dans les données : les connaître, savoir par quels traitements elles sont passées, avoir une idée de leur qualité
- Besoin de collaborer autour des données
- Besoin de pouvoir appliquer les politiques (sécurité, réglementaire) en toute connaissance de cause
- Savoir exploiter les données en self-service par les métiers (évolution de la culture data et convivialité des outils)
- Eclairer les usages des données en libre-service pour valoriser l’effort
L’IT ne peut pas tout faire, la préparation des données, 80% de la charge de travail sur les données comme goulot d’étranglement. L’option no / low code comme solution pour permettre à plus de personnes de traiter les données et de répartir ainsi la charge sur les métiers, équipes data et IT :
Source : https ://techcrunch.com/2023/10/11/data-transformation-startup-prophecy-lands-35m-investment/ – Prophecy https ://www.prophecy.io/
A separate survey — this one from cloud analytics software vendor Matillion — found that data teams are overextending themselves to meet business demands. Eighty-four percent of data engineers responding to the poll described the volume of their workload as exceeding their capacity, while 34% said that it takes close to — or over half — of their workday to integrate, collect and transform data per project.
“Enterprise data has a productivity problem — not enough data users are enabled to ship trusted data for analytics and AI,” Bains said. “Prophecy enables self-service data transformation for a broader class of users, especially non-coding data teams in the lines of business.
Approche non nouvelle, les ETL visuels existent depuis longtemps (voir Alteryx, Talend, Informatica, Coalesce…et moins connue Invenis en France). A noter dans la solution Prophecy : l’apport de l’IA pour générer des pipelines à partir d’une expression en langage naturel (copilotage IA), la gestion de packages/bibliothèque de composants, orchestration et scheduling, le cloud natif
Alation veut rendre son catalogue de données interrogeable à la façon de chat GPT pour explorer et accéder aux données. Source : https://www.datanami.com/2023/10/12/alation-turns-to-genai-to-automate-data-governance-tasks/
4) Accélérer l’accès aux données
Databricks fait l’acquisition d’une solution de change data capture – Arcion (sans passer par une logique d’ETL qui passe par des lots, directement via les journaux des bases de données pour répliquer les données dès un changement).
Source : https://techcrunch.com/2023/10/23/after-43b-valuation-databricks-acquires-data-replication-startup-arcion-for-100m/ et https://www.datanami.com/2023/10/23/databricks-make-a-cdc-play-with-arcion-acquisition/
5) Dataops : une vue qui dépasse les aspects techniques
Quand il y a besoin d’être en continuous delivry des données (pipelines, catalogage, contrôle qualité, analytics…) pour de l’analyse et de l’utilisation des données en continu (la continuité de bout en bout). Et quand les plates-formes de données traditionnelles sont trop complexes pour le permettre, besoin de nouvelles approches.
« Data warehouses primarily serve long-term storage and historical operational analysis, while data lakes are used for exploring new ways to analyze data, such as applying AI to social media or clickstreams. In both cases, data within these platforms remains largely inaccessible to anyone outside of the IT department. The same limitations extend to data ingestion tools and data pipelines, with arguably a bigger impact as pipelines may change relatively frequently without updating documentation. The net result? Large volumes of complex and poorly understood data pipelines create risk and reduce agility.
For DataOps to truly transform enterprises, this scenario must change. Data warehouses and data lakes need to become more accessible and integrated with a common set of tools, an enterprise-wide data model, automated data lineage, and catalogues of all meaningful data and analytics assets. This accessibility should extend beyond IT to cross-functional teams in business units. » Source : https://blog.masterdata.co.za/2023/10/27/dataops-from-data-to-decision-making/
Data mesh : le pour, ça marche, le contre, ça ne marche pas, les retours d’expérience
1) ça marche / ça ne marche pas :
Techniquement on sait faire, mais culturellement c’est plus difficile.
ça marche : des contrats d’interface, des produits de données, de la qualité, l’observabilité, le libre-service
ça ne marche pas : l’adhésion de l’ensemble de l’entreprise même avec le sponsoring de plus haut niveau, le temps long avant un retour sur investissement (fournir en quelques mois à la fois des résultats et une fondation data mesh), le data mesh vu comme une étape/couche supplémentaire qui pose question (performance, maillage) par l’IT par rapport aux approches centralisées – data lake par exemple, le data mesh non perçu comme utile par le métier qui a délégué à des équipes data – BI/analytics/data science la gestion des données (même si ces derniers passent 80% de leur temps à la préparation). Et je rajouterai le sujet de la responsabilité métier… difficile à exercer.
Retour d’expérience : du data mesh au data mess (gâchis), comment l’éviter ? Nécessité d’un changement culturel par rapport à l’expérience data existante aussi bien côté IT (mon infrastructure data centralisée) , métier et équipes data (mes moyens et habitudes de travail avec les données), nécessité de mener les 4 piliers du data mesh en même temps, concilier un horizon à temps long et une attente rapide de ROI (« Slow time to show ROI »). Mais ceux qui réussiront seront les leaders de demain.
Le data mesh est un horizon (sûrement lointain voire jamais atteint). Il donne un cap dès lors que quelque chose va bouger sur les données. Comme d’habitude, c’est plus facile lorsqu’on part d’une feuille blanche et plus difficile lorsqu’on part avec le poids lourd de l’existant (technique et culturel).
Source : https://medium.com/profitoptics/data-mesh-is-failing-f60aded05324
Dans la même idée, ça marche, ça ne marche pas voir : https://fr.blog.businessdecision.com/data-mesh-ce-qui-marche-ce-qui-ne-marche-pas/
(avec un petit bémol, sur le périmètre d’action du data mesh, non il n’est pas limité à l’analytique, il peut s’attaquer aux processus ad hoc, centrés data (par exemple pour une attente réglementaire), et aussi aux apps data, oui ce n’est pas adapté à l’IA, mais il peut y contribuer via les produits de données – attention dans le cas de l’IA en bout de chaîne, on est face à des produits particuliers).
Et j’aime bien l’idée que l’on n’est pas obligé de parler data mesh pour en faire.
A voir aussi un début de retour d’expérience sur un cas ambitieux : https://www.quantmetry.com/blog/enjeux-de-valorisation-de-la-donnee-avec-le-data-mesh/
Et un zoom sur la définition des domaines data … https://www.quantmetry.com/blog/data-mesh-deployer-des-data-domains-jouons-au-jeu-des-7-erreurs/
Il y aurait à discuter sur le découpage en domaine proposé. Par exemple sur les efforts fait par nombre de cellules transverses data sur la définition des objets métier, le découpage en domaine, la gouvernance métier associée et la faible valeur en retour. En retour d’expérience, il n’est pas nécessaire d’inventer un nouveau découpage – voir le § sur ce sujet ici : https://www.datassence.fr/2023/10/02/je-naime-pas-la-data-a-cote/
2) Quand les briques technologiques des plates-formes data évoluent vers ce que propose le data mesh
La gouvernance fédérée : cas de la sécurité des accès – la réponse d’Immuta – https://www.immuta.com/ – centralisation puis distribution des politiques de sécurité, implémentation en tenant compte des domaines métiers, « Immuta’s attribute-based access control (ABAC) approach provides much more flexibility compared to traditional role-based access control (RBAC) environments, primarily because each attribute-based policy can be used to cover many more users »
« “Generally, when you start, it’s a little bit unclear. They just want to get things off the ground,” says Moritz Plassnig, chief product officer for Immuta. “But when you hit that scale issue, you really start to think through, what are the different domains? Who can bring in data? Who should be allowed to control what happens with the data? Who are those individuals?” »
Avec l’expérience (classique), si l’intégration du composant de sécurité avait été vue dès le départ, cela aurait été plus facile, avec moins de frictions !
3) La maîtrise des traitements de données, la maîtrise du maillage
Article intéressant, sur l’intérêt du maillage … avec les bonnes mailles. Et le retour d’expérience de l’éditeur Dbt – https://www.getdbt.com/ – et son idée d’une offre Dbt mesh – https://www.getdbt.com/product/dbt-mesh .
Les données sont partout, les traitements sur les données prolifèrent, jusqu’à générer une jungle de traitements, de modèles de données avec la menace d’une complexité croissante. Le succès de Dbt a confronté l’éditeur à cette problématique chez ses clients. D’où l’idée de maîtriser cette complexité et le passage à l’échelle, via une logique mesh en partie empruntée du paradigme data mesh : data products, domaines métier, contrats d’interface déclarés, versionning, prise en charge des dépendances entre projets (références partagées, élimination de silos par copies, maîtrise des impacts en cas d’évolution), modularité, standardisation via une vue d’ensemble des traitements (lineages), etc.
Source : https://www.datanami.com/2023/10/17/dbt-labs-tackles-data-project-complexity-with-mesh-at-coalesce/
Constats sur les architectures de données : silos, IT human middleware, stockage des données, streaming, travail des architectes et data engineer
La problématique des silos de données, l’hétérogénéité et non interconnexion des systèmes, le travail obscur d’opérateurs en charge de connecter les silos de données entre eux. Sujet connu depuis longtemps. A la belle époque des middleware et systèmes d’échange (EAI par exemple), on parlait d’IT human middleware. Avec une partie du temps passé par ces salariés, à récupérer des données d’un système, les adapter pour les transmettre à d’autres systèmes, s’assurer de la bonne synchronisation en données des systèmes (il y a plus de 15 ans maintenant, pour une mission hub data dans une grande banque, on avait identifié plusieurs centaines de personnes dont il s’agissait de l’activité principale).
Avec l’explosion des données, le mal est partout. Avec les risques connus (fiabilité, traçabilité, dépendance…), sans oublier le sens de ce type de tâches.
Comment traiter cette situation, un article du HBR sur le sujet, qui parle de dette de déconnexion. L’article fait un constat connu, revient sur l’origine des silos, revient sur les coûts de cette dette dans différentes situations, reparle des IT human middleware.
« To bridge these gaps, all organizations tend to “throw people at the problem”: employees manually extract data from multiple systems, make decisions, and then input data back into the relevant systems. These employees, act as human adhesive between disparate systems, taking on “swivel chair” roles. »
Ensuite l’article évoque des pistes pour s’approprier le problème : faire une carte des frictions, écouter les IT human middleware, cartographier les systèmes … le tout pour identifier des priorités (rien de révolutionnaire … il faut faire !). Avec des propositions discutables : centraliser les données (encore un silo), automatiser le travail des IT human middleware (un pansement sur une jambe de bois … voir dans le même esprit la logique RPA robotic process automation), utiliser l’IA pour extraire des données structurées des données non structurées et à long terme procéder à une réingénierie des systèmes (vaste sujet).
Source : https://hbr.org/2023/10/whats-lost-when-data-systems-dont-communicate –
Et voir aussi sur le rôle des architectes de données : http://gouvsi.blogspot.com/2023/10/architecture-de-donnees-le-nouveau-cur.html
Toujours du mouvement dans le stockage des données
Commandé par NetApp https://www.netapp.com/fr/ une étude sur l’idée d’infrastructure de stockage unifié tiré par les besoins de l’IA (volume, flux, performance), avec l’adoption du cloud, la mise en avant de la technologie Flash de Neapp et les préoccupations sur la pérennité (résilience), le green data et la sécurité (qui complexifie les architectures) : https://www.netapp.com/pdf.html?item=/media/98131-2023-data-complexity-report.pdf
Et quand certains décident de créer leur propre base de données (quel challenge…), Monday.com éditeur d’une plateforme de développement centrée processus de travail (WorkOS) : https://techcrunch.com/2023/10/22/monday-mondaydb-new-database/ avec l’idée de disposer en interne pour répondre aux exigences de flexibilité tirée par les besoins de leurs clients.
Qui se souvient de l’époque de bases de données orientées objet (O2, POET…), un ancien de POET revient à son premier amour, les bases de données. Avec une analyse par rapport à l’adoption du cloud : comment concilier souveraineté, maîtrise des couts (tarifs du cloud, déploiements), performance. L’idée d’Exasol – s’insérer entre le front analytics, et le back infrastructures data (entrepôts), avec un moteur de base de données in memory. Source : https://www.datanami.com/2023/10/26/its-back-to-the-database-future-for-exasol-ceo-tewes/
NB : bon courage aux data engineer dans le choix d’infrastructures data : cloud, on premise, in memory, nosql, big query… offres databricks, snowflake, souches Apache, moteurs SQL, data virtualisation…buzz besoins IA, tout en tenant compte de la diversité de leur existant. L’intégration des données est une épine dans le pied de nombreuses organisations. Voir dans ce sens : https://www.datassence.fr/2023/06/23/lequation-des-donnees-dans-les-systemes-dinformation/
Data streaming : pour gérer les risques en temps réel (exemple détection de transactions anormales), du traitement par lot au streaming. Source : https://diginomica.com/data-streaming-key-managing-real-time-risk et à nouveau l’IA (générative) qui tire aussi le besoin de streaming : fournir des données contextuelles en temps réel à une IA pour des conversations avec un contexte évolutif connu en permanence – voir l’offre de Confluent – https://www.confluent.io/fr-fr/learn/data-streaming/ et https://www.confluent.io/fr-fr/blog/ai-data-streaming/
Data gouvernance offensive et défensive + l’argument IA
Revue de trois ouvrages sur la gouvernance des données : « Rewired” by Eric Lamarre, Kate Smaje, and Rodney W. Zemmel; and “Data Is Everybody’s Business” by Barbara H. Wixom, Cynthia M. Beath, and Leslie Owens » « “Data Strategies for Data Governance,” by Marilu Lopez ».
Le 1er pas, rendre les données accessibles et de qualité, le 2ème pas instaurer la confiance dans les données (protection, respect de la réglementation, contrôle des risques) et appel au data mesh « They believe as well that organizations should break their data into data products — a data mesh concept — but enable a data platform that creates data team agility. »
Source : https://tdan.com/fresh-ideas-for-data-governance-professionals/31195 et le levier de la stratégie data pour formuler la bonne gouvernance des données
La gouvernance des données, sujet peu attrayant, va pouvoir s’exprimer via le levier de l’IA … elle y est indispensable ! Extrait :
« Want a successful AI project? Get data governance right
Given generative AI’s current sex appeal, I was struck by the contrast with the practical-but-essential data questions these CXOs emphasized. Example: « Who owns data governance? » How’s that for a concise can of worms? I openly question whether today’s level of AI can be called « intelligent, » but I did see agreement on the opposite side: bad, inadequate or poorly managed data results in dumb AI.
A detailed guide to « best practices » in AI data governance – if such a thing even exists – was beyond the scope of this event. But field lessons were shared:
- Bear down on the current state of your data governance, prior to ambitious AI projects – an obvious but important first step.
- Generative AI projects will often require some form of internal foundational model to interface with external LLMs. Why? Because gen AI without your own enterprise data is going to yield generic/underwhelming results. Oh, and you’ll need data governance in place before that foundational model is built.
- Your data governance team should not be tied to product. It has a broader – and now mission critical – purview. »
Source : https://diginomica.com/cce-2023-great-ai-debate-shifts-content-creation-data-governance
Enfin à noter que le Data governance act est applicable depuis ce mois : https://www.archimag.com/univers-data/2023/10/27/data-governance-act-reglement-gouvernance-donnees-applicable
Data capture – naissance des données, la face cachée des RN-coders
Dans la face cachée des données, je demande les traducteurs des données en codes nomenclatures :
https://www.smartdatacollective.com/rn-coders-can-improve-hospital-data-strategies/ NB : sans la mobilisation humaine pas de data digne de ce nom, après les IT humain middleware (évoqué dans cette revue), les travailleurs de la labélisation des données pour l’IA (voir aussi ici cf. data emballement), les rn-coders (rn pour registered nurses) en charge d’attribuer les bons codes (nomenclatures) aux prestations réalisées par les professionnels de santé, de leur travail dépend le bon déroulement de processus (facturation, assurance…).
Les données au service de l’observabilité des systèmes
Les données au service de l’observabilité des systèmes, applications, flux (à ne pas confondre avec la data observability même s’il y a un lien évident – les données font partie des objets à observer dans les systèmes) : un marché de 2 milliard de $ en 2027 – https://650group.com/press-releases/deep-observability-market-to-grow-at-50-percent-cagr-reaching-2b-by-2027/ . Quand tout passe par une vision data (logs, métadonnées) qui s’appuie sur des plates-formes de données comme fondation (centralisation, latence minimale, volume, consolidation, dédoublonnage, reporting, copilotage IA…). Voir aussi
https://techcrunch.com/2023/10/05/observability-platform-observe-raises-50m-in-debt-launches-gen-ai-features et https://www.datanami.com/2023/10/05/observe-turns-to-genai-to-bolster-observability/
« The explosion of SaaS applications over the past decade has coincided with an explosion of observability data that few organizations are well-equipped to handle. Not only is the volume of logs, metrics, and traces increasing at a geometric rate, but the number of tools organizations use to understand this data is also proliferating at an unsustainable rate. »
Autre source : https://diginomica.com/observability-hot-topic-dynatrace-shows-it-can-be-much-more-seeing
Autre référence sur ce marché : un marché qui pourrait valoir 4,8 milliard de $ en 2028 – https://www.marketsandmarkets.com/Market-Reports/observability-tools-and-platforms-market-69804486.html
En vrac (More data, La data sauve la monde, Cas d’usage data, Stockage pour des milliers d’années, Data paralysie, Supprimer ses données personnelles, Souveraineté, Data breach chez un gardien des données, La data en 2025)
1) Les données étendent leur portée, elles permettent de contrôler de nouveaux champs d’activité et il faut s’y habituer https://seths.blog/2023/10/the-irony-of-more-data/
2) La data sauve le monde https://www.weforum.org/agenda/2023/10/building-a-resilient-future-the-power-of-data-and-ai-in-food-and-water-security/
3) Cas d’usage data : la supply chain maritime, le collaboratif, une vue holistique avec les données au centre
https://www.weforum.org/agenda/2023/10/data-collaboration-improve-resilience-maritime-supply-chain/
Cas d’usage qui fait froid dans le dos : un QR code sur les logements pour accéder aux données de leurs habitants (en Chine) https://www.tf1info.fr/international/en-chine-des-qr-codes-sur-les-logements-pour-acceder-aux-donnees-des-habitants-et-au-score-de-leur-credit-social-2272190.html
4) Un stockage des données pour des milliers d’années : https://hardware.slashdot.org/story/23/10/14/236219/is-glass-the-future-of-storage
5) Chaos data : data paralysie https://blog.masterdata.co.za/2023/10/31/breaking-through-data-paralysis-unleashing-the-power-of-data-management/
6) On peut supprimer ses données personnelles ici : https://gizmodo.com/governor-newsom-signs-delete-act-into-law-1850918011 et https://www.lebigdata.fr/californiens-supprimer-leurs-donnees-web et https://www.weforum.org/agenda/2023/10/eu-right-to-be-forgotten-online-data/
7) Sur la souveraineté des données https://internationaldataspaces.org/data-usage-control-indispensable-to-enable-data-sovereignty/ et https://internationaldataspaces.org/data-usage-control-indispensable-to-enable-data-sovereignty-part-2/
8) Data breach … la pire des situations, un gardien des données sous la menace d’un vol : https://dataconomy.com/2023/10/23/okta-data-breach/
9) Et pour finir la data en 2025 https://blog.masterdata.co.za/2023/10/20/the-data-driven-enterprise-of-2025-how-close-are-we/ – Data Embedded Everywhere, Real-Time Data Processing, Flexible Data Stores, Data as a Product, Expanded Chief Data Officer Rôle, Data Ecosystem Memberships, Prioritized and Automated Data Management.
RDV maintenant en décembre pour la revue et les actualités de novembre
Les commentaires sont fermés.