Dernière modification le 22 mai 2025
Comme d’habitude une suite de sujets data en lien avec un ensemble d’articles data du mois d’avril.
Un mois très riche avec une grande variété de sujets.
En particulier une profusion d’articles sur le protocole MCP dans le monde de l’IA. Mais aussi comment une politique autoritaire bouleverse les principes de base de gestion des données et notre façon de voir, penser le rôle des données.
Un article de fond avec comme contributrice C.L. Borgman, à lire si on s’intéresse à la réutilisation de données.
Les sujets récurrents sur l’ingénierie data, les métadonnées, les données synthétiques, la modélisation, la data gouvernance et le data management, l’éternel sujet de la difficulté d’être data analyste, la data et l’IA avec un zoom sur la collecte à tout va de données.
Et pour le reste, un rapide tour d’horizon d’une sélection d’articles data.
Sommaire :
- Les données sont des armes
- La collecte à tout va des données pour satisfaire les moteurs d’IA
- Data et représentation / gestion du temps
- Défiance ou confiance envers les données
- Retour sur MCP – Model Context Protocol
- Data ingénierie
- Un cadre conceptuel pour mieux gérer la réutilisation des données
- Données synthétiques
- Data gouvernance et data management
- Témoignages sur le métier de data analyste
- Infrastructure de connaissance et infrastructure de données
- Collecte de données à distance – points d’attention
- En vrac (Les représentations des données instanciées dans nos outils de travail ne sont pas neutres et façonnent notre façon de travailler, L’éthique des prix et données personnelles, Indicateurs d’investissements sur les données, Data Sécurité, La data au service de la planète : cas d’usage, Les données en supports de politiques, ne pas oublier le contexte, Eternelle remise en cause inutile de la modélisation de données)
Les données sont des armes
NB : cette partie de la revue fait également appel à des sources publiées en mai.
Le phénomène Trump met en lumière les données comme levier voire arme au service de rapports de force.
Exemples :
- Traquer les « opposants », migrants, services fédéraux, scientifiques … simples citoyens … en consolidant (vue 360°) toutes les données les concernant. Avec l’aspiration et la centralisation de toutes les données pour alimenter des IA par la contribution d’opérateurs de data platforms. Sources : tout est dit ici https://danslesalgorithmes.net/2025/05/13/doge-la-fin-du-cloisonnement-des-donnees/ (j’anticipe sur la revue de mai !), voir aussi https://flowingdata.com/2025/04/23/ignoring-citizens-privacy-to-build-a-centralized-database-and-track-people/ – https://gizmodo.com/heres-all-of-the-data-that-elon-musks-doge-may-have-on-you-and-your-family-2000587154
- Supprimer des dotations financières de collecte de données scientifiques voire supprimer des jeux de données entiers pour aller dans le sens de sa politique – source https://www.lemonde.fr/sciences/article/2025/04/01/les-menaces-sur-les-donnees-scientifiques-sont-un-risque-pour-les-droits-environnementaux_6589426_1650684.html – « As data provides ways to more accurately estimate how things are going, the administration continues its removal of federal datasets that they don’t agree with » – https://flowingdata.com/2025/04/22/halt-of-data-collection-that-measures-american-society/
Et les contre-attaques :
- Priver les big tech de données : source https://www.lebigdata.fr/la-france-propose-de-cibler-lutilisation-des-donnees-par-big-tech-en-reponse-aux-tarifs-americains
- Recenser les manifestations contre l’administration Trump. Source : https://dataculturegroup.org/2025/05/08/protest-mapper.html. Ou encore recenser les expulsions – voir https://deportationdata.org/
- « L’ombre du Cloud : armer l’Europe dans la guerre invisible des données » : https://legrandcontinent.eu/fr/2025/05/01/europe-cloud/
Les enseignements :
- Les silos, les data frictions ont du bon pour ralentir les consolidations et le pouvoir qu’elles génèrent. Avec les identifiants (souvent cité le numéro de sécurité sociale) comme données stratégiques d’interopérabilité (on le savait depuis longtemps), « Central to this transformation is DOGE, which is tasked via an executive order to “promote inter-operability between agency networks and systems, ensure data integrity, and facilitate responsible data collection and synchronization.” An additional executive order calls for the federal government to eliminate its information silos. » – https://www.techdirt.com/2025/05/02/how-the-government-is-quietly-repurposing-everyones-data-for-surveillance/ … et la bataille juridique sur la gestion des données identifiantes – https://gizmodo.com/judge-limits-doges-grubby-hands-from-grabbing-social-security-administration-data-2000591457 sur la perte de données – https://gizmodo.com/doge-replacing-magnetic-tape-archives-with-digital-is-a-dangerous-move-critics-say-2000586634
- Les faux positifs prolifèrent, avec des données non à jour, des personnes fichées à tort… « In that case, EFF filed an amicus brief identifying the dizzying array of ICE’s interconnected databases, many of which were out of date and incomplete and yet were still relied upon to deprive people of their liberty. » – source : https://www.techdirt.com/2025/05/09/irs-ice-immigrant-data-sharing-agreement-betrays-data-privacy-and-taxpayers-trust/. Et les hallucinations des IA qui exploitent ces données – source https://www.techdirt.com/2025/05/02/how-the-government-is-quietly-repurposing-everyones-data-for-surveillance/
- La confiance détruite … finalité des données détournée, intégrité des données remise en cause (modification directe dans les bases de données voire via des cybercriminels capables de modifier les données mal protégées), perte de données, accessibilité des données ouverte au plus fort, contournement des protections juridiques (saisie des données sans mandat par des « commandos » de techniciens, mise à mal des systèmes de protection des données et hacking – sources : https://www.techdirt.com/2025/05/02/how-the-government-is-quietly-repurposing-everyones-data-for-surveillance/ – https://flowingdata.com/2025/04/15/doge-possibly-extracted-data-from-national-labor-relations-board-whistleblower-discloses/ … avec le phénomène de ne plus remplir les formulaires administratifs quittent à perdre des services.
Je n’ai pas pu résister à recopier intégralement la liste des données collectées potentiellement par DOGE sur chacun (aux US !) – liste à jour ici https://www.nytimes.com/2025/04/09/us/politics/trump-musk-data-access.html – source : https://gizmodo.com/heres-all-of-the-data-that-elon-musks-doge-may-have-on-you-and-your-family-2000587154 – édifiant :
Academic rank
Active-duty military status
Addiction treatment records
Adjusted gross income
Adopted child’s gender
Adopted child’s name
Adopted child’s placement agency
Adoption credit claimed
Adoption Taxpayer ID Number
Adoptive parent name
Adoptive placement agency
Adoptive placement agency Employer ID Number
Adverse credit history
Alimony paid
Alimony received
Amount of federal taxes owed
Amount of federal taxes refunded
Amount of institutionally provided financing owed
Amount of Medicare conditional payment
Amount of student loan debt
Area of medical residency
Area of study
Auto insurance effective date of coverage
Auto insurance policy number
Automobile medical policies
Bank
Bank information (for your Medicare providers)
Biometric identifiers
Birth certificate
Business address
Business bad debt
Business bank account number
Business closures
Business debts canceled or forgiven
Business depreciation
Business entity type
Business income/loss
Business rents paid
Business repairs and maintenance costs
Business taxpayer ID number
Cancellation of debt
Capital gain/loss
Casualty and theft losses from federal declared disaster
Charitable contributions
Child and dependent care tax credit claimed
Child support received
Children of Fallen Heroes Scholarship eligibility indicator
Citizenship status
Classification of instructional programs code
Clean vehicle credit claimed
Company named in consumer complaint
Consumer product complaints (including mortgages, loans, credit cards)
Cost of goods sold (for business)
Country of birth
Country of citizenship
Course of study completion date
Course of study completion status
Course of study program length
Credit and debit card numbers
Credit report information
Criminal history
Date of accident, injury or illness
Date of birth
Date of death
Date of hiring
Date of original divorce or separation agreement
Dates of employment
Dates of medical service
Deductible part of self-employment tax
Degrees
Delinquency on federal debt status
Dependency status
Dependent names
Dependent of a resident alien
Dependent of U.S. citizen/resident alien
Dependent relationship to you
Dependent Social Security numbers
Dependent/spouse of a nonresident alien holding a U.S. visa
Device ID
Digital assets received as ordinary income
Disability entitlement
Disadvantaged background status
Disbaility status
Dividend income
Driver’s license or state ID number
Earnings
Education and training (for unemployment claims)
Education tax credits claimed
Educator expenses paid
Effective tax rate
Employee benefit plans offered (for business)
Employee ID number
Employer account number
Employer address
Employer name
Employer reported total employees
Employer-provided adoption benefits
Employer-reported total wages paid by quarter
Employment information
Employment status
Employment termination dates
Energy efficient commercial buildings deduction
Energy efficient home improvement credit claimed
Entitlement benefits held by related Social Security number holders
Expected student enrollment
Failure to file taxes penalty
Failure to pay taxes penalty
Family court records
Family size
Farm income/loss
Federal Employer ID Number
Federal housing assistance received
Federal income tax withheld
Financial aid profile
First-time homebuyer credit claimed
Foreign activities
Foreign address
Foreign bank and financial accounts
Foreign business partners
Foreign coverage credits
Foreign earned income exclusion
Foreign interests in business
Foreign tax ID number
Free or reduced-price school lunch received
Full name
Funding arrangements of employer group health plan
Gambling income
Gender
Gross business profit
Gross business receipts or sales
Health insurance claim number
Health insurance effective date of coverage
Health insurance policy number
Health provider name and number
Health savings account deduction claimed
Health supplier name and number
High school
Higher ed institutions designated to receive FAFSA form
Home/mailing address
Home/personal phone number
Homeless status
Hospitalization records
Household employee name
Household employee Social Security number
Household employee wages
Incarcerated student indicator flag
Incarceration status
Income and assets (for student aid eligibility)
Inventions
Investment interest received
IP address
I.R.A. deduction
Job title
Jury duty pay
Late tax filing interest
Level of postsecondary education study
Login security questions and answers
Login.gov password
Marginal tax rate
Marital status
Marriage certificate
Medicaid received
Medicaid waiver payments
Medical and dental expenses paid
Medical claims payments
Medical diagnoses
Medical notes
Medical records number
Medical residency date completed
Medicare invoices (sent to your provider)
Medicare payments received (by your provider)
Military service credits
Mortgage interest paid
Mother’s maiden name
Moving expenses
Name/address of business partnership
Names of other corporate officers of an LLC
Naturalization records
Nature of medical service
Net farm profit/loss
Nonresident alien status
Nonresident alien student, professor or researcher
Nonresident alient student, professor or researcher
Number of agricultural employees employed
Number of employees
Number of family members in college
Occupation title or code
Olympic and Paralympic medals, prize money
Ordinary business income
Parent demographic information
Parent educational attainment
Parent killed in the line of duty
Parental income and assets (for student aid eligibility)
Parents’ demographic information
Passport number
Pell Grant additional eligibility indicator
Pell Grant collection status indicator
Pell Grant status
Personal and professional references (for federal job applicants)
Personal bank account number
Personal bank account routing number
Personal email address
Personal tax payment history
Personal taxpayer ID number
Photographic identifiers
Photographs of government-issued IDs
Physician name and number
Place of birth
Plans for federal grant funding (including schedules, diagrams, pictures)
Postsecondary education institution
Power of attorney name and address
Prescription drug coverage
Principal business activity
Principal business product or service
Prior status as a legally emancipated minor
Prior status as a ward of the court
Prior status as an orphan
Prior status in a legal guardianship
Prior status in foster care
Private health insurer/underwriter group name
Private health insurer/underwriter group number
Private health insurer/underwriter name
Prizes and award income received
Psychological or psychiatric health records
Qualified electric vehicle credit claimed
Railroad retirement credits
Reason for separation (for unemployment claims)
Relationships to other Social Security number holders
Rental management fees paid
Rental, royalty, partnership, etc. income/loss
Rents received
Residential clean energy credit claimed
Royalties received
Salaries and wages earned
Salary history (for federal job applicants)
Scholarship and fellowship grants received
Seasonable employer status
Self-employed health insurance deduction
Self-employment tax
Self-photograph
Sex
Social Security date of filing
Social Security number
Social Security numbers of other corporate officers of an LLC
Social Security primary insurance amount
Social Security/S.S.I. representative payee
Sources and amounts of non-Social Security income
Sources of income
Spousal income and assets (for student aid eligibility)
Spouse demographic information
Spouse of a resident alien
Spouse of U.S. citizen/resident alien
Spouse’s demographic information
Spouse’s Social Security number
Standard employee identifier
State and local taxes paid
Stock options received
Student entitlement
Student load forbearances
Student loan amount
Student loan balances
Student loan cancellations
Student loan claims
Student loan collections
Student loan defaults
Student loan deferments
Student loan disbursement dates
Student loan disbursements
Student loan ID
Student loan interest deduction
Student loan overpayments
Student loan promissory notes
Student loan refunds
Student loan repayment plan
Student loan status
Supplemental Nutrition Assistance received
Supplemental Security Income eligbility
Supplemental Security Income eligibility amount
Supplemental Security Income payment amounts
Tax filing status (married, individual, filing jointly)
Tax preparer tax ID number
Taxable dependent care benefits
Taxable income
Taxable interest income
Taxable I.R.A. distributions
Taxable pension distributions
Taxable Social Security benefits
Taxable state/local refunds
Taxes paid on wagers
Temporary Assistance for Needy Families received
Tests for H.I.V./AIDS
Tip income
Total number of dependents
Total number of tax exemptions
Total payments to all employees
Total tax owed and paid
Type of bank account (checking/savings)
U.S. resident alien status
U.S. visa expiration date
U.S. visa number
Unaccompanied alien child status
Unaccompanied alien children sponsor status
Unemployment compensation received
Vehicle identifiers
Veteran disability determination dates
Veteran status
Visa expiration date
Wages earned while incarcerated
WIC nutrition assistance received
Work email address
Work experience (for federal job applicants)
Work phone number
Workers’ compensation coverage
Workers’ compensation offset
Autres sources :
https://www.wired.com/story/plaintext-trump-executive-order-information-silos-privacy/
https://www.wired.com/story/palantir-doge-irs-mega-api-data/
https://www.wired.com/story/plaintext-trump-executive-order-information-silos-privacy/
https://techcrunch.com/2025/04/05/doge-reportedly-planning-a-hackathon-to-build-mega-api-for-irs-data/
https://flowingdata.com/2025/05/02/deportation-data-project/
https://www.wired.com/story/palantir-doge-irs-mega-api-data/
https://www.wired.com/story/uncanny-valley-podcast-how-americans-are-surveilled-during-protests/
https://boingboing.net/2025/04/18/ice-enlists-palantir-to-track-down-people-it-wants-gone.html
https://techcrunch.com/2025/04/20/palantir-exec-defends-companys-immigration-surveillance-work/
https://www.wired.com/story/doge-collecting-immigrant-data-surveil-track/
La collecte à tout va des données pour satisfaire les moteurs d’IA
C’est simple, pas d’IA entraînée sans données, pas de réponses personnalisées des IA sans données contextuelles, pas de services d’IA monétisables par la publicité sans données … la bataille fait rage pour collecter nos données.
Apple s’y est mis, Google, META, OpenAI, X Grok le font depuis longtemps…
Avec la mobilisation de milliers (centaines de milliers) de personnes pour produire des données. Avec des dérives, comme les incitations à vendre ses données personnelles au profit de moteurs d’IA (et classiquement hélas amener ceux qui sont en situation de précarité à le faire).
Sources :
Avec la construction de fonctions de collecte encore plus avancées à partir de nos outils numériques du quotidien : navigateur interner (exemple Perplexity – https://www.engadget.com/ai/perplexity-is-building-a-browser-in-part-to-collect-customer-data-for-targeted-ads-230132091.html?src=rss et https://techcrunch.com/2025/04/24/perplexity-ceo-says-its-browser-will-track-everything-users-do-online-to-sell-hyper-personalized-ads/), outils de visio conférence, gestion de mails, réseaux sociaux (https://techcrunch.com/video/openai-may-be-developing-its-own-social-platform-but-whos-it-for/)…
Sources :
https://techcrunch.com/2025/04/11/irelands-data-regulator-investigates-xs-use-of-european-user-data-to-train-grok/
https://www.numerama.com/tech/1949787-grok-a-peut-etre-lourdement-faute-avec-les-donnees-des-internautes.html
https://www.numerama.com/tech/1951113-vos-donnees-facebook-et-instagram-vont-nourrir-lia-de-meta-ce-que-vous-devez-savoir.html
https://www.journaldunet.com/business/1540931-meta-rouvre-la-collecte-des-donnees-publiques-pour-nourrir-son-ia-en-europe/
https://www.presse-citron.net/un-aveu-dechec-comme-ses-concurrents-apple-va-finalement-exploiter-les-donnees-des-utilisateurs-pour-entrainer-son-ia/
https://www.lebigdata.fr/lia-de-meta-sentrainera-bientot-sur-les-donnees-des-utilisateurs-de-lue
https://www.lebigdata.fr/l-ia-claude-danthropic-lit-desormais-vos-e-mails-gmail
Un avis intéressant – qui explique entre autre comment les avancées en termes technologiques des moteurs d’IA se sont appuyées à chaque fois sur des datasets particuliers. Avec comme conclusion « porte ouverte » – « This jibes with the theory some people have that nothing matters but data. Some researchers have observed that for all the training techniques, modeling tricks, and hyperparameter tweaks we make, the thing that makes the biggest difference by-and-large is changing the data. ». Avec l’idée qui poussent à chercher encore plus de données « This discovered equivalence is really profound because it hints that *there is an upper bound to what we might learn from a given dataset*. » – et l’ouverture à « A final contender for the next “big paradigm” in AI is a data-gathering systems that some way embodied– or, in the words of a regular person, robots »- source https://substack.com/inbox/post/160974493
Et une limite peut être atteinte ? Trop de données nuit aux IA ? Source : https://www.lesnumeriques.com/intelligence-artificielle/un-surentrainement-catastrophique-pourquoi-les-ia-ont-tort-en-exploitant-trop-de-donnees-n235540.html
Data et représentation / gestion du temps
Un article intéressant, pratique et assez complet d’inventaire de différentes façon de prendre en compte et comment intervient la temporalité dans la représentation des données. Comprenant forcément un lien avec le contexte IA.
Un sujet pas forcément simple, peu mis en avant, mais auquel est confronté tout modélisateur de données…date d’effet, date de validité, date d’enregistrement / de mise à jour (date d’événement versus date de processing), séries chronologiques, historisation, versioning daté, photos de données, fraicheur des données, délais de conservation des données, gestion rétroactive… Source : https://awadrahman.medium.com/designing-with-time-in-mind-a-practical-reflection-for-data-solutions-architects-5fc3c52c8ca6
Défiance ou confiance envers les données
Les deux extrêmes cohabitent : une confiance aveugle dans les données et une défiance totale envers les données.
Avec entre les deux le sentiments que les données sont mal exploitées, pas accessibles, mal comprise.
Une série de données d’enquête sur l’appropriation des données par les managers : « Moreover, individuals are also feeling the pressure to be more data literate, with 86% of those polled reckoning that their careers depend on it. At the same time, 54% aren’t fully confident of their own ability to find, analyze and interpret data, while less than half (49%) say they believe they can effectively use data in their day-to-day work. » – source https://diginomica.com/business-leaders-have-data-crisis-confidence-worst-possible-time-here-come-agents-help-what-future
Et forcément le lien avec la data compliance – source : https://www.dataversity.net/fundamentals-of-data-compliance/
Retour sur MCP – Model Context Protocol
Une actualité foisonnante sur le sujet.
Déjà rapidement évoqué dans la revue de mars : https://www.datassence.fr/2025/04/02/revue-data-du-mois-mars-2025/?highlight=MCP#_ftn5
Un sujet qui bascule côté technique (trop) et qui aborde la problématique de middleware dans le contexte de l’IA et des agents IA.
Alors que l’accès aux données avec contexte est un sujet clé (modèles et règles métier, sémantiques), pour l’interprétation des données par les moteurs d’IA.
Articles repérés.
- Darren Shepherd: I read the MCP spec and now my evening is ruined. Which intern designed this protocol?
- I thought MCP would be bad but not this bad. Like seriously, your supposed to maintain a HTTP connection? And JSON-RPC, what the heck. Who let the children play with python.
- Sergei Egorov (SergeiGPT): MCP is a protocol-not-protocol that allows LLMs to completely ignore the decades of well thought out APIs and instead force humans to write API wrappers and expose them via either unauthenticated STDIO or HTTP SSE without a single mention of the authentication methods (because that’s what all protocols do, right? right?…) and gives you “Best practices for securing your data within your infrastructure”.
La sécurité est un sujet majeur et MCP n’est pas encore mature pour cela.
https://thoughtworks.medium.com/mcp-the-usb-c-for-ai-1631ab881944
Les choix d’architecture sont encore discutés – lourdeurs, non serverless et encore les risques liés à la sécurité.
Risques soulevés
- Vol de tokens OAuth (accès permanent à des services)
- Injection indirecte de prompts
- Poisoning des outils (informations malicieuses dans les métadonnées)
- Compromission de serveurs
- Corrélation abusive de données sensibles
- Permissions excessives ou serveurs malveillants
L’aspect sémantique doit être ajouté et certains se sont déjà positionnés – Exemple Wren Engine brique open source qui fournit une couche sémantique aux clients MCP. Sert de pont entre la requête en langage naturel et les données métiers – https://medium.com/wrenai/fueling-the-next-wave-of-ai-agents-building-the-foundation-for-future-mcp-clients-and-enterprise-332deada733e
MCP au bénéfice de l’observabilité – https://towardsdatascience.com/a-farewell-to-apms-the-future-of-observability-is-mcp-tools/
Vues explicatives
https://www.datagravity.dev/p/what-is-model-context-protocol-mcp
https://neo4j.com/blog/developer/model-context-protocol/?ref=blef.fr
Et Dbt lance son offre MCP- source : https://benn.substack.com/p/a-new-invisible-hand
Commentaire personnel, on est parti dans une spirale technique … dommage. L’ambition de connecter les LLM aux contextes fournis par le monde externe devient comment mettre en place une façade universelle d’intégration ?
Rappel de l’époque des middleware … CORBA, ESB, SOA, EAI, API management … l’éternel sujet d’une couche standards d’intégration de services et de données…
MCP est dans cette mouvance avec le contexte technologique actuel : IA génératives, Agents.
MCP vise une intégration pensée non pour des développeurs, mais pour des agents intelligents (LLMs, assistants), dans le cadre d’interactions / intégrations traduites en langage naturel.
MCP définit uniquement un cadre d’interopérabilité technique entre des agents IA et des services ou outils externes.
Le poids des acteurs IA qui ont besoin de ce cadre, la logique open source font le buzz pour que MCP soit le standard de fait… à suivre dans le temps qui va vite. Avec par exemple l’arrivée d’un protocole concurrent, complémentaire …Agent Communication Protocol (ACP).
Data ingénierie
Sujet récurrent, quelques REX et idées clés collectées.
- On manque de talent en ingénierie de données (plus que de data scientists)
- Les data ingénieur sont en burn out « Many Data Engineers are forced to wear multiple hats: playing the role of Data Architects, Platform Engineers and even DevOps professionals, leading to burnout and high attrition rates. »
- L’idée de les remplacer par des Agent IA capable d’automatiser les pipelines de données n’est pas bonne. L’IA en appui pour la conception oui, non pour une conception autonome de bout en bout. Et l’IA rend le besoin en ingénierie de données encore plus prégnant.
Source : https://blog.cubed.run/the-data-engineering-talent-crisis-no-one-is-talking-about-70538449b438
- La data ingénierie c’est un pied dans l’IT (développement logiciel) et un pied dans les données dont le sens, la qualité, le contexte demandent un savoir-faire particulier.
- Concilier les deux … c’est le retour du bon vieil analyste – programmeur !
Un article pour rester sain et éviter 30% de conneries et décoder le buzz marketing qui explose avec l’IA qui résout tous les problèmes data. A lire bien dans la réalité et le concret de la vie d’un data architecte.
« Every week there’s a new « revolutionary » architecture — some AI-powered hammer promising to fix all our problems. And of course, everyone on LinkedIn swears this new thing is the future. » et « Most of it is just rebranded old ideas, overpriced software, or in the best-case scenario thin abstractions over things we’ve already been doing. In the worst case? ». L’intégration de données reste un sujet difficile même (et encore plus) avec l’IA, le zéro ETL n’a pas compris la notion de rattachement / détachement de données (et je suis d’accord avec cela) – qui va nettoyer, retraiter les données pour un nouvel usage ? – « Сan we finally admit that Modern Data Stack™ is just a phrase vendors use to sell the same 6 tools to every company? » … et pour finir le bon sens « So instead of chasing shiny trends, focus on the fundamentals: ». Source : https://luminousmen.com/post/data-engineering-now-with-30-more-bullshit
Mais il est vrai que la quantité d’options offertes à un data ingénieur est gigantesque : solutions data, types de data platforms, briques technologiques data, impact de l’IA, style d’architecture, façon de « voir » les données (par copie centrale, virtualisées, zéro-copie, fédération…), data sécurité, métadata management, standards émergents tous les 6 mois, dernière technologie d’un grand leader digital, rachats, buzz marketing de nouveaux concepts data, la famille Apache, data patterns et anti-patterns, data qualité management…
Quelques « options » dans l’actualité du mois :
- La vision Databricks entre ingérer / recopier les données et accéder / sans copie aux données – source https://medium.com/dbsql-sme-engineering/data-federation-vs-data-ingestion-updated-guidance-on-an-optimal-strategy-for-the-integration-of-7c6056d45201
- Ajout de données (exemple manquantes) versus enrichissement pour préciser le contexte de données – source : https://www.precisely.com/blog/data-enrichment/data-appending-vs-data-enrichment-how-to-maximize-data-quality-and-insights
- Data mesh (sujet récurrent) : REX Airtel (opérateur de téléphonie mobile), données fragmentées, forte augmentation des volumes de données, modèle centralisé à bout (goulet, non agile) … Airtel se lance dans l’approche data mesh, avec une suite d’outils – 1- Un outil d’administration / gestion des domaines de données avec la définition des rôles et la structure de gouvernance de chaque domaine, 2- Un outil de gestion des exigences, demandes, propositions de data products au sein d’un domaine – data products auto descriptifs, 3- Un outil d’aide à la configuration des ingestions de données nécessaires, 4- Airflow pour l’ingestion et l’orchestration – Dbt pour les traitements -lineage des pipelines, 5- Une couche de requêtage des données, 6- Un ETL inversé pour redistribué les données dans les cas d’utilisation, 7- Une couche d’accès aux données via ELK, une représentation graphe…, 8- Une couche de gouvernance (dont d’observabilité des données), le support de fonctions de data management (qualité des données, gestion de la sécurité – Apache Ranger) – par la solution Datahub, le suivi des couts des plates-formes data – Avec l’application de normes de métadonnées entre les outils pour l’interopérabilité. Source : https://datahub-community.medium.com/how-airtel-unified-data-mesh-principles-and-practice-with-datahub-361ac3285f77 . Un autre REX moins détaillé chez « La Centrale » – https://www.lemondeinformatique.fr/actualites/lire-thomas-berger-cto-de-la-centrale–le-data-mesh-et-la-genai-ameliorent-notre-marketplace-96630.html
- Toujours sur le data mesh, l’annonce du mois par Z. Dehghani – de NextData – https://www.nextdata.com/ , du premier OS data product centric. Les produits de données sont autonomes, s’auto-orchestrent et s’auto-publient – source : https://www.bigdatawire.com/2025/04/16/data-mesh-creator-dehghani-launches-first-product-nextdata-os/ et https://www.decideo.fr/NextData-OS-une-plateforme-pour-creer-des-produits-de-donnees-autonomes-mais-gouvernes_a14234.html
- Un nouveau concept inutile le data fabresh – couplage data mesh – data fabric. Deux approches forcément complémentaires – Source : https://www.dataversity.net/data-fabresh-the-fusion-between-data-fabric-and-data-mesh/
- Retour sur la combinaison de l’architecture médaillon et la logique data product. Source : https://medium.com/datafutures/medallion-architecture-in-a-data-product-world-3758d17b6cf6
- La présentation de l’univers de gestion des datasets de Duolingo – source : https://blog.duolingo.com/dataset-development/?ref=blef.fr
- Choix entre des data platforms « universelles » et des data platforms spécialisées (time series, géospatial) – source : https://www.datagravity.dev/p/data-infrastructure-in-2025-platforms
- Et encore un nouveau concept : architecture de données active – idée de couche d’abstraction data qui se construit et évolue au fil du temps et ne s’achètent pas (Nième idée de vue unifiée des données) – rien de nouveau. Source : https://www.bigdatawire.com/2025/04/15/the-active-data-architecture-era-is-here-dresner-says/
- Avec des offres temporaires d’encapsulation / migration des bases de données permettant une migration progressive vers une vue unifiée – exemple Quesma https://quesma.com/ – assez centré sur ELK. Et l’idée de bon sens qu’un projet de data platform ne part pas de rien (voir sur ce sujet de migration / transition aussi la virtualisation de données). Source : https://datanews.levif.be/analyse/arriere-plan/quesma-une-fine-couche-entre-les-bases-de-donnees/
- Dans la même idée des offres d’infrastructure GPU – Hammerspace – https://hammerspace.com/ – « The capability to virtually combine far-flung data silos into a single global namespace and access it at HPC-class speed has enabled Hammerspace customers to solve tough data problems. ». Source : https://www.bigdatawire.com/2025/04/16/hammerspace-raises-100m-as-the-big-data-poles-flip/
Qu’est-ce qu’une « bonne » architecture de données ? C’est le résultat de compromis entre couplage lâche et couplage fort. Un article qui aborde le sujet : https://medium.com/@ckekula/principles-of-data-engineering-architecture-a787dbffdaa4
Et aussi : du vocabulaire data architecture décodé avec des mots simples – source : https://medium.com/data-science-collective/understanding-data-architecture-a-no-jargon-guide-for-scientists-and-engineers-777e50c7c5db
Pour terminer « What Data Engineers Honestly Want To Tell Data Analysts – Brutally honest truths data engineers want data analysts to know. ». Un bon REX sur l’interaction / communication entre data ingénieurs et data analystes.
Avec le besoin de partager des points de compréhension – adhérence :
« Resource consumption doesn’t occur in a vacuum. There is a difference between execution and orchestration. There is no universal format for a data pipeline; tooling is its own challenge. Backfills are not automatic. Schema changes must be carefully considered and implemented; this is one of the easiest ways to break a pipeline. Not everyone can/should access every field/report you make available » – Source : https://medium.com/pipeline-a-data-engineering-resource/what-data-engineers-honestly-want-to-tell-data-analysts-86e53c2f5b0c
Autres sources du mois d’avril non exploitées :
Data observabilité
https://www.precisely.com/blog/data-quality/mastering-ai-data-observability-top-trends-and-best-practices-for-data-leaders
https://www.lemondeinformatique.fr/actualites/lire-en-rachetant-metaplane-datadog-apporte-l-observabilite-aux-equipes-data-96687.html
Data product
https://medium.com/@community_md101/the-complete-data-product-lifecycle-at-a-glance-issue-35-76589504ff13
https://p-platter.medium.com/why-building-your-own-data-product-management-platform-doesnt-make-economic-sense-1fee5489fde0
https://medium.com/@mcgeehan/how-i-learned-to-stop-worrying-and-love-the-data-contract-c72f197c6f30
Zero Copy … une fantaisie (oui !) https://blog.metamirror.io/zero-copy-a-modern-data-fantasy-a28b535b6bfa
Les limites du format Apache Iceberg. Source : https://blog.lancedb.com/the-future-of-open-source-table-formats-iceberg-and-lance/
Un cadre conceptuel pour mieux gérer la réutilisation des données
Retour sur un article de fond sur la réutilisation des données dans l’univers scientifique – « From Data Creator to Data Reuser: Distance Matters » – by Christine L. Borgman and Paul Groth
L’article originel : https://hdsr.mitpress.mit.edu/pub/2mvqwgmf/release/2
Le défi de la réutilisation des données de recherche.
A lire absolument même si vous êtes en dehors du contexte de la recherche scientifique. Parce que les écrits de C.L. Borgmann et ici de P. Groth sont extrêmement fondés. Les auteurs sont reconnus (voir aussi l’ouvrage de C.L. Borgman – Qu’est-ce que le travail scientifique des données ? Big data, little data, no data – https://books.openedition.org/oep/14692 ). Et parce que la maîtrise de la problématique de réutilisation de données concerne tous les secteurs d’activité.
« Du créateur de données au réutilisateur de données : la distance compte ».
L’article apporte des recommandations en lien avec cette idée de distance. Avec six dimensions attachées – qui influencent la capacité à transférer efficacement les connaissances : le domaine, les méthodes, la collaboration, la conservation, les finalités et le temps/la temporalité.
Il explore comment les aspects sociaux et sociotechniques de ces dimensions peuvent réduire – ou augmenter – les distances à franchir entre créateurs et réutilisateurs.
Les distances :
Distance de domaine : plus les créateurs et les réutilisateurs partagent un même champ disciplinaire, plus la réutilisation est facilitée.
Distance de méthode : plus le réutilisateur maîtrise les méthodes ayant généré les données, plus la réutilisation est aisée.
Distance de collaboration : plus le réutilisateur et le créateur peuvent collaborer, par échanges directs, via des moyens de sharing avancés (voir les exemples de services dans les plates-formes open data : bac à sable collectif, gestion des feedbacks…), plus la réutilisation est de qualité.
Distance de curation / conservation : plus la qualité de la documentation, des métadonnées (descriptives du contexte des données), et de l’archivage est élevée, plus le réutilisateur sera capable de correctement interpréter les données.
Distance de finalité (purpose) : les réutilisations alignées sur les objectifs initiaux sont plus simples que les réutilisations pour d’autres finalités.
Distance temporelle : plus l’intervalle entre création et réutilisation est long, plus le contexte devient flou. La traçabilité (provenance) et la temporalité (date, durée, contexte) sont cruciales
L’article se conclu par une suite de recommandations pour les créateurs, les réutilisateurs, les archivistes et les sponsors. Avec l’objectif de travailler sur les distances, les réduire, les accompagner (exemple de la standardisation, des métadonnées…).
NB : rejoint les idées et fonctions autour du data sharing.
Exemple – Créateurs de données
Voir aussi un commentaire sur l’article – « Distance and Other Metaphors About Reuse of Research Data » by Sally Wyatt : https://hdsr.mitpress.mit.edu/pub/nthfaf2i/release/1
Et la proposition de l’auteur d’ajouter trois autres métaphores à celle de l’idée de distance : « Inspired by this other work and by BG’s article, I suggest three new metaphors for reuse of data: recycling, sharing/caring, and gift giving. Time will tell if any become popular. Each of these is intended to counter the antidemocratic distance that is on the rise. »
NB : sujet d’autant plus critique avec l’effacement des données de recherche par l’administration Trump (voir le 1er thème de cette revue).
Données synthétiques
Sujet récurrent (voir les revues précédentes), avec un article qui met l’accent sur les risques liés à l’utilisation de données synthétiques, avec le problème (que je résume ainsi) de la chaîne d’hallucinations : 1- Pour générer des données synthétiques on fait appel à des moteurs d’IA qui outre les phénomènes de biais* connus vont générer des données avec hallucinations (rappel qui sont intrinsèques au fonctionnement des moteurs). 2- Et ces données dont hallucinées vont servir de base d’apprentissage pour les moteurs d’IA qui interrogés vont générer des hallucinations … Les auteurs parlent d’hallucinations intersectionnelles. Exemple de combinaisons de caractéristiques (sexe, statut marital, profession, etc.) qui apparaissent dans les données synthétiques mais qui n’existaient pas dans les données d’origine (voire l’apparition de profils incohérents – époux célibataires).
* Rappel les données ne sont pas neutres et les données synthétiques encore moins ! La production de données synthétique est le résultat d’une vision du monde (catégories connues ou ignorées, catégories prévalentes ou minorées, caractéristiques retenues d’une population, normalisation adoptée, exclusion de points atypiques…).
Source : https://journals.sagepub.com/doi/full/10.1177/20539517251318289
Data gouvernance et data management
Points :
- A quoi ressemble le futur CDO par Precisely. Des arguments de bon sens et majoritairement la personne de bons dialogues entre la technicité data et le business. Source : https://www.precisely.com/blog/datagovernance/what-will-the-cdo-of-the-future-look-like . Et aussi certains annoncent la fin des CDO (absorbés soit côté IT soit côté métier … il faut mieux que cela soit côté métier). Signe de la difficulté du poste, toujours un turnover important.
- Les métadonnées sont centrales pour la gouvernance et le data management. S’accorder sur leur définition n’est pas évident. De plus s’accorder sur leur standardisation entre les différents silos / briques data est un challenge. Et classiquement, sans cette standardisation, le sujet de mapping des métadonnées arrive. Avec l’IA comme appui. Source : https://www.actian.com/blog/data-management/metadata-mapping/
- Classique : pas d’IA sans une bonne gouvernance des données … et pourquoi pas, pas de bonne gouvernance sans IA (appui à la détection de défaut qualité, appui au rapprochement sémantique et de métadonnées de différents stockages, détection de défauts d’accès, classement des données sensibles, documentation des données automatisée, détecter les biais de contenus …). Mais sans métadonnées impossible (voir point précédent). Source : https://www.cdomagazine.tech/opinion-analysis/ai-for-data-governance-how-to-mitigate-risk-bias-and-chaos
- Les mérites de la gouvernance des données non invasive (NIDG) au profit des organismes à but non lucratif. Source : https://tdan.com/all-in-the-data-data-governance-in-the-not-for-profit-world/32572
- La gouvernance des data spaces avec ici le cas de l’industrie. « Data4Industry-X orchestre des espaces de données fédérés avec des standards de gouvernance pour l’industrie rapprochant les écosystèmes de données industrielles pour une industrie durable et compétitive » et l’accent mis sur l’interopérabilité. Des silos industriels dans les data spaces ? Beau challenge … Source : https://list.cea.fr/fr/31-mars-2025-data4industry-x-orchestre-des-espaces-de-donnees-federes-avec-des-standards-de-gouvernance-pour-lindustrie/
Autres articles du mois sur ce thème.
Data catalogage
https://www.actian.com/blog/data-strategy-and-insights/6-reasons-to-include-business-users-in-your-data-catalog-strategy/
https://www.linkedin.com/pulse/hidden-challenge-data-catalog-adoption-process-vs-tool-ram-pratti-uxqvc/?trackingId=iOtnymmXRW6ZfRbytFa77w%253D%253D
https://www.actian.com/blog/data-governance/the-power-of-data-catalogs-5-use-cases-for-modern-enterprises/
Data lineage
Data management des données non structurées
Témoignages sur le métier de data analyste
Le sujet est récurent, les data analystes font de tout et presque pas d’analyse de données, et même encore parfois dans le vide.
Voir l’article témoignage sur le travail de saisie de la problématique métier et la difficulté de ne pas tomber dans une analyse simpliste des données brutes pour confirmer l’intuition d’un manager loin d’une analyse approfondie. Ou encore le data analyste confiné à n’être qu’une fonction support de questions opérationnelles (requêtage) – centre d’appel – sur les données. Source : https://medium.com/@fnguyen/most-data-analyst-jobs-dont-actually-analyze-37735b4df076
Les témoignages de la dernière Masterclass du 24 avril de DAMA France vont aussi dans ce sens, avec le data analyste qui comble le déficit en architecture de données, en connaissance des données (catalogage), en connaissance des sources, et qui souffre dans sa relation avec la DSI pour récupérer des données, ouvrir des flux, se débrouiller avec N technologies / outils différents, tout en s’inscrivant dans le calendrier / le temps IT… le tout avec une gouvernance des données absente !
Que reste-t-il pour le travail de questionnement et d’analyse ?
Les data analystes fournissent des tableaux de bord, des extractions de données mais ne font pas d’analyse. Ou encore les data analystes sont sollicités par des questions sans contexte (le pourquoi) traduction d’une interaction avec le métier de type centre de support. Source : https://thefocus.factsandfeelings.io/the-peril-of-analytics-that-are-oriented-to-answering-business-questions-52f6ce9b3138
Il faut remettre les data analystes au cœur du fonctionnement des métiers et non pas « à côté ».
Infrastructure de connaissance et infrastructure de données
Article : « Data infrastructures, international organizations, and the politics of amendment »
NB : les infrastructures de connaissance sont un outil conceptuel issus du monde scientifique permettant de représenter tout ce qui supporte un sujet / domaine de connaissance dans sa structure et sa dynamique (organisation, processus, rôles, moyens dont logiciels, données, gouvernance…).
Deux exemples au sein de deux organisations internationale.
- L’Organisation maritime internationale (IMO) : régulation des émissions de gaz à effet de serre (GES) provenant des navires.
- L’Organisation mondiale de la santé (OMS) : évaluation des impacts de la pollution de l’air sur la santé mondiale.
Avec l’idée d’évaluer comment les données interviennent dans la gouvernance de ces organisation.
L’article introduit le concept d’amendement comme prisme praxiographique pour analyser les transformations progressives des infrastructures de données dans le contexte institutionnel.
- Data praxiography : étude ethnographique des pratiques de données, combinant observations de terrain, entretiens et analyse documentaire.
- Amendement : l’amendement désigne un travail institutionnalisé et politique, structuré dans le temps, par lequel les infrastructures de données sont modifiées, enrichies ou reconfigurées.
Les infrastructures de données sont considérées comme formations politiques évolutives façonnées par les négociations entre États membres, les experts techniques et les usages des données.
Concrètement par exemple pour l’OMS cela se traduit par :
- L’OMS collecte des données de mortalité et de santé depuis 1948 (façonnage des pratiques de collecte – par exemple via le questionnaire que l’on retrouve dans les certificats de décès).
- L’OMS développe une base de données mondiale sur la qualité de l’air à partir de mesures urbaines.
- Introduction de nouveaux indicateurs globaux de santé (ex. : DALY, QALY) dans les années 1990 via l’approche du Global Burden of Disease (GBD), co-développée avec la Banque mondiale et financée par la Fondation Gates.
- Le GBD a transformé la logique de la gouvernance en santé : passage de la prévention à une gestion basée sur l’efficacité économique des investissements sanitaires.
Le tout s’appuie sur des infrastructures de données plus ou moins formelles. Source : https://journals.sagepub.com/doi/full/10.1177/20539517251331951
Collecte de données à distance – points d’attention
Source https://journals.sagepub.com/doi/full/10.1177/20539517241304693
« Datafied localization: Reproducing unequal power hierarchies in humanitarianism »
Comment des prestataires de collecte de données permettent à des ONG d’intervenir à distance sur le terrain … avec les biais associés. Situations où la présence physique directe dans les zones ciblées est limitées (dangereuse).
L’exemple de https://premise.com/ 6 millions de data contributors https://premise.com/how-premise-works/ ou encoure https://www.quilt.ai/
Extrait et traduction à propos de Premise : « La collecte de données traditionnelle est lente, coûteuse et d’une portée limitée. Premise propose un nouveau type de collecte de données qui permet une prise de décision agile et fondée sur les données, et place les voix locales au cœur de vos données ». Premise propose de comprendre les besoins locaux et d’« éliminer les défis logistiques et les coûts élevés de la collecte de données traditionnelle en tirant parti du travail à la demande et du cloud computing », tout en garantissant à ses clients l’accès à des « environnements non permissifs » tels que les crises humanitaires et les zones de conflit.

Source : https://premise.com/

Source : https://www.quilt.ai/
Les effets de cette forme de collecte de données analysés par les auteurs de l’article :
- La contextualisation est « oubliée » – avec l’erreur de croire que les données peuvent être extraites du contexte dans lequel elles ont été acquises et collectées. Amenant à une compréhension décontextualisée des individus (en dehors des spécificités culturelles). Rappel ce contexte façonne le sens des données, sans lui leur valeur explicative est limitée.
- L’impartialité se pose. La collecte a le risque d’être partielle avec des populations absentes ou sous représentées (inaccessibles à la collecte – invisible alors). Alors que l’analyse des données qui va en être tirée sera étendue à l’ensemble de la population. De plus les collecteurs locaux sont rémunérés pour cela via des entreprises privées, où l’objectif de productivité, de rapidité de collecte prime. Et cela croisé avec la pression d’être une source de revenu importante pour les collecteurs.
- Les déséquilibres de pouvoir sont reproduits. Par exemple la distanciation des organismes d’aide, exacerbe leur pouvoir auprès des populations locales (idée de « regard » invisible sur soi capable d’intervenir sur sa qualité de vie). Avec aussi ceux localement qui sauront jouer avec la collecte de données pour en tirer profit. Et la dérive supplémentaire de détournement des données collectées pour des finalités locales pouvant être problématiques (exemple de surveillance).
Commentaire personnel : sur la dataification, tout par d’un modèle, de choix de représentation, d’un contexte à modéliser aussi le cas échéant. Tout modèle est forcément réducteur. Avec le risque de s’y retrouvé enfermé. Le rôle de la gouvernance est de savoir en sortir.
En vrac (Les représentations des données instanciées dans nos outils de travail ne sont pas neutres et façonnent notre façon de travailler, L’éthique des prix et données personnelles, Indicateurs d’investissements sur les données, Data Sécurité, La data au service de la planète : cas d’usage, Les données en supports de politiques, ne pas oublier le contexte, Eternelle remise en cause inutile de la modélisation de données)
1) Les représentations des données instanciées dans nos outils de travail ne sont pas neutres et façonnent notre façon de travailler
Un article d’Hubert Guillaud préalablement publié en 2017 sur Internetactu et republié en avril sur DansLesAlgorithmes (lecture conseillée – https://danslesalgorithmes.net/ ). Toujours d’actualité, à relire. Commentaire de l’ouvrage de Paul Dourish « The Stuff of Bits ». « un livre qui s’intéresse aux impacts matériels de l’information numérique. Comment la simulation numérique, nos outils de modélisation et nos outils de travail façonnent-ils à rebours notre expérience ? ».
« les matérialités de l’information reposent sur des propriétés et des formats qui contraignent, rendent possible, limitent et façonnent la façon dont ces représentations peuvent être créées, transmises, stockées, manipulées et mises à profit » … avec l’exemple de comment Excel influence la façon dont on travail… pense ! Mais aussi les bases de données … « Les documents deviennent des enregistrements ; les enregistrements deviennent des modèles : les modèles deviennent des routines ; les routines deviennent des processus. ». La représentation des données impose en retour une façon de voir le monde à ceux qui les utilisent. Source : https://danslesalgorithmes.net/2025/04/22/de-la-materialisation-des-donnees
2) L’éthique des prix et données personnelles
Source –https://www.dataversity.net/ask-a-data-ethicist-how-is-price-optimization-a-data-ethics-issue/
3) Indicateurs d’investissements sur les données
Data Investments Monitoring sur 4 axes : le coût, le volume, la qualité et l’utilisation.
La proposition de AfterData.ai – https://www.afterdata.ai/ – évoquée ici https://www.cdomagazine.tech/data-management/hard-to-trust-data-is-harder-to-use-afterdataai-cdo
4) Data Sécurité
Un tour d’horizon des solutions de sécurité des données par Datagravity – source https://www.datagravity.dev/p/security-data-engineering-and-etl
5) La data au service de la planète : cas d’usage
Sources : « Présentation de l’infrastructure de recherche Data Terra » – https://www.ird.fr/presentation-de-linfrastructure-de-recherche-data-terra et « Why data is so important for Brazilian restoration and reforestation » – https://www.weforum.org/stories/2025/04/why-data-is-so-important-for-brazilian-restoration-and-reforestation/ et « Al Gore’s Real-Time Climate Data Just Went Live—Here’s Why It Matters » – https://www.forbes.com/sites/we-dont-have-time/2025/04/21/al-gores-real-time-climate-data-just-went-live-heres-why-it-matters
6) Les données en supports de politiques, ne pas oublier le contexte
Source :
« But while data can be useful, it’s not neutral. There are biases and blind spots in the systems that produce the data. Worse, data often lacks the depth, context and responsiveness needed to drive real-world change. The real questions are about who decides which data matter, how it’s interpreted – and what the change based on the data might look like. »
Mais les données ne peuvent pas tout dire : « Without accounting for context, some populations may be underrepresented or misrepresented, leading to skewed insights and misguided policy recommendations. This kind of data is completely separate from the lived reality of the people the data describes. » … « For instance, a predictive algorithm might flag a child as “at risk” based on socioeconomic indicators. But it would fail to also measure protective factors such as strong cultural connections, intergenerational knowledge and community leadership. »
De l’éternelle difficulté de fournir assez de contexte à la bonne interprétation des données. Facile lorsque les données sont issues d’un processus construit (interne à une entreprise), difficile lorsque les données sont issues de l’observation d’un domaine ouvert.
L’article s’attarde sur le défaut d’agir en vision données au niveau individuel versus d’agir en vision étendue, contextuelle. Leçon : cherchez le contexte de toutes données.
7) Eternelle remise en cause inutile de la modélisation de données
Les techniciens de l’IA poussent à une simple table (One Big Table par exemple) pour la représentation des données et ne voient pas / plus l’intérêt de la modélisation !
Et pourtant, plus les données sont contextualisées plus les moteurs d’IA seront performants. Et la contextualisation passe par un exercice de modélisation étendue, des données en elles-mêmes et de leur contexte. Voir la discussion ici : https://practicaldatamodeling.substack.com/p/data-modeling-is-dead-all-ai-needs
Et un tour d’horizon de la modélisation de données ici https://medium.owox.com/what-is-data-modeling-the-full-guide-ab3b17c88929
RDV maintenant en juin pour la revue et les actualités de mai.

Les commentaires sont fermés.