Parlons… du “burkini” — It’s time we talked.

A moins que vous n’ayez vécu en ermite ces derniers temps, vous avez forcément entendu parler de l’interdiction du port du « burkini ».

Un billet d’opinion signé Maïlys Lemaître. Bon sang ne saurait mentir !

via Parlons… du “burkini” — It’s time we talked.

Transformation digitale des entreprises : où en est-on ? – Août 2015

Comme je ne saurais dire mieux, j’ai choisi de relayer cette note de blog de Christophe Gazeau, qui résume l’état de la (trop lente) transformation digitale en France.

Trois éléments me paraissent fondamentaux :

  1. Autant les entreprises maîtrisent l’acquisition des données, autant elles ne savent pas quoi en faire… Ceci démontre l’emprise, particulièrement chez nous, des DSI sur le Big Data et le Digital, au détriment de l’analyse des données. L’Analytics est encore une discipline trop orientée outil, et pas assez tournée vers la mise en œuvre des stratégies des entreprises (notamment dans le domaine commercial et marketing). Depuis le temps que je le dis…
  2. Les entreprises se plaignent du manque de compétences susceptibles d’analyser les données… Sans rire. Il y a bien ces seniors, qu’on jette comme des Kleenex à cause de leur coût, mais dont, du coup, l’expérience manque au moment de prendre du recul sur les données et le les mettre en perspective. Ou bien des ressources qualifiées, disponibles sur le marché, qui pourraient catalyser la volonté des dirigeants et coordonner les équipes. Mais dans les deux cas, il faut se résoudre à investir. Oui, oui, pas seulement parler, déclarer, proclamer, mais bien investir…
  3. La négation de l’impact du digital sur le business. Je suis sidéré. Il existe encore de nombreux dirigeants qui pensent que leur activité est à l’abri d’une révolution digitale. Le syndrome « Ligne Maginot » est en marche… Défendre son pré carré, son « core business » (la pire expression qui soit dans une stratégie d’entreprise), c’est s’enfermer dans sa tour d’ivoire et nier que le monde change. Et il change à grande vitesse. Ne remettez pas à demain votre transformation digitale, il se pourrait alors que demain n’arrive jamais pour votre entreprise…

Merci encore à Christophe Gazeau pour cette note de blog très documentée.

Paysages numériques...

Voici presque un an, j’avais consacré un premier article à ce sujet. Il était suivi, quelques jours plus tard, par un deuxième article qui tentait de comparer la situation des entreprises françaises à celle de leurs homologues étrangères. Le résultat n’était pas brillant : les entreprises françaises faisant globalement moins bien que leurs homologues de pays comparables. Un an plus tard, qu’est-ce qui a changé ? … Hélas, pas grand chose : si on en croit les études qui se sont succédées depuis le début de l’année, les entreprises françaises ne savent toujours pas mieux tirer parti de la révolution numérique ! Une situation inquiétante…

Voici un an, je m’étais appuyé sur l’indicateur NRI (Network Readiness Index) établi chaque année par le World Economic Forum et publié en avril dans son Global Information Technology Report. La France pointait alors à une modeste 25ème place sur 148 pays…

View original post 1 401 mots de plus

Data Privacy vs. Loi Renseignements (#MeasureCampParis)

Ce post a pour vocation de résumer la discussion que j’ai animée au récent MeasureCamp Paris, le deuxième du nom, qui a eu lieu le 27 juin 2015.

Le MeasureCamp est une non-conférence qui se tient à Londres tous les 6 mois, et à Paris une fois par an. Pour en savoir plus sur MeasureCamp, rendez-vous sur le site MeasureCamp Paris.

Cette discussion était sur le thème de la Data Privacy à l’heure de la Loi Renseignements, le tout sans aucun support. Nous n’étions que 4, ce qui en soi témoigne de l’intérêt et de l’indignation des Français à ce propos (un peu d’ironie ne fait pas de mal, c’est juste que ça m’énerve encore un peu plus).

La discussion s’est déroulée en 3 temps :

  1. Présentation sommaire de la Loi Renseignements (dans ses très grandes lignes… Le texte complet à jour, avec ses diverses annexes est ici), inclus le tracking systématisé, le sujet des IMSI-catchers et les questions sur l’absence de réaction politique (sauf à l’extrême-gauche) et de mouvement citoyen. Seuls de rares activistes du net (comme Guillaume Champeau de Numérama, « La Loi Renseignement adoptée définitivement. Et maintenant ? », la rédaction de la Quadrature du Net, « La France dans l’ère de la surveillance de masse ! Résistons ! », ou encore celle de Libération, « Anti-surveillance : extensions du domaine de la lutte ») ont semblé s’y intéresser, sous un autre angle que celui de la Sécurité Publique, i.e. celui des Libertés Individuelles, largement bafouées ;
  2. Nous avons évoqué ensuite ensemble les différences fondamentales entre les contraintes que nous imposent la CNIL, ou dans le cadre professionnel des bodies comme la DAA ou l’ESOMAR (l’instance de régulation du Market Research), et l’absence de contrôle (et de contre-pouvoir) pour les instances qui piloteront cette Loi, notamment le bâillonnement des lanceurs d’alerte, ce qui crée d’un côté des distorsions légales, notamment au-niveau de la conservation des données (quelles data ? combien de temps ? où ?), de la définition de ce que sont les PII (Personally Identifiable Information), et du rôle des Data Analysts dans la curation des bases de données et des contenus (communication des informations aux autorités ? sur quelles bases ? quel contenu ?) ;
  3. Enfin, nous avons évoqué particulièrement les soucis que cette Loi pourrait générer au niveau de notre business, que ce soit avec Quentin de ClicData, côté analyste, ou Sophie de Peugeot, côté industrie, avec les possibles problèmes que pourrait poser l’application de cette Loi aux transfrontaliers ou entreprises étrangères (soumis à d’autres législations), et aux risques sur le business en-dehors de France, entre autres du point de vue du stockage des données (peut-on espionner des données françaises stockées à l’étranger, ou au contraire des données étrangères stockées en France ?). Il faut aussi noter la question soulevée des coûts de l’installation et de la maintenance d’une infrastructure nécessaire à l’observation de la masse considérable de donnée qu’il faudra traiter. Pour information, récupérer les données d’un seul GGSN (la passerelle s’interfaçant avec les autres réseaux de données, essentiellement internet) pour un seul opérateur mobile, c’est au moins un TéraByte par jour… A date, la France compte 4 opérateurs mobiles qui ont de 3 à 6 GGSN chacun, ce qui nous fait une bonne quinzaine de TéraBytes par jour, rien que pour le trafic internet mobile. Quel ministère va supporter ces coûts ? Si ce n’est pas précisé (pas d’enveloppe clairement attribuée dans le prochain budget) , est-ce qu’on a affaire à une baudruche gouvernementale qui ne vise alors pas simplement à donner le change vis-à-vis d’une situation politique particulière ?

En conclusion, nous nous sommes promis de continuer à agiter la communauté, afin d’obtenir des éléments de réponse, et surtout de faire en sorte que l’application de cette Loi ne soit pas au détriment des citoyens que nous sommes… Et que nous obtenions des clarifications, notamment des règles d’application pour nos businesses respectifs.

Et maintenant? Résistons!

 

Stratégies de données, il est urgent d’agir!

Un trop grand nombre d’entreprises est encore loin du compte, et peine à mettre en place ces stratégies. J’ai donc décidé de m’appuyer sur mes succès les plus significatifs de l’année passée, pour revoir et compléter l’offre de Data Elicitation.

Les avancées :

  • Le CWA, faisant de moi l’unique expert Français en management des données certifié en stratégie digitale;
  • La réussite du premier MeasureCamp Paris, dont j’ai été co-organisateur, le plus grand rassemblement du genre en France, qui reviendra dès le 27 juin prochain;
  • Le processus d’extension à l’Europe des brevets auxquels j’ai contribué;
  • Les multiples sollicitations, de l’analyse web au conseil en stratégie, en passant par le text mining, la visualisation de données et le big data, qui m’ont permis de faire bouger les lignes.

Les freins :

Pour autant, travailler à des politiques de données et digitales s’est révélé difficile; en effet, les freins à l’implantation de ces stratégies sont plus structurels que conjoncturels; McKinsey les résume en 4 points dans cette étude publiée à l’automne 2014 :

  1. des difficultés organisationnelles, et notamment la fameuse organisation en silos que je dénonce ici (contenu en anglais)
  2. un déficit de compétences numériques
  3. un manque de marges de manœuvre financières
  4. un manque d’implication suffisamment visible des dirigeants

L’Etat pourrait agir mieux et davantage sur deux de ces points, l’éducation et la fiscalité, au-delà de la vitrine technologique de la French Tech. Je développerai plus en détail les opportunités des politiques publiques en ce domaine dans une prochaine note de blog.

Les deux autres freins identifiés par l’étude McKinsey sont plus complexes, car ils relèvent de l’organisation interne des entreprises et de leur volonté de changement.

A mon sens, les entreprises françaises souffrent en fait de trois préjugés qui nuisent à leur développement dans ce monde de données:

  1. sujet négligeableLa donnée (et le digital) sont souvent des éléments de second rang, qui sont traités après les problèmes commerciaux et financiers de tous ordres, entre poire et fromage, autant dire rarement vraiment prioritairement. Le site web? Un mal nécessaire. Les réseaux sociaux? Il faut bien communiquer avec les jeunes! La gestion des données? Bien sûr, on a un CRM. Autant de préjugés et de politique à l’emporte-pièce: les données et le digital sont réduits à des postes de dépense, et ignorés en tant que leviers de croissance.
  2. désaccord dans le groupeL’investissement dans une politique de données est souvent soumise à une décision collégiale, comité de direction ou coordination de projet, et non pas le fait d’une seule et unique volonté. Du coup, comme dans toute décision « collégiale », c’est la plupart du temps le moins-disant qui s’impose, le plus prudent, le plus conservateur. De surcroît, une certaine compétition entre directions (les silos…), qu’elles soient marketing, informatique, financière ou commerciale, génère une paralysie là où une émulation serait nécessaire.
  3. information sous clefEnfin, et c’est un point-clef, les divers détenteurs de données croient encore que la possession exclusive d’informations est une des sources de leur pouvoir. Grave erreur! Au moment même où la donnée est stockée, elle perd toute valeur intrinsèque, car les données n’ont de sens que dans l’enrichissement permanent de la connaissance et pour éclairer la prise de décision.

Un exemple? Trois entités, marketing, commercial, finances. Trois produits, A, B et C. Le marketing a fait des études, et c’est A le meilleur produit. Le commercial est formel, c’est B qui se vend le mieux. Les finances ont tout analysé, et c’est C le plus rentable. Alors deux méthodes possibles: la course à l’échalote, et c’est la position du plus rapide, ou du plus convaincant qui s’impose ou alors confrontation d’informations et concertation transversale pour une décision pesée. On aimerait bien que la seconde option s’impose plus souvent…

Qui dit donnée, doit dire analyse, puis processus de décision, et enfin évaluation.

Les perspectives :

Ces points de blocage m’ont amené à repenser le coeur de métier de Data Elicitation à court terme.

En effet, vouloir convaincre des entreprises de travailler à leur stratégie globale de données quand elles sont exposées aux freins décrits ci-dessus, alors même qu’elle n’ont pas pris conscience de tout le potentiel qui s’offre à elles, serait vain. C’est pourquoi, j’ai créé des modules de formation, afin de sensibiliser les professionnels concernés à la nécessité de penser la donnée de façon transversale et globale.

Vous trouverez donc sur ce site, dans la rubrique « formations« , la présentation de modules dédiés de formation à la gestion des données et de leur analyse, tant sur le plan de l’approche méthodologique, qu’au niveau des actions concrètes de maintenance des bases, des sources de données et des critères qualité.

Bien sûr, je continue parallèlement d’intervenir en tant que conseil auprès de Directions Générales et de Comex, dans le cadre de leurs problématiques en stratégie de données.

Vous savez tout maintenant… Vos commentaires et/ou questions sur les thématiques des modules seront les bienvenus, ainsi que toute suggestion d’enrichissement.

A présent, il ne vous reste plus qu’à partager cette note de blog SANS MODÉRATION…

A très bientôt!

[This blog post in English is here]

Libérez vos données: révoquez le principe de précaution!

Ceux qui me connaissent savent que je peste souvent contre l’inaction qui découle de l’application dogmatique du « principe de précaution ».

Cependant, comme le dit l’adage populaire, la peur n’évite pas le danger. Ni la présence de données, le pouvoir de décision.

Word Cloud Precautionary PrincipleDans un article à propos du principe de précaution, Gaspard Koenig affirme que « la clé du principe de précaution, et son plus grand danger, réside dans le refus de l’incertitude. Dans le doute, abstiens-toi. »

Je plussoie. Et le paradoxe ultime tient au fait que plus on a de données en main, plus les paramètres sont complexes, moins la décision paraît certaine. Le Big Data conduit alors nos gouvernants à ne plus décider. Le trop-plein de données paralyse.

Il faut donc supprimer l’application automatisée du principe de précaution, et surtout son institutionnalisation (ne parlons pas de son inscription dans la Constitution, sans doute l’acte législatif le plus ahurissant de ces dernières décennies).

Prenons l’exemple des OGM (d’ailleurs évoqué par Gaspard Koenig dans son article). De nombreuses études et des masses de données, plutôt contradictoires, laissent à penser que les OGM pourraient représenter un risque à terme, d’ici 20, 30 ou 50 ans, soit par une vague de cancers, soit par une modification de notre matériel génétique. Peut-être bien. D’ici là, les millions de gens qu’on pourrait nourrir mieux (voire nourrir tout court) grâce aux OGM seront morts. De faim. Alors, décider en conscience ou laisser la data justifier la paralysie?

Derrière le confort de la data, se profile la nécessaire puissance du décideur. Les données ne peuvent venir qu’en support de la décision, qui, elle, ne relève que de l’homme. D’ailleurs, au moment où les systèmes de traitement massif des données ont fait leur apparition (dans les années 80), ne parlait-on pas alors de « Systèmes d’Aide à la Décision »?

Il faut donc s’appuyer sur la data, mais sans se retrancher derrière. Il faut donc accepter que la data, même « big », puisse maintenir un certain degré d’incertitude; et ce, non pas vis-à-vis du présent [nous sommes sûrs que généraliser les cultures OGM réduiraient la faim dans le monde], mais vis-à-vis du futur [généraliser les OGM, mais avec quel risque pour la santé et l’environnement?]. Pourquoi? Parce que si fins que soient les modèles prédictifs fondés sur le Big Data, ils ne pourront jamais atteindre 100% de fiabilité.

the signal and the noiseEt même Nate Silver, le demi-dieu des modèles prédictifs aux Etats-Unis (cf. son portrait un brin ironique dans le Monde, ici) commence son livre culte – « The Signal and the Noise » – par une introduction sur le thème « plus il y a de données, plus il y a de problèmes »…

De ce fait, les décideurs doivent prendre un risque, si minime soit-il. Renoncer à la sacro-sainte précaution. Et ce pour le plus grand bien de tous, car prendre un risque, c’est la seule manière de créer la rupture. Quand on y pense, avec le principe de précaution, jamais les Américains ne seraient allés sur la Lune…

Alors oui au Big Data pour la Blitzkrieg, et non à la ligne Maginot du principe de précaution. Ou encore, pour rétablir l’équilibre, oui au Débarquement, et non au mur de l’Atlantique.

Vos data doivent susciter le mouvement, pas l’immobilisme, l’action, pas le renoncement,  la conquête de nouveaux marchés, pas la défense d’un pré carré.

Break the WallVous avez des données, c’est sûr. Vous voulez agir, c’est certain. Alors n’hésitez pas, élicitez vos données pour percer le mur et prenez les décisions les plus éclairées!

 

[English version: Free your data: revoke the precautionary principle!]

Le régime sans cookies, le nouvel âge du ciblage sur internet

Dans une note de blog précédente, j’évoquais le développement de nouveaux outils de ciblage plus performants, qui permettraient un véritable développement de l’économie numérique, en limitant l’intrusion dans la vie privée des consommateurs.

Je mène cette réflexion depuis longtemps, et l’ai formalisée via notamment une série de notes de blogs sur la version anglaise de ce site (voir notamment « Giving up cookies for a new internet… The third age of targeting is at your door« ) ou encore via un atelier au MeasureCamp de Londres, le 29 mars 2014 (« Web analytics without cookies – discussion« ). La question centrale en est : « quelle technologie de ciblage publicitaire remplacera les cookies? »

Parce que les cookies sont condamnés à terme. Surtout les cookies « tiers », ceux qui conditionnent l’éco-système publicitaire sur internet. Cependant, la publicité sur internet ne peut pas disparaître, car elle permet à des milliers de sites de (sur)vivre. Et pourtant, sans cookies, aujourd’hui, pas de ciblage…

cookie-monster-quotes-saying-cute-funny-sesame-street-3_large - FRAAlors quelles alternatives?

Un article récent, « L’e-pub à l’ère de l’ultra-ciblage« , illustre bien la question du ciblage, notamment comportemental. On y évoque les stratégies de ciblage, la lourdeur d’une solution de type « opt-in » (cf. encore ma précédente note de blog), les nuages qui s’amoncellent, mais pas vraiment de solution réellement alternative. Et pourtant, il y en a.

Le nouvel âge du ciblage sur internet, le troisième après l’âge du critère socio-démographique, puis celui du cookies, sera celui du contexte.

Il existe plusieurs pistes.

On parle beaucoup du « fingerprinting« , une technologie qui identifie chaque utilisateur de manière unique grâce à une combinaison de son environnement technologique (hardware et software), et à ses habitudes de browsing. Intellectuellement séduisant, techniquement assez au point, mais finalement, ce n’est jamais qu’une nouvelle sorte de cookies, plus technologique, une sorte de version « fusion » de la recette originale…

fingerprinting

L’identifiant unique est une autre solution, d’ors et déjà disponible, qu’on peut rencontrer par exemple dans les univers Google, Microsoft ou Apple. Efficace, réellement unique pour toutes les plates-formes, et forcément « opt-in », puisque c’est l’utilisateur lui-même qui décide de son utilisation. Mais, car il y a un mais, la protection des données personnelles n’est plus garantie, notamment du fait de la subrogation de la sécurité de ses données personnelles à des entreprises privées, de surcroît toutes Nord-américaines, à la fois juges et parties en matière de publicité…

Il nous faut donc une solution de ciblage contextuel, non-intrusif, et respectueux des données personnelles. C’est le principe de la solution que je propose, le « dynamic clustering« .

Ciblage_DonnéesQuel en est le fonctionnement?

  1. A partir de fichiers de logs des FAI et/ou des Opérateurs Télécoms, on collectera les données de browsing d’utilisateurs, dont les identifiants auront été anonymisés, par exemple selon un schéma de double anonymisation, notamment pour préserver réellement les données personnelles des utilisateurs;Anonymous
  2. Le contenu de ces fichiers sera nettoyé, et ordonné à différents niveaux de catégorisation, pour créer des dimensions riches, multiples et flexibles, qui permettront de créer des « portraits chinois » de chaque utilisateur unique et anonyme; Categorization
  3. Sur la base de ces dimensions, on définira des clusters, composés d’utilisateurs aux caractéristiques d’usage similaires, qui seront fonction des hypothèses de chaque annonceur, créant ainsi un nombre infini de cibles, et dont la volatilité sera un atout, car elle répondra toujours à une problématique commerciale de l’instant.

ClusterAlors oui, le régime sans cookies est possible… Et il va de pair avec un ciblage des utilisateurs d’internet encore plus vertueux…

Convaincu par ce nouveau régime? Vous souhaitez participer à l’élaboration des recettes? Rencontrons-nous!

In memoriam Brigitte Paternault

Il y a tout juste deux semaines, je me suis rendu aux obsèques de Brigitte, camarade de promotion, décédée brutalement pendant ses vacances.

J’avais pu croiser Brigitte à HEC, mais elle aussi été deux fois ma cliente par la suite, et, enfin, nous nous étions retrouvés récemment sur des sujets d’innovation, notamment en matière de marketing digital.

Je souhaitais rendre ici hommage à son exigence et à son sens de l’écoute, deux qualités qui, associées, permettaient de rendre productives toute discussion, notamment sur les évolutions du marketing, et sur les nouvelles tendances. Comme quoi, à 48 ans, on peut être dynamique et sensible à l’innovation…

Un bel hommage lui a été rendu sur la page Facebook de l’Association HEC. So long, Brigitte, mes prières t’accompagnent.

Quand l’Etat vend vos données personnelles…

…c’est avec l’accord de la CNIL!

Les gesticulations médiatiques des gouvernants de tous bords, protestant contre les multinationales américaines qui collectent vos données pour de vils motifs commerciaux, n’y feront rien : en France, l’Etat et les entreprises publiques font exactement pareil.

Avant tout, un point méthodologique. Tout formulaire collectant vos données doit offrir à un endroit ou un autre une possibilité de donner ou retirer son consentement quant à l’utilisation de ses données, et notamment sa communication à des tiers. C’est la Loi (notamment l’article 32 section II de la Loi 78-17 du 6 janvier 1978).

Il existe deux types de question (« opt-in » ou acceptation, et « opt-out » ou refus) et deux modes de réponse (« actif » et « passif »), ce qui génère quatre formats différents de recueil du consentement (cf. tableau ci-dessous), et ajoute à la confusion.

Tableau_Opt-in_Opt_out

Le mode de réponse « passif » n’est a priori ni répandu, ni recommandé en France (même s’il n’est pas interdit, à ma connaissance), mais est courant sur les sites américains. Dans ce cas, la case correspondant à la question est déjà cochée, et la réponse de l’utilisateur est enregistrée par défaut. Pour choisir une autre réponse, il faut décocher la case (quand on la trouve…). Bien évidemment, c’est un mode qui ne peut être utilisé qu’en ligne.

Pour les formulaires papier, on doit se concentrer sur le mode « actif », c’est-à-dire quand il faut cocher une case. Evaluons les deux modalités restantes:

  1. « opt-in » actif = l’utilisateur accepte, en cochant une ou plusieurs cases, que ses données personnelles soient stockées, utilisées, transmises à des tiers, etc… C’est le mode le plus respectueux de l’utilisateur, car c’est le seul qui garantisse que celui-ci ait fait volontairement le choix de partager ses données. Mais ce n’est pas la norme…
  2. « opt-out » actif = l’utilisateur refuse que ses données personnelles soient utilisées, toujours en cochant. C’est ce mode qui est la norme en France, et que la CNIL endosse implicitement. En effet, dans la rubrique « questions-réponses » de son site, notamment sous le thème « marketing », la CNIL indique que l’utilisateur d’un service peut « s’opposer » à la transmission des données ou « refuser » leur communication, et donc privilégie le mode « opt-out ».

Evidemment, la conséquence est qu’une majorité d’utilisateurs oublient de cocher les cases (ou pire, ne les trouvent pas), et se retrouvent donc dans de nombreux fichiers commerciaux. Dans le cas d’entreprises privées, dont l’activité dépend de fichiers clients, on peut le comprendre, mais quand il s’agit d’entreprises publiques ou de l’Etat, le mode « opt-out » est beaucoup plus discutable. Deux exemples récents (issus de mon entourage proche):

Exemple 1 : une procuration à la Banque Postale. Ci-joint une partie du formulaire en question.

Optout_Formulaire_Procuration_Banque_PostaleAprès 13 lignes juridiquement obligatoires (et que personne ne lit, bien sûr), juste avant les signatures, on trouve la case à cocher pour refuser « que mes données personnelles soient utilisées à des fins de prospection commerciale« . Ou comment récupérer les informations relatives aux proches d’une personne âgée qui leur donne procuration… La photo est trompeuse, du fait du zoom sur le texte, je ne suis pas sûr que dans le document complet, l’utilisateur visualise aussi bien la case à cocher (ni d’ailleurs que les conseillers financiers n’attirent son attention sur cette case…).

Exemple 2 : un formulaire de demande de modification d’un permis de construire existant, CERFA 13411*03. Ci-joint, le petit libellé, toujours en « opt-out », tout en bas de la page 5 d’un document qui en compte 7, non compris la notice explicative…

Optout_for_CERFA_docEncore plus discret que pour la Banque Postale, la case à cocher étant bien moins visible. Et compte tenu des informations très détaillées qui sont demandées (et qui sont obligatoires!), il est clair que l’usager doit s’opposer à ce que « les informations nominatives comprises dans ce formulaire soient utilisées à des fins commerciales« . Non mais!

L’Etat collecte donc – et surtout revend – les données personnelles de ses administrés, tout en reprochant à Google, Amazon ou Facebook de faire de même… Vous dites contradiction? Je dis opportunisme.

Pour une véritable protection des données personnelles, il faut d’autres outils de ciblage! On parle de « fingerprinting », d’identifiant unique, mais il y a aussi une option non-intrusive, fondée sur le comportement en ligne de l’utilisateur. J’y travaille… Envie d’en savoir davantage? Rendez-vous la semaine prochaine sur ce blog!

%d blogueurs aiment cette page :