Étiquette : GDPR

Un scoop, des infos, des chiffres, des petites phrases à l’Adtech summit (compte rendu partial et partiel)

Share This:

Du monde, beaucoup de monde à l’adtech summit, la grande conférence de l’IAB France, organisée dans un bel endroit, l’hôtel Salomon de Rothschild.

Le SCOOP

Nous avons tous lu l’info du journaldunet   où il était dit « Bouygues Telecom fait entrer le loup Google dans la bergerie de la pub TV française ». Lors d’une table ronde sur la TV adressée, Orange (Christian Bomprun, Directeur Produits et Services Orange) faisait remarquer qu’aucun des 2 acteurs n’avaient publié de communiqués de presse sur ce sujet depuis, et qu’il y avait une grosse différence entre utiliser une brique technologique comme Google est tout à fait à même d’en fournir, et le faire intervenir comme acteur majeur du futur système . Il semblait donc dire que l’information n’était pas complètement exacte. Il a mis en avant au  contraire fortement l’unité des opérateurs et Hortense Thomine-Desmazures (DGA en charge du digital M6 Publicité) renchérissait du coté des TV.

Alors qui a raison ou tort?

Les meilleurs

Une des meilleures interventions, à notre avis (n’oubliez pas la partialité de ce compte rendu) était celle de Daniel Knapp (Chief economist IAB Europe). On y apprend qu’il n’y aurait plus de corrélation entre les évolutions du PIB et des investissements publicitaires en montrant que sur les 4 dernières années la courbe pour les IP est en dessous de celle relative au PIB. A voir si l’IREP confirme ou non pour le France, mais c’est possible et ce n’est donc pas bon pour la publicité… On se trouve maintenant à des niveaux d’évolution comparables aux USA et en Europe de l’Ouest (2.7%, 2.6%). Bien sur, la croissance est due au digital. Cela fait toujours mal de voir le niveau des investissements publicitaires par pays où le marché anglais est 3.5 fois plus élevé que la France (2.6 que l’Allemagne). Le cocorico peut intervenir sur le taux de croissance où nous nous situons glorieusement en 6ème position (derrière des pays de l’Est). Les investissements publicitaires digitaux devraient atteindre plus de 30 millions d’Euros en 2023 dont près de 90% seront faits en programmatique. Pour lui, l’audio et l’affichage digital ont de beaux jours devant eux.  Ses seules alertes ont porté sur l’Intelligence Artificielle (40% des start-up dites IA en Europe n’en font pas, grrrr) et l’importance de tout le processus technique pour le future du programmatique en réclamant de la clarté, de la transparence…Il met l’accent aussi sur le fait que le marketing doit avoir son propre PNL, autrement dit devenir un centre de profit.

Autre intervention excellente (comme d’habitude), l’avocat Etienne Drouard mais que nous n’osons pas résumer de peur d’écrire des erreurs! Il a mis l’accent sur le débat à Bruxelles des « cookies wall » (le fait d’accepter d’être tracké pour pouvoir accéder au contenu d’un site).

Le marketing et ses directeurs (CMO) selon Thomas Husson (Forrester).

Tout évolue autour des CMO, la data, la technologie, la vie privée mais ce qui ne change pas dans leur travail, c’est la réconciliation entre les attentes des consommateurs avec l’offre et les produit de l’entreprise. Ces attentes des consommateur, dans une société qui se radicalise, sont marquées par le besoin de repères, de quête de sens (l’objet du denrier petit dejeuner IREP :-)). 55% des consommateurs disent qu’ils vont baser leur décision d’achat en fonction des valeurs portées par les marques. le travail du CMO est alors de délivrer une promesse de marque et de faire en sorte que cette promesse soit respectée par l’entreprise dans laquelle il travaille.Or moins de 10% des CMO ont le pouvoir de le faire…: « faire ce que l’on dit »

2020 pour

  • Fleury Michon: l’accélération de la data
  • Intermarché: Une data produit et emballage plus une refonte des 35 marques
  • Nestlé: formation digitale et préparation d’un nouveau lieu de vie

Petites phrases

« Ce n’est pas la truelle qui fait le mur, c’est le maçon! »

Luc Vignon  (366) en réponse au fait d’utiliser les solutions Google (Pas faux!) « on doit assumer notre rôle et revendiquer nos différences. les géants transnationaux sont nos meilleurs partenaires et nos concurrents »

« A movie audience not walking out is not a studio goal. Why is a completed video ad treated like a buyers goal »

Lynn Chealander, Director Product Management Digital Platform Xandr (une remarque, on choisit le film que l’on va voir, on ne choisit pas la publicité…)

« Le pire n’est jamais sure, il ne faut pas capitaliser ni sur l’interdiction ni sur l’acceptation des cookies wall »

Etienne Drouart

« J’ai relu les CGV des navigateurs et maintenant je suis sous tranxène! Ils veulent contrôler notre vie privée et pas la protéger! »

« Si l’utilisateur me donne son consentement, je vais chercher par tous les moyens à l’identifier, mais je vis très mal qu’un navigateur vienne s’immiscer dans business »

« ce serait très bien que les navigateurs gèrent un IDFA mais à aucun moment me le vendre, c’est à l’utilisateur de décider »

Benoit Oberlé, Sirdata

« les textes juridiques ne sont pas du droit hors sol, ils traduisent une volonté des individus »

Marie laure Denis, Présidente de la CNIL

« passer du story telling au story making »

Thomas Husson (Forrester)

« s’il n’y a pas d’accès à la data coté acheteur comme coté régie, in ‘y aura pas de marché de TV adressée »

Emmanuel Crego, Values media

« Le décalage est très fort entre les attentes des marques et la réalité de leur comportement. Dans la moitié des pitchs, ils réclament toujours de la productivité media basée sur des indicateurs du XXème siècle. Ils ne changent pas! » « 

Une bonne stratégie media est comme le Kamasutra, on ne peut être bon qu’en pratique! »

« La France est le pays le moins rentable d’Europe pour un groupe de communication. Il y a une très forte paupérisation du métier. les exigences toujours plus fortes des annonceurs ne sont pas compensées par une rémunération plus juste qui ne peut qu’être basée sur les jours/homme »

Pierre Calmard, iProspect

Des chiffres

  • le header bidding représentent 15% des revenus digitaux de la regie media Figaro, 35% pour Le Monde.
  • A 70% de taux de vision, 75% de l’inventaire publicitaire est éliminé (Xandr)
  • Le CPCV (cost per completed view) en France est à 0.014 €, dans le reste de l’Europe: 0.013 € et dans le monde 0.012 €. On parle ici de l’internet ouvert et non pas des jardins clos (Xandr)
  • Les CPM sont 40% plus bas sur Safari/Firefox depuis les restrictions sur les cookies et constituent 30% du trafic. Gael Demessant (Prisma Media) a pris ID5 pour contourner le problème
  • Depuis l’implantation du RGPD, hausse de 40% des plaintes, 23% des 12 000 plaintes concernent la réutilisation des données à des fins commerciales (CNIL)
  • Un CMO dépense 20 à 25% de son budget en technologie (automatisation marketing, technologie publicitaire, data et analytics)(Forrester)
  • le taux de marge est de 45% sur les effectifs productifs (Artefact)
  • 14 millions de porteurs de carte de fidélité Carrefour, 70% du CA. Alexis Marcombe, Carrefour régie

les 2 meilleurs tweets

La pire intervention

Comment un sponsor qui a une fenêtre d’expression importante (ce qui est bien normal car il paye et sans sponsor pas d’évènement), donc pourquoi n’en profite-t-il pas pour apporter de l’intelligence (#quetedesens) et inflige une logorrhée verbale qui nous a poussé dehors tellement nous n’en pouvions plus. Comme le disait un camarade dans un jeu de mot, de la DAUBE (très bon plat provençal…en cuisine). Mais comme nous n’avons pas tout vu, le meilleur a peut-être été dit après notre départ!

malgré cela,

MERCI L’IAB France pour cette bonne journée!

Une journée d’Intelligence Artificielle avec BONHEUR (un compte rendu partial et partiel)

Share This:

Comment résumer, en quelques lignes, une journée entière consacrée à l’intelligence artificielle le 23 octobre 2019, à Station F ?

Impossible d’autant plus que le programme était d’une richesse incroyable variant les mathématiques, la politique, le business, les enjeux, la pratique, les secteurs et 2 stars : Stéphane Mallat (Collège de France) et le montréalais Yoshua Bengio, l’un des 2 papes de l’IA avec le français Yann Le Cun (Le premier travaille pour Google, le second pour Facebook).

Chapeau pour cette magnifique journée (1 800 personnes y ont assisté) même si nous regrettons (cela va faire vieux c..) une journée complètement en anglais alors qu’il y a très très peu de non francophones dans la salle (3 à la première présentation…). Au moins, les ¾ des présentations étaient plus que compréhensibles pour des francophones vu la prégnance de l’accent français en anglais !! On regrettera aussi quelques changements de programme impromptus sans que l’application spécifique soit à jour, et les tics de langage du type « amazing », « incredible », « guys » …

Bref, nous ressortons de tout cela avec quoi ?

L’IA n’a rien de magique (nous le savions mais cela a été dit clairement moultes fois) et de nombreux progrès, dans tous les domaines, sont encore à venir pour contourner tous les problèmes et biais posés. Par contre, le processus d’automatisation est en marche avec son cortège de solutions business (Nous n’avions jamais vu une conférence avec autant d’offres d’emploi à l’intérieur même des présentations !!)

Un cocorico. La France est devenue, ce jour-là, officiellement, le pays leader en Europe sur l’Intelligence Artificielle (avant la Grande Bretagne et Israël) avec le premier rang en matière d’investissements dans les startups dédiées au sujet. 570 millions d’euros au 1er semestre 2019 pour une année qui atterrirait à 1.2 milliards d’euros selon les estimations du cabinet Roland Berger et de France Digitale (qui reprend l’organisation de l’événement France is AI).

Nous ne relatons ici, dans cet ordre, que ce qui concerne la politique, la complexité, les biais et contournements des biais, le business, le pragmatisme, le feel good et un tout petit peu de mathématiques.

Politique

Nous avons un ambassadeur pour le numérique (et il est compétent), Henri Verdier (…, Cap Digital, Etalab,…) qui doit « couvrir » 4 thématiques dans lesquelles l’IA est forcément présente :

  • Les grands sujets de cyber sécurité (nous vous rappelons une de nos obsessions : la question n’est pas de savoir si des crashs de cyber sécurité au niveau des états vont se produire mais quand ! Merci l’Estonie 2007…).
  • La participation des états a la gouvernance d’internet
  • La diplomatie économique
  • La défense et la promotion des valeurs qui structurent nos sociétés

En fait, il est à la recherche d’une troisième voie, l’Europe, alternative au « sans contrôle publique » américain et au « tout contrôle » chinois. Pour y arriver quelles solutions ?

Les lois avec l’exemple du RGPD qui fait des petits au Japon, en Inde et est copié aux USA. Ce qui n’empêche pas la France, par exemple, d’assouplir sa position par rapport à la circulation libre de la data (free flow of data with trust), l’important étant de savoir comment s’organiser.

L’argent mais que sont les investissements de chaque état européen pris indépendamment par rapport aux milliards américains et chinois. Il rappelle que le succès n’est pas proportionnel à l’argent investi, au tera octet de data, mais au fait d’être malin.

Et des engagements forts (?) sur des principes, des valeurs et l’éthique. Il pousse à la création d’un GIEC de l’IA (pas bête) pour avoir des gardes fous, au dépassement des conneries venant d’un pays (ex : la classification trompeuse des tomates en légume aux USA, alors que c’est un fruit, car il y a 100 ans pour des raisons de taxes, Heinz a qualifié les tomates en légumes. Aujourd’hui toutes les bases de données américaines utilisées en IA des USA classent les tomates en légume au lieu de fruit !).

Le rôle de l’Etat, pour lui, est celui du jardinier qui doit faciliter la vie des startups.

Complexité

On est loin de « l’intelligence » artificielle. La voiture autonome sur la place de l’étoile ce n’est pas pour demain. Trop d’interactions, de décisions à prendre encore pour les machines existantes qui ne sont capables que d’imiter des taches simples et répétitives (c’est déjà ça !). Une machine sait faire un chose à la fois et ne peut pas tout faire ! Exemple, la machine alpha GO est bonne pour le jeu de GO mais ne sait rien faire d’autres, il faut tout créer à chaque fois.

Biais et contournement des biais

  • Où sont les femmes (une fois de plus), quand on voit Karl Tuyls (Deepmind de Google et Université de Liverpool) qui remercie dans un slide de photos son équipe d’au moins 16 chercheurs, que des hommes ! Les organisateurs de la journée ont fait attention à ce point et des femmes étaient présentes sur la scène!
  • Biais des bases de données. Les modèles d’apprentissage des machines (machine learning supervisés) sont très gourmands en données. Pour leur apprendre des choses, il faut que l’humain intervienne, par exemple, en annotant des milliers d’images de façon à expliquer à la machine ce que signifie telle ou telle image. La masse d’images annotées permettra alors à la machine d’être capable de classer correctement de nouvelles images rencontrées Il y a un très gros business autour des bases de données d’images annotées, décrites, par les humains (Inde, Madagascar,…). Mais c’est long, cela coute cher (même si ces travailleurs humains sont payés une misère) et cela ne couvre pas toutes les situations car il est dangereux pour l’humain de coder certaines situations (il doit visionner des atrocités pour coder !). Sans aller chercher ici les horreurs pornographiques ou terroristes, pensez simplement aux accidents entre un piéton et une voiture, vous ne disposez pas d’un « corpus » de cas, d’images, suffisants. Pourquoi ne pas les créer dans un monde virtuel alors (Naila Murray, Naver Labs), et avoir alors de la variété dans les situations qu’un grand nombre de situations identiques.
  • Toujours sur les bases de données, imaginez 8 photos, 6 de chats blancs et noirs dans différentes positions et 2 de chiens noirs, eux aussi dans des positions différentes. Vous injectez dans la machine une photo de chien blanc pour classification en chien ou chat, la réponse sera chat, car toutes les photos d’un animal blanc était un chat ! Cela parait bête mais c’est une réalité que vous pouvez transposer à grande échelle. Cela renvoie à un biais très classique en stat, votre échantillon n’est pas représentatif de la population qu’il est censé représenter !
  • En Autriche, une startup se faisait fort de réduire le chômage en fournissant un algorithme d’adéquation entre le profil du candidat et l’offre d’emploi à base de machine learning. Super sur le principe mais la machine a appris le chemin le plus efficace trouvé dans l’historique des données, ne proposer des offres d’emploi qu’aux hommes car ils décrochent des emplois quand les femmes et les personnes handicapées n’en recevaient plus aucune…

Business

Criteo

La publicité était présente à cette journée avec les changements de fond opérés par Criteo dans son fonctionnement (Zofia Trstanova). Comment changer son moteur de recommandation pour être plus pertinent et être capable de présenter le bon produit pour 1 milliard de requêtes / utilisateurs en 50 millisecondes… ? Joli challenge ! Bien sûr, il y a l’historique de l’utilisateur mais quel produit choisir dans les milliers, millions de produits possibles parmi les partenaires de Criteo (CDiscount ….) ? C’est simple, Il faut construire une matrice de distance entre produits et choisir le plus proche voisin du dernier produit acheté ou choisi par l’utilisateur. Cela parait facile mais la masse de produits et l’urgence de la réponse change tout. Il faut alors approximer les distances, approximer la matrice.

Le nouveau système Criteo a commencé à être déployé il y a un an et demi. Il va être amélioré par l’incorporation des annotations d’images dans le processus.

Astra Zeneca (James Weatherhall VP Data science et AI)

Le raisonnement est simple pour un laboratoire pharmaceutique. Un brevet dure 20 and, il faut 12 ans pour arriver a une solution définitive et sa mise en marché. Il ne reste donc que 8 ans pour obtenir des revenus. Comment raccourcir les 12 ans pour allonger les 8 de revenus ! La première étape est dans la connexion de toutes les données qui existent maintenant pour un laboratoire pharmaceutique (données génomiques et génétiques, données patients, données de capteurs, données d’interaction media, données des réseaux d’information médicaux, données de marché. La seconde étape est de connecter un certain nombre de ces données (ca a pris moins de 2 ans). Ensuite, et il y en a pour 5 ans encore, on applique de l’Intelligence Artificielle. Premier exemple, dans la découverte de médicament, les « manipulations » de molécule sont « facilement » automatisables. Ce qui prend aujourd’hui 24 jours pourraient baisser à 5 jours. Second exemple, l’interprétation radiologique dans des cas de tumeur. Un radiologue met 20 minutes, dans des cas complexes à analyser l’épreuve avec environ 10% d’erreurs quand un processus d’IA met quelques secondes avec moins de 1% d’erreurs.

Eramet (Jean Loup Loyer, Head of data sciences & AI)

Une société de production minière (Nouvelle Calédonie, Gabon…) et de métallurgie qui comme Astra Zeneca est maintenant à la tête de nombreuses données. Une des premières utilisations a été de faire de la maintenance préventive sur ses machines d’extraction grâce à l’analyse des données de capteurs. Mais en allant plus loin, Eramet analyse maintenant les images prises par drone des chantiers de ses concurrents ou clients pour adapter au plus juste sa production miniere et ajuster ses prix !

Société Générale (Julien Molez, Group Innovation Data & AI Leader)

L’analyse des données n’y est pas nouvelle (l’actuariat pour la gestion des risques) mais là encore, la masse de données issues des clients, de la dématérialisation des documents, permet d’aller plus loin. 3 cas d’utilisation de l’Intelligence Artificielle

  1. Analyse du langage (NLP) sur les clauses de confidentialité a signer avec des partenaires potentiels pour voir si elles sont compatibles avec la législation bancaire et la politique de la banque.
  2. Moteur de recommandation du bon article à lire au bon moment pour les clients de la branche affaires (et leurs conseillers)
  3. Analyse de tous les paiements de la banque en temps réel en France pour détecter les valeurs aberrantes (outliers) et bloquer les mauvaises transactions

Pragmatisme (Benoit Limare, Sicara)

Une fraîcheur de propos très agréable.

Pour lui il y a au moins 2 catégories de projet d’IA :

  • L’IA bidon, la start-up qui dit qu’elle fait de l’IA (notamment en reconnaissance d’image) et qui a, en fait de nombreuses petites mains à Madagascar pour classer les images…
  • L’IA raisonnable : démarrer petit pour élargir le champ par la suite. Le grand soir dans de l’IA est dangereux car il faut prouver l’intérêt de la méthode à la fois auprès des salariés proches de l’informatique mais aussi ceux qui sont touchés par le process et la direction générale. Commencer par quelque chose de raisonnable (voire même bidon) est le moyen d’amorcer la pompe, d’emporter l’adhésion de tous avant d’engager des coûts élevés dans un projet plus complet (l’IA ça coûte cher !)

Des exemples :

  • Une société de produits de beauté voulant un moteur d’IA pour recommander le bon produit de soins pour la peau a de clientes avec déjà une bonne solution avec un selfie et quelques bonnes questions.
  • Une autre où le DSI voulait réduire une tache de 15 minutes à 10 secondes. Un projet simple permettait déjà de réduire la tache de 15 minutes à 45 secondes. Le projet pour atteindre les 10 secondes aurait été extrêmement couteux.

Il rappelle que pour faire de l’IA, il faut des données (la moindre des choses !), lisibles par un humain (si l’humain ne les comprend pas, la machine ne saura rien faire), et contrôlables (autrement dit de nombreuses photos de produits différents d’un site de e-commerce prises toutes avec des angles différents débouchera sur des problèmes, il faut contrôler l’input !).

Feel good

Accenture a présenté un programme d’aide aux personnes âgées avec de l’IA conversationnelle. Le premier pilote d’« Elderly care » avait été fait en Grande Bretagne il y a 3 ans. 4 sont dans les « tuyaux », un en Belgique, 2 aux USA, 1 à Stockholm. Cela a raisonné beaucoup dans nos oreilles suite au petit dejeuner IREP que nous avions animé sur ce sujet avec Hélène Xuan et Olivier Altmann

 

Mathématiques

Un grand moment avec Stéphane Mallat du Collège du France qui, sur le moment, nous a paru biblique quand il expliquait comment les mathématiques pouvaient aider l’Intelligence Artificielle à résoudre le problème de l’interprétation des choses.

Pour lui, tout est dans la structuration des réseaux de neurones, il le démontre. Mais il a avoué avoir perdu, pour l’instant, un pari d’un diner dans un 3 étoiles (on est français où on ne l’est pas) avec Yann Le Cun quant au fait de trouver le modèle d’analyse et les théorèmes qui vont bien !

Au fait, si vous voulez comprendre vraiment « Comment les Réseaux de neurones à convolution fonctionnent » cliquez ! Ça vaut le coup car c’est la base de tout le décodage d’images entre autres. Si nous vous le disons avec nos mots, vous découpez votre image en pixels, chaque pixel a un poids en fonction de son contenu et de ses couleurs. Vous tordez votre image et refaites votre découpage en pixels. Ceci plusieurs fois, vous prenez un échantillon de pixels dans chaque découpage et à la longue vous mettez tous vos échantillons ensemble et vous serez capable de reconnaître une nouvelle image en la comparant via ses pixels à celles que vous aviez eu au préalable. C’est bien mieux expliqué dans le lien que nous vous signalons et nous venons surement d’écrire de grosses horreurs!!

 

En conclusion, l’IA était, pour nous, plus facile à comprendre que la conférence sur le gaming !

La fin de l’individu, voyage d’un philosophe au pays de l’Intelligence Artificielle (Gaspard Koenig) (un résumé d’un livre non lu !)

Share This:

Nous avions déjà eu le plaisir d’écouter Gaspard Koenig (GK) lors d’une conférence TEDX Paris. Le 27 septembre 2019, il présentait son nouveau livre qu’il a « résumé » pendant une heure à Station F, (grand amphi complet). Ce compte rendu est fait sur ce « résumé » pas sur la lecture du livre (acheté mais non lu !).

Le sous-titre de ce livre pourrait être

« remettre l’église au milieu du village » !

Pour lui, il faut remettre l’humain dans l’IA, c’est-à-dire en maître de ses propres données.

Comment y arrive-t-il ?

Il a rencontré près de 120 chercheurs, entrepreneurs, intellectuels, magicien… en France, UK, Israël, USA, Chine … Bel effort (sponsorisé par Le Point) pour un philosophe non spécialiste de l’Intelligence Artificielle.

Au passage, GK fait remarquer que rencontrer des interlocuteurs sur ce sujet n’est pas facile, car ils sont pressés, stressés, soumis à des enjeux financiers importants et n’ont aucune envie de rencontrer un philosophe !

Quelques tacles :

  • Ces interlocuteurs n’ont aucune culture. La référence la plus ancienne qu’il a pu entendre dans la bouche de ses interlocuteurs était … « star wars »
  • Ce sont les physiciens qui ont toujours joué les « Cassandre » sur l’IA en se basant sur des théories très très peu probables alors que les mieux placés pour en parler, les informaticiens, sont eux réalistes (Yann le Cun, Facebook, sort un livre dans 15 jours sur le sujet) et savent très bien que l’IA est très très loin de cette prise de contrôle.

Alors faut-il avoir peur ou non de l’Intelligence Artificielle (IA)?

Dans l’absolu, Non ? mais…

Dans l’expression Intelligence Artificielle, il y a intelligence et celle-ci est le produit d’une évolution biologique depuis des milliers d’années qui nous a donné le pouvoir de conceptualiser. Donc, tant que l’IA en reste aux calculs de l’ordinateur, aucun risque de dépassement ou de rapprochement de l’homme par la machine.

L’IA et le travail ?

GK n’est pas inquiet sur ce que l’on appelle « la fin du travail ». Le travail étant un sens commun, l’IA ne peut le tuer car l’IA n’a pas de sens commun. Elle peut être très précise dans 99% des cas mais dans 1% elle conduit à de grosses « conneries ». Ces erreurs ne sont pas une histoire de répétitivité des taches, mais de sens commun. Ex : un serveur dans un café ne peut pas être remplacé par une machine car toutes les décisions qu’il doit prendre sont multiples et différentes à chaque instant et dans chaque lieu.

Il est probable que des métiers disparaîtront et se créeront. Le danger de l’IA peut venir si nous changeons notre environnement pour nous adapter à celle-ci. C’est ce qui semble se produire dans les ports gérés par les chinois où toute l’infrastructure est conçue pour l’IA et non plus pour l’homme. Nous avons à faire un choix de civilisation.

(Si on raisonne par l’absurde, il paraîtrait qu’1/3 des emplois sont des « boulots à la con » (les bullshit jobs). L’IA ne saura pas faire un boulot à la con !!).

IA et le libre arbitre ?

C’est sur ce point qu’est le danger, selon Gaspard Koenig.

Ces systèmes nous connaissent mieux que nous-même, ils connaissent notre environnement, ils nous donnent des conseils, ils nous conduisent à des choix optimaux. Nous allons alors leur déléguer notre capacité de choix. Cela signifie la fin du libre arbitre. Or, celui-ci est le fondement de nos systèmes sociaux (le fondement du système juridique américain par exemple).

On assisterait alors à une transformation culturelle radicale (chaos ?) car l’IA cherchera à optimiser la « performance » d’ensemble et non pas la performance individuelle, on irait alors vers « ce qui est le moins mauvais pour soi compte tenu d’un optimum pour l’ensemble ».

2 exemples :

  • Google maps vous indique le meilleur trajet pour désengorger le trafic pas le trajet le plus court, l’itinéraire égoïste, que vous vous choisiriez probablement.
  • Les applications de rencontres font face à l’illogisme humain. Les recherches ont montré que les femmes recherchaient un compagnon de leur tranche d’âge (une droite entre âge du demandeur et âge du demandé). Les hommes, bloquent leur curseur de compagne recherchée à 24 ans quel que soit leur propre âge (une asymptote). Les algorithmes ont alors besoin de nombreuses informations pour découvrir les désirs implicites sous des choix explicites, de façon à ce que l’ensemble du réseau soit satisfait.

IA et causalité ?

L’IA fait disparaître la notion de causalité et donc l’utilité des théories ou des lois.

Le fait de disposer de toute l’information permet de se passer de la notion de causalité.

Ex : la société Didi en Chine (le Uber chinois) a plus de 90% du marché des VTC en Chine. Elle dispose donc de toutes les informations. Cette société ne fait plus de politique de prix pour attirer les chauffeurs (offre et demande) vers certaines courses lointaines mais se contente de faire du dispatching de chauffeur pour assurer l’optimum d’ensemble. L’information étant complète, la notion de marché disparait. Il va plus loin en s’interrogeant sur la pérennité de la notion de justice, des lois en tant que telles.

IA et différences culturelles ?

Le Chine a fait de l’IA une priorité absolue tant sur le fond que sur le financement.

Les chinois n’ont aucun tabou, aucune limite, et ceci leur permettra d’atteindre un bonheur collectif. La passion de la Chine pour l’IA correspond parfaitement aux valeurs confucianistes qui reviennent en force. Les chinois parlent d’ailleurs de leurs inventions avec une grande candeur. Gaspard Koenig a alors projeté quelques verbatim comme « les jeux video permettent de rendre les gens accro pour mieux les contrôler (parti communiste) ».
Aux USA et en Europe, la prospérité allait de pair avec la liberté individuelle. L’IA remet en cause cette équation. Plus vous voulez de croissance, plus vous devez sacrifier la liberté individuelle, ce qui va à l’encontre des fondements mêmes des sociétés occidentales.

La notion d’impérialisme a d’ailleurs évolué en passant d’un impérialisme territorial à un impérialisme numérique dans lequel les gouvernements sont perdus.

Conclusion : un modèle alternatif ?

Le rétablissement de l’individu dans ses prérogatives humaines est le cœur de sa réflexion.

L’humain doit prendre conscience de l’extrême important du flux sortant des data, sa propriété privée, ses données personnelles. C’est notre bien et nous devons avoir le droit de le sortir du marché ou d’y rester !

GK fait la promotion des portefeuilles électronique de données : « Chacun doit pouvoir contrôler son propre nudge » !

Pour atteindre ce but, GK a besoin de « potes » listés ci-dessous. En cliquant sur chaque nom, vous verrez dans quelle lignée philosophique ou pratique ils/elle se situent.

Daniel Dennett

Harry Kloor

Jaron Lanier

Margrethe Vestager

Nous espérons que ce « résumé », loin d’être parfait, vous donnera envie de lire ce livre ou de réfléchir sur les notions de biens communs, libre arbitre, théorie, causalité et confucianisme.

(Et c’était chouette de retrouver Jimi Fontaine a cette conférence 😊)

Perdre la moitié de son CA pour … mieux : le cas SIRDATA

Share This:

Une première, dans tracks&facts, une interview de Benoît Oberlé, fondateur et CEO de SIRDATA (merci à Benoît Oberlé et Nathalie Harding pour ce moment).

  1. Les faits

2 étapes à cette baisse de 50% du CA

  • La première est arrivée le 1er janvier 2018 quand les annonceurs et leurs agences ont coupé leurs approvisionnements en données tierces, par précaution, en attendant des retours juridiques sur l’interprétation du RGPD (le Règlement Général pour la Protection des Données). Même si SIRDATA avait déjà entamé son processus de mise en conformité, le gros du flux d’information est passé à Zéro (pour un temps). D’où un certain chaos, pendant le 1er trimestre 2018, pour intégrer cet impact financier, rassurer (interne et externe) et voir les flux repartirent petit à petit, notamment, grâce à l’obtention du label ePrivacy seal, en avril 2018.
  • La seconde a été la mise en conformité du réseau SIRDATA. Là, il était nécessaire d’auditer, de vérifier la mise en oeuvre d’actions auprès des fournisseurs (une page de vie privée sur le site, une mention et un lien vers SIRDATA, l’affichage du bandeau cookie…). La conséquence a été la perte de 35% d’entre eux, ceux qui ne comprenaient pas que ce n’était pas un caprice de l’entreprise mais une nécessité légale. Dans cette étape, il a fallu aussi intégrer le choix de l’internaute, et donc de respecter une demande d’opposition pour obtenir un consentement valide.

 

« On est passé d’un monde où l’on pouvait tout faire sauf quand l’internaute disait STOP,

à un monde où l’on ne peut rien faire tant que l’internaute n’a pas dit OUI ».

  1. Pourquoi avoir choisi le consentement de l’internaute plutôt que l’intérêt légitime comme base légale?

Le consentement ou l’intérêt légitime sont des finalités permises par le règlement. Mais, quand la raison d’être de la société est la data, comme SIRDATA, on est exposé, les partenaires aussi, on ne peut, alors, prendre des risques. Benoît Oberlé a fait ce choix de la recherche de consentement car il n’avait pas le choix, tout simplement, quel qu’en soit son prix !

« Penser que la CNIL serait indulgente était et est une erreur »

Aujourd’hui, le marché est majoritairement dans la phase d’acceptation du consentement légitime. Les acteurs font désormais ce travail de conformité même s’il y a un manque à gagner.

  1. Quelles leçons de cette année 2018 ?

  • Une meilleure compréhension du marché et notamment la centralité du rôle des éditeurs.

“On sous-estime la pression sur leurs épaules et le sentiment d’isolement que peuvent
connaître certains de leurs collaborateurs coincés entre obligations réglementaires et impératifs
économiques.”

  • La compréhension juridique est l’autre leçon. Il fallait comprendre le texte juridique (jargon) mais aussi, et surtout, passer aux actions, comme être capable de paramétrer correctement des outils comme les CMP qui sont et restent des moyens de conformité et non des gages de conformité.

« Nous avons compris le lien entre le texte, l’objet du texte et la mise en musique du texte ».

  • Et d’un point de vue plus personnel, il a fallu apprendre à « parler » et à échanger avec l’industrie pour progresser.

« Mettre de l’eau dans son vin pour avancer, mettre en oeuvre sans renoncer à ses exigences ! »

  1. Les bénéfices de l’année 2018 ?

« Nous y avons gagné  quelques lettres de noblesse, sans être les seuls, bien sûr »

Ils sont nombreux!

Une équipe plus experte autour de la donnée, de la privacy et des services associés, soudée par ce choc de marché. Il a permis de montrer que le RGPD donne à l’utilisateur un contrôle, le droit à la portabilité de ses données. Ceci ne signifie pas la disparition du ciblage qu’il soit comportemental ou contextuel à des fins publicitaires.

Un élargissement de l’activité de plusieurs façons. Comme le marché évolue, il a fallu couvrir les SSP en plus des DSP.  Le second élargissement est, depuis 2018, de mettre à disposition en mode SaaS, son outil de traitement sémantique.

Une agilité face au processus légaux qui a permis des gains de parts de marché, de  nouveaux éditeurs,  une notoriété et une crédibilité marché supérieure, avec une implication plus  forte au sein de l’IAB France ou l’IAB Europe.

Mais surtout, l’entreprise a renforcé sa capacité à expliquer ses méthodes et outils. Elle propose de nouveaux produits ou services tels que l’intégration de la fonction conseil dans l’entreprise.  Enfin, une gestion d’entreprise saine avec un risque faible.

  1. Demain ?

a) e-privacy ?

La crainte qui plane sur le monde publicitaire, est celle d’une e-privacy DURE, soit le contrôle des cookies par le navigateur. Une mobilisation commune demeure impérative, c’est une question de survie et même de souveraineté.

Le marché doit montrer aux régulateurs qu’il sait s’organiser pour respecter la vie privée et qu’une régulation dure, sur ce point, n’est pas nécessaire. Que ce soit en France ou dans d’autres pays (Europe, USA, …), il semble y avoir une quasi-unanimité, non pas des positions encore, mais au moins sur l’objectif. La construction du TCF (Transparency Consent Framework) en est une et se doit d’apporter une réponse avant le texte.

« C’est la première vraie construction commune positive et ouverte que je vois en 20 ans de marché ».

b) L’avenir du third ?

L’avenir du 3rd? il faut élargir au 2nd, 1st car le consentement concerne tous les types de données!

De toute façon, cela passera par un point, le contrôle permis à l’utilisateur. Il faudra une génération pour que chacun comprenne ce qui se passe avec la data – une opportunité de new deal. Par exemple, il ne faut pas condamner la « cookie fatigue » : chaque bandeau d’information qui s’affiche participe à l’éducation des internautes, il faut qu’il y en ait jusqu’au jour où même l’utilisateur le plus prompt à passer ce type de message en prendra connaissance, puis en lira un autre. L’internaute qui contrôle et comprend ce qui se passe et les outils qu’il a à sa disposition, voici ce qui laissera aux acteurs du marché une chance de monétiser les données personnelles : s’il ne comprend pas…. ou ne peut pas contrôler dans le temps (nécessité d’un bouton “cookies” ou équivalent pour modifier ces choix à posteriori)…., le risque est que l’utilisateur dise non à tout, tout le temps

 

En conclusion, nous avons rencontré un entrepreneur qui a plus de cheveux blancs après une année 2018 compliquée et riche (nous n’avons pas parlé du contrôle fiscal intervenu aussi en 2018 avec comme résultat … aucun redressement) mais résolument optimiste quant à l’avenir de la publicité digitale et de son entreprise, cela fait plaisir !

Google, Facebook, Amazon les garants de notre vie privée (compte rendu partiel d’un petit déjeuner IREP)

Share This:

Le 28 mars 2019 à l’IREP, nous avions le plaisir d’animer un petit déjeuner intitulé « Data et publicité, où mettre le curseur entre les besoins d’une profession et la protection de l’e-privacy ? « 

2 intervenants ont débattu de ce sujet:

un économiste, Marc Bourreau (professeur à Telecom ParisTech)

un professionnel, Erwan le Page (Directeur général de MediaSquare)

Nous ne publions pas l’intégralité du compte-rendu écrit car celui-ci est réservé aux membres de l’IREP (profitez en pour vous inscrire!!) mais seulement un extrait, c’est dommage car c’était passionnant!

Marc Bourreau a publié en 2018 un article « The value of consumer data in online advertising ». Il y explique un modèle théorique, mathématique, construit en économie pour aider la réflexion sur certaines questions :

  • Quelle est la valeur des données échangées sur des marchés en ligne ? Quels sont les déterminants de cette valeur du côté des plateformes programmatiques?
  • Quelle est l’influence de la structure des marchés des plateformes programmatiques (une plateforme très dominante, en monopole, vs des plateformes en concurrence accrue entre elles)
  • Quel est l’impact de la structure du marché programmatique ? La présence de nombreux annonceurs sur ce marché va-t-elle avoir une influence sur le nombre de données échangées, et sur leurs valeurs ?

Dans ce modèle, une plateforme programmatique a des informations sur les individus (sexe, …centres d’intérêts, …informations anonymisées ou sous forme de cibles). Cette plateforme, financée par la publicité uniquement, vend des espaces publicitaires à des annonceurs sur la base d’enchères au second prix, comme le marché de la publicité en ligne.

Le modèle permet de déterminer le niveau d’informations individuelles révélé par la plateforme programmatique à l’annonceur (ie publicitaire) pour la bonne adéquation entre le profil recherché et le profil proposé. Il permet de déterminer, aussi, à quel prix est vendu l’espace publicitaire en fonction du nombre de données révélées par la plateforme programmatique

Résultats ?

Nous mettons ci-dessous un graphique extrait de l’article pour faciliter la compréhension du lecteur. Le « social planner » (planificateur social) est une construction artificielle, un régulateur, ici une plateforme étatique qui n’a pas pour but le profit. En abscisse, à l’horizontal, le nombre d’annonceurs. En ordonnée, à la verticale, le nombre de caractéristiques individuelles utilisées. Chaque courbe correspond à 3 situations de concurrence.

  1. Plus il y a plus d’annonceurs qui participent à l’enchère, plus la plateforme révèle des informations quelle que soit la situation concurrentielle.

Selon Erwan Le Page, on peut interpréter le résultat aussi dans l’autre sens : « c’est parce qu’il y a plus d’informations qu’il y a plus d’annonceurs ». Une plateforme programmatique a toujours intérêt à avoir beaucoup d’annonceurs. Dans un système d’enchères, s’il n’y a pas de densité sur l’enchère, il n’y a pas de prix qui puissent monter. La première mission des plateformes programmatique est, absolument, d’attirer le plus grand nombre d’acheteurs possibles. Et pour cela, et peut-être les motiver, il faut proposer plus d’informations, avoir des typologies de profils proposés vastes pour pouvoir atteindre un CA plus important.

  • Une plateforme en monopole va révéler moins d’informations que des plateformes programmatiques en oligopole

Les plateformes en concurrence vont chercher à attirer des annonceurs, et pour attirer les annonceurs, elles vont essayer de leur promettre le « meilleur repas possible », et celui-ci va être obtenu en donnant le maximum d’informations pour que les annonceurs sachent bien, puissent bien anticiper, quelle est la valeur du consommateur proposé par la plateforme.

Si l’on reformule ce résultat cela signifie que Facebook, Google ou Amazon… sont les meilleurs garants de nos données « individuelles », ce qui peut paraitre surprenant mais est, finalement, logique dans le sens de cette recherche (Isabelle Le Roy)

Dans le modèle, le monopole révèle moins d’informations que le « planificateur social » (cf plus haut pour la définition)

Le planificateur social se soucie du fait qu’il y ait des bons matchs dans cette économie. Un bon match, signifie aussi plus d’échanges économiques, ce qui est bon pour l’activité de la société, donc au final tout le monde est content, les consommateurs, les entreprises… Le monopole va avoir une stratégie un peu malthusienne, de recherche de la maximisation du prix de l’espace publicitaire plutôt que la valeur de l’espace publicitaire. Le planificateur social, lui, va essayer de maximiser la valeur de l’espace publicitaire, ce qui est différent.

  • Pour la Société, donc pour l’ensemble des agents dans cette économie (les consommateurs, les annonceurs et les plateformes), la valeur sociale incrémentale de l’information est décroissante avec la quantité d’informations révélée. Plus on révèle d’informations, plus révéler une unité d’information supplémentaire va avoir une petite valeur.

Ceci peut se voir dans le graphique suivant où n est le nombre d’annonceurs.

et la suite c’est pour les membres de l’IREP où les participants au petit déjeuner!

Le parcours de l’individu via son mobile (Ogury), le parcours du consommateur ON et OFF (Carrefour Media) (compte rendu impartial et complet)

Share This:

Michel Bellanger (Directeur Marketing, Carrefour Media) et Philippe Périé (Vice-Président Data & Algorithmes, Ogury) étaient les invités du petit déjeuner IREP que nous avons eu le plaisir d’animer le 28 février.

Ci-après le compte-rendu complet de ce petit déjeuner.

  1. Carrefour Media et Ogury en tant que sociétés

Ogury a été créée en septembre 2014, et est composée de 150 personnes, à ce jour (droit anglais mais siège à Paris). Le CA 2017 est d’un peu plus de 40 millions d’euros. Cette société est, historiquement, une société de technologie dédiée au ciblage publicitaire, au branding et à la performance sur mobile (Android uniquement pour l’instant). Mais le modèle évolue du fait de la croissance et de la granularité des données. Ogury se définit maintenant comme une « mobile data company » pour offrir des outils de monétisation, de ciblages publicitaires et d’analyses pour les annonceurs et les éditeurs.

Carrefour Media est le quatrième contributeur à la marge de Carrefour France et emploie 40 personnes. Ses clients sont les marques référencées chez Carrefour principalement. Les performances de la régie et ses actions autour de la data font que la nouvelle gouvernance de l’entreprise réinvestit énormément le sujet et les moyens afférents.

  1. Comment faites-vous pour suivre les individus ou consommateurs?

  • Le terme suivre est rejeté par les 2 participants.

Pour Philippe Périé (Ogury), on n’est pas dans une logique de suivre les individus de façon individuelle et en permanence, cela ferait beaucoup trop de données ! Cependant, la valorisation des données est faite, à la demande, dans des contextes particuliers pour des clients éditeurs, annonceurs ou entreprises. La donnée est agrégée, anonyme pour créer des cibles, des profils et pour décrire des audiences, et non pas pour suivre un individu.

Michel Bellanger (Carrefour Media) met lui aussi en avant la connaissance client pour répondre à des attentes et non pas suivre une personne.

  • Comment font-ils ?

Ogury s’associe à des milliers d’applications, dans le monde entier, pour générer des données d’intérêt et de comportement uniques directement à partir de plus de 400 millions de profils d’utilisateurs mobiles uniques (250 millions avec opt-in) dans plus de 120 pays.

L’éditeur fait rentrer, dans son application, le SDK Ogury qui va, à partir de l’opt-in, collecter des données brutes (bas niveau) traduites en données significatives et utiles (applications installées, applications utilisées, connectivité et sites visités…) grâce à une technologie propriétaire. Cette vue, first party, est complète, assez unique en profondeur, en récurrence, en précision, et disponible nulle part ailleurs. La récolte des données brutes est importante pour minimiser l’empreinte du SDK sur la batterie du smartphone, un des plus d’Ogury.

Ces informations sont, ensuite, transformées par des équipes de data scientists en visites, en fréquentation, en durée. Au final, ces données sont enrichies dans une optique de ciblage publicitaire mais sont proposées aussi comme vecteur de connaissance pour un éditeur : le parcours de l’utilisateur de son application était celui-là il y a une semaine, et a été celui-ci 2 semaines après… Originellement, Ogury s’est lancé en payant un CPM assez généreux (entre 8 et 12 €), cette proposition attractive n’était pas la seule du marché, les éditeurs ont alors souhaité disposer de plus de connaissance. Ogury va aussi vers un modèle NO PUB pour proposer de la connaissance d’audiences aux clients.

Pour répondre aux enjeux de revenus de Carrefour, l’enseigne a développé des outils permettant de répondre aux attentes des consommateurs : une offre, un service omnicanal, plus de générosité, plus de personnalisation.

Carrefour a 3 grands types de connaissance clients.

  • Les transactions collectées via les tickets de caisse (anonyme) et via la carte fidélité personnelle (14,3 millions de porteurs, 27 mois d’historique d’achat à l’EAN, au code-barre). Les premières sont de l’informatique, les secondes sont de l’intelligence. Avec les encartés, Carrefour retrace 85% du CA des hypermarchés, mais moins dans les magasins de proximité.
  • La navigation / fréquentation média: magasins on (adserver / tracking) et off (carte fidélité). Les outils qui, il y a 5 ans, étaient managés par les agences (ex ad serveur) ont été réinternalisés au principe que c’était de la connaissance client qui permet de personnaliser la relation avec l’individu. La clé du commerce pour Carrefour étant la personnalisation, l’internalisation des outils était indispensable. Un questionnaire média est aussi adressé à certains porteurs de carte.
  • Les données externes de type Météo, de la donnée de contexte.
  1. Pour quelle(s) finalité(s) ?

« Après la connaissance, l’insight, il y a la dynamique de la connaissance »

Michel Bellanger, Carrefour Media

 

« On dépasse le simple taux de clic en remettant dans le contexte de l’activité via le mobile. »

Philippe Périé, Ogury

 Pour Carrefour Media, les objectifs sont, par nature, pour des clients/fabricants de marques alimentaires avec la volonté de construire de nouvelles coopérations avec les marques.

Ces nouvelles coopérations doivent être :

  • Durables, elles doivent donc répondre aux enjeux de transparence qu’attendent les annonceurs pour installer la confiance
  • Massives donc industrialisées, il faut créer de nouveaux outils avec ceux qui existent
  • ROIste, c’est le consommateur final qui valide les opérations en changeant son comportement, l’efficacité est un bon indicateur de cette acceptation. Les outils de mesure, BI, doivent être co- construits et partagés.

On explique alors aux annonceurs les opportunités ou menaces de leur business par rapport à la catégorie, la famille de produit, la promotion, la météo. Au-delà de la mesure de la performance, c’est la compréhension de cette performance qui est faite.

Evidemment, tout cela à un coût et une valeur. Que ce soit pour les annonceurs, leurs agences ou les éditeurs, Carrefour dispose, maintenant, d’outils pour répondre à leurs besoins. Les experts qui analysent, ne sont pas forcément en interne chez Carrefour, l’objectif est de connecter la donnée avec des partenaires (5 équipes différentes dans 4 entreprises différentes).

Mais après la connaissance, l’insight, il y a la dynamique de la connaissance. Associé à un CA, il y a une liste de contacts qui peut être activée pour changer les comportements : comment activer un segment d’audience sur un comportement d’achat via des médias, des services existants, des services à inventer (livraison de bouteilles pour de gros consommateurs de boisson gazeuse, pressing gratuit pour x chemises pour un lessivier…). L’important étant de créer une relation.

Chez Ogury, en termes d’organisation, le traitement de la donnée est internalisé, une équipe « data rafinery » existe même pour préparer les données. Mais sur le fond de l’utilisation des données, au-delà de la monétisation en CPM ou de l’engagement en performances de « delivery », l’apport de connaissance majeur aux éditeurs et annonceurs se fait par la compréhension du comportement de leurs cibles en dehors de l’univers qu’ils contrôlent avec leurs applications : mixités, cross usage, exclusivité, profils… sur de longues séries.

On retrouve aussi une notion dynamique du coté publicitaire en apportant de la pertinence et de la parcimonie dans la communication. Les individus sont éduqués, sont conscients de la collecte de données par les applications et les terminaux et attendent en retour des interactions proactives et contextualisées. De nombreuses études le montrent. La mission est aussi de permettre un meilleur dialogue entre annonceurs, entreprises et consommateurs.

Des progiciels édités par Ogury pour ses besoins d’analyse de la donnée en interne, sont aussi dans les mains des clients pour apporter une connaissance plus profonde de ce qui a fonctionné ou non dans une campagne, dans un segment visé, en dépassant le simple taux de clic mais en remettant dans le contexte de l’activité via le mobile.

  1. Le « sans couture » (seamless), une réalité ?

« A notre expérience sur les marques alimentaires, le sans couture n’existe pas ! »

Michel Bellanger, Carrefour Media

 

Carrefour travaille avec les wallgarden « Google, Facebook, Apple… » mais les premiers jardins clos ce sont les magasins ! Ils se sont digitalisés, ils ont monté chacun leur écosystème.

Si on se réfère au Lumascape, tous ces acteurs de ce monde-là ne donnent pas l’impression de communiquer les uns avec les autres, chacun a son propre langage, sa propre technologie et produit énormément pour alimenter les directions marketing. Ainsi, un directeur marketing a toutes ces solutions face à lui et a l’impression d’obtenir une vraie victoire quand il réussit à connecter tel système avec sa DMP. Le problème c’est que le système Facebook ou autre ne communique pas avec x ou avec y… Avoir le parcours complet du client d’un magasin est ambitieux car cela signifie, d’une part, que l’on a la transparence totale sur le marché, ce qui n’est pas le cas, et d’autre part que l’on ait de la réconciliation à l’individu (pas au device) ce qui n’est pas le cas non plus !

Chacun des éditeurs, des partenaires, impose une règle avec le risque de sacrées surprises.

Mesurer est un risque car cela peut conduire à annoncer que ce n’est pas efficace mais cela recèle des opportunités car on peut imaginer améliorer les choses. Toutefois, la chaîne et le parcours risquent de bouger et la position qu’on a dans la chaîne peut évoluer.

Carrefour est en train d’organiser un « hôtel » dans lequel il n’y a qu’un seul langage commun, le client final (réconcilier la donnée à l’individu), et chacun des partenaires (les 450 plateformes marketing) peut réserver une chambre qui dispose d’une porte sur toutes les autres chambres en maitrisant la sécurité de la donnée et les règles de privacy. Cet hôtel, est pour l’instant plus un Airbnb (on fait à la main) mais a vocation à devenir l’hôtel décrit, c’est-à-dire, l’industrialisation des réconciliations. Cela fonctionne remarquablement bien.

L’an dernier, la régie a fait une communication sur le VOPO (View On Line Purchase Off Line), le (ROPO n’existe pas en alimentaire), la réconciliation entre les données transactionnelles et les données d’exposition on line.

On travaille déjà avec Facebook et on mesure l’efficacité du digital Facebook sur l’achat chez Carrefour. Avec Google ou Appnexus, on reconcilie à l’individu les impressions digitales avec un ticket de caisse, ce qui permet de mesurer un effet (tant de chiffre incrémental, tant de recrutement incremental…) et de produire des courbes de réponse d’effet sur les ventes. Les annonceurs optimisent leurs campagnes sur des cookies mais quand on se place à l’individu, on constate qu’il a 2.5 cookies. Donc optimiser au cookie c’est voir double. Optimiser en temps réel le lundi, par exemple, quand les achats se font le jeudi, ça ne sert pas à grand-chose. Enfin, une campagne, en soi, a peu d’effet, c’est la répétition des campagnes qui fait la construction du ROI. La donnée Carrefour se teste sur 6 mois, pas en une vague, pour accumuler suffisamment de pression commerciale en digital pour obtenir un résultat.

Ogury travaille sur des données Android qui est un écosystème très fragmenté avec de nombreux constructeurs, de nombreuses versions qui ne travaillent pas toutes de la même façon.

Cela arrive qu’il y ait des trous dans les données qu’il faut détecter mais globalement l’ensemble est assez propre. Les biais qui existent sont techniques. Pas de biais non plus de cookie car l’information est à l’Android ID du smartphone qui est un objet personnel tant que l’on ne change pas de device, qu’on ne remette pas à zéro l’Android ID (c’est possible) ou tant que vous ne démissionnez pas d’Ogury !

  1. RGPD ? Privacy ? Un frein ? opportunité ?

« Le RGPD va vraiment faire le tri entre le bon grain et l’ivraie ».

Philippe Périé, Ogury

 

« Il y aura des procès, dès 2018, car il y a une vraie volonté politique »

Michel Bellanger, Carrrefour Media

Pour Ogury, l’arrivée du RGPD est une situation vécue sereinement car dès les débuts de la société, être avec un opt-in explicite était la règle. Nous avons toujours préféré perdre de la donnée que d’en collecter de manière non transparente.

C’est une opportunité attendue avec impatience car :

  • cela va provoquer un assainissement du marché de ceux qui ne sont pas vertueux et aussi mettre en avant l’unicité, la granularité de nos données
  • et c’est un bénéfice pour l’utilisateur aussi, car il aura moins de publicité mais elle sera plus intéressante, car plus ciblée et plus contextualisée. L’acceptation publicitaire sera plus forte.

Le RGPD est aussi une opportunité pour Carrefour. Le même argument de nettoyage du marché est aussi mis en avant. Des cookies distributeurs circulent sur le marché, d’où sortent-ils ? Du probabilisé plus que du réel !

Soyons audacieux et saisissons le RGPD pour positionner Carrefour pas seulement sur une carte de fidélité, pourquoi ne pas proposer aux clients de les rémunérer pour l’usage de leurs données en euros sur leur carte fidélité ?  Pourquoi pas un pass data ou le client peut gérer ces opt-in opt-out pour tout ? Il y a une vraie réflexion autour d’une offre de services et pas seulement l’offre de produit. La force de Google et Facebook ? Un service de qualité. Le RGPD constitue une vraie opportunité pour les Directeurs marketing d’apporter un vrai service.

  1. A-t-on encore besoin du parcours des pensées ? Les sociétés d’études servent à quelque chose ?

« S’il y a biais ou censure et pas d’élément pour contextualiser, caler ou cadrer, les masses de données ne vont pas apporter grand-chose, au contraire on est sûr de raconter n’importe quoi »

Philippe Périé, Ogury

 Après 15 ans à TNS et IPSOS, Philippe Périé ne peut fournir une réponse objective ! Pour lui, on ne répond pas aux mêmes objectifs.

L’étude permet d’avoir accès à de la donnée couvrant tout le marché, les occasions (pas seulement l’interaction que le client a avec les points de contacts contrôlés par l’entreprise). S’il y a biais ou censure et pas d’élément pour contextualiser, caler ou cadrer, les masses de données ne vont pas apporter grand-chose, au contraire on est sûr de raconter n’importe quoi ! La donnée étude (quali/quanti) permet cette mise en perspective.

La récolte passive et massive de données apporte des informations de comportements et d’usages contextualisées, sur de longues périodes et sur de tels volumes et degrés de granularité que l’on peut descendre à des niveaux de résolutions inaccessibles autrement, et sans biais de souvenir.

En résumé, l’étude permet la mise en perspective, la couverture hors du champ de ce qui est pris par nos canaux, on est plus sur des problématiques de compréhension de marché, consommateur… Les données massives apportent la granularité, longues séries, exhaustivité, données contextuelles. On est alors plus souvent sur de l’opérationnel.

Ensuite, il y a tous les modèles d’hybridation possibles.

 

Selon Carrefour, la base de données permet d’optimiser mais, le plus important, c’est innover, avoir des idées. Ce sont souvent les clients qui en parlent le mieux et ce n’est pas dans les bases de données qu’on les trouve.

ePrivacy: et si la mesure d’audience disparaissait?

Share This:

En avril 2016,  (après 4 ans de discussion) était adopté au niveau européen, le « règlement général sur la protection des données » (RGPD ou GDPR en anglais ). RGPD entrera en application en mai 2018, nous en avons déjà parlé ici.

En janvier 2017, une nouvelle procédure a démarré, intitulée ePrivacy, qui doit harmoniser les législations relative à la confidentialité des « communications électroniques ».

Le monde de la communication est contre ePrivacy, que ce soit les annonceurs, les régies publicitaires, les media y compris internet (sauf Google et Facebook) et, aussi, le monde des études.

Une telle unanimité contre soi, c’est une belle performance.

On trouvera ici une version du 8 septembre de ce texte avec toutes les modifications déjà faites.

Une coalition pour la mesure d’audience (ESOMAR et beaucoup d’autres) a été créée et a publié, le 21 septembre 2017, une déclaration demandant des modifications de l’article 8 le retrait d’un mot et l’ajout d’un autre, et ça change tout!

“If it is necessary for web audience measuring, provided that such measurement is carried out by, or on behalf of, the provider of the information society service requested by the end-user”,

Que se passerait-il si la mesure d’audience disparaissait du fait de la nouvelle loi toujours en discussion?

De facto, RIEN.

Le marché publicitaire n’aura plus besoin de monnaie commune (la raison d’être d’une mesure d’audience) car tout l’écosystème publicitaire digital (et autres) aura d’autres chats à fouetter et luttera pour sa survie (sauf les GAFA)…

Affaire à suivre.

Intelligence Artificielle, quel marché? Pour qui? Pour quoi?

Share This:

Dans un billet précédent, nous avions parlé de la taille du marché technologique autour de la RGDP (362 millions € en 2016, 1.2 milliards en 2018 et encore 1.1 mds en 2020, source étude IDC pour Microsoft, microsoftexperiences 2017). Dans la même étude, IDC a évalué l’Intelligence Artificielle (IA).

[150 individus interrogés (DSI, managers IT, Directions métiers) au sein d’entreprises avec un effectif de 500 salariés et plus du secteur industriel : Banque-Finance-Assurance, Industrie Manufacturière et de Process, Commerce (gros et détail, VPC, négoce, import- export), Santé (Cliniques, Hôpitaux, Etablissements de soins)].

Le marché des technologies liées à l’Intelligence Artificielle est d’une taille beaucoup plus petite (9 fois moins importante que RGPD en 2018),

  • 65 millions en 2016

  • 129 millions d’€ en 2018

  • 265 millions d’€ en 2020

Où en sont les entreprises ?

  • 22% n’ont pas de réflexion ou de projet
  • 42% des entreprises en sont au stade de la réflexion et de la compréhension du sujet
  • 22% vont démarrer un projet d’ici 1 an ou plus
  • 6% ont un projet pilote en cours
  • 6% l’utilisent déjà dans un seul domaine

Pour faire quoi ?

C’est là où la définition de l’IA entre en ligne de compte. L’IA dans cette étude, va du chatbot, aux algorithmes, à l’infrastructure cloud, à l’analyse des images… (cf photo ci-dessous). Cela correspond probablement au périmètre de Microsoft sur le sujet (supposition gratuite!)

IA technologies deployees ou en projet microsoft IDC

Et pour quels cas d’usage par fonction ?

Rien de révolutionnaire pour notre discipline préférée, le marketing, : « optimisation des campagnes marketing » et « personnalisation et recommandations affinées »

Et pour quels cas d’usage par secteur ?

« Recommandations financières intelligentes » pour la finance 😊.

Par contre, on retrouve de façon chiffrée, pour l’industrie, ce que Yannick Carriou nous avait évoqué lors d’un petit déjeuner IREP, 70% des entreprises visent à réduire les coûts grâce à la digitalisation  des lignes de production.

GDPR, RGPD, un beau business pour les sociétés d’IT (et du juridique)

Share This:

Qui n’a pas entendu, ces acronymes (RGPD, GDPR) depuis quelques mois ? On a une véritable accélération de l’intérêt pour le sujet depuis septembre 2017 (cf Google trends).

Si vous n’êtes toujours pas dans le coup, il y a un grand nombre de conférences, d’articles sur le sujet (plus d’un article par jour sur le RGDP dans la presse française digitale dans les 30 derniers jours selon Visibrain)

Google trends RGPD GDPR worldwide

RGDP (Réglementation Générale pour le Protection des Données) mais c’est GDPR (la version anglaise) qui domine, même en France (pffff!).

google trends france RDPD GDPR

Cette réglementation européenne entrera pleinement en application en mai 2018.

Les implications techniques liées à la RGPD (GDPR) créent un marché évalué à:

  • 362 millions € en 2016,
  • 1.2 milliards en 2018
  • et encore 1.1 mds en 2020

Un des résultats d’une étude BtoB faite par IDC pour Microsoft et présentée, début octobre 2017, dans le cadre des 2 jours Microsoftexperiences (comme d’habitude, au palais des congrès, noir de monde). L’étude a été faite sur 150 entreprises de 500 salariés & plus (plutôt des grosses entreprises donc).

Comme le montre le volume 2017 et son triplement en 2018, cela signifie que toutes les entreprises ne sont pas opérationnelles sur le sujet, moins d’1 an avant l’entrée en vigueur de la loi.

Pour être plus précis, selon IDC,

  • 42% des entreprises prennent juste conscience du sujet
  • 19% seront en conformité en 2017
  • 30% seront en conformité en 2018
  • 9% sont déjà prêts

Sur les entreprises qui œuvrent déjà dans le domaine, certaines difficultés sont surévaluées et d’autres sont sous-évaluées:

Difficultés surévaluées Difficultés sous-évaluées
Notification de violation des données personnelles sous 72H Transfert de données hors d’Europe
Cryptage / Anonymisation Droit à l’oubli
Service de demande d’accès aux données Effacement de données
Accès aux données réelles des clients  

Il y a du boulot !