Étiquette : data (Page 2 of 3)

Google, Facebook, Amazon les garants de notre vie privée (compte rendu partiel d’un petit déjeuner IREP)

Share This:

Le 28 mars 2019 à l’IREP, nous avions le plaisir d’animer un petit déjeuner intitulé « Data et publicité, où mettre le curseur entre les besoins d’une profession et la protection de l’e-privacy ? « 

2 intervenants ont débattu de ce sujet:

un économiste, Marc Bourreau (professeur à Telecom ParisTech)

un professionnel, Erwan le Page (Directeur général de MediaSquare)

Nous ne publions pas l’intégralité du compte-rendu écrit car celui-ci est réservé aux membres de l’IREP (profitez en pour vous inscrire!!) mais seulement un extrait, c’est dommage car c’était passionnant!

Marc Bourreau a publié en 2018 un article « The value of consumer data in online advertising ». Il y explique un modèle théorique, mathématique, construit en économie pour aider la réflexion sur certaines questions :

  • Quelle est la valeur des données échangées sur des marchés en ligne ? Quels sont les déterminants de cette valeur du côté des plateformes programmatiques?
  • Quelle est l’influence de la structure des marchés des plateformes programmatiques (une plateforme très dominante, en monopole, vs des plateformes en concurrence accrue entre elles)
  • Quel est l’impact de la structure du marché programmatique ? La présence de nombreux annonceurs sur ce marché va-t-elle avoir une influence sur le nombre de données échangées, et sur leurs valeurs ?

Dans ce modèle, une plateforme programmatique a des informations sur les individus (sexe, …centres d’intérêts, …informations anonymisées ou sous forme de cibles). Cette plateforme, financée par la publicité uniquement, vend des espaces publicitaires à des annonceurs sur la base d’enchères au second prix, comme le marché de la publicité en ligne.

Le modèle permet de déterminer le niveau d’informations individuelles révélé par la plateforme programmatique à l’annonceur (ie publicitaire) pour la bonne adéquation entre le profil recherché et le profil proposé. Il permet de déterminer, aussi, à quel prix est vendu l’espace publicitaire en fonction du nombre de données révélées par la plateforme programmatique

Résultats ?

Nous mettons ci-dessous un graphique extrait de l’article pour faciliter la compréhension du lecteur. Le « social planner » (planificateur social) est une construction artificielle, un régulateur, ici une plateforme étatique qui n’a pas pour but le profit. En abscisse, à l’horizontal, le nombre d’annonceurs. En ordonnée, à la verticale, le nombre de caractéristiques individuelles utilisées. Chaque courbe correspond à 3 situations de concurrence.

  1. Plus il y a plus d’annonceurs qui participent à l’enchère, plus la plateforme révèle des informations quelle que soit la situation concurrentielle.

Selon Erwan Le Page, on peut interpréter le résultat aussi dans l’autre sens : « c’est parce qu’il y a plus d’informations qu’il y a plus d’annonceurs ». Une plateforme programmatique a toujours intérêt à avoir beaucoup d’annonceurs. Dans un système d’enchères, s’il n’y a pas de densité sur l’enchère, il n’y a pas de prix qui puissent monter. La première mission des plateformes programmatique est, absolument, d’attirer le plus grand nombre d’acheteurs possibles. Et pour cela, et peut-être les motiver, il faut proposer plus d’informations, avoir des typologies de profils proposés vastes pour pouvoir atteindre un CA plus important.

  • Une plateforme en monopole va révéler moins d’informations que des plateformes programmatiques en oligopole

Les plateformes en concurrence vont chercher à attirer des annonceurs, et pour attirer les annonceurs, elles vont essayer de leur promettre le « meilleur repas possible », et celui-ci va être obtenu en donnant le maximum d’informations pour que les annonceurs sachent bien, puissent bien anticiper, quelle est la valeur du consommateur proposé par la plateforme.

Si l’on reformule ce résultat cela signifie que Facebook, Google ou Amazon… sont les meilleurs garants de nos données « individuelles », ce qui peut paraitre surprenant mais est, finalement, logique dans le sens de cette recherche (Isabelle Le Roy)

Dans le modèle, le monopole révèle moins d’informations que le « planificateur social » (cf plus haut pour la définition)

Le planificateur social se soucie du fait qu’il y ait des bons matchs dans cette économie. Un bon match, signifie aussi plus d’échanges économiques, ce qui est bon pour l’activité de la société, donc au final tout le monde est content, les consommateurs, les entreprises… Le monopole va avoir une stratégie un peu malthusienne, de recherche de la maximisation du prix de l’espace publicitaire plutôt que la valeur de l’espace publicitaire. Le planificateur social, lui, va essayer de maximiser la valeur de l’espace publicitaire, ce qui est différent.

  • Pour la Société, donc pour l’ensemble des agents dans cette économie (les consommateurs, les annonceurs et les plateformes), la valeur sociale incrémentale de l’information est décroissante avec la quantité d’informations révélée. Plus on révèle d’informations, plus révéler une unité d’information supplémentaire va avoir une petite valeur.

Ceci peut se voir dans le graphique suivant où n est le nombre d’annonceurs.

et la suite c’est pour les membres de l’IREP où les participants au petit déjeuner!

En Australie, la TV poursuit la démonstration de son efficacité ventes vs YouTube et Facebook (ça fait mal…) (compte rendu partial et partiel conférence SNPTV)

Share This:

Le 25 mars 2019, le SNPTV organisait une conférence sur le thème « la matinée de l’efficacité TV ».

Le « clou du spectacle » était le retour (un an après) de Karen Nelson-Field, la chercheuse commissionnée par le groupement des TV australiennes pour étudier l’efficacité de la TV vs YouTube et Facebook.

Nous nous étions fait l’écho de ses premiers travaux en octobre 2017 (nous étions les premiers à en parler en France  ) avec un premier article, au titre un peu racoleur nous en convenons, « comment la TV australienne défonce Google et Facebook ». Vous y retrouverez la méthodologie fort impressionnante (gros échantillons, Eye tracking, Magasin virtuel, Intelligence artificielle…).

Puis en février 2018, elle était venue présenter la suite. Nous en avions parlé dans «  le match TV vs YouTube et Facebook continue, 2 à 1 pour la TV ».

Et là, on s’approche du score d’une finale de coupe de monde (en 1998), 3 à 0 pour la TV vs YouTube et Facebook!

Alors, un petit rappel (avant les nouveautés)

1ère étude

  • L’attention publicitaire est plus forte sur l’écran TV (58%) quand YouTube (sur PC) est à 45% et Facebook (sur PC) est à 20%
  • Corrélation forte entre attention et ventes
  • Impact ventes (mesurée en STAS) en faveur de la TV (144) > YouTube (118) > Facebook (116)

 2ème étude

Prise en compte du mobile, ce qui est plus juste pour Facebook dont c’est l’appareil d’utilisation dominant (plus de 80%) et qui a élargi l’étude à l’intégration de la TV sur PC et mobile (replay), YouTube sur PC et mobile, idem pour Facebook.

  • L’attention est plus forte sur mobile pour tous (intrinsèque avec le device, il est plus près de nos yeux)
  • Même sur le mobile, c’est toujours la TV qui a l’attention la plus forte. TV sur mobile attention à 63% quand YouTube est à 54% et Facebook à 54%.
  • Et, cela se retrouve dans les ventes (STAS) TV a un STAS de 161, quand YouTube est à 137 et Facebook 121.
  • La raison en serait, simplement, l’occupation de la publicité dans l’écran physique.

Les nouveautés?

Quelle est la durée de l’effet ventes mesuré à 1 jour, 14 jours et 28 jours ?

  • La publicité TV a une rémanence largement plus forte. L’effet YouTube décroit 3 fois plus vite que la TV (mais en partant plus haut que Facebook). L’effet Facebook décroit 2.5 fois plus vite.

Quel est le meilleur « écran » ?

  • La pub TV sur écran TV a l’effet le plus long même si son STAS de départ est plus bas que la TV sur mobile

Et quelle est la meilleure complémentarité, à votre avis ?

  • Le couple gagnant c’est TV sur écran TV + TV sur mobile (replay)

Enfin, on touche qui des petits, moyens, gros acheteurs ?

Un media avec une forte couverture touche a priori tout le monde donc aussi des petits acheteurs qui sont ceux qui font la croissance des marques

  • Facebook est sous performant par rapport à sa pénétration en Australie  
  • Et, en prenant une marque de chocolat, que ce soit Facebook, Instagram ou Snapchat (YouTube non mentionné ici), sont touchés en majorité les gros consommateurs quand la TV  a une distribution attendue par rapport à sa pénétration.

Vous en voulez encore ?

Ça suffit pour cette fois ! Mais… à venir, la même étude aux USA et en Grande Bretagne (ils ont les moyens de se payer de belles études eux!) et en Australie, Karen Nelson-Field va s’attaquer à l’effet programme.

Alors, bien ou pas bien cette étude?

C’est vrai qu’en étant payé par le syndicat des TV australiennes, on s’attend à ce que les résultats soient en faveur de la TV mais la méthodologie montrée (on en a vu un peu plus cette fois-ci que les fois précédentes) est sérieuse, même si, dans l’absolu, nous ne sommes pas les plus grands fans du magasin virtuel et du STAS. Nous rêvons de voir la même étude réalisée en France.

Vous trouverez la présentation de l’étude australienne sur le site du SNPTV ici ainsi que les 2 autres études présentées lors de cette matinée

Les clés d’un parrainage TV efficace d’Impact mémoire

Effet de contexte et impact sur l’efficacité publicitaire – Harris Interactive

Quel est le pays où les télévisions, les agences media sont bridées dans leurs analyses et leur productivité… La France ?

Share This:

Nous avons eu l’occasion d’assister au MIM12 organisé par la société Markdata à Lisbonne les 24 et 25 janvier 2019. Cette société portugaise nous y avait invité, ce dont nous les remercions. Près de 120 personnes (TV, radio, agences media, régies, sociétés d’études…) venues du monde entier (Allemagne, Belgique, Brésil, Bulgarie, Espagne, Inde, Italie, Maroc, Mexique, Portugal, UK, …) assistaient à la présentation des dernières nouveautés logiciels de Markdata.

2 jours de logiciels (en anglais), c’est parfois long, curieux, mais aussi passionnant (bravo pour les 2 interventions en binôme avec un grand pro de la TV et du digital au Portugal, Paulo Soares), magique et étonnant.

Le clou de ces 2 jours a été une matinée passionnante avec la présentation de YUMI web, le tout nouveau logiciel d’analyse des données individuelles TV : simple, friendly user, riche, complet, évolutif, ouvert à tous types de data (image, video, media-marché, pige, social, …) permettant de procéder à des analyses intelligentes pour un meilleur marketing programmes ou publicitaires. Les analyses étant automatisables aisément pour des gains de productivité immédiats.

Bref, la salle était déjà limite de la « standing ovation » quand, ensuite, ont été montrés :

  • une interface vocale, à base d’intelligence artificielle, pour demander des résultats (cool !)
  • Un audimètre, SAM (Smart Audio Matching), nouvelle génération, un petit boitier et une appli smartphone basé sur le fingerprinting (reconnaissance du son des programmes, identification par comparaison avec une base de données de programmes). Prix imbattable 150€ !

Les réactions de la salle, les multiples questions et la meute autour de l’audimètre ou du smartphone pour l’interface vocale ont été la preuve de l’énorme intérêt.

Quand nous voyons quelque chose de nouveau, nous avons le réflexe (un bien ou un mal…) de faire le comparatif avec ce que nous connaissons. Et là, nous nous sommes dit, « pauvre France ».

Pourquoi ?

La France, Mediamétrie en l’occurrence, a été le premier partenaire international de Markdata (1995) (et est toujours cliente via Eurodata).

Un logiciel, Telereport, a été le fruit de cette collaboration (merci Stéphane Simonart), et des évolutions nombreuses ont été faites au fil des années, la France apportant ses demandes et la France bénéficiant des demandes des autres pays.

Telereport a été remplacé en 2003 par MMW qui fut implanté sur le marché français, un peu en catastrophe. En effet, le très gros projet Médiamat2 de Médiamétrie (la refonte du système de production et de restitution des données) avait été un échec retentissant (et très coûteux) sur la partie « restitution » de l’information. Même si les intentions étaient bonnes, la réalisation, du point de vue client (nous en faisions partie), avait été un naufrage. Médiamétrie était alors revenu vers Markdata pour resigner un contrat pour MMW de façon à ce que les clients français puissent continuer à faire des analyses sur les données TV.

Comme pour tout logiciel, des mises à jour ont eu lieu mais, après 2015, plus de mises à jour de MMW pour le marché français quand tous les autres pays en bénéficiaient. Volonté politique ? Manque de personnel ? d’intérêt ? … nous ne le savons pas.

La raison est, peut-être, à trouver, en 2017, quand, Médiamétrie a dénoncé le contrat MMW et a lancé, officiellement, son propre logiciel, Restit TV. Nous avons eu l’occasion de le voir, à cette époque, et, un peu comme Mediamat2 en son temps, les intentions étaient bonnes mais la réalisation et la palette d’analyses étaient loin de correspondre aux besoins des clients français qui, selon nos informations, firent connaitre leur mécontentement (le nom d’un plat provençal en sauce semblait s’appliquer…). Depuis, le logiciel s’est bien amélioré, mais on est loin de ce que nous avons vu à Lisbonne (Yumi Web) où même, de ce que peut faire la start-up Daily d’initiés (incubateur TF1 à Station F) sur les données agrégées.

Concevoir des logiciels est un métier. Pourquoi dépenser de l’énergie et de l’argent pour faire quelque chose que d’autres font beaucoup mieux, plus vite, moins cher (un produit amorti dans de nombreux pays vs un produit construit pour un pays) ?

Nous trouvons très dommage et très triste que le marché français se trouve à la traîne des autres pays sur ce sujet. L’exception française a-t-elle une raison d’être ? Les clients français, qui sont aussi actionnaires de Médiamétrie, doivent avoir de bonnes raisons et ont dû avoir de réelles justifications que nous ignorons, pour se priver de solutions que nous jugeons productives et intelligentes, mais ce n’est que notre humble opinion.

En conclusion, l’ouverture a du bon, vive les jardins ouverts pour paraphraser « petitweb » !   

Faisons attention à l’attention! Tribune commune O Goulet et I le Roy (cb news 11/10/2018)

Share This:

L’attention est devenue le buzzword actuel de la communication au niveau mondial.

Le constat est simple, nous, individus, consommateurs, prospects, clients, citoyens, sommes bombardés (et pourtant, avec le ciblage affiné promis par le digital, le « carpet bombing » devait disparaître) de messages publicitaires toujours plus nombreux, toujours plus personnalisés. Et encore, c’est sans compter les messages diffusés que nous ne voyons pas (un peu moins de 40% des publicités sur dekstop ne sont pas visibles, 23% des vidéos selon IAS 1er semestre 2018).

Il est alors légitime de se poser la question: sommes-« nous » attentifs ou non à ce qui est diffusé. C’est la base, le socle, d’un début de relation entre un message émis et sa réception dans notre cerveau. Le cerveau humain est ainsi fait que, si nous ne portons pas un minimum d’attention à un message, il ne se passera rien !

La question est donc bonne. Mais a-t-on les moyens, aujourd’hui, de mesurer cette attention ?

Des initiatives existent dans certains pays que l’on pourra toujours critiquer, glorifier, mais qui ont le mérite d’exister et d’apporter des éléments de réflexion. Aux USA et au Japon, par exemple, des annonceurs et des media utilisent les services de sociétés technologiques spécialisées dans cette mesure. Autre exemple, l’Australie, où un media, la télévision, est le fer de lance de la mesure technologique de l’attention, à grande échelle, pour mettre en avant ses qualités par rapport aux plateformes.

Des constantes dans les pays actifs sur le sujet ? Oui, les technologies de mesure passives, la masse, et, pour certains, la syndication.

Technologies passives ? Les progrès des neurosciences sont certains et y recourir est aujourd’hui la seule solution pour parvenir à approcher, correctement, le phénomène. Vous ajoutez à cela toutes les technologies embarquées dans les différents devices qui font partie de notre quotidien et vous obtenez un couple gagnant.

La masse ? Ou que ce soit, on parle d’échantillons représentatifs, la base d’une mesure fiable, et généralement, ce ne sont pas de petits échantillons !

La syndication ? Les dispositifs sont coûteux, qui a les moyens de les payer ? Un media? Des media? De gros annonceurs qui en ont assez de dépenser de l’argent à fonds perdus ?

Le marché français, depuis quelques mois, fourmillent d’initiatives sur la mesure de l’attention. Elles proviennent, souvent, des agences media (c’est très bien de revoir les agences media sur le sujet de l’expertise pour montrer qu’elles ont toujours un rôle à jouer dans le conseil donné aux annonceurs). Elles viennent aussi des régies qui initient des projets ponctuels sur leurs supports ou leurs médias.

Mais, on assiste, où l’on va assister, à la même chose que ce que l’on a pu voir pour l’engagement.

Tout le monde mesure « l’engagement », mais tout le monde a une définition différente de ce qu’est l’engagement. On ne sait donc plus ce qui est mesuré à droite ou à gauche, par qui, pourquoi, comment ! Au final, cet indicateur essentiel a perdu son sens et son universalité par trop plein de définitions diverses, variées et parfois, disons-le, loufoques.

Là, pour l’attention, il faut prendre les choses dans le bon sens, être innovant dans la mesure, y mettre des moyens, et faire travailler ensemble media, agences et annonceurs.

C’est un enjeu collectif qui doit être abordé comme tel. Il s’agit moins de défendre les intérêts particuliers de certains que de défendre l’intérêt global d’une profession à démontrer sa pertinence.

 

Nous sommes prêts pour accompagner ceci. Et vous ?

Le parcours de l’individu via son mobile (Ogury), le parcours du consommateur ON et OFF (Carrefour Media) (compte rendu impartial et complet)

Share This:

Michel Bellanger (Directeur Marketing, Carrefour Media) et Philippe Périé (Vice-Président Data & Algorithmes, Ogury) étaient les invités du petit déjeuner IREP que nous avons eu le plaisir d’animer le 28 février.

Ci-après le compte-rendu complet de ce petit déjeuner.

  1. Carrefour Media et Ogury en tant que sociétés

Ogury a été créée en septembre 2014, et est composée de 150 personnes, à ce jour (droit anglais mais siège à Paris). Le CA 2017 est d’un peu plus de 40 millions d’euros. Cette société est, historiquement, une société de technologie dédiée au ciblage publicitaire, au branding et à la performance sur mobile (Android uniquement pour l’instant). Mais le modèle évolue du fait de la croissance et de la granularité des données. Ogury se définit maintenant comme une « mobile data company » pour offrir des outils de monétisation, de ciblages publicitaires et d’analyses pour les annonceurs et les éditeurs.

Carrefour Media est le quatrième contributeur à la marge de Carrefour France et emploie 40 personnes. Ses clients sont les marques référencées chez Carrefour principalement. Les performances de la régie et ses actions autour de la data font que la nouvelle gouvernance de l’entreprise réinvestit énormément le sujet et les moyens afférents.

  1. Comment faites-vous pour suivre les individus ou consommateurs?

  • Le terme suivre est rejeté par les 2 participants.

Pour Philippe Périé (Ogury), on n’est pas dans une logique de suivre les individus de façon individuelle et en permanence, cela ferait beaucoup trop de données ! Cependant, la valorisation des données est faite, à la demande, dans des contextes particuliers pour des clients éditeurs, annonceurs ou entreprises. La donnée est agrégée, anonyme pour créer des cibles, des profils et pour décrire des audiences, et non pas pour suivre un individu.

Michel Bellanger (Carrefour Media) met lui aussi en avant la connaissance client pour répondre à des attentes et non pas suivre une personne.

  • Comment font-ils ?

Ogury s’associe à des milliers d’applications, dans le monde entier, pour générer des données d’intérêt et de comportement uniques directement à partir de plus de 400 millions de profils d’utilisateurs mobiles uniques (250 millions avec opt-in) dans plus de 120 pays.

L’éditeur fait rentrer, dans son application, le SDK Ogury qui va, à partir de l’opt-in, collecter des données brutes (bas niveau) traduites en données significatives et utiles (applications installées, applications utilisées, connectivité et sites visités…) grâce à une technologie propriétaire. Cette vue, first party, est complète, assez unique en profondeur, en récurrence, en précision, et disponible nulle part ailleurs. La récolte des données brutes est importante pour minimiser l’empreinte du SDK sur la batterie du smartphone, un des plus d’Ogury.

Ces informations sont, ensuite, transformées par des équipes de data scientists en visites, en fréquentation, en durée. Au final, ces données sont enrichies dans une optique de ciblage publicitaire mais sont proposées aussi comme vecteur de connaissance pour un éditeur : le parcours de l’utilisateur de son application était celui-là il y a une semaine, et a été celui-ci 2 semaines après… Originellement, Ogury s’est lancé en payant un CPM assez généreux (entre 8 et 12 €), cette proposition attractive n’était pas la seule du marché, les éditeurs ont alors souhaité disposer de plus de connaissance. Ogury va aussi vers un modèle NO PUB pour proposer de la connaissance d’audiences aux clients.

Pour répondre aux enjeux de revenus de Carrefour, l’enseigne a développé des outils permettant de répondre aux attentes des consommateurs : une offre, un service omnicanal, plus de générosité, plus de personnalisation.

Carrefour a 3 grands types de connaissance clients.

  • Les transactions collectées via les tickets de caisse (anonyme) et via la carte fidélité personnelle (14,3 millions de porteurs, 27 mois d’historique d’achat à l’EAN, au code-barre). Les premières sont de l’informatique, les secondes sont de l’intelligence. Avec les encartés, Carrefour retrace 85% du CA des hypermarchés, mais moins dans les magasins de proximité.
  • La navigation / fréquentation média: magasins on (adserver / tracking) et off (carte fidélité). Les outils qui, il y a 5 ans, étaient managés par les agences (ex ad serveur) ont été réinternalisés au principe que c’était de la connaissance client qui permet de personnaliser la relation avec l’individu. La clé du commerce pour Carrefour étant la personnalisation, l’internalisation des outils était indispensable. Un questionnaire média est aussi adressé à certains porteurs de carte.
  • Les données externes de type Météo, de la donnée de contexte.
  1. Pour quelle(s) finalité(s) ?

« Après la connaissance, l’insight, il y a la dynamique de la connaissance »

Michel Bellanger, Carrefour Media

 

« On dépasse le simple taux de clic en remettant dans le contexte de l’activité via le mobile. »

Philippe Périé, Ogury

 Pour Carrefour Media, les objectifs sont, par nature, pour des clients/fabricants de marques alimentaires avec la volonté de construire de nouvelles coopérations avec les marques.

Ces nouvelles coopérations doivent être :

  • Durables, elles doivent donc répondre aux enjeux de transparence qu’attendent les annonceurs pour installer la confiance
  • Massives donc industrialisées, il faut créer de nouveaux outils avec ceux qui existent
  • ROIste, c’est le consommateur final qui valide les opérations en changeant son comportement, l’efficacité est un bon indicateur de cette acceptation. Les outils de mesure, BI, doivent être co- construits et partagés.

On explique alors aux annonceurs les opportunités ou menaces de leur business par rapport à la catégorie, la famille de produit, la promotion, la météo. Au-delà de la mesure de la performance, c’est la compréhension de cette performance qui est faite.

Evidemment, tout cela à un coût et une valeur. Que ce soit pour les annonceurs, leurs agences ou les éditeurs, Carrefour dispose, maintenant, d’outils pour répondre à leurs besoins. Les experts qui analysent, ne sont pas forcément en interne chez Carrefour, l’objectif est de connecter la donnée avec des partenaires (5 équipes différentes dans 4 entreprises différentes).

Mais après la connaissance, l’insight, il y a la dynamique de la connaissance. Associé à un CA, il y a une liste de contacts qui peut être activée pour changer les comportements : comment activer un segment d’audience sur un comportement d’achat via des médias, des services existants, des services à inventer (livraison de bouteilles pour de gros consommateurs de boisson gazeuse, pressing gratuit pour x chemises pour un lessivier…). L’important étant de créer une relation.

Chez Ogury, en termes d’organisation, le traitement de la donnée est internalisé, une équipe « data rafinery » existe même pour préparer les données. Mais sur le fond de l’utilisation des données, au-delà de la monétisation en CPM ou de l’engagement en performances de « delivery », l’apport de connaissance majeur aux éditeurs et annonceurs se fait par la compréhension du comportement de leurs cibles en dehors de l’univers qu’ils contrôlent avec leurs applications : mixités, cross usage, exclusivité, profils… sur de longues séries.

On retrouve aussi une notion dynamique du coté publicitaire en apportant de la pertinence et de la parcimonie dans la communication. Les individus sont éduqués, sont conscients de la collecte de données par les applications et les terminaux et attendent en retour des interactions proactives et contextualisées. De nombreuses études le montrent. La mission est aussi de permettre un meilleur dialogue entre annonceurs, entreprises et consommateurs.

Des progiciels édités par Ogury pour ses besoins d’analyse de la donnée en interne, sont aussi dans les mains des clients pour apporter une connaissance plus profonde de ce qui a fonctionné ou non dans une campagne, dans un segment visé, en dépassant le simple taux de clic mais en remettant dans le contexte de l’activité via le mobile.

  1. Le « sans couture » (seamless), une réalité ?

« A notre expérience sur les marques alimentaires, le sans couture n’existe pas ! »

Michel Bellanger, Carrefour Media

 

Carrefour travaille avec les wallgarden « Google, Facebook, Apple… » mais les premiers jardins clos ce sont les magasins ! Ils se sont digitalisés, ils ont monté chacun leur écosystème.

Si on se réfère au Lumascape, tous ces acteurs de ce monde-là ne donnent pas l’impression de communiquer les uns avec les autres, chacun a son propre langage, sa propre technologie et produit énormément pour alimenter les directions marketing. Ainsi, un directeur marketing a toutes ces solutions face à lui et a l’impression d’obtenir une vraie victoire quand il réussit à connecter tel système avec sa DMP. Le problème c’est que le système Facebook ou autre ne communique pas avec x ou avec y… Avoir le parcours complet du client d’un magasin est ambitieux car cela signifie, d’une part, que l’on a la transparence totale sur le marché, ce qui n’est pas le cas, et d’autre part que l’on ait de la réconciliation à l’individu (pas au device) ce qui n’est pas le cas non plus !

Chacun des éditeurs, des partenaires, impose une règle avec le risque de sacrées surprises.

Mesurer est un risque car cela peut conduire à annoncer que ce n’est pas efficace mais cela recèle des opportunités car on peut imaginer améliorer les choses. Toutefois, la chaîne et le parcours risquent de bouger et la position qu’on a dans la chaîne peut évoluer.

Carrefour est en train d’organiser un « hôtel » dans lequel il n’y a qu’un seul langage commun, le client final (réconcilier la donnée à l’individu), et chacun des partenaires (les 450 plateformes marketing) peut réserver une chambre qui dispose d’une porte sur toutes les autres chambres en maitrisant la sécurité de la donnée et les règles de privacy. Cet hôtel, est pour l’instant plus un Airbnb (on fait à la main) mais a vocation à devenir l’hôtel décrit, c’est-à-dire, l’industrialisation des réconciliations. Cela fonctionne remarquablement bien.

L’an dernier, la régie a fait une communication sur le VOPO (View On Line Purchase Off Line), le (ROPO n’existe pas en alimentaire), la réconciliation entre les données transactionnelles et les données d’exposition on line.

On travaille déjà avec Facebook et on mesure l’efficacité du digital Facebook sur l’achat chez Carrefour. Avec Google ou Appnexus, on reconcilie à l’individu les impressions digitales avec un ticket de caisse, ce qui permet de mesurer un effet (tant de chiffre incrémental, tant de recrutement incremental…) et de produire des courbes de réponse d’effet sur les ventes. Les annonceurs optimisent leurs campagnes sur des cookies mais quand on se place à l’individu, on constate qu’il a 2.5 cookies. Donc optimiser au cookie c’est voir double. Optimiser en temps réel le lundi, par exemple, quand les achats se font le jeudi, ça ne sert pas à grand-chose. Enfin, une campagne, en soi, a peu d’effet, c’est la répétition des campagnes qui fait la construction du ROI. La donnée Carrefour se teste sur 6 mois, pas en une vague, pour accumuler suffisamment de pression commerciale en digital pour obtenir un résultat.

Ogury travaille sur des données Android qui est un écosystème très fragmenté avec de nombreux constructeurs, de nombreuses versions qui ne travaillent pas toutes de la même façon.

Cela arrive qu’il y ait des trous dans les données qu’il faut détecter mais globalement l’ensemble est assez propre. Les biais qui existent sont techniques. Pas de biais non plus de cookie car l’information est à l’Android ID du smartphone qui est un objet personnel tant que l’on ne change pas de device, qu’on ne remette pas à zéro l’Android ID (c’est possible) ou tant que vous ne démissionnez pas d’Ogury !

  1. RGPD ? Privacy ? Un frein ? opportunité ?

« Le RGPD va vraiment faire le tri entre le bon grain et l’ivraie ».

Philippe Périé, Ogury

 

« Il y aura des procès, dès 2018, car il y a une vraie volonté politique »

Michel Bellanger, Carrrefour Media

Pour Ogury, l’arrivée du RGPD est une situation vécue sereinement car dès les débuts de la société, être avec un opt-in explicite était la règle. Nous avons toujours préféré perdre de la donnée que d’en collecter de manière non transparente.

C’est une opportunité attendue avec impatience car :

  • cela va provoquer un assainissement du marché de ceux qui ne sont pas vertueux et aussi mettre en avant l’unicité, la granularité de nos données
  • et c’est un bénéfice pour l’utilisateur aussi, car il aura moins de publicité mais elle sera plus intéressante, car plus ciblée et plus contextualisée. L’acceptation publicitaire sera plus forte.

Le RGPD est aussi une opportunité pour Carrefour. Le même argument de nettoyage du marché est aussi mis en avant. Des cookies distributeurs circulent sur le marché, d’où sortent-ils ? Du probabilisé plus que du réel !

Soyons audacieux et saisissons le RGPD pour positionner Carrefour pas seulement sur une carte de fidélité, pourquoi ne pas proposer aux clients de les rémunérer pour l’usage de leurs données en euros sur leur carte fidélité ?  Pourquoi pas un pass data ou le client peut gérer ces opt-in opt-out pour tout ? Il y a une vraie réflexion autour d’une offre de services et pas seulement l’offre de produit. La force de Google et Facebook ? Un service de qualité. Le RGPD constitue une vraie opportunité pour les Directeurs marketing d’apporter un vrai service.

  1. A-t-on encore besoin du parcours des pensées ? Les sociétés d’études servent à quelque chose ?

« S’il y a biais ou censure et pas d’élément pour contextualiser, caler ou cadrer, les masses de données ne vont pas apporter grand-chose, au contraire on est sûr de raconter n’importe quoi »

Philippe Périé, Ogury

 Après 15 ans à TNS et IPSOS, Philippe Périé ne peut fournir une réponse objective ! Pour lui, on ne répond pas aux mêmes objectifs.

L’étude permet d’avoir accès à de la donnée couvrant tout le marché, les occasions (pas seulement l’interaction que le client a avec les points de contacts contrôlés par l’entreprise). S’il y a biais ou censure et pas d’élément pour contextualiser, caler ou cadrer, les masses de données ne vont pas apporter grand-chose, au contraire on est sûr de raconter n’importe quoi ! La donnée étude (quali/quanti) permet cette mise en perspective.

La récolte passive et massive de données apporte des informations de comportements et d’usages contextualisées, sur de longues périodes et sur de tels volumes et degrés de granularité que l’on peut descendre à des niveaux de résolutions inaccessibles autrement, et sans biais de souvenir.

En résumé, l’étude permet la mise en perspective, la couverture hors du champ de ce qui est pris par nos canaux, on est plus sur des problématiques de compréhension de marché, consommateur… Les données massives apportent la granularité, longues séries, exhaustivité, données contextuelles. On est alors plus souvent sur de l’opérationnel.

Ensuite, il y a tous les modèles d’hybridation possibles.

 

Selon Carrefour, la base de données permet d’optimiser mais, le plus important, c’est innover, avoir des idées. Ce sont souvent les clients qui en parlent le mieux et ce n’est pas dans les bases de données qu’on les trouve.

ePrivacy: et si la mesure d’audience disparaissait?

Share This:

En avril 2016,  (après 4 ans de discussion) était adopté au niveau européen, le « règlement général sur la protection des données » (RGPD ou GDPR en anglais ). RGPD entrera en application en mai 2018, nous en avons déjà parlé ici.

En janvier 2017, une nouvelle procédure a démarré, intitulée ePrivacy, qui doit harmoniser les législations relative à la confidentialité des « communications électroniques ».

Le monde de la communication est contre ePrivacy, que ce soit les annonceurs, les régies publicitaires, les media y compris internet (sauf Google et Facebook) et, aussi, le monde des études.

Une telle unanimité contre soi, c’est une belle performance.

On trouvera ici une version du 8 septembre de ce texte avec toutes les modifications déjà faites.

Une coalition pour la mesure d’audience (ESOMAR et beaucoup d’autres) a été créée et a publié, le 21 septembre 2017, une déclaration demandant des modifications de l’article 8 le retrait d’un mot et l’ajout d’un autre, et ça change tout!

“If it is necessary for web audience measuring, provided that such measurement is carried out by, or on behalf of, the provider of the information society service requested by the end-user”,

Que se passerait-il si la mesure d’audience disparaissait du fait de la nouvelle loi toujours en discussion?

De facto, RIEN.

Le marché publicitaire n’aura plus besoin de monnaie commune (la raison d’être d’une mesure d’audience) car tout l’écosystème publicitaire digital (et autres) aura d’autres chats à fouetter et luttera pour sa survie (sauf les GAFA)…

Affaire à suivre.

Et si on parlait DATA? conférence VIUZ, Marketing Remix, « Révolutions », 9 novembre 2017

Share This:

Data : trop ou pas assez ? Raphael Fétique, Converteo (toujours excellent !)

On a demandé pendant la seconde guerre mondiale, à un ingénieur anglais, d’améliorer les avions en les blindant. Le blindage étant lourd, il fallait trouver les bons endroits où le mettre sur les avions. Cet ingénieur a alors étudié les impacts sur les avions qui étaient revenus des terrains d’opération. Mais il s’est rendu compte qu’il faisait fausse route, il aurait dû étudier les restes des avions qui n’étaient pas revenus à bon port.

Pour la donnée digitale c’est la même chose !

Le marché confond avoir de la data et avoir de la data de bonne qualité.

Pour Petit Bateau, savoir si une acheteuse est « une mère, une maman, une amie » est important pour déterminer le type d’offres leur proposer. Plutôt que de mettre une usine à gaz en route pour essayer de déterminer leur statut, il est plus simple de leur demander ! Ce sont bien les cas d’usage qui révèlent la valeur de la data et non la data en soi !

Avec des clients, on ne parle pas parler d’Intelligence Artificielle mais de franchir les étapes de base : pourquoi ? Quelles données fiables ? Quelles règles métier ? Quelles mesures… ? l’IA peut servir à automatiser des choses.

Si on ne respecte pas la base, … peinture sur M…. égale M…. (mon résumé !)

Procter, 100 millions de dollars en moins, 59% de rescapés

Share This:

Mediaradar, société américaine qui commercialise un logiciel de tracking de la publicité digitale, a analysé le nombre de sites web sur lesquels Procter place (fait placer) de la publicité pour ses marques.

Regarder l’évolution de ce nombre entre 2016 et 2017 est intéressant car elle est emblématique des prises de position fortes énoncées en 2016 par Marc Pritchard (Chief Brand Officer).

Pour mémoire, 2016 a été l’année de la publication d’un rapport sur la transparence (…) dans l’industrie publicitaire et la « découverte » de l’étendue de la fraude en matière de publicité digitale.

Le constat fait, Procter est passé à l’action et un grand ménage a été opéré.

Ménage dans les contrats avec une baisse des overheads, de la rémunération de ses agences, de ses investissements publicitaires digitaux: 100 millions de dollars en moins sans que cela affecte sa croissance selon Procter.

Ménage dans les sites web sur lesquels les publicités sont placées comme le montre le graphique que nous avons fait.

Il est rare de voir de telles réductions mois par mois.

Au final sur la période janvier-août 2017 par rapport à la même période de 2016, une baisse de 20% du nombre de sites utilisés.

Et combien de commun entre les 2 périodes? 59%. 

Pour du ménage, c’est du ménage…

Intelligence Artificielle, quel marché? Pour qui? Pour quoi?

Share This:

Dans un billet précédent, nous avions parlé de la taille du marché technologique autour de la RGDP (362 millions € en 2016, 1.2 milliards en 2018 et encore 1.1 mds en 2020, source étude IDC pour Microsoft, microsoftexperiences 2017). Dans la même étude, IDC a évalué l’Intelligence Artificielle (IA).

[150 individus interrogés (DSI, managers IT, Directions métiers) au sein d’entreprises avec un effectif de 500 salariés et plus du secteur industriel : Banque-Finance-Assurance, Industrie Manufacturière et de Process, Commerce (gros et détail, VPC, négoce, import- export), Santé (Cliniques, Hôpitaux, Etablissements de soins)].

Le marché des technologies liées à l’Intelligence Artificielle est d’une taille beaucoup plus petite (9 fois moins importante que RGPD en 2018),

  • 65 millions en 2016

  • 129 millions d’€ en 2018

  • 265 millions d’€ en 2020

Où en sont les entreprises ?

  • 22% n’ont pas de réflexion ou de projet
  • 42% des entreprises en sont au stade de la réflexion et de la compréhension du sujet
  • 22% vont démarrer un projet d’ici 1 an ou plus
  • 6% ont un projet pilote en cours
  • 6% l’utilisent déjà dans un seul domaine

Pour faire quoi ?

C’est là où la définition de l’IA entre en ligne de compte. L’IA dans cette étude, va du chatbot, aux algorithmes, à l’infrastructure cloud, à l’analyse des images… (cf photo ci-dessous). Cela correspond probablement au périmètre de Microsoft sur le sujet (supposition gratuite!)

IA technologies deployees ou en projet microsoft IDC

Et pour quels cas d’usage par fonction ?

Rien de révolutionnaire pour notre discipline préférée, le marketing, : « optimisation des campagnes marketing » et « personnalisation et recommandations affinées »

Et pour quels cas d’usage par secteur ?

« Recommandations financières intelligentes » pour la finance 😊.

Par contre, on retrouve de façon chiffrée, pour l’industrie, ce que Yannick Carriou nous avait évoqué lors d’un petit déjeuner IREP, 70% des entreprises visent à réduire les coûts grâce à la digitalisation  des lignes de production.

GDPR, RGPD, un beau business pour les sociétés d’IT (et du juridique)

Share This:

Qui n’a pas entendu, ces acronymes (RGPD, GDPR) depuis quelques mois ? On a une véritable accélération de l’intérêt pour le sujet depuis septembre 2017 (cf Google trends).

Si vous n’êtes toujours pas dans le coup, il y a un grand nombre de conférences, d’articles sur le sujet (plus d’un article par jour sur le RGDP dans la presse française digitale dans les 30 derniers jours selon Visibrain)

Google trends RGPD GDPR worldwide

RGDP (Réglementation Générale pour le Protection des Données) mais c’est GDPR (la version anglaise) qui domine, même en France (pffff!).

google trends france RDPD GDPR

Cette réglementation européenne entrera pleinement en application en mai 2018.

Les implications techniques liées à la RGPD (GDPR) créent un marché évalué à:

  • 362 millions € en 2016,
  • 1.2 milliards en 2018
  • et encore 1.1 mds en 2020

Un des résultats d’une étude BtoB faite par IDC pour Microsoft et présentée, début octobre 2017, dans le cadre des 2 jours Microsoftexperiences (comme d’habitude, au palais des congrès, noir de monde). L’étude a été faite sur 150 entreprises de 500 salariés & plus (plutôt des grosses entreprises donc).

Comme le montre le volume 2017 et son triplement en 2018, cela signifie que toutes les entreprises ne sont pas opérationnelles sur le sujet, moins d’1 an avant l’entrée en vigueur de la loi.

Pour être plus précis, selon IDC,

  • 42% des entreprises prennent juste conscience du sujet
  • 19% seront en conformité en 2017
  • 30% seront en conformité en 2018
  • 9% sont déjà prêts

Sur les entreprises qui œuvrent déjà dans le domaine, certaines difficultés sont surévaluées et d’autres sont sous-évaluées:

Difficultés surévaluées Difficultés sous-évaluées
Notification de violation des données personnelles sous 72H Transfert de données hors d’Europe
Cryptage / Anonymisation Droit à l’oubli
Service de demande d’accès aux données Effacement de données
Accès aux données réelles des clients  

Il y a du boulot !

« Older posts Newer posts »