Étiquette : effectiveness (Page 1 of 2)

And the winner du Martech challenge is…? (compte rendu partial et partiel)

Share This:

Le 29 octobre 2019 avait lieu au Hub Institute (joli endroit!), la présentation des résultats du premier « MarTech Challenge » dédié aux outils de « social listening » (l’écoute du web social).   Ce challenge a été réalisé et présenté par Saas Advisor avec l’aide de The Metrics Factory. Une très belle matinée riche en informations, menée à un rythme soutenu et clôturée par une très bonne intervention d’un annonceur, Djallal Benyounes, Global Media Relations Strategist, Groupe Renault.

Il s’agissait de comparer 7 fournisseurs de solutions d’écoute du web social sous un prisme européen (chapeau à ceux qui ont accepté de participer!) et pas des moindres: Brandwatch, Digimind, Linkfluence, Netbase, Synthesio, Talkwaker, Youscan.   Si nous le disons avec nos mots, c’est fournir un rapport de type « Gartner » ou « Forrester » qui tienne compte aussi de notre marché  et pas orienté seulement sur les Etats-Unis.

Encore un classement direz-vous! Certes, nous avons vu trop souvent des comparaisons faites sur un coin de table ou par consultation « d’experts ».

Ici, le sérieux a présidé (merci!)  et 3 briefs ont été envoyés aux différentes sociétés couvrant 3 cas d’usage: 

  • le suivi d’une marque locale aux USA: WWF
  • Le suivi d’une marque globale : le club de foot de Liverpool, l’équipe de basket de San Francisco les golden state warriors
  • les méthodologies pour des recherches complexes sur le sujet de la mobilité quotidienne

A ces briefs objectifs ont été ajoutés aussi les opinions d’un jury de vrais spécialistes.

A noter que Saasadvisor a eu l’honnêteté de dire que, depuis l’édition de son rapport, certains éditeurs de logiciels avaient revus  leurs solutions.  Alors cela ne sert à rien ce challenge? A notre avis, non, car cela permet aux annonceurs de se poser ou de poser les bonnes questions! 

Avant de dévoiler des résultats du challenge, quelques informations ou estimations intéressantes fournies par Saasadvisor.

Le marché du social listening: 

  • En 2012, les prévisionnistes pensaient, qu’en 2020, ce marché représenterait 10 milliards de dollars. La réalité d’aujourd’hui est à 2 milliards dont 600 millions consacrés aux outils 

  • Des bouleversements exogènes ou endogènes ont des conséquences fortes : RGPD, le scandale Cambridge Analytica qui a fait disparaître des API sur Instagram  par exemple, la nouvelle politique tarifaire de Twitter

  • Un marché toujours fragmenté même s’il est en cours de consolidation (ex: Brandwatch et Crimson Hexagon, Linkfluence et Scoop it, Meltwater et Sysomos….)

  • Les 10 premiers représentent moins de 50% du marché

  • Le leader (Brandwatch) n’a que 15% du marché

Du coté annonceurs (50 interviews):

  • 48% d’entre eux utilisent UNE solution et une seule, quand 11% des interviewés en ont 3

  • 55% des annonceurs ont ces solutions depuis au moins 3 ans

  • 58% ont testé au préalable 3 solutions ou plus

  • quant au nombre d’utilisateurs, cela va d’UN utilisateur pour 19% des annonceurs, a plus de 50 utilisateurs pour 22%

Au passage, si vous êtes un annonceur, ne succombez pas aux sirènes du volume, de la masse d’informations suivie annoncée par les éditeurs! En effet, de nombreux paramètres font varier cette volumétrie comme, par exemple, l’interprétation juridique faite par les uns et les autres sur le suivi de telle source. La transparence n’est pas encore la règle sur la volumétrie et c’est bien dommage (cela nous rappelle quelque chose!) !

Alors revenons au challenge, qui a gagné?

…pas un gagnant, chacun ayant un point ou des points de force en se basant sur les résultats des briefs

Mais, malgré tout, si l’on veut faire un tiercé, voici ce que pense le jury:

  1. Talkwalker
  2. Netbase
  3. Linkfluence

Les mouvements de fond qui interviennent sur ce marché :

  • introduction de l’Intelligence Artificielle 
  • élargissement des besoins couverts par ces solutions (ce qui ne facilite pas les comparaisons)

Enfin, des remarques pleines de science et de bon sens, fort utiles pour les annonceurs

  • les conditions de collectes de données changeant constamment, il faut se poser en permanence des questions et l’absence de standard ne facilite pas les réponses
  • un seul logiciel pour couvrir tous les besoins, cela n’existe pas! Il faut plusieurs solutions
  • plutôt que les volumes, il vaut mieux s’attacher aux corpus et aux accords entre les réseaux et les éditeurs 
  • il est nécessaire de faire des compromis entre ce que l’on souhaite dans l’absolu et ce qui est absolument nécessaire pour sa ou ses marques
  • il ne faut pas oublier QUI utilisera le ou les produits EN INTERNE!!!

Pour terminer, le témoignage de l’annonceur, Djallal Benyounes faisait totalement écho aux propos de Saasadvisor :-).

Son job? Etre au courant de tout, tout de suite! Pour cela, Renault doit couvrir ce qui se dit en presse, radio, TV, les medias en ligne, Facebook, Instagram, Linkedin, YouTube, Twitter et ceci internationalement. Des fournisseurs sont à l’oeuvre: Edd, Factiva, Prime research, Brandwatch, Meltwater. Renault dispose donc de 2 fournisseurs pour le social, ce qui est admis par la direction des achats qui a compris (mais oui cela arrive!) que cette diversité était un gage de qualité.

Tout ceci est assemblé dans un grand mur de réputation découpé en 3 parties:

  • la réputation du groupe Renault,
  • le suivi de l’industrie automobile et des concurrents,
  • la détection de crises politiques.

La masse de données est traitée de 2 façons:

  • big data en incluant la presse, la radio et le TV, c’est à dire avec un traitement entierement automatisé
  • smart data en sélectionnant un nombre limité de media et d’influenceurs dans 17 pays, en suivant 100 compétiteurs, tout ceci en faisant intervenir un codage humain. Renault considère par exemple qu’une source ne peut être globalement positive, neutre ou négative, il faut descendre au plus fin, aux mots, aux phrases. Avec ce suivi sélectif, Renault a pu construire des indicateurs de suivi et de performance qui sont partagés par tous.

Djallal Benyounes a ensuite fourni 2 exemples , le suivi du lancement de la nouvelle CLIO dont la caractéristique était que l’intérieur du véhicule avait été complètement transformé, et la préparation du « motorshow » de Shanghai.

En conclusion, Saasadvisor est à la tête d’un rapport très utile pour les annonceurs (et les éditeurs), à eux de souscrire :-)!

Cette société a prévu de faire un autre challenge mais sur un autre aspect du Martech. 

VIVE L’INTELLIGENCE ET LA SCIENCE – Conférence IPSOS (compte rendu partial et partiel)

Share This:

Quand on consulte l’excellent site myenventnetwork.com, le constat est simple : tous les jours des événements, des conférences, des ateliers (parfois plusieurs dans la même journée) gratuits pour la majorité d’entre eux, mettent en avant un aspect du métier de la communication, du digital et des media.

C’est trop mais c’est ainsi (cf notre coup de gueule il y a 2 ans et ça n’a pas changé).

Nous sortons, de plus en plus souvent avant la fin (ce qui n’est pas poli), énervés après avoir entendu des choses déjà dites, redites, rabâchées sans aucune aspérité sans point de vue affirmé. C’est pour cela que nous n’avions rien publié sur ce blog depuis des mois. Overdose de banalités !

Aussi, quand une société vous propose de faire bouger vos neurones en vous apportant de l’intelligence scientifique, vous ne pouvez dire qu’une seule chose MERCI IPSOS !

L’idée de ces conférences à la maison de la chimie, le 26 septembre 2019 au soir, était de se réinterroger sur tous les modèles théoriques qui sous-tendent tout ce que nous faisons, faut-il les renouveler ? comment les renouveler ?

Que se passe-t-il dans notre cerveau, comment raisonne-t-on ? (Olivier Houdé, Professeur émérite Paris Descartes, laboratoire LaPsyDÉ).

Les adeptes de l’homo-economicus ont toujours mis en avant la capacité de réflexion logique de l’humain, son système algorithmique qui permet d’élaborer une pensée réfléchie, dont la fiabilité est grande mais qui nécessite du temps, des efforts pour aboutir. Son défaut ? Monopoliser notre attention (amusez-vous au jeu dans cette video).  C’est le système dit 2, incarné dans les travaux de Jean Piaget. Exemples simples : lire un mot que l’on ne connait pas, changer de direction pendant un trajet habituel, calculer 19 x 46…

Daniel Kahneman (prix Nobel d’économie 2012) a démontré que le système 2 n’était pas le seul dans notre cerveau, mais qu’il en existait un autre : le système 1. C’est un système dit heuristique dont la caractéristique est d’être une pensée automatique, intuitive, avec une fiabilité correcte mais non totale et surtout une très grande rapidité. Le cerveau humain cherchant toujours à économiser sa consommation d’énergie, le système 1 est celui que nous activons le plus souvent dans nos taches quotidiennes. Des exemples ? La lecture, la conduite automobile sur un trajet habituel, des calculs simples (1+1, 2+3 …). L’apprentissage est la base de construction du système 1.

Au passage, ne pensez-pas, comme l’imaginait Piaget, qu’en passant de l’enfant à l’adulte le 1 laisse la place au 2 ! Non, suivant les sujets, les moments, l’adulte est à fond dans le système 1, aucune corrélation avec l’âge ! (Comme quoi la sagesse n’est pas l’apanage des vieux 😊)

Alors nous nous arrêtons là, avec 2 systèmes ?

Non ! Il en existe un troisième, issu des travaux d’Olivier Houdé. Ce système 3 est dit système d’inhibition qui a fonction d’arbitre, et qui nous pousse à interrompre notre processus de décision rapide (système 1) pour basculer sur la réflexion algorithmique (système 2). Le système 3 permet d’éviter les conflits entre les 2 premiers, les conflits cognitifs. Les adeptes des neurosciences le localiseront dans le cortex pré-frontal, là où se situe nos émotions et sentiments.

L’idée est alors de « cultiver » notre système 3 pour apprendre à débrancher le système 1 au profit du 2, il faut résister à notre intuition !

A quoi cela sert-il ?

Un exemple concret proposé par Brice Teinturier : les stéréotypes racistes et antisémites existent depuis longtemps (les juifs et l’argent, les juifs et le pouvoir, le lobby juif mondial…) et sont suivis par IPSOS (B Teinturier a projeté des verbatim issus des réseaux sociaux, à vomir…). La question est, pour un gouvernement par exemple, de trouver des moyens de combattre ces stéréotypes. Affirmer que ce n’est pas vrai ne sert à rien, on se heurte au mur du système 1. Comment pousser le système 3 à débrancher le 1 pour activer le 2, donc à dépasser le stéréotype pour aller à la réflexion. IPSOS a introduit dans ces questionnaires d’opinions, des mesures de nouvelles émotions relatives au doute, au regret et à la curiosité qui permettent aux pouvoirs publics de penser leurs démarchent autrement. Ces mesures sont applicables aussi au marketing.

 

Deuxième sujet : La modélisation de la mobilité (Olivier Bonin, Professeur, Géographe, chercheur à l’IFSTTAR au Laboratoire Ville Mobilité Transport)

Le sujet parait plus simple que l’exploration de notre cerveau et pourtant ! Comment reconstituer des flux de mobilité pour mesurer des individus qui bougent en permanence dans tous les coins. Les vieilles méthodes consistaient à reconstituer des flux en comptant des passages à des points fixes et en interrogeant des individus dans le cadre d’enquêtes. En demandant un point de départ, un point d’arrivée, un mode de déplacement et des choix d’itinéraires, il était possible de modéliser les flux. Les modèles permettaient alors d’interpoler dans le temps et l’espace, des données très partielles, lacunaires. Ceci avec plus ou moins de succès car on se limitait souvent à des heures de pointe (le matin), un jour de semaine, sans tenir compte des variabilités des activités et en étant focalisé plus sur les flux que sur les comportements des individus.

Aujourd’hui, des données sont disponibles en masse : la billétique, le GPS, les smartphones, des boîtiers dédiés… Ces données sont, de plus, relatives à un individu. Et même si elles sont moins riches sémantiquement que des enquêtes, elles apportent une densité temporelle et spatiale incomparables.

Vous y appliquez des modèles différents (on passe des modèles gravitaires aux modèles multi-agents), calculés au niveau de l’individu (qu’il soit réel ou synthétisé) et vous disposez de multiples programmes d’activité répartis entre les jours, les chaînages, les différents membres d’une famille, bref, de tout ce qui est nécessaire pour l’optimisation des trajets, des infrastructures, des horaires, … mais aussi pour la mesure d’audience de l’affichage (Outdoor, en usage maintenant…)

C’est le cas applicatif montré par (le brillant) Jean Noël Zeh (IPSOS) puisque l’entreprise a gagné l’appel d’offres de Mobimétrie (ex Affimétrie). Dans cette mesure sont intégrés les déplacements de 10 000 personnes (elles ont porté pendant 9 jours, un « meter », un boitier spécifique, précis sur la localisation GPS), des mesures déclaratives de déclarations de déplacements (smartphones), les points d’intérêts géographiques (magasin, services publics, réseaux de transports, …), toute l’open data INSEE, et des données payantes de telco ou d’autres acteurs.

Jean Noël Zeh a aussi montré 2 cas de « research for good », comme la mesure des flux dans un camp de réfugiés Rohingya au Bangladesh pour permettre d’établir des points d’eau ou des centres de soins.

Troisième intervention : le consommateur expliqué par ses neurones (Vinod Venkatraman , Professeur, Temple University).

Nous sommes repartis dans le cerveau humain ou plus exactement dans les méthodes de mesure d’effets qui existent, aujourd’hui, avec la technologie (Eye tracking, facial tracking, activité cérébrale, sudation…). Mais la chose intéressante est de les avoir relier à un impact marketing sur les ventes.

Aux méthodes nouvelles, Vinod Venkatraman a testé aussi les méthodes plus classiques d’interrogation (groupes ou questionnaires). C’est l’objet d’un article primé en 2015 à l’ARF aux USA (sur de petits échantillons…). La conclusion est bonne pour une société d’études. Que ce soient des mesures d’eye tracking, biométriques, EEG ou questionnement, chacune apporte un voire plusieurs éléments de réponse différents à l’élasticité publicitaire sur les ventes. Autrement dit, c’est en utilisant toutes les méthodes que l’on a une vision complète et pertinente. Pour avoir, nous-même, hybridées plusieurs méthodes, nous ne pouvons qu’être en accord avec cette conclusion !

En application, Katell le Coueffic a présenté le « creative lab » qui permet, en une journée, de mettre en oeuvre la plupart des méthodes indiquées et d’avoir des pistes d’optimisation sur du matériel publicitaire non finalisé. Nous supposons que ceci sera plutôt l’apanage des grands sociétés clientes.

En conclusion, une des phrases prononcées en introduction par Helen Zeitoun :

« science et études, le ticket gagnant pour ne pas dire n’importe quoi »

(combien d’entre nous devraient s’en inspirer !).

KPIs : performance killed the branding star ou la démesure de la mesure

Share This:

tribune d’Olivier Goulet (iligo) et Isabelle Le Roy (tracks&facts) dans CB Expert (avril 2019) et intervention à l’IREP Forum de mai 2019

Le tube des Buggles en 1980 (« Video killed the radio star ») était pour le moins visionnaire, 25 ans avant la création de YouTube en 2005. Pour pasticher ce tube, la question se pose de savoir de savoir si la recherche de l’efficacité à court terme dans les actions de communication n’est pas en train de tuer la publicité elle-même.

Il existe un risque non négligeable. En voici les raisons.

DE LASCAUX A LIKE MOI

Le sens historique de la communication (qu’elle soit de marque, mais aussi d’opinion) était de construire des représentations symboliques qui puissent se transmettre aux et entre individus. Les peintures de l’art pariétal, encore visible à Lascaux, poursuivaient probablement cette fonction. Au XXème siècle, l’application de cette fonction a conduit à la création de marques fortes, d’institutions fortes. Conséquemment, la chose publicitaire devait bâtir des marques et des institutions puissantes basées sur des socles rationnels ou symboliques solides. La mesure de l’efficacité de la publicité était alors de comprendre comment la marque construisait un positionnement, une image, suffisamment fortes pour justifier des actions de la part des individus (à savoir, des ventes, des souscriptions, etc.). Un certain âge d’or de la communication était né.
Et internet, le digital, arriva.

L’accélération du temps, la fascination de la traçabilité et du chiffre changea les sens et l’essence même de la communication. Ce qui est dorénavant recherché, c’est l’effet court terme de l’action.

Combien de likes, quasi minute par minute, combien d’impressions, combien de ventes idéalement dans l’instant. Et la mesure de l’efficacité de « dériver » fortement du branding vers le selling, la performance
Quel est l’intérêt de mesurer la construction de la marque ou de l’institution? Il faut mesurer si elles sont achetées, utilisées à court terme.
C’est très louable, certes, mais cela suppose, quand même, que la marque a un fonds (de marque), une forme de construction de son positionnement qui précède la vente. En effet, on achète rarement quelque chose qu’on ne connaît pas et dont on n’a aucune connaissance fonctionnelle ou symbolique.
Et cela demande, surtout, de maîtriser le calcul du fameux R.O.I (Retour sur Investissement). Mais, si l’on veut que la mesure de l’efficacité fasse un lien avec les « ventes », il est nécessaire de rappeler quelques fondamentaux.

LE R.O.I EST NU      

Trois fondamentaux à rappeler sur ce fameux ROI.
1. La communication, même dans son acception « selling », ne sert pas qu’à générer des ventes supplémentaires (additionnelles, incrémentales), elle sert surtout, notamment dans les pays économiquement matures, à maintenir des ventes. Si l’on calcule uniquement l’«uplift », on nie le fait que, sans communication, les ventes auraient probablement décru.
2. La communication est financée par la marge des entreprises et non par le chiffre d’affaires. On voit très souvent des « best cases » (parfois récompensés dans des Prix d’ailleurs), montrer qu’avec une campagne, de 250 000 euros, par exemple, a généré 500 000 euros de ventes dites incrémentales. Un ROI de 2 dit-on ! Mais en fait non. Car si vous investissez 250 000 euros en communication avec une marge de 10%, c’est 2 500 000 ventes qu’il faut générer pour créer un ROI positif et 5 millions pour un ROI de 2. Combien de campagnes génèrent cela à court terme ? Une longue expérience nous fait affirmer : pratiquement aucune !
3. Comment, à quoi attribuer ces ventes « incrémentales » ? Une campagne, ce sont des centaines de prise de paroles. Tout doit-il être affecté au dernier contact ? Cela semble absurde (contestation du last clic par exemple…), et pourtant, c’est très souvent le choix effectué. Faut-il modéliser ? C’est beaucoup mieux, mais ne doit-on modéliser que les ventes à court terme.

BRAND WILL BE BACK 

Alors, faut-il être défaitiste et ne plus croire à l’efficacité de la communication ? NON !
Cependant, il faut rééquilibrer les choses et construire le BRANDING tout autant que le SELLING. Est-ce possible ? OUI ! Et ce n’est, d’ailleurs, pas nouveau. Nous faisons référence, par exemple, à un papier paru en 1999, dans, l’excellent déjà, CB NEWS où l’on montrait, une expérimentation avec le groupe TOTAL, qu’il était possible de croiser les données de ventes (SELLING) avec une mesure d’efficacité de la communication (BRANDING) sur la simple base d’un fichier client (déjà le « One to One »).
La solution est là : croiser, sur de mêmes individus, les datas enregistrées sur les ventes avec une mesure branding. C’est une manière supplémentaire de valoriser cette fameuse data. Cela nécessite, bien sûr, que l’annonceur dispose de données clients, mais c’est de plus en plus le cas grâce au digital. Et dans le cas contraire, il est possible de faire appel à des panels consommateurs existants.
Cette revalorisation de la marque, à l’heure du tout performance, est d’ailleurs urgente.

MORT AUX MARQUES FAIBLES ! 

Ne nous trompons pas de révolution digitale. Le search et les réseaux sociaux ont plus de dix ans. Google et Facebook sont devenus des acteurs majeurs du monde de la communication d’aujourd’hui. Mais, leurs modèles, bien que rupturistes, ne remettaient pas en cause les fondamentaux de la communication. Une marque faible avec quelques moyens pouvait émerger.

 

Tout ce qui arrive ou va arriver, que ce soit d’ordre technologique (IA, Voix, Virtuel, Crispr-Cas 9, Nano, 5G, Quantique…) ou sociétal (âge, urbanisation, temporalité…), est encore plus impactant. Nous connaissons aujourd’hui, en tant qu’individus, les bulles de pensée. Les marques demain, devront s’intégrer dans des bulles, des écosystèmes, de consommation dont elles ne seront pas maîtres. Dès lors, développer des marques fortes et mesurer leurs forces, tout autant matérielles, symboliques, que sociales, est crucial.

L’optimisation du SELLING est important, mais la communication ne peut se résumer à cela, sinon elle perdra, et son sens et sa légitimité.

Google, Facebook, Amazon les garants de notre vie privée (compte rendu partiel d’un petit déjeuner IREP)

Share This:

Le 28 mars 2019 à l’IREP, nous avions le plaisir d’animer un petit déjeuner intitulé « Data et publicité, où mettre le curseur entre les besoins d’une profession et la protection de l’e-privacy ? « 

2 intervenants ont débattu de ce sujet:

un économiste, Marc Bourreau (professeur à Telecom ParisTech)

un professionnel, Erwan le Page (Directeur général de MediaSquare)

Nous ne publions pas l’intégralité du compte-rendu écrit car celui-ci est réservé aux membres de l’IREP (profitez en pour vous inscrire!!) mais seulement un extrait, c’est dommage car c’était passionnant!

Marc Bourreau a publié en 2018 un article « The value of consumer data in online advertising ». Il y explique un modèle théorique, mathématique, construit en économie pour aider la réflexion sur certaines questions :

  • Quelle est la valeur des données échangées sur des marchés en ligne ? Quels sont les déterminants de cette valeur du côté des plateformes programmatiques?
  • Quelle est l’influence de la structure des marchés des plateformes programmatiques (une plateforme très dominante, en monopole, vs des plateformes en concurrence accrue entre elles)
  • Quel est l’impact de la structure du marché programmatique ? La présence de nombreux annonceurs sur ce marché va-t-elle avoir une influence sur le nombre de données échangées, et sur leurs valeurs ?

Dans ce modèle, une plateforme programmatique a des informations sur les individus (sexe, …centres d’intérêts, …informations anonymisées ou sous forme de cibles). Cette plateforme, financée par la publicité uniquement, vend des espaces publicitaires à des annonceurs sur la base d’enchères au second prix, comme le marché de la publicité en ligne.

Le modèle permet de déterminer le niveau d’informations individuelles révélé par la plateforme programmatique à l’annonceur (ie publicitaire) pour la bonne adéquation entre le profil recherché et le profil proposé. Il permet de déterminer, aussi, à quel prix est vendu l’espace publicitaire en fonction du nombre de données révélées par la plateforme programmatique

Résultats ?

Nous mettons ci-dessous un graphique extrait de l’article pour faciliter la compréhension du lecteur. Le « social planner » (planificateur social) est une construction artificielle, un régulateur, ici une plateforme étatique qui n’a pas pour but le profit. En abscisse, à l’horizontal, le nombre d’annonceurs. En ordonnée, à la verticale, le nombre de caractéristiques individuelles utilisées. Chaque courbe correspond à 3 situations de concurrence.

  1. Plus il y a plus d’annonceurs qui participent à l’enchère, plus la plateforme révèle des informations quelle que soit la situation concurrentielle.

Selon Erwan Le Page, on peut interpréter le résultat aussi dans l’autre sens : « c’est parce qu’il y a plus d’informations qu’il y a plus d’annonceurs ». Une plateforme programmatique a toujours intérêt à avoir beaucoup d’annonceurs. Dans un système d’enchères, s’il n’y a pas de densité sur l’enchère, il n’y a pas de prix qui puissent monter. La première mission des plateformes programmatique est, absolument, d’attirer le plus grand nombre d’acheteurs possibles. Et pour cela, et peut-être les motiver, il faut proposer plus d’informations, avoir des typologies de profils proposés vastes pour pouvoir atteindre un CA plus important.

  • Une plateforme en monopole va révéler moins d’informations que des plateformes programmatiques en oligopole

Les plateformes en concurrence vont chercher à attirer des annonceurs, et pour attirer les annonceurs, elles vont essayer de leur promettre le « meilleur repas possible », et celui-ci va être obtenu en donnant le maximum d’informations pour que les annonceurs sachent bien, puissent bien anticiper, quelle est la valeur du consommateur proposé par la plateforme.

Si l’on reformule ce résultat cela signifie que Facebook, Google ou Amazon… sont les meilleurs garants de nos données « individuelles », ce qui peut paraitre surprenant mais est, finalement, logique dans le sens de cette recherche (Isabelle Le Roy)

Dans le modèle, le monopole révèle moins d’informations que le « planificateur social » (cf plus haut pour la définition)

Le planificateur social se soucie du fait qu’il y ait des bons matchs dans cette économie. Un bon match, signifie aussi plus d’échanges économiques, ce qui est bon pour l’activité de la société, donc au final tout le monde est content, les consommateurs, les entreprises… Le monopole va avoir une stratégie un peu malthusienne, de recherche de la maximisation du prix de l’espace publicitaire plutôt que la valeur de l’espace publicitaire. Le planificateur social, lui, va essayer de maximiser la valeur de l’espace publicitaire, ce qui est différent.

  • Pour la Société, donc pour l’ensemble des agents dans cette économie (les consommateurs, les annonceurs et les plateformes), la valeur sociale incrémentale de l’information est décroissante avec la quantité d’informations révélée. Plus on révèle d’informations, plus révéler une unité d’information supplémentaire va avoir une petite valeur.

Ceci peut se voir dans le graphique suivant où n est le nombre d’annonceurs.

et la suite c’est pour les membres de l’IREP où les participants au petit déjeuner!

En Australie, la TV poursuit la démonstration de son efficacité ventes vs YouTube et Facebook (ça fait mal…) (compte rendu partial et partiel conférence SNPTV)

Share This:

Le 25 mars 2019, le SNPTV organisait une conférence sur le thème « la matinée de l’efficacité TV ».

Le « clou du spectacle » était le retour (un an après) de Karen Nelson-Field, la chercheuse commissionnée par le groupement des TV australiennes pour étudier l’efficacité de la TV vs YouTube et Facebook.

Nous nous étions fait l’écho de ses premiers travaux en octobre 2017 (nous étions les premiers à en parler en France  ) avec un premier article, au titre un peu racoleur nous en convenons, « comment la TV australienne défonce Google et Facebook ». Vous y retrouverez la méthodologie fort impressionnante (gros échantillons, Eye tracking, Magasin virtuel, Intelligence artificielle…).

Puis en février 2018, elle était venue présenter la suite. Nous en avions parlé dans «  le match TV vs YouTube et Facebook continue, 2 à 1 pour la TV ».

Et là, on s’approche du score d’une finale de coupe de monde (en 1998), 3 à 0 pour la TV vs YouTube et Facebook!

Alors, un petit rappel (avant les nouveautés)

1ère étude

  • L’attention publicitaire est plus forte sur l’écran TV (58%) quand YouTube (sur PC) est à 45% et Facebook (sur PC) est à 20%
  • Corrélation forte entre attention et ventes
  • Impact ventes (mesurée en STAS) en faveur de la TV (144) > YouTube (118) > Facebook (116)

 2ème étude

Prise en compte du mobile, ce qui est plus juste pour Facebook dont c’est l’appareil d’utilisation dominant (plus de 80%) et qui a élargi l’étude à l’intégration de la TV sur PC et mobile (replay), YouTube sur PC et mobile, idem pour Facebook.

  • L’attention est plus forte sur mobile pour tous (intrinsèque avec le device, il est plus près de nos yeux)
  • Même sur le mobile, c’est toujours la TV qui a l’attention la plus forte. TV sur mobile attention à 63% quand YouTube est à 54% et Facebook à 54%.
  • Et, cela se retrouve dans les ventes (STAS) TV a un STAS de 161, quand YouTube est à 137 et Facebook 121.
  • La raison en serait, simplement, l’occupation de la publicité dans l’écran physique.

Les nouveautés?

Quelle est la durée de l’effet ventes mesuré à 1 jour, 14 jours et 28 jours ?

  • La publicité TV a une rémanence largement plus forte. L’effet YouTube décroit 3 fois plus vite que la TV (mais en partant plus haut que Facebook). L’effet Facebook décroit 2.5 fois plus vite.

Quel est le meilleur « écran » ?

  • La pub TV sur écran TV a l’effet le plus long même si son STAS de départ est plus bas que la TV sur mobile

Et quelle est la meilleure complémentarité, à votre avis ?

  • Le couple gagnant c’est TV sur écran TV + TV sur mobile (replay)

Enfin, on touche qui des petits, moyens, gros acheteurs ?

Un media avec une forte couverture touche a priori tout le monde donc aussi des petits acheteurs qui sont ceux qui font la croissance des marques

  • Facebook est sous performant par rapport à sa pénétration en Australie  
  • Et, en prenant une marque de chocolat, que ce soit Facebook, Instagram ou Snapchat (YouTube non mentionné ici), sont touchés en majorité les gros consommateurs quand la TV  a une distribution attendue par rapport à sa pénétration.

Vous en voulez encore ?

Ça suffit pour cette fois ! Mais… à venir, la même étude aux USA et en Grande Bretagne (ils ont les moyens de se payer de belles études eux!) et en Australie, Karen Nelson-Field va s’attaquer à l’effet programme.

Alors, bien ou pas bien cette étude?

C’est vrai qu’en étant payé par le syndicat des TV australiennes, on s’attend à ce que les résultats soient en faveur de la TV mais la méthodologie montrée (on en a vu un peu plus cette fois-ci que les fois précédentes) est sérieuse, même si, dans l’absolu, nous ne sommes pas les plus grands fans du magasin virtuel et du STAS. Nous rêvons de voir la même étude réalisée en France.

Vous trouverez la présentation de l’étude australienne sur le site du SNPTV ici ainsi que les 2 autres études présentées lors de cette matinée

Les clés d’un parrainage TV efficace d’Impact mémoire

Effet de contexte et impact sur l’efficacité publicitaire – Harris Interactive

Hit parade 2018

Share This:

Les articles les plus lus en 2018 sur ce blog: une tribune et 4 comptes-rendus de conférence.

Merci de nous lire!

Faisons attention à l’attention (tribune commune O Goulet et I Le Roy, parue initialement dans CB News, octobre 2018)

le ROI TV défonce les GAFA et les autres media (compte rendu conférence SNPTV, janvier 2018)

De Marc DORCEL (films X) à ARTE, en passant par TF1, vous avez dit VIRTUALITÉ ? Un article de 2017, c’est Arte qui doit vous attirer 🙂

Publicité et études, même combat : tout le monde est perdu ! (compte rendu IIEX Amsterdam, mars 2018 )

Le parcours de l’individu via son mobile (Ogury), le parcours du consommateur ON et OFF (Carrefour Media) (compte rendu impartial et complet petit dej IREP, mars 2018)

Faisons attention à l’attention! Tribune commune O Goulet et I le Roy (cb news 11/10/2018)

Share This:

L’attention est devenue le buzzword actuel de la communication au niveau mondial.

Le constat est simple, nous, individus, consommateurs, prospects, clients, citoyens, sommes bombardés (et pourtant, avec le ciblage affiné promis par le digital, le « carpet bombing » devait disparaître) de messages publicitaires toujours plus nombreux, toujours plus personnalisés. Et encore, c’est sans compter les messages diffusés que nous ne voyons pas (un peu moins de 40% des publicités sur dekstop ne sont pas visibles, 23% des vidéos selon IAS 1er semestre 2018).

Il est alors légitime de se poser la question: sommes-« nous » attentifs ou non à ce qui est diffusé. C’est la base, le socle, d’un début de relation entre un message émis et sa réception dans notre cerveau. Le cerveau humain est ainsi fait que, si nous ne portons pas un minimum d’attention à un message, il ne se passera rien !

La question est donc bonne. Mais a-t-on les moyens, aujourd’hui, de mesurer cette attention ?

Des initiatives existent dans certains pays que l’on pourra toujours critiquer, glorifier, mais qui ont le mérite d’exister et d’apporter des éléments de réflexion. Aux USA et au Japon, par exemple, des annonceurs et des media utilisent les services de sociétés technologiques spécialisées dans cette mesure. Autre exemple, l’Australie, où un media, la télévision, est le fer de lance de la mesure technologique de l’attention, à grande échelle, pour mettre en avant ses qualités par rapport aux plateformes.

Des constantes dans les pays actifs sur le sujet ? Oui, les technologies de mesure passives, la masse, et, pour certains, la syndication.

Technologies passives ? Les progrès des neurosciences sont certains et y recourir est aujourd’hui la seule solution pour parvenir à approcher, correctement, le phénomène. Vous ajoutez à cela toutes les technologies embarquées dans les différents devices qui font partie de notre quotidien et vous obtenez un couple gagnant.

La masse ? Ou que ce soit, on parle d’échantillons représentatifs, la base d’une mesure fiable, et généralement, ce ne sont pas de petits échantillons !

La syndication ? Les dispositifs sont coûteux, qui a les moyens de les payer ? Un media? Des media? De gros annonceurs qui en ont assez de dépenser de l’argent à fonds perdus ?

Le marché français, depuis quelques mois, fourmillent d’initiatives sur la mesure de l’attention. Elles proviennent, souvent, des agences media (c’est très bien de revoir les agences media sur le sujet de l’expertise pour montrer qu’elles ont toujours un rôle à jouer dans le conseil donné aux annonceurs). Elles viennent aussi des régies qui initient des projets ponctuels sur leurs supports ou leurs médias.

Mais, on assiste, où l’on va assister, à la même chose que ce que l’on a pu voir pour l’engagement.

Tout le monde mesure « l’engagement », mais tout le monde a une définition différente de ce qu’est l’engagement. On ne sait donc plus ce qui est mesuré à droite ou à gauche, par qui, pourquoi, comment ! Au final, cet indicateur essentiel a perdu son sens et son universalité par trop plein de définitions diverses, variées et parfois, disons-le, loufoques.

Là, pour l’attention, il faut prendre les choses dans le bon sens, être innovant dans la mesure, y mettre des moyens, et faire travailler ensemble media, agences et annonceurs.

C’est un enjeu collectif qui doit être abordé comme tel. Il s’agit moins de défendre les intérêts particuliers de certains que de défendre l’intérêt global d’une profession à démontrer sa pertinence.

 

Nous sommes prêts pour accompagner ceci. Et vous ?

Distribution et media, même combat!

Share This:

(Tribune publiée dans Viuz, il y a quelques semaines)

Avant d’arriver dans le milieu des media (Havas Media), je travaillais dans la distribution, chez Monoprix, et, quand on découvre un nouveau secteur, on cherche à se raccrocher à des choses que l’on connait.

J’avais été frappée, à l’époque, par la ressemblance entre une chaîne de télévision, une station de radio, un titre de presse et un distributeur (« retailer » – ritaileur- comme on les appelle aujourd’hui).

Une chaîne de TV, une station de radio, un titre de presse est un magasin qui a des rayons et qui fait du merchandising en constituant sa grille, son chemin de fer.

Ceux-ci ressemblent à un plannogramme de rayon en mettant à l’antenne ou dans son titre, telle émission ou tel article avant et après tel autre, en lui accordant telle durée, tel nombre de caractères, comme un produit sur une étagère plutôt que l’autre, à côté de ce produit plutôt que cet autre avec un facing de x, où  encore, en plaçant ses meilleurs programmes en prime, ou à la une, comme des produits en tête de gondole.

Un media est un distributeur car il fabrique lui-même des programmes, des articles, ses marques distributeurs et accueille aussi, dans sa grille, sur ses rayons, des programmes faits par d’autres, des marques fabricants.

Un media est un distributeur car il a une zone de chalandise.

Ses clients en zone primaire, les convaincus par le support,  « font leurs courses » majoritairement chez lui pour des rendez-vous, des contenus qu’ils estiment incontournables et vont peu à la concurrence. Les clients en zone secondaire sont plus volatiles, versatiles mais ont dans leur tête, ce support, ce magasin comme source d’approvisionnement possible. Quant à ceux en zone tertiaire, ils ne se déplacent sur le support que pour de grands évènements « commerciaux » comme peuvent l’être par exemple des grands évènements sportifs qui rassemblent les français.

Un media connait plus ou moins précisément ses clients, comme un distributeur.

Des chiffres agrégés sur les audiences et les cibles fournis par Mediametrie ou l’ACPM, des chiffres agrégés sur les clients issus des panels de consommateurs de Kantar Worldpanel ou Nielsen. Par contre, des comportements extrêmement précis sur une partie de la clientèle, avec les logués des sites du support comme les « encartés » en distribution (carte de fidélité).

La concurrence qui déboule de tous les côtés en remettant en cause les schémas classiques est encore la caractéristique commune entre les 2 secteurs, media et distribution. OTT, Google et Facebook … pour les media, e-commercants pure players dont Amazon pour la distribution.

Et que voit-on dans les media que l’on ne voit pas chez les distributeurs : la prise de conscience que c’est être ENSEMBLE qu’il peut y avoir un avenir.

Des media et des opérateurs ont créé par exemple, Gravity qui est une belle amorce de partage de data pour réaliser au mieux des ventes d’espaces publicitaires en direction des annonceurs, même si, avec Francis Morel lors de la dernière conférence UDECAM, on ne peut que regretter qu’il y en ait encore trop de différentes….

Depuis des mois pour les uns, semaines pour d’autres (pas encore pour certains), l’on voit les distributeurs annoncer des initiatives extrêmement intéressantes sur l’analyse des parcours digitaux des consommateurs et leur activation (Carrefour avec le FoodLab, Casino et RelevanC, …). Chacun y va de sa proposition, de son partenaire technologique, de sa mediatisation, de sa politique tarifaire pour, au final, s’adresser aux mêmes clients, les fabricants FMCG, et les convaincre qu’imaginer et investir des activations dans leurs enseignes sera d’une grande efficacité pour leur business.

L’efficacité est certaine, nous n’en doutons pas, et c’est bien l’intérêt de ces fabricants de le faire.

Mais, Messieurs (Mesdames ?) de la distribution, la bataille entre enseignes sur le prix de la côtelette est terminée (presque). Le champ de bataille est ailleurs, sur le web, sur la data et votre « frennemy » c’est Amazon qui est chez vos propres clients finaux, les consommateurs, sur leurs canapés, dans leur lit via les smartphones ou autres tablettes quand vous êtes dans le frigo, la salle de bain, les placards. Vous me direz justement « Amazon n’est pas dans le frigo, nous avons toujours l’avantage sur les produits de grande consommation avec la logistique des derniers kilomètres» et je vous réponds que cet avantage aujourd’hui ne le sera plus demain, quand Amazon qui a fait un accord (opportunité?) avec MONOPRIX, trouvera un distributeur pour posséder, éventuellement, ses propres magasins (cf aux USA).

Alors Messieurs (Mesdames ?) les distributeurs, vous ressemblez beaucoup aux media, n’attendez pas pour vous mettre ensemble VITE sur la data pour avoir un avenir et ne pas vous trouver un jour face à des chiffres SRI comme « 92% de la croissance du marché revient au duopole » (Google et Facebook).

Le parcours de l’individu via son mobile (Ogury), le parcours du consommateur ON et OFF (Carrefour Media) (compte rendu impartial et complet)

Share This:

Michel Bellanger (Directeur Marketing, Carrefour Media) et Philippe Périé (Vice-Président Data & Algorithmes, Ogury) étaient les invités du petit déjeuner IREP que nous avons eu le plaisir d’animer le 28 février.

Ci-après le compte-rendu complet de ce petit déjeuner.

  1. Carrefour Media et Ogury en tant que sociétés

Ogury a été créée en septembre 2014, et est composée de 150 personnes, à ce jour (droit anglais mais siège à Paris). Le CA 2017 est d’un peu plus de 40 millions d’euros. Cette société est, historiquement, une société de technologie dédiée au ciblage publicitaire, au branding et à la performance sur mobile (Android uniquement pour l’instant). Mais le modèle évolue du fait de la croissance et de la granularité des données. Ogury se définit maintenant comme une « mobile data company » pour offrir des outils de monétisation, de ciblages publicitaires et d’analyses pour les annonceurs et les éditeurs.

Carrefour Media est le quatrième contributeur à la marge de Carrefour France et emploie 40 personnes. Ses clients sont les marques référencées chez Carrefour principalement. Les performances de la régie et ses actions autour de la data font que la nouvelle gouvernance de l’entreprise réinvestit énormément le sujet et les moyens afférents.

  1. Comment faites-vous pour suivre les individus ou consommateurs?

  • Le terme suivre est rejeté par les 2 participants.

Pour Philippe Périé (Ogury), on n’est pas dans une logique de suivre les individus de façon individuelle et en permanence, cela ferait beaucoup trop de données ! Cependant, la valorisation des données est faite, à la demande, dans des contextes particuliers pour des clients éditeurs, annonceurs ou entreprises. La donnée est agrégée, anonyme pour créer des cibles, des profils et pour décrire des audiences, et non pas pour suivre un individu.

Michel Bellanger (Carrefour Media) met lui aussi en avant la connaissance client pour répondre à des attentes et non pas suivre une personne.

  • Comment font-ils ?

Ogury s’associe à des milliers d’applications, dans le monde entier, pour générer des données d’intérêt et de comportement uniques directement à partir de plus de 400 millions de profils d’utilisateurs mobiles uniques (250 millions avec opt-in) dans plus de 120 pays.

L’éditeur fait rentrer, dans son application, le SDK Ogury qui va, à partir de l’opt-in, collecter des données brutes (bas niveau) traduites en données significatives et utiles (applications installées, applications utilisées, connectivité et sites visités…) grâce à une technologie propriétaire. Cette vue, first party, est complète, assez unique en profondeur, en récurrence, en précision, et disponible nulle part ailleurs. La récolte des données brutes est importante pour minimiser l’empreinte du SDK sur la batterie du smartphone, un des plus d’Ogury.

Ces informations sont, ensuite, transformées par des équipes de data scientists en visites, en fréquentation, en durée. Au final, ces données sont enrichies dans une optique de ciblage publicitaire mais sont proposées aussi comme vecteur de connaissance pour un éditeur : le parcours de l’utilisateur de son application était celui-là il y a une semaine, et a été celui-ci 2 semaines après… Originellement, Ogury s’est lancé en payant un CPM assez généreux (entre 8 et 12 €), cette proposition attractive n’était pas la seule du marché, les éditeurs ont alors souhaité disposer de plus de connaissance. Ogury va aussi vers un modèle NO PUB pour proposer de la connaissance d’audiences aux clients.

Pour répondre aux enjeux de revenus de Carrefour, l’enseigne a développé des outils permettant de répondre aux attentes des consommateurs : une offre, un service omnicanal, plus de générosité, plus de personnalisation.

Carrefour a 3 grands types de connaissance clients.

  • Les transactions collectées via les tickets de caisse (anonyme) et via la carte fidélité personnelle (14,3 millions de porteurs, 27 mois d’historique d’achat à l’EAN, au code-barre). Les premières sont de l’informatique, les secondes sont de l’intelligence. Avec les encartés, Carrefour retrace 85% du CA des hypermarchés, mais moins dans les magasins de proximité.
  • La navigation / fréquentation média: magasins on (adserver / tracking) et off (carte fidélité). Les outils qui, il y a 5 ans, étaient managés par les agences (ex ad serveur) ont été réinternalisés au principe que c’était de la connaissance client qui permet de personnaliser la relation avec l’individu. La clé du commerce pour Carrefour étant la personnalisation, l’internalisation des outils était indispensable. Un questionnaire média est aussi adressé à certains porteurs de carte.
  • Les données externes de type Météo, de la donnée de contexte.
  1. Pour quelle(s) finalité(s) ?

« Après la connaissance, l’insight, il y a la dynamique de la connaissance »

Michel Bellanger, Carrefour Media

 

« On dépasse le simple taux de clic en remettant dans le contexte de l’activité via le mobile. »

Philippe Périé, Ogury

 Pour Carrefour Media, les objectifs sont, par nature, pour des clients/fabricants de marques alimentaires avec la volonté de construire de nouvelles coopérations avec les marques.

Ces nouvelles coopérations doivent être :

  • Durables, elles doivent donc répondre aux enjeux de transparence qu’attendent les annonceurs pour installer la confiance
  • Massives donc industrialisées, il faut créer de nouveaux outils avec ceux qui existent
  • ROIste, c’est le consommateur final qui valide les opérations en changeant son comportement, l’efficacité est un bon indicateur de cette acceptation. Les outils de mesure, BI, doivent être co- construits et partagés.

On explique alors aux annonceurs les opportunités ou menaces de leur business par rapport à la catégorie, la famille de produit, la promotion, la météo. Au-delà de la mesure de la performance, c’est la compréhension de cette performance qui est faite.

Evidemment, tout cela à un coût et une valeur. Que ce soit pour les annonceurs, leurs agences ou les éditeurs, Carrefour dispose, maintenant, d’outils pour répondre à leurs besoins. Les experts qui analysent, ne sont pas forcément en interne chez Carrefour, l’objectif est de connecter la donnée avec des partenaires (5 équipes différentes dans 4 entreprises différentes).

Mais après la connaissance, l’insight, il y a la dynamique de la connaissance. Associé à un CA, il y a une liste de contacts qui peut être activée pour changer les comportements : comment activer un segment d’audience sur un comportement d’achat via des médias, des services existants, des services à inventer (livraison de bouteilles pour de gros consommateurs de boisson gazeuse, pressing gratuit pour x chemises pour un lessivier…). L’important étant de créer une relation.

Chez Ogury, en termes d’organisation, le traitement de la donnée est internalisé, une équipe « data rafinery » existe même pour préparer les données. Mais sur le fond de l’utilisation des données, au-delà de la monétisation en CPM ou de l’engagement en performances de « delivery », l’apport de connaissance majeur aux éditeurs et annonceurs se fait par la compréhension du comportement de leurs cibles en dehors de l’univers qu’ils contrôlent avec leurs applications : mixités, cross usage, exclusivité, profils… sur de longues séries.

On retrouve aussi une notion dynamique du coté publicitaire en apportant de la pertinence et de la parcimonie dans la communication. Les individus sont éduqués, sont conscients de la collecte de données par les applications et les terminaux et attendent en retour des interactions proactives et contextualisées. De nombreuses études le montrent. La mission est aussi de permettre un meilleur dialogue entre annonceurs, entreprises et consommateurs.

Des progiciels édités par Ogury pour ses besoins d’analyse de la donnée en interne, sont aussi dans les mains des clients pour apporter une connaissance plus profonde de ce qui a fonctionné ou non dans une campagne, dans un segment visé, en dépassant le simple taux de clic mais en remettant dans le contexte de l’activité via le mobile.

  1. Le « sans couture » (seamless), une réalité ?

« A notre expérience sur les marques alimentaires, le sans couture n’existe pas ! »

Michel Bellanger, Carrefour Media

 

Carrefour travaille avec les wallgarden « Google, Facebook, Apple… » mais les premiers jardins clos ce sont les magasins ! Ils se sont digitalisés, ils ont monté chacun leur écosystème.

Si on se réfère au Lumascape, tous ces acteurs de ce monde-là ne donnent pas l’impression de communiquer les uns avec les autres, chacun a son propre langage, sa propre technologie et produit énormément pour alimenter les directions marketing. Ainsi, un directeur marketing a toutes ces solutions face à lui et a l’impression d’obtenir une vraie victoire quand il réussit à connecter tel système avec sa DMP. Le problème c’est que le système Facebook ou autre ne communique pas avec x ou avec y… Avoir le parcours complet du client d’un magasin est ambitieux car cela signifie, d’une part, que l’on a la transparence totale sur le marché, ce qui n’est pas le cas, et d’autre part que l’on ait de la réconciliation à l’individu (pas au device) ce qui n’est pas le cas non plus !

Chacun des éditeurs, des partenaires, impose une règle avec le risque de sacrées surprises.

Mesurer est un risque car cela peut conduire à annoncer que ce n’est pas efficace mais cela recèle des opportunités car on peut imaginer améliorer les choses. Toutefois, la chaîne et le parcours risquent de bouger et la position qu’on a dans la chaîne peut évoluer.

Carrefour est en train d’organiser un « hôtel » dans lequel il n’y a qu’un seul langage commun, le client final (réconcilier la donnée à l’individu), et chacun des partenaires (les 450 plateformes marketing) peut réserver une chambre qui dispose d’une porte sur toutes les autres chambres en maitrisant la sécurité de la donnée et les règles de privacy. Cet hôtel, est pour l’instant plus un Airbnb (on fait à la main) mais a vocation à devenir l’hôtel décrit, c’est-à-dire, l’industrialisation des réconciliations. Cela fonctionne remarquablement bien.

L’an dernier, la régie a fait une communication sur le VOPO (View On Line Purchase Off Line), le (ROPO n’existe pas en alimentaire), la réconciliation entre les données transactionnelles et les données d’exposition on line.

On travaille déjà avec Facebook et on mesure l’efficacité du digital Facebook sur l’achat chez Carrefour. Avec Google ou Appnexus, on reconcilie à l’individu les impressions digitales avec un ticket de caisse, ce qui permet de mesurer un effet (tant de chiffre incrémental, tant de recrutement incremental…) et de produire des courbes de réponse d’effet sur les ventes. Les annonceurs optimisent leurs campagnes sur des cookies mais quand on se place à l’individu, on constate qu’il a 2.5 cookies. Donc optimiser au cookie c’est voir double. Optimiser en temps réel le lundi, par exemple, quand les achats se font le jeudi, ça ne sert pas à grand-chose. Enfin, une campagne, en soi, a peu d’effet, c’est la répétition des campagnes qui fait la construction du ROI. La donnée Carrefour se teste sur 6 mois, pas en une vague, pour accumuler suffisamment de pression commerciale en digital pour obtenir un résultat.

Ogury travaille sur des données Android qui est un écosystème très fragmenté avec de nombreux constructeurs, de nombreuses versions qui ne travaillent pas toutes de la même façon.

Cela arrive qu’il y ait des trous dans les données qu’il faut détecter mais globalement l’ensemble est assez propre. Les biais qui existent sont techniques. Pas de biais non plus de cookie car l’information est à l’Android ID du smartphone qui est un objet personnel tant que l’on ne change pas de device, qu’on ne remette pas à zéro l’Android ID (c’est possible) ou tant que vous ne démissionnez pas d’Ogury !

  1. RGPD ? Privacy ? Un frein ? opportunité ?

« Le RGPD va vraiment faire le tri entre le bon grain et l’ivraie ».

Philippe Périé, Ogury

 

« Il y aura des procès, dès 2018, car il y a une vraie volonté politique »

Michel Bellanger, Carrrefour Media

Pour Ogury, l’arrivée du RGPD est une situation vécue sereinement car dès les débuts de la société, être avec un opt-in explicite était la règle. Nous avons toujours préféré perdre de la donnée que d’en collecter de manière non transparente.

C’est une opportunité attendue avec impatience car :

  • cela va provoquer un assainissement du marché de ceux qui ne sont pas vertueux et aussi mettre en avant l’unicité, la granularité de nos données
  • et c’est un bénéfice pour l’utilisateur aussi, car il aura moins de publicité mais elle sera plus intéressante, car plus ciblée et plus contextualisée. L’acceptation publicitaire sera plus forte.

Le RGPD est aussi une opportunité pour Carrefour. Le même argument de nettoyage du marché est aussi mis en avant. Des cookies distributeurs circulent sur le marché, d’où sortent-ils ? Du probabilisé plus que du réel !

Soyons audacieux et saisissons le RGPD pour positionner Carrefour pas seulement sur une carte de fidélité, pourquoi ne pas proposer aux clients de les rémunérer pour l’usage de leurs données en euros sur leur carte fidélité ?  Pourquoi pas un pass data ou le client peut gérer ces opt-in opt-out pour tout ? Il y a une vraie réflexion autour d’une offre de services et pas seulement l’offre de produit. La force de Google et Facebook ? Un service de qualité. Le RGPD constitue une vraie opportunité pour les Directeurs marketing d’apporter un vrai service.

  1. A-t-on encore besoin du parcours des pensées ? Les sociétés d’études servent à quelque chose ?

« S’il y a biais ou censure et pas d’élément pour contextualiser, caler ou cadrer, les masses de données ne vont pas apporter grand-chose, au contraire on est sûr de raconter n’importe quoi »

Philippe Périé, Ogury

 Après 15 ans à TNS et IPSOS, Philippe Périé ne peut fournir une réponse objective ! Pour lui, on ne répond pas aux mêmes objectifs.

L’étude permet d’avoir accès à de la donnée couvrant tout le marché, les occasions (pas seulement l’interaction que le client a avec les points de contacts contrôlés par l’entreprise). S’il y a biais ou censure et pas d’élément pour contextualiser, caler ou cadrer, les masses de données ne vont pas apporter grand-chose, au contraire on est sûr de raconter n’importe quoi ! La donnée étude (quali/quanti) permet cette mise en perspective.

La récolte passive et massive de données apporte des informations de comportements et d’usages contextualisées, sur de longues périodes et sur de tels volumes et degrés de granularité que l’on peut descendre à des niveaux de résolutions inaccessibles autrement, et sans biais de souvenir.

En résumé, l’étude permet la mise en perspective, la couverture hors du champ de ce qui est pris par nos canaux, on est plus sur des problématiques de compréhension de marché, consommateur… Les données massives apportent la granularité, longues séries, exhaustivité, données contextuelles. On est alors plus souvent sur de l’opérationnel.

Ensuite, il y a tous les modèles d’hybridation possibles.

 

Selon Carrefour, la base de données permet d’optimiser mais, le plus important, c’est innover, avoir des idées. Ce sont souvent les clients qui en parlent le mieux et ce n’est pas dans les bases de données qu’on les trouve.

Publicité et études, même combat : tout le monde est perdu ! IIEX Amsterdam (compte rendu partial et partiel)

Share This:

700 personnes rassemblées à une conférence dédiée aux études ? Mais oui, ça existe encore et cela a eu lieu 19 et 20 février 2018 à Amsterdam, dans le cadre de IIEX Europe (tous les budgets conférences et voyages ne sont pas encore coupés partout!).

Vous connaissez ces conférences IIEX (Insight Innovation Exchange) ? Non ? Ne soyez pas surpris, vous êtes français et nous n’en avons compté seulement qu’une petite dizaine (et c’est bien dommage). Mais des anglo-saxons en force !

Les but d’IIEX ?

  • Amener de nouvelles idées pour changer le monde des « insights »
  • Fournir des sessions de formations pratiques pour développer de nouvelles capacités
  • Connecter les professionnels des études, des agences, des annonceurs entre eux (et il y avait des annonceurs !)

Nous avons souvent l’occasion d’assister à des conférences sur la communication (et nous nous en faisons l’écho) et cela faisait longtemps que nous n’avions pas assisté à une conférence sur les études (research en anglais). IIEX nous avait offert, très gentiment, l’inscription pour ces 2 jours.

Pour les premières (la communication), en filigrane, nous entendons souvent « comment exister face au GAFA » avec un bouillonnement d’initiatives (fondées ou non), de produits (utiles ou non), de débats (jamais assez à notre goût), pour la seconde, la question est « comment exister (tout court) ? » « Vers quoi faut-il aller ?»

Cette industrie, les études, et c’en est une (44.5 milliards de $, ESOMAR 2017), s’interroge sur son existence même quand elle voit ses clients (les annonceurs, les agences) se passer d’elle, faire autrement, différemment grâce au numérique.

Alors quoi de neuf ? Nous pourrions en écrire des tonnes sur toutes les sociétés présentes axées majoritairement sur les neurosciences, du social, de l’intelligence artificielle (rien vu sur le big data ou peu de choses sur l’hybridation mais c’était peut-être dans des conférences précédentes). Mais nous préférons, nous axer sur d’autres points de vue.

  1. L’avenir des études ? « Pourquoi suis-je optimiste ? ». Didier Truchot (IPSOS)

Un grand français (mais oui, chapeau), Didier Truchot (en octobre, ses 50 ans dans les études ! IFOP+IPSOS) a introduit la conférence en prononçant une phrase reprise par tous pendant les 2 jours :

« Cette industrie a plus changé pendant les 5 dernières années

que durant les 30 précédentes »

 (C’est vrai pour les études ad hoc mais pas pour les panels qui ont déjà fait leur révolution).

Une autre phrase intéressante

« cette industrie doit être basée sur la connaissance, la science, l’efficacité et plus important, être plus proche de ses clients, mieux les écouter pour que l’utilité de ce que l’on produit soit augmentée et que l’on puisse lutter contre les grandes sociétés de consultants ».

Où l’on retrouve encore les sociétés de conseil (études+pub= même combat !)…

Cette phrase souligne, à notre avis, 2 choses.

  • Le coté scientifique été quelque peu délaissé (D Truchot l’a souligné aussi) par les sociétés d’études. IPSOS a l’air de vouloir s’y remettre avec les récentes embauches de 2 directeurs scientifiques (très très bien tous les 2), Jean Noel Zeh (ex CSA) et Benoit Hubert (ex GFK).
  • La proximité client qui renvoie aussi à la disparition ou la perte d’importance des directions études chez les annonceurs.
  1. Les études chez l’annonceur : « Comment être prêt pour demain dès aujourd’hui » Stan Sthanunathan, Executive Vice President, Consumer & Market Insight, UNILEVER

 

Les sociétés d’études sont, encore aujourd’hui, plus calées ou occupées sur le triangle de gauche (en noir et blanc) à passer plus de temps sur la collecte de données que sur les insights alors qu’elles devraient être dans la posture inverse pour essayer d’atteindre le graal, selon lui, donner des pistes d’action et de mesure d’impact de ces actions. Elles s’arrêtent à l’étape « insights » sans s’engager.

Le futur de l’industrie est alors

« l’intelligence augmentée » = « efficience augmentée » + « efficacité augmentée »,

où comment faire avec ½ moins de budget, ½ moins de temps pour une action x2 ?

Concrètement chez Unilever ?

  • Utilisation de la plateforme Machine Vantage (Intelligence Artificielle et Machine learning) pour mettre en relation des données de panel distributeurs (vente & co) des marques et marchés suivis par Unilever, des données social, des données d’autres études. Exemple de bénéfices : lancement d’un nouveau produit pour Lipton en 7 mois entre la détection d’un besoin, l’établissement du concept jusqu’à la mise en marché
  • Laisser l’utilisateur interne Unilever trouver les réponses à ses questions via « answer rocket » (Q&A) ou via l’acces aux études en tant que telle (people answer) ou voir ou avoir des réactions consommateur en video (discuss.io). On crée de la valeur en laissant les gens faire eux-mêmes plutôt que de s’échiner à répondre a tout !

Sa vision des CMI (Consumer & Marketing Insights) est l’ouverture vers les consommateurs avec toutes les nouvelles technologies et l’ouverture vers les marketeurs de l’entreprise.

  1. Les études vues par l’annonceur : « how to measure a cloud » Tony Costella, HEINEKEN

La palette des sources d’information pour un annonceur s’élargit de plus en plus.

Donc des études VALIDES, RAPIDES et ECONOMIQUES c’est possible.

Moralité pour les sociétés d’études, bougez vous demain est déjà là !

  1. Comment ne rien perdre avec l’arrivée du mobile : « reinventing need states segmentation for the mobile era ? Luigi delli Colli Ferrero et Steven Naert, Ipsos

Toutes les grandes entreprises ont des segmentations clients. Celles-ci ont reposé, pendant de nombreuses années, sur l’administration de questionnaires en ligne généralement longs et pénibles à remplir.  Quand 70% des individus répondent aux questionnaires via mobile, il est plus qu’urgent de revoir la façon dont on les interroge.

  • Penser au questionnaire en mobile first c’est-à-dire beaucoup plus court. Pour Ferrero passer de 36 à 15 minutes.
  • Le mobile interdit de longues listes d’items, donc comment mettre des images valides (métaphoriques) ou avoir des questions ouvertes équivalentes à ces items. Pour Ferrero, utilisation des formes modernes de questionnement (passer des images, grilles courtes, sliders). Réduction du taux de chute de 30% à 14%.
  • Interagir avec le répondant via de la self-ethnographie, l’envoi d’images, de réactions non structurées.

Rien de nouveau pour les praticiens des études (ouverts), mais cela fait toujours du bien de voir qu’on y arrive sur des choses compliquées.

  1. Un peu d’efficacité publicitaire ? « how to significantly improve marketing ROI & ad effectiveness with Google AI and Hotspex behavioural science » Shane Skillen, Hotspex

Cet homme (Shane Skillen) est un showman. Un nouveau produit de cette société canadienne Hotspex (Toronto) toujours bien notée coté innovation : du test publicitaire vidéo en ligne sur les valeurs de la marque, les émotions, les attributs… avec une analyse de la vidéo à tester à base d’intelligence artificielle. Sur les 7 marques testées à titre de pilote, +10% en efficacité media (sur quels critères ?).

  1. Pour aller toujours plus vite : « accelerating the innovation process through crowdsources intelligence » Lise Ohlin, eYeka, Karen Sears, Unilever

François Petavy (ex eBay) est le fondateur de eYeka : la mise à disposition, pour les marques, d’une communauté de créateurs. Ces créateurs sont activables pour de la stratégie de marque, du contenu pour les réseaux sociaux, du développement produit, du design.

Le cas montré était sur Domestos (produit pour les cuvettes de toilette), un vrai challenge et une cliente étude très contente d’idées différentes et de la rapidité des choses!

2 choses importantes :

  • L’accent a été mis fortement sur l’importance du brief de l’annonceur à eYeka (confirmé par la cliente). Plus de temps est pratiquement passé sur le brief que sur la récolte des idées des créatifs. Pour convertir ce brief client en brief créatif, des planneurs stratégiques d’agences de publicité chez eYeka.
  • Substitution vs les agences créatives ? Non, ce sont des idées, des concepts qui sont recueillis, ils doivent être mis en musique par les agences créatives, …ensuite.
  1. Pour comprendre l’humain grâce à ses hésitations : « certainty index as a game changer in online consumer research » Rafal Ohme, Neurohm

Neurohm, une société polonaise a fait une présentation intelligente à l’image de leurs mesures basées sur l’implicite. Autrement dit, votre temps de réaction, votre temps d’hésitation pour donner telle ou telle réponse sur un sujet est révélatrice de ce que vous ne dites pas : plus vous êtes certain de votre réponse, plus vous allez vite pour répondre. La mesure conjointe entre une réponse à une question et le temps pour avoir cette réponse vous donne un coefficient de certitude quant à la réponse à la question posée.

Là encore, pour aller plus vite, une plateforme de mesure en ligne.

En conclusion

Un monde qui change, des insights partout, accessibles par tous les moyens, de la désintermédiation, des petites sociétés qui arrivent, des gros que l’on voit peu (à leur décharge ce n’est pas le lieu), amis lecteurs ça ne vous rappelle rien? 

 

« Older posts