Étiquette : audience (Page 1 of 2)

Du génome au screenome pour détailler (vraiment!) le temps passé sur écran: la fin d’une mesure globale?

Share This:

Vous connaissiez le génome: l’ensemble du matériel  génétique d’une espèce codé dans son ADN nous dit Wikipedia. Le screenome c’est l’enregistrement de tout ce que nous faisons sur des écrans.

Un article dans Nature « Time for the Human Screenome Project » de chercheurs de Standford nous dit, en sous titre, qu’

« il faut vraiment comprendre comment les individus utilisent les médias digitaux.

Les études doivent aller plus loin que la mesure de la durée et capturer tout ce que nous faisons sur nos écrans »

Il y a là de quoi attirer notre œil et pousser plus avant la lecture de ce papier.
En fait, les chercheurs installent un logiciel sur nos appareils qui prend, toutes les 5 secondes, une empreinte de ce qui passe à l’écran lorsque celui-ci est allumé. On parle d’écran digital au premier rang duquel le mobile. L’empreinte est cryptée et transmise aux chercheurs.
Cela ressemble furieusement à ce qui existe depuis de nombreuses années dans différents instituts (Mediamétrie, IPSOS, Iligo et d’autres) pour comptabiliser, entre autres, l’audience (en France, les radios ne veulent toujours pas d’un système automatique de mesure par crainte, fondée, de voir considérablement baisser leurs audiences).

Une grosse différence, il ne s’agit pas, a priori, d’une empreinte posée dans le son ou l’image, mais de la capture de l’image elle même.

Le résultat est assez bluffant comme vous pouvez le voir dans la vidéo ci-dessous montrant (en accéléré 35 secondes) 15 minutes d’actions sur mobile capturées sur 2 heures.
Le but annoncé est de mieux comprendre notre vie digitale pour voir s’il y a des addictions, si les enfants sont influencés d’une façon ou d’une autre et…les adultes aussi.
Les chercheurs signalent que le déclaratif n’est pas fiable (nous le savons mais entre rien et rien…) et qu’il est de plus en plus difficile d’obtenir, même à des fins de recherche, des données de la part des GAFAM (trop de scandales!) donc le screenome serait le moyen d’être libre pour continuer à chercher et à nous comprendre (indépendance).
Les chercheurs sont à la tête de 30 millions de captures d’écran prises auprès de 600 individus dans ce qui est appelé « Le Stanford Human Screenome Project« . Ce projet serait à la fois une plateforme technologique, un process d’analyse et un stockage de données.
En première analyse, ils nous montrent comment des comportements peuvent être différents entre 2 adolescents de 14 ans vivant en Californie du Nord qui se déclarent comme de gros utilisateurs de smartphone (plus de 2h par jour, tous les jours avec comme première et dernière activité de leur journée le fait de regarder son smartphone).
Le participant A (image de gauche) passe en fait 3.67 heures/jour sur son appareil en 186 sessions d’1.19 minute en moyenne. Il crée un contenu pendant 2.6% de son temps de connexion, à destination des applications sociales et, sur les 3 semaines de tracking, a utilisé 26 applications dont 53% étaient des applications sociales (Instagram et Snapchat principalement). Cette personne est supposée avec quelques problèmes d’attention ou alors d’être un as du maniement du téléphone.
Le participant B (image de droite) passe lui 4.68 heures/jour sur son mobile en 26 sessions d’une durée de 2.54 minutes. 7% de son temps est consacré à produire du contenu. Il utilise 30 applications mais une est majoritaire YouTube. Une spécificité il aime la nourriture avec 37q% de contenu Food divers et variés sur une journée
Le nom est bon, les vidéos ou les images sont convaincantes, les premières analyses intéressantes, du beau travail à l’américaine, mais, dans l’article, il manque une chose essentielle, comment fait-on pour coder toute cette information? De nos jours, on ne code plus à la main (on ne parlera pas de la labellisation des images pour l’IA) mais comment faire pour caractériser, découper, classer cette foultitude d’information?
Si quelqu’un pouvait nous le dire nous serions contents!

Marketing Remix 2019 de Viuz (compte rendu partial et partiel)

Share This:

Comment faire un compte rendu quand vous n’avez pu vous rendre à un évènement (à notre grand regret) ? C’est simple, il suffit de regarder les vidéos de l’évènement ! C’est ce que nous avons fait pour le Marketing Remix du 7 novembre 2019, organisé, comme tous les ans, par Viuz.

Une première cette année, les duettistes organisateurs habituels, Patrick Kervern et Andres Menajovsky, n’étaient plus qu’un solo, Andres (qui fut appelé Patrick par une intervenante, comme Patrick que l’on appelle aussi Andres !)

Merci à VIUZ de faire une conférence où les femmes sont nombreuses à prendre la parole !

Regarder des vidéos, ce n’est pas pareil que d’assister à l’évènement:

  • Avec la vidéo vous ne voyez pas l’écran où l’intervenant projette sa présentation mais seulement son visage et sa voix. Cela limite les effets que les uns et les autres ont pu ou du vouloir faire.
  • Une vidéo vous donne une autre liberté, celle d’arrêter de suivre et donc celle de passer à autre chose… De l’importance du « choc de l’intro » !
  • La vidéo vous donne le choix aussi de ne pas voir X ou Y car, en général, vous n’apprenez rien de cette personne…
  • La vidéo vous met aussi face à un contenu énorme ou la question est comment optimiser le temps et ne voir que ce qui est bien ! Impossible de répondre à cela (on a eu l’aide d’une copine qui a assisté à l’évènement !) et il ne faut surtout pas se fier au nombre de vues de chacune car pour avoir écouté certaines parmi les plus regardées et à l’opposé certaines qui recueillent peu de vues il n’y a pas de corrélation avec le contenu (selon nous) !

Alors nous vous proposons, dans cet ordre, les impressions suivantes :

  • CONVAINCUE et CONVAINCANTE : Amélie Oudéa-Castera, CARREFOUR
  • CASH : Jérôme Sutter, PURESSENTIEL
  • ON AIME : Isabelle Bordry, RETENCY
  • COURAGEUX et PERSEVERANT : Bastien Schupp, Groupe RENAULT
  • TENDANCE : Arnaud Caplier, THE CONTILLERY
  • FIERE DE SON JOB : Aude du Colombier, TEDIBER
  • ETONNANT ET INTERESSANT : Philippe Guillaud, MATCHTUNE
  • BRAVOOOOOO : Guillaume Lacroix, BRUT
  1. COMMENT L’INTELLIGENCE ARTIFICIELLE TRANSFORME LE MARKETING DE CARREFOUR

Amélie Oudéa-Castera, Directrice exécutive e-commerce, data et transformation digitale | CARREFOUR |

Impression : CONVAINCUE et CONVAINCANTE

L’entreprise Carrefour (CRF)

CRF au croisement de toutes les disruptions : les transformations des règlements, des technologies des usages, la crise de confiance, l’intensité concurrentielle. La seule chose qui ne l’affecte pas, ce sont les taux négatifs (qui sont plutôt une chance !). La situation est donc complexe mais l’envie de réussir est là, pour les 380 000 employés dans le monde, parce que c’est une belle entreprise française et une marque qui a vécu et avancée avec nous tous.

Le plan CARREFOUR 2022

Un plan de transformation engagé par Alexandre Bompard, depuis janvier 2018, 5 années cela passe extrêmement vite !

Quatre grandes idées dans ce plan

  • la transformation alimentaire. Rendre le mieux manger accessible à tous en respectant la planète et en ayant une juste répartition du profit le long de la chaine de valeur. Cette idée est la chose la plus importante. C’est la raison d’être de CRF.
  • Réduction des coûts et hausse de la productivité
  • Simplification de l’organisation et de la culture d’entreprise
  • Omni-canalité entre les différents formats et le e-commerce pour une expérience fluide pour les clients CRF.

La data CRF

Quelques chiffres : 104 millions de foyer clients dans le monde qui réalisent quotidiennement 13 millions de transactions dans les 9 géographies du groupe soient 4.5 milliards de transactions à l’année… Les données sont plutôt propres et organisées car reflet du ticket de caisse. Mais pour autant CRF n’est pas aujourd’hui une entreprise « data centric », le but est qu’elle le devienne même si ce n’est pas simple ! Quelques exemples :

  • Le rapport entre le ticket de caisse et la transition alimentaire. Une application vous donne, en fonction de votre ticket, la répartition de votre consommation selon les catégories de nutriments et vous fait de petites analyses de type « quel est votre nutri score » dans le mois. Une information non culpabilisante pour les clients qui peut devenir un jeu pour eux avec un incentive pour améliorer son score.
  • Bâtir des ponts entre les métiers. Dans « Act for food », il y a l’engagement de retirer 100 substances controversées dans les produits proposés. Il faut être capable de passer en revue en permanence toutes les références proposées dans le monde entier et s’assurer que, par exemple, les nitrites n’y sont plus. Cela suppose d’avoir une base « d’intelligence artificielle » contenant tout ce qui est inscrit sur les étiquettes des produits plus des informations complémentaires données par les fournisseurs.
  • Le ecommerce en alimentaire n’est pas rentable. Le vrai pari avec le e-commerce est d’essayer de faire rentrer des nouveaux clients par ce canal et de les faire passer dans d’autres formats Carrefour pour que l’entreprise, au global, soit gagnante.

Le Lab avec Google ?

La data chez CRF est à la fois de la data pour tous et de la data de pointe. Le lab est installé à proximité de de station F et accueille des ingénieurs et scientifiques pour la partie algorithmique la plus avancée. Exemples : amélioration des prévisions de vente ecommerce, optimisation des assortiments en fonctions des centimètres de linéaire dans les petits magasins de proximité, management du niveau de générosité sur les coupons et personnalisation de ceux-ci.

Partenariat Google

Après une phase de scepticisme au début, la méfiance a disparu car CRF a pu bâtir des expériences de shopping intéressantes avec Google. Cette dernière ayant une très grande envie de rattraper Amazon, CRF bénéficie d’expériences sur l’IA, la voix mais développe, aussi, la suite de solutions « G suite » dans l’entreprise pour casser les silos, et utilise le cloud de Google pour toute la masse de données et leur mise à disposition rapide dans le monde entier au travers d’applications innovantes, sans parler des accords commerciaux du type mettre la google home dans les hypers à des prix attractifs. CRF bénéficie à travers le lab de l’apport d’expertise de Google notamment en matière de formation des équipes. Exemple le programme Google go transform qui était la première fois ou Google transformait son programme interne vers un client externe.

AMAZON?

Une menace de tous les jours mais aussi un moteur énorme. Amazon c’est le benchmark, « le Roger Federer du ecommerce » (Amelie est une ancienne joueuse de tennis !). Mais, l’alimentation est particulière. Le ecommerce c’est souvent le fond de panier mais la proposition de valeur d’un CRF ce sont ses formats et CRF doit se positionner aussi, par exemple, sur la livraison de nourriture bonne et fraiche à l’instar d’acteur comme Frichti, Nestor pour réaliser la première promesse du plan 2022.

VISION ?

Le mot « transformation » donne l’impression d’avoir du temps, c’est faux ! Le travail de l’équipe est d’être là pour le succès de Carrefour aujourd’hui ! C’est la société dans son ensemble qui doit se réinventer et nos générations ont une responsabilité forte car les modèles sont cassés. On doit tous souhaiter que la french touch de Carrefour réussisse !

2-      RETENEZ L’ATTENTION DE VOS CONSOMMATEURS : SOYEZ VU ET ENTENDU

Franck Da Silva, Directeur Commercial & Opérations, GRAVITY

Jérôme Sutter, Directeur Communication & E-Business, PURESSENTIEL

Impression : CASH

Jérôme Sutter a parlé cash et il peut parler cash pour avoir vécu, depuis un peu moins de 20 ans, tous les aspects du digital (site, media, agence, consulting…) et être maintenant directeur de la communication et du ebusiness.

Son budget de communication est faible. Il est pluri-media (presse, tv, radio, affichage, digital) et le digital représente la plus faible partie de son budget, paradoxal vu son parcours ?  Non, car le pragmatisme le guide et il ne veut pas dépenser son argent pour rien ! Alors, pour des opérations digitales, la réponse la plus simple ce sont les « walled garden » qui lui permettent d’agir facilement dans 10 pays, sans que cela coûte des millions. MAIS…la nébuleuse du programmatique, les kickbacks, le bullshit en matière de langage, les indicateurs faux…. « LES WALLED GARDEN, CA NOUS SAOULE, NOUS LES ANNONCEURS » (applaudissements dans la salle). La confiance n’étant plus là, il se tourne vers des gens de confiance et des systèmes transparents comme GRAVITY. Celle-ci vend, comme le dite Jérôme Sutter, un « true view » à la française 😉. Puressentiel a réalisé une opération vidéo avec Gravity et en est très très content !

3-      MESURE D’IMPACT PUBLICITAIRE PLURIMÉDIA EN MAGASIN

Isabelle Bordry, Co-fondatrice | RETENCY |

Jacques Thieck, Directeur Outils et Enablers Marketing | ORANGE |

Impression : ON AIME

Le drive to store en vrai n’est pas facile à mesurer. Il est nécessaire d’avoir un tiers de confiance pour mesurer l’effet d’une campagne sur chacune des boutiques Orange. Or, en étant dans le monde physique, pas de cookies ! La mesure doit être agnostique sur la donnée et être rigoureuse sur le mode de traitement de la donnée.  D’où la sélection de Retency (une excellente solution à notre humble avis), avec ses boitiers implantés en magasin pour compter les contacts client (via leur mobile) et son mode d’anonymisation complète de la donnée (destruction de la donnée individuelle). Orange a pu mesurer, avec Retency, l’effet de 2 campagnes drive to store classique avec 2 fournisseurs différents pour voir l’impact des formats et les pénétrations atteintes par les 2 fournisseurs (campagne fibre,  5 millions d’exposition, 22 500 visiteurs exposés se sont rendus dans des magasins des Hauts de seine). « C’est le graal » selon l’annonceur.

L’expérience ne s’est pas limitée à ces campagnes mais a été continuée pour une campagne d’affichage, une de SMS, et même les vitrines de magasin Orange.

4-      LA VIE D’UNE MARQUE, DU MASS MARKETING AU MASS PERSONNALISATION, 2 ANS APRÈS

Bastien Schupp, Vice President Global Customer Activation, GROUPE RENAULT

Impression : COURAGEUX et PERSEVERANT

Il était venu il y a 2 ans et revient faire le bilan de la stratégie de communication mise en place (il avait été très brillant dans son intervention ancienne et est toujours très bon aujourd’hui !)

L’idée de départ ?

90% des ressources sont investies sur la fin du cycle d’achat de la voiture. Or cela parait logique d’étaler les messages dans la durée pour construire une relation avec le consommateur. L’idée était alors de mettre 50% des moyens sur la construction de la marque et 50% sur le fin.

Le programme ?

3 piliers à ce programme

1-construire un eco-système data

2- construire différemment les contenus

3- acheter différemment les media

Tout ceci chapeauté par un essai de motivation des agences par de l’excellence créative et un programme de formation et d’accompagnement pour réaliser cette transformation.

Succès ?

OUI ! Au global, c’est un succès. L’entreprise Renault s’est transformée, les équipes marketing et communication aussi et la plupart des outils sont en place même s’il y en encore du travail de rationalisation à faire de ce coté-là. Il ne suffisait pas de transformer Renault il fallait transformer aussi les fournisseurs sur la manière de faire. Ainsi, les équipes de Publicis, d’OMD et tous les partenaires data sont sur un même plateau avec les équipes Renault. Cela a permis un gain de 40% sur le temps de création des campagnes.

MAIS il y a des choses simples ou banales que l’on a appris

  • Si les équipes marcom ont bien compris, les patrons des filiales qui sont poussés sans arrêt sur les volumes au quotidien, ont beaucoup de mal à opérer ce passage du 90%/10% vers le 50%/50%. La seule solution tient dans la répétition permanente dans tous les comités de direction du message et de quantifier de prouver que c’est plus efficace. Quand un pays vous suit, il sert d’exemple pour les autres.
  • Le frein principal c’est la capacité et le savoir-faire interne. Un pays qui était parfait sur la nouvelle approche pendant 6 mois, repart dans de mauvaises directions tout simplement parce qu’une personne a changé ! Il faut faire un mélange entre les nouvelles équipes et les anciennes et vérifier le travail de manière régulière
  • Les modes de l’ad tech sont insupportables, tous les jours des prestataires viennent vous dire que tout ce que vous faites est nul et qu’il faut tout changer ! Il ne faut pas écouter les sirènes, il ne faut pas essayer d’être le premier dans tout ce que vous faites, il faut réduire ses ambitions, choisir ce qui marche et ce sont, bien souvent de petites choses, et ensuite persévérer !

5-      INTELLIGENCE ARTIFICIELLE : LES DÉCRYPTAGES DE L’ENGAGEMENT VISUEL

Arnaud Caplier, Fondateur, THE CONTILLERY

Impression : TENDANCE

On parle beaucoup de data, l’effort a été porté sur la cible, le moment, le canal et quasiment jamais sur l’optimisation des contenus qui est le plus souvent vue sous l’angle de la personnalisation et non de la qualité des contenus. Or la data permet maintenant d’arriver à cette optimisation des contenus.

En data, explosion, profusion et arrivée du machine learning. Une image aujourd’hui c’est une foultitude d’information (profondeur, luminosité, pixel, salience, ….) et on peut entamer le cycle de mesure de la relation entre les caractéristiques de l‘image sur l’action (ex image sur Instagram et like). De cette mesure, on peut ensuite aller à la prévision sous la forme d’un score par image. Une image avec un score de ou un score de 9 ont des résultats finaux extrêmement différents : conversion x 2, engagement social x 10 ou x 20.

6-      TEDIBER, UNE APPROCHE DIRECT TO CONSUMER EN RUPTURE AVEC TOUS LES CODES EXISTANTS

Aude du Colombier, Co-fondatrice, TEDIBER

Impression : FIERE DE SON JOB

Création il y a 4 ans, d’une startup sur les matelas (achat important, on passe un tiers de sa vie dans un lit !) avec comme ligne directrice « remettre les clients au cœur dans tout ce que l’on fait ». L’entreprise est passée de 4 à 40 personnes avec une organisation fluide sans silo entre les fonctions. Tout le monde est actionnaire !

  • Un business model totalement intégré de la fabrication d’un matelas jusqu’à la livraison à domicile pour offrir, au client, une expérience très simple et fluide en plus du rapport qualité / prix imbattable (optimisation maximale à tous les niveaux)
  • Une réinvention des fondamentaux du marché en simplifiant le choix d’où un modèle unique de matelas
  • La mise en transparence avec un prix juste, unique, constant toute l’année. Aucune solde n’est faite pour instaurer de la confiance et avoir une approche responsable. Ceci permet aussi d’avoir les moyens d’investir dans de la production locale, dans de la qualité produit, dans de la recherche
  • La confiance passe par 100 nuits d’essai et si ça ne va pas remboursement immédiat avec récupération du produit (partenariat avec Emmaüs Défi pour ces matelas)
  • La satisfaction des clients comme obsession. La pérennité de l’entreprise viendra de cela. L’équipe service client est alors la plus grosse équipe (20% des effectifs), pas de sous-traitance. Cette équipe est un actif de l’entreprise et c’est une source d’insight pour tout le reste de l’entreprise. La qualité du service client est le ressort du bouche à oreille et un vrai facteur de choix par rapport aux concurrents.
  • Une évolution physique avec l’ouverture d’un magasin et bientôt d’un second même si Tediber est née sur le web et que le plus gros du business est toujours sur le web. La boutique permet l’incarnation physique et amélioration de l’expérience client.
  • Une extension de gamme vers le canapé lit
  • Une volonté de devenir une marque de référence
  • Une minimisation de l’impact environnemental avec une production européenne et le lien avec Emmaüs

Bref, l’entrepreneuriat est une aventure passionnante, et lui permet d’avoir une vraie fierté dans le développement d’une marque et d’une activité à partir de rien. Aucun regret sur le reporting et la politique qu’elle devait faire dans les grandes entreprises où elle a travaillé (Unilever, Mc Kinsey, Google) !

7-      MUSIQUE, L’INTELLIGENCE ARTIFICIELLE COMME INSPIRATION

Philippe Guillaud, CEO, MATCHTUNE (associé à André Manoukian)

Impression : ETONNANT ET INTERESSANT

Il est allé voir les entreprises qui créent les vidéos. Pour toutes, la musique est le problème !

  • Il faut passer beaucoup de temps dans les grands catalogues pour faire un choix et encore faut-il trouver la bonne quand le métier d’illustrateur sonore n’existe plus.
  • Comment transformer 3 minutes en 25 secondes ? des couts s’ajoutent…
  • Et quand on a les 25 secondes, ca ne colle pas forcement bien avec les images
  • De plus, si la musique ne plait pas, il faut tout refaire…. !

MatchTune résoudrait ces problèmes grâce à l’IA !

Pour lui, il faut d’abord comprendre la vidéo, sa structure. Ensuite on peut proposer un nombre restreint de musique et demander à l’IA d’adapter la musique à la vidéo. La machine adapte la musique pour la caler sur les x secondes de video et si ça ne plait pas, la machine propose quelque chose d’autres en un claquement de doigt !

Nous aurions aimé voir comment on fait pour mieux comprendre le processus, mais c’est intéressant !

8-      “LET’S TALK ABOUT” BRUT.

Guillaume Lacroix, CEO, BRUT

Impression : BRAVOOOOOO !

BRUT est le résultat d’une intuition et d’une révolution.

  • La révolution est que la conversation change la consommation media. BRUT essaye de donner du contexte a l’actualité, a la société, au monde pour démarrer une conversation pas un débat. Ce dernier ne fait que polariser les opinions (ca marche très bien sur les réseaux sociaux), cela fait du clic et n’est pas vertueux. La conversation par contre permet de bâtir des communautés. C’est la révolution
  • L’intuition est venue sur les thèmes que BRUT traite. Quelques chiffres : 30 millions de personnes qui regarde BRUT chaque jour, 300 millions par mois principalement en Europe, en Inde (plus gros media en langue anglaise) et en Amérique du nord (seconde page media sur FB). 70% des spectateurs ont moins de 35 ans et ces individus, où qu’ils soient dans le monde, ont un système de valeurs qui a changé : responsabilité du pouvoir, droit des femmes, lutte contre les discriminations… tout ce qui est tourné vers des solutions pour la planète, l’environnement. L’intuition a été de choisir ces sujets là et BRUT a explosé avec la prise de conscience sur ces sujets.

Implantation.

En plus des pays pré-cités, une présence au Japon, en Chine, en Espagne, en Grande Bretagne. Dans chaque pays , la moitié de ce que BRUT distribue vient d’un autre pays. Ce qui est très bon pour le business model !

Génération globalisée.

Les variations régionales touchent la culture et le sport , le reste des valeurs est globale avec quelques nuances. Exemple en Inde, déjà le droit de la femme est compliqué, alors les LGBTQ, c’est plus dur ! Quand ils ont ouvert les USA, les jeunes américains se sont comportés de la même façon que les jeunes des autres pays, c’est pour cela qu’ils sont allés vite pour lancer la page américaine (il y a 18 mois). « Quand on s’intéresse à l’humain et que l’on montre qu’il y a des gens qui se bougent positivement à l’heure de médias classiques toujours négatifs, cela les intéresse ! »

Diffusion

Brut fait entre 1 milliard de vues par mois, 50% Facebook, 30% SNAPCHAT le reste c’est Instagram, YouTube (Ce dernier ne déclenche pas de conversation)

Vice fait 650 millions de dollars de revenu et ils ne sont pas rentables. Si Brut fait cela, ce n’est même plus de la rentabilité il peut partir sur la lune !

La pub ?

On a affaire à des générations qui adorent les marques et détestent la pub ! Du coup comment créer l’expérience publicitaire. BRUT choisit ses clients pour garder une intégrité de marque. Sur les réseaux sociaux ce qui marche c’est la preuve de ce que l’on fait, BRUT agit comme un tiers de confiance.

BRUT a levé 40 millions de dollars (Artemis, Alexandre Mars, …) pour s’étendre aux USA, assez ou pas assez ?

Editorialement BRUT fonctionne déjà très bien aux USA mais il faut convertir. BRUT est déjà archi rentable en France (pas de chiffres fournis), cela doit etre uen réalité partout. A titre d’exemple, VICE fait 650 millions de dollars de revenu et ils ne sont pas rentables. Si BRUT fait cela, ce ne serait même plus de la rentabilité mais un départ pour la lune !

L’enjeu de BRUT est l’activation des communautés pour créer un impact sur les sujets qui ont poussé les individus à se constituer en communauté. Ce défi sera dévoilé début 2020.

Intelligence Artificielle

12 personnes en techno, utilise du machine learning pour analyser son bas de catalogue et avoir de la donnée qualitative sur les générations qui les consomment. BRUT sur travaille sur l’analyse du langage naturel (NLP). Exemple, si un individu a commenté telle vidéo, le NLP permettra de lui dire qu’il y a tel aspect de cette vidéo traité dans telle autre vidéo et de lui proposer de la voir. Si on arrive à le faire on va doubler notre audience automatiquement !

Brut est unique à l’international !

VIVE L’INTELLIGENCE ET LA SCIENCE – Conférence IPSOS (compte rendu partial et partiel)

Share This:

Quand on consulte l’excellent site myenventnetwork.com, le constat est simple : tous les jours des événements, des conférences, des ateliers (parfois plusieurs dans la même journée) gratuits pour la majorité d’entre eux, mettent en avant un aspect du métier de la communication, du digital et des media.

C’est trop mais c’est ainsi (cf notre coup de gueule il y a 2 ans et ça n’a pas changé).

Nous sortons, de plus en plus souvent avant la fin (ce qui n’est pas poli), énervés après avoir entendu des choses déjà dites, redites, rabâchées sans aucune aspérité sans point de vue affirmé. C’est pour cela que nous n’avions rien publié sur ce blog depuis des mois. Overdose de banalités !

Aussi, quand une société vous propose de faire bouger vos neurones en vous apportant de l’intelligence scientifique, vous ne pouvez dire qu’une seule chose MERCI IPSOS !

L’idée de ces conférences à la maison de la chimie, le 26 septembre 2019 au soir, était de se réinterroger sur tous les modèles théoriques qui sous-tendent tout ce que nous faisons, faut-il les renouveler ? comment les renouveler ?

Que se passe-t-il dans notre cerveau, comment raisonne-t-on ? (Olivier Houdé, Professeur émérite Paris Descartes, laboratoire LaPsyDÉ).

Les adeptes de l’homo-economicus ont toujours mis en avant la capacité de réflexion logique de l’humain, son système algorithmique qui permet d’élaborer une pensée réfléchie, dont la fiabilité est grande mais qui nécessite du temps, des efforts pour aboutir. Son défaut ? Monopoliser notre attention (amusez-vous au jeu dans cette video).  C’est le système dit 2, incarné dans les travaux de Jean Piaget. Exemples simples : lire un mot que l’on ne connait pas, changer de direction pendant un trajet habituel, calculer 19 x 46…

Daniel Kahneman (prix Nobel d’économie 2012) a démontré que le système 2 n’était pas le seul dans notre cerveau, mais qu’il en existait un autre : le système 1. C’est un système dit heuristique dont la caractéristique est d’être une pensée automatique, intuitive, avec une fiabilité correcte mais non totale et surtout une très grande rapidité. Le cerveau humain cherchant toujours à économiser sa consommation d’énergie, le système 1 est celui que nous activons le plus souvent dans nos taches quotidiennes. Des exemples ? La lecture, la conduite automobile sur un trajet habituel, des calculs simples (1+1, 2+3 …). L’apprentissage est la base de construction du système 1.

Au passage, ne pensez-pas, comme l’imaginait Piaget, qu’en passant de l’enfant à l’adulte le 1 laisse la place au 2 ! Non, suivant les sujets, les moments, l’adulte est à fond dans le système 1, aucune corrélation avec l’âge ! (Comme quoi la sagesse n’est pas l’apanage des vieux 😊)

Alors nous nous arrêtons là, avec 2 systèmes ?

Non ! Il en existe un troisième, issu des travaux d’Olivier Houdé. Ce système 3 est dit système d’inhibition qui a fonction d’arbitre, et qui nous pousse à interrompre notre processus de décision rapide (système 1) pour basculer sur la réflexion algorithmique (système 2). Le système 3 permet d’éviter les conflits entre les 2 premiers, les conflits cognitifs. Les adeptes des neurosciences le localiseront dans le cortex pré-frontal, là où se situe nos émotions et sentiments.

L’idée est alors de « cultiver » notre système 3 pour apprendre à débrancher le système 1 au profit du 2, il faut résister à notre intuition !

A quoi cela sert-il ?

Un exemple concret proposé par Brice Teinturier : les stéréotypes racistes et antisémites existent depuis longtemps (les juifs et l’argent, les juifs et le pouvoir, le lobby juif mondial…) et sont suivis par IPSOS (B Teinturier a projeté des verbatim issus des réseaux sociaux, à vomir…). La question est, pour un gouvernement par exemple, de trouver des moyens de combattre ces stéréotypes. Affirmer que ce n’est pas vrai ne sert à rien, on se heurte au mur du système 1. Comment pousser le système 3 à débrancher le 1 pour activer le 2, donc à dépasser le stéréotype pour aller à la réflexion. IPSOS a introduit dans ces questionnaires d’opinions, des mesures de nouvelles émotions relatives au doute, au regret et à la curiosité qui permettent aux pouvoirs publics de penser leurs démarchent autrement. Ces mesures sont applicables aussi au marketing.

 

Deuxième sujet : La modélisation de la mobilité (Olivier Bonin, Professeur, Géographe, chercheur à l’IFSTTAR au Laboratoire Ville Mobilité Transport)

Le sujet parait plus simple que l’exploration de notre cerveau et pourtant ! Comment reconstituer des flux de mobilité pour mesurer des individus qui bougent en permanence dans tous les coins. Les vieilles méthodes consistaient à reconstituer des flux en comptant des passages à des points fixes et en interrogeant des individus dans le cadre d’enquêtes. En demandant un point de départ, un point d’arrivée, un mode de déplacement et des choix d’itinéraires, il était possible de modéliser les flux. Les modèles permettaient alors d’interpoler dans le temps et l’espace, des données très partielles, lacunaires. Ceci avec plus ou moins de succès car on se limitait souvent à des heures de pointe (le matin), un jour de semaine, sans tenir compte des variabilités des activités et en étant focalisé plus sur les flux que sur les comportements des individus.

Aujourd’hui, des données sont disponibles en masse : la billétique, le GPS, les smartphones, des boîtiers dédiés… Ces données sont, de plus, relatives à un individu. Et même si elles sont moins riches sémantiquement que des enquêtes, elles apportent une densité temporelle et spatiale incomparables.

Vous y appliquez des modèles différents (on passe des modèles gravitaires aux modèles multi-agents), calculés au niveau de l’individu (qu’il soit réel ou synthétisé) et vous disposez de multiples programmes d’activité répartis entre les jours, les chaînages, les différents membres d’une famille, bref, de tout ce qui est nécessaire pour l’optimisation des trajets, des infrastructures, des horaires, … mais aussi pour la mesure d’audience de l’affichage (Outdoor, en usage maintenant…)

C’est le cas applicatif montré par (le brillant) Jean Noël Zeh (IPSOS) puisque l’entreprise a gagné l’appel d’offres de Mobimétrie (ex Affimétrie). Dans cette mesure sont intégrés les déplacements de 10 000 personnes (elles ont porté pendant 9 jours, un « meter », un boitier spécifique, précis sur la localisation GPS), des mesures déclaratives de déclarations de déplacements (smartphones), les points d’intérêts géographiques (magasin, services publics, réseaux de transports, …), toute l’open data INSEE, et des données payantes de telco ou d’autres acteurs.

Jean Noël Zeh a aussi montré 2 cas de « research for good », comme la mesure des flux dans un camp de réfugiés Rohingya au Bangladesh pour permettre d’établir des points d’eau ou des centres de soins.

Troisième intervention : le consommateur expliqué par ses neurones (Vinod Venkatraman , Professeur, Temple University).

Nous sommes repartis dans le cerveau humain ou plus exactement dans les méthodes de mesure d’effets qui existent, aujourd’hui, avec la technologie (Eye tracking, facial tracking, activité cérébrale, sudation…). Mais la chose intéressante est de les avoir relier à un impact marketing sur les ventes.

Aux méthodes nouvelles, Vinod Venkatraman a testé aussi les méthodes plus classiques d’interrogation (groupes ou questionnaires). C’est l’objet d’un article primé en 2015 à l’ARF aux USA (sur de petits échantillons…). La conclusion est bonne pour une société d’études. Que ce soient des mesures d’eye tracking, biométriques, EEG ou questionnement, chacune apporte un voire plusieurs éléments de réponse différents à l’élasticité publicitaire sur les ventes. Autrement dit, c’est en utilisant toutes les méthodes que l’on a une vision complète et pertinente. Pour avoir, nous-même, hybridées plusieurs méthodes, nous ne pouvons qu’être en accord avec cette conclusion !

En application, Katell le Coueffic a présenté le « creative lab » qui permet, en une journée, de mettre en oeuvre la plupart des méthodes indiquées et d’avoir des pistes d’optimisation sur du matériel publicitaire non finalisé. Nous supposons que ceci sera plutôt l’apanage des grands sociétés clientes.

En conclusion, une des phrases prononcées en introduction par Helen Zeitoun :

« science et études, le ticket gagnant pour ne pas dire n’importe quoi »

(combien d’entre nous devraient s’en inspirer !).

Quel est le pays où les télévisions, les agences media sont bridées dans leurs analyses et leur productivité… La France ?

Share This:

Nous avons eu l’occasion d’assister au MIM12 organisé par la société Markdata à Lisbonne les 24 et 25 janvier 2019. Cette société portugaise nous y avait invité, ce dont nous les remercions. Près de 120 personnes (TV, radio, agences media, régies, sociétés d’études…) venues du monde entier (Allemagne, Belgique, Brésil, Bulgarie, Espagne, Inde, Italie, Maroc, Mexique, Portugal, UK, …) assistaient à la présentation des dernières nouveautés logiciels de Markdata.

2 jours de logiciels (en anglais), c’est parfois long, curieux, mais aussi passionnant (bravo pour les 2 interventions en binôme avec un grand pro de la TV et du digital au Portugal, Paulo Soares), magique et étonnant.

Le clou de ces 2 jours a été une matinée passionnante avec la présentation de YUMI web, le tout nouveau logiciel d’analyse des données individuelles TV : simple, friendly user, riche, complet, évolutif, ouvert à tous types de data (image, video, media-marché, pige, social, …) permettant de procéder à des analyses intelligentes pour un meilleur marketing programmes ou publicitaires. Les analyses étant automatisables aisément pour des gains de productivité immédiats.

Bref, la salle était déjà limite de la « standing ovation » quand, ensuite, ont été montrés :

  • une interface vocale, à base d’intelligence artificielle, pour demander des résultats (cool !)
  • Un audimètre, SAM (Smart Audio Matching), nouvelle génération, un petit boitier et une appli smartphone basé sur le fingerprinting (reconnaissance du son des programmes, identification par comparaison avec une base de données de programmes). Prix imbattable 150€ !

Les réactions de la salle, les multiples questions et la meute autour de l’audimètre ou du smartphone pour l’interface vocale ont été la preuve de l’énorme intérêt.

Quand nous voyons quelque chose de nouveau, nous avons le réflexe (un bien ou un mal…) de faire le comparatif avec ce que nous connaissons. Et là, nous nous sommes dit, « pauvre France ».

Pourquoi ?

La France, Mediamétrie en l’occurrence, a été le premier partenaire international de Markdata (1995) (et est toujours cliente via Eurodata).

Un logiciel, Telereport, a été le fruit de cette collaboration (merci Stéphane Simonart), et des évolutions nombreuses ont été faites au fil des années, la France apportant ses demandes et la France bénéficiant des demandes des autres pays.

Telereport a été remplacé en 2003 par MMW qui fut implanté sur le marché français, un peu en catastrophe. En effet, le très gros projet Médiamat2 de Médiamétrie (la refonte du système de production et de restitution des données) avait été un échec retentissant (et très coûteux) sur la partie « restitution » de l’information. Même si les intentions étaient bonnes, la réalisation, du point de vue client (nous en faisions partie), avait été un naufrage. Médiamétrie était alors revenu vers Markdata pour resigner un contrat pour MMW de façon à ce que les clients français puissent continuer à faire des analyses sur les données TV.

Comme pour tout logiciel, des mises à jour ont eu lieu mais, après 2015, plus de mises à jour de MMW pour le marché français quand tous les autres pays en bénéficiaient. Volonté politique ? Manque de personnel ? d’intérêt ? … nous ne le savons pas.

La raison est, peut-être, à trouver, en 2017, quand, Médiamétrie a dénoncé le contrat MMW et a lancé, officiellement, son propre logiciel, Restit TV. Nous avons eu l’occasion de le voir, à cette époque, et, un peu comme Mediamat2 en son temps, les intentions étaient bonnes mais la réalisation et la palette d’analyses étaient loin de correspondre aux besoins des clients français qui, selon nos informations, firent connaitre leur mécontentement (le nom d’un plat provençal en sauce semblait s’appliquer…). Depuis, le logiciel s’est bien amélioré, mais on est loin de ce que nous avons vu à Lisbonne (Yumi Web) où même, de ce que peut faire la start-up Daily d’initiés (incubateur TF1 à Station F) sur les données agrégées.

Concevoir des logiciels est un métier. Pourquoi dépenser de l’énergie et de l’argent pour faire quelque chose que d’autres font beaucoup mieux, plus vite, moins cher (un produit amorti dans de nombreux pays vs un produit construit pour un pays) ?

Nous trouvons très dommage et très triste que le marché français se trouve à la traîne des autres pays sur ce sujet. L’exception française a-t-elle une raison d’être ? Les clients français, qui sont aussi actionnaires de Médiamétrie, doivent avoir de bonnes raisons et ont dû avoir de réelles justifications que nous ignorons, pour se priver de solutions que nous jugeons productives et intelligentes, mais ce n’est que notre humble opinion.

En conclusion, l’ouverture a du bon, vive les jardins ouverts pour paraphraser « petitweb » !   

Et si Nielsen disparaissait ?

Share This:

Nielsen ?

Le leader mondial des études avec un CA 2017 de 6,572 milliards de dollars (source ESOMAR), 1.8 plus gros que le second IQVIA (anciennement IMS Health), 2.4 X Kantar, et 3.7 X IPSOS.

Une société présente à la fois sur le marché de la mesure des performances marketing (BUY) tant du côté des distributeurs (inventeur et leader mondial des panels distributeurs) que des achats consommateurs, et sur le marché des media (WATCH) avec la mesure d’audience (leader mondial) et les piges publicitaires. Cliquer ici pour un historique de la société

En France, Nielsen est le leader en matière de panel distributeur pour les produits de grande consommation (le second est IRI), challenger pour le panel consommateur (Kantar Worldpanel en tête) et présent dans la mesure d’audience digitale au travers de Médiamétrie (Médiamétrie Nielsen Net ratings) sans oublier le programmatique avec Nielsen Marketing Cloud

Si vous n’êtes pas familier du marché des études, vous n’avez peut-être pas remarqué quelques informations à son sujet.

  • Octobre 2018 : Nielsen passe en revue des « alternatives stratégiques » pour vendre la société dans son entièreté. Ce n’est pas la première fois, nous nous rappelons par exemple de 1984 (c’est vieux) où Dun & Bradstreet avait racheté la société. L’entreprise Nielsen aurait 8.3 milliards de dettes et n’aurait pas assez innové dans ces 2 domaines WATCH et BUY.
  • Du coté BUY, la mesure des ventes de produits se doit d’incorporer le e-commerce et notamment Amazon. Du coté WATCH, certains (aux USA) critiquent les faibles innovations dans la mesure de l’audience à l’heure où le marché télévisuel linéaire est bouleversé par les plateformes (Netflix, Hulu, Amazon…) et par le changement du comportement des individus (audience multi-écrans).
  • 19 décembre 2018 : CBS, l’un des 4 grands réseaux télévisuels aux USA, annonçait rompre son contrat avec Nielsen pour la fin de l’année (100 millions de dollar par an). Cet effet d’annonce était une arme de négociation car, jeudi 10 janvier 2019, un accord a été trouvé.

Des candidats au rachat ?

Les plus folles rumeurs vont bon train, avec par exemple, Sir Martin Sorell (S4, ex WPP) qui rachèterait à la fois Kantar et Nielsen (les 2 ennemis jurés !). Mais, l’on parle aussi d’Adobe, Salesforce, Oracle… D’autres auraient largement les moyens de racheter Nielsen, les GAFA, mais nous n’y croyons pas un instant : qu’iraient-ils faire dans cette galère ? L’année 2019 sera donc encore intéressante à suivre avec de quoi bouleverser profondément encore le monde des études qui a vu, en 2018, GFK se séparer d’un bon nombre d’activités ad hoc au profit d’IPSOS.

Mais, si Nielsen disparaissait (peu plausible selon nous), que se passerait-il sur le marché publicitaire américain ?

Un chaos ? OUI, car les « chiffres » Nielsen sont, comme Médiamétrie en France, la monnaie commune. A quel prix acheter tel ou tel « écran » publicitaire ? Si les chiffres disparaissent comment faire?

Mais, NON car la « nature » ayant horreur du vide, on verrait très vite la publication de chiffres de la part des réseaux audiovisuels basés sur des statistiques web, à ceci s’ajouteraient ceux des opérateurs téléphoniques (ATT, Verizon…) qui deviendraient encore plus incontournables. Et l’on pourrait même avoir une redéfinition de ce qu’est l’audience dite « linéaire » : présence dans la pièce où le poste est allumé ou vision effective (Eyes on), attentive, de tel ou tel programme (pour plus d’informations voir ici).

En tous les cas, ceci montre quoi ?

Le marché de l’entertainment et de la publicité a besoin de chiffres, de mesures, mais ceux-ci doivent être justes (ou le moins faux possible, la perfection n’étant pas de ce monde), dynamiques (adaptation permanente aux évolutions), et, à l’heure du digital, ne peuvent qu’être le résultat d’hybridation de sources diverses et variées, intégrées objectivement. C’est, finalement, le dernier point qui est le plus dur à atteindre.

Affaire à suivre.

BFM PARIS fait monter son audience a peu de frais… Hasard? ce serait étonnant!

Share This:

Nous sommes abonnés à NUMERICABLE/SFR et, depuis notre retour de vacances de Noël, nous avons pu constater que, lorsque l’on « allume » le décodeur, celui-ci active désormais, sur l’écran d’accueil, à chaque fois, BFM Paris HD en lieu et place de la dernière chaîne que l’on regardait lorsque l’on avait « éteint » le décodeur (cf image ci-dessous).

Pour mémoire, BFM Paris fait partie des chaines du groupe ALTICE/SFR et Paris est le point de force du réseau Numéricable en termes d’implantation.

INous ne pensons pas nous tromper, les règles de comptabilisation n’ont pas changé fondamentalement,  ces quelques instants d’activité du son et de l’image de BFM Paris sont identifiés, répertoriés dans les audimètres des panélistes du Mediamat de Mediametrie (la chaîne est marquée, taggée).

Ainsi, lors du traitement de l’audience chez Mediametrie, ces quelques instants sont pris en compte et permettent à la chaîne BFM Paris d’augmenter son nombre de téléspectateurs à peu de frais…

La chaîne revendiquait pour juin 2017, 226 000 téléspectateurs par jour et 2.2. Millions par mois.

Ce principe ne va pas amener des millions de téléspectateurs en plus, mais quand même. Nous entendons déjà les arguments qui pourront être avancés: la majorité des foyers n’éteignent pas leur décodeur (pas d’idée sur le sujet), ce ne sont que quelques « nouveaux  » téléspectateurs, … d’autres groupes l’ont déjà fait… Si ça ne change rien pourquoi cela a-t-il été fait? De beaux échanges hors et chez Mediametrie à venir!!

Ceci nous ramène des années en arrière quand les postes de télévision s’allumaient, d’office, sur le premier canal, la première chaîne.

Cette nouvelle année 2018 que nous vous souhaitons excellente et belle, démarre par un saut dans le passé !

ePrivacy: et si la mesure d’audience disparaissait?

Share This:

En avril 2016,  (après 4 ans de discussion) était adopté au niveau européen, le « règlement général sur la protection des données » (RGPD ou GDPR en anglais ). RGPD entrera en application en mai 2018, nous en avons déjà parlé ici.

En janvier 2017, une nouvelle procédure a démarré, intitulée ePrivacy, qui doit harmoniser les législations relative à la confidentialité des « communications électroniques ».

Le monde de la communication est contre ePrivacy, que ce soit les annonceurs, les régies publicitaires, les media y compris internet (sauf Google et Facebook) et, aussi, le monde des études.

Une telle unanimité contre soi, c’est une belle performance.

On trouvera ici une version du 8 septembre de ce texte avec toutes les modifications déjà faites.

Une coalition pour la mesure d’audience (ESOMAR et beaucoup d’autres) a été créée et a publié, le 21 septembre 2017, une déclaration demandant des modifications de l’article 8 le retrait d’un mot et l’ajout d’un autre, et ça change tout!

“If it is necessary for web audience measuring, provided that such measurement is carried out by, or on behalf of, the provider of the information society service requested by the end-user”,

Que se passerait-il si la mesure d’audience disparaissait du fait de la nouvelle loi toujours en discussion?

De facto, RIEN.

Le marché publicitaire n’aura plus besoin de monnaie commune (la raison d’être d’une mesure d’audience) car tout l’écosystème publicitaire digital (et autres) aura d’autres chats à fouetter et luttera pour sa survie (sauf les GAFA)…

Affaire à suivre.

Et si on changeait la mesure d’audience TV ? L’ATTENTION PUBLICITAIRE est mesurable, TVision le fait (aux USA)

Share This:

La bataille de l’attention est engagée, encore faut-il la mesurer!

Questions

Vous êtes un annonceur ou ses agences (media, création) ?

  • Quelle est la part de votre cible qui a porté attention à votre publicité ?
  • Quelles sont les émissions qui génèrent le plus d’attention ?
  • Mon spot a-t-il de meilleures performances d’attention que les concurrents ?
  • Comment se construit l’attention des individus au fur et à mesure des diffusions du spot ?

Vous êtes un directeur d’antenne ?

  • Comment se construit l’attention des individus au fur et à mesure des diffusions des diffusions des  bandes annonce programme ?

Obtenir les réponses à ces questions est une utopie ? Non une réalité, TVision fournit les réponses.

Comment?

La mesure de l’attention ?

Vous prenez le meilleur de ce qui est appelé la « computer vision science »

  • Skeleton tracking pour détecter une silhouette, donc une présence (comme le Kinect de Microsoft)
  • Face tracking pour connaître l’orientation de votre visage
  • Facial recognition pour savoir qui regarde
  • Eye tracking pour savoir ce que vous regardez

Ces mesures PASSIVES se font via une caméra spécifique TVision sur le(s) poste(s) TV dans des foyers.

La mesure de la diffusion ?

Ce qui est diffusé est détecté par le son du programme en fingerprinting (empreinte unique du programme) et comparé à une base de diffusion existante.

Auprès de qui ?

Aujourd’hui dans 8 grandes zones (Atlanta, Boston, Chicago, Dallas, Los Angeles, New York, Philadelphie, Seattle), 7 500 individus de foyers volontaires (11 500 en fin d’année 2017). TVision est aussi installé à Tokyo

Leur intimité est préservée car aucune image ou vidéo ne sort de chaque foyer, seulement des 1 et des 0 qui sont traités chez TVision.

Les indicateurs ?

La mesure d’audience de la Télévision en France aujourd’hui (et dans de nombreux pays) est « la présence dans la pièce où le poste est allumé ». On enregistre donc une Occasion De Voir (ODV), Occasion To See en anglais (OTS) et non une vision réelle.

Pourquoi alors ne pas compléter l’information à partir de la séquence suivante:

  • Durée du programme – Available Program Time
  • Durée du programme écoutable (le poste est allumé, le son est actif sur le programme) -Program Tune Time
  • Occasion de Voir (Individu présent et détecté pendant que le poste est allumé, le son du programme actif) – Person In View Time.
  • Regard sur le programme (via l’Eye tracking) – Eyes on screen time

On peut alors calculer :

  • Un indicateur de visibilité par programme (durée de présence de l’individu dans la pièce / TV allumée et son actif sur le programme)
  • Un indicateur d’attention (durée du regard sur le programme / durée de la TV allumée avec le son actif sur le programme))

Un cas?

 

Mc Donald’s au Japon en 2016 a constaté que la corrélation entre ses GRP TV et sa notoriété était de plus en plus faible (0.17). Après analyse des résultats d’attention de TVision et des GRP classiques, Mc Donald’s a fait modifier son media planning et a vu cette corrélation progresser très significativement.

Depuis Mc Donald’s

  • utilise l’indicateur d’attention comme KPI (indicateur de performance)
  • utilise l’indicateur d’attention comme indicateur de media planning pour maximiser la notoriété
  • demande à son agence media de comparer ses performances d’attention par rapport à ses concurrents

Des clients ?

  • ESPN, The weather Channel, Turner pour les diffuseurs
  • Procter, McDonald’s, Mars, Dunkin Donuts… pour des annonceurs

Quel que soit le coté (Diffuseur ou annonceur), ces indicateurs ne remplacent pas la mesure officielle (Nielsen) aux USA qui fait consensus depuis des années, mais ils les enrichissent dans le sens d’une plus grande efficacité grace à une meilleure compréhension des phénomènes via plus de qualitatif.

Conclusion

Il est intéressant de voir qu’avec la notion de visibilité, la mesure TV se rapprocherait du Web (nous reviendrons sur ce sujet).

Soyons pragmatique, le propos n’est pas de souhaiter le remplacement de la mesure d’audience de la TV (désolée pour le titre de cet article !) pour basculer vers un système de ce type.

Mais, pourquoi ne pas traiter le problème de façon « qualitative » sur un petit échantillon, voire une zone test, de façon à fournir les moyens,

  • aux diffuseurs, de faire un marketing antenne plus pertinent
  • aux annonceurs, d’être plus efficaces dans leur communication (création et media) donc plus rentables
  • aux agences media, de faire valoir leur expertise

Alors, les sociétés d’études qui s’y met ? Mediametrie ? Kantar ? Ipsos ? GfK ? Marketing Scan ? Iligo ? …

Nous connaissons la réponse de nombre d’entre elles  : « Qui finance ? »  Et? c’est comme cela que la France est devenue un petit pays dans le domaine des études (notre avis). Beaucoup de choses se passent aux USA, en Grande Bretagne, voire en Australie (pour ceux qui n’ont pas encore lu le billet sur la mesure d’attention en Australie, cliquez ici), là où il y a encore un peu d’argent pour avoir des vraies réponses à de vraies questions et faire gagner beaucoup d’argent aux annonceurs.

Merci à TVision pour les informations et les images fournies.

Pour ceux qui s’intéressent à l’attention,  voir ici  et ici.

La mesure de l’accumulation en presse: IN or OUT?

Share This:

Nous avons eu l’occasion, et le plaisir, d’accompagner la société GFK, dans sa réponse à l’appel d’offres de mesure d’audience de la presse organisée par l’ACPM (proposition écrite faite, présentation orale faite, on attend maintenant les résultats pour mi-juin).

Cette compétition a été, pour nous, l’occasion de nous reposer des questions sur les fondements du media planning, des modèles avec lesquels les acheteurs des différents media travaillent et comment les arbitrages entre les media sont effectués.

Un plan media?

Bâtir un plan media, c’est répondre à une question simple: comment toucher le plus d’individus de la cible de l’annonceur, et faire en sorte que le message envoyé rentre dans la part de cerveau disponible!

Pour toucher le plus grand nombre d’individus d’une cible, on fait appel, actuellement, en media classiques, aux différentes études d’audience existantes et/ou aux études media-marché (étude où l’on dispose d’informations, à  la fois, sur un comportement media et un comportement d’achat, de consommation, …). On sélectionne alors des supports media et leurs unités publicitaires (une chaîne de TV et un écran, une radio et un spot, un titre de presse et un type de page) que la cible fréquente, a priori. On achète de l’espace publicitaire, c’est du media planning.

Si l’achat sur Internet, dans une version ancienne, fonctionnait de la même façon, il a évolué vers l’audience planning, avec la technologie et, en particulier, le programmatique. On achète des « impressions » publicitaires quand l’individu, qui est supposé correspondre à la cible, se trouve sur une page avec publicité.  On n’achète plus l’espace en soi, mais l’audience (d’où Audience Planning), voire même l’individu dans certains cas (people based marketing).

Quel que soit le media, on est toujours dans des pré-supposés, car on n’est jamais certain à 100% que tout ceux que l’on cherche soient bien là et soient bien ceux que l’on veut toucher.

La nouvelle politique de transparence de Twitter (ce serait pareil sur n’importe quel autre support web) a été l’occasion de nous rendre compte que nous étions « male » (sur les 2 comptes tracksandfacts ou ileroy), et soit avec une fourchette d’âge large pour le professionnel ou précis pour le personnel (cf ci-dessous). Par contre, bien sûr, les intérêts détectés par Twitter sont justes quand les intérêts venant des données tierces (les third parties data) sont un brin n’importe quoi.

Pour revenir au sujet, du media planning, le travail de recherche de la cible et les chaines, stations, titres mis en face permettent d’obtenir, en simplifiant, une couverture, un % ou nombre d’individus potentiellement touchés, au moins une fois, par la publicité de tel ou tel annonceur.

Mais, au fait, comment la répétition est mesurée?

Sur le media Internet, la réaction est immédiate, « je sais qu’une personne (ou cookie) voit ma publicité, je suis capable, techniquement, de limiter le nombre d’apparitions de la même publicité sur cet individu et de les lui délivrer quand c’est demandé »  (le capping). Certes, mais comme souvent le cookie est différent d’un appareil à un autre, on se retrouve alors, en tant qu’individu, exposé x fois à la même publicité, ce qui concoure au phénomène de saturation, de rejet de la publicité, que l’on peut observer avec la montée des bloqueurs de publicité  sur ce media.

En TV et en Radio, Médiamétrie vend un fichier, où l’on dispose du comportement de panélistes sur plusieurs semaines, de façon à calculer, à probabiliser, le fait d’être présent sur tel support à tel moment donc de voir tel ou tel écran publicitaire (schématique) et QUAND le téléspectateur peut revoir la publicité de l’annonceur.

En Presse, … RIEN.

L’étude de référence mesure le fait que l’on ait lu, parcouru ou consulté tel titre de presse, combien de fois on le reprend en main, mais pas QUAND on le reprend en main.

Les logiciels de media planning presse en France reposent sur des principes théoriques datant des années 60 sans quelque changement que ce soit.  Donc, quand un annonceur fait acheter une publicité dans le numero X du titre Y, par son agence media, il ne sait pas que sa publicité a encore une nouvelle chance d’être vue la semaine suivante de la date de parution ou encore la suivante pour un hebdomadaire, ou le mois suivant pour un mensuel… Ce n’est de toute façon pas comptabilisé et en plus les « moteurs de media planning » existants ne tiennent pas compte de la notion de reprises en main.

Les courbes ci-dessous, issues de l’étude d’accumulation aux USA faite par GFK MRI, montrent pourtant bien que la lecture d’un titre (hebdomadaire ou mensuel) s’étale dans le temps. Les LECTURES et LECTEURS, ce n’est pas la même chose et ça change tout. Un lecteur peut avoir plusieurs lectures du même numéro, étalées dans le temps. Et les lectures, se sont bien les contacts que l’on a avec la publicité.

GFK MRI

GFK MRI

Qu’est ce que cela changerait d’avoir une mesure de la temporalité, de l’accumulation, en Presse?

Certains diront:

« ça ne changera rien, ça coûtera de l’argent c’est tout,

et ça ne nous fera pas vendre plus de publicité ».

C’est vrai que la situation financière de la presse est difficile, que les annonceurs (leurs agences?) délaissent ce media au profit d’autres qui paraissent plus modernes, mieux mesurables (l’illusion de la technique), plus adaptés aux individus d’aujourd’hui…

Mais alors, en allant plus loin, finalement, pourquoi avoir une mesure d’audience si, de toute façon, rien ne pourra faire changer la situation? Le mur est là et la presse papier y arrive à grand pas.

Les mêmes diront:

« Ah non, mais on a besoin d’audience pour se vendre! » 

Mais de quelle audience parle-t-on? de lecteurs? de lectures? de l’actuelle ou de celle qui est oubliée? de celle que vous vendez ou de celle que vous donnez?

Ils continueront

« Ça va encore prendre des années avant d’avoir des modèles d’évaluation (couverture et répétition) qui tiennent la route sans casser le GRP »

Non, la théorie existe déjà, des travaux avaient été faits, en 2004, quand la régie Emap, à l’époque, avait déjà prôné le media planning temporel. En 2002, à l’IREP, Gaël Crochet, alors chez JFC , présentait le XGRP ou x représente la pluri fréquentation.

D’ailleurs, Francois Lienart avec Jean-Francois Canguilhem sont sur ces fondements dans leur très intéressant moteur d’évaluation pluri-media, MOLECULE.

« de toute façon, le marché se fiche de la façon dont on est mesuré,

et il n’y a plus d’expertise dans les agences, ni chez les annonceurs »

Les débats sur les différents problèmes de mesure de Facebook et Google ont remis sur la scène, les notions essentielles de mesure.

Quant à l’expertise dans les agences, un certain nombre d’entre elles, se rendent compte que sans expertise, leur existence même peut être remise en cause par les annonceurs (à quoi servent-elles?). La productivité à tout crin, que d’aucuns ont initié, les conduits à leur perte (il est plus que temps de changer les modes de rémunération, cf ici).

Pour les annonceurs,  ils doivent eux aussi revoir leurs façons d’évaluer leurs agences, car ils n’ont plus le service, l’expertise qu’il devraient avoir. On est dans les limites des mauvaises Directions des Achats.

Les annonceurs ont besoin de solutions justes, pertinentes, efficaces pour mettre en valeur leurs produits, leurs marques, à vous la Presse de le montrer, d’innover.

D’autres, qui sont convaincus que la presse (papier) peut toujours être attractive pour un annonceur, avanceront alors les arguments suivants:

« nous bougeons, ensemble, avec notre opération de communication, de formation, de sensibilisation 

« DEMAIN LA PRESSE ».

Allons jusqu’au bout,

en changeant la façon dont la presse est achetée,

passons à un media planning temporel »

« Valorisons mieux ces lectures et lecteurs,

proposons de nouveaux produits publicitaires, soyons imaginatifs »

« combattons, à armes égales, avec les autres media

dans tous les modèles de mix ou d’optimisation plurimedia digital inclus »

En conclusion

Une mesure de temporalité, d’accumulation pour le media presse permettra

  • aux agences media, de faire preuve d’expertise et d’intelligence tant sur le media presse que sur le mix media
  • aux supports, de changer les produits publicitaires, de mettre en avant leur qualité, leur effet immédiat et leur effet dans le temps pour la bonne construction de l’image ou du ROI des marques.
  • aux annonceurs, de voir que le temps est porteur de valeur pour leurs marques.

LA MESURE DE L’ACCUMULATION EN PRESSE C’EST IN!

Et si vous pensez encore que la presse papier ne doit pas changer dans ses mesures ou sa façon d’être achetée, nous vous engageons à lire l’article  Programmatic for Print Buying – Developing Innovative Solutions to Connect Advertisers to Print fait par 2 stars de la mesure de la presse, Mickey Galin et Julian Baim  avec Time inc.

(Nous ne pouvons pas nous en empêcher, la mesure d’accumulation proposée par GFK est maligne, utile et économique. C’est d’autant plus facile pour nous de le dire, car nous n’y sommes pour rien dans sa conception!)

Les annonceurs doivent faire du vCPM le standard du marché !

Share This:

Ci dessous notre Tribune publié dans Mind (03/01/2017)

Et si on changeait de standard ? L’être humain a besoin d’unités de mesure communes pour avoir des repères, comprendre et objectiver les choses, échanger, bref, se simplifier la vie. A ces unités de mesure communes sont souvent associés des prix pour que l’on apprécie la valeur de tel ou tel objet ou de telle ou telle proposition : le prix au kilo, par exemple.

Le CPM n’est plus un langage pertinent 

Le marché publicitaire ne fait pas exception. Les trois parties concernées par l’achat d’espace publicitaire – annonceurs, agences médias, supports médias – ont adopté un langage et des références communes avec, par exemple, le coût au GRP, ou encore le coût pour mille contacts. Internet n’a pas échappé à cette règle et le CPM, le coût pour mille affichages (des impressions publicitaires) y règne en maître quasi-absolu, même s’il en existe quelques autres (coût par clic, coût par lead…).

La technologie évolue tellement vite que l’on voit se dégrader la qualité média avec, entre autres, la fraude et l’encombrement publicitaire. La profession s’en est saisie et les initiatives surgissent, que ce soit en Europe ou aux Etats-Unis : citons le label qualité à venir du SRI et de l’Udecam en France, et la TAG (Trustworthy Accountability Group) aux Etats-Unis,

Personne n’ose le dire clairement…. ou pas très fort. Pourtant, le CPM ne remplit plus aujourd’hui sa mission de standard et de langage commun entre les acteurs de la publicité en ligne. A quoi sert un coût pour mille très bas quand la publicité n’est pas vue (présentée, plus précisément) par un humain ? Pourquoi appliquer ce seul étalon sur l’ensemble des pages d’un site, alors que le comportement internaute n’est pas le même en haut de page, au milieu, et en bas ? Même à un prix faible, c’est trop cher !

Le VCPM doit devenir aujourd’hui le standard, le mètre étalon. Certes, il n’est pas parfait lui non plus. Les critères de visibilité fixés par le Media rating council (MRC) aux USA sont sûrement trop bas, mais il a le mérite d’exister, tel qu’il est, et il garantit aux annonceurs, aux agences médias et aux éditeurs, un niveau minimum de qualité qui n’existe pas sans lui.

Comment changer de standard ? La réponse est relativement simple : il suffit de le décider ! Les seuls décideurs en la matière sont les annonceurs puisque leurs investissements alimentent et « font » le marché publicitaire. Ils doivent accepter et faire accepter des offres faites seulement en VCPM.

Les directions générales des annonceurs doivent agir

Ce n’est surement pas facile du coté des annonceurs quand le coordinateur média court après le temps car son équipe est plus que réduite, que son poste, comme les investissements publicitaires, est souvent remis en cause, que sa direction des achats ne veut comprendre que les coûts bas, que… il y a tous un tas de justifications et de prétextes, bons et moins bons.

Les directions générales des annonceurs doivent se saisir, positivement, du sujet pour éviter que ces coûts bas de la publicité en ligne soient des coups bas pour les marques.

Ce n’est pas impossible si l’on en croit l’intervention de Nadia Leroy, la directrice média, digital et consommateur de L’Oréal France, qui s’est exprimée lors du colloque de l’IAB France le 22 novembre. Elle a mis en avant, les cinq clés du travail effectué par L’Oréal pour la qualité média digitale :

  • La mobilisation de tous, y compris du PDG, Jean-Paul Agon
  • La bonne compréhension des enjeux et des mécanismes, pour arriver à 100 % de campagnes auditées
  • La machine ne suffit pas, il faut de l’humain
  • Le réinvestissement des 20 % de budget économisé – et qui serait parti dans les limbes d’internet – en vraie publicité, pour des vrais gens.
  • La création de guidelines
  • La sixième et dernière étape sera, si les annonceurs le décident, que le VCPM devienne le standard dans leur achat média digital.

 

En agence média, on comprendra alors que le VCPM est un standard et non pas un objectif (KPI). Les éditeurs de logiciel ne proposeront plus qu’une case à cocher, le VCPM, et non pas deux comme aujourd’hui. Les éditeurs établiront des offres en VCPM qui seront mieux construites et dont le prix sera forcement plus élevé que celle du CPM aujourd’hui, car la qualité, il faut le rappeler, cela a un prix. L’internaute lui-même sera plus satisfait et résistera, un peu plus, à la tentation de l’adblocker, car ses pages consultées ne seront plus un « sapin de « noël ».

Finalement, la loi du VCPM, c’est facile à faire et à être mis en place. Et le retour, pour les annonceurs, est immédiat.

Mesdames et messieurs les annonceurs, si votre argent vous intéresse, passez vite au vCPM!

http://www.mindnews.fr/articles/les-annonceurs-doivent-faire-du-vcpm-le-standard-du-marche.8480.html

Si vous voulez lire la même chose sur un ton plus humoristique « Allo le standard? « Bonjour! CPM, à votre service »

« Older posts