Étiquette : ipsos

Du génome au screenome pour détailler (vraiment!) le temps passé sur écran: la fin d’une mesure globale?

Share This:

Vous connaissiez le génome: l’ensemble du matériel  génétique d’une espèce codé dans son ADN nous dit Wikipedia. Le screenome c’est l’enregistrement de tout ce que nous faisons sur des écrans.

Un article dans Nature « Time for the Human Screenome Project » de chercheurs de Standford nous dit, en sous titre, qu’

« il faut vraiment comprendre comment les individus utilisent les médias digitaux.

Les études doivent aller plus loin que la mesure de la durée et capturer tout ce que nous faisons sur nos écrans »

Il y a là de quoi attirer notre œil et pousser plus avant la lecture de ce papier.
En fait, les chercheurs installent un logiciel sur nos appareils qui prend, toutes les 5 secondes, une empreinte de ce qui passe à l’écran lorsque celui-ci est allumé. On parle d’écran digital au premier rang duquel le mobile. L’empreinte est cryptée et transmise aux chercheurs.
Cela ressemble furieusement à ce qui existe depuis de nombreuses années dans différents instituts (Mediamétrie, IPSOS, Iligo et d’autres) pour comptabiliser, entre autres, l’audience (en France, les radios ne veulent toujours pas d’un système automatique de mesure par crainte, fondée, de voir considérablement baisser leurs audiences).

Une grosse différence, il ne s’agit pas, a priori, d’une empreinte posée dans le son ou l’image, mais de la capture de l’image elle même.

Le résultat est assez bluffant comme vous pouvez le voir dans la vidéo ci-dessous montrant (en accéléré 35 secondes) 15 minutes d’actions sur mobile capturées sur 2 heures.
Le but annoncé est de mieux comprendre notre vie digitale pour voir s’il y a des addictions, si les enfants sont influencés d’une façon ou d’une autre et…les adultes aussi.
Les chercheurs signalent que le déclaratif n’est pas fiable (nous le savons mais entre rien et rien…) et qu’il est de plus en plus difficile d’obtenir, même à des fins de recherche, des données de la part des GAFAM (trop de scandales!) donc le screenome serait le moyen d’être libre pour continuer à chercher et à nous comprendre (indépendance).
Les chercheurs sont à la tête de 30 millions de captures d’écran prises auprès de 600 individus dans ce qui est appelé « Le Stanford Human Screenome Project« . Ce projet serait à la fois une plateforme technologique, un process d’analyse et un stockage de données.
En première analyse, ils nous montrent comment des comportements peuvent être différents entre 2 adolescents de 14 ans vivant en Californie du Nord qui se déclarent comme de gros utilisateurs de smartphone (plus de 2h par jour, tous les jours avec comme première et dernière activité de leur journée le fait de regarder son smartphone).
Le participant A (image de gauche) passe en fait 3.67 heures/jour sur son appareil en 186 sessions d’1.19 minute en moyenne. Il crée un contenu pendant 2.6% de son temps de connexion, à destination des applications sociales et, sur les 3 semaines de tracking, a utilisé 26 applications dont 53% étaient des applications sociales (Instagram et Snapchat principalement). Cette personne est supposée avec quelques problèmes d’attention ou alors d’être un as du maniement du téléphone.
Le participant B (image de droite) passe lui 4.68 heures/jour sur son mobile en 26 sessions d’une durée de 2.54 minutes. 7% de son temps est consacré à produire du contenu. Il utilise 30 applications mais une est majoritaire YouTube. Une spécificité il aime la nourriture avec 37q% de contenu Food divers et variés sur une journée
Le nom est bon, les vidéos ou les images sont convaincantes, les premières analyses intéressantes, du beau travail à l’américaine, mais, dans l’article, il manque une chose essentielle, comment fait-on pour coder toute cette information? De nos jours, on ne code plus à la main (on ne parlera pas de la labellisation des images pour l’IA) mais comment faire pour caractériser, découper, classer cette foultitude d’information?
Si quelqu’un pouvait nous le dire nous serions contents!

VIVE L’INTELLIGENCE ET LA SCIENCE – Conférence IPSOS (compte rendu partial et partiel)

Share This:

Quand on consulte l’excellent site myenventnetwork.com, le constat est simple : tous les jours des événements, des conférences, des ateliers (parfois plusieurs dans la même journée) gratuits pour la majorité d’entre eux, mettent en avant un aspect du métier de la communication, du digital et des media.

C’est trop mais c’est ainsi (cf notre coup de gueule il y a 2 ans et ça n’a pas changé).

Nous sortons, de plus en plus souvent avant la fin (ce qui n’est pas poli), énervés après avoir entendu des choses déjà dites, redites, rabâchées sans aucune aspérité sans point de vue affirmé. C’est pour cela que nous n’avions rien publié sur ce blog depuis des mois. Overdose de banalités !

Aussi, quand une société vous propose de faire bouger vos neurones en vous apportant de l’intelligence scientifique, vous ne pouvez dire qu’une seule chose MERCI IPSOS !

L’idée de ces conférences à la maison de la chimie, le 26 septembre 2019 au soir, était de se réinterroger sur tous les modèles théoriques qui sous-tendent tout ce que nous faisons, faut-il les renouveler ? comment les renouveler ?

Que se passe-t-il dans notre cerveau, comment raisonne-t-on ? (Olivier Houdé, Professeur émérite Paris Descartes, laboratoire LaPsyDÉ).

Les adeptes de l’homo-economicus ont toujours mis en avant la capacité de réflexion logique de l’humain, son système algorithmique qui permet d’élaborer une pensée réfléchie, dont la fiabilité est grande mais qui nécessite du temps, des efforts pour aboutir. Son défaut ? Monopoliser notre attention (amusez-vous au jeu dans cette video).  C’est le système dit 2, incarné dans les travaux de Jean Piaget. Exemples simples : lire un mot que l’on ne connait pas, changer de direction pendant un trajet habituel, calculer 19 x 46…

Daniel Kahneman (prix Nobel d’économie 2012) a démontré que le système 2 n’était pas le seul dans notre cerveau, mais qu’il en existait un autre : le système 1. C’est un système dit heuristique dont la caractéristique est d’être une pensée automatique, intuitive, avec une fiabilité correcte mais non totale et surtout une très grande rapidité. Le cerveau humain cherchant toujours à économiser sa consommation d’énergie, le système 1 est celui que nous activons le plus souvent dans nos taches quotidiennes. Des exemples ? La lecture, la conduite automobile sur un trajet habituel, des calculs simples (1+1, 2+3 …). L’apprentissage est la base de construction du système 1.

Au passage, ne pensez-pas, comme l’imaginait Piaget, qu’en passant de l’enfant à l’adulte le 1 laisse la place au 2 ! Non, suivant les sujets, les moments, l’adulte est à fond dans le système 1, aucune corrélation avec l’âge ! (Comme quoi la sagesse n’est pas l’apanage des vieux 😊)

Alors nous nous arrêtons là, avec 2 systèmes ?

Non ! Il en existe un troisième, issu des travaux d’Olivier Houdé. Ce système 3 est dit système d’inhibition qui a fonction d’arbitre, et qui nous pousse à interrompre notre processus de décision rapide (système 1) pour basculer sur la réflexion algorithmique (système 2). Le système 3 permet d’éviter les conflits entre les 2 premiers, les conflits cognitifs. Les adeptes des neurosciences le localiseront dans le cortex pré-frontal, là où se situe nos émotions et sentiments.

L’idée est alors de « cultiver » notre système 3 pour apprendre à débrancher le système 1 au profit du 2, il faut résister à notre intuition !

A quoi cela sert-il ?

Un exemple concret proposé par Brice Teinturier : les stéréotypes racistes et antisémites existent depuis longtemps (les juifs et l’argent, les juifs et le pouvoir, le lobby juif mondial…) et sont suivis par IPSOS (B Teinturier a projeté des verbatim issus des réseaux sociaux, à vomir…). La question est, pour un gouvernement par exemple, de trouver des moyens de combattre ces stéréotypes. Affirmer que ce n’est pas vrai ne sert à rien, on se heurte au mur du système 1. Comment pousser le système 3 à débrancher le 1 pour activer le 2, donc à dépasser le stéréotype pour aller à la réflexion. IPSOS a introduit dans ces questionnaires d’opinions, des mesures de nouvelles émotions relatives au doute, au regret et à la curiosité qui permettent aux pouvoirs publics de penser leurs démarchent autrement. Ces mesures sont applicables aussi au marketing.

 

Deuxième sujet : La modélisation de la mobilité (Olivier Bonin, Professeur, Géographe, chercheur à l’IFSTTAR au Laboratoire Ville Mobilité Transport)

Le sujet parait plus simple que l’exploration de notre cerveau et pourtant ! Comment reconstituer des flux de mobilité pour mesurer des individus qui bougent en permanence dans tous les coins. Les vieilles méthodes consistaient à reconstituer des flux en comptant des passages à des points fixes et en interrogeant des individus dans le cadre d’enquêtes. En demandant un point de départ, un point d’arrivée, un mode de déplacement et des choix d’itinéraires, il était possible de modéliser les flux. Les modèles permettaient alors d’interpoler dans le temps et l’espace, des données très partielles, lacunaires. Ceci avec plus ou moins de succès car on se limitait souvent à des heures de pointe (le matin), un jour de semaine, sans tenir compte des variabilités des activités et en étant focalisé plus sur les flux que sur les comportements des individus.

Aujourd’hui, des données sont disponibles en masse : la billétique, le GPS, les smartphones, des boîtiers dédiés… Ces données sont, de plus, relatives à un individu. Et même si elles sont moins riches sémantiquement que des enquêtes, elles apportent une densité temporelle et spatiale incomparables.

Vous y appliquez des modèles différents (on passe des modèles gravitaires aux modèles multi-agents), calculés au niveau de l’individu (qu’il soit réel ou synthétisé) et vous disposez de multiples programmes d’activité répartis entre les jours, les chaînages, les différents membres d’une famille, bref, de tout ce qui est nécessaire pour l’optimisation des trajets, des infrastructures, des horaires, … mais aussi pour la mesure d’audience de l’affichage (Outdoor, en usage maintenant…)

C’est le cas applicatif montré par (le brillant) Jean Noël Zeh (IPSOS) puisque l’entreprise a gagné l’appel d’offres de Mobimétrie (ex Affimétrie). Dans cette mesure sont intégrés les déplacements de 10 000 personnes (elles ont porté pendant 9 jours, un « meter », un boitier spécifique, précis sur la localisation GPS), des mesures déclaratives de déclarations de déplacements (smartphones), les points d’intérêts géographiques (magasin, services publics, réseaux de transports, …), toute l’open data INSEE, et des données payantes de telco ou d’autres acteurs.

Jean Noël Zeh a aussi montré 2 cas de « research for good », comme la mesure des flux dans un camp de réfugiés Rohingya au Bangladesh pour permettre d’établir des points d’eau ou des centres de soins.

Troisième intervention : le consommateur expliqué par ses neurones (Vinod Venkatraman , Professeur, Temple University).

Nous sommes repartis dans le cerveau humain ou plus exactement dans les méthodes de mesure d’effets qui existent, aujourd’hui, avec la technologie (Eye tracking, facial tracking, activité cérébrale, sudation…). Mais la chose intéressante est de les avoir relier à un impact marketing sur les ventes.

Aux méthodes nouvelles, Vinod Venkatraman a testé aussi les méthodes plus classiques d’interrogation (groupes ou questionnaires). C’est l’objet d’un article primé en 2015 à l’ARF aux USA (sur de petits échantillons…). La conclusion est bonne pour une société d’études. Que ce soient des mesures d’eye tracking, biométriques, EEG ou questionnement, chacune apporte un voire plusieurs éléments de réponse différents à l’élasticité publicitaire sur les ventes. Autrement dit, c’est en utilisant toutes les méthodes que l’on a une vision complète et pertinente. Pour avoir, nous-même, hybridées plusieurs méthodes, nous ne pouvons qu’être en accord avec cette conclusion !

En application, Katell le Coueffic a présenté le « creative lab » qui permet, en une journée, de mettre en oeuvre la plupart des méthodes indiquées et d’avoir des pistes d’optimisation sur du matériel publicitaire non finalisé. Nous supposons que ceci sera plutôt l’apanage des grands sociétés clientes.

En conclusion, une des phrases prononcées en introduction par Helen Zeitoun :

« science et études, le ticket gagnant pour ne pas dire n’importe quoi »

(combien d’entre nous devraient s’en inspirer !).

Et si Nielsen disparaissait ?

Share This:

Nielsen ?

Le leader mondial des études avec un CA 2017 de 6,572 milliards de dollars (source ESOMAR), 1.8 plus gros que le second IQVIA (anciennement IMS Health), 2.4 X Kantar, et 3.7 X IPSOS.

Une société présente à la fois sur le marché de la mesure des performances marketing (BUY) tant du côté des distributeurs (inventeur et leader mondial des panels distributeurs) que des achats consommateurs, et sur le marché des media (WATCH) avec la mesure d’audience (leader mondial) et les piges publicitaires. Cliquer ici pour un historique de la société

En France, Nielsen est le leader en matière de panel distributeur pour les produits de grande consommation (le second est IRI), challenger pour le panel consommateur (Kantar Worldpanel en tête) et présent dans la mesure d’audience digitale au travers de Médiamétrie (Médiamétrie Nielsen Net ratings) sans oublier le programmatique avec Nielsen Marketing Cloud

Si vous n’êtes pas familier du marché des études, vous n’avez peut-être pas remarqué quelques informations à son sujet.

  • Octobre 2018 : Nielsen passe en revue des « alternatives stratégiques » pour vendre la société dans son entièreté. Ce n’est pas la première fois, nous nous rappelons par exemple de 1984 (c’est vieux) où Dun & Bradstreet avait racheté la société. L’entreprise Nielsen aurait 8.3 milliards de dettes et n’aurait pas assez innové dans ces 2 domaines WATCH et BUY.
  • Du coté BUY, la mesure des ventes de produits se doit d’incorporer le e-commerce et notamment Amazon. Du coté WATCH, certains (aux USA) critiquent les faibles innovations dans la mesure de l’audience à l’heure où le marché télévisuel linéaire est bouleversé par les plateformes (Netflix, Hulu, Amazon…) et par le changement du comportement des individus (audience multi-écrans).
  • 19 décembre 2018 : CBS, l’un des 4 grands réseaux télévisuels aux USA, annonçait rompre son contrat avec Nielsen pour la fin de l’année (100 millions de dollar par an). Cet effet d’annonce était une arme de négociation car, jeudi 10 janvier 2019, un accord a été trouvé.

Des candidats au rachat ?

Les plus folles rumeurs vont bon train, avec par exemple, Sir Martin Sorell (S4, ex WPP) qui rachèterait à la fois Kantar et Nielsen (les 2 ennemis jurés !). Mais, l’on parle aussi d’Adobe, Salesforce, Oracle… D’autres auraient largement les moyens de racheter Nielsen, les GAFA, mais nous n’y croyons pas un instant : qu’iraient-ils faire dans cette galère ? L’année 2019 sera donc encore intéressante à suivre avec de quoi bouleverser profondément encore le monde des études qui a vu, en 2018, GFK se séparer d’un bon nombre d’activités ad hoc au profit d’IPSOS.

Mais, si Nielsen disparaissait (peu plausible selon nous), que se passerait-il sur le marché publicitaire américain ?

Un chaos ? OUI, car les « chiffres » Nielsen sont, comme Médiamétrie en France, la monnaie commune. A quel prix acheter tel ou tel « écran » publicitaire ? Si les chiffres disparaissent comment faire?

Mais, NON car la « nature » ayant horreur du vide, on verrait très vite la publication de chiffres de la part des réseaux audiovisuels basés sur des statistiques web, à ceci s’ajouteraient ceux des opérateurs téléphoniques (ATT, Verizon…) qui deviendraient encore plus incontournables. Et l’on pourrait même avoir une redéfinition de ce qu’est l’audience dite « linéaire » : présence dans la pièce où le poste est allumé ou vision effective (Eyes on), attentive, de tel ou tel programme (pour plus d’informations voir ici).

En tous les cas, ceci montre quoi ?

Le marché de l’entertainment et de la publicité a besoin de chiffres, de mesures, mais ceux-ci doivent être justes (ou le moins faux possible, la perfection n’étant pas de ce monde), dynamiques (adaptation permanente aux évolutions), et, à l’heure du digital, ne peuvent qu’être le résultat d’hybridation de sources diverses et variées, intégrées objectivement. C’est, finalement, le dernier point qui est le plus dur à atteindre.

Affaire à suivre.

Publicité et études, même combat : tout le monde est perdu ! IIEX Amsterdam (compte rendu partial et partiel)

Share This:

700 personnes rassemblées à une conférence dédiée aux études ? Mais oui, ça existe encore et cela a eu lieu 19 et 20 février 2018 à Amsterdam, dans le cadre de IIEX Europe (tous les budgets conférences et voyages ne sont pas encore coupés partout!).

Vous connaissez ces conférences IIEX (Insight Innovation Exchange) ? Non ? Ne soyez pas surpris, vous êtes français et nous n’en avons compté seulement qu’une petite dizaine (et c’est bien dommage). Mais des anglo-saxons en force !

Les but d’IIEX ?

  • Amener de nouvelles idées pour changer le monde des « insights »
  • Fournir des sessions de formations pratiques pour développer de nouvelles capacités
  • Connecter les professionnels des études, des agences, des annonceurs entre eux (et il y avait des annonceurs !)

Nous avons souvent l’occasion d’assister à des conférences sur la communication (et nous nous en faisons l’écho) et cela faisait longtemps que nous n’avions pas assisté à une conférence sur les études (research en anglais). IIEX nous avait offert, très gentiment, l’inscription pour ces 2 jours.

Pour les premières (la communication), en filigrane, nous entendons souvent « comment exister face au GAFA » avec un bouillonnement d’initiatives (fondées ou non), de produits (utiles ou non), de débats (jamais assez à notre goût), pour la seconde, la question est « comment exister (tout court) ? » « Vers quoi faut-il aller ?»

Cette industrie, les études, et c’en est une (44.5 milliards de $, ESOMAR 2017), s’interroge sur son existence même quand elle voit ses clients (les annonceurs, les agences) se passer d’elle, faire autrement, différemment grâce au numérique.

Alors quoi de neuf ? Nous pourrions en écrire des tonnes sur toutes les sociétés présentes axées majoritairement sur les neurosciences, du social, de l’intelligence artificielle (rien vu sur le big data ou peu de choses sur l’hybridation mais c’était peut-être dans des conférences précédentes). Mais nous préférons, nous axer sur d’autres points de vue.

  1. L’avenir des études ? « Pourquoi suis-je optimiste ? ». Didier Truchot (IPSOS)

Un grand français (mais oui, chapeau), Didier Truchot (en octobre, ses 50 ans dans les études ! IFOP+IPSOS) a introduit la conférence en prononçant une phrase reprise par tous pendant les 2 jours :

« Cette industrie a plus changé pendant les 5 dernières années

que durant les 30 précédentes »

 (C’est vrai pour les études ad hoc mais pas pour les panels qui ont déjà fait leur révolution).

Une autre phrase intéressante

« cette industrie doit être basée sur la connaissance, la science, l’efficacité et plus important, être plus proche de ses clients, mieux les écouter pour que l’utilité de ce que l’on produit soit augmentée et que l’on puisse lutter contre les grandes sociétés de consultants ».

Où l’on retrouve encore les sociétés de conseil (études+pub= même combat !)…

Cette phrase souligne, à notre avis, 2 choses.

  • Le coté scientifique été quelque peu délaissé (D Truchot l’a souligné aussi) par les sociétés d’études. IPSOS a l’air de vouloir s’y remettre avec les récentes embauches de 2 directeurs scientifiques (très très bien tous les 2), Jean Noel Zeh (ex CSA) et Benoit Hubert (ex GFK).
  • La proximité client qui renvoie aussi à la disparition ou la perte d’importance des directions études chez les annonceurs.
  1. Les études chez l’annonceur : « Comment être prêt pour demain dès aujourd’hui » Stan Sthanunathan, Executive Vice President, Consumer & Market Insight, UNILEVER

 

Les sociétés d’études sont, encore aujourd’hui, plus calées ou occupées sur le triangle de gauche (en noir et blanc) à passer plus de temps sur la collecte de données que sur les insights alors qu’elles devraient être dans la posture inverse pour essayer d’atteindre le graal, selon lui, donner des pistes d’action et de mesure d’impact de ces actions. Elles s’arrêtent à l’étape « insights » sans s’engager.

Le futur de l’industrie est alors

« l’intelligence augmentée » = « efficience augmentée » + « efficacité augmentée »,

où comment faire avec ½ moins de budget, ½ moins de temps pour une action x2 ?

Concrètement chez Unilever ?

  • Utilisation de la plateforme Machine Vantage (Intelligence Artificielle et Machine learning) pour mettre en relation des données de panel distributeurs (vente & co) des marques et marchés suivis par Unilever, des données social, des données d’autres études. Exemple de bénéfices : lancement d’un nouveau produit pour Lipton en 7 mois entre la détection d’un besoin, l’établissement du concept jusqu’à la mise en marché
  • Laisser l’utilisateur interne Unilever trouver les réponses à ses questions via « answer rocket » (Q&A) ou via l’acces aux études en tant que telle (people answer) ou voir ou avoir des réactions consommateur en video (discuss.io). On crée de la valeur en laissant les gens faire eux-mêmes plutôt que de s’échiner à répondre a tout !

Sa vision des CMI (Consumer & Marketing Insights) est l’ouverture vers les consommateurs avec toutes les nouvelles technologies et l’ouverture vers les marketeurs de l’entreprise.

  1. Les études vues par l’annonceur : « how to measure a cloud » Tony Costella, HEINEKEN

La palette des sources d’information pour un annonceur s’élargit de plus en plus.

Donc des études VALIDES, RAPIDES et ECONOMIQUES c’est possible.

Moralité pour les sociétés d’études, bougez vous demain est déjà là !

  1. Comment ne rien perdre avec l’arrivée du mobile : « reinventing need states segmentation for the mobile era ? Luigi delli Colli Ferrero et Steven Naert, Ipsos

Toutes les grandes entreprises ont des segmentations clients. Celles-ci ont reposé, pendant de nombreuses années, sur l’administration de questionnaires en ligne généralement longs et pénibles à remplir.  Quand 70% des individus répondent aux questionnaires via mobile, il est plus qu’urgent de revoir la façon dont on les interroge.

  • Penser au questionnaire en mobile first c’est-à-dire beaucoup plus court. Pour Ferrero passer de 36 à 15 minutes.
  • Le mobile interdit de longues listes d’items, donc comment mettre des images valides (métaphoriques) ou avoir des questions ouvertes équivalentes à ces items. Pour Ferrero, utilisation des formes modernes de questionnement (passer des images, grilles courtes, sliders). Réduction du taux de chute de 30% à 14%.
  • Interagir avec le répondant via de la self-ethnographie, l’envoi d’images, de réactions non structurées.

Rien de nouveau pour les praticiens des études (ouverts), mais cela fait toujours du bien de voir qu’on y arrive sur des choses compliquées.

  1. Un peu d’efficacité publicitaire ? « how to significantly improve marketing ROI & ad effectiveness with Google AI and Hotspex behavioural science » Shane Skillen, Hotspex

Cet homme (Shane Skillen) est un showman. Un nouveau produit de cette société canadienne Hotspex (Toronto) toujours bien notée coté innovation : du test publicitaire vidéo en ligne sur les valeurs de la marque, les émotions, les attributs… avec une analyse de la vidéo à tester à base d’intelligence artificielle. Sur les 7 marques testées à titre de pilote, +10% en efficacité media (sur quels critères ?).

  1. Pour aller toujours plus vite : « accelerating the innovation process through crowdsources intelligence » Lise Ohlin, eYeka, Karen Sears, Unilever

François Petavy (ex eBay) est le fondateur de eYeka : la mise à disposition, pour les marques, d’une communauté de créateurs. Ces créateurs sont activables pour de la stratégie de marque, du contenu pour les réseaux sociaux, du développement produit, du design.

Le cas montré était sur Domestos (produit pour les cuvettes de toilette), un vrai challenge et une cliente étude très contente d’idées différentes et de la rapidité des choses!

2 choses importantes :

  • L’accent a été mis fortement sur l’importance du brief de l’annonceur à eYeka (confirmé par la cliente). Plus de temps est pratiquement passé sur le brief que sur la récolte des idées des créatifs. Pour convertir ce brief client en brief créatif, des planneurs stratégiques d’agences de publicité chez eYeka.
  • Substitution vs les agences créatives ? Non, ce sont des idées, des concepts qui sont recueillis, ils doivent être mis en musique par les agences créatives, …ensuite.
  1. Pour comprendre l’humain grâce à ses hésitations : « certainty index as a game changer in online consumer research » Rafal Ohme, Neurohm

Neurohm, une société polonaise a fait une présentation intelligente à l’image de leurs mesures basées sur l’implicite. Autrement dit, votre temps de réaction, votre temps d’hésitation pour donner telle ou telle réponse sur un sujet est révélatrice de ce que vous ne dites pas : plus vous êtes certain de votre réponse, plus vous allez vite pour répondre. La mesure conjointe entre une réponse à une question et le temps pour avoir cette réponse vous donne un coefficient de certitude quant à la réponse à la question posée.

Là encore, pour aller plus vite, une plateforme de mesure en ligne.

En conclusion

Un monde qui change, des insights partout, accessibles par tous les moyens, de la désintermédiation, des petites sociétés qui arrivent, des gros que l’on voit peu (à leur décharge ce n’est pas le lieu), amis lecteurs ça ne vous rappelle rien? 

 

Retour sur le « FUNGATE »: la mesure d’audience de la radio en France est obsolète.

Share This:

FUNGATE

Prise littéralement, cette expression est porteuse de plaisir et donne envie d’en savoir plus, hélas, la vérité n’a rien de fun et la porte qui s’est ouverte est celle des prétoires…

Bruno Guillon, animateur de la matinale de FUN RADIO aurait demandé (plus de 100 fois en quelques mois) à ses auditeurs de faire de fausses déclarations (« déclarez FUN ») à Mediametrie si jamais ils étaient interrogés par cet institut pour donner leur écoute de la radio.

Ses auditeurs lui ont obéi, la station a doublé sa durée d’écoute dans la dernière période disponible.

Cette affaire, qui a agité le paysage media depuis juin, a trouvé sa conclusion,le 21 septembre 2016, avec la condamnation de la station en question, entre autres.

Ceci met en évidence 4 points:

  • d’un point de vue médiaplanning: la répétition d’un message ça marche!
  • d’un point de vue contractuel: les juristes n’écoutent pas leur propre station, sans cela ils auraient arrêté rapidement l’animateur car il violait une clause contractuelle explicite entre la station et Médiamétrie.
  • d’un point de vue annonceur: la radio est efficace. On a un exemple typique d’action et réaction qui met en avant l’efficacité du media, s’il était nécessaire de le prouver encore.
  • d’un point de vue mesure: la mesure de la radio est obsolète.

Oui, elle est obsolète, quand on voit qu’un animateur, seul, peut influer sur les résultats dits d’audience et donc bouleverser un paysage média et remettre en cause des investissements d’annonceurs.

Alors, l’étude 126 00 radio est-elle vraiment une mesure d’audience (interrogation téléphonique de 126 000 individus, 13 ans & +, de septembre à juin sur leur écoute radio des dernières 24H00)?

 Non, c’est un mix entre une mesure d’habitudes et une mesure d’audience.

  • OUI, quand il y a des gros événements médiatiques on voit les chiffres bouger. C’est de l’audience!
  • OUI, quand une grille radio change, on voit les chiffres évoluer dans un sens ou l’autre. C’est de l’audience!
  • OUI, quand on jongle dans sa voiture avec les boutons de ses stations préférées, on oubliera d’en déclarer certaines. C’est une mesure d’habitudes!

A l’heure du numérique, où, par exemple, rien n’est plus facile que l’infidélité, doit-on avoir un media mesuré de telle façon? NON

D’un point de vue technique, les solutions existent!

C’est la mesure passive, où l’on mesure le comportement réel des individus (et non du déclaratif) grâce à un appareil qui enregistre (24/24/ 7/7)  le son autour d’eux.

Ce type de dispositif n’est pas une nouveauté:

  1. Il suffit de voir le nombre de pays qui ont basculé en mesure passive, le dernier en date est les Pays Bas. Vous pouvez cliquer ici vers le tableau du RAJAR, l’organisme qui gère l’audience de la radio au UK. Ce tableau date un peu (Pays Bas et Italie pas à jour) mais fait le point sur qui mesure, comment, et où dans un certain nombre de pays.
  2. Le système du port d’un pager de la société Arbitron a été testé au début des années 2000 par Mediamétrie en France et les résultats avaient été montrées de façon détaillée aux stations et de façon agrégée aux annonceurs et agences media (les radios musicales, les radios généralistes…)
  3. En 2012, lors d’un séminaire media de l’IREP, IPSOS (Jim Ford et Bruno Schmutz) présentaient « Mediacell, the smart measure » (audience mesurée via smartphone) et Médiamétrie (Arnaud Annebicque),  « la mesure automatique individuelle portée: avancement et perspective » (audience mesurée encore via un pager…).

Bon, alors, nous sommes en 2016 et rien n’a bougé, si ce ne sont des chiffres parce qu’un animateur a fait ce qu’il n’aurait pas du faire.

Pourquoi, rien n’a bougé? Un premier élément de réponse simple: qui dit changement de mesure dit changement de résultats et les principaux acteurs savent que le business publicitaire sera de facto modifié. Les rapports de force changeront, la façon d’acheter le media devra changer aussi. Il y a d’autres éléments de réponse mais ce sera pour une autre fois!

Tout ceci fait peur à un certain nombre d’acteurs publicitaires actuels, ce qui peut se comprendre, mais, de toute façon, ils seront obligés, à un moment ou un autre de le faire, car quand tout se digitalise, la radio ne peut être LE media à rester dans son coin.

Et vous, Mesdames et Messieurs les Annonceurs, vous n’aimeriez pas connaître les véritables comportements des auditeurs pour être précis et justes dans ce que vous faites acheter ?

Bon je retourne écouter

tsf-jazz