Mois : octobre 2017

Le spectroscope organisationnel ou comment l’analyse des data des emails peut expliquer la satisfaction des employés!

Share This:

Pendant des lustres, les chercheurs en organisation ont fait l’hypothèse que la performance d’une entreprise dépendait de la structure formelle de cette entreprise mais aussi de la façon dont l’information circulait.

Jusqu’à présent, le flux d’information n’était pas une chose aisée à mesurer. Avec le digital, la donnée est là et a permis à Duncan Watts et son équipe de tester l’hypothèse précédente (Duncan Watts, le génial chercheur qui a validé, à l’ère digitale, le principe du « monde est petit », fait partie depuis quelques années, des équipes de recherche de Microsoft)

De quelles données parle-t-on ?

Celles des mails, pas le contenu mais les meta données de chaque mail (si vous êtes sur gmail, prenez un de vos mails, cliquez sur la flèche à droite et faites « afficher l’original », vous verrez. Ça doit être du même genre sur Outlook de Microsoft) ainsi que des informations plus classiques comme le titre du salarié, sa localisation, et les réponses à une enquête (satisfaction des employés vs leur manager). Tout ceci aux USA, sur des données de 2015, avec toutes les garanties de préservation de la vie privée de la terre !

Quel but ?

Avec des données de mail, peut-on prédire :

  • Le niveau de confiance des employés dans l’efficacité de leur manager
  • Le fait que différents groupes dans l’entreprise collaborent efficacement
  • La satisfaction des employés quant à l’équilibre vie au travail et vie privée

Comment ?

Là, ils se sont amusés (moi j’aime !) à procéder à 3 types d’analyse :

  • Du très classique en analyse de données, une analyse logistique
  • Du machine learning (algorithme random forest) SANS les meta données mail
  • Du machine learning (algorithme random forest) AVEC les meta données mail

Résultats ?

Ils ne se sont intéressés qu’au 15% d’individus insatisfaits.

Questions posées Modèle logistique Random Forest SANS les données mail Random Forest AVEC les données mail Caractéristique du mail la plus prédictive
Satisfaction vs son propre manager 20% 69% 93% Délai de réponse du manager (le pire, un long délai)
Collaboration dans l’entreprise 27% 70% 89% Taille du mail de réponse du manager (le pire, une réponse courte)
Equilibre vie au travail/vie privée 18% 42% 80% % de mails envoyés en dehors des heures de bureaux (plus il y en a, plus c’est mauvais)

D’un point de vue analyse de données, le modèle « random forest AVEC données des mails » est supérieur aux autres solutions.

Sur le fond (colonne de droite), a priori rien de renversant, les résultats sont frappés au coin du bon sens et vous vous dites « tout ça pour ça ! ».

En y regardant à 2 fois, on peut aller plus loin. En prenant, par exemple, l’équilibre privée/travail, si le nombre de mails en dehors des heures travaillées est un facteur important, on aurait pu s’attendre à ce que le volume global de mails reçus ou envoyés ou sa distribution selon les jours aient aussi un effet. NON !

Alors ?

En ressources humaines, comme dans bien des domaines, on pourrait piloter plus facilement la satisfaction des employés en utilisant les données qui existent en flux continu. Avec un grand bémol, NE PAS FLIQUER !!

Au fait, l’image c’est le réseau des employés Microsoft en fonction des échanges mails.

L’article originel (en anglais)

https://medium.com/@duncanjwatts/the-organizational-spectroscope-7f9f239a897c

Intelligence Artificielle, quel marché? Pour qui? Pour quoi?

Share This:

Dans un billet précédent, nous avions parlé de la taille du marché technologique autour de la RGDP (362 millions € en 2016, 1.2 milliards en 2018 et encore 1.1 mds en 2020, source étude IDC pour Microsoft, microsoftexperiences 2017). Dans la même étude, IDC a évalué l’Intelligence Artificielle (IA).

[150 individus interrogés (DSI, managers IT, Directions métiers) au sein d’entreprises avec un effectif de 500 salariés et plus du secteur industriel : Banque-Finance-Assurance, Industrie Manufacturière et de Process, Commerce (gros et détail, VPC, négoce, import- export), Santé (Cliniques, Hôpitaux, Etablissements de soins)].

Le marché des technologies liées à l’Intelligence Artificielle est d’une taille beaucoup plus petite (9 fois moins importante que RGPD en 2018),

  • 65 millions en 2016

  • 129 millions d’€ en 2018

  • 265 millions d’€ en 2020

Où en sont les entreprises ?

  • 22% n’ont pas de réflexion ou de projet
  • 42% des entreprises en sont au stade de la réflexion et de la compréhension du sujet
  • 22% vont démarrer un projet d’ici 1 an ou plus
  • 6% ont un projet pilote en cours
  • 6% l’utilisent déjà dans un seul domaine

Pour faire quoi ?

C’est là où la définition de l’IA entre en ligne de compte. L’IA dans cette étude, va du chatbot, aux algorithmes, à l’infrastructure cloud, à l’analyse des images… (cf photo ci-dessous). Cela correspond probablement au périmètre de Microsoft sur le sujet (supposition gratuite!)

IA technologies deployees ou en projet microsoft IDC

Et pour quels cas d’usage par fonction ?

Rien de révolutionnaire pour notre discipline préférée, le marketing, : « optimisation des campagnes marketing » et « personnalisation et recommandations affinées »

Et pour quels cas d’usage par secteur ?

« Recommandations financières intelligentes » pour la finance 😊.

Par contre, on retrouve de façon chiffrée, pour l’industrie, ce que Yannick Carriou nous avait évoqué lors d’un petit déjeuner IREP, 70% des entreprises visent à réduire les coûts grâce à la digitalisation  des lignes de production.

GDPR, RGPD, un beau business pour les sociétés d’IT (et du juridique)

Share This:

Qui n’a pas entendu, ces acronymes (RGPD, GDPR) depuis quelques mois ? On a une véritable accélération de l’intérêt pour le sujet depuis septembre 2017 (cf Google trends).

Si vous n’êtes toujours pas dans le coup, il y a un grand nombre de conférences, d’articles sur le sujet (plus d’un article par jour sur le RGDP dans la presse française digitale dans les 30 derniers jours selon Visibrain)

Google trends RGPD GDPR worldwide

RGDP (Réglementation Générale pour le Protection des Données) mais c’est GDPR (la version anglaise) qui domine, même en France (pffff!).

google trends france RDPD GDPR

Cette réglementation européenne entrera pleinement en application en mai 2018.

Les implications techniques liées à la RGPD (GDPR) créent un marché évalué à:

  • 362 millions € en 2016,
  • 1.2 milliards en 2018
  • et encore 1.1 mds en 2020

Un des résultats d’une étude BtoB faite par IDC pour Microsoft et présentée, début octobre 2017, dans le cadre des 2 jours Microsoftexperiences (comme d’habitude, au palais des congrès, noir de monde). L’étude a été faite sur 150 entreprises de 500 salariés & plus (plutôt des grosses entreprises donc).

Comme le montre le volume 2017 et son triplement en 2018, cela signifie que toutes les entreprises ne sont pas opérationnelles sur le sujet, moins d’1 an avant l’entrée en vigueur de la loi.

Pour être plus précis, selon IDC,

  • 42% des entreprises prennent juste conscience du sujet
  • 19% seront en conformité en 2017
  • 30% seront en conformité en 2018
  • 9% sont déjà prêts

Sur les entreprises qui œuvrent déjà dans le domaine, certaines difficultés sont surévaluées et d’autres sont sous-évaluées:

Difficultés surévaluées Difficultés sous-évaluées
Notification de violation des données personnelles sous 72H Transfert de données hors d’Europe
Cryptage / Anonymisation Droit à l’oubli
Service de demande d’accès aux données Effacement de données
Accès aux données réelles des clients  

Il y a du boulot !

Algorithmes du fantasme à la réalité -Petit dej IREP (septembre 2017) 2/2

Share This:

Si Dominique Cardon nous a apporté le coté théorique des algorithmes (voir billet précédent), Yannick Carriou (X, ENSAE, CEO CXP Group) nous a amené la réalité des algorithmes en entreprise, les implications marketing donc publicitaires.

Les mots clés: rendement, exosquelette, bolducisation des startups, tout un programme!

« Les entreprises regardent les algorithmes sous l’angle du rendement »

Yannick Carriou, CXP Group

 

« En entreprise, l’algorithme ne commence pas par le marketing»

Yannick Carriou, CXP Group

Pour les DG ou les DSI en entreprise, cette classification (celle du billet précédent) qui s’adresse à une petite partie des algorithmes, n’est pas totalement dans leurs esprits. Une entreprise regarde les algorithmes à l’aulne du rendement. Le marketing n’est alors pas concerné en premier lieu (sauf les sociétés web bien sûr), mais les machines (au sens industriel), elles le sont. Les entreprises font face à un vrai défi d’algorithmisation, de gestion des données. Elles ne voient pas le marketing en général, ou le web en particulier, comme le meilleur ratio entre la simplicité des solutions et le rendement immédiat.

Le changement de position du calculateur et l’entreprise ?

« La transformation digitale est une forme d’exosquelette construit autour des entreprises » Yannick Carriou, CXP Group

Une entreprise dont le modèle repose sur des données et sur son utilisation optimisée via des algorithmes, se sent en dépendance.

C’est vrai sur le web, puisque les calculateurs sont, en partie, à l’extérieur de l’activité de l’entreprise, mais c’est aussi vrai sur toute la chaîne. En effet, les algorithmes sont de plus en plus compliqués et de plus en plus « boîte noire » créant ainsi une autorité entre ceux qui savent ce qu’il y a dedans et ceux qui ne savent pas.

La transformation digitale est une forme d’exosquelette construit autour des entreprises. Elle génère des relations de dépendance, de stress, car, installer un exosquelette, signifie faire des choix, dans des architectures un peu compliquées, dans des algorithmes eux aussi complexes (ou plutôt choisir entre les différents discours de fournisseurs), et partir sur des engagements de long terme.

Si l’on revient à la position du calculateur, sa position est externe, un peu floue, un peu marketée et génère une grande incertitude sur la validité du choix.

Les sociétés d’études ? Ce ne sont pas des exosquelettes (à l’exception de la mesure d’audience), car les études tournent d’une société à l’autre, à un moment ou un autre. C’est d’ailleurs cela le problème des sociétés d’études, ce rapport d’autorité n’est pas installé à grand échelle, ni pérenne.

Le stress de l’entreprise, par rapport au calculateur, repose sur quelques questions : Où est-il ? Que fait-il ? Qui suis-je moi pour le contrôler ? D’où la tendance à se doter de calculateurs, les data scientists, mais cette tendance est encore minoritaire. La plupart font confiance à de systèmes packagés.

L’Intelligence Artificielle, le marketing, la publicité ?

« Le marketing est surement l’endroit le moins rentable pour de l’algorithmie, de l’intelligence artificielle » Yannick Carriou, CXP Group

Prenons l’exemple de l’achat d’une turbine à gaz. Le prix d’entrée est de 150 millions de dollars. La durée de vie d’une turbine est de 30 à 40 ans. Pendant cette période, elle va consommer à peu près 100 fois sa valeur. Un algorithme qui peut optimiser le rendement de cette turbine de 2%, a un impact financier colossal. Si vous optimisez votre campagne marketing de 2% c’est très bien mais quel est l’investissement que vous avez mis derrière ?  Il vaut mieux, alors, investir dans des algorithmes qui fournissent un rendement important. En marketing, la vraie difficulté est que l’on essaye d’optimiser un mécanisme non déterministe et l’on essaye d’optimiser un rendement qui est intrinsèquement faible.

Une expression pratique de l’algorithme est l’établissement de « dashboards » avec des « KPI ». Un KPI, on le sait tous, est sommaire, partiel et n’a jamais supprimé l’intelligence naturelle qui sait prendre des décisions sur des critères croisés. Ce qui est dangereux, c’est quand on met une « religiosité » derrière cette mécanique : l’IA, une force cachée. Certains acteurs ont intérêt à vendre cette abstraction, cette religiosité. J’ai vu des start-ups qui veulent réinventer des lois de la physique et font table rase de quelques siècles de théorie. Mais, elles passent la barre des DSI, des DG, car la machine est la seule à donner un sens à un fatras de données. Le KPI, dans ce cadre, devient mortel car on ne sait plus ce que c’est, plus le pourquoi mais on y croit très fort !

Si l’on se penche sur la publicité, dans le marketing, l’expérience utilisateur est un élément clé. Or, du point de vue de l’expérience utilisateur, les résultats de l’algorithme publicitaire ne sont pas fantastiques non plus. Le retargeting c’est très bien, mais voir pendant 10 jours le même produit que je viens d’acheter, c’est un peu gênant.

En fait, l’algorithme peut optimiser soit un résultat, soit les taches pour arriver à ce résultat. On ne parle plus de rendement alors mais de productivité. Le programmatique est typiquement l’exemple de la productivité et, ici, l’algorithme a du sens.

Intelligence Artificielle, Start-ups, qualité ?

« Les start-ups mettent un bolduc autour du R » Yannick Carriou, CXP Group

Statisticiens et Data scientists, c’est une évolution du même monde.

Si autrefois les statisticiens pratiquaient les statistiques avec des licences SAS qui coûtaient très chères, aujourd’hui, tout le mouvement sur l’analytics est basé sur le langage R.

Ce langage était limite de la société secrète il y a 15 ans ! Mais, avec le mouvement open-source, on accède aujourd’hui, facilement, à l’état de l’art sur l’analytics, l’IA… On a alors, beaucoup de startups en Analytics avec des individus brillants qui mettent un « bolduc » autour du R.

La bolducisation des start-ups, c’est mettre de l’assouplissant avec votre lessive pour que la serviette (Le R) soit un peu moins rêche !

Quel que soit le bolduc, il est nécessaire de se pencher sur la qualité des données que l’on a dans un DMP pour nourrir des processus d’Intelligence Artificielle. Aujourd’hui la qualité des données n’est pas assez questionnée et optimiser de façon intelligente des données dont la qualité est une question, ça ne favorise pas le rendement, même s’il y a l’adage que l’IA fait mieux que le hasard !

Algorithmes du fantasme à la réalité -Petit dej IREP – septembre 2017 (1/2)

Share This:

Tel était l’objet du second petit déjeuner, organisé par l’IREP (que nous avions le plaisir d’animer). 

Nous avons accueilli, Dominique Cardon, un des plus grands sociologues mondiaux de l’ère du numérique.

Ce billet est le premier de 2 et reprend les propos de Dominique. Le second reprendra les propos de Yannick Carriou, CEO CXP Group.

« Un algorithme (mot arabe, IXème siècle) est une suite d’instructions réglées produisant un résultat. C’est dans le code informatique, mais ce n’est pas tout le code informatique. » Dominique Cardon Medialab Sciences Po.

Quelle vision de la société sort des calculs faits par les algorithmes ?

« La prédiction personnalisée est un vrai changement de paradigme » Dominique Cardon Medialab Sciences Po

Les algorithmes de classement de l’information sur le web ne sont qu’une petite partie des algorithmes qui existent mais sont intéressants par ce qu’ils montrent de notre société. Ils peuvent être classés en 4 familles qui sont, aujourd’hui, constamment coprésentes : popularité, autorité, réputation et prédiction.

 

  A côté Au-dessus Dans Au-dessous
Exemples Mediametrie // Net Ratings, Google Analytics, affichage publicitaire digital PageRank de GooglE, Digg, Wikipedia Nombre d’amis, Facebook, retweet de Twitter, notes et avis Recommandations Amazon, publicité comportementale
Données Vues Liens Likes Traces
Population Echantillon représentatif Vote censitaire, communautés Réseau social, affinitaire, déclaratif Comportements individuels implicites
Forme de calcul Vote Classements méritocratiques Benchmark Machine learning
Principe POPULARITE AUTORITE REPUTATION PREDICTION

In Dominique Cardon, A quoi rêvent les algorithmes, la république des idées, Seuil, 2015

Ce qui occupe le monde aujourd’hui, c’est la dernière famille, la prédiction personnalisée. Cette famille est un vrai changement de paradigme, de statistiques, des types de données mobilisées (données publiques, liens hypertexte, partages, like…). Ici, on utilise des données implicites, les traces des internautes, traces de navigation, géolocalisations, … tout ce que peuvent apporter les capteurs aujourd’hui.

Le mesureur dans cette classification ?

« Le rêve de Google a toujours été d’être invisible de l’internaute » Dominique Cardon, Medialab Sciences Po

Cette classification montre que la position du calculateur a, elle aussi, changé: « À côté » , « au-dessus » ,  « dedans » et « en-dessous »

Au-dessus

Le rêve de Google a toujours été d’être invisible de l’internaute (ne pas montrer les calculs) car il prétend mesurer des signaux et faire une prédiction à partir de signaux que les webmestres s’envoient entre eux (liens hypertexte) sans que les webmestres n’agissent en fonction de celui qui les observent du dessus.

Cette vision d’observation du monde (l’instrument qui observe, n’agit pas sur le monde qu’il mesure) est un peu naïve, car les webmestres agissent en fonction de l’instrument qui le mesure. La grande crise du PageRank en 2007-2012 vient de là (Pour compléter votre information voir ici )

« Dedans »

A l’opposé, les réseaux sociaux (Facebook, Twitter, …) qui sont DANS la donnée, ont montré les calculs et ont donné à TOUS la possibilité de calculer. Tout le monde peut agir et devenir stratège. La conséquence de ceci a été la forte baisse de qualité de la donnée (achat de faux likes…). Ce qui n’empêche pas les données des réseaux sociaux d’avoir d’autres significations.

« En dessous »

Comme la prévision ne fonctionne pas avec le web social (élections, succès commerciaux de films…), pourquoi ne pas aller chercher des traces en dessous, sous la conscience des utilisateurs ?

C’est le grand mouvement actuel dit « l’intelligence artificielle » (l’IA) qui, d’ailleurs, n’est pas de l’IA mais du machine learning. On peut régler les calculs d’une mesure en fonction d’un objectif supervisé qui est toujours une mesure d’utilité (« Qui passe le plus de temps à scroller la page FB » … « que l’on ait de l’up-selling dans la recommandation commerciale », « qui clique le premier », …). L’objectif sert à recalculer les paramètres des données qui vont être présentées de façon de plus en plus personnalisée à l’utilisateur.

C’est un nouveau régime qui se met en route, le calcul n’est plus le même pour tout le monde et le réglage du calcul ne se fait pas en fonction des intentions du calculateur mais en fonction des traces des individus.

 

Et si on changeait la mesure d’audience TV ? L’ATTENTION PUBLICITAIRE est mesurable, TVision le fait (aux USA)

Share This:

La bataille de l’attention est engagée, encore faut-il la mesurer!

Questions

Vous êtes un annonceur ou ses agences (media, création) ?

  • Quelle est la part de votre cible qui a porté attention à votre publicité ?
  • Quelles sont les émissions qui génèrent le plus d’attention ?
  • Mon spot a-t-il de meilleures performances d’attention que les concurrents ?
  • Comment se construit l’attention des individus au fur et à mesure des diffusions du spot ?

Vous êtes un directeur d’antenne ?

  • Comment se construit l’attention des individus au fur et à mesure des diffusions des diffusions des  bandes annonce programme ?

Obtenir les réponses à ces questions est une utopie ? Non une réalité, TVision fournit les réponses.

Comment?

La mesure de l’attention ?

Vous prenez le meilleur de ce qui est appelé la « computer vision science »

  • Skeleton tracking pour détecter une silhouette, donc une présence (comme le Kinect de Microsoft)
  • Face tracking pour connaître l’orientation de votre visage
  • Facial recognition pour savoir qui regarde
  • Eye tracking pour savoir ce que vous regardez

Ces mesures PASSIVES se font via une caméra spécifique TVision sur le(s) poste(s) TV dans des foyers.

La mesure de la diffusion ?

Ce qui est diffusé est détecté par le son du programme en fingerprinting (empreinte unique du programme) et comparé à une base de diffusion existante.

Auprès de qui ?

Aujourd’hui dans 8 grandes zones (Atlanta, Boston, Chicago, Dallas, Los Angeles, New York, Philadelphie, Seattle), 7 500 individus de foyers volontaires (11 500 en fin d’année 2017). TVision est aussi installé à Tokyo

Leur intimité est préservée car aucune image ou vidéo ne sort de chaque foyer, seulement des 1 et des 0 qui sont traités chez TVision.

Les indicateurs ?

La mesure d’audience de la Télévision en France aujourd’hui (et dans de nombreux pays) est « la présence dans la pièce où le poste est allumé ». On enregistre donc une Occasion De Voir (ODV), Occasion To See en anglais (OTS) et non une vision réelle.

Pourquoi alors ne pas compléter l’information à partir de la séquence suivante:

  • Durée du programme – Available Program Time
  • Durée du programme écoutable (le poste est allumé, le son est actif sur le programme) -Program Tune Time
  • Occasion de Voir (Individu présent et détecté pendant que le poste est allumé, le son du programme actif) – Person In View Time.
  • Regard sur le programme (via l’Eye tracking) – Eyes on screen time

On peut alors calculer :

  • Un indicateur de visibilité par programme (durée de présence de l’individu dans la pièce / TV allumée et son actif sur le programme)
  • Un indicateur d’attention (durée du regard sur le programme / durée de la TV allumée avec le son actif sur le programme))

Un cas?

 

Mc Donald’s au Japon en 2016 a constaté que la corrélation entre ses GRP TV et sa notoriété était de plus en plus faible (0.17). Après analyse des résultats d’attention de TVision et des GRP classiques, Mc Donald’s a fait modifier son media planning et a vu cette corrélation progresser très significativement.

Depuis Mc Donald’s

  • utilise l’indicateur d’attention comme KPI (indicateur de performance)
  • utilise l’indicateur d’attention comme indicateur de media planning pour maximiser la notoriété
  • demande à son agence media de comparer ses performances d’attention par rapport à ses concurrents

Des clients ?

  • ESPN, The weather Channel, Turner pour les diffuseurs
  • Procter, McDonald’s, Mars, Dunkin Donuts… pour des annonceurs

Quel que soit le coté (Diffuseur ou annonceur), ces indicateurs ne remplacent pas la mesure officielle (Nielsen) aux USA qui fait consensus depuis des années, mais ils les enrichissent dans le sens d’une plus grande efficacité grace à une meilleure compréhension des phénomènes via plus de qualitatif.

Conclusion

Il est intéressant de voir qu’avec la notion de visibilité, la mesure TV se rapprocherait du Web (nous reviendrons sur ce sujet).

Soyons pragmatique, le propos n’est pas de souhaiter le remplacement de la mesure d’audience de la TV (désolée pour le titre de cet article !) pour basculer vers un système de ce type.

Mais, pourquoi ne pas traiter le problème de façon « qualitative » sur un petit échantillon, voire une zone test, de façon à fournir les moyens,

  • aux diffuseurs, de faire un marketing antenne plus pertinent
  • aux annonceurs, d’être plus efficaces dans leur communication (création et media) donc plus rentables
  • aux agences media, de faire valoir leur expertise

Alors, les sociétés d’études qui s’y met ? Mediametrie ? Kantar ? Ipsos ? GfK ? Marketing Scan ? Iligo ? …

Nous connaissons la réponse de nombre d’entre elles  : « Qui finance ? »  Et? c’est comme cela que la France est devenue un petit pays dans le domaine des études (notre avis). Beaucoup de choses se passent aux USA, en Grande Bretagne, voire en Australie (pour ceux qui n’ont pas encore lu le billet sur la mesure d’attention en Australie, cliquez ici), là où il y a encore un peu d’argent pour avoir des vraies réponses à de vraies questions et faire gagner beaucoup d’argent aux annonceurs.

Merci à TVision pour les informations et les images fournies.

Pour ceux qui s’intéressent à l’attention,  voir ici  et ici.

Visualisez les échanges internationaux

Share This:

Voir les échanges (imports / exports) mondiaux, c’est beau et intéressant!

Cliquez sur l’image ci-dessous et vous trouverez un globe interactif

 

Voir le génome?

Share This:

Quels sont les points communs entre un humain, un singe, une souris, un poisson?

Ce n’est pas une fable de La Fontaine, mais la visualisation du génome via une visualisation circulaire que nous affectionnons particulièrement.

Une belle représentation

 

Comment la TV australienne « défonce » YouTube et Facebook!

Share This:

La publicité TV a un effet plus fort sur les VENTES à court terme que les pubs vidéo de Facebook et de YouTube car elle attire plus l’attention des individus et a une meilleure « couverture écran ».

En quelques mots, les résultats d’une superbe étude réalisée par Karen Nelson-Field pour le compte de Think TV (l’association des TV australiennes) et présentée fin août 2017.

Pourquoi une superbe étude ?

Une étude comme on n’en fait pas (plus ?) en France (Qui a du budget ?).

Un grand échantillon de 2 583 australiens volontaires pour être équipés de systèmes modernes de mesure (Face tracking, Eye Tracking) sur tous leurs écrans (TV, mobile, PC, tablette) et, où une application multi-écran capte leur exposition publicitaire et son environnement de diffusion (18 219 publicités vidéo) de façon complètement passive (sans les biais de constitution d’un laboratoire pour maîtriser les paramètres d’une expérience). A ceci, vous ajoutez de l’Intelligence Artificielle (machine learning) pour analyser la donnée, un magasin virtuel pour mesurer les ventes (38 745 marques), et vous avez les premiers résultats de « benchmark studies ».   RESPECT !

Quels résultats ?

Avant de vendre, il faut attirer l’attention et qui attire le plus l’attention de façon active ? la Télévision.

La mesure active est mauvaise pour Facebook mais l’on n’y vient pas, a priori, pour voir des vidéos mais voir « ses amis ».

La vision active est mesurée par le fait que le regard est posé sur la publicité, la vision passive est le regard sur l’écran mais pas sur la publicité, la non vision est tout simplement que l’on ne regarde pas l’écran même s’il est allumé.

vision active et attention

Pourquoi l’attention est importante ?

Il y a une relation entre attention et ventes. Et qui à l’effet ventes le plus fort ? La télévision

corrélation attention et ventes

Et qui à l’effet ventes le plus fort ? La télévision

efficacite vente des reseaux

Pourquoi ? Et si on parlait de taille : la couverture écran

La part de publicité, la surface occupée par la publicité par rapport à l’écran que l’on a en face de soi, semble être un paramètre important. La couverture écran de la TV à un instant t, dans un écran publicitaire, est de 100%. Elle beaucoup plus faible, par nature, pour Facebook et YouTube.

couverture ecran et reseaux

Et comme, on l’a vu plus haut, l’attention est corrélée aux ventes, si la couverture écran a un impact sur l’attention, la boucle est bouclée. Et c’est le cas !

vision active et couverture ecran

A ceci s’ajoute un point très intéressant sur l’application des standards du MRC (nous reviendrons sur ce sujet dans un autre article).

La convention américaine (donc internationale) établie par le MRC est : une publicité vidéo est considérée comme facturable, si 50% des pixels sont visibles à l’écran pendant 2 secondes consécutives.

L’étude australienne montre qu’avec la norme du MRC, les publicités sur YouTube et Facebook ont un effet sur les ventes (tant mieux), mais que si l’on va plus loin (100% de pixels ou plus de 2 secondes), l’impact est beaucoup plus fort.

effet norme MRC

Alors pourquoi rester avec un tel standard ?

En Australie, le durcissement des règles aboutirait à une réduction drastique de l’inventaire publicitaire pouvant faire l’objet d’une vente de la part de ces 2 sociétés.

inventaire et norme MRC

Quels bémols ?

Comme il se doit tout n’est pas dit dans cette étude, ni sur la méthodologie ni sur les résultats.

  • Les résultats sont très en faveur de la TV mais l’étude est commandée, on le rappelle, par l’association des télévisions australiennes (Think TV).
  • Les résultats montrés pour Facebook sont-ils ceux du mobile ou de la version PC ? Selon Facebook Australie, cette étude, dans cette étape, ne montre pas de résultats sur mobile. Think TV annonce une seconde étape avec le mobile.
  • Un regard posé sur une publicité en Eye Tracking pendant combien de temps pour signifier « vision active ».
  • La mesure des ventes via le STAS (Short Term Advertising Stength) peut faire l’objet de discussions infinies et nous renvoie à des travaux faits en 1995 par JP Jones (l’application en France avait été promue par Marketing Scan, entre autres).

Pour voir la vidéo de l’intervention de Karen Nelson-Field (descendez un peu quand vous êtes sur la page)

Pour voir la presentation en pdf