Catégorie : Digital (Page 2 of 10)

digital ou numerique la revolution actuelle

Culture gaming, comment une conférence vous rend « has been » (un compte rendu partial et partiel)

Share This:

Il y a plus de 10 ans, nous avions eu l’occasion de réaliser une première en France (en Europe ?), réaliser une étude d’eye tracking sur des jeux vidéo de la plateforme Massive de Microsoft  (Marie Estelle Carrasco et Ronan Bourgeois pour Microsoft Advertising, Erwan Le Page et nous-mêmes pour Havas Media, réalisation technique Ludotic). Le but était de savoir si les joueurs voyaient les publicités dans un jeu et s’ils s’en souvenaient (réponse : Oui !).

Il était temps, en octobre 2019 de se replonger dans cet univers du jeu avec la conférence « culture gaming » faite par Webedia et CB News à l’heure où l’Esport se généralise (nous y avons retrouvé Ronan Bourgeois 😉 )

Et là, vous prenez une grande claque dans la figure pour 2 raisons :

  • Tout a changé et rien n’a changé
  • Nous sommes « has been »

Tout a changé, rien n’a changé ?

Michelle Benzeno de Webedia a démarré son intervention par « il faut désenclaver le gaming ». Rien n’a changé en plus de 10 ans !

Mais, tout a changé, cette industrie représente, aux USA, 44 milliards de dollars (plus que l’industrie mondiale du cinéma), première industrie culturelle.

Tout et Rien n’a changé : le gaming (le jeu) a ses valeurs (bravo aux 55 gamers qui ont récolté 3.5 millions d’Euros pour l’Institut Pasteur dans le cadre de Z event) , son langage, ses codes, ses créateurs, ses œuvres.

Tout a changé : des joueurs sont devenus des créateurs (les YouTubeurs), les jeux gagnent en masse planétaire en nombre de joueurs.

Des chiffres ?

Alors, selon une étude d’opinion d’Harris Interactive réalisée pour cet événement, quelques chiffres :

  • 68% de français (de quel âge ?) jouent aux jeu vidéo (smartphone, tablette, ordinateur, console)
  • La moyenne d’âge est de 42 ans
  • 34% sont CSP-
  • 59% jouent tous les jours au presque
  • Le jeu est un acte solitaire (70% préfèrent jouer en solo)
  • Dans les 30% qui préfèrent jouer en multi joueurs, 10% en ligne en compétition
  • 29% des français savent précisément ce qu’est l’Esport

 En termes d’industrie (Jean Villedieu SNJV)?

  • 250 entreprises en France
  • 86% d’emplois en CDI
  • 14% de femmes…
  • La révolution à venir, les jeux par abonnement comme Apple Arcade

La publicité ?

Si au début, la publicité était majoritairement du display, assez vite, comme les performances étaient médiocres, la publicité était devenue du placement produit. Aujourd’hui, le modèle publicitaire est de regarder une publicité pour pouvoir avancer dans le jeu (en français dans le texte, la rewarded video). En fait, un bon jeu étant une expérience captivante, la publicité doit être un caméléon pour ne pas rompre l’expérience joueur !

Pour convaincre les annonceurs, comme d’habitude, quand on ne pratique par le media, il faut évangéliser, éduquer… (ex : comment convaincre les acheteurs en agence media d’investir en Presse alors qu’ils ne la lisent plus, et il commence à se produire la même chose pour la TV). Un argument mis en avant, l’instantanéité d’une masse connectée à un instant t (comme toujours…)

Gamification ?

Pour nous (et cela fait de nombreuses années que nous le prônons), la gamification (ludification) est l’application, à des domaines autres que les jeux vidéo (ex : les questionnaires dans une étude), des codes d’interaction nés de la pratique des jeux vidéo.

Pour Cyril Guilleminot (Gameloft), il s’agit de « l’amplification des effets d’une expérience existante en appliquant différentes techniques de motivation ce qui rend les jeux si engageants ». Et il nous a montré une belle image type neurosciences sur l’effet du jeu vidéo dans notre cerveau (cf l’image en tête de cet article) et le lien possible avec des marques (ex : le jeu vidéo active l’hippocampe donc favorise la mémorisation). Intéressant, mais nous pensons que l’on doit trouver la même chose en neuroscience pour démontrer les ravages des jeux vidéo…

Après, les mécaniques de gamification sont maintenant connues (économie comportementale, nudge…), indication des niveaux de progression, les badges, les tableaux de score, les challenges…

Esport ?

L’Esport désigne donc

« l’ensemble des pratiques permettant à des joueurs de confronter leur niveau par l’intermédiaire d’un support électronique, et essentiellement le jeu vidéo, et ce quel que soit le type de jeu ou la plateforme (ordinateur, console ou tablette) » (source : France Esport)

Le mot sport est donc trompeur ! Il ne s’agit pas des jeux liés au sport, seulement, mais tous les jeux où l’on se confronte à d’autres personnes.

Même si l’Esport n’est pas que du sport, si on le compare au sport, malgré tout, sa construction s’est faite à l’envers. Le sport est basé sur une infrastructure de clubs ou d’associations sportives locales pour remonter (du bas d’une pyramide vers le haut), vers des fédérations internationales, quand l’Esport a démarré avec des compétitions mondiales et qu’il doit descendre vers des clubs ou des associations Esportives locales (du haut de la pyramide vers le bas).

Un business avec un prix de 2.7 millions d’Euros (3 millions de $) pour le gagnant de Fortnite quand le gagnant de Rolland Garros en gagne 2.3 et le vainqueur du marathon de New York 81 000 Euros (pas de millions)…

Les émissions de jeu vidéo à la TV ont disparu au milieu des années 2000 et sont maintenant remplacées par:

  • des retransmissions de compétitions d’Esport sur une chaîne de flux comme BeinSports
  • des créations de chaînes de TV spécialisées (qualité broadcast) comme ES1
  • des créations de chaînes en streaming comme Lestream

Si, aujourd’hui la retransmission des compétitions est gratuite, l’Esport deviendra un sport quand il y aura des droits de diffusion !

Le public du Esport est impliqué, ultra connecté et critique. Ceci a de bons mais aussi mauvais aspects, d’où une certaine réticence des marques à s’engager dans ce secteur.

Certaines ont su le faire intelligemment comme

En parlant de critiques, il était intéressant de constater les réactions négatives de fans de jeu vidéo attirés par #culturegaming quant au contenu de la conférence. C’est la première fois que nous voyions du « public » (hors marabouts ou autres partisans de Daesh) intervenir si fortement dans un fil twitter consacré à un événement BtoB.

 

Coup de vieux ?

  • Nous sommes typiquement dans la situation, quand on ne pratique pas, on ne connait pas !
  • Découverte de la plateforme d’Amazon, Twitch (désolé, nous ne connaissions que Justin Tv son ancêtre !)
  • des « stars » avec leur propre langue :
    • Domingo (streamer, joueur, animateur et YouTubeur) qui commente des parties (30 000 à 100 000 personnes en direct suivant les formats, plus qu’un stade de foot !).
    • Bruce Grannec le champion du monde du jeu FifaXXXX (donc du football), impressionnant !
    • Brak2K (Mahmoud Ganassa), YouTubeur jeux vidéo qui commente des matchs d’Esport ou même, avec Bruce Grannec, de « vrais » matchs sur BeinSports
  • Il n’y avait 4 personnes avec des cheveux blancs dans la salle (dont Nous) !

VIVE L’INTELLIGENCE ET LA SCIENCE – Conférence IPSOS (compte rendu partial et partiel)

Share This:

Quand on consulte l’excellent site myenventnetwork.com, le constat est simple : tous les jours des événements, des conférences, des ateliers (parfois plusieurs dans la même journée) gratuits pour la majorité d’entre eux, mettent en avant un aspect du métier de la communication, du digital et des media.

C’est trop mais c’est ainsi (cf notre coup de gueule il y a 2 ans et ça n’a pas changé).

Nous sortons, de plus en plus souvent avant la fin (ce qui n’est pas poli), énervés après avoir entendu des choses déjà dites, redites, rabâchées sans aucune aspérité sans point de vue affirmé. C’est pour cela que nous n’avions rien publié sur ce blog depuis des mois. Overdose de banalités !

Aussi, quand une société vous propose de faire bouger vos neurones en vous apportant de l’intelligence scientifique, vous ne pouvez dire qu’une seule chose MERCI IPSOS !

L’idée de ces conférences à la maison de la chimie, le 26 septembre 2019 au soir, était de se réinterroger sur tous les modèles théoriques qui sous-tendent tout ce que nous faisons, faut-il les renouveler ? comment les renouveler ?

Que se passe-t-il dans notre cerveau, comment raisonne-t-on ? (Olivier Houdé, Professeur émérite Paris Descartes, laboratoire LaPsyDÉ).

Les adeptes de l’homo-economicus ont toujours mis en avant la capacité de réflexion logique de l’humain, son système algorithmique qui permet d’élaborer une pensée réfléchie, dont la fiabilité est grande mais qui nécessite du temps, des efforts pour aboutir. Son défaut ? Monopoliser notre attention (amusez-vous au jeu dans cette video).  C’est le système dit 2, incarné dans les travaux de Jean Piaget. Exemples simples : lire un mot que l’on ne connait pas, changer de direction pendant un trajet habituel, calculer 19 x 46…

Daniel Kahneman (prix Nobel d’économie 2012) a démontré que le système 2 n’était pas le seul dans notre cerveau, mais qu’il en existait un autre : le système 1. C’est un système dit heuristique dont la caractéristique est d’être une pensée automatique, intuitive, avec une fiabilité correcte mais non totale et surtout une très grande rapidité. Le cerveau humain cherchant toujours à économiser sa consommation d’énergie, le système 1 est celui que nous activons le plus souvent dans nos taches quotidiennes. Des exemples ? La lecture, la conduite automobile sur un trajet habituel, des calculs simples (1+1, 2+3 …). L’apprentissage est la base de construction du système 1.

Au passage, ne pensez-pas, comme l’imaginait Piaget, qu’en passant de l’enfant à l’adulte le 1 laisse la place au 2 ! Non, suivant les sujets, les moments, l’adulte est à fond dans le système 1, aucune corrélation avec l’âge ! (Comme quoi la sagesse n’est pas l’apanage des vieux 😊)

Alors nous nous arrêtons là, avec 2 systèmes ?

Non ! Il en existe un troisième, issu des travaux d’Olivier Houdé. Ce système 3 est dit système d’inhibition qui a fonction d’arbitre, et qui nous pousse à interrompre notre processus de décision rapide (système 1) pour basculer sur la réflexion algorithmique (système 2). Le système 3 permet d’éviter les conflits entre les 2 premiers, les conflits cognitifs. Les adeptes des neurosciences le localiseront dans le cortex pré-frontal, là où se situe nos émotions et sentiments.

L’idée est alors de « cultiver » notre système 3 pour apprendre à débrancher le système 1 au profit du 2, il faut résister à notre intuition !

A quoi cela sert-il ?

Un exemple concret proposé par Brice Teinturier : les stéréotypes racistes et antisémites existent depuis longtemps (les juifs et l’argent, les juifs et le pouvoir, le lobby juif mondial…) et sont suivis par IPSOS (B Teinturier a projeté des verbatim issus des réseaux sociaux, à vomir…). La question est, pour un gouvernement par exemple, de trouver des moyens de combattre ces stéréotypes. Affirmer que ce n’est pas vrai ne sert à rien, on se heurte au mur du système 1. Comment pousser le système 3 à débrancher le 1 pour activer le 2, donc à dépasser le stéréotype pour aller à la réflexion. IPSOS a introduit dans ces questionnaires d’opinions, des mesures de nouvelles émotions relatives au doute, au regret et à la curiosité qui permettent aux pouvoirs publics de penser leurs démarchent autrement. Ces mesures sont applicables aussi au marketing.

 

Deuxième sujet : La modélisation de la mobilité (Olivier Bonin, Professeur, Géographe, chercheur à l’IFSTTAR au Laboratoire Ville Mobilité Transport)

Le sujet parait plus simple que l’exploration de notre cerveau et pourtant ! Comment reconstituer des flux de mobilité pour mesurer des individus qui bougent en permanence dans tous les coins. Les vieilles méthodes consistaient à reconstituer des flux en comptant des passages à des points fixes et en interrogeant des individus dans le cadre d’enquêtes. En demandant un point de départ, un point d’arrivée, un mode de déplacement et des choix d’itinéraires, il était possible de modéliser les flux. Les modèles permettaient alors d’interpoler dans le temps et l’espace, des données très partielles, lacunaires. Ceci avec plus ou moins de succès car on se limitait souvent à des heures de pointe (le matin), un jour de semaine, sans tenir compte des variabilités des activités et en étant focalisé plus sur les flux que sur les comportements des individus.

Aujourd’hui, des données sont disponibles en masse : la billétique, le GPS, les smartphones, des boîtiers dédiés… Ces données sont, de plus, relatives à un individu. Et même si elles sont moins riches sémantiquement que des enquêtes, elles apportent une densité temporelle et spatiale incomparables.

Vous y appliquez des modèles différents (on passe des modèles gravitaires aux modèles multi-agents), calculés au niveau de l’individu (qu’il soit réel ou synthétisé) et vous disposez de multiples programmes d’activité répartis entre les jours, les chaînages, les différents membres d’une famille, bref, de tout ce qui est nécessaire pour l’optimisation des trajets, des infrastructures, des horaires, … mais aussi pour la mesure d’audience de l’affichage (Outdoor, en usage maintenant…)

C’est le cas applicatif montré par (le brillant) Jean Noël Zeh (IPSOS) puisque l’entreprise a gagné l’appel d’offres de Mobimétrie (ex Affimétrie). Dans cette mesure sont intégrés les déplacements de 10 000 personnes (elles ont porté pendant 9 jours, un « meter », un boitier spécifique, précis sur la localisation GPS), des mesures déclaratives de déclarations de déplacements (smartphones), les points d’intérêts géographiques (magasin, services publics, réseaux de transports, …), toute l’open data INSEE, et des données payantes de telco ou d’autres acteurs.

Jean Noël Zeh a aussi montré 2 cas de « research for good », comme la mesure des flux dans un camp de réfugiés Rohingya au Bangladesh pour permettre d’établir des points d’eau ou des centres de soins.

Troisième intervention : le consommateur expliqué par ses neurones (Vinod Venkatraman , Professeur, Temple University).

Nous sommes repartis dans le cerveau humain ou plus exactement dans les méthodes de mesure d’effets qui existent, aujourd’hui, avec la technologie (Eye tracking, facial tracking, activité cérébrale, sudation…). Mais la chose intéressante est de les avoir relier à un impact marketing sur les ventes.

Aux méthodes nouvelles, Vinod Venkatraman a testé aussi les méthodes plus classiques d’interrogation (groupes ou questionnaires). C’est l’objet d’un article primé en 2015 à l’ARF aux USA (sur de petits échantillons…). La conclusion est bonne pour une société d’études. Que ce soient des mesures d’eye tracking, biométriques, EEG ou questionnement, chacune apporte un voire plusieurs éléments de réponse différents à l’élasticité publicitaire sur les ventes. Autrement dit, c’est en utilisant toutes les méthodes que l’on a une vision complète et pertinente. Pour avoir, nous-même, hybridées plusieurs méthodes, nous ne pouvons qu’être en accord avec cette conclusion !

En application, Katell le Coueffic a présenté le « creative lab » qui permet, en une journée, de mettre en oeuvre la plupart des méthodes indiquées et d’avoir des pistes d’optimisation sur du matériel publicitaire non finalisé. Nous supposons que ceci sera plutôt l’apanage des grands sociétés clientes.

En conclusion, une des phrases prononcées en introduction par Helen Zeitoun :

« science et études, le ticket gagnant pour ne pas dire n’importe quoi »

(combien d’entre nous devraient s’en inspirer !).

La fin de l’individu, voyage d’un philosophe au pays de l’Intelligence Artificielle (Gaspard Koenig) (un résumé d’un livre non lu !)

Share This:

Nous avions déjà eu le plaisir d’écouter Gaspard Koenig (GK) lors d’une conférence TEDX Paris. Le 27 septembre 2019, il présentait son nouveau livre qu’il a « résumé » pendant une heure à Station F, (grand amphi complet). Ce compte rendu est fait sur ce « résumé » pas sur la lecture du livre (acheté mais non lu !).

Le sous-titre de ce livre pourrait être

« remettre l’église au milieu du village » !

Pour lui, il faut remettre l’humain dans l’IA, c’est-à-dire en maître de ses propres données.

Comment y arrive-t-il ?

Il a rencontré près de 120 chercheurs, entrepreneurs, intellectuels, magicien… en France, UK, Israël, USA, Chine … Bel effort (sponsorisé par Le Point) pour un philosophe non spécialiste de l’Intelligence Artificielle.

Au passage, GK fait remarquer que rencontrer des interlocuteurs sur ce sujet n’est pas facile, car ils sont pressés, stressés, soumis à des enjeux financiers importants et n’ont aucune envie de rencontrer un philosophe !

Quelques tacles :

  • Ces interlocuteurs n’ont aucune culture. La référence la plus ancienne qu’il a pu entendre dans la bouche de ses interlocuteurs était … « star wars »
  • Ce sont les physiciens qui ont toujours joué les « Cassandre » sur l’IA en se basant sur des théories très très peu probables alors que les mieux placés pour en parler, les informaticiens, sont eux réalistes (Yann le Cun, Facebook, sort un livre dans 15 jours sur le sujet) et savent très bien que l’IA est très très loin de cette prise de contrôle.

Alors faut-il avoir peur ou non de l’Intelligence Artificielle (IA)?

Dans l’absolu, Non ? mais…

Dans l’expression Intelligence Artificielle, il y a intelligence et celle-ci est le produit d’une évolution biologique depuis des milliers d’années qui nous a donné le pouvoir de conceptualiser. Donc, tant que l’IA en reste aux calculs de l’ordinateur, aucun risque de dépassement ou de rapprochement de l’homme par la machine.

L’IA et le travail ?

GK n’est pas inquiet sur ce que l’on appelle « la fin du travail ». Le travail étant un sens commun, l’IA ne peut le tuer car l’IA n’a pas de sens commun. Elle peut être très précise dans 99% des cas mais dans 1% elle conduit à de grosses « conneries ». Ces erreurs ne sont pas une histoire de répétitivité des taches, mais de sens commun. Ex : un serveur dans un café ne peut pas être remplacé par une machine car toutes les décisions qu’il doit prendre sont multiples et différentes à chaque instant et dans chaque lieu.

Il est probable que des métiers disparaîtront et se créeront. Le danger de l’IA peut venir si nous changeons notre environnement pour nous adapter à celle-ci. C’est ce qui semble se produire dans les ports gérés par les chinois où toute l’infrastructure est conçue pour l’IA et non plus pour l’homme. Nous avons à faire un choix de civilisation.

(Si on raisonne par l’absurde, il paraîtrait qu’1/3 des emplois sont des « boulots à la con » (les bullshit jobs). L’IA ne saura pas faire un boulot à la con !!).

IA et le libre arbitre ?

C’est sur ce point qu’est le danger, selon Gaspard Koenig.

Ces systèmes nous connaissent mieux que nous-même, ils connaissent notre environnement, ils nous donnent des conseils, ils nous conduisent à des choix optimaux. Nous allons alors leur déléguer notre capacité de choix. Cela signifie la fin du libre arbitre. Or, celui-ci est le fondement de nos systèmes sociaux (le fondement du système juridique américain par exemple).

On assisterait alors à une transformation culturelle radicale (chaos ?) car l’IA cherchera à optimiser la « performance » d’ensemble et non pas la performance individuelle, on irait alors vers « ce qui est le moins mauvais pour soi compte tenu d’un optimum pour l’ensemble ».

2 exemples :

  • Google maps vous indique le meilleur trajet pour désengorger le trafic pas le trajet le plus court, l’itinéraire égoïste, que vous vous choisiriez probablement.
  • Les applications de rencontres font face à l’illogisme humain. Les recherches ont montré que les femmes recherchaient un compagnon de leur tranche d’âge (une droite entre âge du demandeur et âge du demandé). Les hommes, bloquent leur curseur de compagne recherchée à 24 ans quel que soit leur propre âge (une asymptote). Les algorithmes ont alors besoin de nombreuses informations pour découvrir les désirs implicites sous des choix explicites, de façon à ce que l’ensemble du réseau soit satisfait.

IA et causalité ?

L’IA fait disparaître la notion de causalité et donc l’utilité des théories ou des lois.

Le fait de disposer de toute l’information permet de se passer de la notion de causalité.

Ex : la société Didi en Chine (le Uber chinois) a plus de 90% du marché des VTC en Chine. Elle dispose donc de toutes les informations. Cette société ne fait plus de politique de prix pour attirer les chauffeurs (offre et demande) vers certaines courses lointaines mais se contente de faire du dispatching de chauffeur pour assurer l’optimum d’ensemble. L’information étant complète, la notion de marché disparait. Il va plus loin en s’interrogeant sur la pérennité de la notion de justice, des lois en tant que telles.

IA et différences culturelles ?

Le Chine a fait de l’IA une priorité absolue tant sur le fond que sur le financement.

Les chinois n’ont aucun tabou, aucune limite, et ceci leur permettra d’atteindre un bonheur collectif. La passion de la Chine pour l’IA correspond parfaitement aux valeurs confucianistes qui reviennent en force. Les chinois parlent d’ailleurs de leurs inventions avec une grande candeur. Gaspard Koenig a alors projeté quelques verbatim comme « les jeux video permettent de rendre les gens accro pour mieux les contrôler (parti communiste) ».
Aux USA et en Europe, la prospérité allait de pair avec la liberté individuelle. L’IA remet en cause cette équation. Plus vous voulez de croissance, plus vous devez sacrifier la liberté individuelle, ce qui va à l’encontre des fondements mêmes des sociétés occidentales.

La notion d’impérialisme a d’ailleurs évolué en passant d’un impérialisme territorial à un impérialisme numérique dans lequel les gouvernements sont perdus.

Conclusion : un modèle alternatif ?

Le rétablissement de l’individu dans ses prérogatives humaines est le cœur de sa réflexion.

L’humain doit prendre conscience de l’extrême important du flux sortant des data, sa propriété privée, ses données personnelles. C’est notre bien et nous devons avoir le droit de le sortir du marché ou d’y rester !

GK fait la promotion des portefeuilles électronique de données : « Chacun doit pouvoir contrôler son propre nudge » !

Pour atteindre ce but, GK a besoin de « potes » listés ci-dessous. En cliquant sur chaque nom, vous verrez dans quelle lignée philosophique ou pratique ils/elle se situent.

Daniel Dennett

Harry Kloor

Jaron Lanier

Margrethe Vestager

Nous espérons que ce « résumé », loin d’être parfait, vous donnera envie de lire ce livre ou de réfléchir sur les notions de biens communs, libre arbitre, théorie, causalité et confucianisme.

(Et c’était chouette de retrouver Jimi Fontaine a cette conférence 😊)

Perdre la moitié de son CA pour … mieux : le cas SIRDATA

Share This:

Une première, dans tracks&facts, une interview de Benoît Oberlé, fondateur et CEO de SIRDATA (merci à Benoît Oberlé et Nathalie Harding pour ce moment).

  1. Les faits

2 étapes à cette baisse de 50% du CA

  • La première est arrivée le 1er janvier 2018 quand les annonceurs et leurs agences ont coupé leurs approvisionnements en données tierces, par précaution, en attendant des retours juridiques sur l’interprétation du RGPD (le Règlement Général pour la Protection des Données). Même si SIRDATA avait déjà entamé son processus de mise en conformité, le gros du flux d’information est passé à Zéro (pour un temps). D’où un certain chaos, pendant le 1er trimestre 2018, pour intégrer cet impact financier, rassurer (interne et externe) et voir les flux repartirent petit à petit, notamment, grâce à l’obtention du label ePrivacy seal, en avril 2018.
  • La seconde a été la mise en conformité du réseau SIRDATA. Là, il était nécessaire d’auditer, de vérifier la mise en oeuvre d’actions auprès des fournisseurs (une page de vie privée sur le site, une mention et un lien vers SIRDATA, l’affichage du bandeau cookie…). La conséquence a été la perte de 35% d’entre eux, ceux qui ne comprenaient pas que ce n’était pas un caprice de l’entreprise mais une nécessité légale. Dans cette étape, il a fallu aussi intégrer le choix de l’internaute, et donc de respecter une demande d’opposition pour obtenir un consentement valide.

 

« On est passé d’un monde où l’on pouvait tout faire sauf quand l’internaute disait STOP,

à un monde où l’on ne peut rien faire tant que l’internaute n’a pas dit OUI ».

  1. Pourquoi avoir choisi le consentement de l’internaute plutôt que l’intérêt légitime comme base légale?

Le consentement ou l’intérêt légitime sont des finalités permises par le règlement. Mais, quand la raison d’être de la société est la data, comme SIRDATA, on est exposé, les partenaires aussi, on ne peut, alors, prendre des risques. Benoît Oberlé a fait ce choix de la recherche de consentement car il n’avait pas le choix, tout simplement, quel qu’en soit son prix !

« Penser que la CNIL serait indulgente était et est une erreur »

Aujourd’hui, le marché est majoritairement dans la phase d’acceptation du consentement légitime. Les acteurs font désormais ce travail de conformité même s’il y a un manque à gagner.

  1. Quelles leçons de cette année 2018 ?

  • Une meilleure compréhension du marché et notamment la centralité du rôle des éditeurs.

“On sous-estime la pression sur leurs épaules et le sentiment d’isolement que peuvent
connaître certains de leurs collaborateurs coincés entre obligations réglementaires et impératifs
économiques.”

  • La compréhension juridique est l’autre leçon. Il fallait comprendre le texte juridique (jargon) mais aussi, et surtout, passer aux actions, comme être capable de paramétrer correctement des outils comme les CMP qui sont et restent des moyens de conformité et non des gages de conformité.

« Nous avons compris le lien entre le texte, l’objet du texte et la mise en musique du texte ».

  • Et d’un point de vue plus personnel, il a fallu apprendre à « parler » et à échanger avec l’industrie pour progresser.

« Mettre de l’eau dans son vin pour avancer, mettre en oeuvre sans renoncer à ses exigences ! »

  1. Les bénéfices de l’année 2018 ?

« Nous y avons gagné  quelques lettres de noblesse, sans être les seuls, bien sûr »

Ils sont nombreux!

Une équipe plus experte autour de la donnée, de la privacy et des services associés, soudée par ce choc de marché. Il a permis de montrer que le RGPD donne à l’utilisateur un contrôle, le droit à la portabilité de ses données. Ceci ne signifie pas la disparition du ciblage qu’il soit comportemental ou contextuel à des fins publicitaires.

Un élargissement de l’activité de plusieurs façons. Comme le marché évolue, il a fallu couvrir les SSP en plus des DSP.  Le second élargissement est, depuis 2018, de mettre à disposition en mode SaaS, son outil de traitement sémantique.

Une agilité face au processus légaux qui a permis des gains de parts de marché, de  nouveaux éditeurs,  une notoriété et une crédibilité marché supérieure, avec une implication plus  forte au sein de l’IAB France ou l’IAB Europe.

Mais surtout, l’entreprise a renforcé sa capacité à expliquer ses méthodes et outils. Elle propose de nouveaux produits ou services tels que l’intégration de la fonction conseil dans l’entreprise.  Enfin, une gestion d’entreprise saine avec un risque faible.

  1. Demain ?

a) e-privacy ?

La crainte qui plane sur le monde publicitaire, est celle d’une e-privacy DURE, soit le contrôle des cookies par le navigateur. Une mobilisation commune demeure impérative, c’est une question de survie et même de souveraineté.

Le marché doit montrer aux régulateurs qu’il sait s’organiser pour respecter la vie privée et qu’une régulation dure, sur ce point, n’est pas nécessaire. Que ce soit en France ou dans d’autres pays (Europe, USA, …), il semble y avoir une quasi-unanimité, non pas des positions encore, mais au moins sur l’objectif. La construction du TCF (Transparency Consent Framework) en est une et se doit d’apporter une réponse avant le texte.

« C’est la première vraie construction commune positive et ouverte que je vois en 20 ans de marché ».

b) L’avenir du third ?

L’avenir du 3rd? il faut élargir au 2nd, 1st car le consentement concerne tous les types de données!

De toute façon, cela passera par un point, le contrôle permis à l’utilisateur. Il faudra une génération pour que chacun comprenne ce qui se passe avec la data – une opportunité de new deal. Par exemple, il ne faut pas condamner la « cookie fatigue » : chaque bandeau d’information qui s’affiche participe à l’éducation des internautes, il faut qu’il y en ait jusqu’au jour où même l’utilisateur le plus prompt à passer ce type de message en prendra connaissance, puis en lira un autre. L’internaute qui contrôle et comprend ce qui se passe et les outils qu’il a à sa disposition, voici ce qui laissera aux acteurs du marché une chance de monétiser les données personnelles : s’il ne comprend pas…. ou ne peut pas contrôler dans le temps (nécessité d’un bouton “cookies” ou équivalent pour modifier ces choix à posteriori)…., le risque est que l’utilisateur dise non à tout, tout le temps

 

En conclusion, nous avons rencontré un entrepreneur qui a plus de cheveux blancs après une année 2018 compliquée et riche (nous n’avons pas parlé du contrôle fiscal intervenu aussi en 2018 avec comme résultat … aucun redressement) mais résolument optimiste quant à l’avenir de la publicité digitale et de son entreprise, cela fait plaisir !

KPIs : performance killed the branding star ou la démesure de la mesure

Share This:

tribune d’Olivier Goulet (iligo) et Isabelle Le Roy (tracks&facts) dans CB Expert (avril 2019) et intervention à l’IREP Forum de mai 2019

Le tube des Buggles en 1980 (« Video killed the radio star ») était pour le moins visionnaire, 25 ans avant la création de YouTube en 2005. Pour pasticher ce tube, la question se pose de savoir de savoir si la recherche de l’efficacité à court terme dans les actions de communication n’est pas en train de tuer la publicité elle-même.

Il existe un risque non négligeable. En voici les raisons.

DE LASCAUX A LIKE MOI

Le sens historique de la communication (qu’elle soit de marque, mais aussi d’opinion) était de construire des représentations symboliques qui puissent se transmettre aux et entre individus. Les peintures de l’art pariétal, encore visible à Lascaux, poursuivaient probablement cette fonction. Au XXème siècle, l’application de cette fonction a conduit à la création de marques fortes, d’institutions fortes. Conséquemment, la chose publicitaire devait bâtir des marques et des institutions puissantes basées sur des socles rationnels ou symboliques solides. La mesure de l’efficacité de la publicité était alors de comprendre comment la marque construisait un positionnement, une image, suffisamment fortes pour justifier des actions de la part des individus (à savoir, des ventes, des souscriptions, etc.). Un certain âge d’or de la communication était né.
Et internet, le digital, arriva.

L’accélération du temps, la fascination de la traçabilité et du chiffre changea les sens et l’essence même de la communication. Ce qui est dorénavant recherché, c’est l’effet court terme de l’action.

Combien de likes, quasi minute par minute, combien d’impressions, combien de ventes idéalement dans l’instant. Et la mesure de l’efficacité de « dériver » fortement du branding vers le selling, la performance
Quel est l’intérêt de mesurer la construction de la marque ou de l’institution? Il faut mesurer si elles sont achetées, utilisées à court terme.
C’est très louable, certes, mais cela suppose, quand même, que la marque a un fonds (de marque), une forme de construction de son positionnement qui précède la vente. En effet, on achète rarement quelque chose qu’on ne connaît pas et dont on n’a aucune connaissance fonctionnelle ou symbolique.
Et cela demande, surtout, de maîtriser le calcul du fameux R.O.I (Retour sur Investissement). Mais, si l’on veut que la mesure de l’efficacité fasse un lien avec les « ventes », il est nécessaire de rappeler quelques fondamentaux.

LE R.O.I EST NU      

Trois fondamentaux à rappeler sur ce fameux ROI.
1. La communication, même dans son acception « selling », ne sert pas qu’à générer des ventes supplémentaires (additionnelles, incrémentales), elle sert surtout, notamment dans les pays économiquement matures, à maintenir des ventes. Si l’on calcule uniquement l’«uplift », on nie le fait que, sans communication, les ventes auraient probablement décru.
2. La communication est financée par la marge des entreprises et non par le chiffre d’affaires. On voit très souvent des « best cases » (parfois récompensés dans des Prix d’ailleurs), montrer qu’avec une campagne, de 250 000 euros, par exemple, a généré 500 000 euros de ventes dites incrémentales. Un ROI de 2 dit-on ! Mais en fait non. Car si vous investissez 250 000 euros en communication avec une marge de 10%, c’est 2 500 000 ventes qu’il faut générer pour créer un ROI positif et 5 millions pour un ROI de 2. Combien de campagnes génèrent cela à court terme ? Une longue expérience nous fait affirmer : pratiquement aucune !
3. Comment, à quoi attribuer ces ventes « incrémentales » ? Une campagne, ce sont des centaines de prise de paroles. Tout doit-il être affecté au dernier contact ? Cela semble absurde (contestation du last clic par exemple…), et pourtant, c’est très souvent le choix effectué. Faut-il modéliser ? C’est beaucoup mieux, mais ne doit-on modéliser que les ventes à court terme.

BRAND WILL BE BACK 

Alors, faut-il être défaitiste et ne plus croire à l’efficacité de la communication ? NON !
Cependant, il faut rééquilibrer les choses et construire le BRANDING tout autant que le SELLING. Est-ce possible ? OUI ! Et ce n’est, d’ailleurs, pas nouveau. Nous faisons référence, par exemple, à un papier paru en 1999, dans, l’excellent déjà, CB NEWS où l’on montrait, une expérimentation avec le groupe TOTAL, qu’il était possible de croiser les données de ventes (SELLING) avec une mesure d’efficacité de la communication (BRANDING) sur la simple base d’un fichier client (déjà le « One to One »).
La solution est là : croiser, sur de mêmes individus, les datas enregistrées sur les ventes avec une mesure branding. C’est une manière supplémentaire de valoriser cette fameuse data. Cela nécessite, bien sûr, que l’annonceur dispose de données clients, mais c’est de plus en plus le cas grâce au digital. Et dans le cas contraire, il est possible de faire appel à des panels consommateurs existants.
Cette revalorisation de la marque, à l’heure du tout performance, est d’ailleurs urgente.

MORT AUX MARQUES FAIBLES ! 

Ne nous trompons pas de révolution digitale. Le search et les réseaux sociaux ont plus de dix ans. Google et Facebook sont devenus des acteurs majeurs du monde de la communication d’aujourd’hui. Mais, leurs modèles, bien que rupturistes, ne remettaient pas en cause les fondamentaux de la communication. Une marque faible avec quelques moyens pouvait émerger.

 

Tout ce qui arrive ou va arriver, que ce soit d’ordre technologique (IA, Voix, Virtuel, Crispr-Cas 9, Nano, 5G, Quantique…) ou sociétal (âge, urbanisation, temporalité…), est encore plus impactant. Nous connaissons aujourd’hui, en tant qu’individus, les bulles de pensée. Les marques demain, devront s’intégrer dans des bulles, des écosystèmes, de consommation dont elles ne seront pas maîtres. Dès lors, développer des marques fortes et mesurer leurs forces, tout autant matérielles, symboliques, que sociales, est crucial.

L’optimisation du SELLING est important, mais la communication ne peut se résumer à cela, sinon elle perdra, et son sens et sa légitimité.

Le monde vu par… (c’est beau)

Share This:

Le monde vu par Scott Reinhard en cliquant sur l’image ci-dessous

Visibilité en TV? comparable à la visibilité digitale! (USA)

Share This:

IPG Media Lab a publié, récemment (19 mars 2019), une étude sur la visibilité TV aux USA.

Que signifie l’expression « Visibilité TV »?

On connait la visibilité « digitale »: l’individu est devant son appareil,  des publicités sont délivrées mais il ne pourra pas les voir.

La visibilité TV c’est l’inverse, les publicités sont toutes diffusées mais l’individu n’est pas devant son poste.

Pour mémoire, en Télévision,  l’audience est définie par « la présence dans la pièce où le poste est allumé ». Chaque individu, faisant partie du panel, doit appuyer sur un bouton d’une télécommande quand il rentre ou sort de la pièce.

IPG a utilisé les services de TVISION (société dont nous vous avions parlé ici, en octobre 2017 en saluant leur approche) pour mesurer 2 choses:

  • la présence dans la pièce où le poste est allumé quand des publicités passent à l’écran TV – LA VISIBILITE (une présence de 2 secondes ou plus dans la pièce)
  • les individus présents dans la pièce ont-ils les yeux  posés sur les publicités (Eyes on) – L’ATTENTION (les yeux posés sur la publicité pendant 2 secondes ou plus)

De la science fiction, non, un panel (représentatif de la population américaine sauf en géographie) équipé des bons outils et de la technologie a gogo pour analyser et rapprocher les informations avec ce qui est diffusé.

Donc , quel résultat?

Dans 29% du temps où des publicités sont diffusées, le poste de TV est allumé et … personne n’est présent dans la pièce.

La visibilité TV est donc de 71%. Un comparatif est fait avec le digital qui, selon la source (extreme reach) citée, serait de 69% , donc des chiffres comparables.

Cette visibilité est variable selon

  • les secteurs publicisés, de 65% (loisirs) à 75% (produits pharmaceutiques)
  • les tranches horaires (76% en prime)
  • la position dans l’écran (début d’écran: 72.2%, milieu: 70.3%, fin d’écran: 69.9%)

et les publicités les plus longues sont les plus visibles (logique!).

Mais, malgré tout, c’est en prime time que l’ATTENTION est quasiment la plus forte (indice à 116).

Le comparatif avec la France est bien évidemment tentant, pourtant nous n’irons pas jusque là! Les publicités TV aux USA et en France n’ont strictement rien à voir, un déferlement américain permanent et imbriqué dans les programmes par rapport à des minutes limitées en France et des plages publicitaires clairement identifiées.

Mais dans l’absolu, est ce un problème cette non visibilité annoncée?

Il manque une chose dans cette étude, le rapprochement avec le « bouton poussoir ».

Nous pouvons nous tromper, mais dans cette approche, il n’y a pas de bouton-poussoir pour signaler ou non sa présence dans la pièce puisque tout est fait automatiquement par détection de forme, orientation du visage… Donc l’absence des individus est constatée, mais est-ce que les individus, s’ils avaient eu un bouton pour signaler leur départ de la pièce, l’auraient fait ou pas? Ne met-on pas en avant alors, un faux problème ?

Ce qui est sous entendu ici, est qu’en TV comme en digital, les annonceurs payent pour une audience qu’ils ne peuvent avoir. Mais, dans un cas, le digital c’est, trop souvent, une ingénierie technique frauduleuse (même si les choses s’améliorent) qui en est la cause  (quoi qu’il se passe l’individu n’aura aucune chance de voir la publicité) quand, pour la TV, c’est le choix d’un individu, le spectateur, ce qui change tout, même si le résultat pour l’annonceur est le même.

La question importante, à notre sens, dans les 2 cas, est de savoir si les individus ont vu, porté attention à la publicité. Le débat est loin d’être clos et on aimerait beaucoup voir mis en oeuvre en France des dispositifs tels que ceux mentionnés dans cette étude pour le mesurer. Mais nous en avons déjà parlé ici ….

 

 

Google, Facebook, Amazon les garants de notre vie privée (compte rendu partiel d’un petit déjeuner IREP)

Share This:

Le 28 mars 2019 à l’IREP, nous avions le plaisir d’animer un petit déjeuner intitulé « Data et publicité, où mettre le curseur entre les besoins d’une profession et la protection de l’e-privacy ? « 

2 intervenants ont débattu de ce sujet:

un économiste, Marc Bourreau (professeur à Telecom ParisTech)

un professionnel, Erwan le Page (Directeur général de MediaSquare)

Nous ne publions pas l’intégralité du compte-rendu écrit car celui-ci est réservé aux membres de l’IREP (profitez en pour vous inscrire!!) mais seulement un extrait, c’est dommage car c’était passionnant!

Marc Bourreau a publié en 2018 un article « The value of consumer data in online advertising ». Il y explique un modèle théorique, mathématique, construit en économie pour aider la réflexion sur certaines questions :

  • Quelle est la valeur des données échangées sur des marchés en ligne ? Quels sont les déterminants de cette valeur du côté des plateformes programmatiques?
  • Quelle est l’influence de la structure des marchés des plateformes programmatiques (une plateforme très dominante, en monopole, vs des plateformes en concurrence accrue entre elles)
  • Quel est l’impact de la structure du marché programmatique ? La présence de nombreux annonceurs sur ce marché va-t-elle avoir une influence sur le nombre de données échangées, et sur leurs valeurs ?

Dans ce modèle, une plateforme programmatique a des informations sur les individus (sexe, …centres d’intérêts, …informations anonymisées ou sous forme de cibles). Cette plateforme, financée par la publicité uniquement, vend des espaces publicitaires à des annonceurs sur la base d’enchères au second prix, comme le marché de la publicité en ligne.

Le modèle permet de déterminer le niveau d’informations individuelles révélé par la plateforme programmatique à l’annonceur (ie publicitaire) pour la bonne adéquation entre le profil recherché et le profil proposé. Il permet de déterminer, aussi, à quel prix est vendu l’espace publicitaire en fonction du nombre de données révélées par la plateforme programmatique

Résultats ?

Nous mettons ci-dessous un graphique extrait de l’article pour faciliter la compréhension du lecteur. Le « social planner » (planificateur social) est une construction artificielle, un régulateur, ici une plateforme étatique qui n’a pas pour but le profit. En abscisse, à l’horizontal, le nombre d’annonceurs. En ordonnée, à la verticale, le nombre de caractéristiques individuelles utilisées. Chaque courbe correspond à 3 situations de concurrence.

  1. Plus il y a plus d’annonceurs qui participent à l’enchère, plus la plateforme révèle des informations quelle que soit la situation concurrentielle.

Selon Erwan Le Page, on peut interpréter le résultat aussi dans l’autre sens : « c’est parce qu’il y a plus d’informations qu’il y a plus d’annonceurs ». Une plateforme programmatique a toujours intérêt à avoir beaucoup d’annonceurs. Dans un système d’enchères, s’il n’y a pas de densité sur l’enchère, il n’y a pas de prix qui puissent monter. La première mission des plateformes programmatique est, absolument, d’attirer le plus grand nombre d’acheteurs possibles. Et pour cela, et peut-être les motiver, il faut proposer plus d’informations, avoir des typologies de profils proposés vastes pour pouvoir atteindre un CA plus important.

  • Une plateforme en monopole va révéler moins d’informations que des plateformes programmatiques en oligopole

Les plateformes en concurrence vont chercher à attirer des annonceurs, et pour attirer les annonceurs, elles vont essayer de leur promettre le « meilleur repas possible », et celui-ci va être obtenu en donnant le maximum d’informations pour que les annonceurs sachent bien, puissent bien anticiper, quelle est la valeur du consommateur proposé par la plateforme.

Si l’on reformule ce résultat cela signifie que Facebook, Google ou Amazon… sont les meilleurs garants de nos données « individuelles », ce qui peut paraitre surprenant mais est, finalement, logique dans le sens de cette recherche (Isabelle Le Roy)

Dans le modèle, le monopole révèle moins d’informations que le « planificateur social » (cf plus haut pour la définition)

Le planificateur social se soucie du fait qu’il y ait des bons matchs dans cette économie. Un bon match, signifie aussi plus d’échanges économiques, ce qui est bon pour l’activité de la société, donc au final tout le monde est content, les consommateurs, les entreprises… Le monopole va avoir une stratégie un peu malthusienne, de recherche de la maximisation du prix de l’espace publicitaire plutôt que la valeur de l’espace publicitaire. Le planificateur social, lui, va essayer de maximiser la valeur de l’espace publicitaire, ce qui est différent.

  • Pour la Société, donc pour l’ensemble des agents dans cette économie (les consommateurs, les annonceurs et les plateformes), la valeur sociale incrémentale de l’information est décroissante avec la quantité d’informations révélée. Plus on révèle d’informations, plus révéler une unité d’information supplémentaire va avoir une petite valeur.

Ceci peut se voir dans le graphique suivant où n est le nombre d’annonceurs.

et la suite c’est pour les membres de l’IREP où les participants au petit déjeuner!

En Australie, la TV poursuit la démonstration de son efficacité ventes vs YouTube et Facebook (ça fait mal…) (compte rendu partial et partiel conférence SNPTV)

Share This:

Le 25 mars 2019, le SNPTV organisait une conférence sur le thème « la matinée de l’efficacité TV ».

Le « clou du spectacle » était le retour (un an après) de Karen Nelson-Field, la chercheuse commissionnée par le groupement des TV australiennes pour étudier l’efficacité de la TV vs YouTube et Facebook.

Nous nous étions fait l’écho de ses premiers travaux en octobre 2017 (nous étions les premiers à en parler en France  ) avec un premier article, au titre un peu racoleur nous en convenons, « comment la TV australienne défonce Google et Facebook ». Vous y retrouverez la méthodologie fort impressionnante (gros échantillons, Eye tracking, Magasin virtuel, Intelligence artificielle…).

Puis en février 2018, elle était venue présenter la suite. Nous en avions parlé dans «  le match TV vs YouTube et Facebook continue, 2 à 1 pour la TV ».

Et là, on s’approche du score d’une finale de coupe de monde (en 1998), 3 à 0 pour la TV vs YouTube et Facebook!

Alors, un petit rappel (avant les nouveautés)

1ère étude

  • L’attention publicitaire est plus forte sur l’écran TV (58%) quand YouTube (sur PC) est à 45% et Facebook (sur PC) est à 20%
  • Corrélation forte entre attention et ventes
  • Impact ventes (mesurée en STAS) en faveur de la TV (144) > YouTube (118) > Facebook (116)

 2ème étude

Prise en compte du mobile, ce qui est plus juste pour Facebook dont c’est l’appareil d’utilisation dominant (plus de 80%) et qui a élargi l’étude à l’intégration de la TV sur PC et mobile (replay), YouTube sur PC et mobile, idem pour Facebook.

  • L’attention est plus forte sur mobile pour tous (intrinsèque avec le device, il est plus près de nos yeux)
  • Même sur le mobile, c’est toujours la TV qui a l’attention la plus forte. TV sur mobile attention à 63% quand YouTube est à 54% et Facebook à 54%.
  • Et, cela se retrouve dans les ventes (STAS) TV a un STAS de 161, quand YouTube est à 137 et Facebook 121.
  • La raison en serait, simplement, l’occupation de la publicité dans l’écran physique.

Les nouveautés?

Quelle est la durée de l’effet ventes mesuré à 1 jour, 14 jours et 28 jours ?

  • La publicité TV a une rémanence largement plus forte. L’effet YouTube décroit 3 fois plus vite que la TV (mais en partant plus haut que Facebook). L’effet Facebook décroit 2.5 fois plus vite.

Quel est le meilleur « écran » ?

  • La pub TV sur écran TV a l’effet le plus long même si son STAS de départ est plus bas que la TV sur mobile

Et quelle est la meilleure complémentarité, à votre avis ?

  • Le couple gagnant c’est TV sur écran TV + TV sur mobile (replay)

Enfin, on touche qui des petits, moyens, gros acheteurs ?

Un media avec une forte couverture touche a priori tout le monde donc aussi des petits acheteurs qui sont ceux qui font la croissance des marques

  • Facebook est sous performant par rapport à sa pénétration en Australie  
  • Et, en prenant une marque de chocolat, que ce soit Facebook, Instagram ou Snapchat (YouTube non mentionné ici), sont touchés en majorité les gros consommateurs quand la TV  a une distribution attendue par rapport à sa pénétration.

Vous en voulez encore ?

Ça suffit pour cette fois ! Mais… à venir, la même étude aux USA et en Grande Bretagne (ils ont les moyens de se payer de belles études eux!) et en Australie, Karen Nelson-Field va s’attaquer à l’effet programme.

Alors, bien ou pas bien cette étude?

C’est vrai qu’en étant payé par le syndicat des TV australiennes, on s’attend à ce que les résultats soient en faveur de la TV mais la méthodologie montrée (on en a vu un peu plus cette fois-ci que les fois précédentes) est sérieuse, même si, dans l’absolu, nous ne sommes pas les plus grands fans du magasin virtuel et du STAS. Nous rêvons de voir la même étude réalisée en France.

Vous trouverez la présentation de l’étude australienne sur le site du SNPTV ici ainsi que les 2 autres études présentées lors de cette matinée

Les clés d’un parrainage TV efficace d’Impact mémoire

Effet de contexte et impact sur l’efficacité publicitaire – Harris Interactive

L’ADN des gouvernements (c’est beau et intéressant)

Share This:

Les amateurs de peinture connaissent les fresques allégoriques du bon et du mauvais gouvernement à Sienne.

Aujourd’hui, on fait les choses un peu différemment, et une très belle infoviz (gagnante de prix) a été faite pour nous montrer l’ADN des gouvernements.

Alors cliquez ici pour la voir

« Older posts Newer posts »