Page 2 of 14

Marketing Remix 2019 de Viuz (compte rendu partial et partiel)

Share This:

Comment faire un compte rendu quand vous n’avez pu vous rendre à un évènement (à notre grand regret) ? C’est simple, il suffit de regarder les vidéos de l’évènement ! C’est ce que nous avons fait pour le Marketing Remix du 7 novembre 2019, organisé, comme tous les ans, par Viuz.

Une première cette année, les duettistes organisateurs habituels, Patrick Kervern et Andres Menajovsky, n’étaient plus qu’un solo, Andres (qui fut appelé Patrick par une intervenante, comme Patrick que l’on appelle aussi Andres !)

Merci à VIUZ de faire une conférence où les femmes sont nombreuses à prendre la parole !

Regarder des vidéos, ce n’est pas pareil que d’assister à l’évènement:

  • Avec la vidéo vous ne voyez pas l’écran où l’intervenant projette sa présentation mais seulement son visage et sa voix. Cela limite les effets que les uns et les autres ont pu ou du vouloir faire.
  • Une vidéo vous donne une autre liberté, celle d’arrêter de suivre et donc celle de passer à autre chose… De l’importance du « choc de l’intro » !
  • La vidéo vous donne le choix aussi de ne pas voir X ou Y car, en général, vous n’apprenez rien de cette personne…
  • La vidéo vous met aussi face à un contenu énorme ou la question est comment optimiser le temps et ne voir que ce qui est bien ! Impossible de répondre à cela (on a eu l’aide d’une copine qui a assisté à l’évènement !) et il ne faut surtout pas se fier au nombre de vues de chacune car pour avoir écouté certaines parmi les plus regardées et à l’opposé certaines qui recueillent peu de vues il n’y a pas de corrélation avec le contenu (selon nous) !

Alors nous vous proposons, dans cet ordre, les impressions suivantes :

  • CONVAINCUE et CONVAINCANTE : Amélie Oudéa-Castera, CARREFOUR
  • CASH : Jérôme Sutter, PURESSENTIEL
  • ON AIME : Isabelle Bordry, RETENCY
  • COURAGEUX et PERSEVERANT : Bastien Schupp, Groupe RENAULT
  • TENDANCE : Arnaud Caplier, THE CONTILLERY
  • FIERE DE SON JOB : Aude du Colombier, TEDIBER
  • ETONNANT ET INTERESSANT : Philippe Guillaud, MATCHTUNE
  • BRAVOOOOOO : Guillaume Lacroix, BRUT
  1. COMMENT L’INTELLIGENCE ARTIFICIELLE TRANSFORME LE MARKETING DE CARREFOUR

Amélie Oudéa-Castera, Directrice exécutive e-commerce, data et transformation digitale | CARREFOUR |

Impression : CONVAINCUE et CONVAINCANTE

L’entreprise Carrefour (CRF)

CRF au croisement de toutes les disruptions : les transformations des règlements, des technologies des usages, la crise de confiance, l’intensité concurrentielle. La seule chose qui ne l’affecte pas, ce sont les taux négatifs (qui sont plutôt une chance !). La situation est donc complexe mais l’envie de réussir est là, pour les 380 000 employés dans le monde, parce que c’est une belle entreprise française et une marque qui a vécu et avancée avec nous tous.

Le plan CARREFOUR 2022

Un plan de transformation engagé par Alexandre Bompard, depuis janvier 2018, 5 années cela passe extrêmement vite !

Quatre grandes idées dans ce plan

  • la transformation alimentaire. Rendre le mieux manger accessible à tous en respectant la planète et en ayant une juste répartition du profit le long de la chaine de valeur. Cette idée est la chose la plus importante. C’est la raison d’être de CRF.
  • Réduction des coûts et hausse de la productivité
  • Simplification de l’organisation et de la culture d’entreprise
  • Omni-canalité entre les différents formats et le e-commerce pour une expérience fluide pour les clients CRF.

La data CRF

Quelques chiffres : 104 millions de foyer clients dans le monde qui réalisent quotidiennement 13 millions de transactions dans les 9 géographies du groupe soient 4.5 milliards de transactions à l’année… Les données sont plutôt propres et organisées car reflet du ticket de caisse. Mais pour autant CRF n’est pas aujourd’hui une entreprise « data centric », le but est qu’elle le devienne même si ce n’est pas simple ! Quelques exemples :

  • Le rapport entre le ticket de caisse et la transition alimentaire. Une application vous donne, en fonction de votre ticket, la répartition de votre consommation selon les catégories de nutriments et vous fait de petites analyses de type « quel est votre nutri score » dans le mois. Une information non culpabilisante pour les clients qui peut devenir un jeu pour eux avec un incentive pour améliorer son score.
  • Bâtir des ponts entre les métiers. Dans « Act for food », il y a l’engagement de retirer 100 substances controversées dans les produits proposés. Il faut être capable de passer en revue en permanence toutes les références proposées dans le monde entier et s’assurer que, par exemple, les nitrites n’y sont plus. Cela suppose d’avoir une base « d’intelligence artificielle » contenant tout ce qui est inscrit sur les étiquettes des produits plus des informations complémentaires données par les fournisseurs.
  • Le ecommerce en alimentaire n’est pas rentable. Le vrai pari avec le e-commerce est d’essayer de faire rentrer des nouveaux clients par ce canal et de les faire passer dans d’autres formats Carrefour pour que l’entreprise, au global, soit gagnante.

Le Lab avec Google ?

La data chez CRF est à la fois de la data pour tous et de la data de pointe. Le lab est installé à proximité de de station F et accueille des ingénieurs et scientifiques pour la partie algorithmique la plus avancée. Exemples : amélioration des prévisions de vente ecommerce, optimisation des assortiments en fonctions des centimètres de linéaire dans les petits magasins de proximité, management du niveau de générosité sur les coupons et personnalisation de ceux-ci.

Partenariat Google

Après une phase de scepticisme au début, la méfiance a disparu car CRF a pu bâtir des expériences de shopping intéressantes avec Google. Cette dernière ayant une très grande envie de rattraper Amazon, CRF bénéficie d’expériences sur l’IA, la voix mais développe, aussi, la suite de solutions « G suite » dans l’entreprise pour casser les silos, et utilise le cloud de Google pour toute la masse de données et leur mise à disposition rapide dans le monde entier au travers d’applications innovantes, sans parler des accords commerciaux du type mettre la google home dans les hypers à des prix attractifs. CRF bénéficie à travers le lab de l’apport d’expertise de Google notamment en matière de formation des équipes. Exemple le programme Google go transform qui était la première fois ou Google transformait son programme interne vers un client externe.

AMAZON?

Une menace de tous les jours mais aussi un moteur énorme. Amazon c’est le benchmark, « le Roger Federer du ecommerce » (Amelie est une ancienne joueuse de tennis !). Mais, l’alimentation est particulière. Le ecommerce c’est souvent le fond de panier mais la proposition de valeur d’un CRF ce sont ses formats et CRF doit se positionner aussi, par exemple, sur la livraison de nourriture bonne et fraiche à l’instar d’acteur comme Frichti, Nestor pour réaliser la première promesse du plan 2022.

VISION ?

Le mot « transformation » donne l’impression d’avoir du temps, c’est faux ! Le travail de l’équipe est d’être là pour le succès de Carrefour aujourd’hui ! C’est la société dans son ensemble qui doit se réinventer et nos générations ont une responsabilité forte car les modèles sont cassés. On doit tous souhaiter que la french touch de Carrefour réussisse !

2-      RETENEZ L’ATTENTION DE VOS CONSOMMATEURS : SOYEZ VU ET ENTENDU

Franck Da Silva, Directeur Commercial & Opérations, GRAVITY

Jérôme Sutter, Directeur Communication & E-Business, PURESSENTIEL

Impression : CASH

Jérôme Sutter a parlé cash et il peut parler cash pour avoir vécu, depuis un peu moins de 20 ans, tous les aspects du digital (site, media, agence, consulting…) et être maintenant directeur de la communication et du ebusiness.

Son budget de communication est faible. Il est pluri-media (presse, tv, radio, affichage, digital) et le digital représente la plus faible partie de son budget, paradoxal vu son parcours ?  Non, car le pragmatisme le guide et il ne veut pas dépenser son argent pour rien ! Alors, pour des opérations digitales, la réponse la plus simple ce sont les « walled garden » qui lui permettent d’agir facilement dans 10 pays, sans que cela coûte des millions. MAIS…la nébuleuse du programmatique, les kickbacks, le bullshit en matière de langage, les indicateurs faux…. « LES WALLED GARDEN, CA NOUS SAOULE, NOUS LES ANNONCEURS » (applaudissements dans la salle). La confiance n’étant plus là, il se tourne vers des gens de confiance et des systèmes transparents comme GRAVITY. Celle-ci vend, comme le dite Jérôme Sutter, un « true view » à la française 😉. Puressentiel a réalisé une opération vidéo avec Gravity et en est très très content !

3-      MESURE D’IMPACT PUBLICITAIRE PLURIMÉDIA EN MAGASIN

Isabelle Bordry, Co-fondatrice | RETENCY |

Jacques Thieck, Directeur Outils et Enablers Marketing | ORANGE |

Impression : ON AIME

Le drive to store en vrai n’est pas facile à mesurer. Il est nécessaire d’avoir un tiers de confiance pour mesurer l’effet d’une campagne sur chacune des boutiques Orange. Or, en étant dans le monde physique, pas de cookies ! La mesure doit être agnostique sur la donnée et être rigoureuse sur le mode de traitement de la donnée.  D’où la sélection de Retency (une excellente solution à notre humble avis), avec ses boitiers implantés en magasin pour compter les contacts client (via leur mobile) et son mode d’anonymisation complète de la donnée (destruction de la donnée individuelle). Orange a pu mesurer, avec Retency, l’effet de 2 campagnes drive to store classique avec 2 fournisseurs différents pour voir l’impact des formats et les pénétrations atteintes par les 2 fournisseurs (campagne fibre,  5 millions d’exposition, 22 500 visiteurs exposés se sont rendus dans des magasins des Hauts de seine). « C’est le graal » selon l’annonceur.

L’expérience ne s’est pas limitée à ces campagnes mais a été continuée pour une campagne d’affichage, une de SMS, et même les vitrines de magasin Orange.

4-      LA VIE D’UNE MARQUE, DU MASS MARKETING AU MASS PERSONNALISATION, 2 ANS APRÈS

Bastien Schupp, Vice President Global Customer Activation, GROUPE RENAULT

Impression : COURAGEUX et PERSEVERANT

Il était venu il y a 2 ans et revient faire le bilan de la stratégie de communication mise en place (il avait été très brillant dans son intervention ancienne et est toujours très bon aujourd’hui !)

L’idée de départ ?

90% des ressources sont investies sur la fin du cycle d’achat de la voiture. Or cela parait logique d’étaler les messages dans la durée pour construire une relation avec le consommateur. L’idée était alors de mettre 50% des moyens sur la construction de la marque et 50% sur le fin.

Le programme ?

3 piliers à ce programme

1-construire un eco-système data

2- construire différemment les contenus

3- acheter différemment les media

Tout ceci chapeauté par un essai de motivation des agences par de l’excellence créative et un programme de formation et d’accompagnement pour réaliser cette transformation.

Succès ?

OUI ! Au global, c’est un succès. L’entreprise Renault s’est transformée, les équipes marketing et communication aussi et la plupart des outils sont en place même s’il y en encore du travail de rationalisation à faire de ce coté-là. Il ne suffisait pas de transformer Renault il fallait transformer aussi les fournisseurs sur la manière de faire. Ainsi, les équipes de Publicis, d’OMD et tous les partenaires data sont sur un même plateau avec les équipes Renault. Cela a permis un gain de 40% sur le temps de création des campagnes.

MAIS il y a des choses simples ou banales que l’on a appris

  • Si les équipes marcom ont bien compris, les patrons des filiales qui sont poussés sans arrêt sur les volumes au quotidien, ont beaucoup de mal à opérer ce passage du 90%/10% vers le 50%/50%. La seule solution tient dans la répétition permanente dans tous les comités de direction du message et de quantifier de prouver que c’est plus efficace. Quand un pays vous suit, il sert d’exemple pour les autres.
  • Le frein principal c’est la capacité et le savoir-faire interne. Un pays qui était parfait sur la nouvelle approche pendant 6 mois, repart dans de mauvaises directions tout simplement parce qu’une personne a changé ! Il faut faire un mélange entre les nouvelles équipes et les anciennes et vérifier le travail de manière régulière
  • Les modes de l’ad tech sont insupportables, tous les jours des prestataires viennent vous dire que tout ce que vous faites est nul et qu’il faut tout changer ! Il ne faut pas écouter les sirènes, il ne faut pas essayer d’être le premier dans tout ce que vous faites, il faut réduire ses ambitions, choisir ce qui marche et ce sont, bien souvent de petites choses, et ensuite persévérer !

5-      INTELLIGENCE ARTIFICIELLE : LES DÉCRYPTAGES DE L’ENGAGEMENT VISUEL

Arnaud Caplier, Fondateur, THE CONTILLERY

Impression : TENDANCE

On parle beaucoup de data, l’effort a été porté sur la cible, le moment, le canal et quasiment jamais sur l’optimisation des contenus qui est le plus souvent vue sous l’angle de la personnalisation et non de la qualité des contenus. Or la data permet maintenant d’arriver à cette optimisation des contenus.

En data, explosion, profusion et arrivée du machine learning. Une image aujourd’hui c’est une foultitude d’information (profondeur, luminosité, pixel, salience, ….) et on peut entamer le cycle de mesure de la relation entre les caractéristiques de l‘image sur l’action (ex image sur Instagram et like). De cette mesure, on peut ensuite aller à la prévision sous la forme d’un score par image. Une image avec un score de ou un score de 9 ont des résultats finaux extrêmement différents : conversion x 2, engagement social x 10 ou x 20.

6-      TEDIBER, UNE APPROCHE DIRECT TO CONSUMER EN RUPTURE AVEC TOUS LES CODES EXISTANTS

Aude du Colombier, Co-fondatrice, TEDIBER

Impression : FIERE DE SON JOB

Création il y a 4 ans, d’une startup sur les matelas (achat important, on passe un tiers de sa vie dans un lit !) avec comme ligne directrice « remettre les clients au cœur dans tout ce que l’on fait ». L’entreprise est passée de 4 à 40 personnes avec une organisation fluide sans silo entre les fonctions. Tout le monde est actionnaire !

  • Un business model totalement intégré de la fabrication d’un matelas jusqu’à la livraison à domicile pour offrir, au client, une expérience très simple et fluide en plus du rapport qualité / prix imbattable (optimisation maximale à tous les niveaux)
  • Une réinvention des fondamentaux du marché en simplifiant le choix d’où un modèle unique de matelas
  • La mise en transparence avec un prix juste, unique, constant toute l’année. Aucune solde n’est faite pour instaurer de la confiance et avoir une approche responsable. Ceci permet aussi d’avoir les moyens d’investir dans de la production locale, dans de la qualité produit, dans de la recherche
  • La confiance passe par 100 nuits d’essai et si ça ne va pas remboursement immédiat avec récupération du produit (partenariat avec Emmaüs Défi pour ces matelas)
  • La satisfaction des clients comme obsession. La pérennité de l’entreprise viendra de cela. L’équipe service client est alors la plus grosse équipe (20% des effectifs), pas de sous-traitance. Cette équipe est un actif de l’entreprise et c’est une source d’insight pour tout le reste de l’entreprise. La qualité du service client est le ressort du bouche à oreille et un vrai facteur de choix par rapport aux concurrents.
  • Une évolution physique avec l’ouverture d’un magasin et bientôt d’un second même si Tediber est née sur le web et que le plus gros du business est toujours sur le web. La boutique permet l’incarnation physique et amélioration de l’expérience client.
  • Une extension de gamme vers le canapé lit
  • Une volonté de devenir une marque de référence
  • Une minimisation de l’impact environnemental avec une production européenne et le lien avec Emmaüs

Bref, l’entrepreneuriat est une aventure passionnante, et lui permet d’avoir une vraie fierté dans le développement d’une marque et d’une activité à partir de rien. Aucun regret sur le reporting et la politique qu’elle devait faire dans les grandes entreprises où elle a travaillé (Unilever, Mc Kinsey, Google) !

7-      MUSIQUE, L’INTELLIGENCE ARTIFICIELLE COMME INSPIRATION

Philippe Guillaud, CEO, MATCHTUNE (associé à André Manoukian)

Impression : ETONNANT ET INTERESSANT

Il est allé voir les entreprises qui créent les vidéos. Pour toutes, la musique est le problème !

  • Il faut passer beaucoup de temps dans les grands catalogues pour faire un choix et encore faut-il trouver la bonne quand le métier d’illustrateur sonore n’existe plus.
  • Comment transformer 3 minutes en 25 secondes ? des couts s’ajoutent…
  • Et quand on a les 25 secondes, ca ne colle pas forcement bien avec les images
  • De plus, si la musique ne plait pas, il faut tout refaire…. !

MatchTune résoudrait ces problèmes grâce à l’IA !

Pour lui, il faut d’abord comprendre la vidéo, sa structure. Ensuite on peut proposer un nombre restreint de musique et demander à l’IA d’adapter la musique à la vidéo. La machine adapte la musique pour la caler sur les x secondes de video et si ça ne plait pas, la machine propose quelque chose d’autres en un claquement de doigt !

Nous aurions aimé voir comment on fait pour mieux comprendre le processus, mais c’est intéressant !

8-      “LET’S TALK ABOUT” BRUT.

Guillaume Lacroix, CEO, BRUT

Impression : BRAVOOOOOO !

BRUT est le résultat d’une intuition et d’une révolution.

  • La révolution est que la conversation change la consommation media. BRUT essaye de donner du contexte a l’actualité, a la société, au monde pour démarrer une conversation pas un débat. Ce dernier ne fait que polariser les opinions (ca marche très bien sur les réseaux sociaux), cela fait du clic et n’est pas vertueux. La conversation par contre permet de bâtir des communautés. C’est la révolution
  • L’intuition est venue sur les thèmes que BRUT traite. Quelques chiffres : 30 millions de personnes qui regarde BRUT chaque jour, 300 millions par mois principalement en Europe, en Inde (plus gros media en langue anglaise) et en Amérique du nord (seconde page media sur FB). 70% des spectateurs ont moins de 35 ans et ces individus, où qu’ils soient dans le monde, ont un système de valeurs qui a changé : responsabilité du pouvoir, droit des femmes, lutte contre les discriminations… tout ce qui est tourné vers des solutions pour la planète, l’environnement. L’intuition a été de choisir ces sujets là et BRUT a explosé avec la prise de conscience sur ces sujets.

Implantation.

En plus des pays pré-cités, une présence au Japon, en Chine, en Espagne, en Grande Bretagne. Dans chaque pays , la moitié de ce que BRUT distribue vient d’un autre pays. Ce qui est très bon pour le business model !

Génération globalisée.

Les variations régionales touchent la culture et le sport , le reste des valeurs est globale avec quelques nuances. Exemple en Inde, déjà le droit de la femme est compliqué, alors les LGBTQ, c’est plus dur ! Quand ils ont ouvert les USA, les jeunes américains se sont comportés de la même façon que les jeunes des autres pays, c’est pour cela qu’ils sont allés vite pour lancer la page américaine (il y a 18 mois). « Quand on s’intéresse à l’humain et que l’on montre qu’il y a des gens qui se bougent positivement à l’heure de médias classiques toujours négatifs, cela les intéresse ! »

Diffusion

Brut fait entre 1 milliard de vues par mois, 50% Facebook, 30% SNAPCHAT le reste c’est Instagram, YouTube (Ce dernier ne déclenche pas de conversation)

Vice fait 650 millions de dollars de revenu et ils ne sont pas rentables. Si Brut fait cela, ce n’est même plus de la rentabilité il peut partir sur la lune !

La pub ?

On a affaire à des générations qui adorent les marques et détestent la pub ! Du coup comment créer l’expérience publicitaire. BRUT choisit ses clients pour garder une intégrité de marque. Sur les réseaux sociaux ce qui marche c’est la preuve de ce que l’on fait, BRUT agit comme un tiers de confiance.

BRUT a levé 40 millions de dollars (Artemis, Alexandre Mars, …) pour s’étendre aux USA, assez ou pas assez ?

Editorialement BRUT fonctionne déjà très bien aux USA mais il faut convertir. BRUT est déjà archi rentable en France (pas de chiffres fournis), cela doit etre uen réalité partout. A titre d’exemple, VICE fait 650 millions de dollars de revenu et ils ne sont pas rentables. Si BRUT fait cela, ce ne serait même plus de la rentabilité mais un départ pour la lune !

L’enjeu de BRUT est l’activation des communautés pour créer un impact sur les sujets qui ont poussé les individus à se constituer en communauté. Ce défi sera dévoilé début 2020.

Intelligence Artificielle

12 personnes en techno, utilise du machine learning pour analyser son bas de catalogue et avoir de la donnée qualitative sur les générations qui les consomment. BRUT sur travaille sur l’analyse du langage naturel (NLP). Exemple, si un individu a commenté telle vidéo, le NLP permettra de lui dire qu’il y a tel aspect de cette vidéo traité dans telle autre vidéo et de lui proposer de la voir. Si on arrive à le faire on va doubler notre audience automatiquement !

Brut est unique à l’international !

And the winner du Martech challenge is…? (compte rendu partial et partiel)

Share This:

Le 29 octobre 2019 avait lieu au Hub Institute (joli endroit!), la présentation des résultats du premier « MarTech Challenge » dédié aux outils de « social listening » (l’écoute du web social).   Ce challenge a été réalisé et présenté par Saas Advisor avec l’aide de The Metrics Factory. Une très belle matinée riche en informations, menée à un rythme soutenu et clôturée par une très bonne intervention d’un annonceur, Djallal Benyounes, Global Media Relations Strategist, Groupe Renault.

Il s’agissait de comparer 7 fournisseurs de solutions d’écoute du web social sous un prisme européen (chapeau à ceux qui ont accepté de participer!) et pas des moindres: Brandwatch, Digimind, Linkfluence, Netbase, Synthesio, Talkwaker, Youscan.   Si nous le disons avec nos mots, c’est fournir un rapport de type « Gartner » ou « Forrester » qui tienne compte aussi de notre marché  et pas orienté seulement sur les Etats-Unis.

Encore un classement direz-vous! Certes, nous avons vu trop souvent des comparaisons faites sur un coin de table ou par consultation « d’experts ».

Ici, le sérieux a présidé (merci!)  et 3 briefs ont été envoyés aux différentes sociétés couvrant 3 cas d’usage: 

  • le suivi d’une marque locale aux USA: WWF
  • Le suivi d’une marque globale : le club de foot de Liverpool, l’équipe de basket de San Francisco les golden state warriors
  • les méthodologies pour des recherches complexes sur le sujet de la mobilité quotidienne

A ces briefs objectifs ont été ajoutés aussi les opinions d’un jury de vrais spécialistes.

A noter que Saasadvisor a eu l’honnêteté de dire que, depuis l’édition de son rapport, certains éditeurs de logiciels avaient revus  leurs solutions.  Alors cela ne sert à rien ce challenge? A notre avis, non, car cela permet aux annonceurs de se poser ou de poser les bonnes questions! 

Avant de dévoiler des résultats du challenge, quelques informations ou estimations intéressantes fournies par Saasadvisor.

Le marché du social listening: 

  • En 2012, les prévisionnistes pensaient, qu’en 2020, ce marché représenterait 10 milliards de dollars. La réalité d’aujourd’hui est à 2 milliards dont 600 millions consacrés aux outils 

  • Des bouleversements exogènes ou endogènes ont des conséquences fortes : RGPD, le scandale Cambridge Analytica qui a fait disparaître des API sur Instagram  par exemple, la nouvelle politique tarifaire de Twitter

  • Un marché toujours fragmenté même s’il est en cours de consolidation (ex: Brandwatch et Crimson Hexagon, Linkfluence et Scoop it, Meltwater et Sysomos….)

  • Les 10 premiers représentent moins de 50% du marché

  • Le leader (Brandwatch) n’a que 15% du marché

Du coté annonceurs (50 interviews):

  • 48% d’entre eux utilisent UNE solution et une seule, quand 11% des interviewés en ont 3

  • 55% des annonceurs ont ces solutions depuis au moins 3 ans

  • 58% ont testé au préalable 3 solutions ou plus

  • quant au nombre d’utilisateurs, cela va d’UN utilisateur pour 19% des annonceurs, a plus de 50 utilisateurs pour 22%

Au passage, si vous êtes un annonceur, ne succombez pas aux sirènes du volume, de la masse d’informations suivie annoncée par les éditeurs! En effet, de nombreux paramètres font varier cette volumétrie comme, par exemple, l’interprétation juridique faite par les uns et les autres sur le suivi de telle source. La transparence n’est pas encore la règle sur la volumétrie et c’est bien dommage (cela nous rappelle quelque chose!) !

Alors revenons au challenge, qui a gagné?

…pas un gagnant, chacun ayant un point ou des points de force en se basant sur les résultats des briefs

Mais, malgré tout, si l’on veut faire un tiercé, voici ce que pense le jury:

  1. Talkwalker
  2. Netbase
  3. Linkfluence

Les mouvements de fond qui interviennent sur ce marché :

  • introduction de l’Intelligence Artificielle 
  • élargissement des besoins couverts par ces solutions (ce qui ne facilite pas les comparaisons)

Enfin, des remarques pleines de science et de bon sens, fort utiles pour les annonceurs

  • les conditions de collectes de données changeant constamment, il faut se poser en permanence des questions et l’absence de standard ne facilite pas les réponses
  • un seul logiciel pour couvrir tous les besoins, cela n’existe pas! Il faut plusieurs solutions
  • plutôt que les volumes, il vaut mieux s’attacher aux corpus et aux accords entre les réseaux et les éditeurs 
  • il est nécessaire de faire des compromis entre ce que l’on souhaite dans l’absolu et ce qui est absolument nécessaire pour sa ou ses marques
  • il ne faut pas oublier QUI utilisera le ou les produits EN INTERNE!!!

Pour terminer, le témoignage de l’annonceur, Djallal Benyounes faisait totalement écho aux propos de Saasadvisor :-).

Son job? Etre au courant de tout, tout de suite! Pour cela, Renault doit couvrir ce qui se dit en presse, radio, TV, les medias en ligne, Facebook, Instagram, Linkedin, YouTube, Twitter et ceci internationalement. Des fournisseurs sont à l’oeuvre: Edd, Factiva, Prime research, Brandwatch, Meltwater. Renault dispose donc de 2 fournisseurs pour le social, ce qui est admis par la direction des achats qui a compris (mais oui cela arrive!) que cette diversité était un gage de qualité.

Tout ceci est assemblé dans un grand mur de réputation découpé en 3 parties:

  • la réputation du groupe Renault,
  • le suivi de l’industrie automobile et des concurrents,
  • la détection de crises politiques.

La masse de données est traitée de 2 façons:

  • big data en incluant la presse, la radio et le TV, c’est à dire avec un traitement entierement automatisé
  • smart data en sélectionnant un nombre limité de media et d’influenceurs dans 17 pays, en suivant 100 compétiteurs, tout ceci en faisant intervenir un codage humain. Renault considère par exemple qu’une source ne peut être globalement positive, neutre ou négative, il faut descendre au plus fin, aux mots, aux phrases. Avec ce suivi sélectif, Renault a pu construire des indicateurs de suivi et de performance qui sont partagés par tous.

Djallal Benyounes a ensuite fourni 2 exemples , le suivi du lancement de la nouvelle CLIO dont la caractéristique était que l’intérieur du véhicule avait été complètement transformé, et la préparation du « motorshow » de Shanghai.

En conclusion, Saasadvisor est à la tête d’un rapport très utile pour les annonceurs (et les éditeurs), à eux de souscrire :-)!

Cette société a prévu de faire un autre challenge mais sur un autre aspect du Martech. 

Une journée d’Intelligence Artificielle avec BONHEUR (un compte rendu partial et partiel)

Share This:

Comment résumer, en quelques lignes, une journée entière consacrée à l’intelligence artificielle le 23 octobre 2019, à Station F ?

Impossible d’autant plus que le programme était d’une richesse incroyable variant les mathématiques, la politique, le business, les enjeux, la pratique, les secteurs et 2 stars : Stéphane Mallat (Collège de France) et le montréalais Yoshua Bengio, l’un des 2 papes de l’IA avec le français Yann Le Cun (Le premier travaille pour Google, le second pour Facebook).

Chapeau pour cette magnifique journée (1 800 personnes y ont assisté) même si nous regrettons (cela va faire vieux c..) une journée complètement en anglais alors qu’il y a très très peu de non francophones dans la salle (3 à la première présentation…). Au moins, les ¾ des présentations étaient plus que compréhensibles pour des francophones vu la prégnance de l’accent français en anglais !! On regrettera aussi quelques changements de programme impromptus sans que l’application spécifique soit à jour, et les tics de langage du type « amazing », « incredible », « guys » …

Bref, nous ressortons de tout cela avec quoi ?

L’IA n’a rien de magique (nous le savions mais cela a été dit clairement moultes fois) et de nombreux progrès, dans tous les domaines, sont encore à venir pour contourner tous les problèmes et biais posés. Par contre, le processus d’automatisation est en marche avec son cortège de solutions business (Nous n’avions jamais vu une conférence avec autant d’offres d’emploi à l’intérieur même des présentations !!)

Un cocorico. La France est devenue, ce jour-là, officiellement, le pays leader en Europe sur l’Intelligence Artificielle (avant la Grande Bretagne et Israël) avec le premier rang en matière d’investissements dans les startups dédiées au sujet. 570 millions d’euros au 1er semestre 2019 pour une année qui atterrirait à 1.2 milliards d’euros selon les estimations du cabinet Roland Berger et de France Digitale (qui reprend l’organisation de l’événement France is AI).

Nous ne relatons ici, dans cet ordre, que ce qui concerne la politique, la complexité, les biais et contournements des biais, le business, le pragmatisme, le feel good et un tout petit peu de mathématiques.

Politique

Nous avons un ambassadeur pour le numérique (et il est compétent), Henri Verdier (…, Cap Digital, Etalab,…) qui doit « couvrir » 4 thématiques dans lesquelles l’IA est forcément présente :

  • Les grands sujets de cyber sécurité (nous vous rappelons une de nos obsessions : la question n’est pas de savoir si des crashs de cyber sécurité au niveau des états vont se produire mais quand ! Merci l’Estonie 2007…).
  • La participation des états a la gouvernance d’internet
  • La diplomatie économique
  • La défense et la promotion des valeurs qui structurent nos sociétés

En fait, il est à la recherche d’une troisième voie, l’Europe, alternative au « sans contrôle publique » américain et au « tout contrôle » chinois. Pour y arriver quelles solutions ?

Les lois avec l’exemple du RGPD qui fait des petits au Japon, en Inde et est copié aux USA. Ce qui n’empêche pas la France, par exemple, d’assouplir sa position par rapport à la circulation libre de la data (free flow of data with trust), l’important étant de savoir comment s’organiser.

L’argent mais que sont les investissements de chaque état européen pris indépendamment par rapport aux milliards américains et chinois. Il rappelle que le succès n’est pas proportionnel à l’argent investi, au tera octet de data, mais au fait d’être malin.

Et des engagements forts (?) sur des principes, des valeurs et l’éthique. Il pousse à la création d’un GIEC de l’IA (pas bête) pour avoir des gardes fous, au dépassement des conneries venant d’un pays (ex : la classification trompeuse des tomates en légume aux USA, alors que c’est un fruit, car il y a 100 ans pour des raisons de taxes, Heinz a qualifié les tomates en légumes. Aujourd’hui toutes les bases de données américaines utilisées en IA des USA classent les tomates en légume au lieu de fruit !).

Le rôle de l’Etat, pour lui, est celui du jardinier qui doit faciliter la vie des startups.

Complexité

On est loin de « l’intelligence » artificielle. La voiture autonome sur la place de l’étoile ce n’est pas pour demain. Trop d’interactions, de décisions à prendre encore pour les machines existantes qui ne sont capables que d’imiter des taches simples et répétitives (c’est déjà ça !). Une machine sait faire un chose à la fois et ne peut pas tout faire ! Exemple, la machine alpha GO est bonne pour le jeu de GO mais ne sait rien faire d’autres, il faut tout créer à chaque fois.

Biais et contournement des biais

  • Où sont les femmes (une fois de plus), quand on voit Karl Tuyls (Deepmind de Google et Université de Liverpool) qui remercie dans un slide de photos son équipe d’au moins 16 chercheurs, que des hommes ! Les organisateurs de la journée ont fait attention à ce point et des femmes étaient présentes sur la scène!
  • Biais des bases de données. Les modèles d’apprentissage des machines (machine learning supervisés) sont très gourmands en données. Pour leur apprendre des choses, il faut que l’humain intervienne, par exemple, en annotant des milliers d’images de façon à expliquer à la machine ce que signifie telle ou telle image. La masse d’images annotées permettra alors à la machine d’être capable de classer correctement de nouvelles images rencontrées Il y a un très gros business autour des bases de données d’images annotées, décrites, par les humains (Inde, Madagascar,…). Mais c’est long, cela coute cher (même si ces travailleurs humains sont payés une misère) et cela ne couvre pas toutes les situations car il est dangereux pour l’humain de coder certaines situations (il doit visionner des atrocités pour coder !). Sans aller chercher ici les horreurs pornographiques ou terroristes, pensez simplement aux accidents entre un piéton et une voiture, vous ne disposez pas d’un « corpus » de cas, d’images, suffisants. Pourquoi ne pas les créer dans un monde virtuel alors (Naila Murray, Naver Labs), et avoir alors de la variété dans les situations qu’un grand nombre de situations identiques.
  • Toujours sur les bases de données, imaginez 8 photos, 6 de chats blancs et noirs dans différentes positions et 2 de chiens noirs, eux aussi dans des positions différentes. Vous injectez dans la machine une photo de chien blanc pour classification en chien ou chat, la réponse sera chat, car toutes les photos d’un animal blanc était un chat ! Cela parait bête mais c’est une réalité que vous pouvez transposer à grande échelle. Cela renvoie à un biais très classique en stat, votre échantillon n’est pas représentatif de la population qu’il est censé représenter !
  • En Autriche, une startup se faisait fort de réduire le chômage en fournissant un algorithme d’adéquation entre le profil du candidat et l’offre d’emploi à base de machine learning. Super sur le principe mais la machine a appris le chemin le plus efficace trouvé dans l’historique des données, ne proposer des offres d’emploi qu’aux hommes car ils décrochent des emplois quand les femmes et les personnes handicapées n’en recevaient plus aucune…

Business

Criteo

La publicité était présente à cette journée avec les changements de fond opérés par Criteo dans son fonctionnement (Zofia Trstanova). Comment changer son moteur de recommandation pour être plus pertinent et être capable de présenter le bon produit pour 1 milliard de requêtes / utilisateurs en 50 millisecondes… ? Joli challenge ! Bien sûr, il y a l’historique de l’utilisateur mais quel produit choisir dans les milliers, millions de produits possibles parmi les partenaires de Criteo (CDiscount ….) ? C’est simple, Il faut construire une matrice de distance entre produits et choisir le plus proche voisin du dernier produit acheté ou choisi par l’utilisateur. Cela parait facile mais la masse de produits et l’urgence de la réponse change tout. Il faut alors approximer les distances, approximer la matrice.

Le nouveau système Criteo a commencé à être déployé il y a un an et demi. Il va être amélioré par l’incorporation des annotations d’images dans le processus.

Astra Zeneca (James Weatherhall VP Data science et AI)

Le raisonnement est simple pour un laboratoire pharmaceutique. Un brevet dure 20 and, il faut 12 ans pour arriver a une solution définitive et sa mise en marché. Il ne reste donc que 8 ans pour obtenir des revenus. Comment raccourcir les 12 ans pour allonger les 8 de revenus ! La première étape est dans la connexion de toutes les données qui existent maintenant pour un laboratoire pharmaceutique (données génomiques et génétiques, données patients, données de capteurs, données d’interaction media, données des réseaux d’information médicaux, données de marché. La seconde étape est de connecter un certain nombre de ces données (ca a pris moins de 2 ans). Ensuite, et il y en a pour 5 ans encore, on applique de l’Intelligence Artificielle. Premier exemple, dans la découverte de médicament, les « manipulations » de molécule sont « facilement » automatisables. Ce qui prend aujourd’hui 24 jours pourraient baisser à 5 jours. Second exemple, l’interprétation radiologique dans des cas de tumeur. Un radiologue met 20 minutes, dans des cas complexes à analyser l’épreuve avec environ 10% d’erreurs quand un processus d’IA met quelques secondes avec moins de 1% d’erreurs.

Eramet (Jean Loup Loyer, Head of data sciences & AI)

Une société de production minière (Nouvelle Calédonie, Gabon…) et de métallurgie qui comme Astra Zeneca est maintenant à la tête de nombreuses données. Une des premières utilisations a été de faire de la maintenance préventive sur ses machines d’extraction grâce à l’analyse des données de capteurs. Mais en allant plus loin, Eramet analyse maintenant les images prises par drone des chantiers de ses concurrents ou clients pour adapter au plus juste sa production miniere et ajuster ses prix !

Société Générale (Julien Molez, Group Innovation Data & AI Leader)

L’analyse des données n’y est pas nouvelle (l’actuariat pour la gestion des risques) mais là encore, la masse de données issues des clients, de la dématérialisation des documents, permet d’aller plus loin. 3 cas d’utilisation de l’Intelligence Artificielle

  1. Analyse du langage (NLP) sur les clauses de confidentialité a signer avec des partenaires potentiels pour voir si elles sont compatibles avec la législation bancaire et la politique de la banque.
  2. Moteur de recommandation du bon article à lire au bon moment pour les clients de la branche affaires (et leurs conseillers)
  3. Analyse de tous les paiements de la banque en temps réel en France pour détecter les valeurs aberrantes (outliers) et bloquer les mauvaises transactions

Pragmatisme (Benoit Limare, Sicara)

Une fraîcheur de propos très agréable.

Pour lui il y a au moins 2 catégories de projet d’IA :

  • L’IA bidon, la start-up qui dit qu’elle fait de l’IA (notamment en reconnaissance d’image) et qui a, en fait de nombreuses petites mains à Madagascar pour classer les images…
  • L’IA raisonnable : démarrer petit pour élargir le champ par la suite. Le grand soir dans de l’IA est dangereux car il faut prouver l’intérêt de la méthode à la fois auprès des salariés proches de l’informatique mais aussi ceux qui sont touchés par le process et la direction générale. Commencer par quelque chose de raisonnable (voire même bidon) est le moyen d’amorcer la pompe, d’emporter l’adhésion de tous avant d’engager des coûts élevés dans un projet plus complet (l’IA ça coûte cher !)

Des exemples :

  • Une société de produits de beauté voulant un moteur d’IA pour recommander le bon produit de soins pour la peau a de clientes avec déjà une bonne solution avec un selfie et quelques bonnes questions.
  • Une autre où le DSI voulait réduire une tache de 15 minutes à 10 secondes. Un projet simple permettait déjà de réduire la tache de 15 minutes à 45 secondes. Le projet pour atteindre les 10 secondes aurait été extrêmement couteux.

Il rappelle que pour faire de l’IA, il faut des données (la moindre des choses !), lisibles par un humain (si l’humain ne les comprend pas, la machine ne saura rien faire), et contrôlables (autrement dit de nombreuses photos de produits différents d’un site de e-commerce prises toutes avec des angles différents débouchera sur des problèmes, il faut contrôler l’input !).

Feel good

Accenture a présenté un programme d’aide aux personnes âgées avec de l’IA conversationnelle. Le premier pilote d’« Elderly care » avait été fait en Grande Bretagne il y a 3 ans. 4 sont dans les « tuyaux », un en Belgique, 2 aux USA, 1 à Stockholm. Cela a raisonné beaucoup dans nos oreilles suite au petit dejeuner IREP que nous avions animé sur ce sujet avec Hélène Xuan et Olivier Altmann

 

Mathématiques

Un grand moment avec Stéphane Mallat du Collège du France qui, sur le moment, nous a paru biblique quand il expliquait comment les mathématiques pouvaient aider l’Intelligence Artificielle à résoudre le problème de l’interprétation des choses.

Pour lui, tout est dans la structuration des réseaux de neurones, il le démontre. Mais il a avoué avoir perdu, pour l’instant, un pari d’un diner dans un 3 étoiles (on est français où on ne l’est pas) avec Yann Le Cun quant au fait de trouver le modèle d’analyse et les théorèmes qui vont bien !

Au fait, si vous voulez comprendre vraiment « Comment les Réseaux de neurones à convolution fonctionnent » cliquez ! Ça vaut le coup car c’est la base de tout le décodage d’images entre autres. Si nous vous le disons avec nos mots, vous découpez votre image en pixels, chaque pixel a un poids en fonction de son contenu et de ses couleurs. Vous tordez votre image et refaites votre découpage en pixels. Ceci plusieurs fois, vous prenez un échantillon de pixels dans chaque découpage et à la longue vous mettez tous vos échantillons ensemble et vous serez capable de reconnaître une nouvelle image en la comparant via ses pixels à celles que vous aviez eu au préalable. C’est bien mieux expliqué dans le lien que nous vous signalons et nous venons surement d’écrire de grosses horreurs!!

 

En conclusion, l’IA était, pour nous, plus facile à comprendre que la conférence sur le gaming !

Culture gaming, comment une conférence vous rend « has been » (un compte rendu partial et partiel)

Share This:

Il y a plus de 10 ans, nous avions eu l’occasion de réaliser une première en France (en Europe ?), réaliser une étude d’eye tracking sur des jeux vidéo de la plateforme Massive de Microsoft  (Marie Estelle Carrasco et Ronan Bourgeois pour Microsoft Advertising, Erwan Le Page et nous-mêmes pour Havas Media, réalisation technique Ludotic). Le but était de savoir si les joueurs voyaient les publicités dans un jeu et s’ils s’en souvenaient (réponse : Oui !).

Il était temps, en octobre 2019 de se replonger dans cet univers du jeu avec la conférence « culture gaming » faite par Webedia et CB News à l’heure où l’Esport se généralise (nous y avons retrouvé Ronan Bourgeois 😉 )

Et là, vous prenez une grande claque dans la figure pour 2 raisons :

  • Tout a changé et rien n’a changé
  • Nous sommes « has been »

Tout a changé, rien n’a changé ?

Michelle Benzeno de Webedia a démarré son intervention par « il faut désenclaver le gaming ». Rien n’a changé en plus de 10 ans !

Mais, tout a changé, cette industrie représente, aux USA, 44 milliards de dollars (plus que l’industrie mondiale du cinéma), première industrie culturelle.

Tout et Rien n’a changé : le gaming (le jeu) a ses valeurs (bravo aux 55 gamers qui ont récolté 3.5 millions d’Euros pour l’Institut Pasteur dans le cadre de Z event) , son langage, ses codes, ses créateurs, ses œuvres.

Tout a changé : des joueurs sont devenus des créateurs (les YouTubeurs), les jeux gagnent en masse planétaire en nombre de joueurs.

Des chiffres ?

Alors, selon une étude d’opinion d’Harris Interactive réalisée pour cet événement, quelques chiffres :

  • 68% de français (de quel âge ?) jouent aux jeu vidéo (smartphone, tablette, ordinateur, console)
  • La moyenne d’âge est de 42 ans
  • 34% sont CSP-
  • 59% jouent tous les jours au presque
  • Le jeu est un acte solitaire (70% préfèrent jouer en solo)
  • Dans les 30% qui préfèrent jouer en multi joueurs, 10% en ligne en compétition
  • 29% des français savent précisément ce qu’est l’Esport

 En termes d’industrie (Jean Villedieu SNJV)?

  • 250 entreprises en France
  • 86% d’emplois en CDI
  • 14% de femmes…
  • La révolution à venir, les jeux par abonnement comme Apple Arcade

La publicité ?

Si au début, la publicité était majoritairement du display, assez vite, comme les performances étaient médiocres, la publicité était devenue du placement produit. Aujourd’hui, le modèle publicitaire est de regarder une publicité pour pouvoir avancer dans le jeu (en français dans le texte, la rewarded video). En fait, un bon jeu étant une expérience captivante, la publicité doit être un caméléon pour ne pas rompre l’expérience joueur !

Pour convaincre les annonceurs, comme d’habitude, quand on ne pratique par le media, il faut évangéliser, éduquer… (ex : comment convaincre les acheteurs en agence media d’investir en Presse alors qu’ils ne la lisent plus, et il commence à se produire la même chose pour la TV). Un argument mis en avant, l’instantanéité d’une masse connectée à un instant t (comme toujours…)

Gamification ?

Pour nous (et cela fait de nombreuses années que nous le prônons), la gamification (ludification) est l’application, à des domaines autres que les jeux vidéo (ex : les questionnaires dans une étude), des codes d’interaction nés de la pratique des jeux vidéo.

Pour Cyril Guilleminot (Gameloft), il s’agit de « l’amplification des effets d’une expérience existante en appliquant différentes techniques de motivation ce qui rend les jeux si engageants ». Et il nous a montré une belle image type neurosciences sur l’effet du jeu vidéo dans notre cerveau (cf l’image en tête de cet article) et le lien possible avec des marques (ex : le jeu vidéo active l’hippocampe donc favorise la mémorisation). Intéressant, mais nous pensons que l’on doit trouver la même chose en neuroscience pour démontrer les ravages des jeux vidéo…

Après, les mécaniques de gamification sont maintenant connues (économie comportementale, nudge…), indication des niveaux de progression, les badges, les tableaux de score, les challenges…

Esport ?

L’Esport désigne donc

« l’ensemble des pratiques permettant à des joueurs de confronter leur niveau par l’intermédiaire d’un support électronique, et essentiellement le jeu vidéo, et ce quel que soit le type de jeu ou la plateforme (ordinateur, console ou tablette) » (source : France Esport)

Le mot sport est donc trompeur ! Il ne s’agit pas des jeux liés au sport, seulement, mais tous les jeux où l’on se confronte à d’autres personnes.

Même si l’Esport n’est pas que du sport, si on le compare au sport, malgré tout, sa construction s’est faite à l’envers. Le sport est basé sur une infrastructure de clubs ou d’associations sportives locales pour remonter (du bas d’une pyramide vers le haut), vers des fédérations internationales, quand l’Esport a démarré avec des compétitions mondiales et qu’il doit descendre vers des clubs ou des associations Esportives locales (du haut de la pyramide vers le bas).

Un business avec un prix de 2.7 millions d’Euros (3 millions de $) pour le gagnant de Fortnite quand le gagnant de Rolland Garros en gagne 2.3 et le vainqueur du marathon de New York 81 000 Euros (pas de millions)…

Les émissions de jeu vidéo à la TV ont disparu au milieu des années 2000 et sont maintenant remplacées par:

  • des retransmissions de compétitions d’Esport sur une chaîne de flux comme BeinSports
  • des créations de chaînes de TV spécialisées (qualité broadcast) comme ES1
  • des créations de chaînes en streaming comme Lestream

Si, aujourd’hui la retransmission des compétitions est gratuite, l’Esport deviendra un sport quand il y aura des droits de diffusion !

Le public du Esport est impliqué, ultra connecté et critique. Ceci a de bons mais aussi mauvais aspects, d’où une certaine réticence des marques à s’engager dans ce secteur.

Certaines ont su le faire intelligemment comme

En parlant de critiques, il était intéressant de constater les réactions négatives de fans de jeu vidéo attirés par #culturegaming quant au contenu de la conférence. C’est la première fois que nous voyions du « public » (hors marabouts ou autres partisans de Daesh) intervenir si fortement dans un fil twitter consacré à un événement BtoB.

 

Coup de vieux ?

  • Nous sommes typiquement dans la situation, quand on ne pratique pas, on ne connait pas !
  • Découverte de la plateforme d’Amazon, Twitch (désolé, nous ne connaissions que Justin Tv son ancêtre !)
  • des « stars » avec leur propre langue :
    • Domingo (streamer, joueur, animateur et YouTubeur) qui commente des parties (30 000 à 100 000 personnes en direct suivant les formats, plus qu’un stade de foot !).
    • Bruce Grannec le champion du monde du jeu FifaXXXX (donc du football), impressionnant !
    • Brak2K (Mahmoud Ganassa), YouTubeur jeux vidéo qui commente des matchs d’Esport ou même, avec Bruce Grannec, de « vrais » matchs sur BeinSports
  • Il n’y avait 4 personnes avec des cheveux blancs dans la salle (dont Nous) !

Lancement d’Epsilon (Publicis): impression et sentiment

Share This:

Le 10 octobre 2019 était lancé, officiellement, Epsilon en France.

Publicis avait sorti le grand jeu avec une présentation dans son cinéma sur les Champs Elysées (avez-vous remarqué la vitrine montrant des documents de la fin de la seconde guerre mondiale quand l’immeuble de Publicis servait de QG à Eisenhower?) et un buffet Eric Fréchon au drugstore Publicis.

Les pro de la communication ont déjà dû lire de nombreuses interviews sur le sujet donc que pourrions-nous ajouter ?

Une impression : un tournant dans la communication dans notre petit pays

Quand un groupe de communication peut aligner en France, 750 personnes dédiées à ce que l’on appelle l’adtech et le martech (technologie publicitaire, technologie marketing), soit environ 70 métiers différents, on se dit que le vieux métier de « publicitaire » est, encore, en train de muter.

La data que nous, individus, créons, à tous les instants, dans notre société digitalisée est bien devenue le pétrole qui permet au marketing de passer de l’ère du marketing de masse (mass marketing) à celle du marketing de personnalisation de masse (mass personalization).

Est-ce un bien ou un mal, tel n’est pas le propos, le fait est là.

Epsilon est la matérialisation de la voie dans laquelle l’industrie de la communication doit s’engager.

Si, Epsilon, aux USA, est installée, reconnue et leader sur son marché, en France, Publicis réunit 3 entités déjà dans son giron : Publicis ETO (achetée en 2013), Soft Computing (achetée en février 2019) et le pôle Data Sciences de Publicis Media pour constituer Epsilon.

Avec cet ensemble, Epsilon annonce couvrir l’ensemble du cycle de la data pour un annonceur, allant de l’enrichissement (et du nettoyage) de la donnée annonceur, au suivi à 360°, à l’analyse et son activation en communication. Ils ont les process, les techniques et les collaborateurs !

Un président, Nicolas Zunz et 3 vice-présidents, par ordre alphabétique, Sylvain Bellier (ex soft computing), Yann Claessen (Publicis ETO), Laure Debos (Publicis Data Sciences), les patrons des 3 entités.

Des défis ?

  • faire un TOUT de 3 sociétés avec des histoires et des finalités différentes
  • faire un TOUT sans perdre les clients d’origine des 3 sociétés
  • faire un TOUT pour gagner de nouveaux clients avec un concept innovant
  • faire un TOUT avec des localisations géographiques différentes (Le Nord (Hauts de France), Paris XV, Paris XI) dans ces temps où les data scientists sont rares sur le marché et peuvent trouver des jobs où ils le souhaitent.
  • faire un TOUT avec un triumvirat à sa tête, les 3DG, les BCD si l’on prend les initiales (en espérant que personne ne veuille devenir le A)  dont les styles de présentation sont très différents mais très complémentaires
  • faire un TOUT sans faire peur aux créatifs du groupe Publicis

Un sentiment : l’envie

Nous envions fortement Laure Debos de co-mener cette belle aventure pour que la lettre Epsilon soit autre chose qu’une quantité négligeable (mais au combien importante en stat !).

Deux à coté :

  • Le nouveau Président qui cite un résultat de l’étude « meaningful brands » d’Havas (77% des marques peuvent disparaître dans l’indifférence générale), remous dans la salle.
  • Vous avez déjà essayé de manger un « mini burger » de 10 cm de haut ? Même avec une « grande gueule » c’est impossible !

VIVE L’INTELLIGENCE ET LA SCIENCE – Conférence IPSOS (compte rendu partial et partiel)

Share This:

Quand on consulte l’excellent site myenventnetwork.com, le constat est simple : tous les jours des événements, des conférences, des ateliers (parfois plusieurs dans la même journée) gratuits pour la majorité d’entre eux, mettent en avant un aspect du métier de la communication, du digital et des media.

C’est trop mais c’est ainsi (cf notre coup de gueule il y a 2 ans et ça n’a pas changé).

Nous sortons, de plus en plus souvent avant la fin (ce qui n’est pas poli), énervés après avoir entendu des choses déjà dites, redites, rabâchées sans aucune aspérité sans point de vue affirmé. C’est pour cela que nous n’avions rien publié sur ce blog depuis des mois. Overdose de banalités !

Aussi, quand une société vous propose de faire bouger vos neurones en vous apportant de l’intelligence scientifique, vous ne pouvez dire qu’une seule chose MERCI IPSOS !

L’idée de ces conférences à la maison de la chimie, le 26 septembre 2019 au soir, était de se réinterroger sur tous les modèles théoriques qui sous-tendent tout ce que nous faisons, faut-il les renouveler ? comment les renouveler ?

Que se passe-t-il dans notre cerveau, comment raisonne-t-on ? (Olivier Houdé, Professeur émérite Paris Descartes, laboratoire LaPsyDÉ).

Les adeptes de l’homo-economicus ont toujours mis en avant la capacité de réflexion logique de l’humain, son système algorithmique qui permet d’élaborer une pensée réfléchie, dont la fiabilité est grande mais qui nécessite du temps, des efforts pour aboutir. Son défaut ? Monopoliser notre attention (amusez-vous au jeu dans cette video).  C’est le système dit 2, incarné dans les travaux de Jean Piaget. Exemples simples : lire un mot que l’on ne connait pas, changer de direction pendant un trajet habituel, calculer 19 x 46…

Daniel Kahneman (prix Nobel d’économie 2012) a démontré que le système 2 n’était pas le seul dans notre cerveau, mais qu’il en existait un autre : le système 1. C’est un système dit heuristique dont la caractéristique est d’être une pensée automatique, intuitive, avec une fiabilité correcte mais non totale et surtout une très grande rapidité. Le cerveau humain cherchant toujours à économiser sa consommation d’énergie, le système 1 est celui que nous activons le plus souvent dans nos taches quotidiennes. Des exemples ? La lecture, la conduite automobile sur un trajet habituel, des calculs simples (1+1, 2+3 …). L’apprentissage est la base de construction du système 1.

Au passage, ne pensez-pas, comme l’imaginait Piaget, qu’en passant de l’enfant à l’adulte le 1 laisse la place au 2 ! Non, suivant les sujets, les moments, l’adulte est à fond dans le système 1, aucune corrélation avec l’âge ! (Comme quoi la sagesse n’est pas l’apanage des vieux 😊)

Alors nous nous arrêtons là, avec 2 systèmes ?

Non ! Il en existe un troisième, issu des travaux d’Olivier Houdé. Ce système 3 est dit système d’inhibition qui a fonction d’arbitre, et qui nous pousse à interrompre notre processus de décision rapide (système 1) pour basculer sur la réflexion algorithmique (système 2). Le système 3 permet d’éviter les conflits entre les 2 premiers, les conflits cognitifs. Les adeptes des neurosciences le localiseront dans le cortex pré-frontal, là où se situe nos émotions et sentiments.

L’idée est alors de « cultiver » notre système 3 pour apprendre à débrancher le système 1 au profit du 2, il faut résister à notre intuition !

A quoi cela sert-il ?

Un exemple concret proposé par Brice Teinturier : les stéréotypes racistes et antisémites existent depuis longtemps (les juifs et l’argent, les juifs et le pouvoir, le lobby juif mondial…) et sont suivis par IPSOS (B Teinturier a projeté des verbatim issus des réseaux sociaux, à vomir…). La question est, pour un gouvernement par exemple, de trouver des moyens de combattre ces stéréotypes. Affirmer que ce n’est pas vrai ne sert à rien, on se heurte au mur du système 1. Comment pousser le système 3 à débrancher le 1 pour activer le 2, donc à dépasser le stéréotype pour aller à la réflexion. IPSOS a introduit dans ces questionnaires d’opinions, des mesures de nouvelles émotions relatives au doute, au regret et à la curiosité qui permettent aux pouvoirs publics de penser leurs démarchent autrement. Ces mesures sont applicables aussi au marketing.

 

Deuxième sujet : La modélisation de la mobilité (Olivier Bonin, Professeur, Géographe, chercheur à l’IFSTTAR au Laboratoire Ville Mobilité Transport)

Le sujet parait plus simple que l’exploration de notre cerveau et pourtant ! Comment reconstituer des flux de mobilité pour mesurer des individus qui bougent en permanence dans tous les coins. Les vieilles méthodes consistaient à reconstituer des flux en comptant des passages à des points fixes et en interrogeant des individus dans le cadre d’enquêtes. En demandant un point de départ, un point d’arrivée, un mode de déplacement et des choix d’itinéraires, il était possible de modéliser les flux. Les modèles permettaient alors d’interpoler dans le temps et l’espace, des données très partielles, lacunaires. Ceci avec plus ou moins de succès car on se limitait souvent à des heures de pointe (le matin), un jour de semaine, sans tenir compte des variabilités des activités et en étant focalisé plus sur les flux que sur les comportements des individus.

Aujourd’hui, des données sont disponibles en masse : la billétique, le GPS, les smartphones, des boîtiers dédiés… Ces données sont, de plus, relatives à un individu. Et même si elles sont moins riches sémantiquement que des enquêtes, elles apportent une densité temporelle et spatiale incomparables.

Vous y appliquez des modèles différents (on passe des modèles gravitaires aux modèles multi-agents), calculés au niveau de l’individu (qu’il soit réel ou synthétisé) et vous disposez de multiples programmes d’activité répartis entre les jours, les chaînages, les différents membres d’une famille, bref, de tout ce qui est nécessaire pour l’optimisation des trajets, des infrastructures, des horaires, … mais aussi pour la mesure d’audience de l’affichage (Outdoor, en usage maintenant…)

C’est le cas applicatif montré par (le brillant) Jean Noël Zeh (IPSOS) puisque l’entreprise a gagné l’appel d’offres de Mobimétrie (ex Affimétrie). Dans cette mesure sont intégrés les déplacements de 10 000 personnes (elles ont porté pendant 9 jours, un « meter », un boitier spécifique, précis sur la localisation GPS), des mesures déclaratives de déclarations de déplacements (smartphones), les points d’intérêts géographiques (magasin, services publics, réseaux de transports, …), toute l’open data INSEE, et des données payantes de telco ou d’autres acteurs.

Jean Noël Zeh a aussi montré 2 cas de « research for good », comme la mesure des flux dans un camp de réfugiés Rohingya au Bangladesh pour permettre d’établir des points d’eau ou des centres de soins.

Troisième intervention : le consommateur expliqué par ses neurones (Vinod Venkatraman , Professeur, Temple University).

Nous sommes repartis dans le cerveau humain ou plus exactement dans les méthodes de mesure d’effets qui existent, aujourd’hui, avec la technologie (Eye tracking, facial tracking, activité cérébrale, sudation…). Mais la chose intéressante est de les avoir relier à un impact marketing sur les ventes.

Aux méthodes nouvelles, Vinod Venkatraman a testé aussi les méthodes plus classiques d’interrogation (groupes ou questionnaires). C’est l’objet d’un article primé en 2015 à l’ARF aux USA (sur de petits échantillons…). La conclusion est bonne pour une société d’études. Que ce soient des mesures d’eye tracking, biométriques, EEG ou questionnement, chacune apporte un voire plusieurs éléments de réponse différents à l’élasticité publicitaire sur les ventes. Autrement dit, c’est en utilisant toutes les méthodes que l’on a une vision complète et pertinente. Pour avoir, nous-même, hybridées plusieurs méthodes, nous ne pouvons qu’être en accord avec cette conclusion !

En application, Katell le Coueffic a présenté le « creative lab » qui permet, en une journée, de mettre en oeuvre la plupart des méthodes indiquées et d’avoir des pistes d’optimisation sur du matériel publicitaire non finalisé. Nous supposons que ceci sera plutôt l’apanage des grands sociétés clientes.

En conclusion, une des phrases prononcées en introduction par Helen Zeitoun :

« science et études, le ticket gagnant pour ne pas dire n’importe quoi »

(combien d’entre nous devraient s’en inspirer !).

La fin de l’individu, voyage d’un philosophe au pays de l’Intelligence Artificielle (Gaspard Koenig) (un résumé d’un livre non lu !)

Share This:

Nous avions déjà eu le plaisir d’écouter Gaspard Koenig (GK) lors d’une conférence TEDX Paris. Le 27 septembre 2019, il présentait son nouveau livre qu’il a « résumé » pendant une heure à Station F, (grand amphi complet). Ce compte rendu est fait sur ce « résumé » pas sur la lecture du livre (acheté mais non lu !).

Le sous-titre de ce livre pourrait être

« remettre l’église au milieu du village » !

Pour lui, il faut remettre l’humain dans l’IA, c’est-à-dire en maître de ses propres données.

Comment y arrive-t-il ?

Il a rencontré près de 120 chercheurs, entrepreneurs, intellectuels, magicien… en France, UK, Israël, USA, Chine … Bel effort (sponsorisé par Le Point) pour un philosophe non spécialiste de l’Intelligence Artificielle.

Au passage, GK fait remarquer que rencontrer des interlocuteurs sur ce sujet n’est pas facile, car ils sont pressés, stressés, soumis à des enjeux financiers importants et n’ont aucune envie de rencontrer un philosophe !

Quelques tacles :

  • Ces interlocuteurs n’ont aucune culture. La référence la plus ancienne qu’il a pu entendre dans la bouche de ses interlocuteurs était … « star wars »
  • Ce sont les physiciens qui ont toujours joué les « Cassandre » sur l’IA en se basant sur des théories très très peu probables alors que les mieux placés pour en parler, les informaticiens, sont eux réalistes (Yann le Cun, Facebook, sort un livre dans 15 jours sur le sujet) et savent très bien que l’IA est très très loin de cette prise de contrôle.

Alors faut-il avoir peur ou non de l’Intelligence Artificielle (IA)?

Dans l’absolu, Non ? mais…

Dans l’expression Intelligence Artificielle, il y a intelligence et celle-ci est le produit d’une évolution biologique depuis des milliers d’années qui nous a donné le pouvoir de conceptualiser. Donc, tant que l’IA en reste aux calculs de l’ordinateur, aucun risque de dépassement ou de rapprochement de l’homme par la machine.

L’IA et le travail ?

GK n’est pas inquiet sur ce que l’on appelle « la fin du travail ». Le travail étant un sens commun, l’IA ne peut le tuer car l’IA n’a pas de sens commun. Elle peut être très précise dans 99% des cas mais dans 1% elle conduit à de grosses « conneries ». Ces erreurs ne sont pas une histoire de répétitivité des taches, mais de sens commun. Ex : un serveur dans un café ne peut pas être remplacé par une machine car toutes les décisions qu’il doit prendre sont multiples et différentes à chaque instant et dans chaque lieu.

Il est probable que des métiers disparaîtront et se créeront. Le danger de l’IA peut venir si nous changeons notre environnement pour nous adapter à celle-ci. C’est ce qui semble se produire dans les ports gérés par les chinois où toute l’infrastructure est conçue pour l’IA et non plus pour l’homme. Nous avons à faire un choix de civilisation.

(Si on raisonne par l’absurde, il paraîtrait qu’1/3 des emplois sont des « boulots à la con » (les bullshit jobs). L’IA ne saura pas faire un boulot à la con !!).

IA et le libre arbitre ?

C’est sur ce point qu’est le danger, selon Gaspard Koenig.

Ces systèmes nous connaissent mieux que nous-même, ils connaissent notre environnement, ils nous donnent des conseils, ils nous conduisent à des choix optimaux. Nous allons alors leur déléguer notre capacité de choix. Cela signifie la fin du libre arbitre. Or, celui-ci est le fondement de nos systèmes sociaux (le fondement du système juridique américain par exemple).

On assisterait alors à une transformation culturelle radicale (chaos ?) car l’IA cherchera à optimiser la « performance » d’ensemble et non pas la performance individuelle, on irait alors vers « ce qui est le moins mauvais pour soi compte tenu d’un optimum pour l’ensemble ».

2 exemples :

  • Google maps vous indique le meilleur trajet pour désengorger le trafic pas le trajet le plus court, l’itinéraire égoïste, que vous vous choisiriez probablement.
  • Les applications de rencontres font face à l’illogisme humain. Les recherches ont montré que les femmes recherchaient un compagnon de leur tranche d’âge (une droite entre âge du demandeur et âge du demandé). Les hommes, bloquent leur curseur de compagne recherchée à 24 ans quel que soit leur propre âge (une asymptote). Les algorithmes ont alors besoin de nombreuses informations pour découvrir les désirs implicites sous des choix explicites, de façon à ce que l’ensemble du réseau soit satisfait.

IA et causalité ?

L’IA fait disparaître la notion de causalité et donc l’utilité des théories ou des lois.

Le fait de disposer de toute l’information permet de se passer de la notion de causalité.

Ex : la société Didi en Chine (le Uber chinois) a plus de 90% du marché des VTC en Chine. Elle dispose donc de toutes les informations. Cette société ne fait plus de politique de prix pour attirer les chauffeurs (offre et demande) vers certaines courses lointaines mais se contente de faire du dispatching de chauffeur pour assurer l’optimum d’ensemble. L’information étant complète, la notion de marché disparait. Il va plus loin en s’interrogeant sur la pérennité de la notion de justice, des lois en tant que telles.

IA et différences culturelles ?

Le Chine a fait de l’IA une priorité absolue tant sur le fond que sur le financement.

Les chinois n’ont aucun tabou, aucune limite, et ceci leur permettra d’atteindre un bonheur collectif. La passion de la Chine pour l’IA correspond parfaitement aux valeurs confucianistes qui reviennent en force. Les chinois parlent d’ailleurs de leurs inventions avec une grande candeur. Gaspard Koenig a alors projeté quelques verbatim comme « les jeux video permettent de rendre les gens accro pour mieux les contrôler (parti communiste) ».
Aux USA et en Europe, la prospérité allait de pair avec la liberté individuelle. L’IA remet en cause cette équation. Plus vous voulez de croissance, plus vous devez sacrifier la liberté individuelle, ce qui va à l’encontre des fondements mêmes des sociétés occidentales.

La notion d’impérialisme a d’ailleurs évolué en passant d’un impérialisme territorial à un impérialisme numérique dans lequel les gouvernements sont perdus.

Conclusion : un modèle alternatif ?

Le rétablissement de l’individu dans ses prérogatives humaines est le cœur de sa réflexion.

L’humain doit prendre conscience de l’extrême important du flux sortant des data, sa propriété privée, ses données personnelles. C’est notre bien et nous devons avoir le droit de le sortir du marché ou d’y rester !

GK fait la promotion des portefeuilles électronique de données : « Chacun doit pouvoir contrôler son propre nudge » !

Pour atteindre ce but, GK a besoin de « potes » listés ci-dessous. En cliquant sur chaque nom, vous verrez dans quelle lignée philosophique ou pratique ils/elle se situent.

Daniel Dennett

Harry Kloor

Jaron Lanier

Margrethe Vestager

Nous espérons que ce « résumé », loin d’être parfait, vous donnera envie de lire ce livre ou de réfléchir sur les notions de biens communs, libre arbitre, théorie, causalité et confucianisme.

(Et c’était chouette de retrouver Jimi Fontaine a cette conférence 😊)

Transitions démographiques, transitions sociétales, transitions publicitaires ? (ptit dej IREP compte rendu partiel)

Share This:

Un énorme changement dans notre société est en train de se produire, le vieillissement de la population, il était important de faire le point avec une experte du sujet Hélène Xuan (Economiste, Université Paris Dauphine, ex déléguée générale de la chaire « transitions économiques, transitions démographiques » et fondatrice de Mootando) et d’en voir les conséquences dans le métier de la communication avec Olivier Altmann (Co-fondateur, CEO et CCO d’Altmann+Pacreau) .

Du point de vue sociétal – Hélène Xuan

Les plus de 60 ans représenteront 30% de la population dans les 5 ans à venir. La société bascule d’une société du vieillissement à une société de la longévité. On passe d’une société où le cycle de vie est organisé avec un cycle ternaire (schématiquement, enfant / ado, actif, retraité) à un glissement vers la longévité, un allongement de l’espérance de vie par le haut qui est un phénomène nouveau. Le gain de mortalité, aujourd’hui, est majoritairement concentré sur les plus de 50 ans et non plus sur les enfants. C’est un changement radical, un changement de perspective. A 50 ans, une nouvelle période de vie s’ouvre avec de nouvelles valeurs, de nouveaux modes de vie. Les transitions ne sont plus, uniquement, entre le passage de l’adolescence à la vie adulte, ou de la vie adulte à la vie de « retraité ». C’est un changement radical en termes d’organisation de mode de vie qui impacte profondément, par exemple, le marché du travail, de la protection sociale, de l’éducation.

Ce phénomène de longévité est observable dans tous les pays développés, et ce gain en matière d’espérance de vie est concentré sur les plus de 50 ans. Cela ne s’est jamais passé dans l’histoire de l’humanité de se retrouver, à 60 ans, en très bonne santé, à se demander ce que l’on va faire des 25 années qui restent à vivre !

Si l’on prolonge ces tendances, cela signifie qu’un enfant sur deux né aujourd’hui sera peut-être centenaire, et qu’1/4 des actuels quinquagénaires vont devenir centenaires !

Même si le phénomène est connu depuis les années 60, le fait de l’appréhender concrètement et de façon massive avec une population de plus de 50 ans grandissante, a nécessité un certain temps d’assimilation pour en percevoir les véritables conséquences économiques. Les projections économiques sur le système de retraite ont apporté, dès 1993, la première réforme de celui-ci. Grâce à la réforme, le système de retraite est, aujourd’hui, presque équilibré, même si les réflexions et les débats vont perdurer.

La difficulté porte sur les générations transitoires comme le passage entre la vie active et la retraite, ou le passage de la fin du système scolaire à la période de vie active. Ces deux périodes de vie sont longues et durent plus de 5 ans. Les politiques menées sont encore très ternaires, on finit ses études et l’on travaille, on s’arrête de travailler et on part en retraite directement. Or, depuis les années 80, nous savons que cela ne se passe pas exactement comme ça !

Les phases de transitions sont de plus en plus longues avec des périodes de chômage, notamment chez les jeunes avant d’entrer vraiment dans le marché du travail, mais aussi chez les seniors qui vivent souvent des fins de vie active accidentées avec la création de multi-activités et de multiples statuts.

On a donc deux générations pivot qui vivent à la fois la difficulté de l’entrée dans la vie active d’une part, et d’autre part l’allongement de l’espérance de vie dans un système qui n’a pas encore intégré ces mutations.

Les 25-30 ans constituent la première génération de transition. Le schéma classique « installation directement dans la vie active » à la fin des études n’existe plus. Cette période où ils s’installent est devenue très longue. Ils passent par des phases d’expérimentation, des allers-retours sur le marché du travail, ils se cherchent.

En fin de vie active, entre 55 et 65 ans, on a la deuxième génération de transition. Il se passe la même chose que pour les jeunes, une zone de creux. L’âge légal de départ de 62 ans va devenir de plus en plus faux puisque va y avoir un alignement de l’âge de départ en retraite en fonction de l’année de naissance. Cette individualisation va permettre la création de zones de vie différenciées.

Communication des marques – Olivier Altmann

Même si les articles, les informations existent, les marques ont une obsession de la jeunesse.

Certes, il y a un business pour les gens plus âgés, avec le tourisme dont le boom des croisières, ou les sociétés de services d’aide à la personne. Pour ces marchés, la communication est souvent dédiée, assez ciblée. Mais l’essentiel des stratégies de marques est orienté vers le rajeunissement de la cible. Ce rajeunissement peut passer de 55 à 45 ans par exemple.

Le digital accélère le ciblage vers des populations plus jeunes. En effet, les moyens de communication se digitalisant, ceux qui maîtrisent le digital sont digital native, et de fait les jeunes sont les plus ciblés. De plus, un directeur marketing ou de la communication qui a plutôt entre 40 et 50 ans, a peur aussi d’être dépassé, déclassé, « ringardisé », de ne plus être en phase avec ses consommateurs, ce qui accentue sa pression pour s’orienter vers les cibles jeunes, et ce parfois au détriment d’actions auprès de consommateurs fidèles qui peuvent l’être encore plusieurs années. Dans les faits, il y a très peu de plans médias ou de stratégies de communication qui jouent sur cette longévité.

Le secteur automobile en est un bon exemple. Les spots publicitaires mettent souvent en scène des jeunes couples de 25 ans alors que ceux qui peuvent réellement acheter des voitures neuves ont plutôt 55 ans.

Un nouveau phénomène apparaît en contradiction avec la longévité, c’est sur le moindre désir de possession du neuf, ou un mode d’achat plus temporaire qui est lié soit à des postures de consommation, soit à des contraintes en termes de pouvoir d’achat. À une période de surconsommation, succède aujourd’hui une période de consommation plus responsable, une quête de sens, de réalisation personnelle en particulier auprès des plus âgés.

 

La suite du compte rendu est réservé aux membres de l’IREP ou aux personnes ayant assistées à ce petit déjeuner IREP

Perdre la moitié de son CA pour … mieux : le cas SIRDATA

Share This:

Une première, dans tracks&facts, une interview de Benoît Oberlé, fondateur et CEO de SIRDATA (merci à Benoît Oberlé et Nathalie Harding pour ce moment).

  1. Les faits

2 étapes à cette baisse de 50% du CA

  • La première est arrivée le 1er janvier 2018 quand les annonceurs et leurs agences ont coupé leurs approvisionnements en données tierces, par précaution, en attendant des retours juridiques sur l’interprétation du RGPD (le Règlement Général pour la Protection des Données). Même si SIRDATA avait déjà entamé son processus de mise en conformité, le gros du flux d’information est passé à Zéro (pour un temps). D’où un certain chaos, pendant le 1er trimestre 2018, pour intégrer cet impact financier, rassurer (interne et externe) et voir les flux repartirent petit à petit, notamment, grâce à l’obtention du label ePrivacy seal, en avril 2018.
  • La seconde a été la mise en conformité du réseau SIRDATA. Là, il était nécessaire d’auditer, de vérifier la mise en oeuvre d’actions auprès des fournisseurs (une page de vie privée sur le site, une mention et un lien vers SIRDATA, l’affichage du bandeau cookie…). La conséquence a été la perte de 35% d’entre eux, ceux qui ne comprenaient pas que ce n’était pas un caprice de l’entreprise mais une nécessité légale. Dans cette étape, il a fallu aussi intégrer le choix de l’internaute, et donc de respecter une demande d’opposition pour obtenir un consentement valide.

 

« On est passé d’un monde où l’on pouvait tout faire sauf quand l’internaute disait STOP,

à un monde où l’on ne peut rien faire tant que l’internaute n’a pas dit OUI ».

  1. Pourquoi avoir choisi le consentement de l’internaute plutôt que l’intérêt légitime comme base légale?

Le consentement ou l’intérêt légitime sont des finalités permises par le règlement. Mais, quand la raison d’être de la société est la data, comme SIRDATA, on est exposé, les partenaires aussi, on ne peut, alors, prendre des risques. Benoît Oberlé a fait ce choix de la recherche de consentement car il n’avait pas le choix, tout simplement, quel qu’en soit son prix !

« Penser que la CNIL serait indulgente était et est une erreur »

Aujourd’hui, le marché est majoritairement dans la phase d’acceptation du consentement légitime. Les acteurs font désormais ce travail de conformité même s’il y a un manque à gagner.

  1. Quelles leçons de cette année 2018 ?

  • Une meilleure compréhension du marché et notamment la centralité du rôle des éditeurs.

“On sous-estime la pression sur leurs épaules et le sentiment d’isolement que peuvent
connaître certains de leurs collaborateurs coincés entre obligations réglementaires et impératifs
économiques.”

  • La compréhension juridique est l’autre leçon. Il fallait comprendre le texte juridique (jargon) mais aussi, et surtout, passer aux actions, comme être capable de paramétrer correctement des outils comme les CMP qui sont et restent des moyens de conformité et non des gages de conformité.

« Nous avons compris le lien entre le texte, l’objet du texte et la mise en musique du texte ».

  • Et d’un point de vue plus personnel, il a fallu apprendre à « parler » et à échanger avec l’industrie pour progresser.

« Mettre de l’eau dans son vin pour avancer, mettre en oeuvre sans renoncer à ses exigences ! »

  1. Les bénéfices de l’année 2018 ?

« Nous y avons gagné  quelques lettres de noblesse, sans être les seuls, bien sûr »

Ils sont nombreux!

Une équipe plus experte autour de la donnée, de la privacy et des services associés, soudée par ce choc de marché. Il a permis de montrer que le RGPD donne à l’utilisateur un contrôle, le droit à la portabilité de ses données. Ceci ne signifie pas la disparition du ciblage qu’il soit comportemental ou contextuel à des fins publicitaires.

Un élargissement de l’activité de plusieurs façons. Comme le marché évolue, il a fallu couvrir les SSP en plus des DSP.  Le second élargissement est, depuis 2018, de mettre à disposition en mode SaaS, son outil de traitement sémantique.

Une agilité face au processus légaux qui a permis des gains de parts de marché, de  nouveaux éditeurs,  une notoriété et une crédibilité marché supérieure, avec une implication plus  forte au sein de l’IAB France ou l’IAB Europe.

Mais surtout, l’entreprise a renforcé sa capacité à expliquer ses méthodes et outils. Elle propose de nouveaux produits ou services tels que l’intégration de la fonction conseil dans l’entreprise.  Enfin, une gestion d’entreprise saine avec un risque faible.

  1. Demain ?

a) e-privacy ?

La crainte qui plane sur le monde publicitaire, est celle d’une e-privacy DURE, soit le contrôle des cookies par le navigateur. Une mobilisation commune demeure impérative, c’est une question de survie et même de souveraineté.

Le marché doit montrer aux régulateurs qu’il sait s’organiser pour respecter la vie privée et qu’une régulation dure, sur ce point, n’est pas nécessaire. Que ce soit en France ou dans d’autres pays (Europe, USA, …), il semble y avoir une quasi-unanimité, non pas des positions encore, mais au moins sur l’objectif. La construction du TCF (Transparency Consent Framework) en est une et se doit d’apporter une réponse avant le texte.

« C’est la première vraie construction commune positive et ouverte que je vois en 20 ans de marché ».

b) L’avenir du third ?

L’avenir du 3rd? il faut élargir au 2nd, 1st car le consentement concerne tous les types de données!

De toute façon, cela passera par un point, le contrôle permis à l’utilisateur. Il faudra une génération pour que chacun comprenne ce qui se passe avec la data – une opportunité de new deal. Par exemple, il ne faut pas condamner la « cookie fatigue » : chaque bandeau d’information qui s’affiche participe à l’éducation des internautes, il faut qu’il y en ait jusqu’au jour où même l’utilisateur le plus prompt à passer ce type de message en prendra connaissance, puis en lira un autre. L’internaute qui contrôle et comprend ce qui se passe et les outils qu’il a à sa disposition, voici ce qui laissera aux acteurs du marché une chance de monétiser les données personnelles : s’il ne comprend pas…. ou ne peut pas contrôler dans le temps (nécessité d’un bouton “cookies” ou équivalent pour modifier ces choix à posteriori)…., le risque est que l’utilisateur dise non à tout, tout le temps

 

En conclusion, nous avons rencontré un entrepreneur qui a plus de cheveux blancs après une année 2018 compliquée et riche (nous n’avons pas parlé du contrôle fiscal intervenu aussi en 2018 avec comme résultat … aucun redressement) mais résolument optimiste quant à l’avenir de la publicité digitale et de son entreprise, cela fait plaisir !

KPIs : performance killed the branding star ou la démesure de la mesure

Share This:

tribune d’Olivier Goulet (iligo) et Isabelle Le Roy (tracks&facts) dans CB Expert (avril 2019) et intervention à l’IREP Forum de mai 2019

Le tube des Buggles en 1980 (« Video killed the radio star ») était pour le moins visionnaire, 25 ans avant la création de YouTube en 2005. Pour pasticher ce tube, la question se pose de savoir de savoir si la recherche de l’efficacité à court terme dans les actions de communication n’est pas en train de tuer la publicité elle-même.

Il existe un risque non négligeable. En voici les raisons.

DE LASCAUX A LIKE MOI

Le sens historique de la communication (qu’elle soit de marque, mais aussi d’opinion) était de construire des représentations symboliques qui puissent se transmettre aux et entre individus. Les peintures de l’art pariétal, encore visible à Lascaux, poursuivaient probablement cette fonction. Au XXème siècle, l’application de cette fonction a conduit à la création de marques fortes, d’institutions fortes. Conséquemment, la chose publicitaire devait bâtir des marques et des institutions puissantes basées sur des socles rationnels ou symboliques solides. La mesure de l’efficacité de la publicité était alors de comprendre comment la marque construisait un positionnement, une image, suffisamment fortes pour justifier des actions de la part des individus (à savoir, des ventes, des souscriptions, etc.). Un certain âge d’or de la communication était né.
Et internet, le digital, arriva.

L’accélération du temps, la fascination de la traçabilité et du chiffre changea les sens et l’essence même de la communication. Ce qui est dorénavant recherché, c’est l’effet court terme de l’action.

Combien de likes, quasi minute par minute, combien d’impressions, combien de ventes idéalement dans l’instant. Et la mesure de l’efficacité de « dériver » fortement du branding vers le selling, la performance
Quel est l’intérêt de mesurer la construction de la marque ou de l’institution? Il faut mesurer si elles sont achetées, utilisées à court terme.
C’est très louable, certes, mais cela suppose, quand même, que la marque a un fonds (de marque), une forme de construction de son positionnement qui précède la vente. En effet, on achète rarement quelque chose qu’on ne connaît pas et dont on n’a aucune connaissance fonctionnelle ou symbolique.
Et cela demande, surtout, de maîtriser le calcul du fameux R.O.I (Retour sur Investissement). Mais, si l’on veut que la mesure de l’efficacité fasse un lien avec les « ventes », il est nécessaire de rappeler quelques fondamentaux.

LE R.O.I EST NU      

Trois fondamentaux à rappeler sur ce fameux ROI.
1. La communication, même dans son acception « selling », ne sert pas qu’à générer des ventes supplémentaires (additionnelles, incrémentales), elle sert surtout, notamment dans les pays économiquement matures, à maintenir des ventes. Si l’on calcule uniquement l’«uplift », on nie le fait que, sans communication, les ventes auraient probablement décru.
2. La communication est financée par la marge des entreprises et non par le chiffre d’affaires. On voit très souvent des « best cases » (parfois récompensés dans des Prix d’ailleurs), montrer qu’avec une campagne, de 250 000 euros, par exemple, a généré 500 000 euros de ventes dites incrémentales. Un ROI de 2 dit-on ! Mais en fait non. Car si vous investissez 250 000 euros en communication avec une marge de 10%, c’est 2 500 000 ventes qu’il faut générer pour créer un ROI positif et 5 millions pour un ROI de 2. Combien de campagnes génèrent cela à court terme ? Une longue expérience nous fait affirmer : pratiquement aucune !
3. Comment, à quoi attribuer ces ventes « incrémentales » ? Une campagne, ce sont des centaines de prise de paroles. Tout doit-il être affecté au dernier contact ? Cela semble absurde (contestation du last clic par exemple…), et pourtant, c’est très souvent le choix effectué. Faut-il modéliser ? C’est beaucoup mieux, mais ne doit-on modéliser que les ventes à court terme.

BRAND WILL BE BACK 

Alors, faut-il être défaitiste et ne plus croire à l’efficacité de la communication ? NON !
Cependant, il faut rééquilibrer les choses et construire le BRANDING tout autant que le SELLING. Est-ce possible ? OUI ! Et ce n’est, d’ailleurs, pas nouveau. Nous faisons référence, par exemple, à un papier paru en 1999, dans, l’excellent déjà, CB NEWS où l’on montrait, une expérimentation avec le groupe TOTAL, qu’il était possible de croiser les données de ventes (SELLING) avec une mesure d’efficacité de la communication (BRANDING) sur la simple base d’un fichier client (déjà le « One to One »).
La solution est là : croiser, sur de mêmes individus, les datas enregistrées sur les ventes avec une mesure branding. C’est une manière supplémentaire de valoriser cette fameuse data. Cela nécessite, bien sûr, que l’annonceur dispose de données clients, mais c’est de plus en plus le cas grâce au digital. Et dans le cas contraire, il est possible de faire appel à des panels consommateurs existants.
Cette revalorisation de la marque, à l’heure du tout performance, est d’ailleurs urgente.

MORT AUX MARQUES FAIBLES ! 

Ne nous trompons pas de révolution digitale. Le search et les réseaux sociaux ont plus de dix ans. Google et Facebook sont devenus des acteurs majeurs du monde de la communication d’aujourd’hui. Mais, leurs modèles, bien que rupturistes, ne remettaient pas en cause les fondamentaux de la communication. Une marque faible avec quelques moyens pouvait émerger.

 

Tout ce qui arrive ou va arriver, que ce soit d’ordre technologique (IA, Voix, Virtuel, Crispr-Cas 9, Nano, 5G, Quantique…) ou sociétal (âge, urbanisation, temporalité…), est encore plus impactant. Nous connaissons aujourd’hui, en tant qu’individus, les bulles de pensée. Les marques demain, devront s’intégrer dans des bulles, des écosystèmes, de consommation dont elles ne seront pas maîtres. Dès lors, développer des marques fortes et mesurer leurs forces, tout autant matérielles, symboliques, que sociales, est crucial.

L’optimisation du SELLING est important, mais la communication ne peut se résumer à cela, sinon elle perdra, et son sens et sa légitimité.

« Older posts Newer posts »