Étiquette : machine-learning (Page 1 of 3)

Marketing Remix 2019 de Viuz (compte rendu partial et partiel)

Share This:

Comment faire un compte rendu quand vous n’avez pu vous rendre à un évènement (à notre grand regret) ? C’est simple, il suffit de regarder les vidéos de l’évènement ! C’est ce que nous avons fait pour le Marketing Remix du 7 novembre 2019, organisé, comme tous les ans, par Viuz.

Une première cette année, les duettistes organisateurs habituels, Patrick Kervern et Andres Menajovsky, n’étaient plus qu’un solo, Andres (qui fut appelé Patrick par une intervenante, comme Patrick que l’on appelle aussi Andres !)

Merci à VIUZ de faire une conférence où les femmes sont nombreuses à prendre la parole !

Regarder des vidéos, ce n’est pas pareil que d’assister à l’évènement:

  • Avec la vidéo vous ne voyez pas l’écran où l’intervenant projette sa présentation mais seulement son visage et sa voix. Cela limite les effets que les uns et les autres ont pu ou du vouloir faire.
  • Une vidéo vous donne une autre liberté, celle d’arrêter de suivre et donc celle de passer à autre chose… De l’importance du « choc de l’intro » !
  • La vidéo vous donne le choix aussi de ne pas voir X ou Y car, en général, vous n’apprenez rien de cette personne…
  • La vidéo vous met aussi face à un contenu énorme ou la question est comment optimiser le temps et ne voir que ce qui est bien ! Impossible de répondre à cela (on a eu l’aide d’une copine qui a assisté à l’évènement !) et il ne faut surtout pas se fier au nombre de vues de chacune car pour avoir écouté certaines parmi les plus regardées et à l’opposé certaines qui recueillent peu de vues il n’y a pas de corrélation avec le contenu (selon nous) !

Alors nous vous proposons, dans cet ordre, les impressions suivantes :

  • CONVAINCUE et CONVAINCANTE : Amélie Oudéa-Castera, CARREFOUR
  • CASH : Jérôme Sutter, PURESSENTIEL
  • ON AIME : Isabelle Bordry, RETENCY
  • COURAGEUX et PERSEVERANT : Bastien Schupp, Groupe RENAULT
  • TENDANCE : Arnaud Caplier, THE CONTILLERY
  • FIERE DE SON JOB : Aude du Colombier, TEDIBER
  • ETONNANT ET INTERESSANT : Philippe Guillaud, MATCHTUNE
  • BRAVOOOOOO : Guillaume Lacroix, BRUT
  1. COMMENT L’INTELLIGENCE ARTIFICIELLE TRANSFORME LE MARKETING DE CARREFOUR

Amélie Oudéa-Castera, Directrice exécutive e-commerce, data et transformation digitale | CARREFOUR |

Impression : CONVAINCUE et CONVAINCANTE

L’entreprise Carrefour (CRF)

CRF au croisement de toutes les disruptions : les transformations des règlements, des technologies des usages, la crise de confiance, l’intensité concurrentielle. La seule chose qui ne l’affecte pas, ce sont les taux négatifs (qui sont plutôt une chance !). La situation est donc complexe mais l’envie de réussir est là, pour les 380 000 employés dans le monde, parce que c’est une belle entreprise française et une marque qui a vécu et avancée avec nous tous.

Le plan CARREFOUR 2022

Un plan de transformation engagé par Alexandre Bompard, depuis janvier 2018, 5 années cela passe extrêmement vite !

Quatre grandes idées dans ce plan

  • la transformation alimentaire. Rendre le mieux manger accessible à tous en respectant la planète et en ayant une juste répartition du profit le long de la chaine de valeur. Cette idée est la chose la plus importante. C’est la raison d’être de CRF.
  • Réduction des coûts et hausse de la productivité
  • Simplification de l’organisation et de la culture d’entreprise
  • Omni-canalité entre les différents formats et le e-commerce pour une expérience fluide pour les clients CRF.

La data CRF

Quelques chiffres : 104 millions de foyer clients dans le monde qui réalisent quotidiennement 13 millions de transactions dans les 9 géographies du groupe soient 4.5 milliards de transactions à l’année… Les données sont plutôt propres et organisées car reflet du ticket de caisse. Mais pour autant CRF n’est pas aujourd’hui une entreprise « data centric », le but est qu’elle le devienne même si ce n’est pas simple ! Quelques exemples :

  • Le rapport entre le ticket de caisse et la transition alimentaire. Une application vous donne, en fonction de votre ticket, la répartition de votre consommation selon les catégories de nutriments et vous fait de petites analyses de type « quel est votre nutri score » dans le mois. Une information non culpabilisante pour les clients qui peut devenir un jeu pour eux avec un incentive pour améliorer son score.
  • Bâtir des ponts entre les métiers. Dans « Act for food », il y a l’engagement de retirer 100 substances controversées dans les produits proposés. Il faut être capable de passer en revue en permanence toutes les références proposées dans le monde entier et s’assurer que, par exemple, les nitrites n’y sont plus. Cela suppose d’avoir une base « d’intelligence artificielle » contenant tout ce qui est inscrit sur les étiquettes des produits plus des informations complémentaires données par les fournisseurs.
  • Le ecommerce en alimentaire n’est pas rentable. Le vrai pari avec le e-commerce est d’essayer de faire rentrer des nouveaux clients par ce canal et de les faire passer dans d’autres formats Carrefour pour que l’entreprise, au global, soit gagnante.

Le Lab avec Google ?

La data chez CRF est à la fois de la data pour tous et de la data de pointe. Le lab est installé à proximité de de station F et accueille des ingénieurs et scientifiques pour la partie algorithmique la plus avancée. Exemples : amélioration des prévisions de vente ecommerce, optimisation des assortiments en fonctions des centimètres de linéaire dans les petits magasins de proximité, management du niveau de générosité sur les coupons et personnalisation de ceux-ci.

Partenariat Google

Après une phase de scepticisme au début, la méfiance a disparu car CRF a pu bâtir des expériences de shopping intéressantes avec Google. Cette dernière ayant une très grande envie de rattraper Amazon, CRF bénéficie d’expériences sur l’IA, la voix mais développe, aussi, la suite de solutions « G suite » dans l’entreprise pour casser les silos, et utilise le cloud de Google pour toute la masse de données et leur mise à disposition rapide dans le monde entier au travers d’applications innovantes, sans parler des accords commerciaux du type mettre la google home dans les hypers à des prix attractifs. CRF bénéficie à travers le lab de l’apport d’expertise de Google notamment en matière de formation des équipes. Exemple le programme Google go transform qui était la première fois ou Google transformait son programme interne vers un client externe.

AMAZON?

Une menace de tous les jours mais aussi un moteur énorme. Amazon c’est le benchmark, « le Roger Federer du ecommerce » (Amelie est une ancienne joueuse de tennis !). Mais, l’alimentation est particulière. Le ecommerce c’est souvent le fond de panier mais la proposition de valeur d’un CRF ce sont ses formats et CRF doit se positionner aussi, par exemple, sur la livraison de nourriture bonne et fraiche à l’instar d’acteur comme Frichti, Nestor pour réaliser la première promesse du plan 2022.

VISION ?

Le mot « transformation » donne l’impression d’avoir du temps, c’est faux ! Le travail de l’équipe est d’être là pour le succès de Carrefour aujourd’hui ! C’est la société dans son ensemble qui doit se réinventer et nos générations ont une responsabilité forte car les modèles sont cassés. On doit tous souhaiter que la french touch de Carrefour réussisse !

2-      RETENEZ L’ATTENTION DE VOS CONSOMMATEURS : SOYEZ VU ET ENTENDU

Franck Da Silva, Directeur Commercial & Opérations, GRAVITY

Jérôme Sutter, Directeur Communication & E-Business, PURESSENTIEL

Impression : CASH

Jérôme Sutter a parlé cash et il peut parler cash pour avoir vécu, depuis un peu moins de 20 ans, tous les aspects du digital (site, media, agence, consulting…) et être maintenant directeur de la communication et du ebusiness.

Son budget de communication est faible. Il est pluri-media (presse, tv, radio, affichage, digital) et le digital représente la plus faible partie de son budget, paradoxal vu son parcours ?  Non, car le pragmatisme le guide et il ne veut pas dépenser son argent pour rien ! Alors, pour des opérations digitales, la réponse la plus simple ce sont les « walled garden » qui lui permettent d’agir facilement dans 10 pays, sans que cela coûte des millions. MAIS…la nébuleuse du programmatique, les kickbacks, le bullshit en matière de langage, les indicateurs faux…. « LES WALLED GARDEN, CA NOUS SAOULE, NOUS LES ANNONCEURS » (applaudissements dans la salle). La confiance n’étant plus là, il se tourne vers des gens de confiance et des systèmes transparents comme GRAVITY. Celle-ci vend, comme le dite Jérôme Sutter, un « true view » à la française 😉. Puressentiel a réalisé une opération vidéo avec Gravity et en est très très content !

3-      MESURE D’IMPACT PUBLICITAIRE PLURIMÉDIA EN MAGASIN

Isabelle Bordry, Co-fondatrice | RETENCY |

Jacques Thieck, Directeur Outils et Enablers Marketing | ORANGE |

Impression : ON AIME

Le drive to store en vrai n’est pas facile à mesurer. Il est nécessaire d’avoir un tiers de confiance pour mesurer l’effet d’une campagne sur chacune des boutiques Orange. Or, en étant dans le monde physique, pas de cookies ! La mesure doit être agnostique sur la donnée et être rigoureuse sur le mode de traitement de la donnée.  D’où la sélection de Retency (une excellente solution à notre humble avis), avec ses boitiers implantés en magasin pour compter les contacts client (via leur mobile) et son mode d’anonymisation complète de la donnée (destruction de la donnée individuelle). Orange a pu mesurer, avec Retency, l’effet de 2 campagnes drive to store classique avec 2 fournisseurs différents pour voir l’impact des formats et les pénétrations atteintes par les 2 fournisseurs (campagne fibre,  5 millions d’exposition, 22 500 visiteurs exposés se sont rendus dans des magasins des Hauts de seine). « C’est le graal » selon l’annonceur.

L’expérience ne s’est pas limitée à ces campagnes mais a été continuée pour une campagne d’affichage, une de SMS, et même les vitrines de magasin Orange.

4-      LA VIE D’UNE MARQUE, DU MASS MARKETING AU MASS PERSONNALISATION, 2 ANS APRÈS

Bastien Schupp, Vice President Global Customer Activation, GROUPE RENAULT

Impression : COURAGEUX et PERSEVERANT

Il était venu il y a 2 ans et revient faire le bilan de la stratégie de communication mise en place (il avait été très brillant dans son intervention ancienne et est toujours très bon aujourd’hui !)

L’idée de départ ?

90% des ressources sont investies sur la fin du cycle d’achat de la voiture. Or cela parait logique d’étaler les messages dans la durée pour construire une relation avec le consommateur. L’idée était alors de mettre 50% des moyens sur la construction de la marque et 50% sur le fin.

Le programme ?

3 piliers à ce programme

1-construire un eco-système data

2- construire différemment les contenus

3- acheter différemment les media

Tout ceci chapeauté par un essai de motivation des agences par de l’excellence créative et un programme de formation et d’accompagnement pour réaliser cette transformation.

Succès ?

OUI ! Au global, c’est un succès. L’entreprise Renault s’est transformée, les équipes marketing et communication aussi et la plupart des outils sont en place même s’il y en encore du travail de rationalisation à faire de ce coté-là. Il ne suffisait pas de transformer Renault il fallait transformer aussi les fournisseurs sur la manière de faire. Ainsi, les équipes de Publicis, d’OMD et tous les partenaires data sont sur un même plateau avec les équipes Renault. Cela a permis un gain de 40% sur le temps de création des campagnes.

MAIS il y a des choses simples ou banales que l’on a appris

  • Si les équipes marcom ont bien compris, les patrons des filiales qui sont poussés sans arrêt sur les volumes au quotidien, ont beaucoup de mal à opérer ce passage du 90%/10% vers le 50%/50%. La seule solution tient dans la répétition permanente dans tous les comités de direction du message et de quantifier de prouver que c’est plus efficace. Quand un pays vous suit, il sert d’exemple pour les autres.
  • Le frein principal c’est la capacité et le savoir-faire interne. Un pays qui était parfait sur la nouvelle approche pendant 6 mois, repart dans de mauvaises directions tout simplement parce qu’une personne a changé ! Il faut faire un mélange entre les nouvelles équipes et les anciennes et vérifier le travail de manière régulière
  • Les modes de l’ad tech sont insupportables, tous les jours des prestataires viennent vous dire que tout ce que vous faites est nul et qu’il faut tout changer ! Il ne faut pas écouter les sirènes, il ne faut pas essayer d’être le premier dans tout ce que vous faites, il faut réduire ses ambitions, choisir ce qui marche et ce sont, bien souvent de petites choses, et ensuite persévérer !

5-      INTELLIGENCE ARTIFICIELLE : LES DÉCRYPTAGES DE L’ENGAGEMENT VISUEL

Arnaud Caplier, Fondateur, THE CONTILLERY

Impression : TENDANCE

On parle beaucoup de data, l’effort a été porté sur la cible, le moment, le canal et quasiment jamais sur l’optimisation des contenus qui est le plus souvent vue sous l’angle de la personnalisation et non de la qualité des contenus. Or la data permet maintenant d’arriver à cette optimisation des contenus.

En data, explosion, profusion et arrivée du machine learning. Une image aujourd’hui c’est une foultitude d’information (profondeur, luminosité, pixel, salience, ….) et on peut entamer le cycle de mesure de la relation entre les caractéristiques de l‘image sur l’action (ex image sur Instagram et like). De cette mesure, on peut ensuite aller à la prévision sous la forme d’un score par image. Une image avec un score de ou un score de 9 ont des résultats finaux extrêmement différents : conversion x 2, engagement social x 10 ou x 20.

6-      TEDIBER, UNE APPROCHE DIRECT TO CONSUMER EN RUPTURE AVEC TOUS LES CODES EXISTANTS

Aude du Colombier, Co-fondatrice, TEDIBER

Impression : FIERE DE SON JOB

Création il y a 4 ans, d’une startup sur les matelas (achat important, on passe un tiers de sa vie dans un lit !) avec comme ligne directrice « remettre les clients au cœur dans tout ce que l’on fait ». L’entreprise est passée de 4 à 40 personnes avec une organisation fluide sans silo entre les fonctions. Tout le monde est actionnaire !

  • Un business model totalement intégré de la fabrication d’un matelas jusqu’à la livraison à domicile pour offrir, au client, une expérience très simple et fluide en plus du rapport qualité / prix imbattable (optimisation maximale à tous les niveaux)
  • Une réinvention des fondamentaux du marché en simplifiant le choix d’où un modèle unique de matelas
  • La mise en transparence avec un prix juste, unique, constant toute l’année. Aucune solde n’est faite pour instaurer de la confiance et avoir une approche responsable. Ceci permet aussi d’avoir les moyens d’investir dans de la production locale, dans de la qualité produit, dans de la recherche
  • La confiance passe par 100 nuits d’essai et si ça ne va pas remboursement immédiat avec récupération du produit (partenariat avec Emmaüs Défi pour ces matelas)
  • La satisfaction des clients comme obsession. La pérennité de l’entreprise viendra de cela. L’équipe service client est alors la plus grosse équipe (20% des effectifs), pas de sous-traitance. Cette équipe est un actif de l’entreprise et c’est une source d’insight pour tout le reste de l’entreprise. La qualité du service client est le ressort du bouche à oreille et un vrai facteur de choix par rapport aux concurrents.
  • Une évolution physique avec l’ouverture d’un magasin et bientôt d’un second même si Tediber est née sur le web et que le plus gros du business est toujours sur le web. La boutique permet l’incarnation physique et amélioration de l’expérience client.
  • Une extension de gamme vers le canapé lit
  • Une volonté de devenir une marque de référence
  • Une minimisation de l’impact environnemental avec une production européenne et le lien avec Emmaüs

Bref, l’entrepreneuriat est une aventure passionnante, et lui permet d’avoir une vraie fierté dans le développement d’une marque et d’une activité à partir de rien. Aucun regret sur le reporting et la politique qu’elle devait faire dans les grandes entreprises où elle a travaillé (Unilever, Mc Kinsey, Google) !

7-      MUSIQUE, L’INTELLIGENCE ARTIFICIELLE COMME INSPIRATION

Philippe Guillaud, CEO, MATCHTUNE (associé à André Manoukian)

Impression : ETONNANT ET INTERESSANT

Il est allé voir les entreprises qui créent les vidéos. Pour toutes, la musique est le problème !

  • Il faut passer beaucoup de temps dans les grands catalogues pour faire un choix et encore faut-il trouver la bonne quand le métier d’illustrateur sonore n’existe plus.
  • Comment transformer 3 minutes en 25 secondes ? des couts s’ajoutent…
  • Et quand on a les 25 secondes, ca ne colle pas forcement bien avec les images
  • De plus, si la musique ne plait pas, il faut tout refaire…. !

MatchTune résoudrait ces problèmes grâce à l’IA !

Pour lui, il faut d’abord comprendre la vidéo, sa structure. Ensuite on peut proposer un nombre restreint de musique et demander à l’IA d’adapter la musique à la vidéo. La machine adapte la musique pour la caler sur les x secondes de video et si ça ne plait pas, la machine propose quelque chose d’autres en un claquement de doigt !

Nous aurions aimé voir comment on fait pour mieux comprendre le processus, mais c’est intéressant !

8-      “LET’S TALK ABOUT” BRUT.

Guillaume Lacroix, CEO, BRUT

Impression : BRAVOOOOOO !

BRUT est le résultat d’une intuition et d’une révolution.

  • La révolution est que la conversation change la consommation media. BRUT essaye de donner du contexte a l’actualité, a la société, au monde pour démarrer une conversation pas un débat. Ce dernier ne fait que polariser les opinions (ca marche très bien sur les réseaux sociaux), cela fait du clic et n’est pas vertueux. La conversation par contre permet de bâtir des communautés. C’est la révolution
  • L’intuition est venue sur les thèmes que BRUT traite. Quelques chiffres : 30 millions de personnes qui regarde BRUT chaque jour, 300 millions par mois principalement en Europe, en Inde (plus gros media en langue anglaise) et en Amérique du nord (seconde page media sur FB). 70% des spectateurs ont moins de 35 ans et ces individus, où qu’ils soient dans le monde, ont un système de valeurs qui a changé : responsabilité du pouvoir, droit des femmes, lutte contre les discriminations… tout ce qui est tourné vers des solutions pour la planète, l’environnement. L’intuition a été de choisir ces sujets là et BRUT a explosé avec la prise de conscience sur ces sujets.

Implantation.

En plus des pays pré-cités, une présence au Japon, en Chine, en Espagne, en Grande Bretagne. Dans chaque pays , la moitié de ce que BRUT distribue vient d’un autre pays. Ce qui est très bon pour le business model !

Génération globalisée.

Les variations régionales touchent la culture et le sport , le reste des valeurs est globale avec quelques nuances. Exemple en Inde, déjà le droit de la femme est compliqué, alors les LGBTQ, c’est plus dur ! Quand ils ont ouvert les USA, les jeunes américains se sont comportés de la même façon que les jeunes des autres pays, c’est pour cela qu’ils sont allés vite pour lancer la page américaine (il y a 18 mois). « Quand on s’intéresse à l’humain et que l’on montre qu’il y a des gens qui se bougent positivement à l’heure de médias classiques toujours négatifs, cela les intéresse ! »

Diffusion

Brut fait entre 1 milliard de vues par mois, 50% Facebook, 30% SNAPCHAT le reste c’est Instagram, YouTube (Ce dernier ne déclenche pas de conversation)

Vice fait 650 millions de dollars de revenu et ils ne sont pas rentables. Si Brut fait cela, ce n’est même plus de la rentabilité il peut partir sur la lune !

La pub ?

On a affaire à des générations qui adorent les marques et détestent la pub ! Du coup comment créer l’expérience publicitaire. BRUT choisit ses clients pour garder une intégrité de marque. Sur les réseaux sociaux ce qui marche c’est la preuve de ce que l’on fait, BRUT agit comme un tiers de confiance.

BRUT a levé 40 millions de dollars (Artemis, Alexandre Mars, …) pour s’étendre aux USA, assez ou pas assez ?

Editorialement BRUT fonctionne déjà très bien aux USA mais il faut convertir. BRUT est déjà archi rentable en France (pas de chiffres fournis), cela doit etre uen réalité partout. A titre d’exemple, VICE fait 650 millions de dollars de revenu et ils ne sont pas rentables. Si BRUT fait cela, ce ne serait même plus de la rentabilité mais un départ pour la lune !

L’enjeu de BRUT est l’activation des communautés pour créer un impact sur les sujets qui ont poussé les individus à se constituer en communauté. Ce défi sera dévoilé début 2020.

Intelligence Artificielle

12 personnes en techno, utilise du machine learning pour analyser son bas de catalogue et avoir de la donnée qualitative sur les générations qui les consomment. BRUT sur travaille sur l’analyse du langage naturel (NLP). Exemple, si un individu a commenté telle vidéo, le NLP permettra de lui dire qu’il y a tel aspect de cette vidéo traité dans telle autre vidéo et de lui proposer de la voir. Si on arrive à le faire on va doubler notre audience automatiquement !

Brut est unique à l’international !

Une journée d’Intelligence Artificielle avec BONHEUR (un compte rendu partial et partiel)

Share This:

Comment résumer, en quelques lignes, une journée entière consacrée à l’intelligence artificielle le 23 octobre 2019, à Station F ?

Impossible d’autant plus que le programme était d’une richesse incroyable variant les mathématiques, la politique, le business, les enjeux, la pratique, les secteurs et 2 stars : Stéphane Mallat (Collège de France) et le montréalais Yoshua Bengio, l’un des 2 papes de l’IA avec le français Yann Le Cun (Le premier travaille pour Google, le second pour Facebook).

Chapeau pour cette magnifique journée (1 800 personnes y ont assisté) même si nous regrettons (cela va faire vieux c..) une journée complètement en anglais alors qu’il y a très très peu de non francophones dans la salle (3 à la première présentation…). Au moins, les ¾ des présentations étaient plus que compréhensibles pour des francophones vu la prégnance de l’accent français en anglais !! On regrettera aussi quelques changements de programme impromptus sans que l’application spécifique soit à jour, et les tics de langage du type « amazing », « incredible », « guys » …

Bref, nous ressortons de tout cela avec quoi ?

L’IA n’a rien de magique (nous le savions mais cela a été dit clairement moultes fois) et de nombreux progrès, dans tous les domaines, sont encore à venir pour contourner tous les problèmes et biais posés. Par contre, le processus d’automatisation est en marche avec son cortège de solutions business (Nous n’avions jamais vu une conférence avec autant d’offres d’emploi à l’intérieur même des présentations !!)

Un cocorico. La France est devenue, ce jour-là, officiellement, le pays leader en Europe sur l’Intelligence Artificielle (avant la Grande Bretagne et Israël) avec le premier rang en matière d’investissements dans les startups dédiées au sujet. 570 millions d’euros au 1er semestre 2019 pour une année qui atterrirait à 1.2 milliards d’euros selon les estimations du cabinet Roland Berger et de France Digitale (qui reprend l’organisation de l’événement France is AI).

Nous ne relatons ici, dans cet ordre, que ce qui concerne la politique, la complexité, les biais et contournements des biais, le business, le pragmatisme, le feel good et un tout petit peu de mathématiques.

Politique

Nous avons un ambassadeur pour le numérique (et il est compétent), Henri Verdier (…, Cap Digital, Etalab,…) qui doit « couvrir » 4 thématiques dans lesquelles l’IA est forcément présente :

  • Les grands sujets de cyber sécurité (nous vous rappelons une de nos obsessions : la question n’est pas de savoir si des crashs de cyber sécurité au niveau des états vont se produire mais quand ! Merci l’Estonie 2007…).
  • La participation des états a la gouvernance d’internet
  • La diplomatie économique
  • La défense et la promotion des valeurs qui structurent nos sociétés

En fait, il est à la recherche d’une troisième voie, l’Europe, alternative au « sans contrôle publique » américain et au « tout contrôle » chinois. Pour y arriver quelles solutions ?

Les lois avec l’exemple du RGPD qui fait des petits au Japon, en Inde et est copié aux USA. Ce qui n’empêche pas la France, par exemple, d’assouplir sa position par rapport à la circulation libre de la data (free flow of data with trust), l’important étant de savoir comment s’organiser.

L’argent mais que sont les investissements de chaque état européen pris indépendamment par rapport aux milliards américains et chinois. Il rappelle que le succès n’est pas proportionnel à l’argent investi, au tera octet de data, mais au fait d’être malin.

Et des engagements forts (?) sur des principes, des valeurs et l’éthique. Il pousse à la création d’un GIEC de l’IA (pas bête) pour avoir des gardes fous, au dépassement des conneries venant d’un pays (ex : la classification trompeuse des tomates en légume aux USA, alors que c’est un fruit, car il y a 100 ans pour des raisons de taxes, Heinz a qualifié les tomates en légumes. Aujourd’hui toutes les bases de données américaines utilisées en IA des USA classent les tomates en légume au lieu de fruit !).

Le rôle de l’Etat, pour lui, est celui du jardinier qui doit faciliter la vie des startups.

Complexité

On est loin de « l’intelligence » artificielle. La voiture autonome sur la place de l’étoile ce n’est pas pour demain. Trop d’interactions, de décisions à prendre encore pour les machines existantes qui ne sont capables que d’imiter des taches simples et répétitives (c’est déjà ça !). Une machine sait faire un chose à la fois et ne peut pas tout faire ! Exemple, la machine alpha GO est bonne pour le jeu de GO mais ne sait rien faire d’autres, il faut tout créer à chaque fois.

Biais et contournement des biais

  • Où sont les femmes (une fois de plus), quand on voit Karl Tuyls (Deepmind de Google et Université de Liverpool) qui remercie dans un slide de photos son équipe d’au moins 16 chercheurs, que des hommes ! Les organisateurs de la journée ont fait attention à ce point et des femmes étaient présentes sur la scène!
  • Biais des bases de données. Les modèles d’apprentissage des machines (machine learning supervisés) sont très gourmands en données. Pour leur apprendre des choses, il faut que l’humain intervienne, par exemple, en annotant des milliers d’images de façon à expliquer à la machine ce que signifie telle ou telle image. La masse d’images annotées permettra alors à la machine d’être capable de classer correctement de nouvelles images rencontrées Il y a un très gros business autour des bases de données d’images annotées, décrites, par les humains (Inde, Madagascar,…). Mais c’est long, cela coute cher (même si ces travailleurs humains sont payés une misère) et cela ne couvre pas toutes les situations car il est dangereux pour l’humain de coder certaines situations (il doit visionner des atrocités pour coder !). Sans aller chercher ici les horreurs pornographiques ou terroristes, pensez simplement aux accidents entre un piéton et une voiture, vous ne disposez pas d’un « corpus » de cas, d’images, suffisants. Pourquoi ne pas les créer dans un monde virtuel alors (Naila Murray, Naver Labs), et avoir alors de la variété dans les situations qu’un grand nombre de situations identiques.
  • Toujours sur les bases de données, imaginez 8 photos, 6 de chats blancs et noirs dans différentes positions et 2 de chiens noirs, eux aussi dans des positions différentes. Vous injectez dans la machine une photo de chien blanc pour classification en chien ou chat, la réponse sera chat, car toutes les photos d’un animal blanc était un chat ! Cela parait bête mais c’est une réalité que vous pouvez transposer à grande échelle. Cela renvoie à un biais très classique en stat, votre échantillon n’est pas représentatif de la population qu’il est censé représenter !
  • En Autriche, une startup se faisait fort de réduire le chômage en fournissant un algorithme d’adéquation entre le profil du candidat et l’offre d’emploi à base de machine learning. Super sur le principe mais la machine a appris le chemin le plus efficace trouvé dans l’historique des données, ne proposer des offres d’emploi qu’aux hommes car ils décrochent des emplois quand les femmes et les personnes handicapées n’en recevaient plus aucune…

Business

Criteo

La publicité était présente à cette journée avec les changements de fond opérés par Criteo dans son fonctionnement (Zofia Trstanova). Comment changer son moteur de recommandation pour être plus pertinent et être capable de présenter le bon produit pour 1 milliard de requêtes / utilisateurs en 50 millisecondes… ? Joli challenge ! Bien sûr, il y a l’historique de l’utilisateur mais quel produit choisir dans les milliers, millions de produits possibles parmi les partenaires de Criteo (CDiscount ….) ? C’est simple, Il faut construire une matrice de distance entre produits et choisir le plus proche voisin du dernier produit acheté ou choisi par l’utilisateur. Cela parait facile mais la masse de produits et l’urgence de la réponse change tout. Il faut alors approximer les distances, approximer la matrice.

Le nouveau système Criteo a commencé à être déployé il y a un an et demi. Il va être amélioré par l’incorporation des annotations d’images dans le processus.

Astra Zeneca (James Weatherhall VP Data science et AI)

Le raisonnement est simple pour un laboratoire pharmaceutique. Un brevet dure 20 and, il faut 12 ans pour arriver a une solution définitive et sa mise en marché. Il ne reste donc que 8 ans pour obtenir des revenus. Comment raccourcir les 12 ans pour allonger les 8 de revenus ! La première étape est dans la connexion de toutes les données qui existent maintenant pour un laboratoire pharmaceutique (données génomiques et génétiques, données patients, données de capteurs, données d’interaction media, données des réseaux d’information médicaux, données de marché. La seconde étape est de connecter un certain nombre de ces données (ca a pris moins de 2 ans). Ensuite, et il y en a pour 5 ans encore, on applique de l’Intelligence Artificielle. Premier exemple, dans la découverte de médicament, les « manipulations » de molécule sont « facilement » automatisables. Ce qui prend aujourd’hui 24 jours pourraient baisser à 5 jours. Second exemple, l’interprétation radiologique dans des cas de tumeur. Un radiologue met 20 minutes, dans des cas complexes à analyser l’épreuve avec environ 10% d’erreurs quand un processus d’IA met quelques secondes avec moins de 1% d’erreurs.

Eramet (Jean Loup Loyer, Head of data sciences & AI)

Une société de production minière (Nouvelle Calédonie, Gabon…) et de métallurgie qui comme Astra Zeneca est maintenant à la tête de nombreuses données. Une des premières utilisations a été de faire de la maintenance préventive sur ses machines d’extraction grâce à l’analyse des données de capteurs. Mais en allant plus loin, Eramet analyse maintenant les images prises par drone des chantiers de ses concurrents ou clients pour adapter au plus juste sa production miniere et ajuster ses prix !

Société Générale (Julien Molez, Group Innovation Data & AI Leader)

L’analyse des données n’y est pas nouvelle (l’actuariat pour la gestion des risques) mais là encore, la masse de données issues des clients, de la dématérialisation des documents, permet d’aller plus loin. 3 cas d’utilisation de l’Intelligence Artificielle

  1. Analyse du langage (NLP) sur les clauses de confidentialité a signer avec des partenaires potentiels pour voir si elles sont compatibles avec la législation bancaire et la politique de la banque.
  2. Moteur de recommandation du bon article à lire au bon moment pour les clients de la branche affaires (et leurs conseillers)
  3. Analyse de tous les paiements de la banque en temps réel en France pour détecter les valeurs aberrantes (outliers) et bloquer les mauvaises transactions

Pragmatisme (Benoit Limare, Sicara)

Une fraîcheur de propos très agréable.

Pour lui il y a au moins 2 catégories de projet d’IA :

  • L’IA bidon, la start-up qui dit qu’elle fait de l’IA (notamment en reconnaissance d’image) et qui a, en fait de nombreuses petites mains à Madagascar pour classer les images…
  • L’IA raisonnable : démarrer petit pour élargir le champ par la suite. Le grand soir dans de l’IA est dangereux car il faut prouver l’intérêt de la méthode à la fois auprès des salariés proches de l’informatique mais aussi ceux qui sont touchés par le process et la direction générale. Commencer par quelque chose de raisonnable (voire même bidon) est le moyen d’amorcer la pompe, d’emporter l’adhésion de tous avant d’engager des coûts élevés dans un projet plus complet (l’IA ça coûte cher !)

Des exemples :

  • Une société de produits de beauté voulant un moteur d’IA pour recommander le bon produit de soins pour la peau a de clientes avec déjà une bonne solution avec un selfie et quelques bonnes questions.
  • Une autre où le DSI voulait réduire une tache de 15 minutes à 10 secondes. Un projet simple permettait déjà de réduire la tache de 15 minutes à 45 secondes. Le projet pour atteindre les 10 secondes aurait été extrêmement couteux.

Il rappelle que pour faire de l’IA, il faut des données (la moindre des choses !), lisibles par un humain (si l’humain ne les comprend pas, la machine ne saura rien faire), et contrôlables (autrement dit de nombreuses photos de produits différents d’un site de e-commerce prises toutes avec des angles différents débouchera sur des problèmes, il faut contrôler l’input !).

Feel good

Accenture a présenté un programme d’aide aux personnes âgées avec de l’IA conversationnelle. Le premier pilote d’« Elderly care » avait été fait en Grande Bretagne il y a 3 ans. 4 sont dans les « tuyaux », un en Belgique, 2 aux USA, 1 à Stockholm. Cela a raisonné beaucoup dans nos oreilles suite au petit dejeuner IREP que nous avions animé sur ce sujet avec Hélène Xuan et Olivier Altmann

 

Mathématiques

Un grand moment avec Stéphane Mallat du Collège du France qui, sur le moment, nous a paru biblique quand il expliquait comment les mathématiques pouvaient aider l’Intelligence Artificielle à résoudre le problème de l’interprétation des choses.

Pour lui, tout est dans la structuration des réseaux de neurones, il le démontre. Mais il a avoué avoir perdu, pour l’instant, un pari d’un diner dans un 3 étoiles (on est français où on ne l’est pas) avec Yann Le Cun quant au fait de trouver le modèle d’analyse et les théorèmes qui vont bien !

Au fait, si vous voulez comprendre vraiment « Comment les Réseaux de neurones à convolution fonctionnent » cliquez ! Ça vaut le coup car c’est la base de tout le décodage d’images entre autres. Si nous vous le disons avec nos mots, vous découpez votre image en pixels, chaque pixel a un poids en fonction de son contenu et de ses couleurs. Vous tordez votre image et refaites votre découpage en pixels. Ceci plusieurs fois, vous prenez un échantillon de pixels dans chaque découpage et à la longue vous mettez tous vos échantillons ensemble et vous serez capable de reconnaître une nouvelle image en la comparant via ses pixels à celles que vous aviez eu au préalable. C’est bien mieux expliqué dans le lien que nous vous signalons et nous venons surement d’écrire de grosses horreurs!!

 

En conclusion, l’IA était, pour nous, plus facile à comprendre que la conférence sur le gaming !

VIVE L’INTELLIGENCE ET LA SCIENCE – Conférence IPSOS (compte rendu partial et partiel)

Share This:

Quand on consulte l’excellent site myenventnetwork.com, le constat est simple : tous les jours des événements, des conférences, des ateliers (parfois plusieurs dans la même journée) gratuits pour la majorité d’entre eux, mettent en avant un aspect du métier de la communication, du digital et des media.

C’est trop mais c’est ainsi (cf notre coup de gueule il y a 2 ans et ça n’a pas changé).

Nous sortons, de plus en plus souvent avant la fin (ce qui n’est pas poli), énervés après avoir entendu des choses déjà dites, redites, rabâchées sans aucune aspérité sans point de vue affirmé. C’est pour cela que nous n’avions rien publié sur ce blog depuis des mois. Overdose de banalités !

Aussi, quand une société vous propose de faire bouger vos neurones en vous apportant de l’intelligence scientifique, vous ne pouvez dire qu’une seule chose MERCI IPSOS !

L’idée de ces conférences à la maison de la chimie, le 26 septembre 2019 au soir, était de se réinterroger sur tous les modèles théoriques qui sous-tendent tout ce que nous faisons, faut-il les renouveler ? comment les renouveler ?

Que se passe-t-il dans notre cerveau, comment raisonne-t-on ? (Olivier Houdé, Professeur émérite Paris Descartes, laboratoire LaPsyDÉ).

Les adeptes de l’homo-economicus ont toujours mis en avant la capacité de réflexion logique de l’humain, son système algorithmique qui permet d’élaborer une pensée réfléchie, dont la fiabilité est grande mais qui nécessite du temps, des efforts pour aboutir. Son défaut ? Monopoliser notre attention (amusez-vous au jeu dans cette video).  C’est le système dit 2, incarné dans les travaux de Jean Piaget. Exemples simples : lire un mot que l’on ne connait pas, changer de direction pendant un trajet habituel, calculer 19 x 46…

Daniel Kahneman (prix Nobel d’économie 2012) a démontré que le système 2 n’était pas le seul dans notre cerveau, mais qu’il en existait un autre : le système 1. C’est un système dit heuristique dont la caractéristique est d’être une pensée automatique, intuitive, avec une fiabilité correcte mais non totale et surtout une très grande rapidité. Le cerveau humain cherchant toujours à économiser sa consommation d’énergie, le système 1 est celui que nous activons le plus souvent dans nos taches quotidiennes. Des exemples ? La lecture, la conduite automobile sur un trajet habituel, des calculs simples (1+1, 2+3 …). L’apprentissage est la base de construction du système 1.

Au passage, ne pensez-pas, comme l’imaginait Piaget, qu’en passant de l’enfant à l’adulte le 1 laisse la place au 2 ! Non, suivant les sujets, les moments, l’adulte est à fond dans le système 1, aucune corrélation avec l’âge ! (Comme quoi la sagesse n’est pas l’apanage des vieux 😊)

Alors nous nous arrêtons là, avec 2 systèmes ?

Non ! Il en existe un troisième, issu des travaux d’Olivier Houdé. Ce système 3 est dit système d’inhibition qui a fonction d’arbitre, et qui nous pousse à interrompre notre processus de décision rapide (système 1) pour basculer sur la réflexion algorithmique (système 2). Le système 3 permet d’éviter les conflits entre les 2 premiers, les conflits cognitifs. Les adeptes des neurosciences le localiseront dans le cortex pré-frontal, là où se situe nos émotions et sentiments.

L’idée est alors de « cultiver » notre système 3 pour apprendre à débrancher le système 1 au profit du 2, il faut résister à notre intuition !

A quoi cela sert-il ?

Un exemple concret proposé par Brice Teinturier : les stéréotypes racistes et antisémites existent depuis longtemps (les juifs et l’argent, les juifs et le pouvoir, le lobby juif mondial…) et sont suivis par IPSOS (B Teinturier a projeté des verbatim issus des réseaux sociaux, à vomir…). La question est, pour un gouvernement par exemple, de trouver des moyens de combattre ces stéréotypes. Affirmer que ce n’est pas vrai ne sert à rien, on se heurte au mur du système 1. Comment pousser le système 3 à débrancher le 1 pour activer le 2, donc à dépasser le stéréotype pour aller à la réflexion. IPSOS a introduit dans ces questionnaires d’opinions, des mesures de nouvelles émotions relatives au doute, au regret et à la curiosité qui permettent aux pouvoirs publics de penser leurs démarchent autrement. Ces mesures sont applicables aussi au marketing.

 

Deuxième sujet : La modélisation de la mobilité (Olivier Bonin, Professeur, Géographe, chercheur à l’IFSTTAR au Laboratoire Ville Mobilité Transport)

Le sujet parait plus simple que l’exploration de notre cerveau et pourtant ! Comment reconstituer des flux de mobilité pour mesurer des individus qui bougent en permanence dans tous les coins. Les vieilles méthodes consistaient à reconstituer des flux en comptant des passages à des points fixes et en interrogeant des individus dans le cadre d’enquêtes. En demandant un point de départ, un point d’arrivée, un mode de déplacement et des choix d’itinéraires, il était possible de modéliser les flux. Les modèles permettaient alors d’interpoler dans le temps et l’espace, des données très partielles, lacunaires. Ceci avec plus ou moins de succès car on se limitait souvent à des heures de pointe (le matin), un jour de semaine, sans tenir compte des variabilités des activités et en étant focalisé plus sur les flux que sur les comportements des individus.

Aujourd’hui, des données sont disponibles en masse : la billétique, le GPS, les smartphones, des boîtiers dédiés… Ces données sont, de plus, relatives à un individu. Et même si elles sont moins riches sémantiquement que des enquêtes, elles apportent une densité temporelle et spatiale incomparables.

Vous y appliquez des modèles différents (on passe des modèles gravitaires aux modèles multi-agents), calculés au niveau de l’individu (qu’il soit réel ou synthétisé) et vous disposez de multiples programmes d’activité répartis entre les jours, les chaînages, les différents membres d’une famille, bref, de tout ce qui est nécessaire pour l’optimisation des trajets, des infrastructures, des horaires, … mais aussi pour la mesure d’audience de l’affichage (Outdoor, en usage maintenant…)

C’est le cas applicatif montré par (le brillant) Jean Noël Zeh (IPSOS) puisque l’entreprise a gagné l’appel d’offres de Mobimétrie (ex Affimétrie). Dans cette mesure sont intégrés les déplacements de 10 000 personnes (elles ont porté pendant 9 jours, un « meter », un boitier spécifique, précis sur la localisation GPS), des mesures déclaratives de déclarations de déplacements (smartphones), les points d’intérêts géographiques (magasin, services publics, réseaux de transports, …), toute l’open data INSEE, et des données payantes de telco ou d’autres acteurs.

Jean Noël Zeh a aussi montré 2 cas de « research for good », comme la mesure des flux dans un camp de réfugiés Rohingya au Bangladesh pour permettre d’établir des points d’eau ou des centres de soins.

Troisième intervention : le consommateur expliqué par ses neurones (Vinod Venkatraman , Professeur, Temple University).

Nous sommes repartis dans le cerveau humain ou plus exactement dans les méthodes de mesure d’effets qui existent, aujourd’hui, avec la technologie (Eye tracking, facial tracking, activité cérébrale, sudation…). Mais la chose intéressante est de les avoir relier à un impact marketing sur les ventes.

Aux méthodes nouvelles, Vinod Venkatraman a testé aussi les méthodes plus classiques d’interrogation (groupes ou questionnaires). C’est l’objet d’un article primé en 2015 à l’ARF aux USA (sur de petits échantillons…). La conclusion est bonne pour une société d’études. Que ce soient des mesures d’eye tracking, biométriques, EEG ou questionnement, chacune apporte un voire plusieurs éléments de réponse différents à l’élasticité publicitaire sur les ventes. Autrement dit, c’est en utilisant toutes les méthodes que l’on a une vision complète et pertinente. Pour avoir, nous-même, hybridées plusieurs méthodes, nous ne pouvons qu’être en accord avec cette conclusion !

En application, Katell le Coueffic a présenté le « creative lab » qui permet, en une journée, de mettre en oeuvre la plupart des méthodes indiquées et d’avoir des pistes d’optimisation sur du matériel publicitaire non finalisé. Nous supposons que ceci sera plutôt l’apanage des grands sociétés clientes.

En conclusion, une des phrases prononcées en introduction par Helen Zeitoun :

« science et études, le ticket gagnant pour ne pas dire n’importe quoi »

(combien d’entre nous devraient s’en inspirer !).

KPIs : performance killed the branding star ou la démesure de la mesure

Share This:

tribune d’Olivier Goulet (iligo) et Isabelle Le Roy (tracks&facts) dans CB Expert (avril 2019) et intervention à l’IREP Forum de mai 2019

Le tube des Buggles en 1980 (« Video killed the radio star ») était pour le moins visionnaire, 25 ans avant la création de YouTube en 2005. Pour pasticher ce tube, la question se pose de savoir de savoir si la recherche de l’efficacité à court terme dans les actions de communication n’est pas en train de tuer la publicité elle-même.

Il existe un risque non négligeable. En voici les raisons.

DE LASCAUX A LIKE MOI

Le sens historique de la communication (qu’elle soit de marque, mais aussi d’opinion) était de construire des représentations symboliques qui puissent se transmettre aux et entre individus. Les peintures de l’art pariétal, encore visible à Lascaux, poursuivaient probablement cette fonction. Au XXème siècle, l’application de cette fonction a conduit à la création de marques fortes, d’institutions fortes. Conséquemment, la chose publicitaire devait bâtir des marques et des institutions puissantes basées sur des socles rationnels ou symboliques solides. La mesure de l’efficacité de la publicité était alors de comprendre comment la marque construisait un positionnement, une image, suffisamment fortes pour justifier des actions de la part des individus (à savoir, des ventes, des souscriptions, etc.). Un certain âge d’or de la communication était né.
Et internet, le digital, arriva.

L’accélération du temps, la fascination de la traçabilité et du chiffre changea les sens et l’essence même de la communication. Ce qui est dorénavant recherché, c’est l’effet court terme de l’action.

Combien de likes, quasi minute par minute, combien d’impressions, combien de ventes idéalement dans l’instant. Et la mesure de l’efficacité de « dériver » fortement du branding vers le selling, la performance
Quel est l’intérêt de mesurer la construction de la marque ou de l’institution? Il faut mesurer si elles sont achetées, utilisées à court terme.
C’est très louable, certes, mais cela suppose, quand même, que la marque a un fonds (de marque), une forme de construction de son positionnement qui précède la vente. En effet, on achète rarement quelque chose qu’on ne connaît pas et dont on n’a aucune connaissance fonctionnelle ou symbolique.
Et cela demande, surtout, de maîtriser le calcul du fameux R.O.I (Retour sur Investissement). Mais, si l’on veut que la mesure de l’efficacité fasse un lien avec les « ventes », il est nécessaire de rappeler quelques fondamentaux.

LE R.O.I EST NU      

Trois fondamentaux à rappeler sur ce fameux ROI.
1. La communication, même dans son acception « selling », ne sert pas qu’à générer des ventes supplémentaires (additionnelles, incrémentales), elle sert surtout, notamment dans les pays économiquement matures, à maintenir des ventes. Si l’on calcule uniquement l’«uplift », on nie le fait que, sans communication, les ventes auraient probablement décru.
2. La communication est financée par la marge des entreprises et non par le chiffre d’affaires. On voit très souvent des « best cases » (parfois récompensés dans des Prix d’ailleurs), montrer qu’avec une campagne, de 250 000 euros, par exemple, a généré 500 000 euros de ventes dites incrémentales. Un ROI de 2 dit-on ! Mais en fait non. Car si vous investissez 250 000 euros en communication avec une marge de 10%, c’est 2 500 000 ventes qu’il faut générer pour créer un ROI positif et 5 millions pour un ROI de 2. Combien de campagnes génèrent cela à court terme ? Une longue expérience nous fait affirmer : pratiquement aucune !
3. Comment, à quoi attribuer ces ventes « incrémentales » ? Une campagne, ce sont des centaines de prise de paroles. Tout doit-il être affecté au dernier contact ? Cela semble absurde (contestation du last clic par exemple…), et pourtant, c’est très souvent le choix effectué. Faut-il modéliser ? C’est beaucoup mieux, mais ne doit-on modéliser que les ventes à court terme.

BRAND WILL BE BACK 

Alors, faut-il être défaitiste et ne plus croire à l’efficacité de la communication ? NON !
Cependant, il faut rééquilibrer les choses et construire le BRANDING tout autant que le SELLING. Est-ce possible ? OUI ! Et ce n’est, d’ailleurs, pas nouveau. Nous faisons référence, par exemple, à un papier paru en 1999, dans, l’excellent déjà, CB NEWS où l’on montrait, une expérimentation avec le groupe TOTAL, qu’il était possible de croiser les données de ventes (SELLING) avec une mesure d’efficacité de la communication (BRANDING) sur la simple base d’un fichier client (déjà le « One to One »).
La solution est là : croiser, sur de mêmes individus, les datas enregistrées sur les ventes avec une mesure branding. C’est une manière supplémentaire de valoriser cette fameuse data. Cela nécessite, bien sûr, que l’annonceur dispose de données clients, mais c’est de plus en plus le cas grâce au digital. Et dans le cas contraire, il est possible de faire appel à des panels consommateurs existants.
Cette revalorisation de la marque, à l’heure du tout performance, est d’ailleurs urgente.

MORT AUX MARQUES FAIBLES ! 

Ne nous trompons pas de révolution digitale. Le search et les réseaux sociaux ont plus de dix ans. Google et Facebook sont devenus des acteurs majeurs du monde de la communication d’aujourd’hui. Mais, leurs modèles, bien que rupturistes, ne remettaient pas en cause les fondamentaux de la communication. Une marque faible avec quelques moyens pouvait émerger.

 

Tout ce qui arrive ou va arriver, que ce soit d’ordre technologique (IA, Voix, Virtuel, Crispr-Cas 9, Nano, 5G, Quantique…) ou sociétal (âge, urbanisation, temporalité…), est encore plus impactant. Nous connaissons aujourd’hui, en tant qu’individus, les bulles de pensée. Les marques demain, devront s’intégrer dans des bulles, des écosystèmes, de consommation dont elles ne seront pas maîtres. Dès lors, développer des marques fortes et mesurer leurs forces, tout autant matérielles, symboliques, que sociales, est crucial.

L’optimisation du SELLING est important, mais la communication ne peut se résumer à cela, sinon elle perdra, et son sens et sa légitimité.

Hit parade 2018

Share This:

Les articles les plus lus en 2018 sur ce blog: une tribune et 4 comptes-rendus de conférence.

Merci de nous lire!

Faisons attention à l’attention (tribune commune O Goulet et I Le Roy, parue initialement dans CB News, octobre 2018)

le ROI TV défonce les GAFA et les autres media (compte rendu conférence SNPTV, janvier 2018)

De Marc DORCEL (films X) à ARTE, en passant par TF1, vous avez dit VIRTUALITÉ ? Un article de 2017, c’est Arte qui doit vous attirer 🙂

Publicité et études, même combat : tout le monde est perdu ! (compte rendu IIEX Amsterdam, mars 2018 )

Le parcours de l’individu via son mobile (Ogury), le parcours du consommateur ON et OFF (Carrefour Media) (compte rendu impartial et complet petit dej IREP, mars 2018)

Faisons attention à l’attention! Tribune commune O Goulet et I le Roy (cb news 11/10/2018)

Share This:

L’attention est devenue le buzzword actuel de la communication au niveau mondial.

Le constat est simple, nous, individus, consommateurs, prospects, clients, citoyens, sommes bombardés (et pourtant, avec le ciblage affiné promis par le digital, le « carpet bombing » devait disparaître) de messages publicitaires toujours plus nombreux, toujours plus personnalisés. Et encore, c’est sans compter les messages diffusés que nous ne voyons pas (un peu moins de 40% des publicités sur dekstop ne sont pas visibles, 23% des vidéos selon IAS 1er semestre 2018).

Il est alors légitime de se poser la question: sommes-« nous » attentifs ou non à ce qui est diffusé. C’est la base, le socle, d’un début de relation entre un message émis et sa réception dans notre cerveau. Le cerveau humain est ainsi fait que, si nous ne portons pas un minimum d’attention à un message, il ne se passera rien !

La question est donc bonne. Mais a-t-on les moyens, aujourd’hui, de mesurer cette attention ?

Des initiatives existent dans certains pays que l’on pourra toujours critiquer, glorifier, mais qui ont le mérite d’exister et d’apporter des éléments de réflexion. Aux USA et au Japon, par exemple, des annonceurs et des media utilisent les services de sociétés technologiques spécialisées dans cette mesure. Autre exemple, l’Australie, où un media, la télévision, est le fer de lance de la mesure technologique de l’attention, à grande échelle, pour mettre en avant ses qualités par rapport aux plateformes.

Des constantes dans les pays actifs sur le sujet ? Oui, les technologies de mesure passives, la masse, et, pour certains, la syndication.

Technologies passives ? Les progrès des neurosciences sont certains et y recourir est aujourd’hui la seule solution pour parvenir à approcher, correctement, le phénomène. Vous ajoutez à cela toutes les technologies embarquées dans les différents devices qui font partie de notre quotidien et vous obtenez un couple gagnant.

La masse ? Ou que ce soit, on parle d’échantillons représentatifs, la base d’une mesure fiable, et généralement, ce ne sont pas de petits échantillons !

La syndication ? Les dispositifs sont coûteux, qui a les moyens de les payer ? Un media? Des media? De gros annonceurs qui en ont assez de dépenser de l’argent à fonds perdus ?

Le marché français, depuis quelques mois, fourmillent d’initiatives sur la mesure de l’attention. Elles proviennent, souvent, des agences media (c’est très bien de revoir les agences media sur le sujet de l’expertise pour montrer qu’elles ont toujours un rôle à jouer dans le conseil donné aux annonceurs). Elles viennent aussi des régies qui initient des projets ponctuels sur leurs supports ou leurs médias.

Mais, on assiste, où l’on va assister, à la même chose que ce que l’on a pu voir pour l’engagement.

Tout le monde mesure « l’engagement », mais tout le monde a une définition différente de ce qu’est l’engagement. On ne sait donc plus ce qui est mesuré à droite ou à gauche, par qui, pourquoi, comment ! Au final, cet indicateur essentiel a perdu son sens et son universalité par trop plein de définitions diverses, variées et parfois, disons-le, loufoques.

Là, pour l’attention, il faut prendre les choses dans le bon sens, être innovant dans la mesure, y mettre des moyens, et faire travailler ensemble media, agences et annonceurs.

C’est un enjeu collectif qui doit être abordé comme tel. Il s’agit moins de défendre les intérêts particuliers de certains que de défendre l’intérêt global d’une profession à démontrer sa pertinence.

 

Nous sommes prêts pour accompagner ceci. Et vous ?

Le parcours de l’individu via son mobile (Ogury), le parcours du consommateur ON et OFF (Carrefour Media) (compte rendu impartial et complet)

Share This:

Michel Bellanger (Directeur Marketing, Carrefour Media) et Philippe Périé (Vice-Président Data & Algorithmes, Ogury) étaient les invités du petit déjeuner IREP que nous avons eu le plaisir d’animer le 28 février.

Ci-après le compte-rendu complet de ce petit déjeuner.

  1. Carrefour Media et Ogury en tant que sociétés

Ogury a été créée en septembre 2014, et est composée de 150 personnes, à ce jour (droit anglais mais siège à Paris). Le CA 2017 est d’un peu plus de 40 millions d’euros. Cette société est, historiquement, une société de technologie dédiée au ciblage publicitaire, au branding et à la performance sur mobile (Android uniquement pour l’instant). Mais le modèle évolue du fait de la croissance et de la granularité des données. Ogury se définit maintenant comme une « mobile data company » pour offrir des outils de monétisation, de ciblages publicitaires et d’analyses pour les annonceurs et les éditeurs.

Carrefour Media est le quatrième contributeur à la marge de Carrefour France et emploie 40 personnes. Ses clients sont les marques référencées chez Carrefour principalement. Les performances de la régie et ses actions autour de la data font que la nouvelle gouvernance de l’entreprise réinvestit énormément le sujet et les moyens afférents.

  1. Comment faites-vous pour suivre les individus ou consommateurs?

  • Le terme suivre est rejeté par les 2 participants.

Pour Philippe Périé (Ogury), on n’est pas dans une logique de suivre les individus de façon individuelle et en permanence, cela ferait beaucoup trop de données ! Cependant, la valorisation des données est faite, à la demande, dans des contextes particuliers pour des clients éditeurs, annonceurs ou entreprises. La donnée est agrégée, anonyme pour créer des cibles, des profils et pour décrire des audiences, et non pas pour suivre un individu.

Michel Bellanger (Carrefour Media) met lui aussi en avant la connaissance client pour répondre à des attentes et non pas suivre une personne.

  • Comment font-ils ?

Ogury s’associe à des milliers d’applications, dans le monde entier, pour générer des données d’intérêt et de comportement uniques directement à partir de plus de 400 millions de profils d’utilisateurs mobiles uniques (250 millions avec opt-in) dans plus de 120 pays.

L’éditeur fait rentrer, dans son application, le SDK Ogury qui va, à partir de l’opt-in, collecter des données brutes (bas niveau) traduites en données significatives et utiles (applications installées, applications utilisées, connectivité et sites visités…) grâce à une technologie propriétaire. Cette vue, first party, est complète, assez unique en profondeur, en récurrence, en précision, et disponible nulle part ailleurs. La récolte des données brutes est importante pour minimiser l’empreinte du SDK sur la batterie du smartphone, un des plus d’Ogury.

Ces informations sont, ensuite, transformées par des équipes de data scientists en visites, en fréquentation, en durée. Au final, ces données sont enrichies dans une optique de ciblage publicitaire mais sont proposées aussi comme vecteur de connaissance pour un éditeur : le parcours de l’utilisateur de son application était celui-là il y a une semaine, et a été celui-ci 2 semaines après… Originellement, Ogury s’est lancé en payant un CPM assez généreux (entre 8 et 12 €), cette proposition attractive n’était pas la seule du marché, les éditeurs ont alors souhaité disposer de plus de connaissance. Ogury va aussi vers un modèle NO PUB pour proposer de la connaissance d’audiences aux clients.

Pour répondre aux enjeux de revenus de Carrefour, l’enseigne a développé des outils permettant de répondre aux attentes des consommateurs : une offre, un service omnicanal, plus de générosité, plus de personnalisation.

Carrefour a 3 grands types de connaissance clients.

  • Les transactions collectées via les tickets de caisse (anonyme) et via la carte fidélité personnelle (14,3 millions de porteurs, 27 mois d’historique d’achat à l’EAN, au code-barre). Les premières sont de l’informatique, les secondes sont de l’intelligence. Avec les encartés, Carrefour retrace 85% du CA des hypermarchés, mais moins dans les magasins de proximité.
  • La navigation / fréquentation média: magasins on (adserver / tracking) et off (carte fidélité). Les outils qui, il y a 5 ans, étaient managés par les agences (ex ad serveur) ont été réinternalisés au principe que c’était de la connaissance client qui permet de personnaliser la relation avec l’individu. La clé du commerce pour Carrefour étant la personnalisation, l’internalisation des outils était indispensable. Un questionnaire média est aussi adressé à certains porteurs de carte.
  • Les données externes de type Météo, de la donnée de contexte.
  1. Pour quelle(s) finalité(s) ?

« Après la connaissance, l’insight, il y a la dynamique de la connaissance »

Michel Bellanger, Carrefour Media

 

« On dépasse le simple taux de clic en remettant dans le contexte de l’activité via le mobile. »

Philippe Périé, Ogury

 Pour Carrefour Media, les objectifs sont, par nature, pour des clients/fabricants de marques alimentaires avec la volonté de construire de nouvelles coopérations avec les marques.

Ces nouvelles coopérations doivent être :

  • Durables, elles doivent donc répondre aux enjeux de transparence qu’attendent les annonceurs pour installer la confiance
  • Massives donc industrialisées, il faut créer de nouveaux outils avec ceux qui existent
  • ROIste, c’est le consommateur final qui valide les opérations en changeant son comportement, l’efficacité est un bon indicateur de cette acceptation. Les outils de mesure, BI, doivent être co- construits et partagés.

On explique alors aux annonceurs les opportunités ou menaces de leur business par rapport à la catégorie, la famille de produit, la promotion, la météo. Au-delà de la mesure de la performance, c’est la compréhension de cette performance qui est faite.

Evidemment, tout cela à un coût et une valeur. Que ce soit pour les annonceurs, leurs agences ou les éditeurs, Carrefour dispose, maintenant, d’outils pour répondre à leurs besoins. Les experts qui analysent, ne sont pas forcément en interne chez Carrefour, l’objectif est de connecter la donnée avec des partenaires (5 équipes différentes dans 4 entreprises différentes).

Mais après la connaissance, l’insight, il y a la dynamique de la connaissance. Associé à un CA, il y a une liste de contacts qui peut être activée pour changer les comportements : comment activer un segment d’audience sur un comportement d’achat via des médias, des services existants, des services à inventer (livraison de bouteilles pour de gros consommateurs de boisson gazeuse, pressing gratuit pour x chemises pour un lessivier…). L’important étant de créer une relation.

Chez Ogury, en termes d’organisation, le traitement de la donnée est internalisé, une équipe « data rafinery » existe même pour préparer les données. Mais sur le fond de l’utilisation des données, au-delà de la monétisation en CPM ou de l’engagement en performances de « delivery », l’apport de connaissance majeur aux éditeurs et annonceurs se fait par la compréhension du comportement de leurs cibles en dehors de l’univers qu’ils contrôlent avec leurs applications : mixités, cross usage, exclusivité, profils… sur de longues séries.

On retrouve aussi une notion dynamique du coté publicitaire en apportant de la pertinence et de la parcimonie dans la communication. Les individus sont éduqués, sont conscients de la collecte de données par les applications et les terminaux et attendent en retour des interactions proactives et contextualisées. De nombreuses études le montrent. La mission est aussi de permettre un meilleur dialogue entre annonceurs, entreprises et consommateurs.

Des progiciels édités par Ogury pour ses besoins d’analyse de la donnée en interne, sont aussi dans les mains des clients pour apporter une connaissance plus profonde de ce qui a fonctionné ou non dans une campagne, dans un segment visé, en dépassant le simple taux de clic mais en remettant dans le contexte de l’activité via le mobile.

  1. Le « sans couture » (seamless), une réalité ?

« A notre expérience sur les marques alimentaires, le sans couture n’existe pas ! »

Michel Bellanger, Carrefour Media

 

Carrefour travaille avec les wallgarden « Google, Facebook, Apple… » mais les premiers jardins clos ce sont les magasins ! Ils se sont digitalisés, ils ont monté chacun leur écosystème.

Si on se réfère au Lumascape, tous ces acteurs de ce monde-là ne donnent pas l’impression de communiquer les uns avec les autres, chacun a son propre langage, sa propre technologie et produit énormément pour alimenter les directions marketing. Ainsi, un directeur marketing a toutes ces solutions face à lui et a l’impression d’obtenir une vraie victoire quand il réussit à connecter tel système avec sa DMP. Le problème c’est que le système Facebook ou autre ne communique pas avec x ou avec y… Avoir le parcours complet du client d’un magasin est ambitieux car cela signifie, d’une part, que l’on a la transparence totale sur le marché, ce qui n’est pas le cas, et d’autre part que l’on ait de la réconciliation à l’individu (pas au device) ce qui n’est pas le cas non plus !

Chacun des éditeurs, des partenaires, impose une règle avec le risque de sacrées surprises.

Mesurer est un risque car cela peut conduire à annoncer que ce n’est pas efficace mais cela recèle des opportunités car on peut imaginer améliorer les choses. Toutefois, la chaîne et le parcours risquent de bouger et la position qu’on a dans la chaîne peut évoluer.

Carrefour est en train d’organiser un « hôtel » dans lequel il n’y a qu’un seul langage commun, le client final (réconcilier la donnée à l’individu), et chacun des partenaires (les 450 plateformes marketing) peut réserver une chambre qui dispose d’une porte sur toutes les autres chambres en maitrisant la sécurité de la donnée et les règles de privacy. Cet hôtel, est pour l’instant plus un Airbnb (on fait à la main) mais a vocation à devenir l’hôtel décrit, c’est-à-dire, l’industrialisation des réconciliations. Cela fonctionne remarquablement bien.

L’an dernier, la régie a fait une communication sur le VOPO (View On Line Purchase Off Line), le (ROPO n’existe pas en alimentaire), la réconciliation entre les données transactionnelles et les données d’exposition on line.

On travaille déjà avec Facebook et on mesure l’efficacité du digital Facebook sur l’achat chez Carrefour. Avec Google ou Appnexus, on reconcilie à l’individu les impressions digitales avec un ticket de caisse, ce qui permet de mesurer un effet (tant de chiffre incrémental, tant de recrutement incremental…) et de produire des courbes de réponse d’effet sur les ventes. Les annonceurs optimisent leurs campagnes sur des cookies mais quand on se place à l’individu, on constate qu’il a 2.5 cookies. Donc optimiser au cookie c’est voir double. Optimiser en temps réel le lundi, par exemple, quand les achats se font le jeudi, ça ne sert pas à grand-chose. Enfin, une campagne, en soi, a peu d’effet, c’est la répétition des campagnes qui fait la construction du ROI. La donnée Carrefour se teste sur 6 mois, pas en une vague, pour accumuler suffisamment de pression commerciale en digital pour obtenir un résultat.

Ogury travaille sur des données Android qui est un écosystème très fragmenté avec de nombreux constructeurs, de nombreuses versions qui ne travaillent pas toutes de la même façon.

Cela arrive qu’il y ait des trous dans les données qu’il faut détecter mais globalement l’ensemble est assez propre. Les biais qui existent sont techniques. Pas de biais non plus de cookie car l’information est à l’Android ID du smartphone qui est un objet personnel tant que l’on ne change pas de device, qu’on ne remette pas à zéro l’Android ID (c’est possible) ou tant que vous ne démissionnez pas d’Ogury !

  1. RGPD ? Privacy ? Un frein ? opportunité ?

« Le RGPD va vraiment faire le tri entre le bon grain et l’ivraie ».

Philippe Périé, Ogury

 

« Il y aura des procès, dès 2018, car il y a une vraie volonté politique »

Michel Bellanger, Carrrefour Media

Pour Ogury, l’arrivée du RGPD est une situation vécue sereinement car dès les débuts de la société, être avec un opt-in explicite était la règle. Nous avons toujours préféré perdre de la donnée que d’en collecter de manière non transparente.

C’est une opportunité attendue avec impatience car :

  • cela va provoquer un assainissement du marché de ceux qui ne sont pas vertueux et aussi mettre en avant l’unicité, la granularité de nos données
  • et c’est un bénéfice pour l’utilisateur aussi, car il aura moins de publicité mais elle sera plus intéressante, car plus ciblée et plus contextualisée. L’acceptation publicitaire sera plus forte.

Le RGPD est aussi une opportunité pour Carrefour. Le même argument de nettoyage du marché est aussi mis en avant. Des cookies distributeurs circulent sur le marché, d’où sortent-ils ? Du probabilisé plus que du réel !

Soyons audacieux et saisissons le RGPD pour positionner Carrefour pas seulement sur une carte de fidélité, pourquoi ne pas proposer aux clients de les rémunérer pour l’usage de leurs données en euros sur leur carte fidélité ?  Pourquoi pas un pass data ou le client peut gérer ces opt-in opt-out pour tout ? Il y a une vraie réflexion autour d’une offre de services et pas seulement l’offre de produit. La force de Google et Facebook ? Un service de qualité. Le RGPD constitue une vraie opportunité pour les Directeurs marketing d’apporter un vrai service.

  1. A-t-on encore besoin du parcours des pensées ? Les sociétés d’études servent à quelque chose ?

« S’il y a biais ou censure et pas d’élément pour contextualiser, caler ou cadrer, les masses de données ne vont pas apporter grand-chose, au contraire on est sûr de raconter n’importe quoi »

Philippe Périé, Ogury

 Après 15 ans à TNS et IPSOS, Philippe Périé ne peut fournir une réponse objective ! Pour lui, on ne répond pas aux mêmes objectifs.

L’étude permet d’avoir accès à de la donnée couvrant tout le marché, les occasions (pas seulement l’interaction que le client a avec les points de contacts contrôlés par l’entreprise). S’il y a biais ou censure et pas d’élément pour contextualiser, caler ou cadrer, les masses de données ne vont pas apporter grand-chose, au contraire on est sûr de raconter n’importe quoi ! La donnée étude (quali/quanti) permet cette mise en perspective.

La récolte passive et massive de données apporte des informations de comportements et d’usages contextualisées, sur de longues périodes et sur de tels volumes et degrés de granularité que l’on peut descendre à des niveaux de résolutions inaccessibles autrement, et sans biais de souvenir.

En résumé, l’étude permet la mise en perspective, la couverture hors du champ de ce qui est pris par nos canaux, on est plus sur des problématiques de compréhension de marché, consommateur… Les données massives apportent la granularité, longues séries, exhaustivité, données contextuelles. On est alors plus souvent sur de l’opérationnel.

Ensuite, il y a tous les modèles d’hybridation possibles.

 

Selon Carrefour, la base de données permet d’optimiser mais, le plus important, c’est innover, avoir des idées. Ce sont souvent les clients qui en parlent le mieux et ce n’est pas dans les bases de données qu’on les trouve.

Publicité et études, même combat : tout le monde est perdu ! IIEX Amsterdam (compte rendu partial et partiel)

Share This:

700 personnes rassemblées à une conférence dédiée aux études ? Mais oui, ça existe encore et cela a eu lieu 19 et 20 février 2018 à Amsterdam, dans le cadre de IIEX Europe (tous les budgets conférences et voyages ne sont pas encore coupés partout!).

Vous connaissez ces conférences IIEX (Insight Innovation Exchange) ? Non ? Ne soyez pas surpris, vous êtes français et nous n’en avons compté seulement qu’une petite dizaine (et c’est bien dommage). Mais des anglo-saxons en force !

Les but d’IIEX ?

  • Amener de nouvelles idées pour changer le monde des « insights »
  • Fournir des sessions de formations pratiques pour développer de nouvelles capacités
  • Connecter les professionnels des études, des agences, des annonceurs entre eux (et il y avait des annonceurs !)

Nous avons souvent l’occasion d’assister à des conférences sur la communication (et nous nous en faisons l’écho) et cela faisait longtemps que nous n’avions pas assisté à une conférence sur les études (research en anglais). IIEX nous avait offert, très gentiment, l’inscription pour ces 2 jours.

Pour les premières (la communication), en filigrane, nous entendons souvent « comment exister face au GAFA » avec un bouillonnement d’initiatives (fondées ou non), de produits (utiles ou non), de débats (jamais assez à notre goût), pour la seconde, la question est « comment exister (tout court) ? » « Vers quoi faut-il aller ?»

Cette industrie, les études, et c’en est une (44.5 milliards de $, ESOMAR 2017), s’interroge sur son existence même quand elle voit ses clients (les annonceurs, les agences) se passer d’elle, faire autrement, différemment grâce au numérique.

Alors quoi de neuf ? Nous pourrions en écrire des tonnes sur toutes les sociétés présentes axées majoritairement sur les neurosciences, du social, de l’intelligence artificielle (rien vu sur le big data ou peu de choses sur l’hybridation mais c’était peut-être dans des conférences précédentes). Mais nous préférons, nous axer sur d’autres points de vue.

  1. L’avenir des études ? « Pourquoi suis-je optimiste ? ». Didier Truchot (IPSOS)

Un grand français (mais oui, chapeau), Didier Truchot (en octobre, ses 50 ans dans les études ! IFOP+IPSOS) a introduit la conférence en prononçant une phrase reprise par tous pendant les 2 jours :

« Cette industrie a plus changé pendant les 5 dernières années

que durant les 30 précédentes »

 (C’est vrai pour les études ad hoc mais pas pour les panels qui ont déjà fait leur révolution).

Une autre phrase intéressante

« cette industrie doit être basée sur la connaissance, la science, l’efficacité et plus important, être plus proche de ses clients, mieux les écouter pour que l’utilité de ce que l’on produit soit augmentée et que l’on puisse lutter contre les grandes sociétés de consultants ».

Où l’on retrouve encore les sociétés de conseil (études+pub= même combat !)…

Cette phrase souligne, à notre avis, 2 choses.

  • Le coté scientifique été quelque peu délaissé (D Truchot l’a souligné aussi) par les sociétés d’études. IPSOS a l’air de vouloir s’y remettre avec les récentes embauches de 2 directeurs scientifiques (très très bien tous les 2), Jean Noel Zeh (ex CSA) et Benoit Hubert (ex GFK).
  • La proximité client qui renvoie aussi à la disparition ou la perte d’importance des directions études chez les annonceurs.
  1. Les études chez l’annonceur : « Comment être prêt pour demain dès aujourd’hui » Stan Sthanunathan, Executive Vice President, Consumer & Market Insight, UNILEVER

 

Les sociétés d’études sont, encore aujourd’hui, plus calées ou occupées sur le triangle de gauche (en noir et blanc) à passer plus de temps sur la collecte de données que sur les insights alors qu’elles devraient être dans la posture inverse pour essayer d’atteindre le graal, selon lui, donner des pistes d’action et de mesure d’impact de ces actions. Elles s’arrêtent à l’étape « insights » sans s’engager.

Le futur de l’industrie est alors

« l’intelligence augmentée » = « efficience augmentée » + « efficacité augmentée »,

où comment faire avec ½ moins de budget, ½ moins de temps pour une action x2 ?

Concrètement chez Unilever ?

  • Utilisation de la plateforme Machine Vantage (Intelligence Artificielle et Machine learning) pour mettre en relation des données de panel distributeurs (vente & co) des marques et marchés suivis par Unilever, des données social, des données d’autres études. Exemple de bénéfices : lancement d’un nouveau produit pour Lipton en 7 mois entre la détection d’un besoin, l’établissement du concept jusqu’à la mise en marché
  • Laisser l’utilisateur interne Unilever trouver les réponses à ses questions via « answer rocket » (Q&A) ou via l’acces aux études en tant que telle (people answer) ou voir ou avoir des réactions consommateur en video (discuss.io). On crée de la valeur en laissant les gens faire eux-mêmes plutôt que de s’échiner à répondre a tout !

Sa vision des CMI (Consumer & Marketing Insights) est l’ouverture vers les consommateurs avec toutes les nouvelles technologies et l’ouverture vers les marketeurs de l’entreprise.

  1. Les études vues par l’annonceur : « how to measure a cloud » Tony Costella, HEINEKEN

La palette des sources d’information pour un annonceur s’élargit de plus en plus.

Donc des études VALIDES, RAPIDES et ECONOMIQUES c’est possible.

Moralité pour les sociétés d’études, bougez vous demain est déjà là !

  1. Comment ne rien perdre avec l’arrivée du mobile : « reinventing need states segmentation for the mobile era ? Luigi delli Colli Ferrero et Steven Naert, Ipsos

Toutes les grandes entreprises ont des segmentations clients. Celles-ci ont reposé, pendant de nombreuses années, sur l’administration de questionnaires en ligne généralement longs et pénibles à remplir.  Quand 70% des individus répondent aux questionnaires via mobile, il est plus qu’urgent de revoir la façon dont on les interroge.

  • Penser au questionnaire en mobile first c’est-à-dire beaucoup plus court. Pour Ferrero passer de 36 à 15 minutes.
  • Le mobile interdit de longues listes d’items, donc comment mettre des images valides (métaphoriques) ou avoir des questions ouvertes équivalentes à ces items. Pour Ferrero, utilisation des formes modernes de questionnement (passer des images, grilles courtes, sliders). Réduction du taux de chute de 30% à 14%.
  • Interagir avec le répondant via de la self-ethnographie, l’envoi d’images, de réactions non structurées.

Rien de nouveau pour les praticiens des études (ouverts), mais cela fait toujours du bien de voir qu’on y arrive sur des choses compliquées.

  1. Un peu d’efficacité publicitaire ? « how to significantly improve marketing ROI & ad effectiveness with Google AI and Hotspex behavioural science » Shane Skillen, Hotspex

Cet homme (Shane Skillen) est un showman. Un nouveau produit de cette société canadienne Hotspex (Toronto) toujours bien notée coté innovation : du test publicitaire vidéo en ligne sur les valeurs de la marque, les émotions, les attributs… avec une analyse de la vidéo à tester à base d’intelligence artificielle. Sur les 7 marques testées à titre de pilote, +10% en efficacité media (sur quels critères ?).

  1. Pour aller toujours plus vite : « accelerating the innovation process through crowdsources intelligence » Lise Ohlin, eYeka, Karen Sears, Unilever

François Petavy (ex eBay) est le fondateur de eYeka : la mise à disposition, pour les marques, d’une communauté de créateurs. Ces créateurs sont activables pour de la stratégie de marque, du contenu pour les réseaux sociaux, du développement produit, du design.

Le cas montré était sur Domestos (produit pour les cuvettes de toilette), un vrai challenge et une cliente étude très contente d’idées différentes et de la rapidité des choses!

2 choses importantes :

  • L’accent a été mis fortement sur l’importance du brief de l’annonceur à eYeka (confirmé par la cliente). Plus de temps est pratiquement passé sur le brief que sur la récolte des idées des créatifs. Pour convertir ce brief client en brief créatif, des planneurs stratégiques d’agences de publicité chez eYeka.
  • Substitution vs les agences créatives ? Non, ce sont des idées, des concepts qui sont recueillis, ils doivent être mis en musique par les agences créatives, …ensuite.
  1. Pour comprendre l’humain grâce à ses hésitations : « certainty index as a game changer in online consumer research » Rafal Ohme, Neurohm

Neurohm, une société polonaise a fait une présentation intelligente à l’image de leurs mesures basées sur l’implicite. Autrement dit, votre temps de réaction, votre temps d’hésitation pour donner telle ou telle réponse sur un sujet est révélatrice de ce que vous ne dites pas : plus vous êtes certain de votre réponse, plus vous allez vite pour répondre. La mesure conjointe entre une réponse à une question et le temps pour avoir cette réponse vous donne un coefficient de certitude quant à la réponse à la question posée.

Là encore, pour aller plus vite, une plateforme de mesure en ligne.

En conclusion

Un monde qui change, des insights partout, accessibles par tous les moyens, de la désintermédiation, des petites sociétés qui arrivent, des gros que l’on voit peu (à leur décharge ce n’est pas le lieu), amis lecteurs ça ne vous rappelle rien? 

 

En matière d’IA, vous êtes ANI, AGI ou ASI?

Share This:

Encore des nouveaux mots!

IA = Intelligence Artificielle , ceci est passé dans le langage commun.

ANI = Artificial Narrow Intelligence. En français dans le texte, c’est l’automatisation d’une tache, d’un domaine.

AGI= Artificial General Intelligence. De l’intelligence artificielle sur un ensemble de données.

ASI = Artificial Super Intelligence. De l’IA plus forte que le cerveau humain.

ANI on y est, les chatbots en sont un exemple. ASI, il faut que les entreprises s’y préparent, quant à l’ASI…

Mais finalement, ce qui est fait aujourd’hui ce n’est pas vraiment de l’intelligence artificielle, c’est du machine learning, mais c’est déjà énorme d’apprendre à partir de données.

Ceci vient d’une intervention de Pierre de Barochez, le Directeur des Systèmes d’Information de la MACIF qui recevait le 21 novembre, les 13èmes rencontres du club des pilotes de processus: les impacts du RPA (Robotic Process Automation) sur les processus et les organisations.

La MACIF a mené un chantier d’ANI en utilisant Watson d’IBM pour analyser les mails des clients issus du site MACIF.  L’idée étant de reconnaître le contenu mais aussi de déterminer le degré d’urgence, l’émotion contenue dans ce mail pour faire le tri et planifier les réponses. Cela sort dans quelques jours.

L’expression « détection des émotions » est revenue plusieurs fois dans la conférence comme un des challenges du machine learning. On n’en sort plus des émotions…

Sinon en vrac:

  • le chatbot de SwissLife a été supprimé après 3 mois d’expérience (pour en savoir plus )
  • Chez IBM, 400 projets blockchain. Un exemple, Maersk, leader du transport des conteneurs, a fait le constat que les échanges de documents administratifs autour d’un conteneur pesaient pour 20% dans le coût du transport et  que 30 intervenants interagissent autour de ce conteneur. Ils se sont engagés dans un projet blockchain pour faciliter le tout.

Quelques citations

« Pour un humain et en particulier à la banque postale, il faut passer du savoir faire au savoir être, pour que la relation physique entre le conseiller banque postale et son client soit un moment où l’on suscite l’émotion pour créer une relation durable »

Didier Moate – DRH Banque Postale

« L’humain est, depuis des lustres, dans une posture de domination des machines. En entreprise, on va vivre un choc de rapport entre l’humain, le salarié, et l’usage de la machine. Ce choc sera aussi fort ou même plus que celui de l’arrivée de l’informatique en entreprise »

Pierre de Barochez, CIO Macif

 

  • 25% du temps passé par des collaborateurs sont sur des taches répétitives
  • 30% du temps de l’IT est passé sur des taches de bas niveaux
  • 80% des taches basées sur des règles peuvent être automatisées
  • Entre 5 et 7 trilliards de dollars d’impact financier d’ici 2025
  • En 2019, 25% de chaque métier sera changé par le RPA (les robots)

Philippe Bournonhesque – CTO IBM

 

Sinon, un bel endroit, l’amphi de MACIF dans le XVème arrondissement, mais pas de code wifi, pas de # pour tweeter et surtout

PAS UNE FEMME SUR SCÈNE…

#nonmaisalloquoi

Le spectroscope organisationnel ou comment l’analyse des data des emails peut expliquer la satisfaction des employés!

Share This:

Pendant des lustres, les chercheurs en organisation ont fait l’hypothèse que la performance d’une entreprise dépendait de la structure formelle de cette entreprise mais aussi de la façon dont l’information circulait.

Jusqu’à présent, le flux d’information n’était pas une chose aisée à mesurer. Avec le digital, la donnée est là et a permis à Duncan Watts et son équipe de tester l’hypothèse précédente (Duncan Watts, le génial chercheur qui a validé, à l’ère digitale, le principe du « monde est petit », fait partie depuis quelques années, des équipes de recherche de Microsoft)

De quelles données parle-t-on ?

Celles des mails, pas le contenu mais les meta données de chaque mail (si vous êtes sur gmail, prenez un de vos mails, cliquez sur la flèche à droite et faites « afficher l’original », vous verrez. Ça doit être du même genre sur Outlook de Microsoft) ainsi que des informations plus classiques comme le titre du salarié, sa localisation, et les réponses à une enquête (satisfaction des employés vs leur manager). Tout ceci aux USA, sur des données de 2015, avec toutes les garanties de préservation de la vie privée de la terre !

Quel but ?

Avec des données de mail, peut-on prédire :

  • Le niveau de confiance des employés dans l’efficacité de leur manager
  • Le fait que différents groupes dans l’entreprise collaborent efficacement
  • La satisfaction des employés quant à l’équilibre vie au travail et vie privée

Comment ?

Là, ils se sont amusés (moi j’aime !) à procéder à 3 types d’analyse :

  • Du très classique en analyse de données, une analyse logistique
  • Du machine learning (algorithme random forest) SANS les meta données mail
  • Du machine learning (algorithme random forest) AVEC les meta données mail

Résultats ?

Ils ne se sont intéressés qu’au 15% d’individus insatisfaits.

Questions posées Modèle logistique Random Forest SANS les données mail Random Forest AVEC les données mail Caractéristique du mail la plus prédictive
Satisfaction vs son propre manager 20% 69% 93% Délai de réponse du manager (le pire, un long délai)
Collaboration dans l’entreprise 27% 70% 89% Taille du mail de réponse du manager (le pire, une réponse courte)
Equilibre vie au travail/vie privée 18% 42% 80% % de mails envoyés en dehors des heures de bureaux (plus il y en a, plus c’est mauvais)

D’un point de vue analyse de données, le modèle « random forest AVEC données des mails » est supérieur aux autres solutions.

Sur le fond (colonne de droite), a priori rien de renversant, les résultats sont frappés au coin du bon sens et vous vous dites « tout ça pour ça ! ».

En y regardant à 2 fois, on peut aller plus loin. En prenant, par exemple, l’équilibre privée/travail, si le nombre de mails en dehors des heures travaillées est un facteur important, on aurait pu s’attendre à ce que le volume global de mails reçus ou envoyés ou sa distribution selon les jours aient aussi un effet. NON !

Alors ?

En ressources humaines, comme dans bien des domaines, on pourrait piloter plus facilement la satisfaction des employés en utilisant les données qui existent en flux continu. Avec un grand bémol, NE PAS FLIQUER !!

Au fait, l’image c’est le réseau des employés Microsoft en fonction des échanges mails.

L’article originel (en anglais)

https://medium.com/@duncanjwatts/the-organizational-spectroscope-7f9f239a897c

« Older posts