Catégorie : Recherche (Page 1 of 3)

la recherche nous apporte de l’information

les nouveaux liens : VIS!ONS de 20 minutes (un compte rendu partial et partiel)

Share This:

Comment résumer la plus belle conférence que nous ayons vu cette année ? IMPOSSIBLE !!

Un très bel endroit, l’institut océanographique de Paris, une excellente animation par le rédacteur en chef de 20 minutes, Laurent Bainier, des intervenants fantastiques, pour la plupart, et un contenu alliant la science, la culture, l’innovation, le yoga, la danse, … plein d’intelligences et d’émotions.

En une phrase : « l’humain, l’humain, l’humain, l’humain » à la fois dans ce qu’il a de beau, de bon, d’intéressant mais aussi de moins chouette !

En sortant de cette matinée, si nous étions un annonceur, nous aurions fait un chèque immédiatement pour une page de pub dans le titre en remerciement de l’intelligence fournie. Ne l’étant pas, nous avons foncé dans la librairie la plus proche pour dévorer les bouquins des différents intervenants ! (En oubliant le chauffage de l’institut qui avait sauté dans la nuit et dont l’absence permettait de garder des idées …fraîches)

  1. L’intelligence

Gérald Bronner, sociologue (dernier livre : la déchéance de rationalité).

Il intervenait pour prôner ce qui est son credo en tant que sociologue, la nécessité de la rationalité. Nous vivons une époque passionnante (on est d’accord) dont une des caractéristiques est la dérégulation massive de l’information. Avant l’ère digitale, la science permettait de construire et valider des modèles intellectuels. Depuis l’avènement du digital, tout est questionné et questionnable, ce qui est une bonne chose, mais, ce n’est pas forcement, malheureusement, les arguments scientifiques, rationnels qui l’emportent !  Alors, comment aider l’humain à ne pas céder aux « conneries » qui circulent si vite (les fausses infos iraient 6 fois plus vite à circuler que les infos vérifiées sur Twitter) car elles vont dans le sens de ce qu’attend notre cerveau (sciences cognitives), comment aider les individus à faire leur indépendance mentale ? Il a beaucoup travaillé sur les rumeurs, les superstitions ou autres fausses croyances en allant des sectes (gag : les platistes, ceux qui prônent que la terre est plate ont des membres tout autour de la terre) au djihadisme. Pour lui, il n’y pas qu’un déterminisme social dans ces pensées extrêmes mais aussi un « choix » de l’individu guidé en bien et en mal par ce que l’on découvre du cerveau avec les sciences cognitives (vive l’interdisciplinarité !). Ainsi le droit au doute doit s’accompagner de devoir, en apportant des arguments fondés, le doute doit s’incliner devant la réalité.

« Il faut douter avec méthode ».

Ce n’est pas ce que font les conspirationnistes et il ne sert à rien de contester leurs croyances (cela ne fait que les renforcer) mais au contraire il faut les aider à comprendre leur façon de raisonner sur d’autres sujets (Par exemple ils confondent bien souvent corrélation et causalité). Si nous faisons le lien avec 20minutes, de l’importance des informations vérifiées, validées, argumentées !

 Lauren Boudard et Dan Geiselhart : Tech, algo, IA …je t’aime moi non plus (livre : les possédés)

Ils ont fondé un collectif Tech trash qui prend du recul par rapport à la déferlante technologique. Leur slogan « bete et méchant » mais gentiment. Pour eux, il n’y a pas d’intersection entre les choix que nous faisons et nos valeurs, c’est la contradiction humaine. 2 exemples :

  • le scandale cambridge analytica qui heurte nos valeurs n’empêche pas Facebook de continuer a croitre en nombre d’abonnés !
  • L’utilisation de Google vs Qwant : On démarre par une recherche sur Qwant, on ne trouve pas ce que l’on cherche en moins de 10 secondes, on fait la même recherche sur Google, on a mauvaise conscience (Nous confirmons !).

Alors pourquoi l’humain fait-il cela ?

Platon nous donne la réponse c’est l’ACRASIE, le fait d’aller à l’encontre de son meilleur jugement. On voit le bien, on l’approuve mais on fait le mal… ! C’est notre intime désaccord. Un autre mot en français pour Acrasie c’est l’incontinence…

Il y a des moyens de combattre notre ACRASIE :

  • en nous pre-engageant sur quelque chose (dire a d’autres ce que nous allons faire avant de le faire, nous poussera a le faire)
  • avoir des intentions de mise en œuvre qui ne concerne que nous avec nous-même. Un exemple, les listes de choses à faire.
  • Se mettre des embuches. Exemple Victor Hugo qui a donné tous ses vêtements pour ne plus pouvoir sortir de chez lui et ainsi terminer Notre Dame de Paris

L’inverse d’ACRASIE c’est l’ENCRASIE, notre force de caractère… (no comment)

Michel Desmurget, directeur de recherche en neurosciences (Inserm): les digital natives cette légende urbaine (livre : La Fabrique du crétin digital).

Un vrai réquisitoire contre l’appellation « digital natives » (nous partageons). Il n’y a pas de modification dans le cerveau de cette génération ! Il ne s’agit pas de contester l’utilité du numérique mais de voir ce qu’ils en font, essentiellement du divertissement : un enfant de 10 ans passe 5 à 6h par jour sur des applis de divertissement. Ils sont en train de perdre le langage. La nouvelle édition du club des cinq en est un parfait exemple. Il était nécessaire de refaire une édition pour rendre les rôles des garçons et des filles moins caricaturaux, mais la langue s’est considérablement appauvrie (cf photo).

De plus, les jeunes ont perdu leur concentration (à ne pas confondre avec l’attention). Et si on touche aux 2 choses fondamentales que sont le langage et la concentration, on touche à l’intelligence… Et celle-ci mesurée en QI (ca se discute) serait en baisse, d’où le crétin digital. Cette génération ayant de grosses difficultés à trier les informations (étude a Standford), la démocratie est en danger ! Le cerveau n’est pas fait pour le numérique mais pour l’humain.

Et pour conclure ce grand vent d’optimisme, une citation

« à la marge, nous sommes en concurrence avec le sommeil. Et ça fait beaucoup de temps »

Read Hastings, Netflix.

Au fait, quand on touche au sommeil, on touche à la structure même de l’être humain…

Quelques chiffres tirés de l’étude #moijeune de 20 minutes (828 répondants de 18-30 ans)

  • Le sommeil est pour 78% des jeunes un plaisir mais pour 22% une perte de temps
  • 57% d’entre eux serait prêts à dormir avec un appareil connecté pour apprendre en dormant (cela aussi c’est une légende urbaine !)

Albert Moukheiber, docteur en neurosciences, biais cognitifs et mutations : plongée au cœur du cerveau et des mécanismes de l’attention (livre : votre cerveau vous joue des tours, regardez cette video hallucinante !)

Ici encore le cerveau et le doute sont au premier plan.

Pour lui le doute de soi doit être une méthode d’hygiène mentale ! Nous ne pensons pas tous la même chose (même des jumeaux parfaits !) car nous n’avons pas la capacité à traiter toutes les informations qui nous viennent du réel. Notre perception est partiale (cela nous rappelle quelque chose…), notre attention est limitée et le monde est complexe.

De plus Nous confondons souvent corrélation et causalité (voir l’excellent site de Tyler Vigen sur les corrélations débiles 😊), nous fonctionnons de manière approximative. Nous avons alors de tels biais cognitifs (le moyen de nous raconter des histoires) qu’il est vital de douter de soi ! (voir ici le codex des biais cognitifs).

Alors ne faut-il pas mettre en exergue ceci

« qu’est ce que réfléchir, si ce n’est qu’une façon élégante de changer d’avis »,

autrement dit, on gagnerait à s’occuper de nos propres pensées plutôt que celles des autres et à éviter de se dire que si le monde entier était comme soi le monde serait meilleur…

Trancher c’est accepter d’être incertain !

  1. Les surprises

Sydney Govou, ex-footballeur et actuel coach en entreprise, et les secrets de la concentration.

La condition physique dans le foot est une chose mais sans concentration, point de salut. Il a vu évoluer la façon d’aborder la concentration dans le football. Au départ, on leur disait de se fixer un objectif simple : exemple marque un but. Mais cet objectif simple était contre-productif car il était obsessionnel et fait sur la finalité du jeu. La méthode a évolué pour passer à un objectif de jeu et non plus à sa finalité. Par exemple, passer de marquer un but à comment récupérer le ballon. Il faut avoir des objectifs individuels qui rentrent dans le schéma de l’équipe car ce sont les interactions avec les autres qui sont la clé du succès. C’est pareil en entreprise !

Lea Alui, influenceuse

Cette jeune fille a 18 ans et 10 millions de followers sur Instagram…C’est bien une jeune fille (harcelée à l’école) venue avec sa maman, son agent et un costaud type malabar qui trouve son équilibre avec ses millions de suiveurs.

Une surprise car ce n’est pas notre monde, mais alors, pas du tout, du tout, mais nous lui souhaitons bonne chance dans sa vie, la vraie.

  1. En fil rouge, des nouveautés étonnantes ou intéressantes par Ganael Bascoul et Laurent Bainier

  • Roger voice : l’intelligence artificielle au service des sourds. Elle écrit sur écran un flux vocal s’une conversation téléphonique.
  • Suricate-nat : détection de catastrophes naturelles en analysant le fil twitter. Le séisme en Ardèche a été détecté en 2 minutes, cela permet de faciliter le déploiement des forces de secours par géolocalisation.
  • S!E: Sistema de Informacion de Emergencia qui informe les possesseurs de smartphone d’une situation d’urgence sans passer par internet mais en utilisant les ondes radio. Un tel système aurait pu être efficace a Rouen ou l’usage de nos bonnes vieilles sirènes a été inopérant les individus ne sachant que faire.
  • Eternime: votre avatar immortel qui peut discuter avec vos proches…après votre décès
  • Rewind : une application de podcasts géolocalisés pour découvrir l’histoire de Paris

 

Et il y avait plein d’autres belles choses que vous pouvez retrouver ici

MERCI MERCI MERCI MERCI 20MINUTES

Une journée d’Intelligence Artificielle avec BONHEUR (un compte rendu partial et partiel)

Share This:

Comment résumer, en quelques lignes, une journée entière consacrée à l’intelligence artificielle le 23 octobre 2019, à Station F ?

Impossible d’autant plus que le programme était d’une richesse incroyable variant les mathématiques, la politique, le business, les enjeux, la pratique, les secteurs et 2 stars : Stéphane Mallat (Collège de France) et le montréalais Yoshua Bengio, l’un des 2 papes de l’IA avec le français Yann Le Cun (Le premier travaille pour Google, le second pour Facebook).

Chapeau pour cette magnifique journée (1 800 personnes y ont assisté) même si nous regrettons (cela va faire vieux c..) une journée complètement en anglais alors qu’il y a très très peu de non francophones dans la salle (3 à la première présentation…). Au moins, les ¾ des présentations étaient plus que compréhensibles pour des francophones vu la prégnance de l’accent français en anglais !! On regrettera aussi quelques changements de programme impromptus sans que l’application spécifique soit à jour, et les tics de langage du type « amazing », « incredible », « guys » …

Bref, nous ressortons de tout cela avec quoi ?

L’IA n’a rien de magique (nous le savions mais cela a été dit clairement moultes fois) et de nombreux progrès, dans tous les domaines, sont encore à venir pour contourner tous les problèmes et biais posés. Par contre, le processus d’automatisation est en marche avec son cortège de solutions business (Nous n’avions jamais vu une conférence avec autant d’offres d’emploi à l’intérieur même des présentations !!)

Un cocorico. La France est devenue, ce jour-là, officiellement, le pays leader en Europe sur l’Intelligence Artificielle (avant la Grande Bretagne et Israël) avec le premier rang en matière d’investissements dans les startups dédiées au sujet. 570 millions d’euros au 1er semestre 2019 pour une année qui atterrirait à 1.2 milliards d’euros selon les estimations du cabinet Roland Berger et de France Digitale (qui reprend l’organisation de l’événement France is AI).

Nous ne relatons ici, dans cet ordre, que ce qui concerne la politique, la complexité, les biais et contournements des biais, le business, le pragmatisme, le feel good et un tout petit peu de mathématiques.

Politique

Nous avons un ambassadeur pour le numérique (et il est compétent), Henri Verdier (…, Cap Digital, Etalab,…) qui doit « couvrir » 4 thématiques dans lesquelles l’IA est forcément présente :

  • Les grands sujets de cyber sécurité (nous vous rappelons une de nos obsessions : la question n’est pas de savoir si des crashs de cyber sécurité au niveau des états vont se produire mais quand ! Merci l’Estonie 2007…).
  • La participation des états a la gouvernance d’internet
  • La diplomatie économique
  • La défense et la promotion des valeurs qui structurent nos sociétés

En fait, il est à la recherche d’une troisième voie, l’Europe, alternative au « sans contrôle publique » américain et au « tout contrôle » chinois. Pour y arriver quelles solutions ?

Les lois avec l’exemple du RGPD qui fait des petits au Japon, en Inde et est copié aux USA. Ce qui n’empêche pas la France, par exemple, d’assouplir sa position par rapport à la circulation libre de la data (free flow of data with trust), l’important étant de savoir comment s’organiser.

L’argent mais que sont les investissements de chaque état européen pris indépendamment par rapport aux milliards américains et chinois. Il rappelle que le succès n’est pas proportionnel à l’argent investi, au tera octet de data, mais au fait d’être malin.

Et des engagements forts (?) sur des principes, des valeurs et l’éthique. Il pousse à la création d’un GIEC de l’IA (pas bête) pour avoir des gardes fous, au dépassement des conneries venant d’un pays (ex : la classification trompeuse des tomates en légume aux USA, alors que c’est un fruit, car il y a 100 ans pour des raisons de taxes, Heinz a qualifié les tomates en légumes. Aujourd’hui toutes les bases de données américaines utilisées en IA des USA classent les tomates en légume au lieu de fruit !).

Le rôle de l’Etat, pour lui, est celui du jardinier qui doit faciliter la vie des startups.

Complexité

On est loin de « l’intelligence » artificielle. La voiture autonome sur la place de l’étoile ce n’est pas pour demain. Trop d’interactions, de décisions à prendre encore pour les machines existantes qui ne sont capables que d’imiter des taches simples et répétitives (c’est déjà ça !). Une machine sait faire un chose à la fois et ne peut pas tout faire ! Exemple, la machine alpha GO est bonne pour le jeu de GO mais ne sait rien faire d’autres, il faut tout créer à chaque fois.

Biais et contournement des biais

  • Où sont les femmes (une fois de plus), quand on voit Karl Tuyls (Deepmind de Google et Université de Liverpool) qui remercie dans un slide de photos son équipe d’au moins 16 chercheurs, que des hommes ! Les organisateurs de la journée ont fait attention à ce point et des femmes étaient présentes sur la scène!
  • Biais des bases de données. Les modèles d’apprentissage des machines (machine learning supervisés) sont très gourmands en données. Pour leur apprendre des choses, il faut que l’humain intervienne, par exemple, en annotant des milliers d’images de façon à expliquer à la machine ce que signifie telle ou telle image. La masse d’images annotées permettra alors à la machine d’être capable de classer correctement de nouvelles images rencontrées Il y a un très gros business autour des bases de données d’images annotées, décrites, par les humains (Inde, Madagascar,…). Mais c’est long, cela coute cher (même si ces travailleurs humains sont payés une misère) et cela ne couvre pas toutes les situations car il est dangereux pour l’humain de coder certaines situations (il doit visionner des atrocités pour coder !). Sans aller chercher ici les horreurs pornographiques ou terroristes, pensez simplement aux accidents entre un piéton et une voiture, vous ne disposez pas d’un « corpus » de cas, d’images, suffisants. Pourquoi ne pas les créer dans un monde virtuel alors (Naila Murray, Naver Labs), et avoir alors de la variété dans les situations qu’un grand nombre de situations identiques.
  • Toujours sur les bases de données, imaginez 8 photos, 6 de chats blancs et noirs dans différentes positions et 2 de chiens noirs, eux aussi dans des positions différentes. Vous injectez dans la machine une photo de chien blanc pour classification en chien ou chat, la réponse sera chat, car toutes les photos d’un animal blanc était un chat ! Cela parait bête mais c’est une réalité que vous pouvez transposer à grande échelle. Cela renvoie à un biais très classique en stat, votre échantillon n’est pas représentatif de la population qu’il est censé représenter !
  • En Autriche, une startup se faisait fort de réduire le chômage en fournissant un algorithme d’adéquation entre le profil du candidat et l’offre d’emploi à base de machine learning. Super sur le principe mais la machine a appris le chemin le plus efficace trouvé dans l’historique des données, ne proposer des offres d’emploi qu’aux hommes car ils décrochent des emplois quand les femmes et les personnes handicapées n’en recevaient plus aucune…

Business

Criteo

La publicité était présente à cette journée avec les changements de fond opérés par Criteo dans son fonctionnement (Zofia Trstanova). Comment changer son moteur de recommandation pour être plus pertinent et être capable de présenter le bon produit pour 1 milliard de requêtes / utilisateurs en 50 millisecondes… ? Joli challenge ! Bien sûr, il y a l’historique de l’utilisateur mais quel produit choisir dans les milliers, millions de produits possibles parmi les partenaires de Criteo (CDiscount ….) ? C’est simple, Il faut construire une matrice de distance entre produits et choisir le plus proche voisin du dernier produit acheté ou choisi par l’utilisateur. Cela parait facile mais la masse de produits et l’urgence de la réponse change tout. Il faut alors approximer les distances, approximer la matrice.

Le nouveau système Criteo a commencé à être déployé il y a un an et demi. Il va être amélioré par l’incorporation des annotations d’images dans le processus.

Astra Zeneca (James Weatherhall VP Data science et AI)

Le raisonnement est simple pour un laboratoire pharmaceutique. Un brevet dure 20 and, il faut 12 ans pour arriver a une solution définitive et sa mise en marché. Il ne reste donc que 8 ans pour obtenir des revenus. Comment raccourcir les 12 ans pour allonger les 8 de revenus ! La première étape est dans la connexion de toutes les données qui existent maintenant pour un laboratoire pharmaceutique (données génomiques et génétiques, données patients, données de capteurs, données d’interaction media, données des réseaux d’information médicaux, données de marché. La seconde étape est de connecter un certain nombre de ces données (ca a pris moins de 2 ans). Ensuite, et il y en a pour 5 ans encore, on applique de l’Intelligence Artificielle. Premier exemple, dans la découverte de médicament, les « manipulations » de molécule sont « facilement » automatisables. Ce qui prend aujourd’hui 24 jours pourraient baisser à 5 jours. Second exemple, l’interprétation radiologique dans des cas de tumeur. Un radiologue met 20 minutes, dans des cas complexes à analyser l’épreuve avec environ 10% d’erreurs quand un processus d’IA met quelques secondes avec moins de 1% d’erreurs.

Eramet (Jean Loup Loyer, Head of data sciences & AI)

Une société de production minière (Nouvelle Calédonie, Gabon…) et de métallurgie qui comme Astra Zeneca est maintenant à la tête de nombreuses données. Une des premières utilisations a été de faire de la maintenance préventive sur ses machines d’extraction grâce à l’analyse des données de capteurs. Mais en allant plus loin, Eramet analyse maintenant les images prises par drone des chantiers de ses concurrents ou clients pour adapter au plus juste sa production miniere et ajuster ses prix !

Société Générale (Julien Molez, Group Innovation Data & AI Leader)

L’analyse des données n’y est pas nouvelle (l’actuariat pour la gestion des risques) mais là encore, la masse de données issues des clients, de la dématérialisation des documents, permet d’aller plus loin. 3 cas d’utilisation de l’Intelligence Artificielle

  1. Analyse du langage (NLP) sur les clauses de confidentialité a signer avec des partenaires potentiels pour voir si elles sont compatibles avec la législation bancaire et la politique de la banque.
  2. Moteur de recommandation du bon article à lire au bon moment pour les clients de la branche affaires (et leurs conseillers)
  3. Analyse de tous les paiements de la banque en temps réel en France pour détecter les valeurs aberrantes (outliers) et bloquer les mauvaises transactions

Pragmatisme (Benoit Limare, Sicara)

Une fraîcheur de propos très agréable.

Pour lui il y a au moins 2 catégories de projet d’IA :

  • L’IA bidon, la start-up qui dit qu’elle fait de l’IA (notamment en reconnaissance d’image) et qui a, en fait de nombreuses petites mains à Madagascar pour classer les images…
  • L’IA raisonnable : démarrer petit pour élargir le champ par la suite. Le grand soir dans de l’IA est dangereux car il faut prouver l’intérêt de la méthode à la fois auprès des salariés proches de l’informatique mais aussi ceux qui sont touchés par le process et la direction générale. Commencer par quelque chose de raisonnable (voire même bidon) est le moyen d’amorcer la pompe, d’emporter l’adhésion de tous avant d’engager des coûts élevés dans un projet plus complet (l’IA ça coûte cher !)

Des exemples :

  • Une société de produits de beauté voulant un moteur d’IA pour recommander le bon produit de soins pour la peau a de clientes avec déjà une bonne solution avec un selfie et quelques bonnes questions.
  • Une autre où le DSI voulait réduire une tache de 15 minutes à 10 secondes. Un projet simple permettait déjà de réduire la tache de 15 minutes à 45 secondes. Le projet pour atteindre les 10 secondes aurait été extrêmement couteux.

Il rappelle que pour faire de l’IA, il faut des données (la moindre des choses !), lisibles par un humain (si l’humain ne les comprend pas, la machine ne saura rien faire), et contrôlables (autrement dit de nombreuses photos de produits différents d’un site de e-commerce prises toutes avec des angles différents débouchera sur des problèmes, il faut contrôler l’input !).

Feel good

Accenture a présenté un programme d’aide aux personnes âgées avec de l’IA conversationnelle. Le premier pilote d’« Elderly care » avait été fait en Grande Bretagne il y a 3 ans. 4 sont dans les « tuyaux », un en Belgique, 2 aux USA, 1 à Stockholm. Cela a raisonné beaucoup dans nos oreilles suite au petit dejeuner IREP que nous avions animé sur ce sujet avec Hélène Xuan et Olivier Altmann

 

Mathématiques

Un grand moment avec Stéphane Mallat du Collège du France qui, sur le moment, nous a paru biblique quand il expliquait comment les mathématiques pouvaient aider l’Intelligence Artificielle à résoudre le problème de l’interprétation des choses.

Pour lui, tout est dans la structuration des réseaux de neurones, il le démontre. Mais il a avoué avoir perdu, pour l’instant, un pari d’un diner dans un 3 étoiles (on est français où on ne l’est pas) avec Yann Le Cun quant au fait de trouver le modèle d’analyse et les théorèmes qui vont bien !

Au fait, si vous voulez comprendre vraiment « Comment les Réseaux de neurones à convolution fonctionnent » cliquez ! Ça vaut le coup car c’est la base de tout le décodage d’images entre autres. Si nous vous le disons avec nos mots, vous découpez votre image en pixels, chaque pixel a un poids en fonction de son contenu et de ses couleurs. Vous tordez votre image et refaites votre découpage en pixels. Ceci plusieurs fois, vous prenez un échantillon de pixels dans chaque découpage et à la longue vous mettez tous vos échantillons ensemble et vous serez capable de reconnaître une nouvelle image en la comparant via ses pixels à celles que vous aviez eu au préalable. C’est bien mieux expliqué dans le lien que nous vous signalons et nous venons surement d’écrire de grosses horreurs!!

 

En conclusion, l’IA était, pour nous, plus facile à comprendre que la conférence sur le gaming !

VIVE L’INTELLIGENCE ET LA SCIENCE – Conférence IPSOS (compte rendu partial et partiel)

Share This:

Quand on consulte l’excellent site myenventnetwork.com, le constat est simple : tous les jours des événements, des conférences, des ateliers (parfois plusieurs dans la même journée) gratuits pour la majorité d’entre eux, mettent en avant un aspect du métier de la communication, du digital et des media.

C’est trop mais c’est ainsi (cf notre coup de gueule il y a 2 ans et ça n’a pas changé).

Nous sortons, de plus en plus souvent avant la fin (ce qui n’est pas poli), énervés après avoir entendu des choses déjà dites, redites, rabâchées sans aucune aspérité sans point de vue affirmé. C’est pour cela que nous n’avions rien publié sur ce blog depuis des mois. Overdose de banalités !

Aussi, quand une société vous propose de faire bouger vos neurones en vous apportant de l’intelligence scientifique, vous ne pouvez dire qu’une seule chose MERCI IPSOS !

L’idée de ces conférences à la maison de la chimie, le 26 septembre 2019 au soir, était de se réinterroger sur tous les modèles théoriques qui sous-tendent tout ce que nous faisons, faut-il les renouveler ? comment les renouveler ?

Que se passe-t-il dans notre cerveau, comment raisonne-t-on ? (Olivier Houdé, Professeur émérite Paris Descartes, laboratoire LaPsyDÉ).

Les adeptes de l’homo-economicus ont toujours mis en avant la capacité de réflexion logique de l’humain, son système algorithmique qui permet d’élaborer une pensée réfléchie, dont la fiabilité est grande mais qui nécessite du temps, des efforts pour aboutir. Son défaut ? Monopoliser notre attention (amusez-vous au jeu dans cette video).  C’est le système dit 2, incarné dans les travaux de Jean Piaget. Exemples simples : lire un mot que l’on ne connait pas, changer de direction pendant un trajet habituel, calculer 19 x 46…

Daniel Kahneman (prix Nobel d’économie 2012) a démontré que le système 2 n’était pas le seul dans notre cerveau, mais qu’il en existait un autre : le système 1. C’est un système dit heuristique dont la caractéristique est d’être une pensée automatique, intuitive, avec une fiabilité correcte mais non totale et surtout une très grande rapidité. Le cerveau humain cherchant toujours à économiser sa consommation d’énergie, le système 1 est celui que nous activons le plus souvent dans nos taches quotidiennes. Des exemples ? La lecture, la conduite automobile sur un trajet habituel, des calculs simples (1+1, 2+3 …). L’apprentissage est la base de construction du système 1.

Au passage, ne pensez-pas, comme l’imaginait Piaget, qu’en passant de l’enfant à l’adulte le 1 laisse la place au 2 ! Non, suivant les sujets, les moments, l’adulte est à fond dans le système 1, aucune corrélation avec l’âge ! (Comme quoi la sagesse n’est pas l’apanage des vieux 😊)

Alors nous nous arrêtons là, avec 2 systèmes ?

Non ! Il en existe un troisième, issu des travaux d’Olivier Houdé. Ce système 3 est dit système d’inhibition qui a fonction d’arbitre, et qui nous pousse à interrompre notre processus de décision rapide (système 1) pour basculer sur la réflexion algorithmique (système 2). Le système 3 permet d’éviter les conflits entre les 2 premiers, les conflits cognitifs. Les adeptes des neurosciences le localiseront dans le cortex pré-frontal, là où se situe nos émotions et sentiments.

L’idée est alors de « cultiver » notre système 3 pour apprendre à débrancher le système 1 au profit du 2, il faut résister à notre intuition !

A quoi cela sert-il ?

Un exemple concret proposé par Brice Teinturier : les stéréotypes racistes et antisémites existent depuis longtemps (les juifs et l’argent, les juifs et le pouvoir, le lobby juif mondial…) et sont suivis par IPSOS (B Teinturier a projeté des verbatim issus des réseaux sociaux, à vomir…). La question est, pour un gouvernement par exemple, de trouver des moyens de combattre ces stéréotypes. Affirmer que ce n’est pas vrai ne sert à rien, on se heurte au mur du système 1. Comment pousser le système 3 à débrancher le 1 pour activer le 2, donc à dépasser le stéréotype pour aller à la réflexion. IPSOS a introduit dans ces questionnaires d’opinions, des mesures de nouvelles émotions relatives au doute, au regret et à la curiosité qui permettent aux pouvoirs publics de penser leurs démarchent autrement. Ces mesures sont applicables aussi au marketing.

 

Deuxième sujet : La modélisation de la mobilité (Olivier Bonin, Professeur, Géographe, chercheur à l’IFSTTAR au Laboratoire Ville Mobilité Transport)

Le sujet parait plus simple que l’exploration de notre cerveau et pourtant ! Comment reconstituer des flux de mobilité pour mesurer des individus qui bougent en permanence dans tous les coins. Les vieilles méthodes consistaient à reconstituer des flux en comptant des passages à des points fixes et en interrogeant des individus dans le cadre d’enquêtes. En demandant un point de départ, un point d’arrivée, un mode de déplacement et des choix d’itinéraires, il était possible de modéliser les flux. Les modèles permettaient alors d’interpoler dans le temps et l’espace, des données très partielles, lacunaires. Ceci avec plus ou moins de succès car on se limitait souvent à des heures de pointe (le matin), un jour de semaine, sans tenir compte des variabilités des activités et en étant focalisé plus sur les flux que sur les comportements des individus.

Aujourd’hui, des données sont disponibles en masse : la billétique, le GPS, les smartphones, des boîtiers dédiés… Ces données sont, de plus, relatives à un individu. Et même si elles sont moins riches sémantiquement que des enquêtes, elles apportent une densité temporelle et spatiale incomparables.

Vous y appliquez des modèles différents (on passe des modèles gravitaires aux modèles multi-agents), calculés au niveau de l’individu (qu’il soit réel ou synthétisé) et vous disposez de multiples programmes d’activité répartis entre les jours, les chaînages, les différents membres d’une famille, bref, de tout ce qui est nécessaire pour l’optimisation des trajets, des infrastructures, des horaires, … mais aussi pour la mesure d’audience de l’affichage (Outdoor, en usage maintenant…)

C’est le cas applicatif montré par (le brillant) Jean Noël Zeh (IPSOS) puisque l’entreprise a gagné l’appel d’offres de Mobimétrie (ex Affimétrie). Dans cette mesure sont intégrés les déplacements de 10 000 personnes (elles ont porté pendant 9 jours, un « meter », un boitier spécifique, précis sur la localisation GPS), des mesures déclaratives de déclarations de déplacements (smartphones), les points d’intérêts géographiques (magasin, services publics, réseaux de transports, …), toute l’open data INSEE, et des données payantes de telco ou d’autres acteurs.

Jean Noël Zeh a aussi montré 2 cas de « research for good », comme la mesure des flux dans un camp de réfugiés Rohingya au Bangladesh pour permettre d’établir des points d’eau ou des centres de soins.

Troisième intervention : le consommateur expliqué par ses neurones (Vinod Venkatraman , Professeur, Temple University).

Nous sommes repartis dans le cerveau humain ou plus exactement dans les méthodes de mesure d’effets qui existent, aujourd’hui, avec la technologie (Eye tracking, facial tracking, activité cérébrale, sudation…). Mais la chose intéressante est de les avoir relier à un impact marketing sur les ventes.

Aux méthodes nouvelles, Vinod Venkatraman a testé aussi les méthodes plus classiques d’interrogation (groupes ou questionnaires). C’est l’objet d’un article primé en 2015 à l’ARF aux USA (sur de petits échantillons…). La conclusion est bonne pour une société d’études. Que ce soient des mesures d’eye tracking, biométriques, EEG ou questionnement, chacune apporte un voire plusieurs éléments de réponse différents à l’élasticité publicitaire sur les ventes. Autrement dit, c’est en utilisant toutes les méthodes que l’on a une vision complète et pertinente. Pour avoir, nous-même, hybridées plusieurs méthodes, nous ne pouvons qu’être en accord avec cette conclusion !

En application, Katell le Coueffic a présenté le « creative lab » qui permet, en une journée, de mettre en oeuvre la plupart des méthodes indiquées et d’avoir des pistes d’optimisation sur du matériel publicitaire non finalisé. Nous supposons que ceci sera plutôt l’apanage des grands sociétés clientes.

En conclusion, une des phrases prononcées en introduction par Helen Zeitoun :

« science et études, le ticket gagnant pour ne pas dire n’importe quoi »

(combien d’entre nous devraient s’en inspirer !).

Faisons attention à l’attention! Tribune commune O Goulet et I le Roy (cb news 11/10/2018)

Share This:

L’attention est devenue le buzzword actuel de la communication au niveau mondial.

Le constat est simple, nous, individus, consommateurs, prospects, clients, citoyens, sommes bombardés (et pourtant, avec le ciblage affiné promis par le digital, le « carpet bombing » devait disparaître) de messages publicitaires toujours plus nombreux, toujours plus personnalisés. Et encore, c’est sans compter les messages diffusés que nous ne voyons pas (un peu moins de 40% des publicités sur dekstop ne sont pas visibles, 23% des vidéos selon IAS 1er semestre 2018).

Il est alors légitime de se poser la question: sommes-« nous » attentifs ou non à ce qui est diffusé. C’est la base, le socle, d’un début de relation entre un message émis et sa réception dans notre cerveau. Le cerveau humain est ainsi fait que, si nous ne portons pas un minimum d’attention à un message, il ne se passera rien !

La question est donc bonne. Mais a-t-on les moyens, aujourd’hui, de mesurer cette attention ?

Des initiatives existent dans certains pays que l’on pourra toujours critiquer, glorifier, mais qui ont le mérite d’exister et d’apporter des éléments de réflexion. Aux USA et au Japon, par exemple, des annonceurs et des media utilisent les services de sociétés technologiques spécialisées dans cette mesure. Autre exemple, l’Australie, où un media, la télévision, est le fer de lance de la mesure technologique de l’attention, à grande échelle, pour mettre en avant ses qualités par rapport aux plateformes.

Des constantes dans les pays actifs sur le sujet ? Oui, les technologies de mesure passives, la masse, et, pour certains, la syndication.

Technologies passives ? Les progrès des neurosciences sont certains et y recourir est aujourd’hui la seule solution pour parvenir à approcher, correctement, le phénomène. Vous ajoutez à cela toutes les technologies embarquées dans les différents devices qui font partie de notre quotidien et vous obtenez un couple gagnant.

La masse ? Ou que ce soit, on parle d’échantillons représentatifs, la base d’une mesure fiable, et généralement, ce ne sont pas de petits échantillons !

La syndication ? Les dispositifs sont coûteux, qui a les moyens de les payer ? Un media? Des media? De gros annonceurs qui en ont assez de dépenser de l’argent à fonds perdus ?

Le marché français, depuis quelques mois, fourmillent d’initiatives sur la mesure de l’attention. Elles proviennent, souvent, des agences media (c’est très bien de revoir les agences media sur le sujet de l’expertise pour montrer qu’elles ont toujours un rôle à jouer dans le conseil donné aux annonceurs). Elles viennent aussi des régies qui initient des projets ponctuels sur leurs supports ou leurs médias.

Mais, on assiste, où l’on va assister, à la même chose que ce que l’on a pu voir pour l’engagement.

Tout le monde mesure « l’engagement », mais tout le monde a une définition différente de ce qu’est l’engagement. On ne sait donc plus ce qui est mesuré à droite ou à gauche, par qui, pourquoi, comment ! Au final, cet indicateur essentiel a perdu son sens et son universalité par trop plein de définitions diverses, variées et parfois, disons-le, loufoques.

Là, pour l’attention, il faut prendre les choses dans le bon sens, être innovant dans la mesure, y mettre des moyens, et faire travailler ensemble media, agences et annonceurs.

C’est un enjeu collectif qui doit être abordé comme tel. Il s’agit moins de défendre les intérêts particuliers de certains que de défendre l’intérêt global d’une profession à démontrer sa pertinence.

 

Nous sommes prêts pour accompagner ceci. Et vous ?

Publicité et études, même combat : tout le monde est perdu ! IIEX Amsterdam (compte rendu partial et partiel)

Share This:

700 personnes rassemblées à une conférence dédiée aux études ? Mais oui, ça existe encore et cela a eu lieu 19 et 20 février 2018 à Amsterdam, dans le cadre de IIEX Europe (tous les budgets conférences et voyages ne sont pas encore coupés partout!).

Vous connaissez ces conférences IIEX (Insight Innovation Exchange) ? Non ? Ne soyez pas surpris, vous êtes français et nous n’en avons compté seulement qu’une petite dizaine (et c’est bien dommage). Mais des anglo-saxons en force !

Les but d’IIEX ?

  • Amener de nouvelles idées pour changer le monde des « insights »
  • Fournir des sessions de formations pratiques pour développer de nouvelles capacités
  • Connecter les professionnels des études, des agences, des annonceurs entre eux (et il y avait des annonceurs !)

Nous avons souvent l’occasion d’assister à des conférences sur la communication (et nous nous en faisons l’écho) et cela faisait longtemps que nous n’avions pas assisté à une conférence sur les études (research en anglais). IIEX nous avait offert, très gentiment, l’inscription pour ces 2 jours.

Pour les premières (la communication), en filigrane, nous entendons souvent « comment exister face au GAFA » avec un bouillonnement d’initiatives (fondées ou non), de produits (utiles ou non), de débats (jamais assez à notre goût), pour la seconde, la question est « comment exister (tout court) ? » « Vers quoi faut-il aller ?»

Cette industrie, les études, et c’en est une (44.5 milliards de $, ESOMAR 2017), s’interroge sur son existence même quand elle voit ses clients (les annonceurs, les agences) se passer d’elle, faire autrement, différemment grâce au numérique.

Alors quoi de neuf ? Nous pourrions en écrire des tonnes sur toutes les sociétés présentes axées majoritairement sur les neurosciences, du social, de l’intelligence artificielle (rien vu sur le big data ou peu de choses sur l’hybridation mais c’était peut-être dans des conférences précédentes). Mais nous préférons, nous axer sur d’autres points de vue.

  1. L’avenir des études ? « Pourquoi suis-je optimiste ? ». Didier Truchot (IPSOS)

Un grand français (mais oui, chapeau), Didier Truchot (en octobre, ses 50 ans dans les études ! IFOP+IPSOS) a introduit la conférence en prononçant une phrase reprise par tous pendant les 2 jours :

« Cette industrie a plus changé pendant les 5 dernières années

que durant les 30 précédentes »

 (C’est vrai pour les études ad hoc mais pas pour les panels qui ont déjà fait leur révolution).

Une autre phrase intéressante

« cette industrie doit être basée sur la connaissance, la science, l’efficacité et plus important, être plus proche de ses clients, mieux les écouter pour que l’utilité de ce que l’on produit soit augmentée et que l’on puisse lutter contre les grandes sociétés de consultants ».

Où l’on retrouve encore les sociétés de conseil (études+pub= même combat !)…

Cette phrase souligne, à notre avis, 2 choses.

  • Le coté scientifique été quelque peu délaissé (D Truchot l’a souligné aussi) par les sociétés d’études. IPSOS a l’air de vouloir s’y remettre avec les récentes embauches de 2 directeurs scientifiques (très très bien tous les 2), Jean Noel Zeh (ex CSA) et Benoit Hubert (ex GFK).
  • La proximité client qui renvoie aussi à la disparition ou la perte d’importance des directions études chez les annonceurs.
  1. Les études chez l’annonceur : « Comment être prêt pour demain dès aujourd’hui » Stan Sthanunathan, Executive Vice President, Consumer & Market Insight, UNILEVER

 

Les sociétés d’études sont, encore aujourd’hui, plus calées ou occupées sur le triangle de gauche (en noir et blanc) à passer plus de temps sur la collecte de données que sur les insights alors qu’elles devraient être dans la posture inverse pour essayer d’atteindre le graal, selon lui, donner des pistes d’action et de mesure d’impact de ces actions. Elles s’arrêtent à l’étape « insights » sans s’engager.

Le futur de l’industrie est alors

« l’intelligence augmentée » = « efficience augmentée » + « efficacité augmentée »,

où comment faire avec ½ moins de budget, ½ moins de temps pour une action x2 ?

Concrètement chez Unilever ?

  • Utilisation de la plateforme Machine Vantage (Intelligence Artificielle et Machine learning) pour mettre en relation des données de panel distributeurs (vente & co) des marques et marchés suivis par Unilever, des données social, des données d’autres études. Exemple de bénéfices : lancement d’un nouveau produit pour Lipton en 7 mois entre la détection d’un besoin, l’établissement du concept jusqu’à la mise en marché
  • Laisser l’utilisateur interne Unilever trouver les réponses à ses questions via « answer rocket » (Q&A) ou via l’acces aux études en tant que telle (people answer) ou voir ou avoir des réactions consommateur en video (discuss.io). On crée de la valeur en laissant les gens faire eux-mêmes plutôt que de s’échiner à répondre a tout !

Sa vision des CMI (Consumer & Marketing Insights) est l’ouverture vers les consommateurs avec toutes les nouvelles technologies et l’ouverture vers les marketeurs de l’entreprise.

  1. Les études vues par l’annonceur : « how to measure a cloud » Tony Costella, HEINEKEN

La palette des sources d’information pour un annonceur s’élargit de plus en plus.

Donc des études VALIDES, RAPIDES et ECONOMIQUES c’est possible.

Moralité pour les sociétés d’études, bougez vous demain est déjà là !

  1. Comment ne rien perdre avec l’arrivée du mobile : « reinventing need states segmentation for the mobile era ? Luigi delli Colli Ferrero et Steven Naert, Ipsos

Toutes les grandes entreprises ont des segmentations clients. Celles-ci ont reposé, pendant de nombreuses années, sur l’administration de questionnaires en ligne généralement longs et pénibles à remplir.  Quand 70% des individus répondent aux questionnaires via mobile, il est plus qu’urgent de revoir la façon dont on les interroge.

  • Penser au questionnaire en mobile first c’est-à-dire beaucoup plus court. Pour Ferrero passer de 36 à 15 minutes.
  • Le mobile interdit de longues listes d’items, donc comment mettre des images valides (métaphoriques) ou avoir des questions ouvertes équivalentes à ces items. Pour Ferrero, utilisation des formes modernes de questionnement (passer des images, grilles courtes, sliders). Réduction du taux de chute de 30% à 14%.
  • Interagir avec le répondant via de la self-ethnographie, l’envoi d’images, de réactions non structurées.

Rien de nouveau pour les praticiens des études (ouverts), mais cela fait toujours du bien de voir qu’on y arrive sur des choses compliquées.

  1. Un peu d’efficacité publicitaire ? « how to significantly improve marketing ROI & ad effectiveness with Google AI and Hotspex behavioural science » Shane Skillen, Hotspex

Cet homme (Shane Skillen) est un showman. Un nouveau produit de cette société canadienne Hotspex (Toronto) toujours bien notée coté innovation : du test publicitaire vidéo en ligne sur les valeurs de la marque, les émotions, les attributs… avec une analyse de la vidéo à tester à base d’intelligence artificielle. Sur les 7 marques testées à titre de pilote, +10% en efficacité media (sur quels critères ?).

  1. Pour aller toujours plus vite : « accelerating the innovation process through crowdsources intelligence » Lise Ohlin, eYeka, Karen Sears, Unilever

François Petavy (ex eBay) est le fondateur de eYeka : la mise à disposition, pour les marques, d’une communauté de créateurs. Ces créateurs sont activables pour de la stratégie de marque, du contenu pour les réseaux sociaux, du développement produit, du design.

Le cas montré était sur Domestos (produit pour les cuvettes de toilette), un vrai challenge et une cliente étude très contente d’idées différentes et de la rapidité des choses!

2 choses importantes :

  • L’accent a été mis fortement sur l’importance du brief de l’annonceur à eYeka (confirmé par la cliente). Plus de temps est pratiquement passé sur le brief que sur la récolte des idées des créatifs. Pour convertir ce brief client en brief créatif, des planneurs stratégiques d’agences de publicité chez eYeka.
  • Substitution vs les agences créatives ? Non, ce sont des idées, des concepts qui sont recueillis, ils doivent être mis en musique par les agences créatives, …ensuite.
  1. Pour comprendre l’humain grâce à ses hésitations : « certainty index as a game changer in online consumer research » Rafal Ohme, Neurohm

Neurohm, une société polonaise a fait une présentation intelligente à l’image de leurs mesures basées sur l’implicite. Autrement dit, votre temps de réaction, votre temps d’hésitation pour donner telle ou telle réponse sur un sujet est révélatrice de ce que vous ne dites pas : plus vous êtes certain de votre réponse, plus vous allez vite pour répondre. La mesure conjointe entre une réponse à une question et le temps pour avoir cette réponse vous donne un coefficient de certitude quant à la réponse à la question posée.

Là encore, pour aller plus vite, une plateforme de mesure en ligne.

En conclusion

Un monde qui change, des insights partout, accessibles par tous les moyens, de la désintermédiation, des petites sociétés qui arrivent, des gros que l’on voit peu (à leur décharge ce n’est pas le lieu), amis lecteurs ça ne vous rappelle rien? 

 

En Australie, le match TV vs YouTube et Facebook continue: 2 à 1 pour la TV

Share This:

Le 22 février (la Sainte Isabelle), le groupement des TV Australiennes, ThinkTV , a sorti la suite de son étude sur l’efficacité publicitaire de la TV comparée à celles de YouTube et Facebook, « the benchmark series ».

Le nouveau volet, toujours à l’initiative de Karen Nelson-Field , concerne les publicités vues sur mobile.

Là encore, les publicités vues sur les services de Replay TV décrocheraient la timbale efficacité vs celles présentées par YouTube et Facebook.

Nous nous étions faits l’écho de la première mouture à la fois à la sortie de l’étude et lors de sa présentation au marché français il y a un mois (conférence SNPTV).

Cette première version avait un défaut que nous avions signalé: on comparait des publicités vues sur la TV ou le PC alors que le support de prédilection des plateformes comme YouTube et Facebook est le mobile.

Un autre défaut, quand on parle d’efficacité sur les ventes dans cette étude, on parle d’achats faits par les membres de l’échantillon dans un magasin virtuel qui ne sont pas de « vrais achats » dans de « vrais magasins ».  A ceci, on peut répondre, comme disait mon grande-père, « l’erreur est juste », autrement dit, l’erreur est constante, la même pour tout le monde donc YouTube ou Facebook ne sont pas plus avantagés ou désavantagés, à notre sens, que la TV.

Alors que nous dit cette nouvelle version? Que des bonnes nouvelles pour les annonceurs!

  • Les publicités vues sur mobile sont efficaces sur les ventes que l’on soit en Replay TV, sur YouTube ou sur Facebook.

  • Mais, celles vues en Replay TV ont une efficacité supérieure sur les ventes de 17.5% vs YouTube et de 33% vs Facebook.

  • et, plus étonnant encore, les publicités vues sur mobile sont plus génératrices de ventes que celles vues sur les autres types d’appareils (poste de TV, écran PC)

La raison de ce dernier résultat? On porte plus d’attention en se penchant sur l’écran du mobile par rapport à l’attention sur d’autres écrans.

Et pourquoi, selon Karen Nelson Field (commentaires sur son profil linkedin), les résultats sont meilleurs en Replay vs YT et FB? Là encore, une question de visibilité « plein écran » (du mobile à l’horizontal) de ces publicités.  En Replay et sur YouTube, les publicités sont plus visibles que dans le fil Facebook.

En résumé

Nous aimerions avoir plus de détail que ce simple tableau, et notamment sur les cibles, les secteurs,  mais nous n’avons pas trouvé d’autres choses pour l’instant. Nous ne savons pas non plus si ces nouveaux résultats proviennent de nouveaux traitements de l’étude initiale ou d’une nouvelle étude (a priori, nous pencherions pour de nouveaux traitements).

Alors, à vous de vous faire votre idée et non nous ne sommes pas « vendus » à quelque media ou plateforme que ce soit mais nous sommes vendus à une chose, oui, à la communication et son efficacité pour les annonceurs!

Brand safety : un faux problème ? une bonne nouvelle ?

Share This:

Tous les professionnels de la communication ont vu les menaces d’Unilever contre les GAFA , le 13/2/2018. Integral Ad Science, le 14/02/2018, publiait un nouveau livre blanc sur le sujet de la « brand safety ».

L’expression « brand safety » sur 1 an apparaît sur le web ou disparaît à la faveur d’annonce de start-ups, de conférences ou de déclarations d’annonceurs, 39 186 posts en 1 an.

A titre comparatif, l’expression « Fake news » atteint le nombre de 6 141 034 posts (source : Linkfluence),

La « brand safety », littéralement « la sécurité de la marque » (le fait qu’une marque n’apparaisse pas dans un contenu à problème) ne se pose pas (ou peu, il y a déjà eu et il y aura encore des bourdes!) sur les media classiques (on va encore dire que nous sommes vendus, … ah si c’était vrai…) mais est un problème du digital.

L’étendue du problème n’est pas non plus colossale, si l’on en croit IADS, 5% des impressions en France (3.7% UK, 7% Allemagne, 9.4% USA) sont concernées et classées dans 11 catégories par l’IAB et le MRC  que IADS a traduit et représenté en français (cf ci-dessous).

Finalement, l’on pourrait se poser les questions suivantes :

  • Ces contenus ont une audience, pourquoi ne pas vouloir toucher ces lecteurs ?
  • Ces spectateurs, lecteurs sont dans un contexte qu’ils ont choisi, pour la majorité d’entre eux, donc a priori extrêmement affinitaire avec ce qu’ils sont, ce qu’ils pensent donc un « écrin » parfait pour la bonne réception publicitaire.
  • Ces lecteurs, ces spectateurs sont aussi des consommateurs, donc un business potentiel

En résumé, peu importe, seule l’EFFICACITE compte. Ce point de vue est « entendable » et tenu par certains (mais si!).

Mais, quand on voit une marque à côté d’un contenu réprouvé par beaucoup, cela choque les annonceurs, les communicants en général.

 

Pourtant, nous devrions tous être contents de ces indignations ou chocs, CE SONT DES BONNES NOUVELLES.

Pourquoi ?

Cela montre que :

  • La communication sert à quelque chose

  • Les marques ont un capital image long à construire et rapide à détruire. Cette construction est due à la communication et l’usage, l’expérience, que les individus ont avec elles

  • Le lien entre la publicité et le contenu est reconnu de façon implicite.

  • Le contenant est Dieu, le contenu est roi

Que des bonnes nouvelles pour tous les communicants qui se posent les questions suivantes :

  • La marque media a un effet sur la publicité

  • Le contexte de la publicité a un effet sur son efficacité

  • Le contenu et la publicité sont liés

Tout le monde se pose ces questions, nous avons du mal à croire que personne (annonceurs, media, plateformes, régies) n’ai jamais investi quelques dizaines de milliers d’euros pour avoir des réponses (nous avons cherché à plusieurs reprises sans grand succès).

Embargo ? Frilosité ? Budget ?

Une bien belle étude à imaginer en tous les cas (nous sommes volontaires !)

En attendant, bravo au SRI pour le label Digital Ad Trust qui va bientôt sortir, en souhaitant vivement que les annonceurs, et leurs agences, aient des actions monétaires concrètes en faveur des labellisés.

La qualité, ça se paye.

ePrivacy: et si la mesure d’audience disparaissait?

Share This:

En avril 2016,  (après 4 ans de discussion) était adopté au niveau européen, le « règlement général sur la protection des données » (RGPD ou GDPR en anglais ). RGPD entrera en application en mai 2018, nous en avons déjà parlé ici.

En janvier 2017, une nouvelle procédure a démarré, intitulée ePrivacy, qui doit harmoniser les législations relative à la confidentialité des « communications électroniques ».

Le monde de la communication est contre ePrivacy, que ce soit les annonceurs, les régies publicitaires, les media y compris internet (sauf Google et Facebook) et, aussi, le monde des études.

Une telle unanimité contre soi, c’est une belle performance.

On trouvera ici une version du 8 septembre de ce texte avec toutes les modifications déjà faites.

Une coalition pour la mesure d’audience (ESOMAR et beaucoup d’autres) a été créée et a publié, le 21 septembre 2017, une déclaration demandant des modifications de l’article 8 le retrait d’un mot et l’ajout d’un autre, et ça change tout!

“If it is necessary for web audience measuring, provided that such measurement is carried out by, or on behalf of, the provider of the information society service requested by the end-user”,

Que se passerait-il si la mesure d’audience disparaissait du fait de la nouvelle loi toujours en discussion?

De facto, RIEN.

Le marché publicitaire n’aura plus besoin de monnaie commune (la raison d’être d’une mesure d’audience) car tout l’écosystème publicitaire digital (et autres) aura d’autres chats à fouetter et luttera pour sa survie (sauf les GAFA)…

Affaire à suivre.

Les annonceurs admettent qu’ils sont nuls en technologie publicitaire media!

Share This:

41% des annonceurs admettent qu’ils utilisent les « technologies media » (pour la publicité bien sûr) de façon peu efficace ou même complètement inefficace.

Tel est le résultat d’une étude menée en septembre 2017 par IDCOMMS, une société de conseil aux annonceurs (oh c’est bizarre…) auprès de 229 répondants du monde du marketing, des agences media, de l’achat, 77% des répondants sont Européens, 11% Etats-Uniens et 12% le reste du monde.

En réalité étude, une telle présentation signifie un questionnaire en ligne en anglais sur une base adresse que l’on ne connait pas…

Ces informations publiées le 20 novembre 2017 sont reprises dans bon nombre de media de langue anglaise.

Tout le monde se fiche, comme d’habitude, de la façon dont l’étude est construite, seuls les résultats comptent…Elle est peut-être très bien cette étude mais pourquoi ne pas dire la source des mails des répondants tout simplement. Quant à avoir de la nuance dans l’analyse sur, par exemple, l’expérience des annonceurs en la matière, rien.

Bref, si vous voulez la lire c’est là (en anglais).

Pourquoi en parler alors ? Pour partager un énervement sur la culture d’un résultat monté en épingle, c’est tout!

Le spectroscope organisationnel ou comment l’analyse des data des emails peut expliquer la satisfaction des employés!

Share This:

Pendant des lustres, les chercheurs en organisation ont fait l’hypothèse que la performance d’une entreprise dépendait de la structure formelle de cette entreprise mais aussi de la façon dont l’information circulait.

Jusqu’à présent, le flux d’information n’était pas une chose aisée à mesurer. Avec le digital, la donnée est là et a permis à Duncan Watts et son équipe de tester l’hypothèse précédente (Duncan Watts, le génial chercheur qui a validé, à l’ère digitale, le principe du « monde est petit », fait partie depuis quelques années, des équipes de recherche de Microsoft)

De quelles données parle-t-on ?

Celles des mails, pas le contenu mais les meta données de chaque mail (si vous êtes sur gmail, prenez un de vos mails, cliquez sur la flèche à droite et faites « afficher l’original », vous verrez. Ça doit être du même genre sur Outlook de Microsoft) ainsi que des informations plus classiques comme le titre du salarié, sa localisation, et les réponses à une enquête (satisfaction des employés vs leur manager). Tout ceci aux USA, sur des données de 2015, avec toutes les garanties de préservation de la vie privée de la terre !

Quel but ?

Avec des données de mail, peut-on prédire :

  • Le niveau de confiance des employés dans l’efficacité de leur manager
  • Le fait que différents groupes dans l’entreprise collaborent efficacement
  • La satisfaction des employés quant à l’équilibre vie au travail et vie privée

Comment ?

Là, ils se sont amusés (moi j’aime !) à procéder à 3 types d’analyse :

  • Du très classique en analyse de données, une analyse logistique
  • Du machine learning (algorithme random forest) SANS les meta données mail
  • Du machine learning (algorithme random forest) AVEC les meta données mail

Résultats ?

Ils ne se sont intéressés qu’au 15% d’individus insatisfaits.

Questions posées Modèle logistique Random Forest SANS les données mail Random Forest AVEC les données mail Caractéristique du mail la plus prédictive
Satisfaction vs son propre manager 20% 69% 93% Délai de réponse du manager (le pire, un long délai)
Collaboration dans l’entreprise 27% 70% 89% Taille du mail de réponse du manager (le pire, une réponse courte)
Equilibre vie au travail/vie privée 18% 42% 80% % de mails envoyés en dehors des heures de bureaux (plus il y en a, plus c’est mauvais)

D’un point de vue analyse de données, le modèle « random forest AVEC données des mails » est supérieur aux autres solutions.

Sur le fond (colonne de droite), a priori rien de renversant, les résultats sont frappés au coin du bon sens et vous vous dites « tout ça pour ça ! ».

En y regardant à 2 fois, on peut aller plus loin. En prenant, par exemple, l’équilibre privée/travail, si le nombre de mails en dehors des heures travaillées est un facteur important, on aurait pu s’attendre à ce que le volume global de mails reçus ou envoyés ou sa distribution selon les jours aient aussi un effet. NON !

Alors ?

En ressources humaines, comme dans bien des domaines, on pourrait piloter plus facilement la satisfaction des employés en utilisant les données qui existent en flux continu. Avec un grand bémol, NE PAS FLIQUER !!

Au fait, l’image c’est le réseau des employés Microsoft en fonction des échanges mails.

L’article originel (en anglais)

https://medium.com/@duncanjwatts/the-organizational-spectroscope-7f9f239a897c

« Older posts