Étiquette : Intelligence Artificielle (Page 2 of 2)

l’histoire de l’Intelligence Artificielle va vous rendre plus intelligent

Share This:

Nous somme fans absolu du chercheur Dominique Cardon. Il vient de publier avec JP Cointet et A Mazieres

« LA REVANCHE DES NEURONES

L’invention des machines inductives et la controverse de l’intelligence artificielle »

Lisez le, vous serez plus intelligent après l’avoir lu et vous comprendrez mieux l’Intelligence Artificielle.

Pour y accéder cliquez ici

Nous reproduisons, ci-dessous, le résumé que ces chercheurs ont écrit.

« Depuis 2010, les techniques prédictives basées sur l’apprentissage artificiel (machine
learning), et plus spécifiquement des réseaux de neurones (deep learning), réalisent des
prouesses spectaculaires dans les domaines de la reconnaissance d’image ou de la traduction
automatique, sous l’égide du terme d’“Intelligence artificielle”. Or l’appartenance de ces
techniques à ce domaine de recherche n’a pas toujours été de soi. Dans l’histoire
tumultueuse de l’IA, les techniques d’apprentissage utilisant des réseaux de neurones – que
l’on qualifie de “connexionnistes” – ont même longtemps été moquées et ostracisées par le
courant dit “symbolique”. Cet article propose de retracer l’histoire de l’Intelligence
artificielle au prisme de la tension entre ces deux approches, symbolique et connexionniste.
Dans une perspective d’histoire sociale des sciences et des techniques, il s’attache à mettre en
évidence la manière dont les chercheurs, s’appuyant sur l’arrivée de données massives et la
démultiplication des capacités de calcul, ont entrepris de reformuler le projet de l’IA
symbolique en renouant avec l’esprit des machines adaptatives et inductives de l’époque de la cybernétique ».

Faisons attention à l’attention! Tribune commune O Goulet et I le Roy (cb news 11/10/2018)

Share This:

L’attention est devenue le buzzword actuel de la communication au niveau mondial.

Le constat est simple, nous, individus, consommateurs, prospects, clients, citoyens, sommes bombardés (et pourtant, avec le ciblage affiné promis par le digital, le « carpet bombing » devait disparaître) de messages publicitaires toujours plus nombreux, toujours plus personnalisés. Et encore, c’est sans compter les messages diffusés que nous ne voyons pas (un peu moins de 40% des publicités sur dekstop ne sont pas visibles, 23% des vidéos selon IAS 1er semestre 2018).

Il est alors légitime de se poser la question: sommes-« nous » attentifs ou non à ce qui est diffusé. C’est la base, le socle, d’un début de relation entre un message émis et sa réception dans notre cerveau. Le cerveau humain est ainsi fait que, si nous ne portons pas un minimum d’attention à un message, il ne se passera rien !

La question est donc bonne. Mais a-t-on les moyens, aujourd’hui, de mesurer cette attention ?

Des initiatives existent dans certains pays que l’on pourra toujours critiquer, glorifier, mais qui ont le mérite d’exister et d’apporter des éléments de réflexion. Aux USA et au Japon, par exemple, des annonceurs et des media utilisent les services de sociétés technologiques spécialisées dans cette mesure. Autre exemple, l’Australie, où un media, la télévision, est le fer de lance de la mesure technologique de l’attention, à grande échelle, pour mettre en avant ses qualités par rapport aux plateformes.

Des constantes dans les pays actifs sur le sujet ? Oui, les technologies de mesure passives, la masse, et, pour certains, la syndication.

Technologies passives ? Les progrès des neurosciences sont certains et y recourir est aujourd’hui la seule solution pour parvenir à approcher, correctement, le phénomène. Vous ajoutez à cela toutes les technologies embarquées dans les différents devices qui font partie de notre quotidien et vous obtenez un couple gagnant.

La masse ? Ou que ce soit, on parle d’échantillons représentatifs, la base d’une mesure fiable, et généralement, ce ne sont pas de petits échantillons !

La syndication ? Les dispositifs sont coûteux, qui a les moyens de les payer ? Un media? Des media? De gros annonceurs qui en ont assez de dépenser de l’argent à fonds perdus ?

Le marché français, depuis quelques mois, fourmillent d’initiatives sur la mesure de l’attention. Elles proviennent, souvent, des agences media (c’est très bien de revoir les agences media sur le sujet de l’expertise pour montrer qu’elles ont toujours un rôle à jouer dans le conseil donné aux annonceurs). Elles viennent aussi des régies qui initient des projets ponctuels sur leurs supports ou leurs médias.

Mais, on assiste, où l’on va assister, à la même chose que ce que l’on a pu voir pour l’engagement.

Tout le monde mesure « l’engagement », mais tout le monde a une définition différente de ce qu’est l’engagement. On ne sait donc plus ce qui est mesuré à droite ou à gauche, par qui, pourquoi, comment ! Au final, cet indicateur essentiel a perdu son sens et son universalité par trop plein de définitions diverses, variées et parfois, disons-le, loufoques.

Là, pour l’attention, il faut prendre les choses dans le bon sens, être innovant dans la mesure, y mettre des moyens, et faire travailler ensemble media, agences et annonceurs.

C’est un enjeu collectif qui doit être abordé comme tel. Il s’agit moins de défendre les intérêts particuliers de certains que de défendre l’intérêt global d’une profession à démontrer sa pertinence.

 

Nous sommes prêts pour accompagner ceci. Et vous ?

Le parcours de l’individu via son mobile (Ogury), le parcours du consommateur ON et OFF (Carrefour Media) (compte rendu impartial et complet)

Share This:

Michel Bellanger (Directeur Marketing, Carrefour Media) et Philippe Périé (Vice-Président Data & Algorithmes, Ogury) étaient les invités du petit déjeuner IREP que nous avons eu le plaisir d’animer le 28 février.

Ci-après le compte-rendu complet de ce petit déjeuner.

  1. Carrefour Media et Ogury en tant que sociétés

Ogury a été créée en septembre 2014, et est composée de 150 personnes, à ce jour (droit anglais mais siège à Paris). Le CA 2017 est d’un peu plus de 40 millions d’euros. Cette société est, historiquement, une société de technologie dédiée au ciblage publicitaire, au branding et à la performance sur mobile (Android uniquement pour l’instant). Mais le modèle évolue du fait de la croissance et de la granularité des données. Ogury se définit maintenant comme une « mobile data company » pour offrir des outils de monétisation, de ciblages publicitaires et d’analyses pour les annonceurs et les éditeurs.

Carrefour Media est le quatrième contributeur à la marge de Carrefour France et emploie 40 personnes. Ses clients sont les marques référencées chez Carrefour principalement. Les performances de la régie et ses actions autour de la data font que la nouvelle gouvernance de l’entreprise réinvestit énormément le sujet et les moyens afférents.

  1. Comment faites-vous pour suivre les individus ou consommateurs?

  • Le terme suivre est rejeté par les 2 participants.

Pour Philippe Périé (Ogury), on n’est pas dans une logique de suivre les individus de façon individuelle et en permanence, cela ferait beaucoup trop de données ! Cependant, la valorisation des données est faite, à la demande, dans des contextes particuliers pour des clients éditeurs, annonceurs ou entreprises. La donnée est agrégée, anonyme pour créer des cibles, des profils et pour décrire des audiences, et non pas pour suivre un individu.

Michel Bellanger (Carrefour Media) met lui aussi en avant la connaissance client pour répondre à des attentes et non pas suivre une personne.

  • Comment font-ils ?

Ogury s’associe à des milliers d’applications, dans le monde entier, pour générer des données d’intérêt et de comportement uniques directement à partir de plus de 400 millions de profils d’utilisateurs mobiles uniques (250 millions avec opt-in) dans plus de 120 pays.

L’éditeur fait rentrer, dans son application, le SDK Ogury qui va, à partir de l’opt-in, collecter des données brutes (bas niveau) traduites en données significatives et utiles (applications installées, applications utilisées, connectivité et sites visités…) grâce à une technologie propriétaire. Cette vue, first party, est complète, assez unique en profondeur, en récurrence, en précision, et disponible nulle part ailleurs. La récolte des données brutes est importante pour minimiser l’empreinte du SDK sur la batterie du smartphone, un des plus d’Ogury.

Ces informations sont, ensuite, transformées par des équipes de data scientists en visites, en fréquentation, en durée. Au final, ces données sont enrichies dans une optique de ciblage publicitaire mais sont proposées aussi comme vecteur de connaissance pour un éditeur : le parcours de l’utilisateur de son application était celui-là il y a une semaine, et a été celui-ci 2 semaines après… Originellement, Ogury s’est lancé en payant un CPM assez généreux (entre 8 et 12 €), cette proposition attractive n’était pas la seule du marché, les éditeurs ont alors souhaité disposer de plus de connaissance. Ogury va aussi vers un modèle NO PUB pour proposer de la connaissance d’audiences aux clients.

Pour répondre aux enjeux de revenus de Carrefour, l’enseigne a développé des outils permettant de répondre aux attentes des consommateurs : une offre, un service omnicanal, plus de générosité, plus de personnalisation.

Carrefour a 3 grands types de connaissance clients.

  • Les transactions collectées via les tickets de caisse (anonyme) et via la carte fidélité personnelle (14,3 millions de porteurs, 27 mois d’historique d’achat à l’EAN, au code-barre). Les premières sont de l’informatique, les secondes sont de l’intelligence. Avec les encartés, Carrefour retrace 85% du CA des hypermarchés, mais moins dans les magasins de proximité.
  • La navigation / fréquentation média: magasins on (adserver / tracking) et off (carte fidélité). Les outils qui, il y a 5 ans, étaient managés par les agences (ex ad serveur) ont été réinternalisés au principe que c’était de la connaissance client qui permet de personnaliser la relation avec l’individu. La clé du commerce pour Carrefour étant la personnalisation, l’internalisation des outils était indispensable. Un questionnaire média est aussi adressé à certains porteurs de carte.
  • Les données externes de type Météo, de la donnée de contexte.
  1. Pour quelle(s) finalité(s) ?

« Après la connaissance, l’insight, il y a la dynamique de la connaissance »

Michel Bellanger, Carrefour Media

 

« On dépasse le simple taux de clic en remettant dans le contexte de l’activité via le mobile. »

Philippe Périé, Ogury

 Pour Carrefour Media, les objectifs sont, par nature, pour des clients/fabricants de marques alimentaires avec la volonté de construire de nouvelles coopérations avec les marques.

Ces nouvelles coopérations doivent être :

  • Durables, elles doivent donc répondre aux enjeux de transparence qu’attendent les annonceurs pour installer la confiance
  • Massives donc industrialisées, il faut créer de nouveaux outils avec ceux qui existent
  • ROIste, c’est le consommateur final qui valide les opérations en changeant son comportement, l’efficacité est un bon indicateur de cette acceptation. Les outils de mesure, BI, doivent être co- construits et partagés.

On explique alors aux annonceurs les opportunités ou menaces de leur business par rapport à la catégorie, la famille de produit, la promotion, la météo. Au-delà de la mesure de la performance, c’est la compréhension de cette performance qui est faite.

Evidemment, tout cela à un coût et une valeur. Que ce soit pour les annonceurs, leurs agences ou les éditeurs, Carrefour dispose, maintenant, d’outils pour répondre à leurs besoins. Les experts qui analysent, ne sont pas forcément en interne chez Carrefour, l’objectif est de connecter la donnée avec des partenaires (5 équipes différentes dans 4 entreprises différentes).

Mais après la connaissance, l’insight, il y a la dynamique de la connaissance. Associé à un CA, il y a une liste de contacts qui peut être activée pour changer les comportements : comment activer un segment d’audience sur un comportement d’achat via des médias, des services existants, des services à inventer (livraison de bouteilles pour de gros consommateurs de boisson gazeuse, pressing gratuit pour x chemises pour un lessivier…). L’important étant de créer une relation.

Chez Ogury, en termes d’organisation, le traitement de la donnée est internalisé, une équipe « data rafinery » existe même pour préparer les données. Mais sur le fond de l’utilisation des données, au-delà de la monétisation en CPM ou de l’engagement en performances de « delivery », l’apport de connaissance majeur aux éditeurs et annonceurs se fait par la compréhension du comportement de leurs cibles en dehors de l’univers qu’ils contrôlent avec leurs applications : mixités, cross usage, exclusivité, profils… sur de longues séries.

On retrouve aussi une notion dynamique du coté publicitaire en apportant de la pertinence et de la parcimonie dans la communication. Les individus sont éduqués, sont conscients de la collecte de données par les applications et les terminaux et attendent en retour des interactions proactives et contextualisées. De nombreuses études le montrent. La mission est aussi de permettre un meilleur dialogue entre annonceurs, entreprises et consommateurs.

Des progiciels édités par Ogury pour ses besoins d’analyse de la donnée en interne, sont aussi dans les mains des clients pour apporter une connaissance plus profonde de ce qui a fonctionné ou non dans une campagne, dans un segment visé, en dépassant le simple taux de clic mais en remettant dans le contexte de l’activité via le mobile.

  1. Le « sans couture » (seamless), une réalité ?

« A notre expérience sur les marques alimentaires, le sans couture n’existe pas ! »

Michel Bellanger, Carrefour Media

 

Carrefour travaille avec les wallgarden « Google, Facebook, Apple… » mais les premiers jardins clos ce sont les magasins ! Ils se sont digitalisés, ils ont monté chacun leur écosystème.

Si on se réfère au Lumascape, tous ces acteurs de ce monde-là ne donnent pas l’impression de communiquer les uns avec les autres, chacun a son propre langage, sa propre technologie et produit énormément pour alimenter les directions marketing. Ainsi, un directeur marketing a toutes ces solutions face à lui et a l’impression d’obtenir une vraie victoire quand il réussit à connecter tel système avec sa DMP. Le problème c’est que le système Facebook ou autre ne communique pas avec x ou avec y… Avoir le parcours complet du client d’un magasin est ambitieux car cela signifie, d’une part, que l’on a la transparence totale sur le marché, ce qui n’est pas le cas, et d’autre part que l’on ait de la réconciliation à l’individu (pas au device) ce qui n’est pas le cas non plus !

Chacun des éditeurs, des partenaires, impose une règle avec le risque de sacrées surprises.

Mesurer est un risque car cela peut conduire à annoncer que ce n’est pas efficace mais cela recèle des opportunités car on peut imaginer améliorer les choses. Toutefois, la chaîne et le parcours risquent de bouger et la position qu’on a dans la chaîne peut évoluer.

Carrefour est en train d’organiser un « hôtel » dans lequel il n’y a qu’un seul langage commun, le client final (réconcilier la donnée à l’individu), et chacun des partenaires (les 450 plateformes marketing) peut réserver une chambre qui dispose d’une porte sur toutes les autres chambres en maitrisant la sécurité de la donnée et les règles de privacy. Cet hôtel, est pour l’instant plus un Airbnb (on fait à la main) mais a vocation à devenir l’hôtel décrit, c’est-à-dire, l’industrialisation des réconciliations. Cela fonctionne remarquablement bien.

L’an dernier, la régie a fait une communication sur le VOPO (View On Line Purchase Off Line), le (ROPO n’existe pas en alimentaire), la réconciliation entre les données transactionnelles et les données d’exposition on line.

On travaille déjà avec Facebook et on mesure l’efficacité du digital Facebook sur l’achat chez Carrefour. Avec Google ou Appnexus, on reconcilie à l’individu les impressions digitales avec un ticket de caisse, ce qui permet de mesurer un effet (tant de chiffre incrémental, tant de recrutement incremental…) et de produire des courbes de réponse d’effet sur les ventes. Les annonceurs optimisent leurs campagnes sur des cookies mais quand on se place à l’individu, on constate qu’il a 2.5 cookies. Donc optimiser au cookie c’est voir double. Optimiser en temps réel le lundi, par exemple, quand les achats se font le jeudi, ça ne sert pas à grand-chose. Enfin, une campagne, en soi, a peu d’effet, c’est la répétition des campagnes qui fait la construction du ROI. La donnée Carrefour se teste sur 6 mois, pas en une vague, pour accumuler suffisamment de pression commerciale en digital pour obtenir un résultat.

Ogury travaille sur des données Android qui est un écosystème très fragmenté avec de nombreux constructeurs, de nombreuses versions qui ne travaillent pas toutes de la même façon.

Cela arrive qu’il y ait des trous dans les données qu’il faut détecter mais globalement l’ensemble est assez propre. Les biais qui existent sont techniques. Pas de biais non plus de cookie car l’information est à l’Android ID du smartphone qui est un objet personnel tant que l’on ne change pas de device, qu’on ne remette pas à zéro l’Android ID (c’est possible) ou tant que vous ne démissionnez pas d’Ogury !

  1. RGPD ? Privacy ? Un frein ? opportunité ?

« Le RGPD va vraiment faire le tri entre le bon grain et l’ivraie ».

Philippe Périé, Ogury

 

« Il y aura des procès, dès 2018, car il y a une vraie volonté politique »

Michel Bellanger, Carrrefour Media

Pour Ogury, l’arrivée du RGPD est une situation vécue sereinement car dès les débuts de la société, être avec un opt-in explicite était la règle. Nous avons toujours préféré perdre de la donnée que d’en collecter de manière non transparente.

C’est une opportunité attendue avec impatience car :

  • cela va provoquer un assainissement du marché de ceux qui ne sont pas vertueux et aussi mettre en avant l’unicité, la granularité de nos données
  • et c’est un bénéfice pour l’utilisateur aussi, car il aura moins de publicité mais elle sera plus intéressante, car plus ciblée et plus contextualisée. L’acceptation publicitaire sera plus forte.

Le RGPD est aussi une opportunité pour Carrefour. Le même argument de nettoyage du marché est aussi mis en avant. Des cookies distributeurs circulent sur le marché, d’où sortent-ils ? Du probabilisé plus que du réel !

Soyons audacieux et saisissons le RGPD pour positionner Carrefour pas seulement sur une carte de fidélité, pourquoi ne pas proposer aux clients de les rémunérer pour l’usage de leurs données en euros sur leur carte fidélité ?  Pourquoi pas un pass data ou le client peut gérer ces opt-in opt-out pour tout ? Il y a une vraie réflexion autour d’une offre de services et pas seulement l’offre de produit. La force de Google et Facebook ? Un service de qualité. Le RGPD constitue une vraie opportunité pour les Directeurs marketing d’apporter un vrai service.

  1. A-t-on encore besoin du parcours des pensées ? Les sociétés d’études servent à quelque chose ?

« S’il y a biais ou censure et pas d’élément pour contextualiser, caler ou cadrer, les masses de données ne vont pas apporter grand-chose, au contraire on est sûr de raconter n’importe quoi »

Philippe Périé, Ogury

 Après 15 ans à TNS et IPSOS, Philippe Périé ne peut fournir une réponse objective ! Pour lui, on ne répond pas aux mêmes objectifs.

L’étude permet d’avoir accès à de la donnée couvrant tout le marché, les occasions (pas seulement l’interaction que le client a avec les points de contacts contrôlés par l’entreprise). S’il y a biais ou censure et pas d’élément pour contextualiser, caler ou cadrer, les masses de données ne vont pas apporter grand-chose, au contraire on est sûr de raconter n’importe quoi ! La donnée étude (quali/quanti) permet cette mise en perspective.

La récolte passive et massive de données apporte des informations de comportements et d’usages contextualisées, sur de longues périodes et sur de tels volumes et degrés de granularité que l’on peut descendre à des niveaux de résolutions inaccessibles autrement, et sans biais de souvenir.

En résumé, l’étude permet la mise en perspective, la couverture hors du champ de ce qui est pris par nos canaux, on est plus sur des problématiques de compréhension de marché, consommateur… Les données massives apportent la granularité, longues séries, exhaustivité, données contextuelles. On est alors plus souvent sur de l’opérationnel.

Ensuite, il y a tous les modèles d’hybridation possibles.

 

Selon Carrefour, la base de données permet d’optimiser mais, le plus important, c’est innover, avoir des idées. Ce sont souvent les clients qui en parlent le mieux et ce n’est pas dans les bases de données qu’on les trouve.

Publicité et études, même combat : tout le monde est perdu ! IIEX Amsterdam (compte rendu partial et partiel)

Share This:

700 personnes rassemblées à une conférence dédiée aux études ? Mais oui, ça existe encore et cela a eu lieu 19 et 20 février 2018 à Amsterdam, dans le cadre de IIEX Europe (tous les budgets conférences et voyages ne sont pas encore coupés partout!).

Vous connaissez ces conférences IIEX (Insight Innovation Exchange) ? Non ? Ne soyez pas surpris, vous êtes français et nous n’en avons compté seulement qu’une petite dizaine (et c’est bien dommage). Mais des anglo-saxons en force !

Les but d’IIEX ?

  • Amener de nouvelles idées pour changer le monde des « insights »
  • Fournir des sessions de formations pratiques pour développer de nouvelles capacités
  • Connecter les professionnels des études, des agences, des annonceurs entre eux (et il y avait des annonceurs !)

Nous avons souvent l’occasion d’assister à des conférences sur la communication (et nous nous en faisons l’écho) et cela faisait longtemps que nous n’avions pas assisté à une conférence sur les études (research en anglais). IIEX nous avait offert, très gentiment, l’inscription pour ces 2 jours.

Pour les premières (la communication), en filigrane, nous entendons souvent « comment exister face au GAFA » avec un bouillonnement d’initiatives (fondées ou non), de produits (utiles ou non), de débats (jamais assez à notre goût), pour la seconde, la question est « comment exister (tout court) ? » « Vers quoi faut-il aller ?»

Cette industrie, les études, et c’en est une (44.5 milliards de $, ESOMAR 2017), s’interroge sur son existence même quand elle voit ses clients (les annonceurs, les agences) se passer d’elle, faire autrement, différemment grâce au numérique.

Alors quoi de neuf ? Nous pourrions en écrire des tonnes sur toutes les sociétés présentes axées majoritairement sur les neurosciences, du social, de l’intelligence artificielle (rien vu sur le big data ou peu de choses sur l’hybridation mais c’était peut-être dans des conférences précédentes). Mais nous préférons, nous axer sur d’autres points de vue.

  1. L’avenir des études ? « Pourquoi suis-je optimiste ? ». Didier Truchot (IPSOS)

Un grand français (mais oui, chapeau), Didier Truchot (en octobre, ses 50 ans dans les études ! IFOP+IPSOS) a introduit la conférence en prononçant une phrase reprise par tous pendant les 2 jours :

« Cette industrie a plus changé pendant les 5 dernières années

que durant les 30 précédentes »

 (C’est vrai pour les études ad hoc mais pas pour les panels qui ont déjà fait leur révolution).

Une autre phrase intéressante

« cette industrie doit être basée sur la connaissance, la science, l’efficacité et plus important, être plus proche de ses clients, mieux les écouter pour que l’utilité de ce que l’on produit soit augmentée et que l’on puisse lutter contre les grandes sociétés de consultants ».

Où l’on retrouve encore les sociétés de conseil (études+pub= même combat !)…

Cette phrase souligne, à notre avis, 2 choses.

  • Le coté scientifique été quelque peu délaissé (D Truchot l’a souligné aussi) par les sociétés d’études. IPSOS a l’air de vouloir s’y remettre avec les récentes embauches de 2 directeurs scientifiques (très très bien tous les 2), Jean Noel Zeh (ex CSA) et Benoit Hubert (ex GFK).
  • La proximité client qui renvoie aussi à la disparition ou la perte d’importance des directions études chez les annonceurs.
  1. Les études chez l’annonceur : « Comment être prêt pour demain dès aujourd’hui » Stan Sthanunathan, Executive Vice President, Consumer & Market Insight, UNILEVER

 

Les sociétés d’études sont, encore aujourd’hui, plus calées ou occupées sur le triangle de gauche (en noir et blanc) à passer plus de temps sur la collecte de données que sur les insights alors qu’elles devraient être dans la posture inverse pour essayer d’atteindre le graal, selon lui, donner des pistes d’action et de mesure d’impact de ces actions. Elles s’arrêtent à l’étape « insights » sans s’engager.

Le futur de l’industrie est alors

« l’intelligence augmentée » = « efficience augmentée » + « efficacité augmentée »,

où comment faire avec ½ moins de budget, ½ moins de temps pour une action x2 ?

Concrètement chez Unilever ?

  • Utilisation de la plateforme Machine Vantage (Intelligence Artificielle et Machine learning) pour mettre en relation des données de panel distributeurs (vente & co) des marques et marchés suivis par Unilever, des données social, des données d’autres études. Exemple de bénéfices : lancement d’un nouveau produit pour Lipton en 7 mois entre la détection d’un besoin, l’établissement du concept jusqu’à la mise en marché
  • Laisser l’utilisateur interne Unilever trouver les réponses à ses questions via « answer rocket » (Q&A) ou via l’acces aux études en tant que telle (people answer) ou voir ou avoir des réactions consommateur en video (discuss.io). On crée de la valeur en laissant les gens faire eux-mêmes plutôt que de s’échiner à répondre a tout !

Sa vision des CMI (Consumer & Marketing Insights) est l’ouverture vers les consommateurs avec toutes les nouvelles technologies et l’ouverture vers les marketeurs de l’entreprise.

  1. Les études vues par l’annonceur : « how to measure a cloud » Tony Costella, HEINEKEN

La palette des sources d’information pour un annonceur s’élargit de plus en plus.

Donc des études VALIDES, RAPIDES et ECONOMIQUES c’est possible.

Moralité pour les sociétés d’études, bougez vous demain est déjà là !

  1. Comment ne rien perdre avec l’arrivée du mobile : « reinventing need states segmentation for the mobile era ? Luigi delli Colli Ferrero et Steven Naert, Ipsos

Toutes les grandes entreprises ont des segmentations clients. Celles-ci ont reposé, pendant de nombreuses années, sur l’administration de questionnaires en ligne généralement longs et pénibles à remplir.  Quand 70% des individus répondent aux questionnaires via mobile, il est plus qu’urgent de revoir la façon dont on les interroge.

  • Penser au questionnaire en mobile first c’est-à-dire beaucoup plus court. Pour Ferrero passer de 36 à 15 minutes.
  • Le mobile interdit de longues listes d’items, donc comment mettre des images valides (métaphoriques) ou avoir des questions ouvertes équivalentes à ces items. Pour Ferrero, utilisation des formes modernes de questionnement (passer des images, grilles courtes, sliders). Réduction du taux de chute de 30% à 14%.
  • Interagir avec le répondant via de la self-ethnographie, l’envoi d’images, de réactions non structurées.

Rien de nouveau pour les praticiens des études (ouverts), mais cela fait toujours du bien de voir qu’on y arrive sur des choses compliquées.

  1. Un peu d’efficacité publicitaire ? « how to significantly improve marketing ROI & ad effectiveness with Google AI and Hotspex behavioural science » Shane Skillen, Hotspex

Cet homme (Shane Skillen) est un showman. Un nouveau produit de cette société canadienne Hotspex (Toronto) toujours bien notée coté innovation : du test publicitaire vidéo en ligne sur les valeurs de la marque, les émotions, les attributs… avec une analyse de la vidéo à tester à base d’intelligence artificielle. Sur les 7 marques testées à titre de pilote, +10% en efficacité media (sur quels critères ?).

  1. Pour aller toujours plus vite : « accelerating the innovation process through crowdsources intelligence » Lise Ohlin, eYeka, Karen Sears, Unilever

François Petavy (ex eBay) est le fondateur de eYeka : la mise à disposition, pour les marques, d’une communauté de créateurs. Ces créateurs sont activables pour de la stratégie de marque, du contenu pour les réseaux sociaux, du développement produit, du design.

Le cas montré était sur Domestos (produit pour les cuvettes de toilette), un vrai challenge et une cliente étude très contente d’idées différentes et de la rapidité des choses!

2 choses importantes :

  • L’accent a été mis fortement sur l’importance du brief de l’annonceur à eYeka (confirmé par la cliente). Plus de temps est pratiquement passé sur le brief que sur la récolte des idées des créatifs. Pour convertir ce brief client en brief créatif, des planneurs stratégiques d’agences de publicité chez eYeka.
  • Substitution vs les agences créatives ? Non, ce sont des idées, des concepts qui sont recueillis, ils doivent être mis en musique par les agences créatives, …ensuite.
  1. Pour comprendre l’humain grâce à ses hésitations : « certainty index as a game changer in online consumer research » Rafal Ohme, Neurohm

Neurohm, une société polonaise a fait une présentation intelligente à l’image de leurs mesures basées sur l’implicite. Autrement dit, votre temps de réaction, votre temps d’hésitation pour donner telle ou telle réponse sur un sujet est révélatrice de ce que vous ne dites pas : plus vous êtes certain de votre réponse, plus vous allez vite pour répondre. La mesure conjointe entre une réponse à une question et le temps pour avoir cette réponse vous donne un coefficient de certitude quant à la réponse à la question posée.

Là encore, pour aller plus vite, une plateforme de mesure en ligne.

En conclusion

Un monde qui change, des insights partout, accessibles par tous les moyens, de la désintermédiation, des petites sociétés qui arrivent, des gros que l’on voit peu (à leur décharge ce n’est pas le lieu), amis lecteurs ça ne vous rappelle rien? 

 

En matière d’IA, vous êtes ANI, AGI ou ASI?

Share This:

Encore des nouveaux mots!

IA = Intelligence Artificielle , ceci est passé dans le langage commun.

ANI = Artificial Narrow Intelligence. En français dans le texte, c’est l’automatisation d’une tache, d’un domaine.

AGI= Artificial General Intelligence. De l’intelligence artificielle sur un ensemble de données.

ASI = Artificial Super Intelligence. De l’IA plus forte que le cerveau humain.

ANI on y est, les chatbots en sont un exemple. ASI, il faut que les entreprises s’y préparent, quant à l’ASI…

Mais finalement, ce qui est fait aujourd’hui ce n’est pas vraiment de l’intelligence artificielle, c’est du machine learning, mais c’est déjà énorme d’apprendre à partir de données.

Ceci vient d’une intervention de Pierre de Barochez, le Directeur des Systèmes d’Information de la MACIF qui recevait le 21 novembre, les 13èmes rencontres du club des pilotes de processus: les impacts du RPA (Robotic Process Automation) sur les processus et les organisations.

La MACIF a mené un chantier d’ANI en utilisant Watson d’IBM pour analyser les mails des clients issus du site MACIF.  L’idée étant de reconnaître le contenu mais aussi de déterminer le degré d’urgence, l’émotion contenue dans ce mail pour faire le tri et planifier les réponses. Cela sort dans quelques jours.

L’expression « détection des émotions » est revenue plusieurs fois dans la conférence comme un des challenges du machine learning. On n’en sort plus des émotions…

Sinon en vrac:

  • le chatbot de SwissLife a été supprimé après 3 mois d’expérience (pour en savoir plus )
  • Chez IBM, 400 projets blockchain. Un exemple, Maersk, leader du transport des conteneurs, a fait le constat que les échanges de documents administratifs autour d’un conteneur pesaient pour 20% dans le coût du transport et  que 30 intervenants interagissent autour de ce conteneur. Ils se sont engagés dans un projet blockchain pour faciliter le tout.

Quelques citations

« Pour un humain et en particulier à la banque postale, il faut passer du savoir faire au savoir être, pour que la relation physique entre le conseiller banque postale et son client soit un moment où l’on suscite l’émotion pour créer une relation durable »

Didier Moate – DRH Banque Postale

« L’humain est, depuis des lustres, dans une posture de domination des machines. En entreprise, on va vivre un choc de rapport entre l’humain, le salarié, et l’usage de la machine. Ce choc sera aussi fort ou même plus que celui de l’arrivée de l’informatique en entreprise »

Pierre de Barochez, CIO Macif

 

  • 25% du temps passé par des collaborateurs sont sur des taches répétitives
  • 30% du temps de l’IT est passé sur des taches de bas niveaux
  • 80% des taches basées sur des règles peuvent être automatisées
  • Entre 5 et 7 trilliards de dollars d’impact financier d’ici 2025
  • En 2019, 25% de chaque métier sera changé par le RPA (les robots)

Philippe Bournonhesque – CTO IBM

 

Sinon, un bel endroit, l’amphi de MACIF dans le XVème arrondissement, mais pas de code wifi, pas de # pour tweeter et surtout

PAS UNE FEMME SUR SCÈNE…

#nonmaisalloquoi

Intelligence Artificielle, quel marché? Pour qui? Pour quoi?

Share This:

Dans un billet précédent, nous avions parlé de la taille du marché technologique autour de la RGDP (362 millions € en 2016, 1.2 milliards en 2018 et encore 1.1 mds en 2020, source étude IDC pour Microsoft, microsoftexperiences 2017). Dans la même étude, IDC a évalué l’Intelligence Artificielle (IA).

[150 individus interrogés (DSI, managers IT, Directions métiers) au sein d’entreprises avec un effectif de 500 salariés et plus du secteur industriel : Banque-Finance-Assurance, Industrie Manufacturière et de Process, Commerce (gros et détail, VPC, négoce, import- export), Santé (Cliniques, Hôpitaux, Etablissements de soins)].

Le marché des technologies liées à l’Intelligence Artificielle est d’une taille beaucoup plus petite (9 fois moins importante que RGPD en 2018),

  • 65 millions en 2016

  • 129 millions d’€ en 2018

  • 265 millions d’€ en 2020

Où en sont les entreprises ?

  • 22% n’ont pas de réflexion ou de projet
  • 42% des entreprises en sont au stade de la réflexion et de la compréhension du sujet
  • 22% vont démarrer un projet d’ici 1 an ou plus
  • 6% ont un projet pilote en cours
  • 6% l’utilisent déjà dans un seul domaine

Pour faire quoi ?

C’est là où la définition de l’IA entre en ligne de compte. L’IA dans cette étude, va du chatbot, aux algorithmes, à l’infrastructure cloud, à l’analyse des images… (cf photo ci-dessous). Cela correspond probablement au périmètre de Microsoft sur le sujet (supposition gratuite!)

IA technologies deployees ou en projet microsoft IDC

Et pour quels cas d’usage par fonction ?

Rien de révolutionnaire pour notre discipline préférée, le marketing, : « optimisation des campagnes marketing » et « personnalisation et recommandations affinées »

Et pour quels cas d’usage par secteur ?

« Recommandations financières intelligentes » pour la finance 😊.

Par contre, on retrouve de façon chiffrée, pour l’industrie, ce que Yannick Carriou nous avait évoqué lors d’un petit déjeuner IREP, 70% des entreprises visent à réduire les coûts grâce à la digitalisation  des lignes de production.

Algorithmes du fantasme à la réalité -Petit dej IREP (septembre 2017) 2/2

Share This:

Si Dominique Cardon nous a apporté le coté théorique des algorithmes (voir billet précédent), Yannick Carriou (X, ENSAE, CEO CXP Group) nous a amené la réalité des algorithmes en entreprise, les implications marketing donc publicitaires.

Les mots clés: rendement, exosquelette, bolducisation des startups, tout un programme!

« Les entreprises regardent les algorithmes sous l’angle du rendement »

Yannick Carriou, CXP Group

 

« En entreprise, l’algorithme ne commence pas par le marketing»

Yannick Carriou, CXP Group

Pour les DG ou les DSI en entreprise, cette classification (celle du billet précédent) qui s’adresse à une petite partie des algorithmes, n’est pas totalement dans leurs esprits. Une entreprise regarde les algorithmes à l’aulne du rendement. Le marketing n’est alors pas concerné en premier lieu (sauf les sociétés web bien sûr), mais les machines (au sens industriel), elles le sont. Les entreprises font face à un vrai défi d’algorithmisation, de gestion des données. Elles ne voient pas le marketing en général, ou le web en particulier, comme le meilleur ratio entre la simplicité des solutions et le rendement immédiat.

Le changement de position du calculateur et l’entreprise ?

« La transformation digitale est une forme d’exosquelette construit autour des entreprises » Yannick Carriou, CXP Group

Une entreprise dont le modèle repose sur des données et sur son utilisation optimisée via des algorithmes, se sent en dépendance.

C’est vrai sur le web, puisque les calculateurs sont, en partie, à l’extérieur de l’activité de l’entreprise, mais c’est aussi vrai sur toute la chaîne. En effet, les algorithmes sont de plus en plus compliqués et de plus en plus « boîte noire » créant ainsi une autorité entre ceux qui savent ce qu’il y a dedans et ceux qui ne savent pas.

La transformation digitale est une forme d’exosquelette construit autour des entreprises. Elle génère des relations de dépendance, de stress, car, installer un exosquelette, signifie faire des choix, dans des architectures un peu compliquées, dans des algorithmes eux aussi complexes (ou plutôt choisir entre les différents discours de fournisseurs), et partir sur des engagements de long terme.

Si l’on revient à la position du calculateur, sa position est externe, un peu floue, un peu marketée et génère une grande incertitude sur la validité du choix.

Les sociétés d’études ? Ce ne sont pas des exosquelettes (à l’exception de la mesure d’audience), car les études tournent d’une société à l’autre, à un moment ou un autre. C’est d’ailleurs cela le problème des sociétés d’études, ce rapport d’autorité n’est pas installé à grand échelle, ni pérenne.

Le stress de l’entreprise, par rapport au calculateur, repose sur quelques questions : Où est-il ? Que fait-il ? Qui suis-je moi pour le contrôler ? D’où la tendance à se doter de calculateurs, les data scientists, mais cette tendance est encore minoritaire. La plupart font confiance à de systèmes packagés.

L’Intelligence Artificielle, le marketing, la publicité ?

« Le marketing est surement l’endroit le moins rentable pour de l’algorithmie, de l’intelligence artificielle » Yannick Carriou, CXP Group

Prenons l’exemple de l’achat d’une turbine à gaz. Le prix d’entrée est de 150 millions de dollars. La durée de vie d’une turbine est de 30 à 40 ans. Pendant cette période, elle va consommer à peu près 100 fois sa valeur. Un algorithme qui peut optimiser le rendement de cette turbine de 2%, a un impact financier colossal. Si vous optimisez votre campagne marketing de 2% c’est très bien mais quel est l’investissement que vous avez mis derrière ?  Il vaut mieux, alors, investir dans des algorithmes qui fournissent un rendement important. En marketing, la vraie difficulté est que l’on essaye d’optimiser un mécanisme non déterministe et l’on essaye d’optimiser un rendement qui est intrinsèquement faible.

Une expression pratique de l’algorithme est l’établissement de « dashboards » avec des « KPI ». Un KPI, on le sait tous, est sommaire, partiel et n’a jamais supprimé l’intelligence naturelle qui sait prendre des décisions sur des critères croisés. Ce qui est dangereux, c’est quand on met une « religiosité » derrière cette mécanique : l’IA, une force cachée. Certains acteurs ont intérêt à vendre cette abstraction, cette religiosité. J’ai vu des start-ups qui veulent réinventer des lois de la physique et font table rase de quelques siècles de théorie. Mais, elles passent la barre des DSI, des DG, car la machine est la seule à donner un sens à un fatras de données. Le KPI, dans ce cadre, devient mortel car on ne sait plus ce que c’est, plus le pourquoi mais on y croit très fort !

Si l’on se penche sur la publicité, dans le marketing, l’expérience utilisateur est un élément clé. Or, du point de vue de l’expérience utilisateur, les résultats de l’algorithme publicitaire ne sont pas fantastiques non plus. Le retargeting c’est très bien, mais voir pendant 10 jours le même produit que je viens d’acheter, c’est un peu gênant.

En fait, l’algorithme peut optimiser soit un résultat, soit les taches pour arriver à ce résultat. On ne parle plus de rendement alors mais de productivité. Le programmatique est typiquement l’exemple de la productivité et, ici, l’algorithme a du sens.

Intelligence Artificielle, Start-ups, qualité ?

« Les start-ups mettent un bolduc autour du R » Yannick Carriou, CXP Group

Statisticiens et Data scientists, c’est une évolution du même monde.

Si autrefois les statisticiens pratiquaient les statistiques avec des licences SAS qui coûtaient très chères, aujourd’hui, tout le mouvement sur l’analytics est basé sur le langage R.

Ce langage était limite de la société secrète il y a 15 ans ! Mais, avec le mouvement open-source, on accède aujourd’hui, facilement, à l’état de l’art sur l’analytics, l’IA… On a alors, beaucoup de startups en Analytics avec des individus brillants qui mettent un « bolduc » autour du R.

La bolducisation des start-ups, c’est mettre de l’assouplissant avec votre lessive pour que la serviette (Le R) soit un peu moins rêche !

Quel que soit le bolduc, il est nécessaire de se pencher sur la qualité des données que l’on a dans un DMP pour nourrir des processus d’Intelligence Artificielle. Aujourd’hui la qualité des données n’est pas assez questionnée et optimiser de façon intelligente des données dont la qualité est une question, ça ne favorise pas le rendement, même s’il y a l’adage que l’IA fait mieux que le hasard !

Algorithmes du fantasme à la réalité -Petit dej IREP – septembre 2017 (1/2)

Share This:

Tel était l’objet du second petit déjeuner, organisé par l’IREP (que nous avions le plaisir d’animer). 

Nous avons accueilli, Dominique Cardon, un des plus grands sociologues mondiaux de l’ère du numérique.

Ce billet est le premier de 2 et reprend les propos de Dominique. Le second reprendra les propos de Yannick Carriou, CEO CXP Group.

« Un algorithme (mot arabe, IXème siècle) est une suite d’instructions réglées produisant un résultat. C’est dans le code informatique, mais ce n’est pas tout le code informatique. » Dominique Cardon Medialab Sciences Po.

Quelle vision de la société sort des calculs faits par les algorithmes ?

« La prédiction personnalisée est un vrai changement de paradigme » Dominique Cardon Medialab Sciences Po

Les algorithmes de classement de l’information sur le web ne sont qu’une petite partie des algorithmes qui existent mais sont intéressants par ce qu’ils montrent de notre société. Ils peuvent être classés en 4 familles qui sont, aujourd’hui, constamment coprésentes : popularité, autorité, réputation et prédiction.

 

  A côté Au-dessus Dans Au-dessous
Exemples Mediametrie // Net Ratings, Google Analytics, affichage publicitaire digital PageRank de GooglE, Digg, Wikipedia Nombre d’amis, Facebook, retweet de Twitter, notes et avis Recommandations Amazon, publicité comportementale
Données Vues Liens Likes Traces
Population Echantillon représentatif Vote censitaire, communautés Réseau social, affinitaire, déclaratif Comportements individuels implicites
Forme de calcul Vote Classements méritocratiques Benchmark Machine learning
Principe POPULARITE AUTORITE REPUTATION PREDICTION

In Dominique Cardon, A quoi rêvent les algorithmes, la république des idées, Seuil, 2015

Ce qui occupe le monde aujourd’hui, c’est la dernière famille, la prédiction personnalisée. Cette famille est un vrai changement de paradigme, de statistiques, des types de données mobilisées (données publiques, liens hypertexte, partages, like…). Ici, on utilise des données implicites, les traces des internautes, traces de navigation, géolocalisations, … tout ce que peuvent apporter les capteurs aujourd’hui.

Le mesureur dans cette classification ?

« Le rêve de Google a toujours été d’être invisible de l’internaute » Dominique Cardon, Medialab Sciences Po

Cette classification montre que la position du calculateur a, elle aussi, changé: « À côté » , « au-dessus » ,  « dedans » et « en-dessous »

Au-dessus

Le rêve de Google a toujours été d’être invisible de l’internaute (ne pas montrer les calculs) car il prétend mesurer des signaux et faire une prédiction à partir de signaux que les webmestres s’envoient entre eux (liens hypertexte) sans que les webmestres n’agissent en fonction de celui qui les observent du dessus.

Cette vision d’observation du monde (l’instrument qui observe, n’agit pas sur le monde qu’il mesure) est un peu naïve, car les webmestres agissent en fonction de l’instrument qui le mesure. La grande crise du PageRank en 2007-2012 vient de là (Pour compléter votre information voir ici )

« Dedans »

A l’opposé, les réseaux sociaux (Facebook, Twitter, …) qui sont DANS la donnée, ont montré les calculs et ont donné à TOUS la possibilité de calculer. Tout le monde peut agir et devenir stratège. La conséquence de ceci a été la forte baisse de qualité de la donnée (achat de faux likes…). Ce qui n’empêche pas les données des réseaux sociaux d’avoir d’autres significations.

« En dessous »

Comme la prévision ne fonctionne pas avec le web social (élections, succès commerciaux de films…), pourquoi ne pas aller chercher des traces en dessous, sous la conscience des utilisateurs ?

C’est le grand mouvement actuel dit « l’intelligence artificielle » (l’IA) qui, d’ailleurs, n’est pas de l’IA mais du machine learning. On peut régler les calculs d’une mesure en fonction d’un objectif supervisé qui est toujours une mesure d’utilité (« Qui passe le plus de temps à scroller la page FB » … « que l’on ait de l’up-selling dans la recommandation commerciale », « qui clique le premier », …). L’objectif sert à recalculer les paramètres des données qui vont être présentées de façon de plus en plus personnalisée à l’utilisateur.

C’est un nouveau régime qui se met en route, le calcul n’est plus le même pour tout le monde et le réglage du calcul ne se fait pas en fonction des intentions du calculateur mais en fonction des traces des individus.

 

Newer posts »