Étiquette : image processing

Du génome au screenome pour détailler (vraiment!) le temps passé sur écran: la fin d’une mesure globale?

Share This:

Vous connaissiez le génome: l’ensemble du matériel  génétique d’une espèce codé dans son ADN nous dit Wikipedia. Le screenome c’est l’enregistrement de tout ce que nous faisons sur des écrans.

Un article dans Nature « Time for the Human Screenome Project » de chercheurs de Standford nous dit, en sous titre, qu’

« il faut vraiment comprendre comment les individus utilisent les médias digitaux.

Les études doivent aller plus loin que la mesure de la durée et capturer tout ce que nous faisons sur nos écrans »

Il y a là de quoi attirer notre œil et pousser plus avant la lecture de ce papier.
En fait, les chercheurs installent un logiciel sur nos appareils qui prend, toutes les 5 secondes, une empreinte de ce qui passe à l’écran lorsque celui-ci est allumé. On parle d’écran digital au premier rang duquel le mobile. L’empreinte est cryptée et transmise aux chercheurs.
Cela ressemble furieusement à ce qui existe depuis de nombreuses années dans différents instituts (Mediamétrie, IPSOS, Iligo et d’autres) pour comptabiliser, entre autres, l’audience (en France, les radios ne veulent toujours pas d’un système automatique de mesure par crainte, fondée, de voir considérablement baisser leurs audiences).

Une grosse différence, il ne s’agit pas, a priori, d’une empreinte posée dans le son ou l’image, mais de la capture de l’image elle même.

Le résultat est assez bluffant comme vous pouvez le voir dans la vidéo ci-dessous montrant (en accéléré 35 secondes) 15 minutes d’actions sur mobile capturées sur 2 heures.
Le but annoncé est de mieux comprendre notre vie digitale pour voir s’il y a des addictions, si les enfants sont influencés d’une façon ou d’une autre et…les adultes aussi.
Les chercheurs signalent que le déclaratif n’est pas fiable (nous le savons mais entre rien et rien…) et qu’il est de plus en plus difficile d’obtenir, même à des fins de recherche, des données de la part des GAFAM (trop de scandales!) donc le screenome serait le moyen d’être libre pour continuer à chercher et à nous comprendre (indépendance).
Les chercheurs sont à la tête de 30 millions de captures d’écran prises auprès de 600 individus dans ce qui est appelé « Le Stanford Human Screenome Project« . Ce projet serait à la fois une plateforme technologique, un process d’analyse et un stockage de données.
En première analyse, ils nous montrent comment des comportements peuvent être différents entre 2 adolescents de 14 ans vivant en Californie du Nord qui se déclarent comme de gros utilisateurs de smartphone (plus de 2h par jour, tous les jours avec comme première et dernière activité de leur journée le fait de regarder son smartphone).
Le participant A (image de gauche) passe en fait 3.67 heures/jour sur son appareil en 186 sessions d’1.19 minute en moyenne. Il crée un contenu pendant 2.6% de son temps de connexion, à destination des applications sociales et, sur les 3 semaines de tracking, a utilisé 26 applications dont 53% étaient des applications sociales (Instagram et Snapchat principalement). Cette personne est supposée avec quelques problèmes d’attention ou alors d’être un as du maniement du téléphone.
Le participant B (image de droite) passe lui 4.68 heures/jour sur son mobile en 26 sessions d’une durée de 2.54 minutes. 7% de son temps est consacré à produire du contenu. Il utilise 30 applications mais une est majoritaire YouTube. Une spécificité il aime la nourriture avec 37q% de contenu Food divers et variés sur une journée
Le nom est bon, les vidéos ou les images sont convaincantes, les premières analyses intéressantes, du beau travail à l’américaine, mais, dans l’article, il manque une chose essentielle, comment fait-on pour coder toute cette information? De nos jours, on ne code plus à la main (on ne parlera pas de la labellisation des images pour l’IA) mais comment faire pour caractériser, découper, classer cette foultitude d’information?
Si quelqu’un pouvait nous le dire nous serions contents!

Une journée d’Intelligence Artificielle avec BONHEUR (un compte rendu partial et partiel)

Share This:

Comment résumer, en quelques lignes, une journée entière consacrée à l’intelligence artificielle le 23 octobre 2019, à Station F ?

Impossible d’autant plus que le programme était d’une richesse incroyable variant les mathématiques, la politique, le business, les enjeux, la pratique, les secteurs et 2 stars : Stéphane Mallat (Collège de France) et le montréalais Yoshua Bengio, l’un des 2 papes de l’IA avec le français Yann Le Cun (Le premier travaille pour Google, le second pour Facebook).

Chapeau pour cette magnifique journée (1 800 personnes y ont assisté) même si nous regrettons (cela va faire vieux c..) une journée complètement en anglais alors qu’il y a très très peu de non francophones dans la salle (3 à la première présentation…). Au moins, les ¾ des présentations étaient plus que compréhensibles pour des francophones vu la prégnance de l’accent français en anglais !! On regrettera aussi quelques changements de programme impromptus sans que l’application spécifique soit à jour, et les tics de langage du type « amazing », « incredible », « guys » …

Bref, nous ressortons de tout cela avec quoi ?

L’IA n’a rien de magique (nous le savions mais cela a été dit clairement moultes fois) et de nombreux progrès, dans tous les domaines, sont encore à venir pour contourner tous les problèmes et biais posés. Par contre, le processus d’automatisation est en marche avec son cortège de solutions business (Nous n’avions jamais vu une conférence avec autant d’offres d’emploi à l’intérieur même des présentations !!)

Un cocorico. La France est devenue, ce jour-là, officiellement, le pays leader en Europe sur l’Intelligence Artificielle (avant la Grande Bretagne et Israël) avec le premier rang en matière d’investissements dans les startups dédiées au sujet. 570 millions d’euros au 1er semestre 2019 pour une année qui atterrirait à 1.2 milliards d’euros selon les estimations du cabinet Roland Berger et de France Digitale (qui reprend l’organisation de l’événement France is AI).

Nous ne relatons ici, dans cet ordre, que ce qui concerne la politique, la complexité, les biais et contournements des biais, le business, le pragmatisme, le feel good et un tout petit peu de mathématiques.

Politique

Nous avons un ambassadeur pour le numérique (et il est compétent), Henri Verdier (…, Cap Digital, Etalab,…) qui doit « couvrir » 4 thématiques dans lesquelles l’IA est forcément présente :

  • Les grands sujets de cyber sécurité (nous vous rappelons une de nos obsessions : la question n’est pas de savoir si des crashs de cyber sécurité au niveau des états vont se produire mais quand ! Merci l’Estonie 2007…).
  • La participation des états a la gouvernance d’internet
  • La diplomatie économique
  • La défense et la promotion des valeurs qui structurent nos sociétés

En fait, il est à la recherche d’une troisième voie, l’Europe, alternative au « sans contrôle publique » américain et au « tout contrôle » chinois. Pour y arriver quelles solutions ?

Les lois avec l’exemple du RGPD qui fait des petits au Japon, en Inde et est copié aux USA. Ce qui n’empêche pas la France, par exemple, d’assouplir sa position par rapport à la circulation libre de la data (free flow of data with trust), l’important étant de savoir comment s’organiser.

L’argent mais que sont les investissements de chaque état européen pris indépendamment par rapport aux milliards américains et chinois. Il rappelle que le succès n’est pas proportionnel à l’argent investi, au tera octet de data, mais au fait d’être malin.

Et des engagements forts (?) sur des principes, des valeurs et l’éthique. Il pousse à la création d’un GIEC de l’IA (pas bête) pour avoir des gardes fous, au dépassement des conneries venant d’un pays (ex : la classification trompeuse des tomates en légume aux USA, alors que c’est un fruit, car il y a 100 ans pour des raisons de taxes, Heinz a qualifié les tomates en légumes. Aujourd’hui toutes les bases de données américaines utilisées en IA des USA classent les tomates en légume au lieu de fruit !).

Le rôle de l’Etat, pour lui, est celui du jardinier qui doit faciliter la vie des startups.

Complexité

On est loin de « l’intelligence » artificielle. La voiture autonome sur la place de l’étoile ce n’est pas pour demain. Trop d’interactions, de décisions à prendre encore pour les machines existantes qui ne sont capables que d’imiter des taches simples et répétitives (c’est déjà ça !). Une machine sait faire un chose à la fois et ne peut pas tout faire ! Exemple, la machine alpha GO est bonne pour le jeu de GO mais ne sait rien faire d’autres, il faut tout créer à chaque fois.

Biais et contournement des biais

  • Où sont les femmes (une fois de plus), quand on voit Karl Tuyls (Deepmind de Google et Université de Liverpool) qui remercie dans un slide de photos son équipe d’au moins 16 chercheurs, que des hommes ! Les organisateurs de la journée ont fait attention à ce point et des femmes étaient présentes sur la scène!
  • Biais des bases de données. Les modèles d’apprentissage des machines (machine learning supervisés) sont très gourmands en données. Pour leur apprendre des choses, il faut que l’humain intervienne, par exemple, en annotant des milliers d’images de façon à expliquer à la machine ce que signifie telle ou telle image. La masse d’images annotées permettra alors à la machine d’être capable de classer correctement de nouvelles images rencontrées Il y a un très gros business autour des bases de données d’images annotées, décrites, par les humains (Inde, Madagascar,…). Mais c’est long, cela coute cher (même si ces travailleurs humains sont payés une misère) et cela ne couvre pas toutes les situations car il est dangereux pour l’humain de coder certaines situations (il doit visionner des atrocités pour coder !). Sans aller chercher ici les horreurs pornographiques ou terroristes, pensez simplement aux accidents entre un piéton et une voiture, vous ne disposez pas d’un « corpus » de cas, d’images, suffisants. Pourquoi ne pas les créer dans un monde virtuel alors (Naila Murray, Naver Labs), et avoir alors de la variété dans les situations qu’un grand nombre de situations identiques.
  • Toujours sur les bases de données, imaginez 8 photos, 6 de chats blancs et noirs dans différentes positions et 2 de chiens noirs, eux aussi dans des positions différentes. Vous injectez dans la machine une photo de chien blanc pour classification en chien ou chat, la réponse sera chat, car toutes les photos d’un animal blanc était un chat ! Cela parait bête mais c’est une réalité que vous pouvez transposer à grande échelle. Cela renvoie à un biais très classique en stat, votre échantillon n’est pas représentatif de la population qu’il est censé représenter !
  • En Autriche, une startup se faisait fort de réduire le chômage en fournissant un algorithme d’adéquation entre le profil du candidat et l’offre d’emploi à base de machine learning. Super sur le principe mais la machine a appris le chemin le plus efficace trouvé dans l’historique des données, ne proposer des offres d’emploi qu’aux hommes car ils décrochent des emplois quand les femmes et les personnes handicapées n’en recevaient plus aucune…

Business

Criteo

La publicité était présente à cette journée avec les changements de fond opérés par Criteo dans son fonctionnement (Zofia Trstanova). Comment changer son moteur de recommandation pour être plus pertinent et être capable de présenter le bon produit pour 1 milliard de requêtes / utilisateurs en 50 millisecondes… ? Joli challenge ! Bien sûr, il y a l’historique de l’utilisateur mais quel produit choisir dans les milliers, millions de produits possibles parmi les partenaires de Criteo (CDiscount ….) ? C’est simple, Il faut construire une matrice de distance entre produits et choisir le plus proche voisin du dernier produit acheté ou choisi par l’utilisateur. Cela parait facile mais la masse de produits et l’urgence de la réponse change tout. Il faut alors approximer les distances, approximer la matrice.

Le nouveau système Criteo a commencé à être déployé il y a un an et demi. Il va être amélioré par l’incorporation des annotations d’images dans le processus.

Astra Zeneca (James Weatherhall VP Data science et AI)

Le raisonnement est simple pour un laboratoire pharmaceutique. Un brevet dure 20 and, il faut 12 ans pour arriver a une solution définitive et sa mise en marché. Il ne reste donc que 8 ans pour obtenir des revenus. Comment raccourcir les 12 ans pour allonger les 8 de revenus ! La première étape est dans la connexion de toutes les données qui existent maintenant pour un laboratoire pharmaceutique (données génomiques et génétiques, données patients, données de capteurs, données d’interaction media, données des réseaux d’information médicaux, données de marché. La seconde étape est de connecter un certain nombre de ces données (ca a pris moins de 2 ans). Ensuite, et il y en a pour 5 ans encore, on applique de l’Intelligence Artificielle. Premier exemple, dans la découverte de médicament, les « manipulations » de molécule sont « facilement » automatisables. Ce qui prend aujourd’hui 24 jours pourraient baisser à 5 jours. Second exemple, l’interprétation radiologique dans des cas de tumeur. Un radiologue met 20 minutes, dans des cas complexes à analyser l’épreuve avec environ 10% d’erreurs quand un processus d’IA met quelques secondes avec moins de 1% d’erreurs.

Eramet (Jean Loup Loyer, Head of data sciences & AI)

Une société de production minière (Nouvelle Calédonie, Gabon…) et de métallurgie qui comme Astra Zeneca est maintenant à la tête de nombreuses données. Une des premières utilisations a été de faire de la maintenance préventive sur ses machines d’extraction grâce à l’analyse des données de capteurs. Mais en allant plus loin, Eramet analyse maintenant les images prises par drone des chantiers de ses concurrents ou clients pour adapter au plus juste sa production miniere et ajuster ses prix !

Société Générale (Julien Molez, Group Innovation Data & AI Leader)

L’analyse des données n’y est pas nouvelle (l’actuariat pour la gestion des risques) mais là encore, la masse de données issues des clients, de la dématérialisation des documents, permet d’aller plus loin. 3 cas d’utilisation de l’Intelligence Artificielle

  1. Analyse du langage (NLP) sur les clauses de confidentialité a signer avec des partenaires potentiels pour voir si elles sont compatibles avec la législation bancaire et la politique de la banque.
  2. Moteur de recommandation du bon article à lire au bon moment pour les clients de la branche affaires (et leurs conseillers)
  3. Analyse de tous les paiements de la banque en temps réel en France pour détecter les valeurs aberrantes (outliers) et bloquer les mauvaises transactions

Pragmatisme (Benoit Limare, Sicara)

Une fraîcheur de propos très agréable.

Pour lui il y a au moins 2 catégories de projet d’IA :

  • L’IA bidon, la start-up qui dit qu’elle fait de l’IA (notamment en reconnaissance d’image) et qui a, en fait de nombreuses petites mains à Madagascar pour classer les images…
  • L’IA raisonnable : démarrer petit pour élargir le champ par la suite. Le grand soir dans de l’IA est dangereux car il faut prouver l’intérêt de la méthode à la fois auprès des salariés proches de l’informatique mais aussi ceux qui sont touchés par le process et la direction générale. Commencer par quelque chose de raisonnable (voire même bidon) est le moyen d’amorcer la pompe, d’emporter l’adhésion de tous avant d’engager des coûts élevés dans un projet plus complet (l’IA ça coûte cher !)

Des exemples :

  • Une société de produits de beauté voulant un moteur d’IA pour recommander le bon produit de soins pour la peau a de clientes avec déjà une bonne solution avec un selfie et quelques bonnes questions.
  • Une autre où le DSI voulait réduire une tache de 15 minutes à 10 secondes. Un projet simple permettait déjà de réduire la tache de 15 minutes à 45 secondes. Le projet pour atteindre les 10 secondes aurait été extrêmement couteux.

Il rappelle que pour faire de l’IA, il faut des données (la moindre des choses !), lisibles par un humain (si l’humain ne les comprend pas, la machine ne saura rien faire), et contrôlables (autrement dit de nombreuses photos de produits différents d’un site de e-commerce prises toutes avec des angles différents débouchera sur des problèmes, il faut contrôler l’input !).

Feel good

Accenture a présenté un programme d’aide aux personnes âgées avec de l’IA conversationnelle. Le premier pilote d’« Elderly care » avait été fait en Grande Bretagne il y a 3 ans. 4 sont dans les « tuyaux », un en Belgique, 2 aux USA, 1 à Stockholm. Cela a raisonné beaucoup dans nos oreilles suite au petit dejeuner IREP que nous avions animé sur ce sujet avec Hélène Xuan et Olivier Altmann

 

Mathématiques

Un grand moment avec Stéphane Mallat du Collège du France qui, sur le moment, nous a paru biblique quand il expliquait comment les mathématiques pouvaient aider l’Intelligence Artificielle à résoudre le problème de l’interprétation des choses.

Pour lui, tout est dans la structuration des réseaux de neurones, il le démontre. Mais il a avoué avoir perdu, pour l’instant, un pari d’un diner dans un 3 étoiles (on est français où on ne l’est pas) avec Yann Le Cun quant au fait de trouver le modèle d’analyse et les théorèmes qui vont bien !

Au fait, si vous voulez comprendre vraiment « Comment les Réseaux de neurones à convolution fonctionnent » cliquez ! Ça vaut le coup car c’est la base de tout le décodage d’images entre autres. Si nous vous le disons avec nos mots, vous découpez votre image en pixels, chaque pixel a un poids en fonction de son contenu et de ses couleurs. Vous tordez votre image et refaites votre découpage en pixels. Ceci plusieurs fois, vous prenez un échantillon de pixels dans chaque découpage et à la longue vous mettez tous vos échantillons ensemble et vous serez capable de reconnaître une nouvelle image en la comparant via ses pixels à celles que vous aviez eu au préalable. C’est bien mieux expliqué dans le lien que nous vous signalons et nous venons surement d’écrire de grosses horreurs!!

 

En conclusion, l’IA était, pour nous, plus facile à comprendre que la conférence sur le gaming !

VIVE L’INTELLIGENCE ET LA SCIENCE – Conférence IPSOS (compte rendu partial et partiel)

Share This:

Quand on consulte l’excellent site myenventnetwork.com, le constat est simple : tous les jours des événements, des conférences, des ateliers (parfois plusieurs dans la même journée) gratuits pour la majorité d’entre eux, mettent en avant un aspect du métier de la communication, du digital et des media.

C’est trop mais c’est ainsi (cf notre coup de gueule il y a 2 ans et ça n’a pas changé).

Nous sortons, de plus en plus souvent avant la fin (ce qui n’est pas poli), énervés après avoir entendu des choses déjà dites, redites, rabâchées sans aucune aspérité sans point de vue affirmé. C’est pour cela que nous n’avions rien publié sur ce blog depuis des mois. Overdose de banalités !

Aussi, quand une société vous propose de faire bouger vos neurones en vous apportant de l’intelligence scientifique, vous ne pouvez dire qu’une seule chose MERCI IPSOS !

L’idée de ces conférences à la maison de la chimie, le 26 septembre 2019 au soir, était de se réinterroger sur tous les modèles théoriques qui sous-tendent tout ce que nous faisons, faut-il les renouveler ? comment les renouveler ?

Que se passe-t-il dans notre cerveau, comment raisonne-t-on ? (Olivier Houdé, Professeur émérite Paris Descartes, laboratoire LaPsyDÉ).

Les adeptes de l’homo-economicus ont toujours mis en avant la capacité de réflexion logique de l’humain, son système algorithmique qui permet d’élaborer une pensée réfléchie, dont la fiabilité est grande mais qui nécessite du temps, des efforts pour aboutir. Son défaut ? Monopoliser notre attention (amusez-vous au jeu dans cette video).  C’est le système dit 2, incarné dans les travaux de Jean Piaget. Exemples simples : lire un mot que l’on ne connait pas, changer de direction pendant un trajet habituel, calculer 19 x 46…

Daniel Kahneman (prix Nobel d’économie 2012) a démontré que le système 2 n’était pas le seul dans notre cerveau, mais qu’il en existait un autre : le système 1. C’est un système dit heuristique dont la caractéristique est d’être une pensée automatique, intuitive, avec une fiabilité correcte mais non totale et surtout une très grande rapidité. Le cerveau humain cherchant toujours à économiser sa consommation d’énergie, le système 1 est celui que nous activons le plus souvent dans nos taches quotidiennes. Des exemples ? La lecture, la conduite automobile sur un trajet habituel, des calculs simples (1+1, 2+3 …). L’apprentissage est la base de construction du système 1.

Au passage, ne pensez-pas, comme l’imaginait Piaget, qu’en passant de l’enfant à l’adulte le 1 laisse la place au 2 ! Non, suivant les sujets, les moments, l’adulte est à fond dans le système 1, aucune corrélation avec l’âge ! (Comme quoi la sagesse n’est pas l’apanage des vieux 😊)

Alors nous nous arrêtons là, avec 2 systèmes ?

Non ! Il en existe un troisième, issu des travaux d’Olivier Houdé. Ce système 3 est dit système d’inhibition qui a fonction d’arbitre, et qui nous pousse à interrompre notre processus de décision rapide (système 1) pour basculer sur la réflexion algorithmique (système 2). Le système 3 permet d’éviter les conflits entre les 2 premiers, les conflits cognitifs. Les adeptes des neurosciences le localiseront dans le cortex pré-frontal, là où se situe nos émotions et sentiments.

L’idée est alors de « cultiver » notre système 3 pour apprendre à débrancher le système 1 au profit du 2, il faut résister à notre intuition !

A quoi cela sert-il ?

Un exemple concret proposé par Brice Teinturier : les stéréotypes racistes et antisémites existent depuis longtemps (les juifs et l’argent, les juifs et le pouvoir, le lobby juif mondial…) et sont suivis par IPSOS (B Teinturier a projeté des verbatim issus des réseaux sociaux, à vomir…). La question est, pour un gouvernement par exemple, de trouver des moyens de combattre ces stéréotypes. Affirmer que ce n’est pas vrai ne sert à rien, on se heurte au mur du système 1. Comment pousser le système 3 à débrancher le 1 pour activer le 2, donc à dépasser le stéréotype pour aller à la réflexion. IPSOS a introduit dans ces questionnaires d’opinions, des mesures de nouvelles émotions relatives au doute, au regret et à la curiosité qui permettent aux pouvoirs publics de penser leurs démarchent autrement. Ces mesures sont applicables aussi au marketing.

 

Deuxième sujet : La modélisation de la mobilité (Olivier Bonin, Professeur, Géographe, chercheur à l’IFSTTAR au Laboratoire Ville Mobilité Transport)

Le sujet parait plus simple que l’exploration de notre cerveau et pourtant ! Comment reconstituer des flux de mobilité pour mesurer des individus qui bougent en permanence dans tous les coins. Les vieilles méthodes consistaient à reconstituer des flux en comptant des passages à des points fixes et en interrogeant des individus dans le cadre d’enquêtes. En demandant un point de départ, un point d’arrivée, un mode de déplacement et des choix d’itinéraires, il était possible de modéliser les flux. Les modèles permettaient alors d’interpoler dans le temps et l’espace, des données très partielles, lacunaires. Ceci avec plus ou moins de succès car on se limitait souvent à des heures de pointe (le matin), un jour de semaine, sans tenir compte des variabilités des activités et en étant focalisé plus sur les flux que sur les comportements des individus.

Aujourd’hui, des données sont disponibles en masse : la billétique, le GPS, les smartphones, des boîtiers dédiés… Ces données sont, de plus, relatives à un individu. Et même si elles sont moins riches sémantiquement que des enquêtes, elles apportent une densité temporelle et spatiale incomparables.

Vous y appliquez des modèles différents (on passe des modèles gravitaires aux modèles multi-agents), calculés au niveau de l’individu (qu’il soit réel ou synthétisé) et vous disposez de multiples programmes d’activité répartis entre les jours, les chaînages, les différents membres d’une famille, bref, de tout ce qui est nécessaire pour l’optimisation des trajets, des infrastructures, des horaires, … mais aussi pour la mesure d’audience de l’affichage (Outdoor, en usage maintenant…)

C’est le cas applicatif montré par (le brillant) Jean Noël Zeh (IPSOS) puisque l’entreprise a gagné l’appel d’offres de Mobimétrie (ex Affimétrie). Dans cette mesure sont intégrés les déplacements de 10 000 personnes (elles ont porté pendant 9 jours, un « meter », un boitier spécifique, précis sur la localisation GPS), des mesures déclaratives de déclarations de déplacements (smartphones), les points d’intérêts géographiques (magasin, services publics, réseaux de transports, …), toute l’open data INSEE, et des données payantes de telco ou d’autres acteurs.

Jean Noël Zeh a aussi montré 2 cas de « research for good », comme la mesure des flux dans un camp de réfugiés Rohingya au Bangladesh pour permettre d’établir des points d’eau ou des centres de soins.

Troisième intervention : le consommateur expliqué par ses neurones (Vinod Venkatraman , Professeur, Temple University).

Nous sommes repartis dans le cerveau humain ou plus exactement dans les méthodes de mesure d’effets qui existent, aujourd’hui, avec la technologie (Eye tracking, facial tracking, activité cérébrale, sudation…). Mais la chose intéressante est de les avoir relier à un impact marketing sur les ventes.

Aux méthodes nouvelles, Vinod Venkatraman a testé aussi les méthodes plus classiques d’interrogation (groupes ou questionnaires). C’est l’objet d’un article primé en 2015 à l’ARF aux USA (sur de petits échantillons…). La conclusion est bonne pour une société d’études. Que ce soient des mesures d’eye tracking, biométriques, EEG ou questionnement, chacune apporte un voire plusieurs éléments de réponse différents à l’élasticité publicitaire sur les ventes. Autrement dit, c’est en utilisant toutes les méthodes que l’on a une vision complète et pertinente. Pour avoir, nous-même, hybridées plusieurs méthodes, nous ne pouvons qu’être en accord avec cette conclusion !

En application, Katell le Coueffic a présenté le « creative lab » qui permet, en une journée, de mettre en oeuvre la plupart des méthodes indiquées et d’avoir des pistes d’optimisation sur du matériel publicitaire non finalisé. Nous supposons que ceci sera plutôt l’apanage des grands sociétés clientes.

En conclusion, une des phrases prononcées en introduction par Helen Zeitoun :

« science et études, le ticket gagnant pour ne pas dire n’importe quoi »

(combien d’entre nous devraient s’en inspirer !).

La fin de l’individu, voyage d’un philosophe au pays de l’Intelligence Artificielle (Gaspard Koenig) (un résumé d’un livre non lu !)

Share This:

Nous avions déjà eu le plaisir d’écouter Gaspard Koenig (GK) lors d’une conférence TEDX Paris. Le 27 septembre 2019, il présentait son nouveau livre qu’il a « résumé » pendant une heure à Station F, (grand amphi complet). Ce compte rendu est fait sur ce « résumé » pas sur la lecture du livre (acheté mais non lu !).

Le sous-titre de ce livre pourrait être

« remettre l’église au milieu du village » !

Pour lui, il faut remettre l’humain dans l’IA, c’est-à-dire en maître de ses propres données.

Comment y arrive-t-il ?

Il a rencontré près de 120 chercheurs, entrepreneurs, intellectuels, magicien… en France, UK, Israël, USA, Chine … Bel effort (sponsorisé par Le Point) pour un philosophe non spécialiste de l’Intelligence Artificielle.

Au passage, GK fait remarquer que rencontrer des interlocuteurs sur ce sujet n’est pas facile, car ils sont pressés, stressés, soumis à des enjeux financiers importants et n’ont aucune envie de rencontrer un philosophe !

Quelques tacles :

  • Ces interlocuteurs n’ont aucune culture. La référence la plus ancienne qu’il a pu entendre dans la bouche de ses interlocuteurs était … « star wars »
  • Ce sont les physiciens qui ont toujours joué les « Cassandre » sur l’IA en se basant sur des théories très très peu probables alors que les mieux placés pour en parler, les informaticiens, sont eux réalistes (Yann le Cun, Facebook, sort un livre dans 15 jours sur le sujet) et savent très bien que l’IA est très très loin de cette prise de contrôle.

Alors faut-il avoir peur ou non de l’Intelligence Artificielle (IA)?

Dans l’absolu, Non ? mais…

Dans l’expression Intelligence Artificielle, il y a intelligence et celle-ci est le produit d’une évolution biologique depuis des milliers d’années qui nous a donné le pouvoir de conceptualiser. Donc, tant que l’IA en reste aux calculs de l’ordinateur, aucun risque de dépassement ou de rapprochement de l’homme par la machine.

L’IA et le travail ?

GK n’est pas inquiet sur ce que l’on appelle « la fin du travail ». Le travail étant un sens commun, l’IA ne peut le tuer car l’IA n’a pas de sens commun. Elle peut être très précise dans 99% des cas mais dans 1% elle conduit à de grosses « conneries ». Ces erreurs ne sont pas une histoire de répétitivité des taches, mais de sens commun. Ex : un serveur dans un café ne peut pas être remplacé par une machine car toutes les décisions qu’il doit prendre sont multiples et différentes à chaque instant et dans chaque lieu.

Il est probable que des métiers disparaîtront et se créeront. Le danger de l’IA peut venir si nous changeons notre environnement pour nous adapter à celle-ci. C’est ce qui semble se produire dans les ports gérés par les chinois où toute l’infrastructure est conçue pour l’IA et non plus pour l’homme. Nous avons à faire un choix de civilisation.

(Si on raisonne par l’absurde, il paraîtrait qu’1/3 des emplois sont des « boulots à la con » (les bullshit jobs). L’IA ne saura pas faire un boulot à la con !!).

IA et le libre arbitre ?

C’est sur ce point qu’est le danger, selon Gaspard Koenig.

Ces systèmes nous connaissent mieux que nous-même, ils connaissent notre environnement, ils nous donnent des conseils, ils nous conduisent à des choix optimaux. Nous allons alors leur déléguer notre capacité de choix. Cela signifie la fin du libre arbitre. Or, celui-ci est le fondement de nos systèmes sociaux (le fondement du système juridique américain par exemple).

On assisterait alors à une transformation culturelle radicale (chaos ?) car l’IA cherchera à optimiser la « performance » d’ensemble et non pas la performance individuelle, on irait alors vers « ce qui est le moins mauvais pour soi compte tenu d’un optimum pour l’ensemble ».

2 exemples :

  • Google maps vous indique le meilleur trajet pour désengorger le trafic pas le trajet le plus court, l’itinéraire égoïste, que vous vous choisiriez probablement.
  • Les applications de rencontres font face à l’illogisme humain. Les recherches ont montré que les femmes recherchaient un compagnon de leur tranche d’âge (une droite entre âge du demandeur et âge du demandé). Les hommes, bloquent leur curseur de compagne recherchée à 24 ans quel que soit leur propre âge (une asymptote). Les algorithmes ont alors besoin de nombreuses informations pour découvrir les désirs implicites sous des choix explicites, de façon à ce que l’ensemble du réseau soit satisfait.

IA et causalité ?

L’IA fait disparaître la notion de causalité et donc l’utilité des théories ou des lois.

Le fait de disposer de toute l’information permet de se passer de la notion de causalité.

Ex : la société Didi en Chine (le Uber chinois) a plus de 90% du marché des VTC en Chine. Elle dispose donc de toutes les informations. Cette société ne fait plus de politique de prix pour attirer les chauffeurs (offre et demande) vers certaines courses lointaines mais se contente de faire du dispatching de chauffeur pour assurer l’optimum d’ensemble. L’information étant complète, la notion de marché disparait. Il va plus loin en s’interrogeant sur la pérennité de la notion de justice, des lois en tant que telles.

IA et différences culturelles ?

Le Chine a fait de l’IA une priorité absolue tant sur le fond que sur le financement.

Les chinois n’ont aucun tabou, aucune limite, et ceci leur permettra d’atteindre un bonheur collectif. La passion de la Chine pour l’IA correspond parfaitement aux valeurs confucianistes qui reviennent en force. Les chinois parlent d’ailleurs de leurs inventions avec une grande candeur. Gaspard Koenig a alors projeté quelques verbatim comme « les jeux video permettent de rendre les gens accro pour mieux les contrôler (parti communiste) ».
Aux USA et en Europe, la prospérité allait de pair avec la liberté individuelle. L’IA remet en cause cette équation. Plus vous voulez de croissance, plus vous devez sacrifier la liberté individuelle, ce qui va à l’encontre des fondements mêmes des sociétés occidentales.

La notion d’impérialisme a d’ailleurs évolué en passant d’un impérialisme territorial à un impérialisme numérique dans lequel les gouvernements sont perdus.

Conclusion : un modèle alternatif ?

Le rétablissement de l’individu dans ses prérogatives humaines est le cœur de sa réflexion.

L’humain doit prendre conscience de l’extrême important du flux sortant des data, sa propriété privée, ses données personnelles. C’est notre bien et nous devons avoir le droit de le sortir du marché ou d’y rester !

GK fait la promotion des portefeuilles électronique de données : « Chacun doit pouvoir contrôler son propre nudge » !

Pour atteindre ce but, GK a besoin de « potes » listés ci-dessous. En cliquant sur chaque nom, vous verrez dans quelle lignée philosophique ou pratique ils/elle se situent.

Daniel Dennett

Harry Kloor

Jaron Lanier

Margrethe Vestager

Nous espérons que ce « résumé », loin d’être parfait, vous donnera envie de lire ce livre ou de réfléchir sur les notions de biens communs, libre arbitre, théorie, causalité et confucianisme.

(Et c’était chouette de retrouver Jimi Fontaine a cette conférence 😊)

Hit parade 2018

Share This:

Les articles les plus lus en 2018 sur ce blog: une tribune et 4 comptes-rendus de conférence.

Merci de nous lire!

Faisons attention à l’attention (tribune commune O Goulet et I Le Roy, parue initialement dans CB News, octobre 2018)

le ROI TV défonce les GAFA et les autres media (compte rendu conférence SNPTV, janvier 2018)

De Marc DORCEL (films X) à ARTE, en passant par TF1, vous avez dit VIRTUALITÉ ? Un article de 2017, c’est Arte qui doit vous attirer 🙂

Publicité et études, même combat : tout le monde est perdu ! (compte rendu IIEX Amsterdam, mars 2018 )

Le parcours de l’individu via son mobile (Ogury), le parcours du consommateur ON et OFF (Carrefour Media) (compte rendu impartial et complet petit dej IREP, mars 2018)

Faisons attention à l’attention! Tribune commune O Goulet et I le Roy (cb news 11/10/2018)

Share This:

L’attention est devenue le buzzword actuel de la communication au niveau mondial.

Le constat est simple, nous, individus, consommateurs, prospects, clients, citoyens, sommes bombardés (et pourtant, avec le ciblage affiné promis par le digital, le « carpet bombing » devait disparaître) de messages publicitaires toujours plus nombreux, toujours plus personnalisés. Et encore, c’est sans compter les messages diffusés que nous ne voyons pas (un peu moins de 40% des publicités sur dekstop ne sont pas visibles, 23% des vidéos selon IAS 1er semestre 2018).

Il est alors légitime de se poser la question: sommes-« nous » attentifs ou non à ce qui est diffusé. C’est la base, le socle, d’un début de relation entre un message émis et sa réception dans notre cerveau. Le cerveau humain est ainsi fait que, si nous ne portons pas un minimum d’attention à un message, il ne se passera rien !

La question est donc bonne. Mais a-t-on les moyens, aujourd’hui, de mesurer cette attention ?

Des initiatives existent dans certains pays que l’on pourra toujours critiquer, glorifier, mais qui ont le mérite d’exister et d’apporter des éléments de réflexion. Aux USA et au Japon, par exemple, des annonceurs et des media utilisent les services de sociétés technologiques spécialisées dans cette mesure. Autre exemple, l’Australie, où un media, la télévision, est le fer de lance de la mesure technologique de l’attention, à grande échelle, pour mettre en avant ses qualités par rapport aux plateformes.

Des constantes dans les pays actifs sur le sujet ? Oui, les technologies de mesure passives, la masse, et, pour certains, la syndication.

Technologies passives ? Les progrès des neurosciences sont certains et y recourir est aujourd’hui la seule solution pour parvenir à approcher, correctement, le phénomène. Vous ajoutez à cela toutes les technologies embarquées dans les différents devices qui font partie de notre quotidien et vous obtenez un couple gagnant.

La masse ? Ou que ce soit, on parle d’échantillons représentatifs, la base d’une mesure fiable, et généralement, ce ne sont pas de petits échantillons !

La syndication ? Les dispositifs sont coûteux, qui a les moyens de les payer ? Un media? Des media? De gros annonceurs qui en ont assez de dépenser de l’argent à fonds perdus ?

Le marché français, depuis quelques mois, fourmillent d’initiatives sur la mesure de l’attention. Elles proviennent, souvent, des agences media (c’est très bien de revoir les agences media sur le sujet de l’expertise pour montrer qu’elles ont toujours un rôle à jouer dans le conseil donné aux annonceurs). Elles viennent aussi des régies qui initient des projets ponctuels sur leurs supports ou leurs médias.

Mais, on assiste, où l’on va assister, à la même chose que ce que l’on a pu voir pour l’engagement.

Tout le monde mesure « l’engagement », mais tout le monde a une définition différente de ce qu’est l’engagement. On ne sait donc plus ce qui est mesuré à droite ou à gauche, par qui, pourquoi, comment ! Au final, cet indicateur essentiel a perdu son sens et son universalité par trop plein de définitions diverses, variées et parfois, disons-le, loufoques.

Là, pour l’attention, il faut prendre les choses dans le bon sens, être innovant dans la mesure, y mettre des moyens, et faire travailler ensemble media, agences et annonceurs.

C’est un enjeu collectif qui doit être abordé comme tel. Il s’agit moins de défendre les intérêts particuliers de certains que de défendre l’intérêt global d’une profession à démontrer sa pertinence.

 

Nous sommes prêts pour accompagner ceci. Et vous ?

En matière d’IA, vous êtes ANI, AGI ou ASI?

Share This:

Encore des nouveaux mots!

IA = Intelligence Artificielle , ceci est passé dans le langage commun.

ANI = Artificial Narrow Intelligence. En français dans le texte, c’est l’automatisation d’une tache, d’un domaine.

AGI= Artificial General Intelligence. De l’intelligence artificielle sur un ensemble de données.

ASI = Artificial Super Intelligence. De l’IA plus forte que le cerveau humain.

ANI on y est, les chatbots en sont un exemple. ASI, il faut que les entreprises s’y préparent, quant à l’ASI…

Mais finalement, ce qui est fait aujourd’hui ce n’est pas vraiment de l’intelligence artificielle, c’est du machine learning, mais c’est déjà énorme d’apprendre à partir de données.

Ceci vient d’une intervention de Pierre de Barochez, le Directeur des Systèmes d’Information de la MACIF qui recevait le 21 novembre, les 13èmes rencontres du club des pilotes de processus: les impacts du RPA (Robotic Process Automation) sur les processus et les organisations.

La MACIF a mené un chantier d’ANI en utilisant Watson d’IBM pour analyser les mails des clients issus du site MACIF.  L’idée étant de reconnaître le contenu mais aussi de déterminer le degré d’urgence, l’émotion contenue dans ce mail pour faire le tri et planifier les réponses. Cela sort dans quelques jours.

L’expression « détection des émotions » est revenue plusieurs fois dans la conférence comme un des challenges du machine learning. On n’en sort plus des émotions…

Sinon en vrac:

  • le chatbot de SwissLife a été supprimé après 3 mois d’expérience (pour en savoir plus )
  • Chez IBM, 400 projets blockchain. Un exemple, Maersk, leader du transport des conteneurs, a fait le constat que les échanges de documents administratifs autour d’un conteneur pesaient pour 20% dans le coût du transport et  que 30 intervenants interagissent autour de ce conteneur. Ils se sont engagés dans un projet blockchain pour faciliter le tout.

Quelques citations

« Pour un humain et en particulier à la banque postale, il faut passer du savoir faire au savoir être, pour que la relation physique entre le conseiller banque postale et son client soit un moment où l’on suscite l’émotion pour créer une relation durable »

Didier Moate – DRH Banque Postale

« L’humain est, depuis des lustres, dans une posture de domination des machines. En entreprise, on va vivre un choc de rapport entre l’humain, le salarié, et l’usage de la machine. Ce choc sera aussi fort ou même plus que celui de l’arrivée de l’informatique en entreprise »

Pierre de Barochez, CIO Macif

 

  • 25% du temps passé par des collaborateurs sont sur des taches répétitives
  • 30% du temps de l’IT est passé sur des taches de bas niveaux
  • 80% des taches basées sur des règles peuvent être automatisées
  • Entre 5 et 7 trilliards de dollars d’impact financier d’ici 2025
  • En 2019, 25% de chaque métier sera changé par le RPA (les robots)

Philippe Bournonhesque – CTO IBM

 

Sinon, un bel endroit, l’amphi de MACIF dans le XVème arrondissement, mais pas de code wifi, pas de # pour tweeter et surtout

PAS UNE FEMME SUR SCÈNE…

#nonmaisalloquoi

Intelligence Artificielle, quel marché? Pour qui? Pour quoi?

Share This:

Dans un billet précédent, nous avions parlé de la taille du marché technologique autour de la RGDP (362 millions € en 2016, 1.2 milliards en 2018 et encore 1.1 mds en 2020, source étude IDC pour Microsoft, microsoftexperiences 2017). Dans la même étude, IDC a évalué l’Intelligence Artificielle (IA).

[150 individus interrogés (DSI, managers IT, Directions métiers) au sein d’entreprises avec un effectif de 500 salariés et plus du secteur industriel : Banque-Finance-Assurance, Industrie Manufacturière et de Process, Commerce (gros et détail, VPC, négoce, import- export), Santé (Cliniques, Hôpitaux, Etablissements de soins)].

Le marché des technologies liées à l’Intelligence Artificielle est d’une taille beaucoup plus petite (9 fois moins importante que RGPD en 2018),

  • 65 millions en 2016

  • 129 millions d’€ en 2018

  • 265 millions d’€ en 2020

Où en sont les entreprises ?

  • 22% n’ont pas de réflexion ou de projet
  • 42% des entreprises en sont au stade de la réflexion et de la compréhension du sujet
  • 22% vont démarrer un projet d’ici 1 an ou plus
  • 6% ont un projet pilote en cours
  • 6% l’utilisent déjà dans un seul domaine

Pour faire quoi ?

C’est là où la définition de l’IA entre en ligne de compte. L’IA dans cette étude, va du chatbot, aux algorithmes, à l’infrastructure cloud, à l’analyse des images… (cf photo ci-dessous). Cela correspond probablement au périmètre de Microsoft sur le sujet (supposition gratuite!)

IA technologies deployees ou en projet microsoft IDC

Et pour quels cas d’usage par fonction ?

Rien de révolutionnaire pour notre discipline préférée, le marketing, : « optimisation des campagnes marketing » et « personnalisation et recommandations affinées »

Et pour quels cas d’usage par secteur ?

« Recommandations financières intelligentes » pour la finance 😊.

Par contre, on retrouve de façon chiffrée, pour l’industrie, ce que Yannick Carriou nous avait évoqué lors d’un petit déjeuner IREP, 70% des entreprises visent à réduire les coûts grâce à la digitalisation  des lignes de production.

Et si on changeait la mesure d’audience TV ? L’ATTENTION PUBLICITAIRE est mesurable, TVision le fait (aux USA)

Share This:

La bataille de l’attention est engagée, encore faut-il la mesurer!

Questions

Vous êtes un annonceur ou ses agences (media, création) ?

  • Quelle est la part de votre cible qui a porté attention à votre publicité ?
  • Quelles sont les émissions qui génèrent le plus d’attention ?
  • Mon spot a-t-il de meilleures performances d’attention que les concurrents ?
  • Comment se construit l’attention des individus au fur et à mesure des diffusions du spot ?

Vous êtes un directeur d’antenne ?

  • Comment se construit l’attention des individus au fur et à mesure des diffusions des diffusions des  bandes annonce programme ?

Obtenir les réponses à ces questions est une utopie ? Non une réalité, TVision fournit les réponses.

Comment?

La mesure de l’attention ?

Vous prenez le meilleur de ce qui est appelé la « computer vision science »

  • Skeleton tracking pour détecter une silhouette, donc une présence (comme le Kinect de Microsoft)
  • Face tracking pour connaître l’orientation de votre visage
  • Facial recognition pour savoir qui regarde
  • Eye tracking pour savoir ce que vous regardez

Ces mesures PASSIVES se font via une caméra spécifique TVision sur le(s) poste(s) TV dans des foyers.

La mesure de la diffusion ?

Ce qui est diffusé est détecté par le son du programme en fingerprinting (empreinte unique du programme) et comparé à une base de diffusion existante.

Auprès de qui ?

Aujourd’hui dans 8 grandes zones (Atlanta, Boston, Chicago, Dallas, Los Angeles, New York, Philadelphie, Seattle), 7 500 individus de foyers volontaires (11 500 en fin d’année 2017). TVision est aussi installé à Tokyo

Leur intimité est préservée car aucune image ou vidéo ne sort de chaque foyer, seulement des 1 et des 0 qui sont traités chez TVision.

Les indicateurs ?

La mesure d’audience de la Télévision en France aujourd’hui (et dans de nombreux pays) est « la présence dans la pièce où le poste est allumé ». On enregistre donc une Occasion De Voir (ODV), Occasion To See en anglais (OTS) et non une vision réelle.

Pourquoi alors ne pas compléter l’information à partir de la séquence suivante:

  • Durée du programme – Available Program Time
  • Durée du programme écoutable (le poste est allumé, le son est actif sur le programme) -Program Tune Time
  • Occasion de Voir (Individu présent et détecté pendant que le poste est allumé, le son du programme actif) – Person In View Time.
  • Regard sur le programme (via l’Eye tracking) – Eyes on screen time

On peut alors calculer :

  • Un indicateur de visibilité par programme (durée de présence de l’individu dans la pièce / TV allumée et son actif sur le programme)
  • Un indicateur d’attention (durée du regard sur le programme / durée de la TV allumée avec le son actif sur le programme))

Un cas?

 

Mc Donald’s au Japon en 2016 a constaté que la corrélation entre ses GRP TV et sa notoriété était de plus en plus faible (0.17). Après analyse des résultats d’attention de TVision et des GRP classiques, Mc Donald’s a fait modifier son media planning et a vu cette corrélation progresser très significativement.

Depuis Mc Donald’s

  • utilise l’indicateur d’attention comme KPI (indicateur de performance)
  • utilise l’indicateur d’attention comme indicateur de media planning pour maximiser la notoriété
  • demande à son agence media de comparer ses performances d’attention par rapport à ses concurrents

Des clients ?

  • ESPN, The weather Channel, Turner pour les diffuseurs
  • Procter, McDonald’s, Mars, Dunkin Donuts… pour des annonceurs

Quel que soit le coté (Diffuseur ou annonceur), ces indicateurs ne remplacent pas la mesure officielle (Nielsen) aux USA qui fait consensus depuis des années, mais ils les enrichissent dans le sens d’une plus grande efficacité grace à une meilleure compréhension des phénomènes via plus de qualitatif.

Conclusion

Il est intéressant de voir qu’avec la notion de visibilité, la mesure TV se rapprocherait du Web (nous reviendrons sur ce sujet).

Soyons pragmatique, le propos n’est pas de souhaiter le remplacement de la mesure d’audience de la TV (désolée pour le titre de cet article !) pour basculer vers un système de ce type.

Mais, pourquoi ne pas traiter le problème de façon « qualitative » sur un petit échantillon, voire une zone test, de façon à fournir les moyens,

  • aux diffuseurs, de faire un marketing antenne plus pertinent
  • aux annonceurs, d’être plus efficaces dans leur communication (création et media) donc plus rentables
  • aux agences media, de faire valoir leur expertise

Alors, les sociétés d’études qui s’y met ? Mediametrie ? Kantar ? Ipsos ? GfK ? Marketing Scan ? Iligo ? …

Nous connaissons la réponse de nombre d’entre elles  : « Qui finance ? »  Et? c’est comme cela que la France est devenue un petit pays dans le domaine des études (notre avis). Beaucoup de choses se passent aux USA, en Grande Bretagne, voire en Australie (pour ceux qui n’ont pas encore lu le billet sur la mesure d’attention en Australie, cliquez ici), là où il y a encore un peu d’argent pour avoir des vraies réponses à de vraies questions et faire gagner beaucoup d’argent aux annonceurs.

Merci à TVision pour les informations et les images fournies.

Pour ceux qui s’intéressent à l’attention,  voir ici  et ici.