Étiquette : image_processing

Du génome au screenome pour détailler (vraiment!) le temps passé sur écran: la fin d’une mesure globale?

Share This:

Vous connaissiez le génome: l’ensemble du matériel  génétique d’une espèce codé dans son ADN nous dit Wikipedia. Le screenome c’est l’enregistrement de tout ce que nous faisons sur des écrans.

Un article dans Nature « Time for the Human Screenome Project » de chercheurs de Standford nous dit, en sous titre, qu’

« il faut vraiment comprendre comment les individus utilisent les médias digitaux.

Les études doivent aller plus loin que la mesure de la durée et capturer tout ce que nous faisons sur nos écrans »

Il y a là de quoi attirer notre œil et pousser plus avant la lecture de ce papier.
En fait, les chercheurs installent un logiciel sur nos appareils qui prend, toutes les 5 secondes, une empreinte de ce qui passe à l’écran lorsque celui-ci est allumé. On parle d’écran digital au premier rang duquel le mobile. L’empreinte est cryptée et transmise aux chercheurs.
Cela ressemble furieusement à ce qui existe depuis de nombreuses années dans différents instituts (Mediamétrie, IPSOS, Iligo et d’autres) pour comptabiliser, entre autres, l’audience (en France, les radios ne veulent toujours pas d’un système automatique de mesure par crainte, fondée, de voir considérablement baisser leurs audiences).

Une grosse différence, il ne s’agit pas, a priori, d’une empreinte posée dans le son ou l’image, mais de la capture de l’image elle même.

Le résultat est assez bluffant comme vous pouvez le voir dans la vidéo ci-dessous montrant (en accéléré 35 secondes) 15 minutes d’actions sur mobile capturées sur 2 heures.
Le but annoncé est de mieux comprendre notre vie digitale pour voir s’il y a des addictions, si les enfants sont influencés d’une façon ou d’une autre et…les adultes aussi.
Les chercheurs signalent que le déclaratif n’est pas fiable (nous le savons mais entre rien et rien…) et qu’il est de plus en plus difficile d’obtenir, même à des fins de recherche, des données de la part des GAFAM (trop de scandales!) donc le screenome serait le moyen d’être libre pour continuer à chercher et à nous comprendre (indépendance).
Les chercheurs sont à la tête de 30 millions de captures d’écran prises auprès de 600 individus dans ce qui est appelé « Le Stanford Human Screenome Project« . Ce projet serait à la fois une plateforme technologique, un process d’analyse et un stockage de données.
En première analyse, ils nous montrent comment des comportements peuvent être différents entre 2 adolescents de 14 ans vivant en Californie du Nord qui se déclarent comme de gros utilisateurs de smartphone (plus de 2h par jour, tous les jours avec comme première et dernière activité de leur journée le fait de regarder son smartphone).
Le participant A (image de gauche) passe en fait 3.67 heures/jour sur son appareil en 186 sessions d’1.19 minute en moyenne. Il crée un contenu pendant 2.6% de son temps de connexion, à destination des applications sociales et, sur les 3 semaines de tracking, a utilisé 26 applications dont 53% étaient des applications sociales (Instagram et Snapchat principalement). Cette personne est supposée avec quelques problèmes d’attention ou alors d’être un as du maniement du téléphone.
Le participant B (image de droite) passe lui 4.68 heures/jour sur son mobile en 26 sessions d’une durée de 2.54 minutes. 7% de son temps est consacré à produire du contenu. Il utilise 30 applications mais une est majoritaire YouTube. Une spécificité il aime la nourriture avec 37q% de contenu Food divers et variés sur une journée
Le nom est bon, les vidéos ou les images sont convaincantes, les premières analyses intéressantes, du beau travail à l’américaine, mais, dans l’article, il manque une chose essentielle, comment fait-on pour coder toute cette information? De nos jours, on ne code plus à la main (on ne parlera pas de la labellisation des images pour l’IA) mais comment faire pour caractériser, découper, classer cette foultitude d’information?
Si quelqu’un pouvait nous le dire nous serions contents!

Une journée d’Intelligence Artificielle avec BONHEUR (un compte rendu partial et partiel)

Share This:

Comment résumer, en quelques lignes, une journée entière consacrée à l’intelligence artificielle le 23 octobre 2019, à Station F ?

Impossible d’autant plus que le programme était d’une richesse incroyable variant les mathématiques, la politique, le business, les enjeux, la pratique, les secteurs et 2 stars : Stéphane Mallat (Collège de France) et le montréalais Yoshua Bengio, l’un des 2 papes de l’IA avec le français Yann Le Cun (Le premier travaille pour Google, le second pour Facebook).

Chapeau pour cette magnifique journée (1 800 personnes y ont assisté) même si nous regrettons (cela va faire vieux c..) une journée complètement en anglais alors qu’il y a très très peu de non francophones dans la salle (3 à la première présentation…). Au moins, les ¾ des présentations étaient plus que compréhensibles pour des francophones vu la prégnance de l’accent français en anglais !! On regrettera aussi quelques changements de programme impromptus sans que l’application spécifique soit à jour, et les tics de langage du type « amazing », « incredible », « guys » …

Bref, nous ressortons de tout cela avec quoi ?

L’IA n’a rien de magique (nous le savions mais cela a été dit clairement moultes fois) et de nombreux progrès, dans tous les domaines, sont encore à venir pour contourner tous les problèmes et biais posés. Par contre, le processus d’automatisation est en marche avec son cortège de solutions business (Nous n’avions jamais vu une conférence avec autant d’offres d’emploi à l’intérieur même des présentations !!)

Un cocorico. La France est devenue, ce jour-là, officiellement, le pays leader en Europe sur l’Intelligence Artificielle (avant la Grande Bretagne et Israël) avec le premier rang en matière d’investissements dans les startups dédiées au sujet. 570 millions d’euros au 1er semestre 2019 pour une année qui atterrirait à 1.2 milliards d’euros selon les estimations du cabinet Roland Berger et de France Digitale (qui reprend l’organisation de l’événement France is AI).

Nous ne relatons ici, dans cet ordre, que ce qui concerne la politique, la complexité, les biais et contournements des biais, le business, le pragmatisme, le feel good et un tout petit peu de mathématiques.

Politique

Nous avons un ambassadeur pour le numérique (et il est compétent), Henri Verdier (…, Cap Digital, Etalab,…) qui doit « couvrir » 4 thématiques dans lesquelles l’IA est forcément présente :

  • Les grands sujets de cyber sécurité (nous vous rappelons une de nos obsessions : la question n’est pas de savoir si des crashs de cyber sécurité au niveau des états vont se produire mais quand ! Merci l’Estonie 2007…).
  • La participation des états a la gouvernance d’internet
  • La diplomatie économique
  • La défense et la promotion des valeurs qui structurent nos sociétés

En fait, il est à la recherche d’une troisième voie, l’Europe, alternative au « sans contrôle publique » américain et au « tout contrôle » chinois. Pour y arriver quelles solutions ?

Les lois avec l’exemple du RGPD qui fait des petits au Japon, en Inde et est copié aux USA. Ce qui n’empêche pas la France, par exemple, d’assouplir sa position par rapport à la circulation libre de la data (free flow of data with trust), l’important étant de savoir comment s’organiser.

L’argent mais que sont les investissements de chaque état européen pris indépendamment par rapport aux milliards américains et chinois. Il rappelle que le succès n’est pas proportionnel à l’argent investi, au tera octet de data, mais au fait d’être malin.

Et des engagements forts (?) sur des principes, des valeurs et l’éthique. Il pousse à la création d’un GIEC de l’IA (pas bête) pour avoir des gardes fous, au dépassement des conneries venant d’un pays (ex : la classification trompeuse des tomates en légume aux USA, alors que c’est un fruit, car il y a 100 ans pour des raisons de taxes, Heinz a qualifié les tomates en légumes. Aujourd’hui toutes les bases de données américaines utilisées en IA des USA classent les tomates en légume au lieu de fruit !).

Le rôle de l’Etat, pour lui, est celui du jardinier qui doit faciliter la vie des startups.

Complexité

On est loin de « l’intelligence » artificielle. La voiture autonome sur la place de l’étoile ce n’est pas pour demain. Trop d’interactions, de décisions à prendre encore pour les machines existantes qui ne sont capables que d’imiter des taches simples et répétitives (c’est déjà ça !). Une machine sait faire un chose à la fois et ne peut pas tout faire ! Exemple, la machine alpha GO est bonne pour le jeu de GO mais ne sait rien faire d’autres, il faut tout créer à chaque fois.

Biais et contournement des biais

  • Où sont les femmes (une fois de plus), quand on voit Karl Tuyls (Deepmind de Google et Université de Liverpool) qui remercie dans un slide de photos son équipe d’au moins 16 chercheurs, que des hommes ! Les organisateurs de la journée ont fait attention à ce point et des femmes étaient présentes sur la scène!
  • Biais des bases de données. Les modèles d’apprentissage des machines (machine learning supervisés) sont très gourmands en données. Pour leur apprendre des choses, il faut que l’humain intervienne, par exemple, en annotant des milliers d’images de façon à expliquer à la machine ce que signifie telle ou telle image. La masse d’images annotées permettra alors à la machine d’être capable de classer correctement de nouvelles images rencontrées Il y a un très gros business autour des bases de données d’images annotées, décrites, par les humains (Inde, Madagascar,…). Mais c’est long, cela coute cher (même si ces travailleurs humains sont payés une misère) et cela ne couvre pas toutes les situations car il est dangereux pour l’humain de coder certaines situations (il doit visionner des atrocités pour coder !). Sans aller chercher ici les horreurs pornographiques ou terroristes, pensez simplement aux accidents entre un piéton et une voiture, vous ne disposez pas d’un « corpus » de cas, d’images, suffisants. Pourquoi ne pas les créer dans un monde virtuel alors (Naila Murray, Naver Labs), et avoir alors de la variété dans les situations qu’un grand nombre de situations identiques.
  • Toujours sur les bases de données, imaginez 8 photos, 6 de chats blancs et noirs dans différentes positions et 2 de chiens noirs, eux aussi dans des positions différentes. Vous injectez dans la machine une photo de chien blanc pour classification en chien ou chat, la réponse sera chat, car toutes les photos d’un animal blanc était un chat ! Cela parait bête mais c’est une réalité que vous pouvez transposer à grande échelle. Cela renvoie à un biais très classique en stat, votre échantillon n’est pas représentatif de la population qu’il est censé représenter !
  • En Autriche, une startup se faisait fort de réduire le chômage en fournissant un algorithme d’adéquation entre le profil du candidat et l’offre d’emploi à base de machine learning. Super sur le principe mais la machine a appris le chemin le plus efficace trouvé dans l’historique des données, ne proposer des offres d’emploi qu’aux hommes car ils décrochent des emplois quand les femmes et les personnes handicapées n’en recevaient plus aucune…

Business

Criteo

La publicité était présente à cette journée avec les changements de fond opérés par Criteo dans son fonctionnement (Zofia Trstanova). Comment changer son moteur de recommandation pour être plus pertinent et être capable de présenter le bon produit pour 1 milliard de requêtes / utilisateurs en 50 millisecondes… ? Joli challenge ! Bien sûr, il y a l’historique de l’utilisateur mais quel produit choisir dans les milliers, millions de produits possibles parmi les partenaires de Criteo (CDiscount ….) ? C’est simple, Il faut construire une matrice de distance entre produits et choisir le plus proche voisin du dernier produit acheté ou choisi par l’utilisateur. Cela parait facile mais la masse de produits et l’urgence de la réponse change tout. Il faut alors approximer les distances, approximer la matrice.

Le nouveau système Criteo a commencé à être déployé il y a un an et demi. Il va être amélioré par l’incorporation des annotations d’images dans le processus.

Astra Zeneca (James Weatherhall VP Data science et AI)

Le raisonnement est simple pour un laboratoire pharmaceutique. Un brevet dure 20 and, il faut 12 ans pour arriver a une solution définitive et sa mise en marché. Il ne reste donc que 8 ans pour obtenir des revenus. Comment raccourcir les 12 ans pour allonger les 8 de revenus ! La première étape est dans la connexion de toutes les données qui existent maintenant pour un laboratoire pharmaceutique (données génomiques et génétiques, données patients, données de capteurs, données d’interaction media, données des réseaux d’information médicaux, données de marché. La seconde étape est de connecter un certain nombre de ces données (ca a pris moins de 2 ans). Ensuite, et il y en a pour 5 ans encore, on applique de l’Intelligence Artificielle. Premier exemple, dans la découverte de médicament, les « manipulations » de molécule sont « facilement » automatisables. Ce qui prend aujourd’hui 24 jours pourraient baisser à 5 jours. Second exemple, l’interprétation radiologique dans des cas de tumeur. Un radiologue met 20 minutes, dans des cas complexes à analyser l’épreuve avec environ 10% d’erreurs quand un processus d’IA met quelques secondes avec moins de 1% d’erreurs.

Eramet (Jean Loup Loyer, Head of data sciences & AI)

Une société de production minière (Nouvelle Calédonie, Gabon…) et de métallurgie qui comme Astra Zeneca est maintenant à la tête de nombreuses données. Une des premières utilisations a été de faire de la maintenance préventive sur ses machines d’extraction grâce à l’analyse des données de capteurs. Mais en allant plus loin, Eramet analyse maintenant les images prises par drone des chantiers de ses concurrents ou clients pour adapter au plus juste sa production miniere et ajuster ses prix !

Société Générale (Julien Molez, Group Innovation Data & AI Leader)

L’analyse des données n’y est pas nouvelle (l’actuariat pour la gestion des risques) mais là encore, la masse de données issues des clients, de la dématérialisation des documents, permet d’aller plus loin. 3 cas d’utilisation de l’Intelligence Artificielle

  1. Analyse du langage (NLP) sur les clauses de confidentialité a signer avec des partenaires potentiels pour voir si elles sont compatibles avec la législation bancaire et la politique de la banque.
  2. Moteur de recommandation du bon article à lire au bon moment pour les clients de la branche affaires (et leurs conseillers)
  3. Analyse de tous les paiements de la banque en temps réel en France pour détecter les valeurs aberrantes (outliers) et bloquer les mauvaises transactions

Pragmatisme (Benoit Limare, Sicara)

Une fraîcheur de propos très agréable.

Pour lui il y a au moins 2 catégories de projet d’IA :

  • L’IA bidon, la start-up qui dit qu’elle fait de l’IA (notamment en reconnaissance d’image) et qui a, en fait de nombreuses petites mains à Madagascar pour classer les images…
  • L’IA raisonnable : démarrer petit pour élargir le champ par la suite. Le grand soir dans de l’IA est dangereux car il faut prouver l’intérêt de la méthode à la fois auprès des salariés proches de l’informatique mais aussi ceux qui sont touchés par le process et la direction générale. Commencer par quelque chose de raisonnable (voire même bidon) est le moyen d’amorcer la pompe, d’emporter l’adhésion de tous avant d’engager des coûts élevés dans un projet plus complet (l’IA ça coûte cher !)

Des exemples :

  • Une société de produits de beauté voulant un moteur d’IA pour recommander le bon produit de soins pour la peau a de clientes avec déjà une bonne solution avec un selfie et quelques bonnes questions.
  • Une autre où le DSI voulait réduire une tache de 15 minutes à 10 secondes. Un projet simple permettait déjà de réduire la tache de 15 minutes à 45 secondes. Le projet pour atteindre les 10 secondes aurait été extrêmement couteux.

Il rappelle que pour faire de l’IA, il faut des données (la moindre des choses !), lisibles par un humain (si l’humain ne les comprend pas, la machine ne saura rien faire), et contrôlables (autrement dit de nombreuses photos de produits différents d’un site de e-commerce prises toutes avec des angles différents débouchera sur des problèmes, il faut contrôler l’input !).

Feel good

Accenture a présenté un programme d’aide aux personnes âgées avec de l’IA conversationnelle. Le premier pilote d’« Elderly care » avait été fait en Grande Bretagne il y a 3 ans. 4 sont dans les « tuyaux », un en Belgique, 2 aux USA, 1 à Stockholm. Cela a raisonné beaucoup dans nos oreilles suite au petit dejeuner IREP que nous avions animé sur ce sujet avec Hélène Xuan et Olivier Altmann

 

Mathématiques

Un grand moment avec Stéphane Mallat du Collège du France qui, sur le moment, nous a paru biblique quand il expliquait comment les mathématiques pouvaient aider l’Intelligence Artificielle à résoudre le problème de l’interprétation des choses.

Pour lui, tout est dans la structuration des réseaux de neurones, il le démontre. Mais il a avoué avoir perdu, pour l’instant, un pari d’un diner dans un 3 étoiles (on est français où on ne l’est pas) avec Yann Le Cun quant au fait de trouver le modèle d’analyse et les théorèmes qui vont bien !

Au fait, si vous voulez comprendre vraiment « Comment les Réseaux de neurones à convolution fonctionnent » cliquez ! Ça vaut le coup car c’est la base de tout le décodage d’images entre autres. Si nous vous le disons avec nos mots, vous découpez votre image en pixels, chaque pixel a un poids en fonction de son contenu et de ses couleurs. Vous tordez votre image et refaites votre découpage en pixels. Ceci plusieurs fois, vous prenez un échantillon de pixels dans chaque découpage et à la longue vous mettez tous vos échantillons ensemble et vous serez capable de reconnaître une nouvelle image en la comparant via ses pixels à celles que vous aviez eu au préalable. C’est bien mieux expliqué dans le lien que nous vous signalons et nous venons surement d’écrire de grosses horreurs!!

 

En conclusion, l’IA était, pour nous, plus facile à comprendre que la conférence sur le gaming !

VIVE L’INTELLIGENCE ET LA SCIENCE – Conférence IPSOS (compte rendu partial et partiel)

Share This:

Quand on consulte l’excellent site myenventnetwork.com, le constat est simple : tous les jours des événements, des conférences, des ateliers (parfois plusieurs dans la même journée) gratuits pour la majorité d’entre eux, mettent en avant un aspect du métier de la communication, du digital et des media.

C’est trop mais c’est ainsi (cf notre coup de gueule il y a 2 ans et ça n’a pas changé).

Nous sortons, de plus en plus souvent avant la fin (ce qui n’est pas poli), énervés après avoir entendu des choses déjà dites, redites, rabâchées sans aucune aspérité sans point de vue affirmé. C’est pour cela que nous n’avions rien publié sur ce blog depuis des mois. Overdose de banalités !

Aussi, quand une société vous propose de faire bouger vos neurones en vous apportant de l’intelligence scientifique, vous ne pouvez dire qu’une seule chose MERCI IPSOS !

L’idée de ces conférences à la maison de la chimie, le 26 septembre 2019 au soir, était de se réinterroger sur tous les modèles théoriques qui sous-tendent tout ce que nous faisons, faut-il les renouveler ? comment les renouveler ?

Que se passe-t-il dans notre cerveau, comment raisonne-t-on ? (Olivier Houdé, Professeur émérite Paris Descartes, laboratoire LaPsyDÉ).

Les adeptes de l’homo-economicus ont toujours mis en avant la capacité de réflexion logique de l’humain, son système algorithmique qui permet d’élaborer une pensée réfléchie, dont la fiabilité est grande mais qui nécessite du temps, des efforts pour aboutir. Son défaut ? Monopoliser notre attention (amusez-vous au jeu dans cette video).  C’est le système dit 2, incarné dans les travaux de Jean Piaget. Exemples simples : lire un mot que l’on ne connait pas, changer de direction pendant un trajet habituel, calculer 19 x 46…

Daniel Kahneman (prix Nobel d’économie 2012) a démontré que le système 2 n’était pas le seul dans notre cerveau, mais qu’il en existait un autre : le système 1. C’est un système dit heuristique dont la caractéristique est d’être une pensée automatique, intuitive, avec une fiabilité correcte mais non totale et surtout une très grande rapidité. Le cerveau humain cherchant toujours à économiser sa consommation d’énergie, le système 1 est celui que nous activons le plus souvent dans nos taches quotidiennes. Des exemples ? La lecture, la conduite automobile sur un trajet habituel, des calculs simples (1+1, 2+3 …). L’apprentissage est la base de construction du système 1.

Au passage, ne pensez-pas, comme l’imaginait Piaget, qu’en passant de l’enfant à l’adulte le 1 laisse la place au 2 ! Non, suivant les sujets, les moments, l’adulte est à fond dans le système 1, aucune corrélation avec l’âge ! (Comme quoi la sagesse n’est pas l’apanage des vieux 😊)

Alors nous nous arrêtons là, avec 2 systèmes ?

Non ! Il en existe un troisième, issu des travaux d’Olivier Houdé. Ce système 3 est dit système d’inhibition qui a fonction d’arbitre, et qui nous pousse à interrompre notre processus de décision rapide (système 1) pour basculer sur la réflexion algorithmique (système 2). Le système 3 permet d’éviter les conflits entre les 2 premiers, les conflits cognitifs. Les adeptes des neurosciences le localiseront dans le cortex pré-frontal, là où se situe nos émotions et sentiments.

L’idée est alors de « cultiver » notre système 3 pour apprendre à débrancher le système 1 au profit du 2, il faut résister à notre intuition !

A quoi cela sert-il ?

Un exemple concret proposé par Brice Teinturier : les stéréotypes racistes et antisémites existent depuis longtemps (les juifs et l’argent, les juifs et le pouvoir, le lobby juif mondial…) et sont suivis par IPSOS (B Teinturier a projeté des verbatim issus des réseaux sociaux, à vomir…). La question est, pour un gouvernement par exemple, de trouver des moyens de combattre ces stéréotypes. Affirmer que ce n’est pas vrai ne sert à rien, on se heurte au mur du système 1. Comment pousser le système 3 à débrancher le 1 pour activer le 2, donc à dépasser le stéréotype pour aller à la réflexion. IPSOS a introduit dans ces questionnaires d’opinions, des mesures de nouvelles émotions relatives au doute, au regret et à la curiosité qui permettent aux pouvoirs publics de penser leurs démarchent autrement. Ces mesures sont applicables aussi au marketing.

 

Deuxième sujet : La modélisation de la mobilité (Olivier Bonin, Professeur, Géographe, chercheur à l’IFSTTAR au Laboratoire Ville Mobilité Transport)

Le sujet parait plus simple que l’exploration de notre cerveau et pourtant ! Comment reconstituer des flux de mobilité pour mesurer des individus qui bougent en permanence dans tous les coins. Les vieilles méthodes consistaient à reconstituer des flux en comptant des passages à des points fixes et en interrogeant des individus dans le cadre d’enquêtes. En demandant un point de départ, un point d’arrivée, un mode de déplacement et des choix d’itinéraires, il était possible de modéliser les flux. Les modèles permettaient alors d’interpoler dans le temps et l’espace, des données très partielles, lacunaires. Ceci avec plus ou moins de succès car on se limitait souvent à des heures de pointe (le matin), un jour de semaine, sans tenir compte des variabilités des activités et en étant focalisé plus sur les flux que sur les comportements des individus.

Aujourd’hui, des données sont disponibles en masse : la billétique, le GPS, les smartphones, des boîtiers dédiés… Ces données sont, de plus, relatives à un individu. Et même si elles sont moins riches sémantiquement que des enquêtes, elles apportent une densité temporelle et spatiale incomparables.

Vous y appliquez des modèles différents (on passe des modèles gravitaires aux modèles multi-agents), calculés au niveau de l’individu (qu’il soit réel ou synthétisé) et vous disposez de multiples programmes d’activité répartis entre les jours, les chaînages, les différents membres d’une famille, bref, de tout ce qui est nécessaire pour l’optimisation des trajets, des infrastructures, des horaires, … mais aussi pour la mesure d’audience de l’affichage (Outdoor, en usage maintenant…)

C’est le cas applicatif montré par (le brillant) Jean Noël Zeh (IPSOS) puisque l’entreprise a gagné l’appel d’offres de Mobimétrie (ex Affimétrie). Dans cette mesure sont intégrés les déplacements de 10 000 personnes (elles ont porté pendant 9 jours, un « meter », un boitier spécifique, précis sur la localisation GPS), des mesures déclaratives de déclarations de déplacements (smartphones), les points d’intérêts géographiques (magasin, services publics, réseaux de transports, …), toute l’open data INSEE, et des données payantes de telco ou d’autres acteurs.

Jean Noël Zeh a aussi montré 2 cas de « research for good », comme la mesure des flux dans un camp de réfugiés Rohingya au Bangladesh pour permettre d’établir des points d’eau ou des centres de soins.

Troisième intervention : le consommateur expliqué par ses neurones (Vinod Venkatraman , Professeur, Temple University).

Nous sommes repartis dans le cerveau humain ou plus exactement dans les méthodes de mesure d’effets qui existent, aujourd’hui, avec la technologie (Eye tracking, facial tracking, activité cérébrale, sudation…). Mais la chose intéressante est de les avoir relier à un impact marketing sur les ventes.

Aux méthodes nouvelles, Vinod Venkatraman a testé aussi les méthodes plus classiques d’interrogation (groupes ou questionnaires). C’est l’objet d’un article primé en 2015 à l’ARF aux USA (sur de petits échantillons…). La conclusion est bonne pour une société d’études. Que ce soient des mesures d’eye tracking, biométriques, EEG ou questionnement, chacune apporte un voire plusieurs éléments de réponse différents à l’élasticité publicitaire sur les ventes. Autrement dit, c’est en utilisant toutes les méthodes que l’on a une vision complète et pertinente. Pour avoir, nous-même, hybridées plusieurs méthodes, nous ne pouvons qu’être en accord avec cette conclusion !

En application, Katell le Coueffic a présenté le « creative lab » qui permet, en une journée, de mettre en oeuvre la plupart des méthodes indiquées et d’avoir des pistes d’optimisation sur du matériel publicitaire non finalisé. Nous supposons que ceci sera plutôt l’apanage des grands sociétés clientes.

En conclusion, une des phrases prononcées en introduction par Helen Zeitoun :

« science et études, le ticket gagnant pour ne pas dire n’importe quoi »

(combien d’entre nous devraient s’en inspirer !).

La fin de l’individu, voyage d’un philosophe au pays de l’Intelligence Artificielle (Gaspard Koenig) (un résumé d’un livre non lu !)

Share This:

Nous avions déjà eu le plaisir d’écouter Gaspard Koenig (GK) lors d’une conférence TEDX Paris. Le 27 septembre 2019, il présentait son nouveau livre qu’il a « résumé » pendant une heure à Station F, (grand amphi complet). Ce compte rendu est fait sur ce « résumé » pas sur la lecture du livre (acheté mais non lu !).

Le sous-titre de ce livre pourrait être

« remettre l’église au milieu du village » !

Pour lui, il faut remettre l’humain dans l’IA, c’est-à-dire en maître de ses propres données.

Comment y arrive-t-il ?

Il a rencontré près de 120 chercheurs, entrepreneurs, intellectuels, magicien… en France, UK, Israël, USA, Chine … Bel effort (sponsorisé par Le Point) pour un philosophe non spécialiste de l’Intelligence Artificielle.

Au passage, GK fait remarquer que rencontrer des interlocuteurs sur ce sujet n’est pas facile, car ils sont pressés, stressés, soumis à des enjeux financiers importants et n’ont aucune envie de rencontrer un philosophe !

Quelques tacles :

  • Ces interlocuteurs n’ont aucune culture. La référence la plus ancienne qu’il a pu entendre dans la bouche de ses interlocuteurs était … « star wars »
  • Ce sont les physiciens qui ont toujours joué les « Cassandre » sur l’IA en se basant sur des théories très très peu probables alors que les mieux placés pour en parler, les informaticiens, sont eux réalistes (Yann le Cun, Facebook, sort un livre dans 15 jours sur le sujet) et savent très bien que l’IA est très très loin de cette prise de contrôle.

Alors faut-il avoir peur ou non de l’Intelligence Artificielle (IA)?

Dans l’absolu, Non ? mais…

Dans l’expression Intelligence Artificielle, il y a intelligence et celle-ci est le produit d’une évolution biologique depuis des milliers d’années qui nous a donné le pouvoir de conceptualiser. Donc, tant que l’IA en reste aux calculs de l’ordinateur, aucun risque de dépassement ou de rapprochement de l’homme par la machine.

L’IA et le travail ?

GK n’est pas inquiet sur ce que l’on appelle « la fin du travail ». Le travail étant un sens commun, l’IA ne peut le tuer car l’IA n’a pas de sens commun. Elle peut être très précise dans 99% des cas mais dans 1% elle conduit à de grosses « conneries ». Ces erreurs ne sont pas une histoire de répétitivité des taches, mais de sens commun. Ex : un serveur dans un café ne peut pas être remplacé par une machine car toutes les décisions qu’il doit prendre sont multiples et différentes à chaque instant et dans chaque lieu.

Il est probable que des métiers disparaîtront et se créeront. Le danger de l’IA peut venir si nous changeons notre environnement pour nous adapter à celle-ci. C’est ce qui semble se produire dans les ports gérés par les chinois où toute l’infrastructure est conçue pour l’IA et non plus pour l’homme. Nous avons à faire un choix de civilisation.

(Si on raisonne par l’absurde, il paraîtrait qu’1/3 des emplois sont des « boulots à la con » (les bullshit jobs). L’IA ne saura pas faire un boulot à la con !!).

IA et le libre arbitre ?

C’est sur ce point qu’est le danger, selon Gaspard Koenig.

Ces systèmes nous connaissent mieux que nous-même, ils connaissent notre environnement, ils nous donnent des conseils, ils nous conduisent à des choix optimaux. Nous allons alors leur déléguer notre capacité de choix. Cela signifie la fin du libre arbitre. Or, celui-ci est le fondement de nos systèmes sociaux (le fondement du système juridique américain par exemple).

On assisterait alors à une transformation culturelle radicale (chaos ?) car l’IA cherchera à optimiser la « performance » d’ensemble et non pas la performance individuelle, on irait alors vers « ce qui est le moins mauvais pour soi compte tenu d’un optimum pour l’ensemble ».

2 exemples :

  • Google maps vous indique le meilleur trajet pour désengorger le trafic pas le trajet le plus court, l’itinéraire égoïste, que vous vous choisiriez probablement.
  • Les applications de rencontres font face à l’illogisme humain. Les recherches ont montré que les femmes recherchaient un compagnon de leur tranche d’âge (une droite entre âge du demandeur et âge du demandé). Les hommes, bloquent leur curseur de compagne recherchée à 24 ans quel que soit leur propre âge (une asymptote). Les algorithmes ont alors besoin de nombreuses informations pour découvrir les désirs implicites sous des choix explicites, de façon à ce que l’ensemble du réseau soit satisfait.

IA et causalité ?

L’IA fait disparaître la notion de causalité et donc l’utilité des théories ou des lois.

Le fait de disposer de toute l’information permet de se passer de la notion de causalité.

Ex : la société Didi en Chine (le Uber chinois) a plus de 90% du marché des VTC en Chine. Elle dispose donc de toutes les informations. Cette société ne fait plus de politique de prix pour attirer les chauffeurs (offre et demande) vers certaines courses lointaines mais se contente de faire du dispatching de chauffeur pour assurer l’optimum d’ensemble. L’information étant complète, la notion de marché disparait. Il va plus loin en s’interrogeant sur la pérennité de la notion de justice, des lois en tant que telles.

IA et différences culturelles ?

Le Chine a fait de l’IA une priorité absolue tant sur le fond que sur le financement.

Les chinois n’ont aucun tabou, aucune limite, et ceci leur permettra d’atteindre un bonheur collectif. La passion de la Chine pour l’IA correspond parfaitement aux valeurs confucianistes qui reviennent en force. Les chinois parlent d’ailleurs de leurs inventions avec une grande candeur. Gaspard Koenig a alors projeté quelques verbatim comme « les jeux video permettent de rendre les gens accro pour mieux les contrôler (parti communiste) ».
Aux USA et en Europe, la prospérité allait de pair avec la liberté individuelle. L’IA remet en cause cette équation. Plus vous voulez de croissance, plus vous devez sacrifier la liberté individuelle, ce qui va à l’encontre des fondements mêmes des sociétés occidentales.

La notion d’impérialisme a d’ailleurs évolué en passant d’un impérialisme territorial à un impérialisme numérique dans lequel les gouvernements sont perdus.

Conclusion : un modèle alternatif ?

Le rétablissement de l’individu dans ses prérogatives humaines est le cœur de sa réflexion.

L’humain doit prendre conscience de l’extrême important du flux sortant des data, sa propriété privée, ses données personnelles. C’est notre bien et nous devons avoir le droit de le sortir du marché ou d’y rester !

GK fait la promotion des portefeuilles électronique de données : « Chacun doit pouvoir contrôler son propre nudge » !

Pour atteindre ce but, GK a besoin de « potes » listés ci-dessous. En cliquant sur chaque nom, vous verrez dans quelle lignée philosophique ou pratique ils/elle se situent.

Daniel Dennett

Harry Kloor

Jaron Lanier

Margrethe Vestager

Nous espérons que ce « résumé », loin d’être parfait, vous donnera envie de lire ce livre ou de réfléchir sur les notions de biens communs, libre arbitre, théorie, causalité et confucianisme.

(Et c’était chouette de retrouver Jimi Fontaine a cette conférence 😊)

Faisons attention à l’attention! Tribune commune O Goulet et I le Roy (cb news 11/10/2018)

Share This:

L’attention est devenue le buzzword actuel de la communication au niveau mondial.

Le constat est simple, nous, individus, consommateurs, prospects, clients, citoyens, sommes bombardés (et pourtant, avec le ciblage affiné promis par le digital, le « carpet bombing » devait disparaître) de messages publicitaires toujours plus nombreux, toujours plus personnalisés. Et encore, c’est sans compter les messages diffusés que nous ne voyons pas (un peu moins de 40% des publicités sur dekstop ne sont pas visibles, 23% des vidéos selon IAS 1er semestre 2018).

Il est alors légitime de se poser la question: sommes-« nous » attentifs ou non à ce qui est diffusé. C’est la base, le socle, d’un début de relation entre un message émis et sa réception dans notre cerveau. Le cerveau humain est ainsi fait que, si nous ne portons pas un minimum d’attention à un message, il ne se passera rien !

La question est donc bonne. Mais a-t-on les moyens, aujourd’hui, de mesurer cette attention ?

Des initiatives existent dans certains pays que l’on pourra toujours critiquer, glorifier, mais qui ont le mérite d’exister et d’apporter des éléments de réflexion. Aux USA et au Japon, par exemple, des annonceurs et des media utilisent les services de sociétés technologiques spécialisées dans cette mesure. Autre exemple, l’Australie, où un media, la télévision, est le fer de lance de la mesure technologique de l’attention, à grande échelle, pour mettre en avant ses qualités par rapport aux plateformes.

Des constantes dans les pays actifs sur le sujet ? Oui, les technologies de mesure passives, la masse, et, pour certains, la syndication.

Technologies passives ? Les progrès des neurosciences sont certains et y recourir est aujourd’hui la seule solution pour parvenir à approcher, correctement, le phénomène. Vous ajoutez à cela toutes les technologies embarquées dans les différents devices qui font partie de notre quotidien et vous obtenez un couple gagnant.

La masse ? Ou que ce soit, on parle d’échantillons représentatifs, la base d’une mesure fiable, et généralement, ce ne sont pas de petits échantillons !

La syndication ? Les dispositifs sont coûteux, qui a les moyens de les payer ? Un media? Des media? De gros annonceurs qui en ont assez de dépenser de l’argent à fonds perdus ?

Le marché français, depuis quelques mois, fourmillent d’initiatives sur la mesure de l’attention. Elles proviennent, souvent, des agences media (c’est très bien de revoir les agences media sur le sujet de l’expertise pour montrer qu’elles ont toujours un rôle à jouer dans le conseil donné aux annonceurs). Elles viennent aussi des régies qui initient des projets ponctuels sur leurs supports ou leurs médias.

Mais, on assiste, où l’on va assister, à la même chose que ce que l’on a pu voir pour l’engagement.

Tout le monde mesure « l’engagement », mais tout le monde a une définition différente de ce qu’est l’engagement. On ne sait donc plus ce qui est mesuré à droite ou à gauche, par qui, pourquoi, comment ! Au final, cet indicateur essentiel a perdu son sens et son universalité par trop plein de définitions diverses, variées et parfois, disons-le, loufoques.

Là, pour l’attention, il faut prendre les choses dans le bon sens, être innovant dans la mesure, y mettre des moyens, et faire travailler ensemble media, agences et annonceurs.

C’est un enjeu collectif qui doit être abordé comme tel. Il s’agit moins de défendre les intérêts particuliers de certains que de défendre l’intérêt global d’une profession à démontrer sa pertinence.

 

Nous sommes prêts pour accompagner ceci. Et vous ?

Intelligence Artificielle, quel marché? Pour qui? Pour quoi?

Share This:

Dans un billet précédent, nous avions parlé de la taille du marché technologique autour de la RGDP (362 millions € en 2016, 1.2 milliards en 2018 et encore 1.1 mds en 2020, source étude IDC pour Microsoft, microsoftexperiences 2017). Dans la même étude, IDC a évalué l’Intelligence Artificielle (IA).

[150 individus interrogés (DSI, managers IT, Directions métiers) au sein d’entreprises avec un effectif de 500 salariés et plus du secteur industriel : Banque-Finance-Assurance, Industrie Manufacturière et de Process, Commerce (gros et détail, VPC, négoce, import- export), Santé (Cliniques, Hôpitaux, Etablissements de soins)].

Le marché des technologies liées à l’Intelligence Artificielle est d’une taille beaucoup plus petite (9 fois moins importante que RGPD en 2018),

  • 65 millions en 2016

  • 129 millions d’€ en 2018

  • 265 millions d’€ en 2020

Où en sont les entreprises ?

  • 22% n’ont pas de réflexion ou de projet
  • 42% des entreprises en sont au stade de la réflexion et de la compréhension du sujet
  • 22% vont démarrer un projet d’ici 1 an ou plus
  • 6% ont un projet pilote en cours
  • 6% l’utilisent déjà dans un seul domaine

Pour faire quoi ?

C’est là où la définition de l’IA entre en ligne de compte. L’IA dans cette étude, va du chatbot, aux algorithmes, à l’infrastructure cloud, à l’analyse des images… (cf photo ci-dessous). Cela correspond probablement au périmètre de Microsoft sur le sujet (supposition gratuite!)

IA technologies deployees ou en projet microsoft IDC

Et pour quels cas d’usage par fonction ?

Rien de révolutionnaire pour notre discipline préférée, le marketing, : « optimisation des campagnes marketing » et « personnalisation et recommandations affinées »

Et pour quels cas d’usage par secteur ?

« Recommandations financières intelligentes » pour la finance 😊.

Par contre, on retrouve de façon chiffrée, pour l’industrie, ce que Yannick Carriou nous avait évoqué lors d’un petit déjeuner IREP, 70% des entreprises visent à réduire les coûts grâce à la digitalisation  des lignes de production.

De Marc DORCEL (films X) à ARTE, en passant par TF1, vous avez dit VIRTUALITÉ ?

Share This:

Le programme de conférence du salon #virtualityparis (26/02/17) était surprenant par ses télescopages.

La société Marc Dorcel, production de films X, précédait Arte sur le sujet de la réalité virtuelle (VR) et de l’expérience utilisateur. TF1 est intervenue dans l’après-midi et, finalement, tous ont évoqué les mêmes problématiques !

« Les contenus pour adultes favorisent l’adoption de nouveaux formats médiatiques », une phrase tiré de cet article de l’INA (2014) qui rappelait que le choix fait par l’industrie pornographique avait imposé le format VHS vs Betamax pour les cassettes vidéo, l’adoption rapide du haut débit, le paiement sécurisé en ligne… L’arrivée des réseaux sociaux a réduit cette influence. Dans cet article, il est fait référence à une étude de 2012 estimant que 30% du trafic internet concernerait des contenus pour adultes.

Alors la société Marc Dorcel ?

La luxure depuis 1979 (slogan). Très bonne présentation de Gregory Dorcel, le fils du fondateur.

Dorcel en chiffres :

  • CA : 35 Millions d’Euros
  • 850 films produits depuis 1979, 35 par an
  • 13 langues
  • 56 pays
  • 4 magasins en ligne
  • 4 chaînes de TV

Et de l’innovation permanente

Gregory Dorcel virtualityparis Innovation chez Dorcel

Sur la 3D, un positionnement fort, la première expérience utilisateur basée sur le jaillissement (sic), ce qui sort de l’écran (en 3D) … Ça a suscité sa prise de conscience sur le fait d’investiguer de nouvelles captations et de nouvelles narrations.

Avec l’effondrement de la 3D, ils sont passés à la VR, sur la même logique, avoir une expérience utilisateur bluffante.

Nous parlons plus de 360° que de réalité virtuelle proprement dite. Les difficultés rencontrées ont été de trouver :

  • un bon fournisseur de VR avec une image de qualité HD pour accentuer la réalité.
  • une nouvelle écriture narrative complexe car les acteurs sont seuls pendant 20 minutes en continu, sans coupure, avec une caméra dont la présence doit être centrale pour le 360° mais qui ne peut être au milieu des acteurs.

2 films ont été produits, un soft et un X (accessibles ici). Efficacité ? 104 938 téléchargements et 12 000 ventes payantes (9€) pour une production de 120 000 € qui pourra descendre  60 000 avec l’expérience.

D’autres vont venir et notamment, un film fait en se mettant à la place de la femme alors que les premiers sont réalisés en étant à la place de l’homme. Les femmes journalistes qui ont vu les films ont donc eu une expérience dans la peau d’un homme, elles ont été surprises.

Quels constats et perspectives ?

  • Une expérience client enrichie (effet waouh)
  • Une notoriété et une reconnaissance énorme (des kilos de retombées presse)
  • Mais pas de demande sans offre or il y a des contraintes d’équipement.

Un marché ?

Selon une étude de Goldman Sachs, non pas axée sur le porno, mais sur le vidéo Entertainment, le marché serait, en 2025, de 3.2 milliards de dollars et généralement le porno représente 10% de ce business, donc beaucoup d’argent ! Le secteur le plus touché par cette révolution, sera le streaming, là où est le marché du porno aujourd’hui.

L’après VR ? L’hologramme ? car on est dans son salon et on peut y être à plusieurs…Jean Luc Mélanchon précurseur ?

A la fin de son intervention, la queue s’allongeait pour lui poser des questions ou proposer des services.

gregory dorcel virtualityparis

Alors ARTE ?  

Quelle stratégie dans les expériences immersives ? Gilles Freissinier, Directeur du Développement Numérique, ARTE France.

Arte s’impliquant dans la VR, c’est logique puisqu’Arte a toujours innové dans les supports (pour mémoire Arte+7 a été le premier service de replay avant M6 replay) mais, pas seulement. La stratégie initiée par l’excellente Véronique Cayla, a été de faire d’Arte un media global où les supports utilisés doivent correspondre à des expériences audiovisuelles différentes qui prolongent le simple flux d’un programme.

La VR est à la confluence de la narration interactive, du jeu vidéo et de la narration audiovisuelle.

La première expérience d’Arte a été faite en 2014 avec Polar sea. Aujourd’hui, la VR d’Arte est une application, Arte360, où l’on voit la stratégie éditoriale d’Arte :

  • vers l’écologie avec, par exemple, le retour de Luc Jacquet et son équipe de la marche de l’empereur, 10 ans après son film avec cette fois ci du matériel 360° pour voir comment les choses évoluent
  • vers la culture, avec l’immersion dans le tableau « la tentation de Saint Antoine » de Jérôme Bosch. Cela facilite l’accès à la culture. Ce fut un gros succès (pas de chiffres) et Arte vient de faire un appel d’offre pour monter une collection sur ce sujet de l’art.
  • vers la fiction, où un programme « Altération » est à venir. Ici aussi, une nouvelle forme de narration a du être crée
  • dans le même registre de narration nouvelle, le jeu vidéo S.E.N.S qui était au départ une bande dessinée pour devenir un jeu vidéo proprement dit

Tout ceci a un but, attirer de nouveaux publics vers Arte avec un plaidoyer européen que même si les casques sont tous d’origine étrangère, les productions européennes sont les plus populaires sur ce marché de la réalité virtuelle (vive l’Europe!).

Comme pour Gregory Dorcel, une queue pour des questions ou des services à la fin de l’intervention de Gilles Freissinier, mais des individus plus âgés !

Gilles Freissinier ARTE FRANCE virtualityparis

Et TF1 alors ?

Guillaume Esmiol (L’assistance était plus nombreuse pour Grégory Dorcel!)

Le but de TF1, toujours première chaîne d’Europe, est de divertir les gens, les faire rêver. La VR répond à cet objectif, faire vivre des expériences à des individus comme KohLanta ou the Voice.

Un marché ?

  • Oui, 86% des français savent ce que veut dire le terme, réalité virtuelle et 56% sont intéressés par le sujet
  • 350 000 casques (attention, tous types) ont été vendus en 2016 et la projection, pour 2017, est de 850 000.

On est proche du million, chiffre significatif pour que TF1 puisse s’y intéresser.

Mytf1 VR a alors été créée avec comme « contrainte », un catalogue varié avec ou sans casque (en attendant un parc de casque plus grand) et un téléchargement possible (pour les zones mal desservies en connexion). Le catalogue comporte du contenu d’exploration type « Pyramides en Egypte », du sport et des sensations fortes, des reportages 360°. Les émissions phare de TF1 ne sont pas en reste, avec The Voice VR. Une fiction est annoncée pour mars avril 2017: Sergent James.

Les résultats de la première édition de The Voice, 120 000 sessions d’une durée de 6 minutes en moyenne. Cette durée semble être la norme pour les gros programmes au niveau international. Après 9 minutes les gens se lassent.

Et comme TF1 vit de la publicité, est proposé aux annonceurs, une immersion totale vs la multiplication des écrans (bataille de l’attention), l’interaction avec le produit, et une approche servicielle.

TF1 virtualityparis

Un cas a été fait par TF1 avec le ClubMed.  Cet annonceur voulait proposer à ses clients, en agence, une expérience unique et avait pensé à la réalité virtuelle.

ClubMed travaillait déjà avec TF1 Production pour des vidéos classiques et a donc pensé à son fournisseur habituel pour faire cette réalité virtuelle. TF1 production est allé chercher Total Immersion (Pour ceux qui ne connaissent par Total Immersion, c’est une société française, basée à Suresnes, pionnière mondiale de la réalité augmentée qui creuse son sillon, aussi, maintenant dans la VR). 12 films sur 12 clubs ont été faits, 2 autres vont venir encore. Julien Lebreton de ClubMed, est enthousiaste !

De belles choses en dehors du business

L’effet papillon et bliss

Mélanie Peron, bibliothécaire (en breton) de Laval, à créée une société l’effet papillon et une application VR, BLISS, dont la finalité est de fournir au milieu médical, les moyens de réduire l’anxiété et le stress des malades dans des situations difficiles (la leucémie de son compagnon a été le moteur de son changement). Il s’agit de détourner l’attention des malades via la Réalité Virtuelle. D’un premier essai avec Kinect pour des malades en chambre stérile, elle en est maintenant à de la vraie VR et en cours d’agrément médical. Les études qui sont menées récemment montrent, par exemple, que pour les grands brulés, la douleur est réduite de 30% grâce à la VR. L’effet est prouvé aussi sur les migraines et dans de nombreuses situations. La VR permet aussi de réduire la prise de médicaments par le malade (un exemple pendant une ponction de moelle osseuse) mais aussi permet au chirurgien d’être plus détendu, uniquement, grâce au relâchement du malade.

Le projet « the ennemy », Chloé Jarry

Karim Ben Khelifa, photographe de guerre, s’est posé une question « à quoi peuvent donc servir les images de guerre si elles ne changent pas le rapport des gens à la guerre, aux souffrances qu’elles engendrent, à la violence ? » Il a fait d’abord une exposition de photos mettant cote à cote 2 ennemis, mais, suite à une visite au MIT, il a voulu qu’existe une expérience immersive de réalité virtuelle où l’audience est invitée à se déplacer au milieu des face-à-face de combattants des conflits.

Pour concrétiser cette idée, il a donc fallu, aller sur des zones de guerre (1ere expérience conflit israélo-palestinien) avec un matériel le plus léger possible capable de supporter des conditions difficiles, choisir des combattants de chaque côté (1 Israélien et 1 Palestinien). Ceci a abouti à une expérience immersive destinée aux musées ou expositions culturels car la zone d’immersion doit faire 300 m2 pour recevoir 20 personnes en même temps qui vont interagir en se plaçant d’un côté ou de l’autre, ceci pendant 50 minutes. Le lancement en France, Canada, Usa est prévu pour cette année. En 2018, retour en Europe et lancement ensuite dans les zones de conflit.

De la première expérience Israël/Palestine, un élargissement a été fait sur les conflits du Congo et du Salvador. Très beau projet.

En bref

  • http://www.vrroom.buzz/, la voix de la VR, un site qui reprend toutes les nouvelles du secteur. Louis Cacciuttolo, le fondateur de Vrroom a mis en avant les points suivants :
    • Avec la VR actuelle, le statut du spectateur est changé en celui d’acteur, le cerveau est trompé par la technologie. Il faut changer la narration (encore) car le statut du spectateur change.
    • Encore une fois aussi, un déficit de contenu pour les femmes car ce sont les hommes qui conçoivent la VR.
    • La VR va-t-elle tuer les légendes car nous n’aurons plus une vision commune d’une même histoire mais chacun des versions personnelles et ce sont les légendes qui contribuent au ciment d’une société.
  • Taktus, active depuis 7 ans sur la VR et plus spécifiquement dans le domaine de l’immobilier neuf, pour que le client potentiel puisse s’approprier un futur achat plusieurs années avant qu’il ne soit construit où un dispositif VR est couplé avec une surface interactive tactile pour choisir ses couleurs, dispositions… qui interagit avec la réalité virtuelle. De la réalité en temps réel sans pre-calculé. Taktus a investi depuis 7 ans sur son approche informatique pour produire une seule fois des « films » qui peuvent être vus sur tous les supports. Taktus a décidé de convertir ses développements dans une plateforme Saas dont les fondateurs ambitionnent qu’elle soit le WordPress de la VR. A surveiller, sortie en beta, en juin 2017.

Conclusion

Des conférences intéressantes, un monde dingue à ce salon (pas forcement pour les conférences en cette journée grand public), des expériences sympas à faire (des queues extrêmement longues).

Un constat, il y a une corrélation très forte (causalité ?) entre la réalité virtuelle et la barbe, la densité de barbus était impressionnante !

Pour les adeptes, vous avez MK2 VR à côté de la grande bibliothèque à Paris où vous pouvez utiliser 5 ou 6 applications (Top !).

Dominique Delport dans Meet the data III

Share This:

Comme d’habitude un compte-rendu partiel et partial !

« Smart Data for Smart Cities / Smart Territories », tel était le thème de cette 3ème édition de Meet the Data (maison de la chimie, pas beaucoup de chauffage, 25/02/17).

Qui est derrière « Meet the Data » ?

Plein de « tronches » (ils me pardonneront !) ! Excusez du peu, Pierre Louis Lions, collège de France et Médaille Field (le Nobel de mathématiques), Jean-Michel Lasry, Normale sup, Dauphine, Emmanuel Bacry, professeur à Polytechnique (l’X)… Et aussi, une star, dans un autre genre, Dominique Delport (Global MD Havas Media Group et Président Vivendi Content).

Ils ont en commun, le rachat, il y a quelques années, par Havas Media (HM), de MFG Labs (PL Lions, H Verdier (Etalab), …) et le sponsoring de ces rencontres par HM avec Arnaud Parent (Président Havas Media Labs Global) comme co-organisateur avec Emmanuel Bacry.

  1.  La star business, Dominique Delport
  2. A mi-chemin entre business et recherche
  3. Les interventions business
  4. Deux moments de bonheur intellectuel

 Pour les autres,  euh… je n’ai rien compris où je suis partie avant la fin, regardez le programme !

  1.  La star business, Dominique Delport

Le sujet était innovation et économie collaborative dans une table ronde.

Essayer de résumer l’intervention de Dominique en une image, est osé, nous avons essayé de le faire…ça va, c’est bon, pour le début mais pas pour toute l’intervention !

Donc, en complément de l’image ci-dessous qui dresse un portrait de l’évolution du marché avec le digital, D. Delport s’est interrogé sur la question de nos données individuelles : où est la valeur ? Les plateformes qui privatisent tout, sont dangereuses car en plus « the winner takes all », il tue ses concurrents.

Il a pris l’exemple du marché de l’Entertainement, aujourd’hui, scindé en 2 :  les contenus gratuits et les contenants payants.

  • La publicité est le cardinal des contenus gratuits. Qui l’emporte en ce domaine ? Le digital, qui dépasse maintenant la TV dans les investissements publicitaires. Sur ce digital, Google et Facebook emportent 100% de la croissance, un duopole sans équivalent dans l’histoire qui accumule et s’auto-renforce. Mais quand les Alexa, Siri, Google Voice, Cortona, tous les assistants virtuels sont là et où il suffit de dire « Alexa joue moi un morceau de musique », cela renvoie à comment le choix est fait pour l’individu, la prédictibilité de ses goûts, ses comportements tout ceci étant basé sur ses données, ses traces (si tracks&facts se nomme comme cela, c’est pour ça !). Ce qui s’est passé dans la finance, il y a quelques années, devient la réalité de la publicité, le programmatique, donc l’analyse de nos données.
  • Dans le payant, nous sommes dans une logique de « curation » (éditer et partager les contenus les plus pertinents du Web pour une requête ou un sujet donné), de recommandation où l’impact de la donnée change encore les stratégies des maisons de disques, la détection des talents. Les maisons de disque qui ont vu leur CA être divisé par 2 en France depuis 2002, ont enregistré une croissance de 5%, l’an dernier.

De façon générale, toutes les entreprises qui ont parié sur le digital et la data, sont en croissance. Mais le ticket d’entrée est désormais presque au milliard d’individus. L’Europe, le plus grand marché du monde, doit être plus ferme pour sa souveraineté numérique.

DOMINIQUE DELPORT UN SLIDE MEET THE DATA

  1. La recherche au service du business

Benjamin Devienne (Head of Data Science, Gameloft, Vivendi)

« Un moteur de recommandation de jeux videos basé sur le graphe »

(Son patron, D. Delport, a dû être fort satisfait de cette très bonne intervention. A la fin de celle-ci, Benjamin Devienne a regardé de suite la réaction de D. Delport).

Gameloft, un des leaders du jeu en ligne (3 millions de joueurs par jour), propose un très gros catalogue de jeux. La croissance de la société est conditionnée, entre autres, au fait que ses clients jouent, de plus en plus, à des jeux différents dans son catalogue. C’est une logique business. Donc, comment faire ? Comment recommander à ceux-ci, tel ou tel autre jeu.

Pour cela, il suffit de regarder les fourmis (sic !). Celles-ci cherchent toujours le meilleur chemin pour aller vers quelque chose, un point précis. Pour cela, certaines avancent à droite ou à gauche, individuellement, et laissent, au passage, des phéromones sur le chemin. Plus il y a de phéromones sur un chemin, plus celui-ci est bon, car de nombreuses fourmis l’empruntent. C’est cela, la recommandation. Le modèle utilisé par Facebook basé sur la théorie des graphes et les probabilités est dans cette lignée.

Chaque individu est connecté à un ou plusieurs jeux, et Gameloft veut identifier le chemin le plus long que son client doit emprunter dans son catalogue pour qu’il accroisse sa pratique des jeux. Gameloft cherche à maximiser la « life time value » du réseau.

Le catalogue des jeux Gameloft peut être cartographié (volontairement flouté par l’intervenant).

Les grosses licences sont en rouge et tous les jeux sont reliés ou non entre eux.

Avec cette cartographie, Gameloft est capable de prédire à 80%, les déplacements dans le réseau.

Qui dit bonne prédiction, dit croissance du profit avec une augmentation de 400% des revenus grâce à la recommandation. Il leur suffit d’une journée pour savoir si la personne restera sur le jeu grâce auquel elle est arrivée et, 3 semaines pour savoir si elle est « bougeable » ou non grâce à des recommandations qu’on lui insufflerait.

 

Le fait de maximiser le réseau, donne un avantage concurrentiel énorme à Gameloft.

Pour augmenter le bassin de joueur (la pénétration), ils font naturellement de la publicité et peuvent même acheter certaines « adresses » (IP, mail…), à 40 € par joueur, car des joueurs peuvent dépenser jusqu’à 150 000 où 200 000 € par an.

Envoyer des recommandations, ou les susciter, permet aussi d’augmenter la puissance de la marque et la confiance en celle-ci.

L’analyse des trous dans le graphe , dans le réseau, autorise aussi une approche stratégique du catalogue.

Hervé Jegou (Research Scientist, Facebook Artificial Intelligence Research)

Recherche et construction de graphes efficaces pour de grandes collections multimedia

(Une bonne présentation avec un intervenant qui a l’air adorable même si nous n’avons pas compris toutes les formules!)

En France se trouve, un des grand centres d’Intelligence Artificielle de Facebook (FB), à Paris.

L’idée globale est d’identifier les images qui se ressemblent.

Facile ? Oh non ! Car, pour savoir si elles sont similaires, il faut être capable :

  • d’identifier, de façon fiable, les composantes de l’image, ses caractéristiques,
  • de les coder pour calculer des notions de distance entre images,
  • de les classer en fonction de ces distances,
  • pour permettre de les proposer, ensemble, selon les requêtes faites par les individus.

Et en plus, il faut faire cela quasi instantanément. Donc, un travail sur des masses d’information et de calculs en temps réel !

L’intelligence artificielle est au pouvoir et ce ne sont pas les données FB qui sont utilisées par ses chercheurs, mais des jeux de données publiques pour être à même de comparer leurs résultats.

Hervé Jegou et son équipe, ont atteint leur objectif et vont mettre en OPEN SOURCE leur méthodologie et programmes pour le bien de tous, d’ici 6 mois. Merci !

3. Les interventions business

Alain Starron (Veolia, ex TPS, pour ceux qui se souviennent de la première expérience de publicité interactive en France)

Pour Veolia, la transformation digitale, ce sont les infrastructures technologiques qui doivent permettre de fournir un bien de plus en rare, l’eau, et faire en sorte, qu’elle soit propre pour les individus.

Les objets connectés sont en première ligne pour assurer de la maintenance prédictive (réparer, changer avant que cela ne casse) via des alertes vers un centre de contrôle. Ces capteurs technologiques ne suffisent pas. L’écoute des individus permet de comprendre leurs organisations communautaires car la ville est tout autant structurée par des groupes humains que par la planification de l’organisation territoriale.

Quelques informations en bref :

  • Moscou est la ville la plus embouteillée du monde (sans jeu de mot avec Veolia).
  • Il y a 8 km de tuyaux à Lyon
  • Mc Kinsey (The trillion-dollar challenge) a prévu que le prochain secteur impacté par le digital, seront les services publics.

Raoul Jacquand (Dassault Systèmes, Polytechnicien)

Dassault Systèmes est une société pionnière pour toutes les applications 3D.

On part forcément d’une vision de la ville de demain :

Par rapport à cette vision de la ville, Dassault Systèmes (DS) propose une plateforme où les données sont dites au service de la ville. On part de la connexion des choses ensemble (le citoyen, les services publics, le travail, …), puis la collecte des informations, leur analyse (big data car les données sont structurées ou non structurés, statiques ou temps réel, sensibles ou non, évolutives …), le design de la ville (en 3D bien sûr), la simulation, le suivi (monitoring).

Expérimentation à Rennes et, plus gros, à Singapour. Dans cette ville, 50 000 étudiants ont été équipés d’un appareil captant une multitude d’informations dans la ville de façon à nourrir la plateforme en information (expérience NSE.sg).

De façon générale, Raoul Jacquand estime que la prochaine frontière est le sous-sol, et que l’enjeu est de connecter dessus et dessous.

Le seul problème évoqué est le modèle business de tout ceci car qui paye ? les villes ? le privé ? … Où se trouve l’argent pour ce type d’approche essentielle au futur des villes.

C’était le credo tenu aussi par Pascal Terrien (EIFER, EDF), comment s’assurer que ma ville soit durable, comment attirer les investissements dans ma ville (Concurrence entre DS et EDF pour l’approche systémique)

L’image ci-dessous (en cliquant vous allez sur l’image originelle), montre l’évolution de l’urbanisation par pays, entre 1050 et 2010, regardez bien, c’est la carte du monde qui se dessine.

https://www.researchgate.net/figure/273415304_fig1_Fig-2-Global-differentials-in-past-and-projected-urbanization-based-on-data-of-the

Selon lui, il faut dépasser la vision géographique des villes qui structure, actuellement, les réseaux d’énergie, pour aller vers les smart grids (optimisation de l’électricité via le digital). L’exercice est complexe, car les décisions urbaines sont à prendre pour l’heure qui suit ou pour les années futures (10 ans pour des équipements lourds).

En bref, la Chine construit chaque année une ville comme New York.

4. Deux moments de bonheur intellectuel

Dominique Boullier (Professeur, Chercheur Senior, Digital Humanities Institute Ecole Polytechnique Fédérale de Lausanne)

Ouvrir les boites noires du Machine Learning urbain (Un seul défaut, 10 choses importantes à la minute quand il m’en faut une par minute pour tout intégrer !)

Il est bien parti du sujet sur la ville mais nous a emmenés beaucoup plus loin sous ce prétexte.

Donc la ville a évolué au travers des âges en démarrant par une ville marché, forte et souvent sacrée (moyen âge), à une ville cosmopolite (révolution industrielle), pour devenir une ville flux de données.

Ces flux peuvent s’organiser selon 2 axes (cf photo-ci-dessous) :

  • Axe horizontal : de la certitude à l’incertitude de la donnée ville
  • Axe vertical : du détachement à l’attachement à la ville

Ces 2 axes permettent de placer, d’un côté, les approches collaboratives et les relations d’affection des individus envers la ville, de l’autre, les opérateurs qui intègrent, suscitent ou analysent des données urbaines (IBM, Google…). La notion de données réelles ou prédites est là pour les séparer.

Cette approche, sous 2 angles, permet de comprendre l’influence probabiliste dans le machine learning (les méthodes qui permettent d’apprendre aux machines à réaliser des taches complexes). Elle autorise le placement, dans chaque cadran, des outils qui existent pour classer et analyser les données.

 

Mais, le plus souvent, ce n’est pas UNE méthode, mais un assemblage de plusieurs qui est mis en œuvre. Il constitue, très (trop) souvent, une boite noire. Celle-ci n’est blanche (ou grise) que pour ses créateurs sans qu’ils aient même bâti un modèle conceptuel sous-jacent.

Il y a un enjeu de démocratie autour de tout cela, les boites noires doivent être rendues transparentes pour que le citoyen, l’individu, profite des données et non pas subisse les données.

L’approche smart city d’IBM pour les jeux de Rio, analyse ou fournit des « image fixes » de l’homme et de la ville. Aujourd’hui, nous sommes dans une époque d’images animées, de modèle d’apprentissage, où toujours plus de capteurs fournissent toujours plus d’info sans que les résultats soient là. L’attentat de Nice en est la preuve. La présence du camion enregistrée sur les vidéos durant plusieurs jours avant l’attentat, n’a pas permis de détecter quoi que ce soit, aucune alerte. Londres intègre, dans des tableaux de bord, les données de « mood », d’humeur des londoniens et l’analyse de sentiments issue des réseaux sociaux. Cela ne sert à rien car aucune alerte n’y est reliée.

L’approche de Google, la Google city, est basée sur les connections, les flux. Cette vision permet, à d’autres sociétés, de proposer, par exemple, des services de police prédictive. Le plus souvent elles survendent les résultats de leurs modélisations de type « boite noire ». Un contre-exemple, Hunchlab qui joue la transparence dans sa méthode, c’est le machine learning responsable.

En conclusion, il faut des contrôleurs/auditeurs de ces boîtes noires et une clarté dans les modèles conceptuels sous-jacents.

 

Philipe Aghion, Collège de France (petit homme, plein d’énergie et d’enthousiasme), le chantre de l’innovation et de la croissance (que je résume très mal ci-dessous (désolée !)

Pour lui, seule l’innovation est le moteur de la croissance à long terme. Et pourtant, l’innovation est la destruction créatrice (pas faux !). Mais pour créer, on ne peut être seul. Nous devons nous confronter aux autres et, pratiquer, à la fois, compétition et coopération :   la coopétition. Un bon exemple, le MIT et Harvard qui sont en compétition farouche pour faire venir des professeurs mais qui arrivent à s’entendre pour des travaux en commun.

Du coup les innovateurs sont dans des zones densément peuplées et la révolution digitale a changé la façon de produire des biens et services mais aussi la génération d’idée.

L’innovation n’a jamais été aussi grande que maintenant et il faut organiser l’état et la société pour qu’elle soit en mesure de vivre l’innovation.

Et pour finir, Pierre-Louis Lions a dit

« ce n’est pas la façon de faire qui est importante, on trouvera toujours, mais la question que l’on pose ! ».

 

3 conférences chez 3 GROS : MICROSOFT, LE CHOC DE LA VITESSE (1/3)

Share This:

Les MIO ce n’est pas un nouveau plat chez Troisgros, mais 3 conférences chez Microsoft, IBM et  Orange.

La première des 3 en date: Microsoft Experiences (les anciens Techdays), le 4 octobre 2016

(trop de temps pour faire le compte rendu partial et partiel!)

Tout le monde a parlé, un palais des congrès pris d’assaut, des dizaines de salles de réunions (dont l’atelier « blockchain en pratique » dans une salle faite pour 20 personnes alors que 100 attendent dehors…grrr…) et une plénière, le premier jour, avec la crème de Microsoft France et Worldwide qui remplit la grande salle (la plus grande de Paris donc plus de 3 000 personnes) et 22 000 en ligne. Excusez du peu… Moyenne d’âge autour de 30 ans.

Un plateau animé par Vahé Torossian (PDG Microsoft France, très très bien) avec Satya Nadella (PDG Microsoft monde), d’autres Microsoft,  et Vivek Bradinath (ex-DGA d’Accor, très très bien), Alexandre Bompard (PDG FNAC-DARTY, toujours TOP) et un ovni génial, Bernard Ourghanlian (CTO & CSO, Microsoft France …)

Bon, Satya Nadella est, dirons-nous, un peu, pffff … Pas d’intervention qui emballe et embarque dans un autre monde, rien, …ras le bitume du Cloud, car il n’en a eu que pour le cloud de Microsoft dans son discours (3 milliards d’investissement dans le cloud en Europe et l’ouverture d’un data center en France). Mais il y en avait d’autres qui, eux, étaient bien, voire très bien et, au premier chef, le patron de Microsoft France, Vahé Torossian qui a été un très bon Monsieur Loyal de cette matinée.

Vivek Bradinath – Ex DGA d’Accor – parti en octobre chez Vodafone à Londres, (dommage pour nous en France, car il est excellent)

Son crédo est qu’Accor a du faire face a 3 chocs (qui ont des noms) : Expedia, Airbnb, Tripadvisor. Tout le secteur hôtelier a été impacté sur toute sa chaîne de valeur par ces 3 entreprises citées. Pour Accor, il a fallu à la fois travailler avec eux et les affronter, prendre des initiatives en réaction ou en offensive, et surtout ne pas se refermer sur soi. Car, selon lui, le plus fondamental, a été dans la transformation digitale de l’entreprise Accor avec 200 000 personnes à convaincre dont 80% sont en contact avec la clientèle.

Un crédo : le cœur est l’expérience client et son parcours.

Pour emmener l’entreprise et ses salariés, il a fallu mettre en place en interne, des outils simples et puissants, donc utilisation du réseau social Yammer de Microsoft.

Alexandre Bompard – FNAC-DARTY (Comme d’habitude, excellent, convaincant)

La FNAC a subi 3 chocs (encore la passe de 3 !)

  • choc du modèle commercial du fait du e-commerce
  • choc sur les produits (phares jeux, CD…) qui se sont dématérialisés
  • choc sur la relation acheteur/vendeur quand l’acheteur arrive en magasin en en sachant plus ou presque que le vendeur (le pouvoir du web !)

La question est alors de trouver un modèle pour aller de l’avant puisque le tout physique a fait son temps.

Du tout numérique ? Non, quand on regarde le leader en la matière, Amazon qui ne gagne, apparemment pas, d’argent

Du multi-canal ? Oui, c’est la seule chose qui ait du sens quand, il y a 5 ans, 95% du CA venait du physique. Aujourd’hui,  c’est 50/50 entre physique et digital.Le nouveau challenge est maintenant de faire travailler ensemble 2 entreprises qui ont, chacune, 60 ans d’existence, la FNAC et DARTY.

Il va falloir construire une culture commune pour devenir le leader européen.

Evidemment, il est fan du cloud de Microsoft (Pour ceux qui ne le sauraient pas encore, Alexandre Bompard devient administrateur d’Orange, information du 8/12/2016).

Avec Bernard Ourghanlian, nous sommes partis dans les nuages, non pas du cloud (si un peu) mais de l’ordinateur quantique.

Il a démarré par un topo sur l’Intelligence Artificielle (IA en français, AI en anglais) qui a été conceptualisé dès 1956 et qui a vécu des hauts et des bas jusqu’en 2000 où, grâce au cloud, il est ressorti et est vraiment entré dans la réalité des choses.

On est loin encore d’une intelligence artificielle supérieure ou égale à l’homme mais la donne a changé.

Une application concrète de l’IA est la traduction de la voix humaine à la volée où, après de rapides progrès au début des années 90, le taux d’erreur est resté constant a environ 20%. L’arrivée du deep learning (apprentissage profond) a permis de descendre à 7% seulement.

Sachez que via Skype, vous pouvez avoir des traductions immédiates (gratuites) des conversations que vous pouvez avoir avec des interlocuteurs en langue étrangère, et ça marche ! (si si on a testé !) Microsoft propose d’ailleurs une API aux développeurs pour intégrer ce module dans leurs applications.

Après la voix, le décodage des vidéos est en chemin. Début 2015, le codage humain était déjà inférieur à celui de la machine (5.5% vs 4.5% d’erreurs), en décembre 2015, la machine avait encore gagné un point (3.5% d’erreurs seulement).

Et dans 5 ans ? L’arrivée de l’ordinateur quantique.

Euh… la théorie quantique simplifiée  (très), c’est qu’un élément peut avoir plusieurs états en même temps (être vivant ou mort à la fois). L’ordinateur quantique ne repose plus sur ce que l’on a connu, des 0 et des 1 successivement (des bits), mais ,en même temps (des Qbits = 1080 bits).

Alors ? L’homme va réussir à résoudre des problèmes encore insolubles, et concrètement, tout ira encore plus vite. Un petit exemple, un ordinateur actuel mettrait des milliers d’années pour craquer le code de la NSA, un ordinateur quantique 100 secondes. Avec le quantique, on pourrait résoudre des problèmes écologiques comme fixer l’azote dans l’atmosphère, capter l’oxyde de carbone dans les processus industriels quand, aujourd’hui, on ne peut le faire car la captation coûte, en énergie dépensée, plus que ce que l’on veut nettoyer ! On pourra faire de nouveaux matériaux…et pour paraphraser Newton,

« J’ai vu plus loin que les autres parce que je me suis juché sur les épaules des machines »

(« J’ai vu plus loin que les autres parce que je me suis juché sur les épaules de géants » Newton)

C’est beau non ?

Pour poursuivre sur le sujet du quantique, indépendamment de celui de Microsoft qui est à Copenhague dans un laboratoire à -270°C, Google et la NASA ont acheté, en 2015, un D-wave 2X.

Des scientifiques doutent toujours que ces ordinateurs soient vraiment quantiques mais… ça va venir.

Smart fun: vos photos sont-elles inoubliables?

Share This:

Cliquez ci-dessous et le MIT vous donnera la réponse

En même temps, vous aiderez la recherche !

Large-scale Image Memorability (LAMEM)

heatmap_isabelle_le_roy

Au passage, ci dessous les « Lamem » de 2 annonces presse magazine primées

  • prix presse magazine 2014 pour Chanel
  • prix des prix pour Air France, la campagne de 2001

Qu’en conclure….

lamemchanellamemairfrance