Michael Wu de PROS : Même si nous avons des mégadonnées, il n'y a jamais assez de données
Publié: 2021-08-28En ce qui concerne l'IA, l'apprentissage automatique et le big data, il n'y a vraiment personne avec qui j'aime apprendre et parler que le Dr Michael Wu, expert reconnu de l'industrie et stratège en chef de l'IA pour PROS, un fournisseur de solutions SaaS optimisant les expériences d'achat et de vente. Et récemment, j'ai eu une excellente conversation en direct avec lui et mon co-animateur de CRM Playaz, Paul Greenberg, où nous avons analysé en profondeur où nous en sommes avec l'IA et comment elle aide les entreprises à traverser les 18 derniers mois.
Vous trouverez ci-dessous une transcription éditée d'une partie de notre conversation qui aborde le rôle de l'éthique et de l'inclusivité alors que de plus en plus d'interactions et de transactions commerciales passent au numérique - fournissant à l'IA les données dont elle a besoin pour prédire et nous recommander des choses. Pour entendre la conversation complète, cliquez sur le lecteur SoundCloud intégré.
Paul Greenberg : Comment la stratégie d'IA doit-elle être intégrée dans la stratégie commerciale plus large ?
Michael Wu : Oui, je pense que c'est en fait un problème majeur dans l'industrie. Je veux dire, il ne fait aucun doute que l'IA va devenir une partie très omniprésente de notre vie à l'avenir. Que ce soit dans les affaires au travail ou simplement dans notre vie quotidienne, ça va être là, ça va en faire partie. Je pense que ce qui empêche beaucoup d'entreprises de se lancer, c'est, je dirais, si vous regardez cela, il y a les applications grand public d'IA et il y a aussi les applications commerciales de l'IA. Pour les consommateurs, il automatise les tâches quotidiennes comme, par exemple, vous pouvez automatiser vos routines domestiques en utilisant des maisons intelligentes et tout ça. Je veux dire, s'il fait une erreur, c'est, je dirais, un inconvénient mineur. Je veux dire, si vous demandez quelque chose à Siri, je ne vous ai pas compris, vous le reformulez simplement. C'est un peu gênant, on perd quelques minutes de temps, et ce n'est pas grave. Ainsi, les risques et les coûts d'une mauvaise décision dans l'IA sont faibles.
Mais ce n'est absolument pas le cas dans les affaires. Je veux dire, les entreprises, lorsque vous prenez une mauvaise décision en matière d'IA, cela peut entraîner la perte de millions de dollars et, je dirais, une crise des relations publiques. Cela pourrait être une perte de beaucoup, beaucoup de clients qui ne reviendront jamais vers vous. Ce risque de coût d'une mauvaise décision est beaucoup plus élevé dans le contexte commercial, par conséquent, les entreprises hésitent tout simplement à se lancer dans l'IA. Et une grande partie de la raison est que, eh bien, je veux dire, ce n'est en fait pas la composante technique de l'IA. Cela a beaucoup à voir avec la composante non technique, par exemple, la conception, l'adoption. Si vous achetez la technologie de l'IA et si les gens ne l'utilisent pas parce qu'ils ne lui font pas confiance parce qu'ils en ont peur, personne n'en tirera aucun avantage.
Je veux dire, si vous avez une IA mais que vous ne pouvez pas l'expliquer pour que les gens ne lui fassent pas confiance, alors vous avez aussi un autre problème. Je veux dire, il y a donc beaucoup de, je dirais, ces problèmes non techniques, par exemple, autour de l'expérience utilisateur, de l'adoption, de la législation et de la conception. Ce sont donc, je dirais, des problèmes liés à cette technologie d'IA qui doivent être résolus afin de faire avancer toute cette industrie.
Tendances des petites entreprises : Pouvez-vous peut-être parler de la façon dont les gens devraient considérer l'IA en termes d'amélioration de choses comme la logistique, l'exécution, les commandes ? Parce que cela a, je pense, un impact démesuré et même de plus en plus croissant sur l'expérience client, même si cela ne semble pas être la chose la plus directe pour une expérience client.
Michael Wu : Eh bien, je pense que cela a un lien direct avec l'expérience client parce que, je veux dire, permettez-moi de poser une question simple. Selon vous, qu'est-ce que l'expérience client ? Parce que, pour moi, les expériences client peuvent être vues, peuvent être comprises en termes très, très simples. C'est la différence entre ce que l'entreprise livre et ce que le client attend. Si l'entreprise offre plus que ce que le client attend, c'est une bonne expérience. C'est une expérience ravissante. Si l'entreprise livre moins que ce que le client attend, alors vous avez un client déçu. C'est vraiment simple si vous le regardez de cette façon. Donc, je veux dire, je pense que les attentes du client sont l'élément sur lequel nous devons nous concentrer, car c'est l'élément qui change en fait de manière très spectaculaire.
Paul Greenberg : D' accord.
Michael Wu : Tout maintenant dans l'ère post-pandémique, tout passe au numérique et les choses deviennent plus transparentes. Les gens peuvent en fait voir tous les autres fournisseurs en ligne. Donc, en fait, il est très facile pour les clients de changer leur expérience. Par exemple, si vous voyez une offre qui vous est proposée, vous avez peut-être une expérience client, mais à la minute où je vois un autre fournisseur proposer la même chose pour, disons, 10 % de moins, votre expérience client a immédiatement changé. Cette transparence rend l'expérience client vraiment difficile, car les attentes des clients peuvent fluctuer et sont fortement influencées par l'environnement. Même lorsque vous vous réveillez un mauvais jour quand il pleut ou quelque chose comme ça, vous pourriez avoir une pire expérience client. Donc, pour suivre ces attentes, je dirais, en constante évolution, en constante évolution, vous avez besoin de quelque chose comme je dirais: "Je peux vous aider en ligne".
Je pense que dans le monde traditionnel, lorsque vous avez affaire à un humain, les humains sont très bons pour évaluer les attentes des clients. Si je te parle, te vois face à face, ton langage corporel me dit quelque chose sur si tu es content ou pas content de ce que j'offre ou quoi que ce soit. Mais lorsque vous parlez à une machine lorsque vous êtes en ligne, lorsque les clients ne sont pas en contact avec une personne réelle, il devient alors très difficile d'évaluer les attentes des clients. Alors, comment faites-vous cela? Je veux dire, pour ce faire, vous avez besoin d'un flux en direct en temps réel, je dirais, des données contextuelles environnementales dans lesquelles se trouve le client, ou quel canal arrive, dans quelle région se trouve-t-il, toutes ces autres données contextuelles sur ce client, Ensuite, vous aiderez l'IA à comprendre le client à l'autre bout. Mais l'élément clé à reconnaître à notre époque est que même si nous disposons de mégadonnées, il n'y a jamais assez de données.
Je pense qu'il y a du big data dans sa totalité, mais chaque fois que nous traitons avec un seul client ou un seul contact, les données disponibles pour vous aider à prendre cette décision sont considérablement réduites. Il y a beaucoup de données là-bas. Beaucoup d'entre elles sont en fait utiles dans certains contextes, mais dans ce contexte particulier en ce moment et je traite avec ce client en ce moment, les données pertinentes qui vous aideront à décider quoi faire sont en fait assez petites. L'essentiel est donc d'identifier ces données. La deuxième chose est, quand vous dites qu'il y a ces nouveaux canaux par lesquels ces informations arrivent, l'IA, l'une des beautés de celle-ci est la capacité d'apprendre. L'IA contient donc un composant appelé apprentissage automatique qui leur permet d'apprendre réellement à partir des données. Donc ça lui permet de s'adapter. Lorsque vous avez appris, vous pouvez vous adapter. Donc, c'est en fait la même chose que la façon dont un humain fonctionne. Lorsque vous voyez ce nouveau flux, disons que TikTok arrive, vous dites d'abord : « Ignorons-le.
Mais au bout d'un moment, vous voyez TikTok, TikTok, TikTok, puis vous dites : « Oh, d'accord. Je devrais peut-être faire attention à ça. Vous apprenez, vous voyez qu'il y en a plus qui arrivent plus fréquemment, donc ça devient de plus en plus pertinent. Ensuite, vous devriez en fait changer votre modèle de fonctionnement de ce monde et accorder plus de poids à ce canal particulier qu'à votre autre canal traditionnel auquel vous n'aviez pas prêté attention. C'est donc exactement de la même manière que l'IA fonctionnerait. D'abord, vous diriez que vous accordez très peu de poids à ce nouveau canal mais comme il revient de plus en plus fréquemment, vous allez essentiellement réviser votre algorithme pour commencer à accorder de plus en plus de poids à ce canal s'il s'avère pertinent. Peut-être que s'il y a beaucoup de très fort, très bruyant, mais que ce n'est en fait pas pertinent, alors vous maintiendriez l'attente ou l'impact que ce canal a encore à un niveau assez bas. Je pense que c'est un processus d'apprentissage et que l'apprentissage est en fait activé dans ces systèmes d'IA grâce à l'apprentissage automatique.
Tendances des petites entreprises : quel impact cela a-t-il sur l'utilisation éthique de l'IA ? Constate-t-on une convergence ou une divergence ? Plus de données, moins d'éthique ? Ou est-ce plus de données, plus d'éthique ? Ont-ils une relation du tout? Parce qu'il me semble que plus nous trouvons de données, plus il est tentant d'utiliser ce genre de choses comme l'ancien Malcolm X, "par tous les moyens nécessaires". Mais l'éthique derrière l'IA s'améliore-t-elle à mesure que nous obtenons plus de données à ce sujet ?
Michael Wu : Je pense qu'il y a certainement plus de prise de conscience. Je pense qu'en ce moment il y a, je dirais, équité, transparence. Les gens parlent de ce problème de boîte noire. Cette IA, nous ne savons pas comment elle prend des décisions et tout. C'est donc un défi, mais cela amène en fait de plus en plus de gens à prêter attention à ce domaine de l'éthique, de l'équité et de la responsabilité. Donc, je dirais que toutes ces mégadonnées supplémentaires que nous utilisons sont très tentantes. Mais je pense qu'il doit y avoir une force d'opposition pour défier également ces data scientists. Je pense qu'il doit y avoir, je dirais, une tension saine entre les deux groupes. Ce n'est pas que les scientifiques de l'IA devraient tout dicter. L'avancement ne doit pas tout conduire. Tout n'est pas une question d'avancement, mais ce n'est pas non plus une question de réglementation. Je veux dire, je pense que les deux groupes doivent avoir ce genre de tension saine pour soulever des problèmes qui nous préoccupent.
Et si vous ne soulevez pas le problème, les scientifiques ne le résoudront pas. "Ça marche. Pourquoi est-ce que j'aborde ce problème ? » Donc, si vous soulevez ce problème, de plus en plus de scientifiques en seront conscients et diront : "D'accord, c'est un problème difficile que je dois résoudre pour rendre cela meilleur, meilleur pour l'humanité, meilleur pour tout le monde." C'est pourquoi cette tension saine doit être là. Et je pense qu'en ce moment, pour répondre à votre question, oui, ils en évoquent de plus en plus. Je pense qu'il y a actuellement plus de questions que de solutions, mais le pendule va tourner. Parce qu'auparavant, c'était tout l'avancement de l'IA, donc c'est tous les pendules d'un côté. Et maintenant que les gens sont conscients du pouvoir de l'IA, de toute cette éthique. Je suis moi-même presque à moitié un éthicien pour dire: «Hé, vous ne pouvez pas simplement envisager d'utiliser l'IA pour tout ce que vous voulez. Vous devez examiner l'utilisation éthique de vos données afin de ne marginaliser aucun groupe ou quoi que ce soit.
Il y a en fait beaucoup de voix de ce côté maintenant, et cela soulève donc beaucoup de préoccupations. Nous n'avons pas encore de solution, mais je pense que de plus en plus de gens prêtent actuellement attention à résoudre ces problèmes.
Tendances des petites entreprises : Eh bien, l'éthique elle-même ou quiconque programme l'IA, vous devez suivre leur éthique et l'éthique de tout le monde n'est pas la même, donc je sais que ça va être difficile. Et l'autre chose que je pense aussi est l'ensemble ou la population de gens qui créent vraiment la science des données, c'est proche d'être un groupe homogène de personnes. Ce n'est pas très varié. Ce n'est pas très diversifié. C'est presque comme si non seulement vous aviez besoin d'une IA éthique, mais aussi d'une IA inclusive pour qu'elle soit un peu plus représentative, et je pense que c'est ce qui manque peut-être le plus, l'ensemble des personnes qui le font.
Je suis si heureux de vous entendre dire que cela change, car il y avait ce super Netflix quand nous avons parlé de la reconnaissance faciale et l'IA ne pouvait pas détecter une femme noire à partir d'autre chose, et une partie de ce raisonnement était parce que les gens qui étaient en train de créer l'IA ne ressemblait pas à la femme noire qu'elle essayait de détecter. Et donc c'est l'une de ces choses qui a été un ingrédient manquant à cela.
