Michael Wu von PROS: Obwohl wir Big Data haben, gibt es nie genug Daten

Veröffentlicht: 2021-08-28

Wenn es um KI, maschinelles Lernen und Big Data geht, gibt es wirklich niemanden, von dem ich gerne lerne und mit dem ich rede, als Dr. Michael Wu, anerkannter Branchenexperte und Chief AI Strategist für PROS, einem Anbieter von SaaS-Lösungen, die Einkaufs- und Verkaufserlebnisse optimieren. Und kürzlich hatte ich ein großartiges Livestream-Gespräch mit ihm und meinem Co-Moderator von CRM Playaz, Paul Greenberg, bei dem wir uns eingehend damit befassten, wo wir mit KI stehen und wie sie Unternehmen dabei hilft, die letzten 18 Monate zu überstehen.

Unten finden Sie eine bearbeitete Abschrift eines Teils unseres Gesprächs, das die Rolle von Ethik und Inklusivität berührt, da immer mehr geschäftliche Interaktionen und Transaktionen digital werden – und der KI die Daten liefert, die sie benötigt, um Dinge vorherzusagen und uns zu empfehlen. Um das vollständige Gespräch zu hören, klicken Sie auf den eingebetteten SoundCloud-Player.

smallbiztrends · Michael Wu von PROS: Obwohl wir Big Data haben, gibt es nie genug Daten

Paul Greenberg: Wie sollte die KI-Strategie in die umfassendere Geschäftsstrategie integriert werden?

Michael Wu: Ja, ich denke, das ist tatsächlich ein großes Problem in der Branche. Ich meine, es besteht kein Zweifel daran, dass KI in Zukunft ein sehr allgegenwärtiger Teil unseres Lebens sein wird. Ob im Geschäft, bei der Arbeit oder einfach in unserem täglichen Leben, es wird da sein, es wird ein Teil davon sein. Ich denke, was viele Unternehmen davon abhält, an Bord zu springen, ist, würde ich sagen, wenn man es sich ansieht, gibt es KI-Verbraucheranwendungen und es gibt auch Geschäftsanwendungen von KI. Für Verbraucher automatisiert es tägliche Aufgaben, wie Sie beispielsweise Ihre Heimroutinen mit Smart Homes und all diesen Dingen automatisieren könnten. Ich meine, wenn es einen Fehler macht, ist es eine, ich würde sagen, geringfügige Unannehmlichkeit. Ich meine, wenn du Siri etwas fragst, habe ich dich nicht verstanden, du formulierst es einfach um. Es ist ein wenig umständlich, Sie verlieren ein paar Minuten Zeit, und es ist keine große Sache. Das Risiko und die Kosten einer Fehlentscheidung in der KI sind also gering.

Aber das ist im Geschäftsleben absolut nicht der Fall. Ich meine, geschäftlich, wenn Sie in der KI eine falsche Entscheidung treffen, können Millionen von Dollar verloren gehen und ich würde sagen, eine PR-Krise. Es könnte ein Verlust von vielen, vielen Kunden sein, die nie zu Ihnen zurückkehren werden. Dieses Risiko der Kosten einer falschen Entscheidung ist im Geschäftsumfeld viel höher, daher zögern Unternehmen, auf KI zu springen. Und ein Großteil des Grundes liegt darin, dass es eigentlich nicht die technische Komponente der KI ist. Vieles hat mit der nicht-technischen Komponente zu tun, zum Beispiel dem Design, der Adaption. Wenn Sie KI-Technologie kaufen und die Leute sie nicht nutzen, weil sie ihr nicht vertrauen, weil sie Angst davor haben, hat niemand etwas davon.

Ich meine, wenn Sie KI haben, es aber nicht erklären können, damit die Leute ihr nicht vertrauen, dann haben Sie auch ein anderes Problem. Ich meine, es gibt also viele, würde ich sagen, nicht-technische Probleme, zum Beispiel in Bezug auf Benutzererfahrung, Akzeptanz, Recht und Design. Das sind also, würde ich sagen, Probleme rund um diese KI-Technologie, die angegangen werden müssen, um diese ganze Branche voranzubringen.

Small Business Trends: Können Sie vielleicht darüber sprechen, wie die Leute KI im Hinblick auf die Verbesserung von Dingen wie Logistik, Abwicklung und Bestellwesen betrachten sollten? Denn das hat meiner Meinung nach einen übergroßen und sogar zunehmend wachsenden Einfluss auf das Kundenerlebnis, auch wenn es sich nicht so anfühlt, als wäre es das Direkteste für ein Kundenerlebnis.

Michael Wu: Nun, ich denke, es hat eine direkte Beziehung zur Kundenerfahrung, denn lassen Sie mich eine einfache Frage stellen. Was ist Ihrer Meinung nach das Kundenerlebnis? Denn für mich sind Kundenerlebnisse anschaubar, sehr, sehr einfach zu verstehen. Es ist der Unterschied zwischen dem, was das Unternehmen liefert, und dem, was der Kunde erwartet. Wenn das Unternehmen mehr liefert, als der Kunde erwartet, dann ist das eine gute Erfahrung. Es ist eine erfreuliche Erfahrung. Wenn das Unternehmen weniger liefert, als der Kunde erwartet, dann haben Sie einen enttäuschten Kunden. Es ist wirklich einfach, wenn man es so betrachtet. Also, ich meine, ich denke, die Erwartung des Kunden ist der Teil, auf den wir uns konzentrieren müssen, denn das ist der Teil, der sich tatsächlich sehr dramatisch ändert.

Paul Greenberg: Richtig.

Michael Wu: Alles wird jetzt in der Zeit nach der Pandemie digitalisiert und die Dinge werden transparenter. Die Leute können tatsächlich jeden anderen Anbieter online sehen. Tatsächlich ist es für Kunden also sehr einfach, ihre Erfahrung zu ändern. Wenn Sie beispielsweise ein Angebot für Sie sehen, haben Sie möglicherweise ein Kundenerlebnis, aber in der Minute, in der ich einen anderen Anbieter sehe, der dasselbe für beispielsweise 10 % weniger anbietet, hat sich Ihr Kundenerlebnis sofort geändert. Diese Transparenz macht das Kundenerlebnis zu einer echten Herausforderung, da die Kundenerwartungen schwanken und so stark von der Umgebung beeinflusst werden können. Selbst wenn Sie an einem schlechten Tag aufwachen, wenn es regnet oder so, könnten Sie ein schlechtes Kundenerlebnis haben. Um mit diesen, ich würde sagen, sich ständig ändernden, sich ständig ändernden Kundenerwartungen Schritt zu halten, brauchen Sie etwas wie ich sagen würde: „Ich kann Ihnen online helfen.“

Ich denke, in der traditionellen Welt, wenn Sie es tatsächlich mit einem Menschen zu tun haben, sind Menschen sehr gut darin, die Erwartungen der Kunden einzuschätzen. Wenn ich mit Ihnen spreche, Sie von Angesicht zu Angesicht sehe, sagt mir Ihre Körpersprache etwas darüber, ob Sie glücklich oder nicht glücklich über das sind, was ich anbiete oder irgendetwas. Aber wenn Sie mit einer Maschine sprechen, wenn Sie online sind, wenn die Kunden nicht mit einer tatsächlichen Person zu tun haben, wird es wirklich schwierig, die Erwartungen der Kunden einzuschätzen. Wie machst du das? Ich meine, dazu braucht man einen Live-Stream in Echtzeit, würde ich sagen, Umgebungskontextdaten, in denen sich der Kunde befindet, oder welcher Kanal hereinkommt, in welcher Region er sich befindet, all diese anderen Kontextdaten über diesen Kunden, Dann helfen Sie der KI, den Kunden am anderen Ende zu verstehen. Aber das Wichtigste, was man in diesem Zeitalter erkennen muss, ist, dass es nie genug Daten gibt, obwohl wir große Datenmengen haben.

Ich denke, es gibt insgesamt Big Data, aber jedes Mal, wenn wir es mit einem einzelnen Kunden oder einem einzelnen Kontakt zu tun haben, sind die verfügbaren Daten, die Ihnen helfen, diese Entscheidung zu treffen, dramatisch reduziert. Es gibt viele Daten da draußen. Vieles davon ist in manchen Kontexten tatsächlich nützlich, aber in diesem speziellen Kontext, in dem ich gerade mit diesem Kunden zu tun habe, sind die relevanten Daten, die Ihnen bei der Entscheidung helfen, was zu tun ist, eigentlich ziemlich klein. Das Wichtigste ist also, diese Daten zu identifizieren. Die zweite Sache ist, wenn Sie sagen, dass es diese neuen Kanäle gibt, wo diese Informationen hereinkommen, KI, eine der Schönheiten davon ist die Fähigkeit zu lernen. KI hat also eine Komponente namens maschinelles Lernen, die es ihnen ermöglicht, tatsächlich aus Daten zu lernen. So kann es sich anpassen. Wenn Sie lernen, können Sie sich anpassen. Das ist also eigentlich dasselbe, wie ein Mensch funktioniert. Wenn Sie diesen neuen Stream sehen, sagen Sie, TikTok kommt herein, sagen Sie zuerst: „Lassen Sie es uns ignorieren.“

Aber nach einer Weile siehst du TikTok, TikTok, TikTok, und dann sagst du: „Oh, okay. Vielleicht sollte ich darauf achten.“ Du lernst, du siehst, dass es immer häufiger kommt, also wird es immer relevanter. Dann sollten Sie tatsächlich Ihr Modell ändern, wie diese Welt damit umgeht, und diesem speziellen Kanal mehr Gewicht beimessen als Ihrem traditionellen anderen Kanal, dem Sie bisher keine Aufmerksamkeit geschenkt haben. Das ist also genau die gleiche Art und Weise, wie KI funktionieren würde. Zunächst würden Sie sagen, dass Sie diesem neuen Kanal sehr wenig Gewicht beimessen, aber da er immer häufiger vorkommt, werden Sie Ihren Algorithmus im Grunde überarbeiten, um diesem Kanal immer mehr Gewicht beizumessen, wenn er sich als relevant herausstellt. Vielleicht, wenn es sehr laut, sehr laut, aber eigentlich nicht relevant ist, dann würden Sie das Warten oder die Wirkung, die dieser Kanal hat, immer noch auf einem ziemlich niedrigen Niveau halten. Ich denke, es ist ein Lernprozess, und das Lernen wird in diesen KI-Systemen tatsächlich durch maschinelles Lernen ermöglicht.

Small Business Trends: Wie wirkt sich das auf den ethischen Einsatz von KI aus? Sehen wir Konvergenz oder Divergenz? Mehr Daten, weniger Ethik? Oder sind es mehr Daten, mehr Ethik? Haben sie überhaupt eine Beziehung? Denn je mehr Daten wir finden, desto größer scheint die Versuchung zu sein, dieses Zeug so zu verwenden, wie es der alte Malcolm X war, „mit allen notwendigen Mitteln“. Aber wird die Ethik hinter KI besser, wenn wir mehr Daten darauf werfen?

Michael Wu: Ich denke, es gibt sicherlich mehr Bewusstsein dafür. Ich denke, im Moment gibt es, würde ich sagen, Fairness, Transparenz. Die Leute sprechen über dieses Black-Box-Problem. Diese KI, wir wissen nicht, wie sie Entscheidungen trifft und so. Es ist also eine Herausforderung, aber es bringt immer mehr Menschen dazu, diesem Bereich von Ethik, Fairness und Rechenschaftspflicht Aufmerksamkeit zu schenken. All diese zusätzlichen, würde ich sagen, großen Datenmengen, die wir verwenden, sind sehr verlockend. Aber ich denke, es muss eine Gegenkraft geben, um diese Datenwissenschaftler gleichermaßen herauszufordern. Ich denke, es muss diese, würde ich sagen, gesunde Spannung zwischen den beiden Gruppen geben. Es ist nicht so, dass die KI-Wissenschaftler alles diktieren sollten. Weiterentwicklung sollte nicht alles vorantreiben. Es geht nicht nur um Aufstieg, aber auch nicht um Regulierung. Ich meine, ich denke, die beiden Gruppen müssen diese Art von gesunder Spannung haben, damit wir Probleme ansprechen, über die wir uns Sorgen machen.

Und wenn Sie das Problem nicht ansprechen, werden Wissenschaftler es nicht lösen. "Es klappt. Warum spreche ich dieses Problem an?“ Wenn Sie also dieses Problem ansprechen, werden sich immer mehr Wissenschaftler dessen bewusst und sagen: „Okay, das ist ein herausforderndes Problem, das ich angehen muss, um es besser zu machen, besser für die Menschheit, besser für alle.“ Deshalb muss diese gesunde Spannung da sein. Und ich denke, dass gerade jetzt, um Ihre Frage zu beantworten, ja, sie bringen immer mehr davon zur Sprache. Ich denke, im Moment gibt es mehr Fragen als Lösungen, aber das Pendel wird umschlagen. Weil früher alles KI-Fortschritt war, also alles Pendel auf der einen Seite. Und jetzt, da sich die Menschen der Macht der KI bewusst sind, all diese Ethik. Ich bin selbst fast ein halber Ethiker, um zu sagen: „Hey, Sie können nicht einfach nur darauf schauen, wie Sie KI für das einsetzen, was Sie wollen. Sie müssen sich die ethische Verwendung Ihrer Daten ansehen, damit Sie keine Gruppe oder so etwas an den Rand drängen.“

Es gibt jetzt tatsächlich viele Stimmen auf dieser Seite, und das gibt Anlass zu großer Besorgnis. Wir haben noch keine Lösung, aber ich denke, dass jetzt immer mehr Menschen darauf achten, diese Probleme anzugehen.

Small Business Trends: Nun, Ethik selbst oder wer auch immer die KI programmiert, man muss sich an ihre Ethik halten und nicht alle Ethik ist gleich, also weiß ich, dass das schwierig sein wird. Und das andere, was ich auch denke, ist die Menge oder die Bevölkerung von Leuten, die wirklich die Datenwissenschaft schaffen, es ist fast eine homogene Gruppe von Menschen. Es ist nicht sehr abwechslungsreich. Es ist nicht sehr abwechslungsreich. Es ist fast so, als bräuchten Sie nicht nur eine ethische KI, sondern auch eine integrative KI, damit sie ein bisschen repräsentativer ist, und ich denke, das ist das, was am meisten fehlt, die Gruppe von Menschen, die es tun.

Ich bin so froh zu hören, dass Sie sagen, dass es sich ändert, denn es gab dieses großartige Netflix, als wir über die Gesichtserkennung sprachen, und die KI konnte eine schwarze Frau nicht anhand von etwas anderem erkennen, und ein Teil dieser Argumentation war, weil die Leute, die die KI erschufen, sah nicht aus wie die schwarze Frau, die sie zu erkennen versuchte. Und das war eines dieser Dinge, die hier eine fehlende Zutat waren.


Michael Wu: Ja.

Small Business Trends: Um nicht zu sagen, dass dies nur der Grund dafür ist, dass ethische KI so schwierig ist, aber wenn Sie bestimmte Leute oder bestimmte Teile nicht in der Entwicklung der Technologie vertreten haben, werden Sie automatisch etwas davon verlieren kann sehr wichtig sein, damit es so erfolgreich ist, wie es sein sollte.

Michael Wu: Absolut. Ich denke, das ist eigentlich, würde ich sagen, das große Rätsel in der KI. Die Daten, die Sie verwenden, um die Maschine zu trainieren, haben Sie eigentlich nicht die Daten der ganzen Welt. Sie verwenden eine Stichprobe von Daten. Diese Datenstichprobe ist also ausgewählt, würde ich sagen, obwohl Sie denken, dass es zufällig ist, kann es manchmal einige Vorurteile geben. Und die inhärente Verzerrung der Daten, die Sie zum Trainieren der KI auswählen, beeinflusst das Verhalten Ihrer KI. Wenn Sie diese KI tatsächlich im Kontext dessen verwenden, woher diese Daten entnommen wurden, nur die Population, aus der Sie die Daten entnommen haben, gibt es kein Problem. Das Problem ist, dass wir diese KI oft, sehr, sehr oft verwenden, sie auf eine viel größere Bevölkerung übergeneralisieren, und dann haben Sie ein Problem damit, diese anderen Perspektiven nicht einzubeziehen.

Es mag für Sie ethisch vertretbar sein, aber für mich nicht ethisch, also müssen wir auch diese unterschiedlichen Perspektiven betrachten. Da ist die Inklusion eigentlich sehr wichtig. Im Moment beziehen immer mehr Unternehmen viel mehr von diesen, ich würde sagen, sozialwissenschaftlichen Disziplinen, Psychologie, Verhaltens-, Wirtschafts- und Sozialwissenschaftlern in diese Art von Diskussionen über das Design dieser KI-Systeme ein, was gut ist. Das ist eigentlich sehr gut und sehr gesund. Wie ich schon sagte, KI, der technische Aspekt davon, ist eine Komponente, aber es gibt tatsächlich einen riesigen, würde ich sagen, Bereich, der mit nicht-technischen Komponenten zu tun hat, der eigentlich genauso wichtig ist, um die Akzeptanz und Akzeptanz in dieser Gesellschaft voranzutreiben.

WEITERLESEN:

  • Einzelgespräche

Dies ist Teil der One-on-One-Interview-Reihe mit Vordenkern. Das Transkript wurde für die Veröffentlichung bearbeitet. Wenn es sich um ein Audio- oder Videointerview handelt, klicken Sie oben auf den eingebetteten Player oder abonnieren Sie es über iTunes oder über Stitcher.