Michael Wu z PROS: Nawet jeśli mamy duże zbiory danych, nigdy nie ma ich za mało
Opublikowany: 2021-08-28Jeśli chodzi o sztuczną inteligencję, uczenie maszynowe i big data, tak naprawdę nie ma osoby, od której chciałbym się uczyć i rozmawiać z nią, niż dr Michael Wu, uznany ekspert branżowy i główny strateg AI w firmie PROS, dostawcy rozwiązań SaaS optymalizujących zakupy i sprzedaż. Niedawno odbyłem świetną rozmowę na żywo z nim i moim współgospodarzem CRM Playaz, Paulem Greenbergiem, gdzie zagłębiliśmy się w to, gdzie jesteśmy z AI i jak pomaga firmom przetrwać ostatnie 18 miesięcy.
Poniżej znajduje się zredagowany zapis części naszej rozmowy, która dotyka roli etyki i inkluzywności, ponieważ coraz więcej interakcji biznesowych i transakcji staje się cyfrowych – dostarczając sztucznej inteligencji dane, których potrzebuje, aby przewidywać i polecać nam rzeczy. Aby usłyszeć pełną rozmowę, kliknij osadzony odtwarzacz SoundCloud.
Paul Greenberg: Jak należy zintegrować strategię AI z szerszą strategią biznesową?
Michael Wu: Tak, myślę, że jest to właściwie poważny problem w branży. To znaczy, nie ma wątpliwości, że sztuczna inteligencja będzie bardzo wszechobecną częścią naszego życia. Niezależnie od tego, czy chodzi o biznes w pracy, czy po prostu w naszym codziennym życiu, będzie tam, będzie jego częścią. Myślę, że to, co powstrzymuje wiele firm przed wejściem na pokład, to, powiedziałbym, że jeśli się na to przyjrzeć, istnieją konsumenckie aplikacje sztucznej inteligencji, a także biznesowe zastosowania sztucznej inteligencji. W przypadku konsumentów automatyzuje codzienne zadania, takie jak na przykład automatyzacja rutynowych czynności domowych za pomocą inteligentnych domów i innych rzeczy. To znaczy, jeśli się pomyli, to jest to jakaś, powiedziałbym, drobna niedogodność. To znaczy, jeśli zapytasz o coś Siri, nie zrozumiałem cię, po prostu to przeformułujesz. To trochę niedogodność, tracisz kilka minut czasu, a to nic wielkiego. Tak więc ryzyko i koszty błędnej decyzji w AI są niewielkie.
Ale w biznesie tak nie jest. Mam na myśli biznes, kiedy podejmujesz złą decyzję w AI, może to oznaczać utratę milionów dolarów i, powiedziałbym, kryzys PR. Może to oznaczać utratę wielu klientów, którzy nigdy do Ciebie nie wrócą. Ryzyko kosztu błędnej decyzji jest znacznie wyższe w środowisku biznesowym, dlatego firmy po prostu niechętnie przechodzą na sztuczną inteligencję. I wiele z tego jest takie, że, no cóż, to właściwie nie jest techniczny komponent AI. Wiele ma to związek z komponentem nietechnicznym, na przykład z projektem, przyjęciem. Jeśli kupisz technologię AI i jeśli ludzie nie będą jej używać, bo jej nie ufają, bo się jej boją, nikt nie odniesie żadnych korzyści.
To znaczy, jeśli masz sztuczną inteligencję, ale nie możesz tego wyjaśnić, więc ludzie jej nie ufają, to masz też inny problem. Chodzi mi o to, że jest wiele, powiedziałbym, tych nietechnicznych problemów, na przykład związanych z doświadczeniem użytkownika, adopcją, prawem i projektowaniem. Powiedziałbym więc, że są to problemy związane z technologią AI, którymi należy się zająć, aby posunąć do przodu całą branżę.
Trendy w małych firmach: Czy możesz porozmawiać o tym, jak ludzie powinni patrzeć na sztuczną inteligencję pod kątem usprawniania takich rzeczy, jak logistyka, realizacja zamówień, zamówienia? Ponieważ myślę, że ma to ogromny, a nawet coraz bardziej rosnący wpływ na wrażenia klientów, nawet jeśli nie wydaje się, że jest to najbardziej bezpośrednia rzecz dla wrażenia klienta.
Michael Wu: Cóż, myślę, że ma to bezpośredni związek z doświadczeniem klienta, ponieważ pozwól, że zadam proste pytanie. Jak myślisz, czym jest doświadczenie klienta? Ponieważ dla mnie doświadczenia klientów można oglądać, można je zrozumieć w bardzo, bardzo prosty sposób. To różnica między tym, co firma dostarcza, a tym, czego oczekuje klient. Jeśli firma dostarcza więcej niż oczekuje klient, to jest to dobre doświadczenie. To zachwycające doświadczenie. Jeśli firma dostarcza mniej niż oczekuje klient, oznacza to, że klient jest rozczarowany. To naprawdę proste, jeśli spojrzeć na to w ten sposób. Więc myślę, że oczekiwania klienta to element, na którym musimy się skupić, ponieważ jest to element, który w rzeczywistości zmienia się bardzo dramatycznie.
Paul Greenberg: Tak.
Michael Wu: Wszystko teraz w erze postpandemicznej, wszystko przechodzi na cyfrową i wszystko staje się bardziej przejrzyste. Ludzie mogą zobaczyć każdego innego dostawcę online. Tak więc klienci mogą bardzo łatwo zmienić swoje doświadczenia. Na przykład, jeśli widzisz ofertę dla siebie, możesz mieć doświadczenie klienta, ale w chwili, gdy pójdę i zobaczę innego dostawcę oferującego to samo za, powiedzmy, 10% mniej, natychmiast zmieniło się twoje doświadczenie klienta. Ta przejrzystość sprawia, że doświadczenie klienta jest naprawdę trudne, ponieważ oczekiwania klienta mogą się zmieniać i są pod dużym wpływem środowiska. Nawet jeśli budzisz się w zły dzień, kiedy pada deszcz lub coś w tym stylu, możesz mieć najgorsze wrażenia z obsługi klienta. Więc aby nadążyć za tymi, powiedziałbym, ciągle zmieniającymi się, ciągle zmieniającymi się oczekiwaniami klientów, potrzebujesz czegoś takiego, jak powiedziałbym: „Mogę ci pomóc online”.
Myślę, że w tradycyjnym świecie, kiedy faktycznie masz do czynienia z człowiekiem, ludzie są bardzo dobrzy w ocenianiu oczekiwań klientów. Jeśli rozmawiam z tobą, widząc cię twarzą w twarz, język twojego ciała mówi mi coś o tym, czy jesteś szczęśliwy, czy nie, z powodu tego, co oferuję, czy czegokolwiek. Ale kiedy rozmawiasz z maszyną, gdy jesteś online, kiedy klienci nie są zaangażowani w rzeczywistą osobę, wtedy naprawdę trudno jest ocenić, jakie są oczekiwania klienta. Więc jak to robisz? Chodzi mi o to, że aby to zrobić, potrzebujesz transmisji na żywo w czasie rzeczywistym, powiedziałbym, danych kontekstowych dotyczących środowiska, w których znajduje się klient, lub jakim kanałem nadchodzi, w jakim regionie się znajduje, wszystkie te inne dane kontekstowe dotyczące tego klienta, wtedy pomożesz sztucznej inteligencji zrozumieć klienta po drugiej stronie. Ale kluczową rzeczą do rozpoznania w tym wieku jest to, że chociaż mamy duże zbiory danych, nigdy nie ma ich wystarczająco dużo.
Myślę, że w sumie istnieją duże zbiory danych, ale za każdym razem, gdy mamy do czynienia z pojedynczym klientem lub pojedynczym kontaktem, dane, które mogą pomóc w podjęciu tej decyzji, są drastycznie zmniejszone. Istnieje wiele danych. Wiele z nich jest rzeczywiście przydatnych w niektórych kontekstach, ale w tym konkretnym kontekście w tej chwili i mam do czynienia z tym klientem, istotne dane, które pomogą Ci zdecydować, co zrobić, są w rzeczywistości dość małe. Kluczową sprawą jest więc zidentyfikowanie tych danych. Drugą rzeczą jest to, że kiedy mówisz, że są te nowe kanały, przez które napływają te informacje, AI, jedną z jej zalet jest umiejętność uczenia się. Tak więc sztuczna inteligencja ma wewnątrz komponent zwany uczeniem maszynowym, który umożliwia im faktyczne uczenie się na podstawie danych. Więc to pozwala mu się dostosować. Kiedy się uczysz, możesz się dostosować. Więc to jest właściwie to samo, co człowiek. Kiedy zobaczysz ten nowy strumień, powiedz, że nadchodzi TikTok, najpierw powiesz: „Zignorujmy to”.
Ale po chwili widzisz TikTok, TikTok, TikTok, a potem mówisz: „Och, dobrze. Może powinienem zwrócić na to uwagę”. Uczysz się, widzisz, że coraz częściej pojawia się więcej, więc staje się to coraz bardziej istotne. Następnie powinieneś zmienić swój model tego, jak ten świat to obsługuje i przykładać większą wagę do tego konkretnego kanału niż do tradycyjnego innego kanału, na który nie zwracałeś uwagi. To jest dokładnie ten sam sposób, w jaki działa sztuczna inteligencja. Po pierwsze, powiedziałbyś, że przywiązujesz bardzo małą wagę do tego nowego kanału, ale ponieważ pojawia się on coraz częściej, zasadniczo zrewidujesz swój algorytm, aby zacząć przykładać coraz większą wagę do tego kanału, jeśli okaże się to istotne. Może jeśli jest dużo, bardzo głośno, bardzo głośno, ale w rzeczywistości nie ma to znaczenia, wtedy oczekiwanie lub wpływ, jaki ten kanał ma nadal, można utrzymać na dość niskim poziomie. Myślę, że jest to proces uczenia się, a uczenie się jest faktycznie możliwe w tych systemach AI poprzez uczenie maszynowe.
Trendy w małych firmach: jak wpływa to na etyczne korzystanie ze sztucznej inteligencji? Czy widzimy zbieżność lub rozbieżność? Więcej danych, mniej etyki? A może to więcej danych, więcej etyki? Czy w ogóle mają związek? Ponieważ wydaje mi się, że im więcej danych znajdujemy, tym większą pokusą jest użycie tych rzeczy w jakikolwiek sposób, który był starym Malcolmem X, „wszelkimi niezbędnymi środkami”. Ale czy etyka stojąca za sztuczną inteligencją staje się lepsza, gdy otrzymujemy więcej danych?
Michael Wu: Myślę, że z pewnością jest o tym większa świadomość. Myślę, że teraz istnieje, powiedziałbym, uczciwość, przejrzystość. Ludzie mówią o problemie z czarną skrzynką. Ta sztuczna inteligencja nie wiemy, jak podejmuje decyzje i tak dalej. Jest to więc wyzwanie, ale w rzeczywistości skłania coraz więcej ludzi do zwracania uwagi na ten obszar etyki, sprawiedliwości i odpowiedzialności. Powiedziałbym, że wszystkie te dodatkowe, duże zbiory danych, których używamy, są bardzo kuszące. Ale myślę, że musi istnieć przeciwstawna siła, która w równym stopniu rzuci wyzwanie tym naukowcom danych. Myślę, że musi istnieć to, powiedziałbym, zdrowe napięcie między tymi dwiema grupami. Nie chodzi o to, że naukowcy zajmujący się sztuczną inteligencją powinni wszystko dyktować. Awans nie powinien napędzać wszystkiego. Nie chodzi tylko o awans, ale też nie chodzi o regulacje. To znaczy, myślę, że te dwie grupy potrzebują tego rodzaju zdrowego napięcia, że poruszamy kwestie, którymi się martwimy.
A jeśli nie poruszysz tego problemu, naukowcy go nie rozwiążą. "To działa. Dlaczego mam rozwiązać ten problem?” Więc jeśli poruszycie tę kwestię, coraz więcej naukowców będzie tego świadomych i powie: „OK, to jest trudny problem, którym muszę się zająć, aby uczynić to lepszym, lepszym dla ludzkości, lepszym dla wszystkich”. Dlatego musi tam być to zdrowe napięcie. I myślę, że teraz, odpowiadając na twoje pytanie, tak, pojawiają się ich coraz więcej. Myślę, że w tej chwili jest więcej pytań niż rozwiązań, ale wahadło będzie się obracać. Ponieważ wcześniej był to wyłącznie rozwój sztucznej inteligencji, więc z jednej strony jest tylko wahadło. A teraz, kiedy ludzie są świadomi potęgi sztucznej inteligencji, całej tej etyki. Sam jestem prawie połową etyki, by powiedzieć: „Hej, nie możesz po prostu patrzeć na wykorzystanie sztucznej inteligencji do czegokolwiek chcesz. Musisz przyjrzeć się etycznemu wykorzystaniu swoich danych, aby nie marginalizować żadnej grupy ani niczego.”
Właściwie po tej stronie jest teraz wiele głosów, więc budzi to wiele obaw. Nie mamy jeszcze rozwiązania, ale myślę, że teraz coraz więcej osób zwraca uwagę na rozwiązanie tych problemów.
Trendy w małych firmach: Cóż, sama etyka lub ktokolwiek programuje sztuczną inteligencję, musisz kierować się ich zasadami etycznymi i nie wszyscy są tacy sami, więc wiem, że będzie to trudne. Inną rzeczą, o której myślę, jest zbiór lub populacja ludzi naprawdę tworzących naukę o danych, jest to prawie jednorodna grupa ludzi. Nie jest bardzo zróżnicowana. Nie jest bardzo zróżnicowana. To prawie tak, jakby nie tylko potrzebna była etyczna sztuczna inteligencja, ale także inkluzywna sztuczna inteligencja, aby była trochę bardziej reprezentatywna, i myślę, że tego właśnie może brakować najbardziej, zestawu ludzi, którzy to robią.
Bardzo się cieszę, że mówisz, że to się zmienia, ponieważ był świetny Netflix, kiedy rozmawialiśmy o rozpoznawaniu twarzy, a sztuczna inteligencja nie mogła wykryć czarnej kobiety z czegoś innego, a część tego rozumowania wynikała z tego, że ludzie, którzy tworzyli sztuczną inteligencję, która nie wyglądała jak czarna kobieta, którą próbował wykryć. I to była jedna z tych rzeczy, których brakowało w tym wszystkim.
