PROS 的 Michael Wu:即使我們有大數據,也永遠沒有足夠的數據

已發表: 2021-08-28

談到人工智能、機器學習和大數據,我最喜歡向 Michael Wu 博士學習和交談,他是公認的行業專家和 PROS 的首席人工智能策略師,PROS 是一家優化購物和銷售體驗的 SaaS 解決方案提供商。 最近,我與他和我的 CRM Playaz 共同主持人 Paul Greenberg 進行了一次精彩的直播對話,我們深入探討了人工智能在哪里以及它如何幫助公司度過過去 18 個月。

下面是我們對話的一部分的編輯記錄,涉及隨著更多的業務交互和交易走向數字化,道德和包容性的作用——為人工智能提供它渴望預測和向我們推薦事物的數據。 要收聽完整的對話,請單擊嵌入式 SoundCloud 播放器。

smallbiztrends · PROS的Michael Wu:即使我們有大數據,也永遠沒有足夠的數據

Paul Greenberg:如何將人工智能戰略整合到更廣泛的業務戰略中?

Michael Wu:是的,我認為這實際上是行業的一個主要問題。 我的意思是,毫無疑問,人工智能將成為我們未來生活中非常普遍的一部分。 無論是在工作中還是在我們的日常生活中,它都會存在,它將成為其中的一部分。 我認為阻止很多企業加入的原因是,我想說,如果你看一下,有人工智能消費者應用程序,也有人工智能的商業應用程序。 對於消費者來說,它可以自動化日常任務,例如,您可以使用智能家居和所有這些東西來自動化您的家庭日常活動。 我的意思是,如果它犯了一個錯誤,我會說,這是一些輕微的不便。 我的意思是,如果你問 Siri 什麼,我沒聽懂,你只是改寫一下。 這有點不方便,你會浪費幾分鐘的時間,這沒什麼大不了的。 因此,人工智能中錯誤決策的風險和成本很小。

但在商業中完全不是這樣。 我的意思是,商業,當你在人工智能方面做出錯誤決定時,可能會損失數百萬美元,我想說的是公關危機。 這可能會失去很多永遠不會回來找你的客戶。 在商業環境中,錯誤決策的成本風險要高得多,因此,企業只是不願意跳上人工智能。 很多原因是因為,嗯,我的意思是,它實際上不是人工智能的技術組成部分。 其中很多與非技術組件有關,例如設計、採用。 如果你購買人工智能技術,如果人們不使用它是因為他們害怕它而不信任它,那麼沒有人會從中受益。

我的意思是,如果你有人工智能,但你不能解釋它,所以人們不信任它,那麼你還有另一個問題。 我的意思是,有很多,我想說,這些非技術問題,例如,圍繞用戶體驗、採用、法律和設計。 因此,我想說,這些是圍繞這種人工智能技術需要解決的問題,以推動整個行業向前發展。

小型企業趨勢:您能否談談人們應該如何看待人工智能以改善物流、履行、訂單等方面的問題? 因為我認為這確實對客戶體驗產生了巨大甚至越來越大的影響,即使它不覺得它對客戶體驗來說是最直接的事情。

Michael Wu:嗯,我認為它確實與客戶體驗有直接關係,因為,我的意思是,讓我問一個簡單的問題。 您認為客戶體驗是什麼? 因為,對我來說,可以用非常非常簡單的術語來查看和理解客戶體驗。 這是公司提供的產品與客戶期望的產品之間的差異。 如果公司提供的服務超出了客戶的預期,那麼這就是一種很好的體驗。 這是一次令人愉快的經歷。 如果公司的交付量低於客戶的預期,那麼您的客戶就會失望。 如果你這樣看,那真的很簡單。 所以,我的意思是,我認為客戶的期望是我們需要關注的部分,因為那部分實際上發生了巨大的變化。

保羅格林伯格:對。

Michael Wu:現在一切都在後疫情時代,一切都在向數字化發展,事情變得更加透明。 人們實際上可以在線查看其他所有供應商。 所以,實際上,客戶很容易改變他們的體驗。 例如,如果您看到向您提供的報價,您可能會有客戶體驗,但是當我去看到另一家供應商提供相同的東西時,例如降低 10%,您的客戶體驗立即發生了變化。 這種透明度使客戶體驗非常具有挑戰性,因為客戶的期望可能會波動並且受環境影響很大。 即使您在下雨或類似情況的糟糕日子醒來,您也可能會遇到最糟糕的客戶體驗。 因此,為了跟上這些,我想說,不斷變化,不斷變化的客戶期望,你需要像我說的那樣,“我可以在線幫助你。”

我認為在傳統世界中,當您實際與人類打交道時,人類非常擅長衡量客戶的期望。 如果我在和你說話,面對面地看到你,你的肢體語言會告訴我一些關於你對我提供的東西或任何事情是否高興或不高興的事情。 但是,當您在線與機器交談時,當客戶沒有與真實的人互動時,衡量客戶期望是什麼變得非常具有挑戰性。 那麼你是怎麼做到的呢? 我的意思是,要做到這一點,你需要一個實時的實時流,我會說,客戶所在的環境上下文數據,或者進入的渠道,它在哪個地區,關於這個客戶的所有其他上下文數據,然後你將幫助人工智能了解另一端的客戶。 但在這個時代要認識到的關鍵是,即使我們有大數據,也永遠沒有足夠的數據。

我認為總體上存在大數據,但是當我們與單個客戶或單個聯繫人打交道時,可用於幫助您做出決策的數據會大大減少。 那裡有很多數據。 其中很多在某些情況下實際上是有用的,但是在這個特定的情況下,我正在與這個客戶打交道,幫助你決定做什麼的相關數據實際上是相當少的。 所以關鍵是識別這些數據。 第二件事是,當你說有這些信息進入的新渠道時,人工智能,它的優點之一就是學習能力。 因此,人工智能內部有一個稱為機器學習的組件,使它們能夠真正從數據中學習。 因此,這允許它適應。 當你有學習,你可以適應。 所以這實際上和人類的工作方式是一樣的。 當你看到這個新流時,比如說 TikTok 進來了,你首先說,“讓我們忽略它。”

但過了一會兒,你看到 TikTok,TikTok,TikTok,然後你說,“哦,好吧。 也許我應該注意這一點。” 你學會了,你會看到更多的人更頻繁地進來,所以它變得越來越相關。 然後你應該真正改變你對這個世界如何運作的模型,並且比你沒有關注的傳統其他渠道更加重視這個特定渠道。 所以這與人工智能的運作方式完全相同。 首先,你會說你在這個新頻道上的權重很少,但隨著它越來越頻繁地出現,你基本上會修改你的算法,開始在這個頻道上增加越來越多的權重,如果它被證明是相關的。 也許如果它非常響亮,非常嘈雜,但實際上並不相關,那麼你會保持等待或影響,那個頻道仍然處於相當低的水平。 我認為這是一個學習過程,學習實際上是通過機器學習在這些人工智能係統中實現的。

小企業趨勢:這對人工智能的道德使用有何影響? 我們是否看到任何趨同或分歧? 更多數據,更少道德? 還是更多的數據,更多的道德? 他們有關係嗎? 因為在我看來,我們發現的數據越多,就越有可能以任何舊 Malcolm X 的方式使用這些東西,“以任何必要的方式”。 但是,隨著我們獲得更多數據,人工智能背後的倫理是否會變得更好?

Michael Wu:我認為肯定有更多的意識。 我認為現在有,我會說,公平,透明。 人們談論這個黑匣子問題。 這個人工智能,我們不知道它是如何做出決定的。 所以這是一個挑戰,但它實際上讓越來越多的人關注道德、公平和問責制這一領域。 所以所有這些額外的,我想說,我們正在使用的大數據,非常誘人。 但我認為需要有一股對立的力量來平等地挑戰這些數據科學家。 我認為這兩個群體之間需要存在這種健康的緊張關係。 這並不是說人工智能科學家應該決定一切。 進步不應該驅動一切。 這不是關於進步的一切,但也不是關於監管的一切。 我的意思是,我認為這兩個群體需要有一種健康的緊張關係,我們提出了我們確實擔心的問題。

如果你不提出這個問題,科學家就不會解決它。 “有用。 我為什麼要解決這個問題?” 所以如果你提出這個問題,那麼越來越多的科學家會意識到它並說,“好吧,這是一個具有挑戰性的問題,我需要解決這個問題,以使這個問題變得更好,對人類更好,對每個人都更好。” 這就是為什麼需要存在這種健康的緊張感的原因。 我認為現在,為了回答你的問題,是的,他們提出了越來越多的問題。 我認為現在問題多於解決方案,但鍾擺會左右擺動。 因為,以前都是人工智能的進步,所以一方面都是鍾擺。 現在人們已經意識到人工智能的力量,所有這些道德規範。 我自己幾乎是倫理學家的一半,我會說:“嘿,你不能只考慮使用人工智能來做任何你想做的事情。 您需要考慮數據的道德使用,以免邊緣化任何群體或任何事物。”

現在實際上有很多聲音在那邊,所以引起了很多關注。 我們還沒有解決方案,但我認為現在越來越多的人實際上正在關註解決這些問題。

小企業趨勢:嗯,道德本身或任何為 AI 編程的人,你都必須遵守他們的道德規範,並不是每個人的道德規範都是相同的,所以我知道這會很困難。 我認為的另一件事是真正創造數據科學的人的集合或人群,它接近於成為一個同質的人群。 它不是很多樣化。 它不是很多樣化。 這幾乎就像您不僅需要道德 AI,還需要包容性 AI 以使其更具代表性,我認為這可能是最缺少的東西,正在做這件事的人。

我很高興聽到你說它正在發生變化,因為當我們談到面部識別時,Netflix 非常棒,而人工智能無法從其他東西中檢測到黑人女性,部分原因是因為那些正在創建的 AI 看起來不像它試圖檢測的黑人女性。 因此,這就是其中缺少的要素之一。


邁克爾·吳:是的。

小企業趨勢:並不是說這純粹是道德 AI 很難做到的原因,但是當你在技術創造中沒有某些人或某些部分時,你會自動失去一些東西可能對它取得應有的成功非常重要。

邁克爾·吳:完全。 我認為這實際上是人工智能中的一大難題。 你用來訓練機器的數據,實際上並沒有全世界的數據。 您使用數據樣本。 因此,我會說,即使您認為它是隨機的,有時也會選擇數據樣本,但其中可能存在一些偏差。 您選擇用於訓練 AI 的數據中的固有偏差會影響您的 AI 行為方式。 如果你真的在數據採樣的上下文中使用這個人工智能,只有你從中採樣數據的人群,沒有問題。 問題是我們經常、非常、非常經常地使用這個人工智能,將它過度概括到更大的人群中,這就是你不包括這些其他觀點的問題。

這對你來說可能是道德的,但對我來說是不道德的,所以我們也需要從不同的角度看待這些問題。 這就是包容性實際上非常重要的地方。 現在,實際上,越來越多的公司將更多的社會科學學科、心理學、行為學、經濟學家、社會科學家納入到這些人工智能係統設計的討論中,這很好。 這實際上非常好,非常健康。 就像我說的,人工智能,它的技術方面是一個組成部分,但我想說,實際上有一個巨大的領域涉及非技術組成部分,這實際上對於推動這個社會的接受和採用同樣重要。

閱讀更多:

  • 一對一面試

這是與思想領袖的一對一訪談系列的一部分。 成績單已編輯出版。 如果是音頻或視頻採訪,請點擊上面的嵌入式播放器,或通過 iTunes 或通過 Stitcher 訂閱。