PROS 的 Michael Wu:即使我们有大数据,也永远没有足够的数据

已发表: 2021-08-28

谈到人工智能、机器学习和大数据,我最喜欢向 Michael Wu 博士学习和交谈,他是公认的行业专家和 PROS 的首席人工智能策略师,PROS 是一家优化购物和销售体验的 SaaS 解决方案提供商。 最近,我与他和我的 CRM Playaz 共同主持人 Paul Greenberg 进行了一次精彩的直播对话,我们深入探讨了人工智能在哪里以及它如何帮助公司度过过去 18 个月。

下面是我们对话的一部分的编辑记录,涉及随着更多的业务交互和交易走向数字化,道德和包容性的作用——为人工智能提供它渴望预测和向我们推荐事物的数据。 要收听完整的对话,请单击嵌入式 SoundCloud 播放器。

smallbiztrends · PROS的Michael Wu:即使我们有大数据,也永远没有足够的数据

Paul Greenberg:如何将人工智能战略整合到更广泛的业务战略中?

Michael Wu:是的,我认为这实际上是行业的一个主要问题。 我的意思是,毫无疑问,人工智能将成为我们未来生活中非常普遍的一部分。 无论是在工作中还是在我们的日常生活中,它都会存在,它将成为其中的一部分。 我认为阻止很多企业加入的原因是,我想说,如果你看一下,有人工智能消费者应用程序,也有人工智能的商业应用程序。 对于消费者来说,它可以自动化日常任务,例如,您可以使用智能家居和所有这些东西来自动化您的家庭日常活动。 我的意思是,如果它犯了一个错误,我会说,这是一些轻微的不便。 我的意思是,如果你问 Siri 什么,我没听懂,你只是改写一下。 这有点不方便,你会浪费几分钟的时间,这没什么大不了的。 因此,人工智能中错误决策的风险和成本很小。

但在商业中完全不是这样。 我的意思是,商业,当你在人工智能方面做出错误决定时,可能会损失数百万美元,我想说的是公关危机。 这可能会失去很多永远不会回来找你的客户。 在商业环境中,错误决策的成本风险要高得多,因此,企业只是不愿意跳上人工智能。 很多原因是因为,嗯,我的意思是,它实际上不是人工智能的技术组成部分。 其中很多与非技术组件有关,例如设计、采用。 如果你购买人工智能技术,如果人们不使用它是因为他们害怕它而不信任它,那么没有人会从中受益。

我的意思是,如果你有人工智能,但你不能解释它,所以人们不信任它,那么你还有另一个问题。 我的意思是,有很多,我想说,这些非技术问题,例如,围绕用户体验、采用、法律和设计。 因此,我想说,这些是围绕这种人工智能技术需要解决的问题,以推动整个行业向前发展。

小型企业趋势:您能否谈谈人们应该如何看待人工智能以改善物流、履行、订单等方面的问题? 因为我认为这确实对客户体验产生了巨大甚至越来越大的影响,即使它不觉得它对客户体验来说是最直接的事情。

Michael Wu:嗯,我认为它确实与客户体验有直接关系,因为,我的意思是,让我问一个简单的问题。 您认为客户体验是什么? 因为,对我来说,可以用非常非常简单的术语来查看和理解客户体验。 这是公司提供的产品与客户期望的产品之间的差异。 如果公司提供的服务超出了客户的预期,那么这就是一种很好的体验。 这是一次令人愉快的经历。 如果公司的交付量低于客户的预期,那么您的客户就会失望。 如果你这样看,那真的很简单。 所以,我的意思是,我认为客户的期望是我们需要关注的部分,因为那部分实际上发生了巨大的变化。

保罗格林伯格:对。

Michael Wu:现在一切都在后疫情时代,一切都在向数字化发展,事情变得更加透明。 人们实际上可以在线查看其他所有供应商。 所以,实际上,客户很容易改变他们的体验。 例如,如果您看到向您提供的报价,您可能会有客户体验,但是当我去看到另一家供应商提供相同的东西时,例如降低 10%,您的客户体验立即发生了变化。 这种透明度使客户体验非常具有挑战性,因为客户的期望可能会波动并且受环境影响很大。 即使您在下雨或类似情况的糟糕日子醒来,您也可能会遇到最糟糕的客户体验。 因此,为了跟上这些,我想说,不断变化,不断变化的客户期望,你需要像我说的那样,“我可以在线帮助你。”

我认为在传统世界中,当您实际与人类打交道时,人类非常擅长衡量客户的期望。 如果我在和你说话,面对面地看到你,你的肢体语言会告诉我一些关于你对我提供的东西或任何事情是否高兴或不高兴的事情。 但是,当您在线与机器交谈时,当客户没有与真实的人互动时,衡量客户期望是什么变得非常具有挑战性。 那么你是怎么做到的呢? 我的意思是,要做到这一点,你需要一个实时的实时流,我会说,客户所在的环境上下文数据,或者进入的渠道,它在哪个地区,关于这个客户的所有其他上下文数据,然后你将帮助人工智能了解另一端的客户。 但在这个时代要认识到的关键是,即使我们有大数据,也永远没有足够的数据。

我认为总体上存在大数据,但是当我们与单个客户或单个联系人打交道时,可用于帮助您做出决策的数据会大大减少。 那里有很多数据。 其中很多在某些情况下实际上是有用的,但是在这个特定的情况下,我正在与这个客户打交道,帮助你决定做什么的相关数据实际上是相当少的。 所以关键是识别这些数据。 第二件事是,当你说有这些信息进入的新渠道时,人工智能,它的优点之一就是学习能力。 因此,人工智能内部有一个称为机器学习的组件,使它们能够真正从数据中学习。 因此,这允许它适应。 当你有学习,你可以适应。 所以这实际上和人类的工作方式是一样的。 当你看到这个新流时,比如说 TikTok 进来了,你首先说,“让我们忽略它。”

但过了一会儿,你看到 TikTok,TikTok,TikTok,然后你说,“哦,好吧。 也许我应该注意这一点。” 你学会了,你会看到更多的人更频繁地进来,所以它变得越来越相关。 然后你应该真正改变你对这个世界如何运作的模型,并且比你没有关注的传统其他渠道更加重视这个特定渠道。 所以这与人工智能的运作方式完全相同。 首先,你会说你在这个新频道上的权重很少,但随着它越来越频繁地出现,你基本上会修改你的算法,开始在这个频道上增加越来越多的权重,如果它被证明是相关的。 也许如果它非常响亮,非常嘈杂,但实际上并不相关,那么你会保持等待或影响,那个频道仍然处于相当低的水平。 我认为这是一个学习过程,学习实际上是通过机器学习在这些人工智能系统中实现的。

小企业趋势:这对人工智能的道德使用有何影响? 我们是否看到任何趋同或分歧? 更多数据,更少道德? 还是更多的数据,更多的道德? 他们有关系吗? 因为在我看来,我们发现的数据越多,就越有可能以任何旧 Malcolm X 的方式使用这些东西,“以任何必要的方式”。 但是,随着我们获得更多数据,人工智能背后的伦理是否会变得更好?

Michael Wu:我认为肯定有更多的意识。 我认为现在有,我会说,公平,透明。 人们谈论这个黑匣子问题。 这个人工智能,我们不知道它是如何做出决定的。 所以这是一个挑战,但它实际上让越来越多的人关注道德、公平和问责制这一领域。 所以所有这些额外的,我想说,我们正在使用的大数据,非常诱人。 但我认为需要有一股对立的力量来平等地挑战这些数据科学家。 我认为这两个群体之间需要存在这种健康的紧张关系。 这并不是说人工智能科学家应该决定一切。 进步不应该驱动一切。 这不是关于进步的一切,但也不是关于监管的一切。 我的意思是,我认为这两个群体需要有一种健康的紧张关系,我们提出了我们确实担心的问题。

如果你不提出这个问题,科学家就不会解决它。 “有用。 我为什么要解决这个问题?” 所以如果你提出这个问题,那么越来越多的科学家会意识到它并说,“好吧,这是一个具有挑战性的问题,我需要解决这个问题,以使这个问题变得更好,对人类更好,对每个人都更好。” 这就是为什么需要存在这种健康的紧张感的原因。 我认为现在,为了回答你的问题,是的,他们提出了越来越多的问题。 我认为现在问题多于解决方案,但钟摆会左右摆动。 因为,以前都是人工智能的进步,所以一方面都是钟摆。 现在人们已经意识到人工智能的力量,所有这些道德规范。 我自己几乎是伦理学家的一半,我会说:“嘿,你不能只考虑使用人工智能来做任何你想做的事情。 您需要考虑数据的道德使用,以免边缘化任何群体或任何事物。”

现在实际上有很多声音在那边,所以引起了很多关注。 我们还没有解决方案,但我认为现在越来越多的人实际上正在关注解决这些问题。

小企业趋势:嗯,道德本身或任何为 AI 编程的人,你都必须遵守他们的道德规范,并不是每个人的道德规范都是相同的,所以我知道这会很困难。 我认为的另一件事是真正创造数据科学的人的集合或人群,它接近于成为一个同质的人群。 它不是很多样化。 它不是很多样化。 这几乎就像您不仅需要道德 AI,还需要包容性 AI 以使其更具代表性,我认为这可能是最缺少的东西,正在做这件事的人。

我很高兴听到你说它正在改变,因为当我们谈到面部识别时,Netflix 非常棒,而人工智能无法从其他东西中检测到黑人女性,部分原因是因为那些正在创建的 AI 看起来不像它试图检测的黑人女性。 因此,这就是其中缺少的要素之一。


迈克尔·吴:是的。

小企业趋势:并不是说这纯粹是道德 AI 很难做到的原因,但是当你在技术创造中没有某些人或某些部分时,你会自动失去一些东西可能对它取得应有的成功非常重要。

迈克尔·吴:完全。 我认为这实际上是人工智能中的一大难题。 你用来训练机器的数据,实际上并没有全世界的数据。 您使用数据样本。 因此,我会说,即使您认为它是随机的,有时也会选择数据样本,但其中可能存在一些偏差。 您选择用于训练 AI 的数据中的固有偏差会影响您的 AI 行为方式。 如果你真的在数据采样的上下文中使用这个人工智能,只有你从中采样数据的人群,没有问题。 问题是我们经常、非常、非常经常地使用这个人工智能,将它过度概括到更大的人群中,这就是你不包括这些其他观点的问题。

这对你来说可能是道德的,但对我来说是不道德的,所以我们也需要从不同的角度看待这些问题。 这就是包容性实际上非常重要的地方。 现在,实际上,越来越多的公司将更多的社会科学学科、心理学、行为学、经济学家、社会科学家纳入到这些人工智能系统设计的讨论中,这很好。 这实际上非常好,非常健康。 就像我说的,人工智能,它的技术方面是一个组成部分,但我想说,实际上有一个巨大的领域涉及非技术组成部分,这实际上对于推动这个社会的接受和采用同样重要。

阅读更多:

  • 一对一面试

这是与思想领袖的一对一访谈系列的一部分。 成绩单已编辑出版。 如果是音频或视频采访,请点击上面的嵌入式播放器,或通过 iTunes 或通过 Stitcher 订阅。