PROSのMichaelWu:ビッグデータはありますが、十分なデータはありません
公開: 2021-08-28AIと機械学習、ビッグデータに関しては、ショッピングと販売のエクスペリエンスを最適化するSaaSソリューションのプロバイダーであるPROSの業界エキスパート兼チーフAIストラテジストであるMichael Wu博士ほど、学び、話し合うのが好きな人は誰もいません。 そして最近、私は彼とCRMPlayazの共同ホストであるPaulGreenbergと素晴らしいライブストリームの会話をしました。そこでは、AIの現状と、過去18か月間で企業がAIをどのように活用しているかについて深く掘り下げました。
以下は、より多くのビジネスインタラクションとトランザクションがデジタル化するにつれて、倫理と包括性の役割に触れる会話の一部の編集されたトランスクリプトです。AIに、物事を予測して推奨するために必要なデータを提供します。 完全な会話を聞くには、埋め込まれたSoundCloudプレーヤーをクリックしてください。
Paul Greenberg: AI戦略をより広範なビジネス戦略にどのように統合する必要がありますか?
Michael Wu:ええ、これは実際には業界の大きな問題だと思います。 つまり、AIが今後の私たちの生活に非常に浸透する部分になることは間違いありません。 それが仕事でビジネスであろうと私たちの日常生活であろうと、それはそこにあり、その一部になるでしょう。 多くのビジネスが参入するのを妨げているのは、それを見ると、AIコンシューマーアプリケーションがあり、AIのビジネスアプリケーションもあると思います。 消費者にとっては、たとえば、スマートホームなどを使用してホームルーチンを自動化できるなど、日常のタスクを自動化します。 つまり、それが間違いを犯した場合、それはいくつかの、私が言うだろう、マイナーな不便です。 つまり、Siriに何かを尋ねると、私はあなたを理解していませんでした。言い換えれば。 それは少し不便です、あなたは数分の時間を失います、そしてそれは大したことではありません。 したがって、AIでの誤った決定のリスクとコストはわずかです。
しかし、それはビジネスではまったく当てはまりません。 つまり、ビジネスでは、AIで間違った決定を下すと、数百万ドルが失われる可能性があり、PRの危機になる可能性があります。 それはあなたに二度と戻ってこないであろうたくさんのそしてたくさんの顧客の喪失であるかもしれません。 誤った決定のコストのリスクは、ビジネス環境でははるかに高いため、企業はAIに飛び込むことを躊躇します。 そして、その理由の多くは、つまり、実際にはAIの技術的なコンポーネントではないためです。 その多くは、設計や採用などの非技術的なコンポーネントに関係しています。 AIテクノロジーを購入し、人々がAIテクノロジーを恐れて信頼していないためにそれを使用しない場合、誰も利益を得ることができません。
つまり、AIを持っていても説明できないために人々がそれを信頼しない場合は、別の問題もあります。 つまり、ユーザーエクスペリエンス、採用、法務、デザインなど、技術以外の問題がたくさんあるということです。 つまり、これらは、この業界全体を前進させるために対処する必要がある、このAIテクノロジーを取り巻く問題です。
中小企業の動向:ロジスティクス、フルフィルメント、注文などの改善という観点から、人々がAIをどのように見るべきかについて話していただけますか? それは、顧客体験にとって最も直接的なものであるとは思えない場合でも、顧客体験への影響が非常に大きく、ますます大きくなっていると思います。
Michael Wu:ええと、それは顧客体験と直接的な関係があると思います。つまり、簡単な質問をさせてください。 カスタマーエクスペリエンスはどのようなものだと思いますか? なぜなら、私にとって、顧客体験は非常に簡単な言葉で見ることができ、理解することができるからです。 それは、会社が提供するものと顧客が期待するものの違いです。 会社が顧客が期待する以上のものを提供する場合、それは良い経験です。 それは楽しい経験です。 会社が顧客の期待よりも少ない成果を上げている場合、あなたは失望した顧客を抱えています。 そのように見れば本当に簡単です。 つまり、お客様の期待は、実際に非常に劇的に変化する部分であるため、私たちが焦点を当てる必要のある部分だと思います。
ポール・グリーンバーグ:そうです。
Michael Wu:パンデミック後の時代には、すべてがデジタルに移行し、物事はより透明になります。 人々は実際に他のすべてのベンダーをオンラインで見ることができます。 したがって、実際には、顧客がエクスペリエンスを変更するのは非常に簡単です。 たとえば、あなたにオファーが表示された場合、カスタマーエクスペリエンスはあるかもしれませんが、すぐに別のベンダーが同じものを、たとえば10%安く提供しているのを見ると、すぐにカスタマーエクスペリエンスが変わります。 この透明性は、顧客の期待が変動し、環境に大きく影響される可能性があるため、顧客体験を非常に困難にします。 雨が降っているような悪い日に目覚めたとしても、顧客体験は最悪になる可能性があります。 したがって、これらに対応するには、常に変化し、絶えず変化する顧客の期待に対応するために、「オンラインでお手伝いできます」と言うようなものが必要です。
私は、あなたが実際に人間を扱っている伝統的な世界では、人間は顧客の期待を測定するのに非常に優れていると思います。 私があなたと話している場合、あなたが顔を合わせて見ていると、あなたのボディーランゲージは、あなたが私が提供しているものや何かについて幸せかどうかについて何かを教えてくれます。 しかし、オンラインでマシンと話しているとき、顧客が実際の人と関わっていないときは、顧客の期待が何であるかを判断するのは非常に困難になります。 それで、どうやってそれをしますか? つまり、リアルタイムのライブストリームが必要なのは、顧客がいる環境コンテキストデータ、またはどのチャネルが入っているか、どの地域にあるか、この顧客に関する他のすべてのコンテキストデータです。次に、AIが相手の顧客を理解するのを支援します。 しかし、この時代に認識すべき重要なことは、ビッグデータがあっても、十分なデータがないということです。
全体としてビッグデータがあると思いますが、単一の顧客または単一の連絡先を扱う場合はいつでも、その意思決定に役立つデータが大幅に削減されます。 そこにはたくさんのデータがあります。 それの多くは実際にはいくつかのコンテキストで役立ちますが、現時点でこの特定のコンテキストで、私はこの時点でこの顧客を扱っていますが、何をすべきかを決定するのに役立つ関連データは実際にはかなり小さいです。 したがって、重要なことはそれらのデータを識別することです。 2つ目は、この情報が入ってくるこれらの新しいチャネルがあると言うとき、AI、その美しさの1つは学習する能力です。 そのため、AIには機械学習と呼ばれるコンポーネントがあり、データから実際に学習できるようになっています。 だから、それはそれが適応することを可能にします。 あなたが学んでいるとき、あなたは適応することができます。 つまり、これは実際には人間の働きと同じです。 この新しいストリームを見ると、たとえばTikTokが入ってくるのを見て、最初に「無視しましょう」と言います。
しかし、しばらくすると、TikTok、TikTok、TikTokが表示され、「ああ、わかりました。 多分私はそれに注意を払うべきです。」 あなたが学ぶ、あなたはより頻繁に来ることが多いのを見るので、それはますます関連性が高くなります。 次に、この世界がどのように機能するかについてのモデルを実際に変更し、この特定のチャネルに、これまで注目していなかった従来の他のチャネルよりも重点を置く必要があります。 つまり、これはAIが動作するのとまったく同じ方法です。 まず、この新しいチャネルにほとんど重点を置いていないと言うでしょうが、それがますます頻繁に発生するにつれて、基本的にアルゴリズムを修正して、関連性があることが判明した場合は、このチャネルにますます重点を置き始めます。 多分それが非常に騒々しく、非常に騒々しいが、それが実際には関係がない場合、あなたは待っているか、そのチャンネルがまだかなり低いレベルにあるという影響を続けるでしょう。 これは学習プロセスであり、機械学習を通じてこれらのAIシステムで実際に学習が可能になると思います。
中小企業の動向:それはAIの倫理的な使用にどのように影響しますか? 収束または発散が見られますか? より多くのデータ、より少ない倫理? それとも、より多くのデータ、より多くの倫理ですか? 彼らはまったく関係がありますか? 私たちが見つけたデータが多ければ多いほど、「どうしても必要な」古いマルコムXであった方法でこのようなものを使用したいという誘惑が高まります。 しかし、これでより多くのデータがスローされるにつれて、AIの背後にある倫理はさらに良くなっていますか?
Michael Wu:確かにもっと意識があると思います。 今のところ、公平性、透明性があると思います。 人々はこのブラックボックスの問題について話します。 このAI、私たちはそれがどのように決定を下しているのか、そしてすべてを知りません。 ですから、それは挑戦ですが、実際には、この倫理と公平性と説明責任の分野に注意を向ける人がますます増えています。 したがって、これらすべての余分なデータは、私たちが使用しているビッグデータであり、非常に魅力的です。 しかし、これらのデータサイエンティストに等しく挑戦するには、反対の力が必要だと思います。 これが必要だと思います。2つのグループの間に健全な緊張関係があると思います。 AIの科学者がすべてを指示する必要があるわけではありません。 進歩はすべてを推進するべきではありません。 それは進歩のすべてではありませんが、規制のすべてでもありません。 つまり、2つのグループは、私たちが心配している問題を提起するこの種の健全な緊張を持っている必要があると思います。
そして、あなたが問題を提起しなければ、科学者はそれを解決しません。 "できます。 なぜこの問題に対処するのですか?」 したがって、その問題を提起すると、ますます多くの科学者がその問題に気づき、「これは、これをより良く、人類にとって、すべての人にとってより良いものにするために取り組む必要のある挑戦的な問題です」と言うでしょう。 だからこそ、その健康的な緊張がそこにある必要があります。 そして今、あなたの質問に答えるために、そうです、彼らはますますこれらを持ち出していると思います。 今のところ、解決策よりも多くの質問があると思いますが、振り子は揺れ動きます。 以前は、それはすべてAIの進歩だったので、片側のすべての振り子です。 そして今、人々はAIの力、これらすべての倫理に気づいています。 私自身、倫理学者のほぼ半分が次のように述べています。 グループなどを軽視しないように、データの倫理的な使用法を検討する必要があります。」
実は今、その側にはたくさんの声があり、それは多くの懸念を引き起こします。 まだ解決策はありませんが、実際にこれらの問題に取り組む人が増えていると思います。
中小企業の動向:ええと、倫理そのもの、またはAIをプログラミングしている人は誰でも、彼らの倫理のセットに従わなければならず、すべての人の倫理のセットが同じであるとは限らないので、それは難しいでしょう。 そして、私が思うもう1つのことは、データサイエンスを実際に作成している人々の集合または人口であり、それは均質な人々のグループに近いものです。 それほど変化はありません。 それほど多様ではありません。 倫理的なAIが必要なだけでなく、もう少し代表的なものにするためには包括的なAIが必要なのとほぼ同じです。それが、それを実行している人々の中で最も欠けている可能性があることだと思います。
顔認識について話したときに素晴らしいNetflixがあり、AIが他の何かから黒人女性を検出できなかったので、あなたがそれが変わっていると言ってくれてとてもうれしいです、そしてその理由の一部はAIを作成していたのは、それが検出しようとしていた黒人女性のようには見えませんでした。 そして、それはこれに欠けている要素の1つです。
