企業が Web スクレイピングを PromptCloud にアウトソーシングする理由
公開: 2017-06-24ビジネスの世界では、日を追うごとに数が増え続けるさまざまなユースケースを補完するために Web データを急速に採用しているため、信頼できる Web スクレイピング サービスの必要性が急増しています。 多くのビジネス オーナーは、Web 上の任意の Web サイトからデータをクロールするための魔法のソリューションであると主張する日曜大工のツールに陥るという過ちを犯すことがよくあります。 Web スクレイピングについて最初に知っておくべきことは、任意の Web サイトからデータを抽出できるすぐに使えるソリューションはないということです。

これは、そこにある DIY Web スクレイピング ツールが機能しないと言っているのではなく、機能します。 問題は、これらのツールがスムーズに機能するのは、残念ながら存在しない完全な Web の世界だけだということです。 すべての Web サイトは、データの表示方法が異なります。ナビゲーション、コーディング方法、動的スクリプトの使用など、Web サイトの構築方法は非常に多様です。 これが、すべての Web サイトを同様に処理できる Web スクレイピング ツールを作成することが現実的でない理由です。
Webスクレイピングに関しては、ツールは方程式から外れています. Web からのデータの抽出は、完全に管理されたサービスであることが理想的であり、過去 8 年間で完成させてきました。 Web スクレイピング ツールがエンタープライズ レベルの Web データ抽出に適していない理由について、私たちの言葉を鵜呑みにする必要はありません。
「マジック」ツールを捨ててマネージド Web スクレイピング サービスに切り替えることを決めた理由について、クライアントからの回答の一部をまとめました。
ますます複雑化するウェブサイト
これは、最近私たちのブログの 1 つに寄せられたコメントです。
「イエローページのデータをクロールしようとしています。 64ページにおよぶお店のリストを見つけました。 会社名、住所、電話番号のセレクターを追加しました。 名前、住所、電話番号の検査/コピー/コピー セレクターの各フィールドを右クリックしました。 ページ/[001-064] の末尾のみを変更して URL をスクレイピングしました。 クロールをクリックすると、驚いたことに、スクレイピングされたデータはページ 001 だけでした。各セレクター フィールド (名前、住所、電話番号) の複数のタブをクリックしました。 最初のページのデータしか取得できなかったのはなぜですか? クロール ツールは、64 ページすべてについて各企業 (1 ページあたり 30) について同じデータが必要であることを認識する必要がありますか? 前もって感謝します。"
このコメンテーターは機密扱いの Web サイトからデータをクロールしようとしましたが、彼が使用していたツールはキュー内の内部ページに移動できず、最初のページのみをスクレイピングしました。 これは Web スクレイピング ツールに関連する一般的な問題です。単純なナビゲーション構造を使用するサイトでは問題なく動作する傾向がありますが、サイトが適度に複雑なナビゲーションを使用していても失敗します。 ユーザー エクスペリエンスの向上を目的として、現在多くのサイトが AJAX ベースの無限スクロールを採用しており、これがさらに複雑になっています。 このような動的コーディングの実践では、すべてではないにしても、ほとんどの Web スクレイパー ツールが役に立たなくなります。
ここで必要なのは、完全にカスタマイズ可能なセットアップと専用のアプローチです。手動レイヤーと自動レイヤーの組み合わせを使用して、Web サイトが AJAX 呼び出しを受信し、カスタム ビルドのクローラーを使用してそれらを模倣する方法を把握します。 Web サイトの複雑さが時間の経過とともに増加し続けるにつれて、厳格なツールではなく、カスタマイズ可能なソリューションの必要性がますます明白になります。
抽出プロセスのスケーラビリティ
これは、社内のクロール設定を構築しようとした後、プロセスを拡張できなかったクライアントの 1 人からのメモです。
私たちはすべてのクローラーを自分たちで構築しましたが、私たちのやり方には満足していません。より良い解決策があるので、お話ししたいと思います. 最終的には 5000 以上の小売サイトをクロールできるソリューションも必要です。
多くの起業家は、車輪の再発明の必要性を感じています。 これはNIH (ここでは発明されていません)症候群としてもよく知られています。簡単に言えば、プロセスをアウトソーシングするのではなく、社内で実行したいという衝動です。 もちろん、社内で行う方が適切なプロセスもいくつかあります。その好例がカスタマー サポートです。 カスタマー サポートのアウトソーシングは冒涜です。

ただし、Web スクレイピングはその 1 つではありません。 大規模な Web データ抽出に関連する複雑さはニッチすぎて、完全にそれに慣れていない企業が習得することはできないため、これは実際には致命的な間違いになる可能性があります。 既存のクライアントの多くが、社内でスクレーパーを構築しようとしていて、後で私たちのソリューションに頼っていることに気付きました。 貴重な時間と労力を失ったことに加えて。
誰でも 1 つの Web ページをクロールできるのは事実です。 本当の課題は、何百万もの Web ページを同時に抽出し、そのすべてを構造化された機械可読データに処理することにあります。 当社の Web スクレイピング ソリューションの USP の 1 つは、スケーラビリティの側面です。 地理的に分散した高性能サーバーのクラスターにより、Web データを大規模に抽出するための堅固なインフラストラクチャを構築しました。
データの品質とメンテナンス
あるクライアントは、使用していたツールが構造化データを提供できなかったため、高品質のデータを提供できるソリューションを探していました。
正直なところ、私たちは現在無料のサービスを使用しており、すべてが非常にうまく機能しています。 すべてのページのデータを 1 つの Excel シートにインポートしてから、それらを podio にインポートできます。 しかし、この時点では、情報をうまくフィルタリングすることはできません。 しかし、私たちはこの問題を解決するために彼らと緊密に連絡を取り合っています。 実際、現在の解決策は少し一定していないため、何度も何度も考える必要があります。 すぐに使用できるソリューションはありますか?
Web から情報を抽出すること自体が複雑なプロセスです。 しかし、ウェブ上にある構造化されていない情報を、完全に構造化されたクリーンで機械可読なデータに変換することは、さらに困難です。 データの品質は私たちが誇りに思っていることであり、データの品質をどのように維持しているかについては、以前のブログ投稿で詳しく知ることができます。
物事を大局的に見ると、非構造化データはデータがないのと同じくらい良いものです。 マシンがそれを読み取ることができない場合、データ内の膨大な量の情報を理解することはできません。
また、完全に機能する Web クローリングのセットアップを構築して、それを忘れることはできません。 Web は本質的に非常に動的です。 データ品質を維持するには、手動レイヤーと自動レイヤーの両方を使用して、一貫した努力と綿密な監視が必要です。 これは、Web サイトが頻繁に構造を変更するため、クローラーが故障したり停止したりする可能性があり、どちらも出力データに影響します。 データ品質の保証とタイムリーなメンテナンスは、Web クローリングのセットアップを実行するために不可欠です。 PromptCloud では、これらの側面のエンド ツー エンドの所有権を取得します。
手間のかからないデータ抽出
最近、お客様からのフィードバックを集めました。回答の 1 つからの抜粋を次に示します。
私たちには独自のソリューションがあり、それは機能しましたが、常に微調整する必要があり、貴重な開発リソースが盗まれていました。 クローリングによるデータ取得のニーズが高まる中、データ取得はますます複雑になっていると思います。
私たちと 5 年間一緒に働いているこのクライアントは、以前は独自の Web クローリング セットアップを持っていましたが、プロセスの複雑さと煩わしさをなくしたいと考えていました。 これは、ビジネスの観点から見ても素晴らしい決断です。 特に現在、すべての市場で競争がピークに達していることを考えると、どのようなビジネスでも、成長と成功を収めるためにはコア サービスに専念する必要があります。 Web データ抽出に伴うセットアップ、定期的なメンテナンス、およびその他すべての複雑さは、内部リソースを簡単に占有し、ビジネス全体に打撃を与える可能性があります。
技術の壁を越える
この最近のリードには、自分で Web クローリング プロジェクトを設定して実行するために必要な技術的専門知識がありませんでした。
私たちがあなたたちを利用する方法は、潜在的に、自分たちでサイトを追加する能力と専門知識がない場合に、顧客の要求に基づいて必要に応じてサイトを追加することだと考えています. また、プルする必要のある URL もありません。そのため、すべての製品ページをプルするには、サイトをスパイダー化する必要があります。
Web スクレイピングは技術的に要求の厳しいプロセスです。つまり、データ抽出を行うために、最適化されたサーバーにクローラーをセットアップして展開するには、有能な開発者のチームが必要です。
ただし、すべての企業がスクレイピングの専門家であることを意図しているわけではありません。それぞれに独自の中心的な焦点があるためです。 テクノロジーが得意でない場合は、Web データを抽出するためにサービス プロバイダーに依存する必要があることは完全に理解できます。 Web データ抽出分野での長年の専門知識により、現在、あらゆる複雑さと規模の Web スクレイピング プロジェクトを引き受ける立場にあります。
結論
ビジネスの世界で Web データの需要が高まっているため、企業が Web 上で入手可能なデータの宝庫を取得するためのより良い方法を探し始めることは避けられません。 Web データ抽出のさまざまな側面を見ると、スクレイピングの専門家に任せるのがよい方法であることは明らかです。
