記事"CURLを使用した HTML の解析"についてのディスカッション

 

新しい記事 CURLを使用した HTML の解析 はパブリッシュされました:

この記事では、サードパーティのコンポーネントを使用してライブラリを解析する簡単な HTML コードについて説明します。 特に、GET リクエストと POST リクエストでは取得できないデータにアクセスする方法について説明します。 ページが大きすぎないウェブサイトを選定し、該当サイトから興味深いデータを取得しましょう。

"要点は何でしょうか。" 簡単な解決策は、MQLスクリプトから直接サイトページにアクセスし、既知のページポジションにある既知の位置を読み取ることです。 その後、受信した文字列をさらに処理できます。 可能性のある方法の 1 つです。 しかし、この場合、MQL スクリプトコードはページのHTMLコードに密接にバインドされます。 HTML コードが変更された場合はどうなるでしょうか。 そのため、HTML ドキュメントを使用してツリーのような操作を可能にするパーサーが必要です (詳細については別のセクションで説明します)。 MQLでパーサーを実装する場合、パフォーマンスの面で便利で効率的でしょうか? このようなコードを適切に保守できるでしょうか。 そのため、解析関数は別のライブラリで実装します。 ただし、パーサーはすべての問題を解決するわけではありません。 必要な機能を実行します。 しかし、サイトのデザインが根本的に変更され、他のクラス名と属性を使用する場合はどうでしょうか。 この場合、検索オブジェクトまたはイベント複数のオブジェクトを変更する必要があります。 したがって、目標の1つは、できるだけ早く、最小限の労力で必要なコードを作成することです。 既製のパーツを使えば良くなります。 これより、デベロッパはコードを保持し、上記の状況に応じてすばやく編集できます。

ページが大きすぎないウェブサイトを選定し、該当サイトから興味深いデータを取得しましょう。 この場合、データの種類は重要ではありませんが、便利なツールを作成してみましょう。 もちろん、このデータはターミナルの MQL スクリプトで使用できる必要があります。 プログラム コードは標準DLLとして作成されます。

この記事では、非同期呼び出しとマルチスレッドを使用せずにツールを実装します。

作者: Andrei Novichkov