# 约会 Crawler 乌伯特拉根

在您的 URL 上 Crawler 发送,请您稍后 Erstellen Sie hier einen neuen Crawler (关闭新窗户) (打开新窗口).

通过 URL 进行爬取 Crawler zu Pushen,müssen Sie den [Crawling-API]/de/crawling-api/) mit zwei zusätzlichen 参数:

In 回答我的 Crawler-推发送 API 和 JSON-Darstellung 并发送给 Anforderungskennung (RID) zurück。 RID ist eindeutig und hilft Ihnen, die Anforderung in Zukunft jederzeit zu identifizieren.

推送答案的示例:

{ "rid": "1e92e8bff32c31c2728714d4" }

Standardmäßig können Sie bis zu 30 URLs pro Sekunde and den Crawler 发送。

# Crawler-消除限制

一切的总和 Crawler-Warteschlangen ist auf 1 Million Seiten begrenzt. Wenn eine oder alle Warteschlangen zusammen mehr als 1 Million Seiten umfassen, wird Ihr Crawler- 根据电子邮件 Benachrichtigt 推送 vorübergehend angehalten und Sie werden。德尔 Crawler- 推动自动堡垒,在 1 万个 Seiten 下将 Anzahl der Seiten 放入 Warteschlangen。

# 数据的超范围保护

可选的 Können Sie benutzerdefinierte Header für Ihren Rückruf erhalten, wenn Sie den callback_headers 范围。这是理想的,um zusätzliche Daten zu Identifikationszwecken an Ihre Seite weiterzugeben。

格式如下: HEADER-NAME:VALUE|HEADER-NAME2:VALUE2|etc. Un es muss richtig codiert sein.

标题和文字的游戏 MY-ID 1234, some-other 4321

&callback_headers=MY-ID%3A1234%7Csome-other%3A4321

Diese Header 位于 der Webhook-Post-Anfrage zurückgegeben 中。