# 日期变更 Enterprise Crawler

请注意 URL 和骰子上的 Pushen Crawler您必须首先 第一个新 Crawler Einer hier (öffnet neues Fenster) (打开新窗口).

嗯 URL zu Pushen, die von der Crawler您必须使用 Crawling API mit zwei zusätzlichen 参数:

In 回答我的 Crawler-推发送 API 和 JSON-Darstellung 并发送给 Anforderungskennung (RID) zurück。 RID ist eindeutig und hilft Ihnen, die Anforderung in Zukunft jederzeit zu identifizieren.

推送答案的示例:

{ "rid": "1e92e8bff32c31c2728714d4" }

Standardmäßig können Sie bis zu 30 URLs pro Sekunde and die Crawler.

# 死 Enterprise Crawler 战争极限

一切的总和 Crawler Warteschlangen sind auf 1 Million Seiten begrenzt。 Wenn eine oder alle Warteschlangen zusammen mehr als 1 Million Seiten umfassen, Crawler 按电子邮件推送 vorübergehend pausiert und wir benachrichtigen Sie。 Crawler Der Push-Vorgang wird automatisch fortgesetzt,sobald die Anzahl der Seiten in der Warteschlange (den Warteschlangen) under 1 Million liegt。

# 数据的超范围保护

可选的 Können Sie benutzerdefinierte Header für Ihren Rückruf erhalten, wenn Sie den callback_headers 范围。这是理想的,um zusätzliche Daten zu Identifikationszwecken an Ihre Seite weiterzugeben。

格式如下: HEADER-NAME:VALUE|HEADER-NAME2:VALUE2|etc. Un es muss richtig codiert sein.

标题和文字的游戏 MY-ID 1234, some-other 4321

&callback_headers=MY-ID%3A1234%7Csome-other%3A4321

Diese Header 位于 der Webhook-Post-Anfrage zurückgegeben 中。