# 智能 AI 代理(一分钟内)

Wenn Ihre Anwendung nicht für die Zusammenarbeit mit einer HTTP/S-basierten API zum Crawlen 和 Scrapen von Websites wie der Crawling API代理代理、代理机构和模具 Crawling API。 Sie verwenden es einfach als normalen Proxy in Ihrer Anwendung。

Alle Proxy-Anrufe sollten an eine der folgenden Adressen gehen:

  • HTTPS: https://smartproxy.crawlbase.com 上午港 8013 (受到推崇的)
  • HTTP: http://smartproxy.crawlbase.com 上午港 8012

Verwenden Sie Ihr Zugriffstoken als Proxy-Benutzernamen。

Daher ist Ihr erster Anruf so einfach wie das Ausführen einer der folgenden Zeilen im Terminal. Probieren Sie es aus!

HTTPS 的使用(empfohlen):

curl -x "https://[email protected]:8013" -k "https://httpbin.org/ip"

使用 HTTP 替代方案:

curl -x "http://[email protected]:8012" -k "https://httpbin.org/ip"

# 它是如何工作的?

如果您是代理发送的,则代理代理的自动授权与代理自动授权和私人授权的授权相同。 Anschließend leitet er Ihre Anfrage an den Crawling API und geben Sie die Antwort dann an Ihre Anwendung zurück。 Wenn Sie die zusätzlichen Funktionen des Crawling API 在发送方式中,发送 HTTP 标头 crawlbaseAPI-Parameters 并发送 Sie die Optionen,die Sie verwenden möchten。 Im Abschnitt Beispiele unten finden Sie echte Beispiele。

私掠者代币

_USER_TOKEN_

# 重要的注意事项

Wenn Sie Anfragen über den Smart AI Proxy stellen, sollten Sie die SSL-Verifizierung für die Ziel-URLs deaktivieren (mithilfe von -k 在 anderen Sprachen 中的“curl oder gleichwertige Optionen”中)。死亡不是,da der Proxy die Anfrage/Antwort prüfen und möglicherweise ändern muss, um seine smarten Funktionen bereitzustellen.