烂番茄网 是一个受欢迎的电影评级和评论网站。该平台提供有关电影、电视节目甚至观众意见的宝贵信息。烂番茄为电影爱好者、研究人员和开发人员提供数据。
本博客将向您展示如何使用 Python 爬取烂番茄电影评分。由于烂番茄使用 JavaScript 渲染,我们将使用 Crawlbase 爬取 API 处理动态内容加载。读完本篇博文后,您将了解如何提取关键电影数据(如评级、上映日期和评论)并将其存储在 JSON 等结构化格式中。
现在,让我们一步一步地深入了解这个过程!
目录
- 为什么要从烂番茄上查找电影评级?
- 从烂番茄中提取的关键数据点
- Crawlbase 抓取 API,用于烂番茄抓取
- 设置 Python 环境
- 安装 Python 和所需的库
- 设置虚拟环境
- 选择 IDE
- 抓取烂番茄电影列表
- 检查 HTML 结构
- 编写烂番茄电影列表抓取工具
- 处理分页
- 将数据存储在 JSON 文件中
- 完整代码示例
- 烂番茄电影详情
- 检查 HTML 结构
- 编写烂番茄电影详情抓取工具
- 将数据存储在 JSON 文件中
- 完整代码示例
- 总结
- 常见问题
为什么要从烂番茄上查找电影评级?
烂番茄是电影评分和评论的可靠来源,因此它是一个不错的电影数据抓取网站。无论您是电影爱好者、数据分析师还是开发人员,您都可以抓取烂番茄以了解电影趋势、观众偏好和评论家评分。
以下是您应该从烂番茄网站搜索电影评级的几个原因。
- 访问评论家评论:烂番茄提供影评人评论,让您了解专业人士对电影的看法。
- 观众评分:获取观众评分,显示公众对电影的感受。
- 影片详情:烂番茄提供片名、类型、发布日期等数据。
- 人气追踪:通过抓取一段时间内的评分,您可以监控类型、导演或演员的受欢迎程度的趋势。
- 创建个人电影数据库:收集评级和评论,构建用于研究、推荐或个人项目的自定义数据库。
从烂番茄抓取电影评分时,你应该专注于获取最重要的数据点。这些数据点将为你提供有关电影的接受度、受欢迎程度和表现的重要信息。以下是你应该提取的数据点:
- 电影标题:电影名称是他们掌握的第一条信息。这将帮助您根据特定电影对抓取的数据进行分类。
- 评论家评分(番茄计):烂番茄有一个评论家评分,称为“烂番茄计”。该评分是根据经认可的评论家的评论计算得出的,可反映电影评论共识的总体情况。
- 观众分数:观众评分反映了公众对特定电影的喜好程度。因此,在比较专业和公众对不同电影的看法时,该评分非常有用。
- 评论数:评论家评分和观众评分是根据可用的评论数量计算的。要确定评分的可靠性,您还需要提取这些数据。利用这些知识的方法之一是比较不同年份的电影,并在知道某部电影的上映日期的情况下分析随时间的变化。
- 发布日期:上映日期可用于比较不同年份的电影并分析随时间的变化。
- 流派:烂番茄数据库中的电影按类型分类,如戏剧、动作或喜剧。因此,类型与根据观众的兴趣对电影评级进行分类有关。
- 电影简介:提取电影的简短描述/概要将帮助您获取有关电影故事情节和主题的背景信息。
- 演职人员:烂番茄上有电影的演员和剧组名单。这些数据对于追踪特定导演、演员或编剧的电影很有用。
Crawlbase 抓取 API,用于烂番茄抓取
我们将使用 Crawlbase 爬取 API 获取烂番茄的电影评分和其他数据。使用简单的方法抓取烂番茄很难,因为该网站使用 JavaScript 动态加载其内容。Crawlbase Crawling API 旨在处理动态、JavaScript 密集的网站,因此它是快速轻松地抓取烂番茄的最佳方式。
为什么要使用 Crawlbase 刮掉烂番茄?
JavaScript 用于加载烂番茄页面的动态内容,包括观众评分、评论和评分。这些网站对于像 requests
因为他们无法管理 JavaScript 渲染,所以很难处理。Crawlbase Crawling API 解决了这个问题,它通过服务器端 JavaScript 渲染确保您获得完全加载的 HTML,并包含所有必要的数据。
这就是为什么 Crawlbase 是抓取烂番茄的可靠选择:
- JavaScript渲染:它自动处理依赖 JavaScript 加载内容的页面,例如评级或评论。
- 内置代理:Crawlbase 包括旋转代理以避免 IP 阻止和验证码,从而使您的抓取保持顺畅。
- 可定制的参数:您可以调整 API 参数,例如
ajax_wait
和 page_wait
确保在开始抓取之前每部分内容都已完全加载。 - 可靠和快速:Crawlbase 专为提高效率而设计,可让您快速从烂番茄中抓取大量数据集,并且几乎不会造成中断。
Crawlbase Python 库
Crawlbase 提供自己的 Python 图书馆 为简单起见。要使用它,您需要一个来自 Crawlbase 的访问令牌,您可以通过注册 帐户.
以下是使用 Crawlbase Crawling API 发送请求的示例函数:
1 2 3 4 5 6 7 8 9 10 11 12 13
| from 爬行基地 进口 抓取API
爬行 API = 爬行 API({'令牌': 'YOUR_CRAWLBASE_TOKEN'})
DEF make_crawlbase_request(网址): 响应=crawling_api.get(url)
if 回复[“标题”]['pc_status'] == '200': 回报 回复['身体']。解码('utf-8') 其他: 打印(f"无法获取页面。Crawlbase 状态代码: {回复[“标题”]['pc_status']}") 回报 没有
|
备注:对于静态网站,请使用普通令牌。对于烂番茄等动态网站,请使用 JS 令牌。Crawlbase 提供 1,000 个免费请求,无需信用卡即可开始使用。有关更多详细信息,请参阅 Crawlbase 抓取 API 文件.
在接下来的部分中,我们将介绍如何设置 Python 环境和使用 Crawlbase Crawling API 抓取电影数据的代码。
设置 Python 环境
要从烂番茄抓取数据,您需要做的第一件事就是设置 Python 环境。这包括安装 Python、创建虚拟环境以及确保所需的所有库都已到位。
安装Python
第一步是确保你的系统上安装了 Python。前往 Python官方网站 下载最新版本。请记住选择与您的操作系统(Windows、macOS 或 Linux)匹配的版本。
设置虚拟环境
使用虚拟环境是管理项目依赖项的明智方法。它可以帮助您保持整洁并防止与其他项目发生冲突。您可以按照以下方法操作:
打开终端或命令提示符。
转到您的项目文件夹。
运行以下命令创建虚拟环境:
激活虚拟环境:
在Windows上:
在 macOS/Linux 上:
安装所需的库
接下来,您需要安装所需的库,包括用于数据处理的 Crawlbase 和 BeautifulSoup。在终端中运行以下命令:
1
| pip 安装 crawlbase beautifulsoup4
|
- 爬虫库:用于与 Crawlbase 产品(包括 Crawling API)进行交互。
- 美丽汤:用于解析HTML并提取所需的数据。
选择 IDE
为了顺利编写和运行 Python 脚本,请使用优秀的 IDE(集成开发环境)。以下是一些:
现在您已设置好环境,让我们开始使用 Python 从烂番茄上抓取电影评分。在下一节中,我们将介绍从烂番茄中提取电影评分和其他信息的代码。
抓取烂番茄电影列表
在这里,我们将从烂番茄网站抓取电影列表。我们将查看 HTML、编写抓取工具、处理分页并组织数据。我们将使用 Crawlbase 抓取 API 来抓取 JavaScript 和动态内容。
检查 HTML 结构
在编写抓取工具之前,我们需要检查烂番茄页面,看看其结构是什么样的。这将帮助我们了解目标是什么。
- 打开烂番茄页面:转到要抓取的页面。例如,我们正在抓取 票房最火电影榜单.
- 打开开发者工具:右键单击页面并选择“检查”或按
Ctrl+Shift+I
(Windows)或 Cmd+Option+I
(苹果电脑)。
识别影片容器:烂番茄上的电影通常位于
父元素内含有 flex-container 类的元素
其属性data-qa=”discovery-media-list”。
找到关键数据:
- 职位名称:通常在
<span>
具有类似属性 data-qa="discovery-media-list-item-title"
。这是电影名称。 - 评论家评分:在
rt-text
元素与 slot="criticsScore"
。这是影评人对这部电影的评分。 - 观众分数:同样在
rt-text
元素,但 slot="audienceScore"
。这是这部电影的观众评分。 - 链接:电影链接通常位于
<a>
标记 data-qa
开头的属性 discovery-media-list-item
。您可以提取 href
此元素的属性可获取电影页面的链接。
编写烂番茄电影列表抓取工具
现在我们知道了结构,让我们编写抓取程序。我们将使用 Crawlbase Crawling API 来获取 HTML,并使用 BeautifulSoup 来解析页面并提取标题、评级和链接。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37
| from 爬行基地 进口 抓取API from bs4 进口 美丽汤
爬行 API = 爬行 API({'令牌': 'CRAWLBASE_JS_TOKEN'})
DEF 获取html(网址): 选项= { 'ajax_等待': '真的', '页面等待': '5000' } 响应=crawling_api.get(url,选项) if 回复[“标题”]['pc_status'] == '200': 回报 回复['身体']。解码('utf-8') 其他: 打印(f“无法获取数据。状态代码: {回复[“标题”]['pc_status']}") 回报 没有
DEF 解析电影(HTML): 汤 = BeautifulSoup(html, 'html.parser') 电影 = 汤.选择('div[data-qa="discovery-media-list"] > div.flex-container')
电影数据 = [] 电影 in 电影: 标题 = 电影.select_one('span[data-qa="发现媒体列表项目标题"]').text.strip() if 电影.select_one('span[data-qa="发现媒体列表项目标题"]') 其他 '' 评论家分数 = 电影.select_one('rt-text[slot="criticsScore"]').text.strip() if 电影.select_one('rt-text[slot="criticsScore"]') 其他 '' 观众分数 = 电影.select_one('rt-text[slot="audienceScore"]').text.strip() if 电影.select_one('rt-text[slot="audienceScore"]') 其他 '' 链接 = 电影.select_one('a[data-qa^="发现媒体列表项"]')['href'] if 电影.select_one('a[data-qa^="发现媒体列表项"]') 其他 ''
电影数据.附加({ '标题': 标题, ‘批评家分数’:批评家评分, ‘观众评分’:观众分数, '关联': 'https://www.rottentomatoes.com' + 链接 })
回报 电影数据
|
处理分页
Rotten Tomatoes 使用基于按钮的分页来显示电影列表。我们需要通过单击“加载更多”按钮来处理分页。Crawlbase Crawling API 允许我们使用 css_click_selector
参数。
1 2 3 4 5 6 7 8 9 10 11 12
| DEF fetch_html_with_pagination(网址): 选项= { 'ajax_等待': '真的', '页面等待': '5000', ‘css_click_selector’: '按钮[data-qa="dlp-load-more-button"]' } 响应=crawling_api.get(url,选项) if 回复[“标题”]['pc_status'] == '200': 回报 回复['身体']。解码('utf-8') 其他: 打印(f“无法获取数据。状态代码: {回复[“标题”]['pc_status']}") 回报 没有
|
此代码将单击“加载更多”按钮,在抓取数据之前加载更多电影列表。
将数据存储在 JSON 文件中
抓取电影数据后,我们可以将其保存为 JSON 等结构化格式的文件。
1 2 3 4 5 6
| 进口 JSON
DEF 保存到json(数据,文件名=‘电影.json’): - 打开(文件名, 'w') as 文件: json.dump(数据,文件,缩进=4) 打印(f”数据保存至 {文档名称}")
|
完整代码示例
这是将所有内容整合在一起的完整代码,获取 HTML、解析电影数据、处理分页并将结果保存到 JSON 文件。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51
| from 爬行基地 进口 抓取API from bs4 进口 美丽汤 进口 JSON
爬行 API = 爬行 API({'令牌': 'CRAWLBASE_JS_TOKEN'})
DEF fetch_html_with_pagination(网址): 选项= { 'ajax_等待': '真的', '页面等待': '5000', ‘css_click_selector’: '按钮[data-qa="dlp-load-more-button"]' } 响应=crawling_api.get(url,选项) if 回复[“标题”]['pc_status'] == '200': 回报 回复['身体']。解码('utf-8') 其他: 打印(f“无法获取数据。状态代码: {回复[“标题”]['pc_status']}") 回报 没有
DEF 解析电影(HTML): 汤 = BeautifulSoup(html, 'html.parser') 电影 = 汤.选择('div[data-qa="discovery-media-list"] > div.flex-container')
电影数据 = [] 电影 in 电影: 标题 = 电影.select_one('span[data-qa="发现媒体列表项目标题"]').text.strip() if 电影.select_one('span[data-qa="发现媒体列表项目标题"]') 其他 '' 评论家分数 = 电影.select_one('rt-text[slot="criticsScore"]').text.strip() if 电影.select_one('rt-text[slot="criticsScore"]') 其他 '' 观众分数 = 电影.select_one('rt-text[slot="audienceScore"]').text.strip() if 电影.select_one('rt-text[slot="audienceScore"]') 其他 '' 链接 = 电影.select_one('a[data-qa^="发现媒体列表项"]')['href'] if 电影.select_one('a[data-qa^="发现媒体列表项"]') 其他 ''
电影数据.附加({ '标题': 标题, ‘批评家分数’:批评家评分, ‘观众评分’:观众分数, '关联': 'https://www.rottentomatoes.com' + 链接 })
回报 电影数据
DEF 保存到json(数据,文件名=‘电影.json’): - 打开(文件名, 'w') as 文件: json.dump(数据,文件,缩进=4) 打印(f”数据保存至 {文档名称}")
if __名字__ == “__主要的__”: 网址= 'https://www.rottentomatoes.com/browse/movies_in_theaters/sort:top_box_office' html_content = fetch_html_with_pagination(url) if html_内容: 电影数据 = 解析电影(html内容) 保存到json(电影数据)
|
示例输出:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45
| [ { “标题”: “甲壳虫汁 甲壳虫汁”, “评论家分数”: “77%”, “观众分数”: “81%”, “关联”: “https://www.rottentomatoes.com/m/beetlejuice_beetlejuice” }, { “标题”: “死侍与金刚狼”, “评论家分数”: “79%”, “观众分数”: “95%”, “关联”: “https://www.rottentomatoes.com/m/deadpool_and_wolverine” }, { “标题”: “异形:罗慕路斯”, “评论家分数”: “80%”, “观众分数”: “85%”, “关联”: “https://www.rottentomatoes.com/m/alien_romulus” }, { “标题”: “一切都由我们来结束”, “评论家分数”: “57%”, “观众分数”: “91%”, “关联”: “https://www.rottentomatoes.com/m/it_ends_with_us” }, { “标题”: “熔炉”, “评论家分数”: “73%”, “观众分数”: “99%”, “关联”: “https://www.rottentomatoes.com/m/the_forge” }, { “标题”: “龙卷风”, “评论家分数”: “75%”, “观众分数”: “91%”, “关联”: “https://www.rottentomatoes.com/m/twisters” }, { “标题”: “眨眼两次”, “评论家分数”: “74%”, “观众分数”: “69%”, “关联”: “https://www.rottentomatoes.com/m/blink_twice” }, ... 更多 ]
|
在下一节中,我们将讨论抓取单个电影的详细信息。
烂番茄电影详情
现在,我们将继续从烂番茄中抓取单个电影的详细信息。获得电影列表后,您需要提取每部电影的详细信息,例如上映日期、导演、类型等。本部分将引导您检查电影页面的 HTML、编写抓取工具并将数据保存到 JSON 文件中。
检查 HTML 结构
在开始编写抓取工具之前,我们需要检查特定电影页面的 HTML 结构。
打开电影页面:从您之前抓取的列表中转到某个电影的页面。
打开开发者工具:右键单击页面并选择“检查”或按 Ctrl+Shift+I
(Windows)或 Cmd+Option+I
(苹果电脑)。
找到关键数据:
编写烂番茄电影详情抓取工具
现在我们有了 HTML 结构,我们可以编写抓取程序来获取每个电影页面的详细信息。让我们编写抓取程序代码。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41
| from 爬行基地 进口 抓取API from bs4 进口 美丽汤
爬行 API = 爬行 API({'令牌': 'CRAWLBASE_JS_TOKEN'})
DEF 获取html(网址): 选项= { 'ajax_等待': '真的', '页面等待': '5000' } 响应=crawling_api.get(url,选项) if 回复[“标题”]['pc_status'] == '200': 回报 回复['身体']。解码('utf-8') 其他: 打印(f“无法获取数据。状态代码: {回复[“标题”]['pc_status']}") 回报 没有
DEF 获取电影详情(电影网址): html = fetch_html(电影网址) if 的HTML: 汤 = BeautifulSoup(html, 'html.parser')
标题=汤.select_one('h1[slot="titleIntro"]').text.strip()
概要 = soup.select_one(‘div.synopsis-wrap rt-text:not(.key)’).text.strip() if 汤.select_one(‘div.synopsis-wrap rt-text:not(.key)’) 其他 “不适用”
电影细节 = {dt.text.strip(): ','.join([item.text.strip() 项目 in dd.find_all(['rt-link', 'rt-文本']) if 项目.名称 != 'rt-文本' or ‘分隔符’ 无需 in 项目.获取('班级', [])]) 日期、日数 in 拉链(汤.选择(‘dt.key rt-文本’), 汤.选择('dd'))}
回报 { '标题': 标题, '概要':概要, ‘电影详情’:电影详情 } 其他: 打印(“无法获取电影详细信息。”) 回报 没有
|
fetch_movie_details
函数从电影 URL 中获取电影名称、上映日期、导演和类型。它使用 BeautifulSoup 进行 HTML 解析并将数据构造成字典。
将电影详细信息存储在 JSON 文件中
抓取电影详细信息后,您需要以 JSON 等结构化格式保存数据。以下是将电影详细信息保存到 JSON 文件的代码。
1 2 3 4 5 6
| 进口 JSON
DEF 保存电影详细信息到 JSON(电影数据,文件名=‘电影详细信息.json’): - 打开(文件名, 'w') as 文件: json.dump(movie_data,文件,缩进=4) 打印(f“电影详情已保存至 {文档名称}")
|
完整代码示例
以下是从烂番茄抓取电影详情并保存到 JSON 文件的完整代码。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53
| from 爬行基地 进口 抓取API from bs4 进口 美丽汤 进口 JSON
爬行 API = 爬行 API({'令牌': 'CRAWLBASE_JS_TOKEN'})
DEF 获取html(网址): 选项= { 'ajax_等待': '真的', '页面等待': '5000' } 响应=crawling_api.get(url,选项) if 回复[“标题”]['pc_status'] == '200': 回报 回复['身体']。解码('utf-8') 其他: 打印(f“无法获取数据。状态代码: {回复[“标题”]['pc_status']}") 回报 没有
DEF 获取电影详情(电影网址): html = fetch_html(电影网址) if 的HTML: 汤 = BeautifulSoup(html, 'html.parser')
标题=汤.select_one('h1[slot="titleIntro"]').text.strip()
概要 = soup.select_one(‘div.synopsis-wrap rt-text:not(.key)’).text.strip() if 汤.select_one(‘div.synopsis-wrap rt-text:not(.key)’) 其他 “不适用”
电影细节 = {dt.text.strip(): ','.join([item.text.strip() 项目 in dd.find_all(['rt-link', 'rt-文本']) if 项目.名称 != 'rt-文本' or ‘分隔符’ 无需 in 项目.获取('班级', [])]) 日期、日数 in 拉链(汤.选择(‘dt.key rt-文本’), 汤.选择('dd'))}
回报 { '标题': 标题, '概要':概要, ‘电影详情’:电影详情 } 其他: 打印(“无法获取电影详细信息。”) 回报 没有
DEF 保存电影详细信息到 JSON(电影数据,文件名=‘电影详细信息.json’): - 打开(文件名, 'w') as 文件: json.dump(movie_data,文件,缩进=4) 打印(f“电影详情已保存至 {文档名称}")
if __名字__ == “__主要的__”: 電影編號= 'https://www.rottentomatoes.com/m/beetlejuice_beetlejuice' 电影详情 = 获取电影详情 (电影网址) if 电影详情: 保存电影详细信息到 JSON(电影详细信息)
|
示例输出:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18
| { “标题”: “甲壳虫汁 甲壳虫汁”, “概要”: “甲壳虫汁又回来了!在一场意想不到的家庭悲剧发生后,迪兹家族的三代人回到了冬河。仍然被甲壳虫汁困扰的莉迪亚的生活发生了翻天覆地的变化,当她叛逆的十几岁的女儿阿斯特丽德在阁楼上发现了小镇的神秘模型,通往来世的门户被意外打开时。随着两个领域都陷入困境,有人三次说出甲壳虫汁的名字,这个恶作剧的恶魔回来释放他自己的混乱只是时间问题。”, “电影详情”: { “导演”: “蒂姆·伯顿”, “制片人”: “马克·托贝罗夫、黛德·加德纳、杰里米·克莱纳、汤米·哈珀、蒂姆·伯顿”, “编剧”: “阿尔弗雷德·高夫,迈尔斯·米勒”, “经销商”: “华纳兄弟影业”, “制作公司”: “汤米·哈珀、Plan B Entertainment、马克·托贝罗夫、蒂姆·伯顿制作公司”, “评分”: “PG-13(恐怖血腥画面 | 短暂吸毒 | 一些暗示性材料 | 粗俗语言 | 暴力内容)”, “类型”: “喜剧,奇幻”, “原始语言”: “英语”, “上映日期(影院)”: “6 年 2024 月 XNUMX 日,宽屏”, “票房(美国总票房)”: “111.0亿美元”, “运行时”: “1 小时 44 分钟”, “长宽比”: “持平(1.85:1)” } }
|
使用 Crawlbase 获取烂番茄上的电影评分
从烂番茄上抓取电影评分有很多用途。您可以收集数据进行分析、研究或只是为了好玩。它可以帮助您了解哪些电影受欢迎。 Crawlbase 爬取 API 可以处理动态内容,这样您就可以获得所需的数据。当您抓取烂番茄时,您可以获得公众意见、票房统计数据或电影详细信息,以用于您喜欢的任何项目。
本博客向您展示了如何抓取电影列表、评分以及获取上映日期、导演和类型等详细信息。我们使用 Python、Crawlbase BeautifulSoup 和 JSON 来收集和排序数据,以便您使用和研究它。本博客向您展示了如何抓取电影列表和评分以及获取上映日期、导演和类型等详细信息。
如果您想进行更多网页抓取,请查看我们关于抓取其他主要网站内容的指南。
📜 如何抓取Monster.com
📜 如何抓取 Groupon
📜 如何抓取 TechCrunch 的内容
📜 如何抓取 X.com 推文页面
📜 如何抓取 Clutch.co
如果您有任何问题或反馈,我们的 支持团队 可以帮助您进行网页抓取。祝您抓取愉快!
常见问题
问:如果网站布局发生变化,我该如何抓取烂番茄数据?
如果烂番茄更改了其布局或 HTML,您的抓取工具将停止工作。要解决此问题:
- 请密切关注网站以了解任何变化。
- 检查新的 HTML 并修改 CSS 选择器。
- 更改你的抓取工具的代码。
问:从烂番茄中筛选内容时我应该注意什么?
当你抓取烂番茄或类似网站时:
- 查看 Robots.txt:确保网站允许抓取数据,方法是检查其
robots.txt
文件中。 - 运用节流:在请求之间增加一些时间以避免服务器过载并减少被阻止的机会。
- 处理错误:包括处理请求失败或网站构建方式变更的方法。
烂番茄可能会使用不同的方式来显示更多内容,比如“加载更多”按钮或无限滚动。
- 对于按钮: 使用
css_click_selector
Crawlbase Crawling API 中的参数点击“加载更多”按钮。 - 无限滚动: 使用
page_wait
or ajax_wait
Crawlbase Crawling API 中的参数等待所有内容加载完毕后再进行捕获。