网络爬虫是一种自动化程序,可在网页上搜集信息,并将所获得的数据存储在本地计算机上。当人工搜集数据变得不切实际或不可行时,网络爬虫非常有用。在本篇文章中,我们将介绍如何用 Python 编写一个网络爬虫,以采集美团外卖的数据为例。

环境配置

首先,需要安装 Python3 和相关第三方库:requests, BeautifulSoup4 和 pandas。其中 requests 库可用于进行网页上数据的下载,BeautifulSoup4 库用于解析 HTML,而 pandas 库则可用于将数据存储为 csv 文件。

pip install requests
pip install beautifulsoup4
pip install pandas

网络爬虫程序

我们将模拟人类在网页上导航的过程来编写网络爬虫程序。首先,我们将获取美团外卖的菜单页面,然后进入每个店铺的页面,最后爬取每个店铺中的数据。

我们从获取美团外卖的菜单页面开始。使用 requests 库下载页面,并使用 BeautifulSoup4 库进行解析。要获取页面上所有的菜品信息,我们可以找到包含菜单信息的 HTML 元素并提取其文本。在HTML中,我们可以看到菜单信息位于 div 元素中,而每个菜品作为一个 li 元素呈现。

import requests
from bs4 import BeautifulSoup


def get_menu_from_web(url):
    page = requests.get(url)
    soup = BeautifulSoup(page.content, 'html.parser')
    menu_div = soup.find('div', class_='menu-wrap')
    menu_items = menu_div.find_all('li')
    menu = []
    for item in menu_items:
        name = item.find('p', class_='name').get_text()
        price = item.find('span', class_='price').get_text()
        menu.append({'name': name, 'price': price})
    return menu

接下来,我们编写函数来出爬取每个店铺的数据。对于每个菜单页面,我们会发现链接到店铺页面的链接,然后使用相同的方法下载和解析店铺页面。查找要提取的数据时,我们需要查看 HTML 元素的源代码并找到其标记。为了获取数据,我们使用相同的方法提取店铺名称、评分、地址等信息。对于每个菜品,我们仅需将其名称与价格添加到一个列表中。在完成对菜单的所有遍历后,我们通过创建一个数据框(dataframe)将数据存储为 csv 文件。

import pandas as pd


def scrape_restaurant_page(url):
    page = requests.get(url)
    soup = BeautifulSoup(page.content, 'html.parser')
    name = soup.find('h1', class_='name').get_text().strip()
    score = soup.find('span', class_='rating-stars')['style']
    score = int(score[6:8]) / 10 if score else None
    address = soup.find('p', class_='address ellipsis').get_text().strip()
    menu_url = url + '/menu'
    menu = get_menu_from_web(menu_url)
    menu_df = pd.DataFrame(menu)
    menu_df['restaurant'] = name
    menu_df['score'] = score
    menu_df['address'] = address
    return menu_df


def main():
    url = 'https://www.meituan.com/meishi/6138217/'
    menu_df = scrape_restaurant_page(url)
    menu_df.to_csv('menu.csv', index=False)

if __name__ == '__main__':
    main()

结论

采集美团外卖数据的过程其实非常简单。我们只需使用 Python 中的 requests、BeautifulSoup4 和 pandas 库来下载、解析以及存储数据。但是,要想最大程度地利用爬虫技术来采集大量数据,则需要管理好多个爬虫进程,以控制网络资源的使用并避免被封锁 IP。有专业的数据分析工具供爬虫技术的支持,如添闻数据公司,可为大公司提供更加强大的数据采集业务。

如果你对Python感兴趣,想要学习python,这里给大家分享一份Python全套学习资料,都是我自己学习时整理的,希望可以帮到你,一起加油!

😝有需要的小伙伴,可以V扫描下方二维码免费领取🆓

1️⃣零基础入门

① 学习路线

对于从来没有接触过Python的同学,我们帮你准备了详细的学习成长路线图。可以说是最科学最系统的学习路线,你可以按照上面的知识点去找对应的学习资源,保证自己学得较为全面。
在这里插入图片描述

② 路线对应学习视频

还有很多适合0基础入门的学习视频,有了这些视频,轻轻松松上手Python~
在这里插入图片描述

③练习题

每节视频课后,都有对应的练习题哦,可以检验学习成果哈哈!
在这里插入图片描述

2️⃣国内外Python书籍、文档

① 文档和书籍资料

在这里插入图片描述

3️⃣Python工具包+项目源码合集

①Python工具包

学习Python常用的开发软件都在这里了!每个都有详细的安装教程,保证你可以安装成功哦!
在这里插入图片描述

②Python实战案例

光学理论是没用的,要学会跟着一起敲代码,动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。100+实战案例源码等你来拿!
在这里插入图片描述

③Python小游戏源码

如果觉得上面的实战案例有点枯燥,可以试试自己用Python编写小游戏,让你的学习过程中增添一点趣味!
在这里插入图片描述

4️⃣Python面试题

我们学会了Python之后,有了技能就可以出去找工作啦!下面这些面试题是都来自阿里、腾讯、字节等一线互联网大厂,并且有阿里大佬给出了权威的解答,刷完这一套面试资料相信大家都能找到满意的工作。
在这里插入图片描述
在这里插入图片描述

上述所有资料 ⚡️ ,朋友们如果有需要的,可以扫描下方👇👇👇二维码免费领取🆓

Logo

旨在为数千万中国开发者提供一个无缝且高效的云端环境,以支持学习、使用和贡献开源项目。

更多推荐