深圳幻海软件技术有限公司 欢迎您!

教师节送什么?Python教你挑选礼物

2023-02-27

 又到了一年一度的教师节,每次教师节大家都会烦恼不知道送什么礼物?尤其是对于理工男来说,更是一个让人头大的问题。我今天就和大家分享一个用Python爬取淘宝商品信息的项目,希望可以给大家选礼物时提供一个参考。1.爬取目标本次项目利用selenium抓取淘宝商品信息,用selenium语法来

 又到了一年一度的教师节,每次教师节大家都会烦恼不知道送什么礼物?尤其是对于理工男来说,更是一个让人头大的问题。我今天就和大家分享一个用Python爬取淘宝商品信息的项目,希望可以给大家选礼物时提供一个参考。

1.爬取目标

本次项目利用selenium抓取淘宝商品信息,用selenium语法来获取商品信息、价格、购买人数、图片、以及店铺的名字,最后再把获取的信息储存在MongoDB中。

2.准备工作

在开始本次项目前,首先你要确保正确安装好Chome浏览器并配置好对应版本的ChromeDriver;另外,还需要正确安装Python的selenium库和pymongo库;最后还要在电脑上安装好MongoDB。

3.下面给出Windows下安装selenium、pymongo、MongoDB的方法

selenium:

 

pip install selenium   || pip3 install selenium 
  • 1.

pymongo:

 

pip install pymongo || pip3 install pymongo 
  • 1.

MongoDB:

由于MongoDB现在版本比较多,3.0和4.0安装方法存在差异,我下载的是3.x版本的,安装和配置都比较简单,所以,我也建议大家安装和使用3.x版本的。

下载链接:

https://www.mongodb.com/download-center/community

ChromeDriver下载链接:

https://chromedriver.storage.googleapis.com/index.html

这里下载的ChromeDriver版本要和你下载的谷歌浏览器的版本相一致,否则程序运行会出现错误。下载完后将ChromeDriver.exe放到你Python安装路径下的Scripts中即可。

4.提取单页商品信息

获取各个元素用到的是selenium语法的

 

find_element_by_xpath() 
  • 1.

括号中需要填入各元素的Xpath路径。

  • 获取商品信息

 

代码如下:

 

'info' : li.find_element_by_xpath('.//div[@class="row row-2 title"]').text 
  • 1.
  • 获取价格信息

 

代码如下:

 

'price' : li.find_element_by_xpath('.//a[@class="J_ClickStat"]').get_attribute('trace-price') + '元' 
  • 1.
  • 获取付款人数

 

代码如下:

 

'deal' : li.find_element_by_xpath('.//div[@class="deal-cnt"]').text 
  • 1.
  • 获取图片

 

 

代码如下:

 

'image' : li.find_element_by_xpath('.//div[@class="pic"]/a/img').get_attribute('src'
  • 1.
  • 获取店铺名字

 

代码如下:

 

'name' : li.find_element_by_xpath('.//div[@class="shop"]/a/span[2]').text 
  • 1.

5.提取多页商品信息

经过上面的分析,只能爬取一页的商品信息,我们想获取多页信息,就需要先定义一个函数,将总页数提取出来,代码如下

 

#提取总页数 
def search(): 
    driver.find_element_by_id('q').send_keys('python'
    driver.find_element_by_class_name("tb-bg").click() 
    time.sleep(10) 
    token 
= driver.find_element_by_xpath( 
'//*[@id="mainsrp-pager"]/div/div/div/div[1]' 
).text 
    token = int(re.compile('\d+').search(token).group(0)) 
    return token 
  • 1.
  • 2.
  • 3.
  • 4.
  • 5.
  • 6.
  • 7.
  • 8.
  • 9.
  • 10.
  • 11.

6.向下滑动页面

我们都知道selenium用来抓取动态渲染的页面非常有效,我们在抓取页面信息时,需要模拟人来操作下拉、翻页等操作。

对于下拉操作,有爬虫基础的可能会想到用selenium模拟的操作,但本次项目我们用js语法来模拟下拉,这样做的好处就是不容易被淘宝的反爬机制识别,代码如下

 

def drop_down(): 
    for x in range(1,11,2): 
        time.sleep(0.5) 
        j = x/10           #滑动到的位置 
        js = 'document.documentElement.scrollTop = document.documentElement.scrollHeight * %f' %j 
        driver.execute_script(js) 
  • 1.
  • 2.
  • 3.
  • 4.
  • 5.
  • 6.

同理,我们也定义一个函数来模拟翻页,代码如下

 

def next_page(): 
    token = search() 
    num = 0 
    while num != token - 1: 
        driver.get('https://s.taobao.com/search?q={}&s={}'.format(keyword,44*num)) 
        driver.implicitly_wait(10)  #隐式等待 
        num += 1 
        drop_down() 
        get_product() 
  • 1.
  • 2.
  • 3.
  • 4.
  • 5.
  • 6.
  • 7.
  • 8.
  • 9.

翻页编写时,需要注意,我在代码加入了keyword,意思就是可以根据你自己的需求,爬取不同种类的商品信息。

7.将数据保存至MongoDB

 

def save_to_mongo(result): 
    try: 
        if db[MONGO_COLLECTION].insert(result): 
            print('储存到MongoDB成功'
    except  Exception: 
        print('储存到MongoDB失败'
  • 1.
  • 2.
  • 3.
  • 4.
  • 5.
  • 6.

8.结果展示

 

总结

这次用selenium爬取淘宝商品信息,代码逻辑框架如下

 

由于我能力有限,暂时只能实现这么多功能,下一步准备对MongoDB储存的数据进行分析,这样就完成了从数据爬取——数据储存——数据分析一个完整的过程。

最后,祝所有的老师们:教师节快乐!