【Python爬虫实战】使用Selenium爬某音乐歌曲及评论信息啦~

发布于:2022-07-17 ⋅ 阅读:(300) ⋅ 点赞:(0)

前言

嘿嘿!我回来啦~(叭虫审查特别严格哭唧唧.jpg)

但是我们公众号可以啊!试试看能过不!爬虫系列也要支棱起来——

有喜欢听歌的小可爱嘛?没有也没关系,我们来学习一下技术,哈哈哈

本文适合对爬虫相关知识接触不多的新手,主要是普及Selenium如何做爬虫,大佬的话可以跳一跳啦!

正文

一、Selenium简单介绍

1)简介

Selenium是一个用于测试网站的自动化测试工具,支持各种主流界面浏览器。

简而言之,Selenium是一个用来做网站自动化测试的库,它的定位是做自动化测试的。我们也可

以利用它来做爬虫,获取一些网页信息,并且这种爬虫是模拟真实浏览器操作的,实用性更强。

Selenium是市面上唯一一款可以与付费产品竞争的自动化测试工具。

如果想了解更多,可以前往Selenium中文网学习。

2)安装

要使用Selenium首先要在python中安装相关的库:

pip install Selenium

安装相应浏览器的webdricer驱动文件,这里提供chrome的链接,其它浏览器网上搜一搜就有。

下载解压后得到exe文件,将这个文件拷贝到chrom的安装文件夹下:

一般是C:\Program Files (x86)\Google\Chrome\Application,或者是

C:\Program Files\Google\Chrome\Application。

然后将该路径配置到环境变量中:

最后到写段代码测试一下:

from selenium import webdriverdriver=webdriver.Chrome(executable_path="C:\Program Files (x86)\Google\Chrome\Application\chromedriver.exe")
如果看到开启了一个浏览器窗口就是成功了,否则下面会有相应的报错信息,

需要检查前面的步骤。

三、代码展示


from selenium import webdriver
import csv


from time import sleep
import time




#1.创建Chrome浏览器对象,这会在电脑上在打开一个浏览器窗口
driver=webdriver.Chrome(executable_path="C:\Program Files (x86)\Google\Chrome\Application\chromedriver.exe")

#2.打开QQ音乐 -周杰伦页面
driver.get("https://y.qq.com/n/yqq/singer/001t94rh4OpQn0.html")

#3.配置
csv_file = open('songs1.csv','w',newline='',encoding='utf-8')
writer = csv.writer(csv_file)
start = time.time()
# 取前5首歌曲
song_numer=5
song_url_list=[]
song_resourses=[]

songlist__item=driver.find_elements_by_class_name("songlist__item")
# 获取所有歌曲url
for song in songlist__item:
    song__url=song.find_element_by_class_name("js_song").get_attribute("href")
    song_url_list.append(song__url)
    song_numer-=1
    if(song_numer==0):
        break
# print(song_url_list)
print("已获取当前歌手热门歌曲列表前五首的url")
print()

# 获取一首歌曲所需要的信息
def getSongResourse(url):
    song_resourse={}
    driver.get(url)
    # 这个1.8秒用于等待页面所有异步请求的完成
    sleep(1.8)

    # 获取歌曲名
    song_name=driver.find_element_by_class_name("data__name_txt").text

    print("开始获取歌曲《"+song_name+"》的基本信息")

    # 获取流派,发行时间,评论数
    song_liupai = driver.find_element_by_css_selector(".js_genre").text[3:]
    song_time = driver.find_element_by_css_selector(".js_public_time").text[5:]
    song_comment_num = driver.find_element_by_css_selector(".js_into_comment").text[3:-1]

    print("歌曲《" + song_name + "》基本信息获取完毕")

    print("开始获取歌曲《" + song_name + "》的歌词")

    # 点击展开歌词
    driver.find_element_by_partial_link_text("[展开]").click()
    sleep(0.3)
    lyic=""
    # 获取拼接歌词
    lyic_box=driver.find_element_by_id("lrc_content").find_elements_by_tag_name("p")
    for l in lyic_box:
        if l.text!="":
            lyic+=l.text+"\n"

    print("歌曲《" + song_name + "》的歌词获取完毕")

    print("开始获取歌曲《" + song_name + "》的第1-15条热门评论")

    # 获取500条评论
    comments=[]
    # 点击加载更多29次,每次多出15条评论
    for i in range(33):
        try:
            driver.find_element_by_partial_link_text("点击加载更多").click()
        except:
            break
        print("开始获取歌曲《" + song_name + "》的第"+str((i+1)*15+1)+"-"+str((i+2)*15)+"条热门评论")
        sleep(0.5)
    comments_list=driver.find_element_by_css_selector(".js_hot_list").find_elements_by_tag_name("li")
    for com in comments_list:
        content=com.find_element_by_css_selector(".js_hot_text").text
        content_time=com.find_element_by_css_selector(".comment__date").text
        zan_num=com.find_element_by_class_name("js_praise_num").text

        comment = {}
        comment.update({"评论内容":content})
        comment.update({"评论时间":content_time})
        comment.update({"评论点赞次数":zan_num})
        comments.append(comment)

    print("歌曲《" + song_name + "》的前五百条热门评论获取完毕")

    print("歌曲《"+song_name+"》所有信息获取完毕")
    print()
    song_resourse.update({"歌曲名":song_name})
    song_resourse.update({"流派":song_liupai})
    song_resourse.update({"发行时间":song_time})
    song_resourse.update({"评论数":song_comment_num})
    song_resourse.update({"歌词":lyic})
    song_resourse.update({"500条精彩评论":comments})
    return song_resourse

for song_page in song_url_list:
    song_resourses.append(getSongResourse(song_page))
print("正在写入CSV文件...")
for i in song_resourses:
    writer.writerow([i["歌曲名"],i["流派"],i["发行时间"],i["评论数"],i["歌词"]])
    for j in i["500条精彩评论"]:
        writer.writerow([j["评论内容"],j["评论时间"],j["评论点赞次数"]])
    writer.writerow([])
csv_file.close()
end = time.time()
print("爬取完成,总耗时"+str(end-start)+"秒")

四、效果展示

总结

好啦结束结束,有问题可以直接找我沟通的啦?

✨完整的素材源码等:可以滴滴我吖!或者点击文末hao自取免费拿的哈~

?往期推荐阅读——

项目0.1  【Python爬虫系列】Python爬虫入门并不难,甚至入门也很简单(引言)项目0.2

项目0.3   Python爬虫入门推荐案例:学会爬虫_表情包手到擒来~

项目0.4 【Tkinter界面化小程序】用Python做一款免费音乐下载器、无广告无弹窗、清爽超流畅哦

项目0.5  【Python爬虫系列】浅尝一下爬虫40例实战教程+源代码【基础+进阶】

?文章汇总——

Python文章合集 | (入门到实战、游戏、Turtle、案例等)

(文章汇总还有更多你案例等你来学习啦~源码找我即可免费!)

本文含有隐藏内容,请 开通VIP 后查看