【NLP舆情分析】基于python微博舆情分析可视化系统(flask+pandas+echarts) 视频教程 - 微博类别信息爬取

发布于:2025-07-17 ⋅ 阅读:(11) ⋅ 点赞:(0)

大家好,我是java1234_小锋老师,最近写了一套【NLP舆情分析】基于python微博舆情分析可视化系统(flask+pandas+echarts)视频教程,持续更新中,计划月底更新完,感谢支持。今天讲解架构搭建

视频在线地址:

2026版【NLP舆情分析】基于python微博舆情分析可视化系统(flask+pandas+echarts+爬虫) 视频教程 (火爆连载更新中..)_哔哩哔哩_bilibili

课程简介:


本课程采用主流的Python技术栈实现,Mysql8数据库,Flask后端,Pandas数据分析,前端可视化图表采用echarts,以及requests库,snowNLP进行情感分析,词频统计,包括大量的数据统计及分析技巧。

实现了,用户登录,注册,爬取微博帖子和评论信息,进行了热词统计以及舆情分析,以及基于echarts实现了数据可视化,包括微博文章分析,微博IP分析,微博评论分析,微博舆情分析。最后也基于wordcloud库实现了词云图,包括微博内容词云图,微博评论词云图,微博评论用户词云图等功能。

微博类别信息爬取

再爬取微博之前,我们先把所有微博类别爬取,再遍历每个类别,爬取微博内容。

访问微博首页:Sina Visitor System 打开谷歌开发者工具或者F12直接快捷打开

点热门推荐,我们可以直观的看到所有的微博类别。

通过分析,我们找到微博类别的请求接口:https://weibo.com/ajax/feed/allGroups

继续分析:接口返回数据的的groups下的第3和第4个下标值正好是所有的微博数据。

实现代码:

"""
    https://weibo.com/ajax/feed/allGroups
    微博类别 爬虫代码 以及存到csv文件中
"""
import csv
import os.path

import numpy as np
import requests


def init_csv():
    """
    初始化操作,判断csv文件是否存在,不能存在就创建一个
    :return:
    """
    if not os.path.exists('arcType_data.csv'):  # 不存在就创建一个
        with open('arcType_data.csv', 'w', encoding='utf8',
                  newline='') as file:  # newline=''参数,参数用于控制换行符的行为 这表示禁用自动换行符转换,即写入文件时使用原始的换行符(例如\r\n或\n)。这对于处理CSV文件时避免不必要的空行特别有用。
            writer = csv.writer(file)
            writer.writerow([
                '类别标题(title)',
                '分组id(gid)',
                '分类id(containerid)'
            ])


def getJsonHtml(url, params):
    """
    请求获取Html内容 json数据
    :param url:
    :param params:
    :return:
    """
    headers = {
        'user-agent': "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/131.0.0.0 Safari/537.36",
        'cookie': "UOR=www.baidu.com,s.weibo.com,www.baidu.com; SINAGLOBAL=147269028916.96313.1738405722917; SCF=Aq_smbP0Qulm3aIQiWHRj0MVjLlLvMzPjh08C1UOgzZGKmgtkj3RlIKkPpPunA-Yp4Vs3PxaE2Mnw4EfY-zo22k.; ULV=1746148684228:3:1:1:750370364305.8235.1746148684180:1743395262982; SUBP=0033WrSXqPxfM725Ws9jqgMF55529P9D9WWdhwhTipHbo3gGv6wzaRcu5JpX5KMhUgL.Foef1hMR1KqEeoz2dJLoI08ZqP9yi--NiKLsi-2fi--Ri-8siKnci--fiKnRiKnci--Xi-iWi-8Fi--Ni-i2iK.p; XSRF-TOKEN=jkBbdfx8ioL49wGmuLw8ZTv2; ALF=1754794282; SUB=_2A25FdAx5DeRhGeVL41UZ-SjOyT6IHXVmCAGxrDV8PUJbkNAbLWfskW1NTBTNHVQQjZ8TTBpAQ68hUItVd4KUD_CC; WBPSESS=_IA_wwSTTkx7cB4s0X9svEMSaQHgjmYl9nytbvfrAcd7Iosa-3IBWF4ACq_6aV-rM8H92uAEfJAtiOQKdY2Gha_-gW_mgEBLLJLDTNTrl4COyaKsVhMD_fKgQcz8yS4cNe68un-DHcy9a6K983O71w=="
    }
    response = requests.get(url, headers=headers, params=params)
    if response.status_code == 200:
        return response.json()
    else:
        return None


def writeToCsv(row):
    """
    写入csv操作 a操作 尾部追加 写入操作
    :param row:
    :return:
    """
    with open('arcType_data.csv', 'a', encoding='utf8',
              newline='') as file:
        writer = csv.writer(file)
        writer.writerow(row)


def parseJson(json):
    """
    解析Json数据
    :param json:
    :return:
    """
    arcTypeList = np.append(json['groups'][3]['group'], json['groups'][4]['group'])
    print(arcTypeList)
    for arcType in arcTypeList:
        arcType_title = arcType['title']
        gid = arcType['gid']
        containerid = arcType['containerid']
        writeToCsv([arcType_title, gid, containerid])


def start():
    init_csv()
    url = 'https://weibo.com/ajax/feed/allGroups'
    jsonHtml = getJsonHtml(url, {})
    print(jsonHtml)
    parseJson(jsonHtml)


if __name__ == '__main__':
    start()

运行后,生成srcType_data.csv文件,里面数据也无误。


网站公告

今日签到

点亮在社区的每一天
去签到