情感分类学习笔记(1)

发布于:2024-05-09 ⋅ 阅读:(26) ⋅ 点赞:(0)

文本情感分类(二):深度学习模型 - 科学空间|Scientific Spaces

一、代码理解

cw = lambda x: list(jieba.cut(x)) #定义分词函数

您给出的代码定义了一个使用 jieba 分词库的分词函数。jieba 是一个用于中文分词的 Python 库。该函数 cw 是一个 lambda 函数,它接受一个字符串 x 作为输入,然后使用 jieba.cut(x) 方法对字符串进行分词,并返回一个分词后的列表。

这里是该代码的一个简单解释和如何使用它的例子:

首先,确保您已经安装了 jieba 库。如果没有,您可以使用 pip 来安装它:

bash复制代码

pip install jieba

然后,您可以使用您定义的 cw 函数来对中文文本进行分词:

python复制代码

import jieba
# 定义分词函数
cw = lambda x: list(jieba.cut(x))
# 使用分词函数
text = "我来到北京清华大学"
words = cw(text)
print(words) # 输出: ['我', '来到', '北京', '清华大学']

在上面的例子中,文本 "我来到北京清华大学" 被分词成了 ['我', '来到', '北京', '清华大学']。

lambda 函数在这里是一个简单的函数定义方式,对于简单的函数,使用 lambda 可以使代码更简洁。但是,如果函数变得更加复杂,使用常规的 def 语句来定义函数会更清晰和易于阅读。例如:


python复制代码

def cut_words(x):
return list(jieba.cut(x))
# 使用该函数
words = cut_words(text)
print(words) # 输出: ['我', '来到', '北京', '清华大学']

这两种定义方式(使用 lambda 和使用 def)在功能上是等效的。

2.

pn['words'] = pn[0].apply(cw)后pn的内容

3.

comment = comment[comment['rateContent'].notnull()]

DataFrame 是 Pandas 库中用于处理表格型数据的核心数据结构。以下是一些常用的 DataFrame 操作:

  1. 创建 DataFrame

使用 pd.DataFrame() 从字典、列表、Series、其他 DataFrame 或其他数据源创建 DataFrame。


python复制代码

import pandas as pd
data = {'A': [1, 2, 3], 'B': [4, 5, 6]}
df = pd.DataFrame(data)
  1. 查看 DataFrame

使用 head()tail()info()describe()shape 等方法查看 DataFrame 的内容、结构或统计信息。


python复制代码

print(df.head()) # 显示前几行
print(df.info()) # 显示摘要信息,包括列名、数据类型和非空值计数
print(df.describe()) # 显示数值列的统计信息
print(df.shape) # 显示行数和列数
  1. 选择数据

使用列名、行标签、条件表达式、布尔索引等选择数据。


python复制代码

print(df['A']) # 选择列 A
print(df.iloc[0]) # 选择第一行(基于整数位置)
print(df.loc[0]) # 选择第一行(基于标签)
print(df[df['A'] > 1]) # 选择 A 列大于 1 的行
  1. 设置和修改数据

使用列名、行标签或条件表达式设置或修改 DataFrame 中的值。


python复制代码

df['C'] = df['A'] + df['B'] # 添加新列 C,其值为 A 和 B 列的和
df.at[0, 'A'] = 10 # 修改第一行 A 列的值为 10
df.loc[df['A'] > 1, 'B'] = 0 # 将 A 列大于 1 的行对应的 B 列值设置为 0
  1. 排序数据

使用 sort_values() 方法按列值对 DataFrame 进行排序。


python复制代码

df_sorted = df.sort_values(by='A') # 按列 A 的值排序
  1. 数据分组和聚合

使用 groupby() 方法对数据进行分组,并使用聚合函数(如 sum()mean()count() 等)对每个组进行计算。


python复制代码

grouped = df.groupby('A').sum() # 按列 A 分组并计算每组的和
  1. 缺失值处理

使用 dropna()fillna()interpolate() 等方法处理缺失值。


python复制代码

df_cleaned = df.dropna() # 删除包含缺失值的行
df_filled = df.fillna(0) # 将缺失值替换为 0
  1. 合并和连接

使用 merge()concat()join() 等方法合并或连接多个 DataFrame。


python复制代码

df1 = pd.DataFrame({'key': ['A', 'B', 'A', 'B', 'A', 'B', 'A', 'B'], 'value': range(8)})
df2 = pd.DataFrame({'key': ['B', 'B', 'A', 'A', 'B', 'A'], 'value2': range(6)})
merged = pd.merge(df1, df2, on='key') # 基于 key 列合并 df1 和 df2
  1. 数据导出

使用 to_csv()to_excel()to_sql() 等方法将 DataFrame 导出到 CSV 文件、Excel 文件、数据库等。


python复制代码

df.to_csv('output.csv', index=False) # 将 DataFrame 导出到 CSV 文件,不包含索引列
  1. 其他常用操作
  • 重命名列:df.rename(columns={'old_name': 'new_name'})
  • 删除列:del df['column_name'] 或 df.drop(columns=['column_name'])
  • 删除行:df.drop(index=labels_to_drop)
  • 转换数据类型:df['column_name'] = df['column_name'].astype(new_type)
  • 排序索引:df.sort_index()
  • 重置索引:df.reset_index()
  • 转换日期和时间数据:pd.to_datetime()
  • 等等...

这句话的意思就是选取comment 里面rateContent列里面非空的数据重新赋值给comment

4.d2v_train = pd.concat([pn['words'], comment['words']], ignore_index = True)

pd.concat 是 Pandas 库中的一个函数,用于沿一条轴将多个 pandas 对象(如 Series、DataFrame)连接在一起。这个函数在处理多个 DataFrame 或 Series 时非常有用,尤其是当你需要将它们合并成一个更大的数据集时。

基本用法

  1. 连接 Series

假设你有两个 Series:


python复制代码

import pandas as pd
s1 = pd.Series(['A', 'B', 'C'])
s2 = pd.Series(['D', 'E', 'F'])
result = pd.concat([s1, s2])

这将把 s2 连接到 s1 的后面。

  1. 连接 DataFrame

你可以沿行(axis=0)或列(axis=1)连接 DataFrame。

沿行连接:


python复制代码

df1 = pd.DataFrame({'A': [1, 2], 'B': [3, 4]})
df2 = pd.DataFrame({'A': [5, 6], 'B': [7, 8]})
result = pd.concat([df1, df2], ignore_index=True)

沿列连接:


python复制代码

df3 = pd.DataFrame({'C': [9, 10], 'D': [11, 12]})
result = pd.concat([df1, df3], axis=1)

参数

  • objs:要连接的 pandas 对象列表或字典。
  • axis:默认为 0,表示沿行连接。如果为 1,则沿列连接。
  • join:默认为 'outer',表示连接操作。对于 DataFrame,这可以是 'inner'(交集)或 'outer'(并集)。
  • ignore_index:默认为 False。如果为 True,则忽略原始索引并生成一个新的整数索引。
  • keys:对于分层索引,可以提供一个列表或数组作为连接键。
  • ...:还有其他参数,但上述是最常用的。

注意事项

  • 当连接 DataFrame 时,确保列名匹配(除非你使用 join='outer' 并希望保留不匹配的列)。
  • 如果 DataFrame 的索引不同,但在连接时你想忽略它们并生成一个新的整数索引,请使用 ignore_index=True
  • 你可以使用字典来连接 DataFrame,其中字典的键将用作新的列级索引。例如:pd.concat({'key1': df1, 'key2': df2}, axis=1)

5.dict = pd.DataFrame(pd.Series(w).value_counts())

步骤分解:

  1. pd.Series(w): 这里假设 w 是一个可迭代的对象(如列表),您正在将其转换为一个 Pandas Series。如果 w 已经是一个 Series,则这一步是多余的。

  2. .value_counts(): 对 Series 对象调用 value_counts() 方法会计算每个唯一值出现的次数,并返回一个 Series,其中索引是唯一值,值是它们出现的次数。

  3. pd.DataFrame(...): 接下来,您尝试将这个 Series 转换为一个 DataFrame。虽然这是技术上可行的,但通常当您只处理一个 Series(即一列数据)时,没有必要将其转换为 DataFrame。

6.dict['id']=list(range(1,len(dict)+1))

7.

pn['sent'] = pn['words'].apply(get_sent) #速度太慢

8.

x = np.array(list(pn['sent']))[::2] #训练集

在您提供的代码 x = np.array(list(pn['sent']))[::2] 中,您正在对 pn['sent'](假定它是一个Pandas Series、列表或其他可迭代对象)执行几个操作。下面是对这些操作的详细解释:

  1. pn['sent']:这部分代码假定 pn 是一个Pandas DataFrame,并且 'sent' 是其中的一个列名。这个列可能包含文本数据、数字或其他任何类型的可迭代数据。
  2. list(pn['sent']):这里,您正在将 pn['sent'] 列转换为Python列表。这通常是因为Pandas Series对象虽然可以像列表一样迭代,但有时为了与其他Python库或功能一起使用,您可能需要将其转换为列表。
  3. np.array(...):使用NumPy库的 array 函数将列表转换为一个NumPy数组。NumPy数组是优化过的数据结构,用于存储大量同类型数据,并提供高效的数值计算功能。
  4. [::2]:这是一个切片操作,用于从NumPy数组中选取元素。具体来说,[::2] 意味着从数组的开始到结束,每隔一个元素取一个。因此,如果原始数组是 [a, b, c, d, e],那么切片后的数组将是 [a, c, e]

最终,x 将是一个NumPy数组,其中包含 pn['sent'] 列中每隔一个元素的值。

注意:这里有一个潜在的陷阱。如果 pn['sent'] 列中的元素是字符串(例如文本数据),那么将它们转换为NumPy数组可能不会提供您期望的功能或性能优势,因为NumPy主要用于数值计算,而不是字符串处理。如果您的目标是处理文本数据,那么使用Pandas的字符串方法或Python的内置字符串功能可能更为合适。

总结:

苏大神的思路是用jieba分词,将词汇分出。然后通过词频统计对分过的词进行数字映射。然后这样每一个句子就变成了一个长短不一的向量,再将向量裁切或增加为规定大小的长度。之后将裁切的向量与对于的二分类的标签送入构造的网络中训练。训练后统计准确度。

网络第一层用embedding层来生成语义向量,向量长度为256维。第二层为LSTM层,第三层为Dropout层,第四层为Dense全连接层,第五层为激活层,激活函数为sigmoid二分类激活函数。

思考能否实现多分类细腻情感?喜怒哀乐?