Pytorch实现婴儿哭声检测和识别
目录
1. 项目说明
婴儿哭声是其表达需求、不适或潜在健康问题的重要信号。在宝宝健康监护中,通过智能化的哭声识别与分析技术,不仅可以提升育儿效率,还能为早期疾病筛查和健康预警提供关键依据。现代AI哭声识别系统能够精准检测到宝宝的哭声,准确率可达98%以上。即使父母外出时,也可通过手机APP接收实时警报,系统会自动分析哭声特征并推送具体建议。更智能的系统还能联动家庭摄像头,让家长远程查看婴儿状态,或自动调节室内温湿度、启动摇篮等智能设备。这种全天候的智能监护,既减轻了育儿压力,又能及时发现异常情况,为婴幼儿健康保驾护航。
本项目基于深度学习Pytorch,开发一个婴儿(宝宝、新生儿)哭声检测和识别的系统,可以精准检测识别婴儿哭声;项目网络模型支持CNN模型MobileNet和ResNet,也支持时延神经网络TDNN、ECAPA-TDNN以及LSTM等常见的模型,用户也可以自定义其他模型进行训练和测试,语音特征支持MelSpectrogram(梅尔频谱图)、 Spectrogram(频谱图)、MFCC(Mel-Frequency Cepstral Coefficients,梅尔频率倒谱系数)、Fbank(Filter Bank,滤波器组能量)等多种音频特征。采用ECAPA-TDNN模型,在婴儿哭声语音数据集上,验证集的准确率97.8295%,采用resnet18模型,准确率可以达到98.9147%。
关键词: 婴儿哭声、婴儿哭叫声、宝宝哭叫声、哭闹声、检测识别、TDNN、MelSpectrogram梅尔频谱
模型 | 准确率 |
TDNN | 98.1395% |
ECAPA-TDNN | 97.8295% |
resnet18 | 98.9147% |
【尊重原创,转载请注明出处】https://blog.csdn.net/guyuealian/article/details/149812361
2. 数据说明
(1)婴儿哭声语音数据集
项目数据主要来源于网上收集的婴儿哭声语音数据集,数据集名称baby-cry,其中训练集,正样本数据(类别cry)共918个音频样本,主要通过手机或者监控录制的宝宝哭叫声,时长2秒~15秒不等,负样本数据2202个音频样本(类别others),包含人说话声,鸟叫声、汽笛声等非婴儿哭叫声。测试集共645个样本,主要用于模型指标测试。
(2)自定义数据集
如果需要新增类别数据,或者需要自定数据集进行训练,可以参考如下进行处理
- 收集Train和Test数据集:要求相同类别的数据,放在同一个文件夹下;且子目录文件夹命名为类别名称,如
- 如,
A、B、C、D
四个类别,则数据文件结构如下
- 类别文件:一行一个列表:class_name.txt
(最后一行,请多回车一行)
A
B
C
D
- 修改配置文件的数据路径:config.yaml
train_data: # 可添加多个数据集
- 'data/dataset/train1'
- 'data/dataset/train2'
test_data: 'data/dataset/test'
class_name: 'data/dataset/class_name.txt'
...
...
3. 模型训练
(1)项目安装
整套工程基本框架结构如下:
.
├── classifier # 训练模型核心代码
├── configs # 训练配置文件
├── data # 项目相关数据
├── libs # 项目依赖的相关库
├── demo.py # 模型推理demo
├── README.md # 项目工程说明文档
├── requirements.txt # 项目相关依赖包
└── train.py # 训练文件
项目依赖python包请参考requirements.txt,使用pip安装即可:
# python3.10
albumentations==1.4.13
Cython==3.0.11
easydict==1.13
ffmpy==0.4.0
Flask==3.0.3
flask-babel==4.0.0
flatbuffers==24.3.25
imageio==2.34.2
insightface==0.7.3
ipython==8.29.0
kaldi-native-fbank==1.20.1
librosa==0.10.2.post1
loguru==0.7.2
matplotlib==3.9.1.post1
matplotlib-inline==0.1.7
numba==0.60.0
numpy==1.26.4
onnx==1.16.2
opencv-contrib-python==4.8.1.78
opencv-python==4.8.0.76
opencv-python-headless==4.10.0.84
pandas==2.2.3
pillow==10.4.0
playsound==1.3.0
PyAudio==0.2.14
pybaseutils
pycparser==2.22
pycryptodome==3.21.0
pydantic==2.8.2
pydantic_core==2.20.1
pydub==0.25.1
Pygments==2.18.0
pypandoc==1.14
pyparsing==3.1.2
PyQt5==5.13.2
PyQt5_sip==12.15.0
PySocks==1.7.1
python-dateutil==2.9.0.post0
pytz==2024.2
PyYAML==6.0.2
scikit-image==0.24.0
scikit-learn==1.5.1
scipy==1.14.0
soundfile==0.12.1
tensorboard==2.17.0
tensorboardX==2.6.2.2
toolz==0.12.1
torchinfo==1.8.0
# torch==2.0.0+cu117
# torchaudio==2.0.1+cu117
# torchvision==0.15.1+cu117
tqdm==4.66.4
typing_extensions==4.12.2
urllib3==2.2.2
visualdl==2.5.3
xmltodict==0.13.0
yeaudio==0.0.6
项目安装教程请参考(初学者入门,麻烦先看完下面教程,配置好开发环境):
(2)准备Train和Test数据
项目自带训练数据和测试数据,语音数据增强方式主要采用:音量增强、噪声增强等处理方式
修改配置文件数据路径:config.yaml
data_type: "folder"
# 训练数据集,可支持多个数据集(不要出现中文路径)
train_data:
- '/home/user/dataset/baby-cry/train'
# 测试数据集(不要出现中文路径)
test_data:
- '/home/user/dataset/baby-cry/test'
# 类别文件
class_name: 'data/class_name.txt'
# 数据增强
augment_config: "configs/augmentation.yml"
(3)配置文件:config.yaml
- 模型支持TDNN、EcapaTdnn、CAMPPlus以及mobilenet_v2、resnet18等模型
等模型,用户也可以自定义模型,进行模型训练和测试。- 语音特征:支持MelSpectrogram(梅尔频谱图)、 Spectrogram(频谱图)、MFCC(Mel-Frequency Cepstral Coefficients,梅尔频率倒谱系数)、Fbank(Filter Bank,滤波器组能量)等多种音频特征
- 训练参数可以通过(configs/config.yaml)配置文件进行设置
- 损失函数支持交叉熵CrossEntropy,LabelSmooth以及FocalLoss等损失函数
配置文件:config.yaml说明如下:
data_type: "folder"
# 训练数据集,可支持多个数据集(不要出现中文路径)
train_data:
- '/home/user/dataset/baby-cry/train'
# 测试数据集(不要出现中文路径)
test_data:
- '/home/user/dataset/baby-cry/test'
# 类别文件
class_name: 'data/class_name.txt'
# 数据增强
augment_config: "configs/augmentation.yml"
flag: ""
work_dir: "work_space" # 保存输出模型的目录
feature_method: "Fbank" # 语音特征:MelSpectrogram、Spectrogram、MFCC、Fbank
net_type: "TDNN" # 骨干网络,支持:TDNN、EcapaTdnn、CAMPPlus、LSTM
width_mult: 1.0 # 模型宽度因子
input_size: [ 256,128 ] # (Depth,Time,FeatureSize) or (seq_size, dim_size) or (Time,n_mfcc)
batch_size: 64 # batch_size
lr: 0.01 # 初始学习率
optim_type: "Adam" # 选择优化器,SGD,Adam
loss_type: "CrossEntropyLoss" # 选择损失函数:支持CrossEntropyLoss,LabelSmooth
momentum: 0.9 # SGD momentum
num_epochs: 120 # 训练循环次数
num_warn_up: 8 # warn-up次数
num_workers: 8 # 加载数据工作进程数
weight_decay: 0.0005 # weight_decay,默认5e-4
scheduler: "cosine" # 学习率调整策略
milestones: [ 60,100 ] # 下调学习率方式
gpu_id: [ 0 ] # GPU ID
log_freq: 50 # LOG打印频率
progress: True # 是否显示进度条
pretrained: True # 是否使用pretrained模型
finetune: False # 是否进行finetune
(4)开始训练
整套训练代码非常简单操作,用户只需要将相同类别的数据放在同一个目录下,并填写好对应的数据路径,即可开始训练了。
python train.py -c configs/config.yaml
训练完成后,在婴儿哭声语音数据集baby-cry上,采用TDNN模型,验证集的准确率98.1395%,采用resnet18模型,准确率可以达到98.9147%。下表给出TDNN,ECAPA-TDNN和resnet18等常用模型验证集的准确率:
模型 | 准确率 |
TDNN | 98.1395% |
ECAPA-TDNN | 97.8295% |
resnet18 | 98.9147% |
(5)可视化训练过程
训练过程可视化工具是使用Tensorboard,使用方法,可参考这里:项目开发使用教程和常见问题和解决方法(cuda cudnn安装教程)
Tensorboard使用方法,需要在终端输入:
# 基本方法
tensorboard --logdir=path/to/log/
# 例如
tensorboard --logdir=work_space/EcapaTdnn_Fbank_CrossEntropyLoss_20250730_193758_0316/log
可视化效果
(6)一些优化建议
如果想进一步提高准确率,可以尝试:
- 样本均衡: 建议进行样本均衡处理,避免长尾问题
- 调超参: 比如学习率调整策略,优化器(SGD,Adam等)
- 音频特征:目前支持MelSpectrogram、Spectrogram、MFCC、Fbank等多种语音特征,可以尝试不同的语音特征组合。
- 损失函数: 目前训练代码已经支持:交叉熵CrossEntropy,LabelSmoothing,可以尝试FocalLoss等损失函数
(7)一些运行错误处理方法
项目不要出现含有中文字符的目录文件或路径,否则可能会出现很多异常!!!!!!!!
一些常见的错误和解决方法,请参考这里:项目开发使用教程和常见问题和解决方法
4. 模型测试效果
demo.py文件用于推理和测试模型的效果,填写好配置文件,模型文件以及测试数据即可运行测试了
#!/usr/bin/env bash
# Usage:
# python demo.py -c "path/to/config.yaml" -m "path/to/model.pth" --audio_dir "path/to/data_dir"
python demo.py --config_file work_space/TDNN_Fbank_CrossEntropyLoss_20250730_171739_7128/config.yaml --model_file work_space/TDNN_Fbank_CrossEntropyLoss_20250730_171739_7128/model/best_model_096_98.1395.pth --audio_dir data/test_audio
运行测试结果:
频谱图 |
预测结果 |
![]() |
file:data/test_audio/baby-cry01.wav name:['cry'],label:[0],score:[0.9999933242797852]
|
![]() |
file:data/test_audio/baby-cry02.wav name:['cry'],label:[0],score:[0.999161958694458] |
![]() |
file:data/test_audio/other02.wav name:['others'],label:[1],score:[0.9999972581863403] |
![]() |
file:data/test_audio/other03.wav name:['others'],label:[1],score:[0.9989004135131836] |
5. 项目源码下载
整套项目源码内容包含:
【源码下载】请关注【AI吃大瓜】,回复关键字【婴儿哭声】
- 项目提供婴儿哭声语音数据集(baby-cry): 其中训练集3120个语音样本,测试集645个样本
- 项目提供网络模型支持CNN模型MobileNet和ResNet,也支持时延神经网络TDNN、ECAPA-TDNN以及LSTM等常见的模型,用户也可以自定义其他模型进行训练和测试,
- 项目提供多种语音特征,支持MelSpectrogram、Spectrogram、MFCC、Fbank等多种音频特征提取。
- 项目提供训练代码,损失函数支持交叉熵CrossEntropy,LabelSmoothing以及FocalLoss等损失函数,提供Log可视化等效果。
- 项目提供测试代码,运行demo.py,可以直接测试音频文件识别效果
- 项目提供已经训练好的模型,无需重新训练,配置好Pytorch环境,可运行demo.py测试效果