一种声乐综合训练系统技术领域
本发明涉及声乐教学领域,具体涉及一种声乐综合训练系统。
背景技术
在音乐教育的教学过程中,主要课程包括乐理、视唱、练耳、声乐、器乐、歌曲写作、
舞台表演、心理学等,其中的声乐训练,目的在于培养并发展学生对声乐技能的的掌握以及
运用能力,目前现有技术中大多通过教师进行人工的评定,一定程度会出现偏差,且很多演
唱技能无法进行检测,比如喉头的位置判定、声音穿透力的判定,从而也造成了训练的时候
缺乏针对性,涉及面少的情况。
发明内容
为解决上述问题,本发明提供了一种声乐综合训练系统,基于计算机系统完成了
整个声乐训练过程中的数据的采集以及评估,自动化程度高,且涉及面广,可一次性完成喉
头的位置及稳定性情况、声音的音色情况、音频穿透力情况、泛音运用情况、吐字在发声中
的保持情况、高低音标准情况以及呼吸控制情况的训练和检测分析,从而可以得出建议性
的培训方案,同时也可以根据所检测到的数据构建各种数学模型,通过自定义的虚拟参数
模块、虚拟传感器和仿真分析模块实现各个数学模型的仿真分析,从而得到针对性的培训
方案的输出,真正意义上实现了因材施教。
为实现上述目的,本发明采取的技术方案为:
一种声乐综合训练系统,包括:
声音采集模块,用于音频数据采集,并将采集到的音频数据消噪后发送到特征信
号采集模块、音高节拍提取模块和泛音特征提取模块;
喉头位置检测模块,用于安装在弹力颈套内的若干薄膜压力传感器进行压力数据
的采集,并将采集到的数据通过北斗模块发送到数据处理模块;
呼吸频率采集模块,用于进行训练者呼吸频率的采集,并将采集到的数据发送到
演唱技能综合评估模块;
特征信号采集模块,用于按照预设频率通过传感器组采集发声者的特征信号,并
将采集到的特征信号通过数据传输模块发送到数据处理模块,所述特征信号包括声门下
压、声门气流和声级;
数据处理模块,用于接收特征信号,通过声门下压法和波流指数法分别对特征信
号进行计算,获得两种算法下的发声效率,按照预设的算法输出音频穿透力评估结果,并以
声门下压法测量结果为横坐标,以波流指数法测量结果为纵坐标建立声带振动发声效率坐
标图;还用于接收薄膜压力传感器所采集到的压力数据,并根据预设的算法进行喉头位置
的输出;
音高节拍提取模块,用于从消噪处理声音信号的音频帧中提取音高并所获取音频
帧的音高,累积分析音频帧的音高变化情况,判断出其中包含的旋律段后提取该旋律段的
节拍信息;
泛音特征提取模块,用于从接收到的音频帧中提取泛音特征数据,并将提取的特
征数据发送到演唱技能综合评估模块;
音符音高和音符时值模型建立模块,用于根据预先建立的音符音高模型集,利用
提取的音高分别计算出当前音频帧属于所述音符音高模型集中各个音符音高模型的概率
值,根据计算的概率值以及音符音高模型集对当前音频帧进行音符音高模型匹配识别,若
当前音频帧与其前一相邻音频帧分属不同的音符音高模型时,记录下当前音频帧号;在按
照上述方式依序处理完采集到的音频的所有音频帧后,确定出采集到的音频所对应的音符
音高模型序列以及序列中各个音符音高模型的起始音频帧号,计算出所述各个音符音高模
型各自所持续的音频帧数;根据预先建立的音符时值模型集,从确定的音符音高模型序列
中依次选取出一个音符音高模型,利用其所持续的音频帧数分别计算出所述音符音高模型
属于所述音符时值模型集中各个音符时值模型的概率值,进行音符时值模型匹配识别;在
按照上述方式依序处理完所确定的全部音符音高模型序列后,得出采集到的音频所包含的
各个音符音高模型序列以及各个音符音高模型持续音频帧数所对应的音符时值模型,形成
一组<音符音高模型,音符时值模型>序列;
乐谱生成模块,用于根据所述<标准音符,标准时值>序列生成对应的乐谱;
演唱技能初级评估模块,用于将所得的乐谱与标准乐谱数据库内的乐谱进行相似
度对比计算后输出演唱技能初级评估结果;
演唱技能综合评估模块,用于通过预设的算法根据音高提取器、节拍提取器、泛音
特征提取模块所提取的数据、演唱技能初级评估模块所得的初级评估结果以及数据处理模
块所得的音频穿透力评估结果、喉头位置变化数据以及呼吸频率采集模块所采集到的数据
进行演唱技能的综合评估,并将评估结果发送到显示屏进行显示;
综合培训方案输出模块,用于通过人工专家根据演唱技能综合评估模块的评估结
果进行培训方案的输出;
数学模型建立模块,通过Flac3D根据音高提取器、节拍提取器、泛音特征提取模块
所提取的数据、演唱技能初级评估模块所得的初级评估结果以及数据处理模块所得的音频
穿透力评估结果、喉头位置变化数据以及呼吸频率采集模块所采集到的数据进行多个数学
模型的建立;
虚拟参数作动模块,用于与数学模型建立模块中的各元素建立关系后,在指定的
范围内对参数进行变动,从而驱动各种仿真分析方法针对不同的参数进行计算求解;
虚拟传感器,为在所建立的数学模型中插入能达到直接获取相应的结果或信息目
标的逻辑单元;
仿真分析模块,内设各种仿真分析方法和仿真分析算法;
所述虚拟参数作动模块通过循环执行仿真分析模块,将结果反馈给仿真分析模
块,仿真分析模块提取结果,并将结果发送到所述虚拟传感器,所述虚拟传感器接收结果并
自动显示结果数据;
中央处理器,用于协调上述各模块进行工作。
优选地,所述传感器组包括口腔气压传感器、口腔气流传感器和麦克风。
优选地,所述音符音高模型集包含分别为处于低八度、中八度、高八度区段中的各
个标准音符以及一个静音所建立的模型。
优选地,所述评估结果包括喉头的位置及稳定性情况、声音的音色情况、音频穿透
力情况、泛音运用情况、吐字在发声中的保持情况、高低音标准情况以及呼吸控制情况。
优选地,还包括
绘图模块,用于根据喉头位置检测模块、数据处理模块、音高提取器、节拍提取器、
泛音特征提取模块以及呼吸频率采集模块所采集到的数据生成各种曲线;
回归计算模块,用于通过不同函数对绘图模块所绘制的曲线进行回归计算;
评估分析模块,用于将绘图模块所绘制的曲线与原标准曲线的对比分析进行技能
情况的评估,并将输出评估结果。
优选地,还包括一数据库,用于储存整个检测过程中所采集以及发生的数据。
优选地,还包括人机操作模块,用于输入信息调用命令,所述中央处理器根据信息
调用命令,从数据库中调用对应的数据信息发送到显示屏进行显示。
优选地,所述中央处理器为可编程控制器。
优选地,所述虚拟参数模块中的参数与仿真分析模块内的参数有直接或间接的关
系。
本发明具有以下有益效果:
基于计算机系统完成了整个声乐训练过程中的数据的采集以及评估,自动化程度
高,且涉及面广,可一次性完成喉头的位置及稳定性情况、声音的音色情况、音频穿透力情
况、泛音运用情况、吐字在发声中的保持情况、高低音标准情况以及呼吸控制情况的训练和
检测分析,从而可以得出建议性的培训方案,同时也可以根据所检测到的数据构建各种数
学模型,通过自定义的虚拟参数模块、虚拟传感器和仿真分析模块实现各个数学模型的仿
真分析,从而得到针对性的培训方案的输出,真正意义上实现了因材施教。
附图说明
图1为本发明实施例一种声乐综合训练系统的系统框图。
具体实施方式
为了使本发明的目的及优点更加清楚明白,以下结合实施例对本发明进行进一步
详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发
明。
如图1所示,本发明实施例提供了一种声乐综合训练系统,包括:
声音采集模块,用于音频数据采集,并将采集到的音频数据消噪后发送到特征信
号采集模块、音高节拍提取模块和泛音特征提取模块;
喉头位置检测模块,用于安装在弹力颈套内的若干薄膜压力传感器进行压力数据
的采集,并将采集到的数据通过北斗模块发送到数据处理模块;
呼吸频率采集模块,用于进行训练者呼吸频率的采集,并将采集到的数据发送到
演唱技能综合评估模块;
特征信号采集模块,用于按照预设频率通过传感器组采集发声者的特征信号,并
将采集到的特征信号通过数据传输模块发送到数据处理模块,所述特征信号包括声门下
压、声门气流和声级;
数据处理模块,用于接收特征信号,通过声门下压法和波流指数法分别对特征信
号进行计算,获得两种算法下的发声效率,按照预设的算法输出音频穿透力评估结果,并以
声门下压法测量结果为横坐标,以波流指数法测量结果为纵坐标建立声带振动发声效率坐
标图;还用于接收薄膜压力传感器所采集到的压力数据,并根据预设的算法进行喉头位置
的输出;
音高节拍提取模块,用于从消噪处理声音信号的音频帧中提取音高并所获取音频
帧的音高,累积分析音频帧的音高变化情况,判断出其中包含的旋律段后提取该旋律段的
节拍信息;
泛音特征提取模块,用于从接收到的音频帧中提取泛音特征数据,并将提取的特
征数据发送到演唱技能综合评估模块;
音符音高和音符时值模型建立模块,用于根据预先建立的音符音高模型集,利用
提取的音高分别计算出当前音频帧属于所述音符音高模型集中各个音符音高模型的概率
值,根据计算的概率值以及音符音高模型集对当前音频帧进行音符音高模型匹配识别,若
当前音频帧与其前一相邻音频帧分属不同的音符音高模型时,记录下当前音频帧号;在按
照上述方式依序处理完采集到的音频的所有音频帧后,确定出采集到的音频所对应的音符
音高模型序列以及序列中各个音符音高模型的起始音频帧号,计算出所述各个音符音高模
型各自所持续的音频帧数;根据预先建立的音符时值模型集,从确定的音符音高模型序列
中依次选取出一个音符音高模型,利用其所持续的音频帧数分别计算出所述音符音高模型
属于所述音符时值模型集中各个音符时值模型的概率值,进行音符时值模型匹配识别;在
按照上述方式依序处理完所确定的全部音符音高模型序列后,得出采集到的音频所包含的
各个音符音高模型序列以及各个音符音高模型持续音频帧数所对应的音符时值模型,形成
一组<音符音高模型,音符时值模型>序列;
乐谱生成模块,用于根据所述<标准音符,标准时值>序列生成对应的乐谱;
演唱技能初级评估模块,用于将所得的乐谱与标准乐谱数据库内的乐谱进行相似
度对比计算后输出演唱技能初级评估结果;
演唱技能综合评估模块,用于通过预设的算法根据音高提取器、节拍提取器、泛音
特征提取模块所提取的数据、演唱技能初级评估模块所得的初级评估结果以及数据处理模
块所得的音频穿透力评估结果、喉头位置变化数据以及呼吸频率采集模块所采集到的数据
进行演唱技能的综合评估,并将评估结果发送到显示屏进行显示;
综合培训方案输出模块,用于通过人工专家根据演唱技能综合评估模块的评估结
果进行培训方案的输出;
数学模型建立模块,通过Flac3D根据音高提取器、节拍提取器、泛音特征提取模块
所提取的数据、演唱技能初级评估模块所得的初级评估结果以及数据处理模块所得的音频
穿透力评估结果、喉头位置变化数据以及呼吸频率采集模块所采集到的数据进行多个数学
模型的建立;
虚拟参数作动模块,用于与数学模型建立模块中的各元素建立关系后,在指定的
范围内对参数进行变动,从而驱动各种仿真分析方法针对不同的参数进行计算求解;
虚拟传感器,为在所建立的数学模型中插入能达到直接获取相应的结果或信息目
标的逻辑单元;比如虚拟口腔气压传感器、虚拟口腔气流传感器、虚拟音高提取器、虚拟节
拍提取器、虚拟呼吸频率检测模块等。
仿真分析模块,内设各种仿真分析方法和仿真分析算法;
所述虚拟参数作动模块通过循环执行仿真分析模块,将结果反馈给仿真分析模
块,仿真分析模块提取结果,并将结果发送到所述虚拟传感器,所述虚拟传感器接收结果并
自动显示结果数据;
中央处理器,用于协调上述各模块进行工作。
所述传感器组包括口腔气压传感器、口腔气流传感器和麦克风。
所述音符音高模型集包含分别为处于低八度、中八度、高八度区段中的各个标准
音符以及一个静音所建立的模型。
所述评估结果包括喉头的位置及稳定性情况、声音的音色情况、音频穿透力情况、
泛音运用情况、吐字在发声中的保持情况、高低音标准情况以及呼吸控制情况。
还包括
绘图模块,用于根据喉头位置检测模块、数据处理模块、音高提取器、节拍提取器、
泛音特征提取模块以及呼吸频率采集模块所采集到的数据生成各种曲线;
回归计算模块,用于通过不同函数对绘图模块所绘制的曲线进行回归计算;
评估分析模块,用于将绘图模块所绘制的曲线与原标准曲线的对比分析进行技能
情况的评估,并将输出评估结果。
还包括一数据库,用于储存整个检测过程中所采集以及发生的数据。
还包括人机操作模块,用于输入信息调用命令,所述中央处理器根据信息调用命
令,从数据库中调用对应的数据信息发送到显示屏进行显示。
所述中央处理器为可编程控制器。
所述虚拟参数模块中的参数与仿真分析模块内的参数有直接或间接的关系
所述数据处理模块至少包括前置放大电路,低通滤波电路和工频滤波电路;传感
器组以及薄膜压力传感器的输出端与前置放大电路的输入端相连,前置放大电路的输出端
与低通滤波电路的输入端相连,低通滤波电路的输出端与工频滤波电路的输入端相连,工
频滤波电路的输出端与演唱技能综合评估模块的输入端相连。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人
员来说,在不脱离本发明原理的前提下,还可以作出若干改进和润饰,这些改进和润饰也应
视为本发明的保护范围。