一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

基于乐谱的乐谱音频检测方法、装置、设备和计算机介质与流程

2022-07-31 06:42:45 来源:中国专利 TAG:


1.本公开的实施例涉及曲谱领域,具体涉及基于乐谱的乐谱音频检测方法、装置、设备和计算机介质。


背景技术:

2.在音乐教育领域中,用户通常以弹奏、歌唱等形式,完成对一个乐谱的弹奏。目前,检测用于弹奏的乐谱是否准确,通常采用的方式为:将用户弹奏的乐谱音频转为midi文件,然后对midi文件进行解析,获取midi中对应的音符,然后和乐谱的音符进行相似度比较,得到检测结果。
3.然而,采用上述方式通常会存在以下技术问题:
4.第一,在将弹奏的音频转换为midi文件过程中,通常会出现音准损失,导致音频检测不准确;
5.第二,对弹奏的乐谱音频的检测维度较为单一(例如,只检测音符),导致检测结果与用户弹奏乐谱的实际结果存在偏差。


技术实现要素:

6.本公开的内容部分用于以简要的形式介绍构思,这些构思将在后面的具体实施方式部分被详细描述。本公开的内容部分并不旨在标识要求保护的技术方案的关键特征或必要特征,也不旨在用于限制所要求的保护的技术方案的范围。
7.本公开的一些实施例提出了基于乐谱的乐谱音频检测方法、装置、电子设备和计算机可读介质,来解决以上背景技术部分提到的技术问题中的一项或多项。
8.第一方面,本公开的一些实施例提供了一种基于乐谱的乐谱音频检测方法,该方法包括响应于接收到用户输入的弹奏乐谱音频,将上述弹奏乐谱音频转化为目标音频格式,得到目标弹奏乐谱音频;对目标乐谱音频进行特征提取处理,以生成乐谱特征向量,其中,上述目标乐谱音频表征的乐谱与上述弹奏乐谱音频表征的乐谱一致;基于上述目标弹奏乐谱音频,生成音频时域数据;对上述音频时域数据进行特征提取处理,以生成音频特征向量;将上述乐谱特征向量与上述音频特征向量进行合并处理,得到合并特征向量,以及将上述合并特征向量输入至预先训练的音频打分模型,得到音频评分作为弹奏评分。
9.第二方面,本公开的一些实施例提供了一种基于乐谱的乐谱音频检测装置,装置包括:转化单元,被配置成响应于接收到用户输入的弹奏乐谱音频,将上述弹奏乐谱音频转化为目标音频格式,得到目标弹奏乐谱音频;第一提取单元,被配置成对目标乐谱音频进行特征提取处理,以生成乐谱特征向量,其中,上述目标乐谱音频表征的乐谱与上述弹奏乐谱音频表征的乐谱一致;生成单元,被配置成基于上述目标弹奏乐谱音频,生成音频时域数据;第二提取单元,被配置成对上述音频时域数据进行特征提取处理,以生成音频特征向量;输入单元,被配置成将上述乐谱特征向量与上述音频特征向量进行合并处理,得到合并特征向量,以及将上述合并特征向量输入至预先训练的音频打分模型,得到音频评分作为
弹奏评分。
10.第三方面,本公开的一些实施例提供了一种电子设备,包括:一个或至少一个处理器;存储装置,其上存储有一个或至少一个程序,当一个或至少一个程序被一个或至少一个处理器执行,使得一个或至少一个处理器实现上述第一方面任一实现方式所描述的方法。
11.第四方面,本公开的一些实施例提供了一种计算机可读介质,其上存储有计算机程序,其中,程序被处理器执行时实现上述第一方面任一实现方式所描述的方法。
12.本公开的上述各个实施例具有如下有益效果:通过本公开的一些实施例的基于乐谱的乐谱音频检测方法,可以准确检测用户弹奏的乐谱音频。具体来说,导致音频检测不准确的原因在于:在将弹奏的音频转换为midi文件过程中,通常会出现音准损失,导致音频检测不准确。基于此,本公开的一些实施例的基于乐谱的乐谱音频检测方法,首先,响应于接收到用户输入的弹奏乐谱音频,将上述弹奏乐谱音频转化为目标音频格式,得到目标弹奏乐谱音频。由此,便于后续提取音频特征。其次,对目标乐谱音频进行特征提取处理,以生成乐谱特征向量。由此,可以提取出乐谱的特征向量,为后续检测用户弹奏的音频是否准确,提供了参考依据。接着,基于上述目标弹奏乐谱音频,生成音频时域数据。由此,为生成弹奏乐谱音频的特征向量提供了数据支持。然后,对上述音频时域数据进行特征提取处理,以生成音频特征向量。由此,为后续检测用户弹奏的乐谱音频的准确率提供了数据支持。最后,将上述乐谱特征向量与上述音频特征向量进行合并处理,得到合并特征向量,以及将上述合并特征向量输入至预先训练的音频打分模型,得到音频评分作为弹奏评分。由此,可以根据用户弹奏的音频特征向量和曲谱音频的特征向量,检测用户弹奏的乐谱音频的准确性。从而,无须将弹奏的音频转换为midi文件,避免了音准损失而导致的检测误差。
附图说明
13.结合附图并参考以下具体实施方式,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。贯穿附图中,相同或相似的附图标记表示相同或相似的元素。应当理解附图是示意性的,元件和元素不一定按照比例绘制。
14.图1是根据本公开的基于乐谱的乐谱音频检测方法的一些实施例的流程图;
15.图2是根据本公开的基于乐谱的乐谱音频检测装置的一些实施例的结构示意图;
16.图3是适于用来实现本公开的一些实施例的电子设备的结构示意图。
具体实施方式
17.下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例。相反,提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
18.另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。
19.需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
20.需要注意,本公开中提及的“一个”、“至少一个”的修饰是示意性而非限制性的,本
领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或至少一个”。
21.本公开实施方式中的至少一个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
22.下面将参考附图并结合实施例来详细说明本公开。
23.图1是根据本公开的基于乐谱的乐谱音频检测方法的一些实施例的流程图,示出了根据本公开的基于乐谱的乐谱音频检测方法的一些实施例的流程100。该基于乐谱的乐谱音频检测方法,包括以下步骤:
24.步骤101,响应于接收到用户输入的弹奏乐谱音频,将上述弹奏乐谱音频转化为目标音频格式,得到目标弹奏乐谱音频。
25.在一些实施例中,基于乐谱的乐谱音频检测方法的执行主体(例如,计算设备或服务端)可以响应于接收到用户输入的弹奏乐谱音频,将上述弹奏乐谱音频转化为目标音频格式,得到目标弹奏乐谱音频。这里,目标音频格式可以是预先设定的音频格式。例如,目标音频格式可以是wav文件格式。这里,弹奏乐谱音频可以是指用户弹奏的某一乐谱的音频。
26.步骤102,对目标乐谱音频进行特征提取处理,以生成乐谱特征向量。
27.在一些实施例中,上述执行主体可以对目标乐谱音频进行特征提取处理,以生成乐谱特征向量。其中,上述目标乐谱音频表征的乐谱与上述弹奏乐谱音频表征的乐谱一致。即,上述目标乐谱音频表征的乐谱与上述弹奏乐谱音频表征的乐谱相同。实践中,上述执行主体可以从预设的数据库中直接提取上述目标乐谱音频的频谱向量作为乐谱特征向量。这里,预设的数据库可以是指第三方库librosa。实践中,首先,上述执行主体还可以将上述目标乐谱音频输入至mel滤波器组中,得到梅尔频谱。然后,对上述梅尔频谱进行倒谱分析,得到乐谱特征向量。
28.可选地,上述执行主体可以通过以下步骤对目标乐谱音频进行特征提取处理,以生成乐谱特征向量:
29.第一步,从乐谱音频库中获取对应上述弹奏乐谱音频的乐谱的乐谱音频作为目标乐谱音频。这里,乐谱音频库中的乐谱音频可以是通过midi文件和乐谱对应的音色合成的音频。
30.第二步,将上述目标乐谱音频输入至预先训练的音频合成模型,得到乐谱特征向量。这里,预先训练的音频合成模型可以是用tacotron2模型作为框架构建的用于提取目标乐谱音频的乐谱特征向量的模型。实践中,首先,可以对上述目标乐谱音频对应的每个音高值进行词嵌入处理,以生成音高值向量,得到音高值向量序列。然后,可以将上述音高值向量序列输入至上述音频合成模型中,得到乐谱特征向量。
31.步骤103,基于上述目标弹奏乐谱音频,生成音频时域数据。
32.在一些实施例中,上述执行主体可以基于上述目标弹奏乐谱音频,生成音频时域数据。实践中,上述执行主体可以对上述目标弹奏乐谱音频进行时域转换处理以生成音频时域数据。这里,时域转换处理可以是指傅里叶反变换。
33.在一些实施例的一些可选的实现方式中,基于上述目标弹奏乐谱音频,上述执行主体可以通过以下步骤生成音频时域数据:
34.第一步,对上述目标弹奏乐谱音频包括的每个音高值进行词嵌入处理,以生成音高值向量,得到音高值向量序列。
35.第二步,将上述音高值向量序列输入至上述音频合成模型中,得到弹奏乐谱音频特征向量。
36.第三步,将上述弹奏乐谱音频特征向量输入至时域波形特征提取网络,得到弹奏乐谱音频时域数据作为音频时域数据。这里,时域波形特征提取网络可以是指wavenet网络。
37.步骤104,对上述音频时域数据进行特征提取处理,以生成音频特征向量。
38.在一些实施例中,上述执行主体可以通过各种神经网络模型对上述音频时域数据进行特征提取处理,以生成音频特征向量。例如可以通过bert模型对上述音频时域数据进行特征提取处理,以生成音频特征向量。
39.在一些实施例的一些可选的实现方式中,上述执行主体可以将上述音频时域数据输入至预先训练的音频特征提取模型,得到音频特征向量。这里,预先训练的音频特征提取模型是预先训练的transformer encoder网络。这里,transformer encoder网络可以由三层layer组成。其中,每层layer由self-attention自注意力层、layernormalize归一化层、forward全连接层构成。
40.步骤105,将上述乐谱特征向量与上述音频特征向量进行合并处理,得到合并特征向量,以及将上述合并特征向量输入至预先训练的音频打分模型,得到音频评分作为弹奏评分。
41.在一些实施例中,上述执行主体可以将上述乐谱特征向量与上述音频特征向量进行合并处理,得到合并特征向量,以及将上述合并特征向量输入至预先训练的音频打分模型,得到音频评分作为弹奏评分。这里,预先训练的音频打分模型可以是指预先训练的用于检测合并特征向量对应的评分值的模型。例如,预先训练的音频打分模型可以是预先训练的transformer decoder网络。这里,预先训练的音频打分模型可以包括音准评分模型、乐谱完整度评分模型、旋律评分模型和节奏评分模型。这里,上述音准评分模型用于生成目标弹奏乐谱音频对应的音准评分值。上述乐谱完整度评分模型用于生成目标弹奏乐谱音频对应的乐谱完整度评分值。上述旋律评分模型用于生成目标弹奏乐谱音频对应的旋律评分值。上述节奏评分模型用于生成目标弹奏乐谱音频对应的节奏评分值。
42.在一些实施例的一些可选的实现方式中,上述执行主体可以通过以下步骤将上述合并特征向量输入至预先训练的音频打分模型,得到音频评分作为弹奏评分:
43.第一步,将上述合并特征向量输入至上述音准评分模型中,得到音准评分值。实践中,上述音准评分模型是通过合并特征向量中音频特征向量中表征弹奏正确的音符的数量与上述乐谱特征向量对应的音符的总数量的比值确定的音准评分值。例如,上述音频特征向量表征用户弹奏的正确的音符的数量为80,上述乐谱特征向量对应的音符的总数量为100,则音准评分值为0.8。
44.第二步,将上述合并特征向量输入至上述乐谱完整度评分模型中,得到乐谱完整度评分值。实践中,上述乐谱完整度评分模型是通过合并特征向量中音频特征向量中表征弹奏音频的有效时长与上述乐谱特征向量对应的音频的总时长的比值确定的乐谱完整度评分值。例如,用户弹奏的音频开始时间为10s,结束时间为90s,乐谱对应的总时长为100s,最终乐谱完整度评分值为(90-10)/(100-0)。
45.第三步,将上述合并特征向量输入至上述旋律评分模型中,得到旋律评分值。实践
中,上述旋律评分模型是通过合并特征向量中音频特征向量中表征弹奏的各个音符的有效时长与上述乐谱特征向量中对应上述各个音符的总时长的比值确定的旋律评分值。例如,用户弹奏的100个音符的持续时长为100秒,而乐谱特征向量中对应上述100个音符的持续时长为200秒,则旋律评分值为100/200=0.5。
46.第四步,将上述合并特征向量输入至上述节奏评分模型中,得到节奏评分值。实践中,上述节奏评分模型是通过合并特征向量中音频特征向量中表征弹奏的各个音符之间的时间间隔平均值与上述乐谱特征向量中对应上述各个音符的时间间隔平均值的比值确定的节奏评分值。例如,用户弹奏了100个音符,每两个音符的时间间隔为1s,乐谱特征向量中对应上述100个音符的每两个音符之间的时间间隔为2秒,则节奏评分值为1/2=0.5。
47.第五步,对上述音准评分值、上述乐谱完整度评分值、上述旋律评分值和上述节奏评分值进行加权平均处理,得到音频评分作为弹奏评分。这里,对于上述音准评分值、上述乐谱完整度评分值、上述旋律评分值和上述节奏评分值的权重设定,不作限制,可根据实际需求设定。
48.一些可选的实现方式中的相关内容作为本公开的一个发明点,由此解决了背景技术提及的技术问题二“对弹奏的乐谱音频的检测维度较为单一(例如,只检测音符),导致检测结果与用户弹奏乐谱的实际结果存在偏差。”。导致检测结果与用户弹奏乐谱的实际结果存在偏差的因素往往如下:对弹奏的乐谱音频的检测维度较为单一(例如,只检测音符),导致检测结果与用户弹奏乐谱的实际结果存在偏差。如果解决了上述因素,就能达到降低检测结果与用户弹奏乐谱的实际结果之间的偏差的效果。为了达到这一效果,首先,将上述合并特征向量输入至上述音准评分模型中,得到音准评分值。由此,可以检测用户弹奏乐谱的音准的准确度。其次,将上述合并特征向量输入至上述乐谱完整度评分模型中,得到乐谱完整度评分值。由此,可以检测用户弹奏乐谱的完整度。接着,将上述合并特征向量输入至上述旋律评分模型中,得到旋律评分值。由此,可以检测用户弹奏乐谱的旋律的准确度。然后,将上述合并特征向量输入至上述节奏评分模型中,得到节奏评分值。由此,可以检测用户弹奏乐谱的节奏的准确度。最后,对上述音准评分值、上述乐谱完整度评分值、上述旋律评分值和上述节奏评分值进行加权平均处理,得到音频评分作为弹奏评分。由此,可以从音准、乐谱完整度、旋律和节奏等四个维度对弹奏的乐谱音频进行检测。从而,提高了检测结果的准确性。
49.可选地,上述音频打分模型是通过以下步骤训练得到的:
50.第一步,获取音频打分训练样本集。其中,上述音频打分训练样本集中的音频打分训练样本包括:样本乐谱音频、对应上述样本乐谱音频的样本弹奏音频、对应上述样本弹奏音频的评分值标签。这里,样本乐谱音频可以是表征乐谱转录的音频的向量。这里,样本弹奏音频可以是表征弹奏的乐谱音频的向量。这里,样本乐谱音频表征的乐谱与上述样本弹奏音频表征的乐谱相同。这里,评分值标签可以是根据样本弹奏音频对应的音准、完整度、旋律和节奏与样本乐谱音频对应的音准、完整度、旋律和节奏计算出的音频评分值。例如,上述样本弹奏音频表征用户弹奏的正确的音符的数量可以为80,上述样本乐谱音频对应的音符的总数量可以为100,则音准评分值为0.8。样本弹奏音频的音频开始时间可以为10s,结束时间可以为90s,样本乐谱音频对应的总时长可以为100s,最终乐谱完整度评分值为(90-10)/(100-0)。样本弹奏音频包括的100个音符的持续时长为100秒,而样本乐谱音频中
对应上述100个音符的持续时长为200秒,则旋律评分值为100/200=0.5。样本弹奏音频包括了100个音符,每两个音符的时间间隔为1s,样本乐谱音频中对应上述100个音符的每两个音符之间的时间间隔为2秒,则节奏评分值为1/2=0.5。最后,可对上述音准评分值、上述乐谱完整度评分值、上述旋律评分值和上述节奏评分值进行加权平均处理,得到音频评分值作为评分值标签。
51.第二步,从上述音频打分训练样本集选择音频打分训练样本。
52.第三步,将上述音频打分训练样本输入至初始音频打分模型中,得到音频打分结果。这里,音频打分结果可以是表示音频评分值。初始音频打分模型可以是未训练的transformer模型或bert模型。
53.第四步,基于预设的损失函数,确定上述音频打分结果与上述音频打分训练样本包括的评分值标签之间的评分差异值。这里,预设的损失函数可以是指余弦损失函数。
54.第五步,基于上述评分差异值,调整上述初始音频打分模型的网络参数。实践中,上述执行主体可以响应于上述评分差异值大于等于预设评分差异值,调整上述初始音频打分模型的网络参数。例如,可以对评分差异值与预设评分差异值求差值,得到损失评分差异值。在此基础上,利用反向传播、随机梯度下降等方法将损失评分差异值从模型的最后一层向前传递,以调整每一层的参数。当然根据需要,也可以采用网络冻结(dropout)的方法,对其中的一些层的网络参数保持不变,不进行调整,对此,不做任何限定。
55.可选地,响应于上述评分差异值满足第一预设条件,将上述初始音频打分模型确定为音频打分模型。
56.在一些实施例中,上述执行主体可以响应于上述评分差异值满足第一预设条件,将上述初始音频打分模型确定为音频打分模型。这里,第一预设条件可以是“评分差异值等于目标差异值”。例如,目标差异值可以为0。
57.可选地,上述音频合成模型是通过以下步骤训练得到的:
58.第一步,获取乐谱音频集。实践中,可以从乐谱音频库中获取乐谱音频集。这里,乐谱音频集中的乐谱音频可以是将乐谱库中的乐谱通过midi文件合成的音频。
59.第二步,对上述乐谱音频集中的乐谱音频包括的音频片段进行随机置换处理,以生成置换乐谱音频,得到置换乐谱音频集。这里,随机置换处理可以是指将乐谱音频包括的任一音频片段替换为其它音频片段。这里,其它音频片段的时长与任一音频片段的时长相同。这里,其它音频片段可以是人声或其它乐谱的音频片段。
60.第三步,对上述置换乐谱音频集中的置换乐谱音频包括的音频片段进行随机删除处理,以生成删除乐谱音频,得到删除乐谱音频集。这里,随机删除处理可以是随机删除置换乐谱音频包括的任一音频片段。
61.第四步,将上述删除乐谱音频集中的删除乐谱音频随机增加音频片段,以生成增加乐谱音频作为调整乐谱音频,得到调整乐谱音频集。这里,音频片段可以是人声或其它乐谱的音频片段。实践中,可以将音频片段随机添加/插入在删除乐谱音频中。这里,每一删除乐谱音频增加的音频片段可以相同,也可以不同。
62.第五步,将上述乐谱音频集中的每个乐谱音频和上述调整乐谱音频集中对应上述乐谱音频的调整乐谱音频组合为样本乐谱音频,得到样本乐谱音频集。
63.第六步,基于上述样本乐谱音频集,对初始音频合成模型进行训练,得到训练后的
初始音频合成模型作为音频合成模型。这里,初始音频合成模型可以是未训练的tacotron2模型。首先,标注出上述样本乐谱音频集中每个样本乐谱音频的样本标签。这里,样本标签可以表示样本乐谱音频的时域数据。接着,确定上述初始音频合成模型的网络结构以及初始化上述初始音频合成模型的网络参数。然后,将上述样本乐谱音频集包括的样本乐谱音频作为上述初始音频合成模型的输入,将上述样本乐谱音频集包括的样本乐谱音频对应的样本标签为上述初始音频合成模型的期望输出,利用深度学习方法训练上述初始音频合成模型。最后,将训练得到的上述初始音频合成模型确定为上述训练后的初始音频合成模型。
64.可选地,将上述弹奏评分发送至上述用户的用户终端以进行显示。
65.在一些实施例中,上述执行主体可以将上述弹奏评分发送至上述用户的用户终端以进行显示。
66.本公开的上述各个实施例具有如下有益效果:通过本公开的一些实施例的基于乐谱的乐谱音频检测方法,可以准确检测用户弹奏的乐谱音频。具体来说,导致音频检测不准确的原因在于:在将弹奏的音频转换为midi文件过程中,通常会出现音准损失,导致音频检测不准确。基于此,本公开的一些实施例的基于乐谱的乐谱音频检测方法,首先,响应于接收到用户输入的弹奏乐谱音频,将上述弹奏乐谱音频转化为目标音频格式,得到目标弹奏乐谱音频。由此,便于后续提取音频特征。其次,对目标乐谱音频进行特征提取处理,以生成乐谱特征向量。由此,可以提取出乐谱的特征向量,为后续检测用户弹奏的音频是否准确,提供了参考依据。接着,基于上述目标弹奏乐谱音频,生成音频时域数据。由此,为生成弹奏乐谱音频的特征向量提供了数据支持。然后,对上述音频时域数据进行特征提取处理,以生成音频特征向量。由此,为后续检测用户弹奏的乐谱音频的准确率提供了数据支持。最后,将上述乐谱特征向量与上述音频特征向量进行合并处理,得到合并特征向量,以及将上述合并特征向量输入至预先训练的音频打分模型,得到音频评分作为弹奏评分。由此,可以根据用户弹奏的音频特征向量和曲谱音频的特征向量,检测用户弹奏的乐谱音频的准确性。从而,无须将弹奏的音频转换为midi文件,避免了音准损失而导致的检测误差。
67.进一步参考图2,作为对上述各图所示方法的实现,本公开提供了一种基于乐谱的乐谱音频检测装置的一些实施例,这些装置实施例与图1所示的那些方法实施例相对应,该装置具体可以应用于各种电子设备中。
68.如图2所示,一些实施例的基于乐谱的乐谱音频检测装置200包括:转化单元201、第一提取单元202、生成单元203、第二提取单元204和输入单元205。其中,转化单元201,被配置成响应于接收到用户输入的弹奏乐谱音频,将上述弹奏乐谱音频转化为目标音频格式,得到目标弹奏乐谱音频;第一提取单元202,被配置成对目标乐谱音频进行特征提取处理,以生成乐谱特征向量,其中,上述目标乐谱音频表征的乐谱与上述弹奏乐谱音频表征的乐谱一致;生成单元203,被配置成基于上述目标弹奏乐谱音频,生成音频时域数据;第二提取单元204,被配置成对上述音频时域数据进行特征提取处理,以生成音频特征向量;输入单元205,被配置成将上述乐谱特征向量与上述音频特征向量进行合并处理,得到合并特征向量,以及将上述合并特征向量输入至预先训练的音频打分模型,得到音频评分作为弹奏评分。
69.可以理解的是,该装置200中记载的诸单元与参考图1描述的方法中的各个步骤相对应。由此,上文针对方法描述的操作、特征以及产生的有益效果同样适用于装置200及其
中包含的单元,在此不再赘述。
70.下面参考图3,其示出了适于用来实现本公开的一些实施例的电子设备300的结构示意图。本公开的一些实施例中的电子设备可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、pda(个人数字助理)、pad(平板电脑)、pmp(便携式多媒体播放器)等等的移动终端以及诸如数字tv、台式计算机等等的固定终端。图3示出的电子设备仅仅是一个示例,不应对本公开的实施例的功能和使用范围带来任何限制。
71.如图3所示,电子设备300可以包括处理装置(例如中央处理器、图形处理器等)301,其可以根据存储在只读存储器(rom)302中的程序或者从存储装置308加载到随机访问存储器(ram)303中的程序而执行各种适当的动作和处理。在ram303中,还存储有电子设备300操作所需的各种程序和数据。处理装置301、rom302以及ram303通过总线304彼此相连。输入/输出(i/o)接口305也连接至总线304。
72.通常,以下装置可以连接至i/o接口305:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置306;包括例如液晶显示器(lcd)、扬声器、振动器等的输出装置307;包括例如磁带、硬盘等的存储装置308;以及通信装置309。通信装置309可以允许电子设备300与其他设备进行无线或有线通信以交换数据。虽然图3示出了具有各种装置的电子设备300,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。图3中示出的每个方框可以代表一个装置,也可以根据需要代表至少一个装置。
73.特别地,根据本公开的一些实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的一些实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的一些实施例中,该计算机程序可以通过通信装置309从网络上被下载和安装,或者从存储装置308被安装,或者从rom302被安装。在该计算机程序被处理装置301执行时,执行本公开的一些实施例的方法中限定的上述功能。
74.需要说明的是,本公开的一些实施例中记载的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或至少一个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(ram)、只读存储器(rom)、可擦式可编程只读存储器(eprom或闪存)、光纤、便携式紧凑磁盘只读存储器(cd-rom)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开的一些实施例中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开的一些实施例中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、rf(射频)等等,或者上述的任意合适的组合。
75.在一些实施方式中,客户端、服务器可以利用诸如http(hypertext transfer protocol,超文本传输协议)之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“lan”),广域网(“wan”),网际网(例如,互联网)以及端对端网络(例如,ad hoc端对端网络),以及任何当前已知或未来研发的网络。
76.上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者至少一个程序,当上述一个或者至少一个程序被该电子设备执行时,使得该电子设备:响应于接收到用户输入的弹奏乐谱音频,将上述弹奏乐谱音频转化为目标音频格式,得到目标弹奏乐谱音频;对目标乐谱音频进行特征提取处理,以生成乐谱特征向量,其中,上述目标乐谱音频表征的乐谱与上述弹奏乐谱音频表征的乐谱一致;基于上述目标弹奏乐谱音频,生成音频时域数据;对上述音频时域数据进行特征提取处理,以生成音频特征向量;将上述乐谱特征向量与上述音频特征向量进行合并处理,得到合并特征向量,以及将上述合并特征向量输入至预先训练的音频打分模型,得到音频评分作为弹奏评分。
77.可以以一种或多种程序设计语言或其组合来编写用于执行本公开的一些实施例的操作的计算机程序代码,上述程序设计语言包括面向对象的程序设计语言—诸如java、smalltalk、c ,还包括常规的过程式程序设计语言—诸如“c”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(lan)或广域网(wan)——连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
78.附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或至少一个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
79.描述于本公开的一些实施例中的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括转化单元、第一提取单元、生成单元、第二提取单元和输入单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,输入单元还可以被描述为“将上述乐谱特征向量与上述音频特征向量进行合并处理,得到合并特征向量,以及将上述合并特征向量输入至预先训练的音频打分模型,得到音频评分作为弹奏评分的单元”。
80.本文中以上描述的功能可以至少部分地由一个或至少一个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(fpga)、
专用集成电路(asic)、专用标准产品(assp)、片上系统(soc)、复杂可编程逻辑设备(cpld)等等。
81.以上描述仅为本公开的一些较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开的实施例中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开的实施例中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献