一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

一种用户画像方法、装置和电子设备与流程

2022-11-23 11:04:22 来源:中国专利 TAG:


1.本公开涉及智能交互技术领域,尤其涉及一种用户画像方法、装置和电子设备。


背景技术:

2.在人机交互过程中,用户通过唤醒语音助手,实现通过语音助手来控制电子设备执行相应的操作。如:在家庭场景中,用户通过将遥控器的语音键按压住后,输入需要的语音信息,从而语音助手根据该语音信息控制电子设备运行。或者,用户直接通过安装在电子设备上的麦克风唤醒语音助手,控制电子设备执行相应的操作。
3.可以看出,采用上述两种交互方式均可以唤醒语音助手,但是由于交互方式的不同,导致电子设备接收的同一用户发出的同一语音信息存在差异,此时电子设备会认为有新的用户使用,会重新创建一个声纹标识码。这样,同一个用户在通过不同的交互方式唤醒语音助手时,会出现创建多个声纹标识码的现象,导致无法准确地为用户画像。


技术实现要素:

4.本公开提供了一种用户画像方法、装置和电子设备,以至少解决相关技术中同一个用户在通过不同的交互方式唤醒语音助手时,会出现创建多个声纹标识码的现象,导致无法准确地为用户画像的问题。
5.本公开的技术方案如下:
6.第一方面,本公开提供一种用户画像方法,包括:获取目标账户的至少一条历史语音信息;其中,历史语音信息包括至少两个用户发送的语音信息;采用目标聚类算法对历史语音信息进行聚类,确定每个历史语音信息对应的交互类别,以及每个交互类别对应的至少一个聚类中心;根据聚类中心,确定目标类别的每个聚类中心,与预设类别的每个聚类中心之间的第一距离;其中,目标类别为交互类别中的任一个,预设类别为除目标类别以外的交互类别;根据第一距离,确定目标账号中每个用户的用户画像。
7.在一些可实施的示例中,采用目标聚类算法对历史语音信息进行聚类,确定每个历史语音信息对应的交互类别,以及每个交互类别对应的至少一个聚类中心,包括:根据历史语音信息,确定历史语音信息对应的特征向量;采用目标聚类算法对特征向量进行聚类,确定至少一个聚类中心,以及每个历史语音信息对应的交互类别。
8.在一些可实施的示例中,根据历史语音信息,确定历史语音信息对应的特征向量,包括:根据预先配置的特征提取模型和历史语音信息,确定历史语音信息对应的特征向量。
9.在一些可实施的示例中,特征提取模型包括卷积神经网络模型。
10.在一些可实施的示例中,目标聚类算法包括近邻传播聚类算法、k均值聚类算法、谱聚类以及基于深度学习的聚类算法中的任一项。
11.在一些可实施的示例中,特征向量包括的特征信息包括梅尔频率倒谱系数、滤波器组特征、频谱图中的任一项。
12.在一些可实施的示例中,根据第一距离,确定目标账号中每个用户的用户画像,包
括:根据第一距离,确定小于距离阈值的第一距离对应的第一中心和第二中心;其中,第一中心为目标类别对应的聚类中心,第二中心为预设类别对应的距离中心;根据第一中心对应的历史语音信息和第二中心对应的历史语音信息,确定相似度;根据相似度,确定目标账号中每个用户的用户画像。
13.在一些可实施的示例中,根据第一中心对应的历史语音信息和第二中心对应的历史语音信息,确定相似度,包括:根据第一中心对应的历史语音信息,确定第一中心对应的历史语音信息对应的第一声纹模型;根据第二中心对应的历史语音信息,确定第二中心对应的历史语音信息对应的第二声纹模型;根据第一声纹模型和第二声纹模型,确定第一声纹模型与第二声纹模型之间的相似度。
14.在一些可实施的示例中,根据相似度,确定目标账号中每个用户的用户画像,包括:针对目标账号中的每个用户,执行如下操作:根据相似度,确定小于相似阈值的相似度对应的第一声纹模型和第二声纹模型;根据小于相似阈值的相似度对应的第一声纹模型和第二声纹模型,确定用户画像。
15.在一些可实施的示例中,第一声纹模型和第二声纹模型均包括残差网络模型。
16.在一些可实施的示例中,采用目标聚类算法对历史语音信息进行聚类,确定每个历史语音信息对应的交互类别,以及每个交互类别对应的至少一个聚类中心,包括:对历史语音信息进行目标操作,得到处理后的历史语音信息;其中,目标操作包括采样量化、预加重、分帧加窗和端点检测中的一项或者多项;采用目标聚类算法对处理后的历史语音信息进行聚类,确定每个历史语音信息对应的交互类别,以及每个交互类别对应的至少一个聚类中心。
17.第二方面、本公开提供一种用户画像装置,包括:通信器,用于获取目标账户的至少一条历史语音信息;其中,历史语音信息包括至少两个用户发送的语音信息;处理器,用于采用目标聚类算法对通信器获取的历史语音信息进行聚类,确定每个历史语音信息对应的交互类别,以及每个交互类别对应的至少一个聚类中心;处理器,还用于根据聚类中心,确定目标类别的每个聚类中心,与预设类别的每个聚类中心之间的第一距离;其中,目标类别为交互类别中的任一个,预设类别为除目标类别以外的交互类别;处理器,还用于根据第一距离,确定目标账号中每个用户的用户画像。
18.在一些可实施的示例中,处理器,具体用于根据通信器获取的历史语音信息,确定历史语音信息对应的特征向量;处理器,具体用于采用目标聚类算法对特征向量进行聚类,确定至少一个聚类中心,以及每个历史语音信息对应的交互类别。
19.在一些可实施的示例中,处理器,具体用于根据预先配置的特征提取模型和通信器获取的历史语音信息,确定历史语音信息对应的特征向量。
20.在一些可实施的示例中,特征提取模型包括卷积神经网络模型。
21.在一些可实施的示例中,目标聚类算法包括近邻传播聚类算法、k均值聚类算法、谱聚类以及基于深度学习的聚类算法中的任一项。
22.在一些可实施的示例中,特征向量包括的特征信息包括梅尔频率倒谱系数、滤波器组特征、频谱图中的任一项。
23.在一些可实施的示例中,处理器,具体用于根据第一距离,确定小于距离阈值的第一距离对应的第一中心和第二中心;其中,第一中心为目标类别对应的聚类中心,第二中心
为预设类别对应的距离中心;处理器,具体用于根据第一中心对应的历史语音信息和第二中心对应的历史语音信息,确定相似度;处理器,具体用于根据相似度,确定目标账号中每个用户的用户画像。
24.在一些可实施的示例中,处理器,具体用于根据第一中心对应的历史语音信息,确定第一中心对应的历史语音信息对应的第一声纹模型;处理器,具体用于根据第二中心对应的历史语音信息,确定第二中心对应的历史语音信息对应的第二声纹模型;处理器,具体用于根据第一声纹模型和第二声纹模型,确定第一声纹模型与第二声纹模型之间的相似度。
25.在一些可实施的示例中,处理器,具体用于针对目标账号中的每个用户,执行如下操作:根据相似度,确定小于相似阈值的相似度对应的第一声纹模型和第二声纹模型;根据小于相似阈值的相似度对应的第一声纹模型和第二声纹模型,确定用户画像。
26.在一些可实施的示例中,第一声纹模型和第二声纹模型均包括残差网络模型。
27.在一些可实施的示例中,处理器,具体用于对通信器获取的历史语音信息进行目标操作,得到处理后的历史语音信息;其中,目标操作包括采样量化、预加重、分帧加窗和端点检测中的一项或者多项;处理器,具体用于采用目标聚类算法对处理后的历史语音信息进行聚类,确定每个历史语音信息对应的交互类别,以及每个交互类别对应的至少一个聚类中心。
28.第三方面,本发明提供一种计算机可读存储介质,包括:所述计算机可读存储介质上存储计算机程序,所述计算机程序被处理器执行如第一方面提供的用户画像方法。
29.第四方面,本发明提供一种计算机程序产品,当计算机程序产品在计算机上运行时,使得计算机执行如第一方面的设计方式的用户画像方法。
30.需要说明的是,上述计算机指令可以全部或者部分存储在第一计算机可读存储介质上。其中,第一计算机可读存储介质可以与电子设备的处理器封装在一起的,也可以与电子设备的处理器单独封装,本发明对此不作限定。
31.本发明中第二方面、第三方面以及第四方面的描述,可以参考第一方面的详细描述;并且,第二方面、第三方面以及第四方面的描述的有益效果,可以参考第一方面的有益效果分析,此处不再赘述。
32.本公开实施例提供的技术方案与现有技术相比具有如下优点:
33.以目标账户为单位,通过对该目标账户的至少一条历史语音信息进行分析,从而可以确定目标账号中每个用户的用户画像。如:采用目标聚类算法对所述历史语音信息进行聚类,确定每个历史语音信息对应的交互类别,以及每个交互类别对应的至少一个聚类中心。由于,处于同一个聚类中心的历史语音数据具有一定的相似特征,因此可以认为一个聚类中心代表一个用户。而在这些聚类中心中,存在同一个用户的多个不同的聚类中心,因此需要根据聚类中心,确定目标类别的每个聚类中心,与预设类别的每个聚类中心之间的第一距离。这样,就可以根据第一距离,确定归属于同一个用户的聚类中心。这样就可以根据归属于同一个用户的聚类中心中的历史语音数据,确定出目标账号中每个用户的用户画像。解决了解决相关技术中同一个用户在通过不同的交互方式唤醒语音助手时,会出现创建多个声纹标识码的现象,导致无法准确地为用户画像的问题。
附图说明
34.此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。
35.为了更清楚地说明本公开实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
36.图1为本技术实施例提供的用户画像方法的场景示意图;
37.图2为本技术实施例提供的用户画像方法中显示设备的结构示意图之一;
38.图3为本技术实施例提供的用户画像方法中显示设备的结构示意图之二;
39.图4为本技术实施例提供的用户画像方法的流程示意图之一;
40.图5为本技术实施例提供的用户画像方法的场景示意图之二;
41.图6为本技术实施例提供的用户画像方法中吸引度矩阵和归属度矩阵的关系示意图;
42.图7为本技术实施例提供的用户画像方法的场景示意图之三;
43.图8为本技术实施例提供的用户画像方法中的近场交互类别和远场交互类别的示意图;
44.图9为本技术实施例提供的用户画像方法的场景示意图之四;
45.图10为本技术实施例提供的用户画像方法的目标操作的流程示意图;
46.图11为本技术实施例提供的服务器的结构示意图;
47.图12为本技术实施例提供的一种芯片系统的示意图之一。
具体实施方式
48.为了能够更清楚地理解本公开的上述目的、特征和优点,下面将对本公开的方案进行进一步描述。需要说明的是,在不冲突的情况下,本公开的实施例及实施例中的特征可以相互组合。
49.在下面的描述中阐述了很多具体细节以便于充分理解本公开,但本公开还可以采用其他不同于在此描述的方式来实施;显然,说明书中的实施例只是本公开的一部分实施例,而不是全部的实施例。
50.需要说明的是,在本文中,诸如“第一”和“第二”等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个
……”
限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
51.本公开的实施例中的预加重(pre-emphasis)是指一种在发送端对输入信号高频分量进行补偿的信号处理方式。
52.本公开的实施例中的端点检测,也叫语音活动检测(voice activity detection,vad),它的目的是对语音和非语音的区域进行区分。通俗来理解,端点检测就是为了从带有
噪声的语音中准确的定位出语音的开始点,和结束点,去掉静音的部分,去掉噪声的部分,找到一段语音真正有效的内容。
53.图1为根据本技术一个或多个实施例的显示设备与控制装置之间操作场景的示意图,如图1所示,用户可通过移动终端300和控制装置100操作显示设备200。控制装置100可以是遥控器,遥控器和显示设备的通信包括红外协议通信、蓝牙协议通信,无线或其他有线方式来控制显示设备200。用户可以通过遥控器上按键,语音输入、控制面板输入等输入用户指令,来控制显示设备200。在一些实施例中,也可以使用移动终端、平板电脑、计算机、笔记本电脑、和其他智能设备以控制显示设备200。
54.需要说明的是,上述示例是以本公开实施例提供的电子设备为显示设备为例进行说明的。在其他的一些示例中,本公开实施例提供的电子设备还可以是其他具有语音交互功能的设备,如制冷设备、燃气设备和通信设备等,制冷设备可以是冰箱、或者空调,燃气设备可以是燃气热水器、油烟机或者燃气灶等,通信设备可以是手机或者平板电脑等,此处不做限定。
55.在一些实施例中,移动终端300可与显示设备200安装软件应用,通过网络通信协议实现连接通信,实现一对一控制操作的和数据通信的目的。也可以将移动终端300上显示音视频内容传输到显示设备200上,实现同步显示功能显示设备200还与服务器400通过多种通信方式进行数据通信。可允许显示设备200通过局域网(lan)、无线局域网(wlan)和其他网络进行通信连接。服务器400可以向显示设备200提供各种内容和互动。显示设备200,可以液晶显示器、oled显示器、投影显示设备。显示设备200除了提供广播接收电视功能之外,还可以附加提供计算机支持功能的智能网络电视功能。
56.在一些实施例中,本技术实施例提供电子设备可以为上述服务器400。其中,用户在显示设备200上登陆了目标账户后,显示设备200将用户每次输入的语音信息发送至服务器400。服务器400将该目标账户每次发送的语音信息进行存储后,得到该目标账户的历史语音信息。之后,服务器400通过获取目标账户的至少一条历史语音信息。服务器400采用目标聚类算法对历史语音信息进行聚类,确定每个历史语音信息对应的交互类别,以及每个交互类别对应的至少一个聚类中心。服务器400根据聚类中心,确定目标类别的每个聚类中心,与预设类别的每个聚类中心之间的第一距离。服务器400根据所述第一距离,确定所述目标账号中每个用户的用户画像。
57.图2示出了根据示例性实施例中显示设备200的硬件配置框图。如图2所示显示设备200包括调谐解调器210、通信器220、检测器230、外部装置接口240、控制器250、显示器260、音频输出接口270、存储器、供电电源、用户接口280中的至少一种。控制器包括中央处理器,视频处理器,音频处理器,图形处理器,ram,rom,用于输入/输出的第一接口至第n接口。显示器260可为液晶显示器、oled显示器、触控显示器以及投影显示器中的至少一种,还可以为一种投影装置和投影屏幕。调谐解调器210通过有线或无线接收方式接收广播电视信号,以及从多个无线或有线广播电视信号中解调出音视频信号,如以及epg数据信号。检测器230用于采集外部环境或与外部交互的信号。控制器250和调谐解调器210可以位于不同的分体设备中,即调谐解调器210也可在控制器250所在的主体设备的外置设备中,如外置机顶盒等。
58.在一些实施例中,控制器250,通过存储在存储器上中各种软件控制程序,来控制
显示设备的工作和响应用户的操作。控制器250控制显示设备200的整体操作。用户可在显示器260上显示的图形用户界面(gui)输入用户命令,则用户输入接口通过图形用户界面(gui)接收用户输入命令。或者,用户可通过输入特定的声音或手势进行输入用户命令,则用户输入接口通过传感器识别出声音或手势,来接收用户输入命令。
59.在一些实施例中,声音采集器可以是麦克风,也称“话筒”,“传声器”,用于将声音信号转换为电信号。当进行语音交互时,用户可以通过人嘴靠近麦克风发声,将声音信号输入到麦克风。显示设备200可以设置至少一个麦克风。在另一些实施例中,显示设备200可以设置两个麦克风,除了采集声音信号,还可以实现降噪功能。在另一些实施例中,显示设备200还可以设置三个,四个或更多麦克风,实现采集声音信号,降噪,还可以识别声音来源,实现定向录音功能等。
60.其中,麦克风可以是内置在显示设备200上,或者麦克风通过有线或者无线的方式与显示设备200相连接。例如,麦克风可以设置于显示设备200的显示器260的下侧边缘处。当然,本技术实施例对麦克风在显示设备200上的位置不作限定。或者,显示设备200可以不包括麦克风,即上述麦克风并未设置于显示设备200中。显示设备200可以通过接口(如usb接口130)外接麦克风(也可以称为话筒)。该外接的话筒可以通过外部固定件(如带夹子的摄像头支架)固定在显示设备200上。例如,外接的话筒可以通过外部固定件,固定在显示设备200的显示器260的边缘处,如上侧边缘处。
61.在一些示例中,以申请一个或多个实施例的显示设备200为电视机1,并且电视机1的操作系统为android系统为例,如图3所示,电视机1从逻辑上可以分为应用程序(applications)层(简称“应用层”)21,内核层22和硬件层23。
62.其中,如图3所示,硬件层可包括图2所示的通信器220、检测器230和显示器260等。应用层21包括一个或多个应用。应用可以为系统应用,也可以为第三方应用。如,应用层21包括语音识别应用,语音识别应用可以提供人工智能(artificial intell igence,ai)语音功能,用于实现电视机1与服务器400的连接。
63.内核层22作为硬件层和应用层21之间的软件中间件,用于管理和控制硬件与软件资源。
64.服务器400包括通信控制模块200、数据获取模型201、数据处理模块202和数据存储模块203。通信控制模块200用于与电视机1建立通信连接。如:电视机1中的语音识别应用通过调用通信器220,实现与服务器400的通信控制模块200的通信连接。
65.在一些示例中,内核层22包括第一驱动,第一驱动用于将检测器230采集的语音数据发送至语音识别应用。电视机1中的语音识别应用启动,电视机1与服务器400建立了通信连接的情况下,第一驱动用于将检测器230采集的用户输入的语音数据发送至语音识别应用进行识别。之后,语音识别应用将该语音信息(包括目标账号和语音数据)发送至服务器的数据获取模型201。数据存储模块203将数据获取模型201获取的语音信息存储至预设存储空间。之后,数据获取模型201获取数据存储模块203中存储的目标账户的至少一条历史语音信息。之后,数据处理模块202采用目标聚类算法对数据获取模型201获取的历史语音信息进行聚类,确定每个历史语音信息对应的交互类别,以及每个所述交互类别对应的至少一个聚类中心。数据处理模块202根据聚类中心,确定目标类别的每个聚类中心,与预设类别的每个聚类中心之间的第一距离。数据处理模块202根据第一距离,确定目标账号中每
个用户的用户画像。
66.本技术所涉及的历史语音信息可以为经用户授权或者经过各方充分授权的数据。
67.以下实施例中的方法均可以在具有上述硬件结构的服务器400或者电视机1中实现。以下实施例中以本公开实施例提供的电子设备为上述服务器400为例,对本技术实施例的方法进行说明。
68.本技术实施例提供一种用户画像方法,如图4所示,该用户画像方法可以包括s11-s14。
69.s11、获取目标账户的至少一条历史语音信息。其中,历史语音信息包括至少两个用户发送的语音信息。
70.在一些示例中,一个家庭中可以有多个具有语音交互功能的电子设备,如:电视机、手机,空调等。通常,用户在使用这些电子设备时,需要在每个电子设备上注册一个用户账户,以方便后续使用。之后,用户在每个电子设备上登陆了该用户账户后,家庭中的成员就可以直接使用该电子设备的语音交互功能,如此就会产生大量的历史语音信息。在使用该电子设备时,受到采集方式,交互方式和电子设备本身的影响,导致电子设备采集的同一用户的语音信息也会存在差异,这样电子设备无法准确地为用户进行画像。为此本公开实施例提供的用户画像方法,通过将使用相同注册信息(如:手机号,身份证号码等)注册的用户账户作为目标账户,通过对目标账户对应的至少一个历史语音信息进行分析,从而可以对使用该目标账户的每个用户进行用户画像。
71.具体的,历史语音信息包括:精采语音信息(如通过消音室、专业录音设备采集的语音信息)、电话录音信息、互联网语音信息、电子设备采集的语音信息等。
72.需要说明的是,上述示例是以目标账户为用户使用相同注册信息注册的用户账户为例进行说明的。在其他的一些示例中,目标账户可以为互联网协议地址,或者设备标识码(如设备串号、物理地址等),此处不做限定。
73.s12、采用目标聚类算法对历史语音信息进行聚类,确定每个历史语音信息对应的交互类别,以及每个交互类别对应的至少一个聚类中心。
74.在一些示例中,用户在使用电子设备的语音交互功能时,可以采用不同的交互方式,如:用户通过将遥控器的语音键按压住后,输入需要的语音信息,或者用户直接通过安装在电子设备上的麦克风输入需要的语音信息。同一用户采用不同的交互方式输入相同的语音信息也会存在差异。为了更好地进行用户画像,本公开实施例提供的用户画像方法,采用目标聚类算法对历史语音信息进行聚类,从而确定每个历史语音信息对应的交互方式所归属的交互类别,如:存在两个交互类别,分别为近场交互类别和远场交互类别,归属于远场交互类别中的历史语音信息为通过电子设备上安装的麦克风输入的,除归属于远场交互类别中的历史语音信息以外的历史语音信息归属于近场交互类别。这样就可以分析出,每个用户在不同交互类别中的对应的历史语音数据,以及该用户在不同交互类别中的对应的历史语音数据对应的聚类中心。
75.s13、根据聚类中心,确定目标类别的每个聚类中心,与预设类别的每个聚类中心之间的第一距离。其中,目标类别为交互类别中的任一个,预设类别为除目标类别以外的交互类别。
76.在一些示例中,为了分析出不同的交互类别中的同一个用户的历史语音数据,本
公开实施例提供的用户画像方法,通过计算目标类别的每个聚类中心,与预设类别的每个聚类中心之间的第一距离,从而可以根据第一距离,确定出不同的交互类别中的同一个用户的历史语音数据。这样,就可以根据不同的交互类别中的同一个用户的历史语音数据,确定出该用户的用户画像。
77.s14、根据第一距离,确定目标账号中每个用户的用户画像。
78.由上述可知,本公开实施例提供的用户画像方法,通过对该目标账户的至少一条历史语音信息进行分析,从而可以确定目标账号中每个用户的用户画像。如:采用目标聚类算法对所述历史语音信息进行聚类,确定每个历史语音信息对应的交互类别,以及每个交互类别对应的至少一个聚类中心。由于,处于同一个聚类中心的历史语音数据具有一定的相似特征,因此可以认为一个聚类中心代表一个用户。而在这些聚类中心中,存在同一个用户的多个不同的聚类中心,因此需要根据聚类中心,确定目标类别的每个聚类中心,与预设类别的每个聚类中心之间的第一距离。这样,就可以根据第一距离,确定归属于同一个用户的聚类中心。这样就可以根据归属于同一个用户的聚类中心中的历史语音数据,确定出目标账号中每个用户的用户画像。
79.在一些可实施的实例中,在图4所示实施例或前述其他任一实施例的基础上,进一步的可参考图5,上述s12具体可以通过下述s120和s121实现。
80.s120、根据历史语音信息,确定历史语音信息对应的特征向量。
81.在一些示例中,本公开实施例提供的用户画像方法,通过对历史语音信息进行处理,从而可以得到历史语音信息对应的特征向量。由于特征向量中包含了说话人的特征信息,这样在对特征向量进行聚类时,可以更好地分析出归属于同一个用户的特征向量,如此能够更好地分析出用户的用户画像。
82.s121、采用目标聚类算法对特征向量进行聚类,确定至少一个聚类中心,以及每个历史语音信息对应的交互类别。
83.在一些示例中,采用目标聚类算法对特征向量进行聚类时,是对历史语音信息对应的特征向量按照相似度进行归并聚类。其中,目标聚类算法包括近邻传播聚类算法(affinity propagation,ap)、k均值聚类算法(k-means clustering algorithm,k-means)、谱聚类以及基于深度学习的聚类算法中的任一项。
84.示例性的,以目标聚类算法为ap聚类算法为例,采用近邻传播聚类算法对特征向量进行聚类,确定至少一个聚类中心,以及每个历史语音信息对应的交互类别的过程如下:
85.一、将归属度矩阵元素初始化为0,计算待聚类的特性向量x={x1,x2,

,xn}的相似度矩阵s,确定参考度p值。
86.具体的,相似度矩阵即表示所有历史语音信息的相似度程度,矩阵中s(i,k)表示第i个历史语音信息和第k个历史语音信息之间的相似度,在ap聚类算法中通常使用负的欧式距离来表示相似度
87.s(i,k)=-‖x
i-xk‖2,
ꢀꢀ
公式一。
88.其中,xi和xk表示第i个历史语音信息和第k个历史语音信息的特征向量。
89.在ap聚类算法中,将相似度矩阵中的对角线元素s(k,k)(k=1,

,n)单独赋值,称之为参考度p(preference)值,用于表示当前点被作为聚类中心的概率大小。在ap聚类算法中,初始阶段假设不同历史语音信息作为聚类中心的概率相同,一般将所有历史语音信息
的参考度p值设置为相似度矩阵中的最小值或者中位数,参考度p值的设置也影响了最终聚类的类别数目,参考度p值设置的越大,最终聚类类别的数目越多。
90.二、根据吸引度矩阵的计算公式和归属度矩阵的计算公式,依次计算当前吸引度矩阵r和归属度矩阵a。
91.具体的,将吸引度矩阵和归属度矩阵分别定义为r=[r(i,k)]和a=[a(i,k)]。其中:吸引度r(i,k)表示历史语音信息k作为历史语音信息i的聚类中心的合适程度,即历史语音信息k相比其他历史语音信息作为历史语音信息i的聚类中心的优势;归属度a(i,k)表示历史语音信息i选择历史语音信息k作为聚类中心的合适程度。
[0092]
示例性的,吸引度矩阵和归属度矩阵的关系如图6所示。在ap聚类算法中,归属度矩阵在初始化阶段全部初始化为0,然后吸引度矩阵和归属度矩阵的计算交替进行,从而达到信息交替更新的目的。
[0093]
具体的,吸引度矩阵的计算公式如公式二所示:
[0094]
r(i,k)=s(i,k)-maxk′
≠k
{a(i,k

) s(i,k

)},
ꢀꢀ
公式二。
[0095]
其中:maxk′
≠k
{a(i,k

) s(i,k

)}表示历史语音信息i的近邻信息,即除历史语音信息k外其他历史语音信息作为历史语音信息i的聚类中心的合适程度。
[0096]
归属度矩阵的计算公式如公式三所示:
[0097][0098]
其中,∑i′
≠k
max{0,r(i

,k)}表示历史语音信息k的近邻信息,历史语音信息k对所有近邻节点的吸引度越大,则它作为聚类中心的合适程度也就越大,历史语音信息i对其归属度也就越大。
[0099]
三、引入阻尼系数λ,根据吸引度矩阵更新公式和归属度矩阵更新公式,更新吸引度矩阵和归属度矩阵。
[0100]
具体的,在吸引度矩阵和归属度矩阵交替更新过程中,为了避免更新造成的震荡以及为了加速收敛速度,引入阻尼因子λ,则对吸引度矩阵和归属度矩阵的加权更新过程为:
[0101]rt
=(1-λ)
×rt
λ
×rt-1

ꢀꢀ
公式四。
[0102]at
=(1-λ)
×at
λ
×at-1

ꢀꢀ
公式五。
[0103]
其中,r
t-1
表示上一次迭代的吸引度矩阵,a
t-1
表示上一次迭代的归属度矩阵值。
[0104]
需要说明的是,吸引度矩阵和归属度矩阵分别定义为r=[r(i,k)]和a=[a(i,k)]。在每一次的迭代过程中,r(i,k)和a(i,k)的更新结果都是当前迭代过程中的更新值和上一次迭代结果二者加权得到。t表示迭代的次数,r
t
=r
t
(i,k),ra
t
=a
t
(i,k),t为大于或等于0的整数。
[0105]
具体的,λ(0《λ《1)越大,消除的震荡效果越好,但会减缓算法的收敛速度。其中,λ∈[0,1),λ越大,矩阵的每次更新值越小;λ越大,更新较快,易出现震荡。
[0106]
四、根据公式四和公式六,分别确定至少一个距离中心以及所有历史语音信息的交互类别。
[0107]
具体的,在吸引度矩阵和归属度矩阵交替更新完成后,首先确定聚类的中心样本,
对所有的历史语音信息i计算其对自身的吸引度和归属度之和。其中,历史语音信息i的吸引度和归属度之和大于0时,即a(i,i) r(i,i)》0,则将该历史语音信息i作为聚类。
[0108]
历史语音信息i的吸引度和归属度之和小于或等于0时,根据公式6,确定聚类中心。
[0109]
k:argmaxk(a(i,k) r(i,k)),
ꢀꢀ
公式六。
[0110]
其中,k表示a(i,k) r(i,k)的最大值对应k。
[0111]
五、当聚类结果稳定或达到最大迭代次数,则结束迭代过程。如此,便可以确定至少一个聚类中心,以及每个历史语音信息对应的交互类别。
[0112]
需要说明的是,上述示例是以根据历史语音信息,确定历史语音信息对应的特征向量为例进行说明的。在其他的一些示例中,由于历史语音信息中可能存在无效信息,如重复信息、错误信息等,因此需要对历史语音信息进行目标操作,得到处理后的历史语音信息。其中,目标操作包括采样量化、预加重、分帧加窗和端点检测中的一项或者多项。之后,根据处理后的历史语音信息,确定处理后的历史语音信息对应的特征向量。然后,采用目标聚类算法对特征向量进行聚类,确定至少一个聚类中心,以及每个历史语音信息对应的交互类别。
[0113]
在一些可实施的实例中,在图5所示实施例或前述其他任一实施例的基础上,上述s120具体可以通过下述s1200实现。
[0114]
s1200、根据预先配置的特征提取模型和历史语音信息,确定历史语音信息对应的特征向量。
[0115]
在一些示例中,在提取历史语音信息的特征向量时,由于深度学习算法模型抽取的声纹特征具有较强的表征能力。因此,可以采用深度学习算法模型历史语音信息的特征向量。如:该深度学习算法模型为卷积神经网络模型(convolutional neural networks,cnn)。其中,cnn是由输入层、卷积层、特征维度转换层、平均池化层和全连接层构成。其中,卷积层用于提取说话人的深层特征,平均池化层用于将帧级别特征转化为语句级特征,全连接层主要用于特征降维。在训练时,以交叉熵作为损失函数,最后一层采用softmax作为激活函数,进行一个多分类模型训练;在预测时,去除softmax层,将最后一个隐藏层得到的向量用来表示该语句对应说话人的特征向量。其中,提取的特征信息的维度不同,cnn的参数设置也有细微的差异。
[0116]
示例性的,cnn的训练过程如下:
[0117]
首先、将提取的特征信息(如:mfcc,或者filter bank特征)作为cnn的输入,训练帧级特征。
[0118]
其次、池化层将帧级特征池化聚合,训练得到语句级特征;
[0119]
最后、将语句级特征送入全连接层,降维得到每条语音信息的特征向量作为输出。
[0120]
如此,在将历史语音信息输入至cnn后,便可以得到该历史语音信息对应的特征向量。
[0121]
在一些可实施的示例中,特征向量包括的特征信息包括梅尔频率倒谱系数(mel frequency cepstrum coefficient,mfcc)、滤波器组(filter bank)特征、频谱图中的任一项。
[0122]
在一些示例中,mfcc是基于人耳的听觉特征设计的,更符合人耳的听觉特性,可以
使得语音信号有着更好的表示,因此通常使用mfcc作为特征信息。在其他的一些示例中,特征信息还可以包括fi lter bank特征和语谱图中的任一项。其中,因为dnn可以学习filter bank特征间的相关性,因此不需要去相关性的操作(即无需进行离散余弦变换(discrete cosine transformation,dct)。语谱图中表示能量较大的红色像素点聚集形成条状,并且在时间轴上扩展,红色条纹的长度体现了说话人的语音频域。从整个语谱图来看,条纹越多说明有效信息越多,并且还可以看出某段时间内声音的强弱变化,语音的频率分布等等。不同说话人的语音特征在语谱图对应不同的表现,也表明了cnn提取语谱图特征并进行分类的可行性。
[0123]
示例性的,以特征信息为语谱图为例,提取历史语音信息对应的语谱图的过程如下:
[0124]
首先、对历史语音数据进行目标操作,得到处理后的历史语音数据。
[0125]
之后,对处理后的历史语音数据中的每一帧信号都进行短时傅里叶变换,最后对频率段进行取对数非线性缩放,将其转换到对数域,从而获得语谱图。
[0126]
在一些可实施的实例中,在图4所示实施例或前述其他任一实施例的基础上,进一步的可参考图7,上述s14具体可以通过下述s140-s142实现。
[0127]
s140、根据第一距离,确定小于距离阈值的第一距离对应的第一中心和第二中心。其中,第一中心为目标类别对应的聚类中心,第二中心为预设类别对应的距离中心。
[0128]
示例性的,如图8所示,结合图1以及上述s12给出的示例,以本公开实施例提供的用户画像方法中包括2个交互类别,分别为近场交互类别和远场交互类别,近场交互类别中包括2个聚类执中心,分别为聚类中心1和聚类中心2,远场交互类别中包括3个聚类中心,分别为聚类中心3、距离中心4和聚类中心5。
[0129]
当目标类别为近场交互类别时,则预设类别为远场交互类别。此时,需要计算近场交互类别中每个聚类中心,与远场交互类别中每个聚类中心的第一距离,如:聚类中心1与聚类中心3之间的第一距离、聚类中心1与聚类中心4之间的第一距离、以及聚类中心1与聚类中心5之间的第一距离。之后,根据第一距离,确定小于距离阈值的第一距离对应的第一中心和第二中心,如:聚类中心1与聚类中心3之间的第一距离小于距离阈值,则第一中心为聚类中心1,第二中心为聚类中心3。
[0130]
s141、根据第一中心对应的历史语音信息和第二中心对应的历史语音信息,确定相似度。
[0131]
在一些示例中,结合上述s140给出的示例,可以看出聚类中心1对应多个历史语音信息,聚类中心3对应多个历史语音信息。此时,为了确定聚类中心1对应多个历史语音信息与聚类中心3对应多个历史语音信息是否为同一个用户通过不同的交互方式发出的语音信息,需要确定聚类中心1对应每个历史语音信息,和聚类中心3对应每个历史语音信息之间的相似度。如:计算聚类中心1对应每个历史语音信息的特征向量,与聚类中心3对应每个历史语音信息的特征向量的余弦相似度。将余弦相似度作为聚类中心1对应每个历史语音信息,和聚类中心3对应每个历史语音信息之间的相似度。或者,计算聚类中心1对应每个历史语音信息的特征向量,与聚类中心3对应每个历史语音信息的特征向量的皮尔森相关系数。将皮尔森相关系数作为聚类中心1对应每个历史语音信息,和聚类中心3对应每个历史语音信息之间的相似度。或者,计算聚类中心1对应每个历史语音信息的特征向量,与聚类中心3
对应每个历史语音信息的特征向量的欧几里德距离。将欧几里德距离作为聚类中心1对应每个历史语音信息,和聚类中心3对应每个历史语音信息之间的相似度。
[0132]
s142、根据相似度,确定目标账号中每个用户的用户画像。
[0133]
在一些可实施的实例中,在图7所示实施例或前述其他任一实施例的基础上,上述s141具体可以通过下述s1410-s1412实现。
[0134]
s1410、根据第一中心对应的历史语音信息,确定第一中心对应的历史语音信息对应的第一声纹模型。
[0135]
s1411、根据第二中心对应的历史语音信息,确定第二中心对应的历史语音信息对应的第二声纹模型。
[0136]
在一些示例中,电子设备在接收到用户发送的语音信息后,为了能够识别当前输入语音信息的用户。通过声纹模型去学习语音信息,从而能够识别出当前输入语音信息的用户。同一用户在使用相同的电子设备,采用不同的交互方式输入语音信息时,此时电子设备接收到的语音信息可能存在差异,因此电子设备会重新创建一个声纹模型去学习新的语音信息,这样会导致电子设备中保存有同一个用户的多个声纹模型。因此,可以通过计算第一声纹模型与第二声纹模型之间的相似度,进行用户画像。
[0137]
具体的,第一声纹模型和第二声纹模型均为残差网络(residual network,resnet)模型。
[0138]
在一些示例中,本公开实施例提供的用户画像方法,通过使用更容易进行优化的resnet模型,从而够通过增加相当的深度来提高电子设备识别出当前输入语音信息的用户的准确率。
[0139]
需要说明的是,上述示例是以电子设备在接收到用户发送的语音信息后,创建声纹模型去学习语音信息,从而能够识别出当前输入语音信息的用户为例进行说明的。在其他的一些示例中,电子设备可以在确定出第一中心对应的历史语音信息和第二中心对应的历史语音信息后,创建一个用于学习第一中心对应的历史语音信息的声纹模型(以下简称为第一声纹模型),以及用于学习第二中心对应的历史语音信息的声纹模型(以下简称为第二声纹模型)。这样就可以大大提高电子设备识别出当前输入语音信息的用户的准确率。
[0140]
s1412、根据第一声纹模型和第二声纹模型,确定第一声纹模型与第二声纹模型之间的相似度。
[0141]
在一些示例中,第一声纹模型与第二声纹模型之间的相似度是指第一声学模型输出的特性向量和第二声学模型输出的特征向量之间的相似度。如:采用特征相似度计算方法计算第一声学模型输出的特性向量与第二声学模型输出的特征向量之间的相似度。
[0142]
具体的,特征相似度计算方法包括:余弦相似度、欧氏距离、曼哈顿距离中的任一项,此处不做限定。
[0143]
示例性的,特征相似度计算方法为余弦相似度时,将第一声学模型输出的特性向量与第二声学模型输出的特征向量之间的余弦相似度,作为第一声学模型输出的特性向量和第二声学模型输出的特征向量之间的相似度。或者,特征相似度计算方法为欧氏距离时,将第一声学模型输出的特性向量与第二声学模型输出的特征向量之间的欧氏距离,作为第一声学模型输出的特性向量和第二声学模型输出的特征向量之间的相似度。或者,特征相似度计算方法为曼哈顿距离时,将第一声学模型输出的特性向量与第二声学模型输出的特
征向量之间的曼哈顿距离,作为第一声学模型输出的特性向量和第二声学模型输出的特征向量之间的相似度。
[0144]
在一些可实施的实例中,在图7所示实施例或前述其他任一实施例的基础上,上述s142具体可以通过下述s1420实现。
[0145]
s1420、针对目标账号中的每个用户,执行如下操作:根据相似度,确定小于相似阈值的相似度对应的第一声纹模型和第二声纹模型;根据小于相似阈值的相似度对应的第一声纹模型和第二声纹模型,确定用户画像。
[0146]
具体的,相似度阈值大于等于0,且小于或等于1。示例性的,相似度阈值可以根据测试效果进行调整,如相似度阈值等于0.5。
[0147]
示例性的,如图8所示,结合上述s141给出的示例,以电子设备可以在确定出第一中心对应的历史语音信息和第二中心对应的历史语音信息后,创为第一声纹模型,以及第二声纹模型为例进行说明。
[0148]
创建一个用于学习聚类中心1对应每个历史语音信息的第一声纹模型1,以及创建一个用于学习聚类中心3对应每个历史语音信息的第二声纹模型3。此时,确定第一声纹模型1和第二声纹模型3的相似度小于相似阈值时,说明第一声纹模型1和第二声纹模型3对应的是同一个用户,如用户1。之后,将第一声纹模型1和第二声纹模型3合并,确定合并后的声纹模型为该用户1的用户画像1。其中,合并后的声纹模型包括第一声纹模型1和第二声纹模型3。
[0149]
如此,通过多次循环执行上述操作,便可以识别出目标账户中的每个用户的用户画像。
[0150]
需要说明的是,上述示例是以合并后的声纹模型包括第一声纹模型和第二声纹模型为例进行说明的。在其他的一些示例中,用户可能仅使用了一种交互方式输入语音信息,此时仅需创建一个声纹模型去学习该用户输入的语音信息。如:结合上述s141给出的示例,如图8所示,用户2仅通过归属于近场交互类别的交互方式输入语音信息时,此时用户2对应一个第一声纹模型2。即用户2的用户画像2仅包括第一声纹模型2。或者,用户3仅通过归属于远场交互类别的交互方式输入语音信息时,此时用户3对应一个第二声纹模型5。即用户3的用户画像3仅包括第二声纹模型5,此处不做限定。
[0151]
在一些可实施的实例中,在图4所示实施例或前述其他任一实施例的基础上,进一步的可参考图9,上述s12具体可以通过下述s122和s123实现。
[0152]
s122、对历史语音信息进行目标操作,得到处理后的历史语音信息。其中,目标操作包括采样量化、预加重、分帧加窗和端点检测中的一项或者多项。
[0153]
在一些示例中,历史语音信息为模型信号,为了能够转换为计算机可以识别的数据,需要对历史语音信息进行目标操,从而得作到能够被计算机识别的处理后的历史语音信息,方便后续进行用户画像。
[0154]
具体的,当历史语音信息的噪音比较大时,需要对历史语音信息进行降噪滤波或语音增强补偿等处理后,在进行目标操作。
[0155]
s123、采用目标聚类算法对处理后的历史语音信息进行聚类,确定每个历史语音信息对应的交互类别,以及每个交互类别对应的至少一个聚类中心。
[0156]
上述主要从方法的角度对本技术实施例提供的方案进行了介绍。为了实现上述功
能,其包含了执行各个功能相应的硬件结构和/或软件模块。本领域技术人员应该很容易意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,本技术能够以硬件或硬件和计算机软件的结合形式来实现。某个功能究竟以硬件还是计算机软件驱动硬件的方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本技术的范围。
[0157]
本技术实施例可以根据上述方法示例对服务器和电子设备进行功能模块的划分,例如,可以对应各个功能划分各个功能模块,也可以将两个或两个以上的功能集成在一个处理模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。需要说明的是,本技术实施例中对模块的划分是示意性的,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
[0158]
如图11所示,本技术的实施例提供一种服务器400的结构示意图。包括通信器101和处理器102。
[0159]
通信器101,用于获取目标账户的至少一条历史语音信息;其中,历史语音信息包括至少两个用户发送的语音信息;处理器102,用于采用目标聚类算法对通信器101获取的历史语音信息进行聚类,确定每个历史语音信息对应的交互类别,以及每个交互类别对应的至少一个聚类中心;处理器102,还用于根据聚类中心,确定目标类别的每个聚类中心,与预设类别的每个聚类中心之间的第一距离;其中,目标类别为交互类别中的任一个,预设类别为除目标类别以外的交互类别;处理器102,还用于根据第一距离,确定目标账号中每个用户的用户画像。
[0160]
在一些可实施的示例中,处理器102,具体用于根据通信器101获取的历史语音信息,确定历史语音信息对应的特征向量;处理器102,具体用于采用目标聚类算法对特征向量进行聚类,确定至少一个聚类中心,以及每个历史语音信息对应的交互类别。
[0161]
在一些可实施的示例中,处理器102,具体用于根据预先配置的特征提取模型和通信器101获取的历史语音信息,确定历史语音信息对应的特征向量。
[0162]
在一些可实施的示例中,特征提取模型为卷积神经网络模型。
[0163]
在一些可实施的示例中,目标聚类算法包括近邻传播聚类算法、k均值聚类算法、谱聚类以及基于深度学习的聚类算法中的任一项。
[0164]
在一些可实施的示例中,特征向量包括的特征信息包括梅尔频率倒谱系数、滤波器组特征、频谱图中的任一项。
[0165]
在一些可实施的示例中,处理器102,具体用于根据第一距离,确定小于距离阈值的第一距离对应的第一中心和第二中心;其中,第一中心为目标类别对应的聚类中心,第二中心为预设类别对应的距离中心;处理器102,具体用于根据第一中心对应的历史语音信息和第二中心对应的历史语音信息,确定相似度;处理器102,具体用于根据相似度,确定目标账号中每个用户的用户画像。
[0166]
在一些可实施的示例中,处理器102,具体用于根据第一中心对应的历史语音信息,确定第一中心对应的历史语音信息对应的第一声纹模型;处理器102,具体用于根据第二中心对应的历史语音信息,确定第二中心对应的历史语音信息对应的第二声纹模型;处理器102,具体用于根据第一声纹模型和第二声纹模型,确定第一声纹模型与第二声纹模型之间的相似度。
[0167]
在一些可实施的示例中,处理器102,具体用于针对目标账号中的每个用户,执行如下操作:根据相似度,确定小于相似阈值的相似度对应的第一声纹模型和第二声纹模型;根据小于相似阈值的相似度对应的第一声纹模型和第二声纹模型,确定用户画像。
[0168]
在一些可实施的示例中,第一声纹模型和第二声纹模型均为残差网络模型。
[0169]
在一些可实施的示例中,处理器102,具体用于对通信器101获取的历史语音信息进行目标操作,得到处理后的历史语音信息;其中,目标操作包括采样量化、预加重、分帧加窗和端点检测中的一项或者多项;处理器102,具体用于采用目标聚类算法对处理后的历史语音信息进行聚类,确定每个历史语音信息对应的交互类别,以及每个交互类别对应的至少一个聚类中心。
[0170]
其中,上述方法实施例涉及的各步骤的所有相关内容均可以援引到对应功能模块的功能描述,其作用在此不再赘述。
[0171]
当然,本技术实施例提供的服务器400包括但不限于上述模块,例如服务器400还可以包括存储器103。存储器103可以用于存储该写服务器400的程序代码,还可以用于存储写服务器400在运行过程中生成的数据,如写请求中的数据等。
[0172]
作为一个示例,结合图3,服务器400中的通信控制模块200和数据获取模型201实现的功能与图11中的通信器101的功能相同,数据处理模块202实现的功能与图11中的处理器102的功能相同,数据存储模块203实现的功能与图11中的存储器103的功能相同。
[0173]
本技术实施例还提供一种服务器,该服务器可以包括:存储器和一个或多个处理器。该存储器和处理器耦合。该存储器用于存储计算机程序代码,该计算机程序代码包括计算机指令。当处理器执行计算机指令时,服务器可执行上述方法实施例中服务器400执行的各个功能或者步骤。
[0174]
本技术实施例还提供一种芯片系统,该芯片系统可以应用于前述实施例中的服务器400。如图12所示,该芯片系统包括至少一个处理器1501和至少一个接口电路1502。该处理器1501可以是上述服务器400中的处理器。处理器1501和接口电路1502可通过线路互联。该处理器1501可以通过接口电路1502从上述服务器400的存储器接收并执行计算机指令。当计算机指令被处理器1501执行时,可使得服务器400执行上述实施例中服务器400执行的各个步骤。当然,该芯片系统还可以包含其他分立器件,本技术实施例对此不作具体限定。
[0175]
本技术实施例还提供一种计算机可读存储介质,用于存储上述服务器400运行的计算机指令。
[0176]
本技术实施例还提供一种计算机程序产品,包括上述服务器400运行的计算机指令。
[0177]
通过以上实施方式的描述,所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。
[0178]
在本技术所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个装置,或一些特征可以忽略,或不执行。另一点,所显示或
讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
[0179]
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是一个物理单元或多个物理单元,即可以位于一个地方,或者也可以分布到多个不同地方。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
[0180]
另外,在本技术各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
[0181]
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个可读取存储介质中。基于这样的理解,本技术实施例的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该软件产品存储在一个存储介质中,包括若干指令用以使得一个设备(可以是单片机,芯片等)或处理器(processor)执行本技术各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:u盘、移动硬盘、只读存储器(read only memory,rom)、随机存取存储器(random access memory,ram)、磁碟或者光盘等各种可以存储程序代码的介质。
[0182]
为了方便解释,已经结合具体的实施方式进行了上述说明。但是,上述在一些实施例中讨论不是意图穷尽或者将实施方式限定到上述公开的具体形式。根据上述的教导,可以得到多种修改和变形。上述实施方式的选择和描述是为了更好的解释原理以及实际的应用,从而使得本领域技术人员更好的使用实施方式以及适于具体使用考虑的各种不同的变形的实施方式。
再多了解一些

本文用于创业者技术爱好者查询,仅供学习研究,如用于商业用途,请联系技术所有人。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献