一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

一种拟人化机器人的交互方法、装置、设备及存储介质与流程

2021-11-03 14:46:00 来源:中国专利 TAG:


1.本技术涉及机器人技术领域,尤其涉及一种拟人化机器人的交互方法、装置、设备及存储介质。


背景技术:

2.机器人具有感知、决策、执行等基本特征,可以辅助甚至替代人类完成危险、繁重、复杂的工作,提高工作效率与质量,服务人类生活,扩大或延伸人的活动及能力范围。并且,随着科技的不断发展,机器人技术不再仅限于工业制造领域内的应用,机器人技术正迅速地扩展到家庭娱乐、医疗服务等领域。
3.目前市场上推出的家用智能机器人,例如阿尔法蛋等,虽然相比于电脑或移动终端等,能够与人们进行更直观的人机交互,但却只能被动的接收信息、被动的回答用户的问题,且回答方式单一,就像预置的播放器一样。然而主动沟通才是人与人之间发起情感联系的重要过程,只有在主动沟通中才能及时了解其他用户的情绪,比如及时了解到一些用户可能正处于需要被关心、被安慰的情绪状态等。可见,由于现有的家用智能机器人只能被动唤醒工作,无法主动为家庭人员等用户“分忧解难”,使得这些机器人的“拟人化”程度不够,不能真正意义上具有类似人类的思维或主动的交互方式,显得十分呆板,难以满足现代家用的使用需求。
4.因此,如何提高家用智能机器人的“拟人化”程度,以实现拟人化机器人与人们的智能交互是目前亟待解决的技术问题。


技术实现要素:

5.本技术实施例的主要目的在于提供一种拟人化机器人的交互方法、装置、设备及存储介质,能够通过机器人主动采集周围环境信息,并根据这些环境信息为家庭人员等用户“分忧解难”,实现与家庭人员等用户之间的更加主动的智能交互,从而提高了这些机器人的“拟人化”程度,进而也提高了用户的使用体验。
6.本技术实施例提供了一种拟人化机器人的交互方法,包括:
7.主动采集目标机器人周围预设范围内的环境信息;所述环境信息包括声音信息、图像信息、所述目标机器人与他人的接触信息中的至少一项;
8.利用所述环境信息,识别出所述目标机器人周围预设范围内用户的身份信息和情绪状态;
9.根据所述用户的身份信息和情绪状态,主动向所述用户反馈符合其情绪状态的拟人化交互信息,所述拟人化交互信息包括语音信息、表情信息、动作信息中的至少一项。
10.一种可能的实现方式中,所述主动采集目标机器人周围预设范围内的环境信息,包括:
11.利用所述目标机器人上预置的声音传感器,主动采集所述目标机器人周围预设范围内的声音信息;
12.在通过所述声音信息判断出所述目标机器人周围预设范围内存在用户时,启动所述目标机器人上预置的拍摄装置,拍摄包含所述用户的图像信息;
13.利用所述目标机器人上预置的触觉传感器,主动采集所述目标机器人与周围预设范围内用户之间的接触信息。
14.一种可能的实现方式中,当所述环境信息包括声音信息时;所述利用所述环境信息,识别出所述目标机器人周围预设范围内用户的身份信息和情绪状态,包括:
15.提取所述声音信息的声纹特征,作为目标声纹特征;
16.将所述目标声纹特征与所述目标机器人中预先存储的预设用户的预设声纹特征进行对比,确定所述目标声纹特征所属的目标用户的身份信息和情绪状态。
17.一种可能的实现方式中,当所述环境信息包括图像信息时;所述利用所述环境信息,识别出所述目标机器人周围预设范围内用户的身份信息和情绪状态,包括:
18.提取所述图像信息的图像特征,作为目标图像特征;
19.将所述目标图像特征与所述目标机器人中预先存储的预设用户的预设图像特征进行对比,确定所述目标图像特征所属的目标用户的身份信息和情绪状态。
20.一种可能的实现方式中,当所述环境信息包括声音信息和图像信息时;所述利用所述环境信息,识别出所述目标机器人周围预设范围内用户的身份信息和情绪状态,包括:
21.提取所述声音信息的声纹特征,作为目标声纹特征;并提取所述图像信息的图像特征,作为目标图像特征;
22.将所述目标声纹特征与所述目标机器人中预先存储的预设用户的预设声纹特征进行对比,得到第一对比结果;并将所述目标图像特征与所述目标机器人中预先存储的预设用户的预设图像特征进行对比,得到第二对比结果;
23.根据所述第一对比结果和第二对比结果,确定所述目标声纹特征和所述目标图像特征所属的目标用户的身份信息和情绪状态。
24.一种可能的实现方式中,所述目标机器人中预先存储的m个预设用户各自对应的n种类型的情绪状态;所述将所述目标声纹特征与所述目标机器人中预先存储的预设用户的预设声纹特征进行对比,确定所述目标声纹特征所属的目标用户的身份信息和情绪状态,包括:
25.计算所述目标声纹特征与所述m个预设用户的m个预设声纹特征之间的m个相似度;所述m为大于1的正整数;所述n为大于1的正整数;
26.从所述m个相似度中选择出最大相似度,并确定所述目标声纹特征所属的目标用户为所述最大相似度对应的预设用户;以及从n种类型的情绪状态中确定出所述目标用户的情绪状态。
27.一种可能的实现方式中,所述目标机器人中预先存储的m个预设用户各自对应的n种类型的情绪状态;所述将所述目标图像特征与所述目标机器人中预先存储的预设用户的预设图像特征进行对比,确定所述目标图像特征所属的目标用户的身份信息和情绪状态,包括:
28.计算所述目标图像特征与所述m个预设用户的m个预设图像特征之间的m个相似度;所述m为大于1的正整数;所述n为大于1的正整数;
29.从所述m个相似度中选择出最大相似度,并确定所述目标图像特征所属的目标用
户为所述最大相似度对应的预设用户;以及从n种类型的情绪状态中确定出所述目标用户的情绪状态。
30.一种可能的实现方式中,所述目标机器人中预先存储的m个预设用户各自对应的n种类型的情绪状态;所述将所述目标声纹特征与所述目标机器人中预先存储的预设用户的预设声纹特征进行对比,得到第一对比结果;并将所述目标图像特征与所述目标机器人中预先存储的预设用户的预设图像特征进行对比,得到第二对比结果,包括:
31.计算所述目标声纹特征与所述m个预设用户的m个预设声纹特征之间的m个第一相似度;以及计算所述目标图像特征与所述m个预设用户的m个预设图像特征之间的m个第二相似度;所述m为大于1的正整数;所述n为大于1的正整数;
32.所述根据所述第一对比结果和第二对比结果,确定所述目标声纹特征所属的目标用户的身份信息和情绪状态,包括:
33.从所述m个第一相似度中和所述m个第二相似度中选择出第一相似度和第二相似度总和满足预设条件时对应的预设用户,作为所述目标声纹特征和所述目标图像特征所属的目标用户;并从所述n种类型的情绪状态中确定出所述目标用户的情绪状态。
34.一种可能的实现方式中,当所述环境信息包括所述目标机器人与他人的接触信息时;所述利用所述环境信息,识别出所述目标机器人周围预设范围内用户的身份信息和情绪状态,包括:
35.根据所述目标机器人与他人的接触信息,识别出所述目标机器人周围预设范围内用户的身份信息和情绪状态。
36.一种可能的实现方式中,所述主动向所述用户反馈符合其情绪状态的拟人化交互信息,包括:
37.主动向所述用户反馈符合其情绪状态的语音信息;所述语音信息是通过声调的变化来体现所述目标机器人的目标情绪状态;所述目标情绪状态是符合所述用户的情绪状态的;
38.和/或,主动向所述用户反馈符合其情绪状态的表情信息;所述表情信息是通过所述目标机器人的显示屏上的颜色变化、表情图像变化、灯光变化中的至少一项来体现所述目标机器人的目标情绪状态;所述目标情绪状态是符合所述用户的情绪状态的。
39.一种可能的实现方式中,所述目标机器人包括预设摆动部件;所述主动向所述用户反馈符合其情绪状态的拟人化交互信息,包括:
40.通过所述预设摆动部件摆出预设的动作,主动向所述用户反馈符合其情绪状态的动作信息;所述动作信息体现了所述目标机器人的目标情绪状态;所述目标情绪状态是符合所述用户的情绪状态的。
41.本技术实施例还提供了一种拟人化机器人的交互装置,包括:
42.采集单元,用于主动采集目标机器人周围预设范围内的环境信息;所述环境信息包括声音信息、图像信息、所述目标机器人与他人的接触信息中的至少一项;
43.识别单元,用于利用所述环境信息,识别出所述目标机器人周围预设范围内用户的身份信息和情绪状态;
44.反馈单元,用于根据所述用户的身份信息和情绪状态,主动向所述用户反馈符合其情绪状态的拟人化交互信息,所述拟人化交互信息包括语音信息、表情信息、动作信息中
的至少一项。
45.一种可能的实现方式中,所述采集单元包括:
46.第一采集子单元,用于利用所述目标机器人上预置的声音传感器,主动采集所述目标机器人周围预设范围内的声音信息;
47.拍摄子单元,用于在通过所述声音信息判断出所述目标机器人周围预设范围内存在用户时,启动所述目标机器人上预置的拍摄装置,拍摄包含所述用户的图像信息;
48.第二采集子单元,用于利用所述目标机器人上预置的触觉传感器,主动采集所述目标机器人与周围预设范围内用户之间的接触信息。
49.一种可能的实现方式中,当所述环境信息包括声音信息时;所述识别单元包括:
50.第一提取子单元,用于提取所述声音信息的声纹特征,作为目标声纹特征;
51.第一对比子单元,用于将所述目标声纹特征与所述目标机器人中预先存储的预设用户的预设声纹特征进行对比,确定所述目标声纹特征所属的目标用户的身份信息和情绪状态。
52.一种可能的实现方式中,当所述环境信息包括图像信息时;所述识别单元包括:
53.第二提取子单元,用于提取所述图像信息的图像特征,作为目标图像特征;
54.第二对比子单元,用于将所述目标图像特征与所述目标机器人中预先存储的预设用户的预设图像特征进行对比,确定所述目标图像特征所属的目标用户的身份信息和情绪状态。
55.一种可能的实现方式中,当所述环境信息包括声音信息和图像信息时;所述识别单元包括:
56.第三提取子单元,用于提取所述声音信息的声纹特征,作为目标声纹特征;并提取所述图像信息的图像特征,作为目标图像特征;
57.第三对比子单元,用于将所述目标声纹特征与所述目标机器人中预先存储的预设用户的预设声纹特征进行对比,得到第一对比结果;并将所述目标图像特征与所述目标机器人中预先存储的预设用户的预设图像特征进行对比,得到第二对比结果;
58.确定子单元,用于根据所述第一对比结果和第二对比结果,确定所述目标声纹特征和所述目标图像特征所属的目标用户的身份信息和情绪状态。
59.一种可能的实现方式中,所述目标机器人中预先存储的m个预设用户各自对应的n种类型的情绪状态;所述第一对比子单元包括:
60.第一计算子单元,用于计算所述目标声纹特征与所述m个预设用户的m个预设声纹特征之间的m个相似度;所述m为大于1的正整数;所述n为大于1的正整数;
61.第一选择子单元,用于从所述m个相似度中选择出最大相似度,并确定所述目标声纹特征所属的目标用户为所述最大相似度对应的预设用户;以及从n种类型的情绪状态中确定出所述目标用户的情绪状态。
62.一种可能的实现方式中,所述目标机器人中预先存储的m个预设用户各自对应的n种类型的情绪状态;所述第二对比子单元包括:
63.第二计算子单元,用于计算所述目标图像特征与所述m个预设用户的m个预设图像特征之间的m个相似度;所述m为大于1的正整数;所述n为大于1的正整数;
64.第二选择子单元,用于从所述m个相似度中选择出最大相似度,并确定所述目标图
像特征所属的目标用户为所述最大相似度对应的预设用户;以及从n种类型的情绪状态中确定出所述目标用户的情绪状态。
65.一种可能的实现方式中,所述目标机器人中预先存储的m个预设用户各自对应的n种类型的情绪状态;所述第三对比子单元具体用于:
66.计算所述目标声纹特征与所述m个预设用户的m个预设声纹特征之间的m个第一相似度;以及计算所述目标图像特征与所述m个预设用户的m个预设图像特征之间的m个第二相似度;所述m为大于1的正整数;所述n为大于1的正整数;
67.所述确定子单元具体用于:
68.从所述m个第一相似度中和所述m个第二相似度中选择出第一相似度和第二相似度总和满足预设条件时对应的预设用户,作为所述目标声纹特征和所述目标图像特征所属的目标用户;并从所述n种类型的情绪状态中确定出所述目标用户的情绪状态。
69.一种可能的实现方式中,当所述环境信息包括所述目标机器人与他人的接触信息时;所述识别单元具体用于:
70.根据所述目标机器人与他人的接触信息,识别出所述目标机器人周围预设范围内用户的身份信息和情绪状态。
71.一种可能的实现方式中,所述反馈单元具体用于:
72.主动向所述用户反馈符合其情绪状态的语音信息;所述语音信息是通过声调的变化来体现所述目标机器人的目标情绪状态;所述目标情绪状态是符合所述用户的情绪状态的;
73.和/或,主动向所述用户反馈符合其情绪状态的表情信息;所述表情信息是通过所述目标机器人的显示屏上的颜色变化、表情图像变化、灯光变化中的至少一项来体现所述目标机器人的目标情绪状态;所述目标情绪状态是符合所述用户的情绪状态的。
74.一种可能的实现方式中,所述目标机器人包括预设摆动部件;所述反馈单元具体用于:
75.通过所述预设摆动部件摆出预设的动作,主动向所述用户反馈符合其情绪状态的动作信息;所述动作信息体现了所述目标机器人的目标情绪状态;所述目标情绪状态是符合所述用户的情绪状态的。
76.本技术实施例还提供了一种拟人化机器人的交互设备,包括:处理器、存储器、系统总线;
77.所述处理器以及所述存储器通过所述系统总线相连;
78.所述存储器用于存储一个或多个程序,所述一个或多个程序包括指令,所述指令当被所述处理器执行时使所述处理器执行上述拟人化机器人的交互方法中的任意一种实现方式。
79.本技术实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有指令,当所述指令在终端设备上运行时,使得所述终端设备执行上述拟人化机器人的交互方法中的任意一种实现方式。
80.本技术实施例还提供了一种计算机程序产品,所述计算机程序产品在终端设备上运行时,使得所述终端设备执行上述拟人化机器人的交互方法中的任意一种实现方式。
81.本技术实施例提供的一种拟人化机器人的交互方法、装置、设备及存储介质,目标
机器人首先主动采集周围预设范围内的环境信息;其中,环境信息包括声音信息、图像信息、以及目标机器人与他人的接触信息中的至少一项,然后利用环境信息,识别出目标机器人周围预设范围内用户的身份信息和情绪状态;接着,可以根据用户的身份信息和情绪状态,主动向用户反馈符合其情绪状态的拟人化交互信息,其中,拟人化交互信息包括语音信息、表情信息、动作信息中的至少一项。可见,由于本技术实施例中目标机器人是通过主动采集周围的环境信息,来识别出周围家庭成员等用户的情绪状态,从而能够根据其情绪状态,主动向用户反馈符合其情绪状态的语音或动作等拟人化的交互信息,为其“分忧解难”,进而实现了目标机器人与家庭人员等用户之间的更加主动的智能交互,不仅提高了这些机器人的“拟人化”程度,也提高了用户的使用体验。
附图说明
82.为了更清楚地说明本技术实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本技术的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
83.图1为本技术实施例提供的一种拟人化机器人的交互方法的流程示意图;
84.图2为本技术实施例提供的拟人化机器人的框架示意图之一;
85.图3为本技术实施例提供的拟人化机器人的框架示意图之二;
86.图4为本技术实施例提供的一种拟人化机器人的交互装置的组成示意图。
具体实施方式
87.随着社会的进步,机器人不仅在工业、医学、农业或者军事上应用广泛,更是在生活上开始慢慢地融入人类的社交。常见社交上的机器人多应用于家庭,特别是家用智能机器人,例如阿尔法蛋等,用以为家庭成员在生活上提供更多的便利。但目前这些机器人只能被动的接收信息、被动的回答用户的问题,且回答方式单一,就像预置的播放器一样,无法主动、及时的了解用户的情绪,比如及时了解到一些用户可能正处于需要被关心、被安慰的情绪状态等。所以,由于现有的家用智能机器人只能被动唤醒工作,无法主动为家庭人员等用户“分忧解难”,使得这些机器人的“拟人化”程度不够,不能真正意义上具有类似人类的思维或主动的交互方式,显得十分呆板,难以满足现代家用的使用需求。
88.为解决上述缺陷,本技术提供了一种拟人化机器人的交互方法,目标机器人首先主动采集周围预设范围内的环境信息;其中,环境信息包括声音信息、图像信息、以及目标机器人与他人的接触信息中的至少一项,然后利用环境信息,识别出目标机器人周围预设范围内用户的身份信息和情绪状态;接着,可以根据用户的身份信息和情绪状态,主动向用户反馈符合其情绪状态的拟人化交互信息,其中,拟人化交互信息包括语音信息、表情信息、动作信息中的至少一项。可见,由于本技术实施例中目标机器人是通过主动采集周围的环境信息,来识别出周围家庭成员等用户的情绪状态,从而能够根据其情绪状态,主动向用户反馈符合其情绪状态的语音或动作等拟人化的交互信息,为其“分忧解难”,进而实现了目标机器人与家庭人员等用户之间的更加主动的智能交互,不仅提高了这些机器人的“拟人化”程度,也提高了用户的使用体验。
89.为使本技术实施例的目的、技术方案和优点更加清楚,下面将结合本技术实施例中的附图,对本技术实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本技术一部分实施例,而不是全部的实施例。基于本技术中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本技术保护的范围。
90.第一实施例
91.参见图1,为本实施例提供的一种拟人化机器人的交互方法的流程示意图,该方法包括以下步骤:
92.s101:主动采集目标机器人周围预设范围内的环境信息;其中,环境信息包括声音信息、图像信息、目标机器人与他人的接触信息中的至少一项。
93.在本实施例中,将需要实现与用户之间的主动智能交互的任一拟人化机器人定义为目标机器人,需要说明的是,本实施例不限制目标机器人的类型,比如,目标机器人可以是人工智能学习助手阿尔法蛋机器人,其能够为孩子定制的人工智能技术,为孩子提供学习方式,提高学习兴趣和效率等。
94.为了提高目标机器人的拟人化,首先需要目标机器人主动采集其周围预设范围内的环境信息,如可以主动采集其周围5米以内的环境信息等,具体范围取值可根据实际情况进行设定,本技术实施例对此不进行限定。并且,为了提高目标机器人的主动性,也可利用定时器,周期性的启动目标机器人的信息采集功能,以便目标机器人可以及时获取其周围所处的环境信息,用以执行后续步骤s102。
95.其中,目标机器人主动采集的其周围预设范围内的环境信息可以包括声音信息、图像信息、目标机器人与他人的接触信息中的至少一项。且目标机器人的主动性表现在无需家庭人员等用户的唤醒,自身定时就会进行环境信息的采集过程,从而使得目标机器人的拟人化程度较高,并且通过与家庭人员等用户之间的更加主动的智能交互,也提高了用户对于目标机器人的使用体验。
96.一种可选的实现方式是,本步骤s101的具体实现过程可以包括下述步骤a1

a3:
97.步骤a1:利用目标机器人上预置的声音传感器,主动采集目标机器人周围预设范围内的声音信息。
98.在本实现方式中,为了便于目标机器人能够主动、及时获取其周围预设范围内的声音信息,通常预先会在目标机器人上安装用于采集声音的传感器,且对于声音传感器的类型和规格不做限定,可根据实际情况选择。比如,可以选择特定规格的麦克风阵列安装于目标机器人上,作为声音传感器,定时、主动的采集目标机器人周围预设范围内(如5米内)的声音信息。进而通过对获取到的声音信息进行识别,用以判断出在周围预设范围内是否存在人物走动的声音或其他可以表征用户存在的声音,用以执行后续步骤a2。
99.步骤a2:在通过声音信息判断出目标机器人周围预设范围内存在用户时,启动目标机器人上预置的拍摄装置,拍摄包含用户的图像信息。
100.在本实现方式中,为了便于目标机器人能够主动、及时获取其周围预设范围内的图像信息,通常预先会在目标机器人上安装用于拍摄图像或视频的拍摄装置,且对于拍摄装置的类型和规格不做限定,可根据实际情况选择。比如,可以选择清晰度较高的摄像头安装于目标机器人上,用于在确定出目标机器人周围预设范围内(如5米内)存在用户时,及时拍摄到包含这些用户的图像。进而可以后续通过步骤s102对图像进行识别,以判断出这些
用户的身份信息和情绪状态,用以执行后续步骤s103。
101.步骤a3:利用目标机器人上预置的触觉传感器,主动采集目标机器人与周围预设范围内用户之间的接触信息。
102.在本实现方式中,为了便于目标机器人能够主动、及时获取其周围预设范围内的接触信息,通常预先会在目标机器人上安装用于获取用户与目标机器人之间的接触信息的触觉传感器,且对于触觉传感器的类型和规格不做限定,可根据实际情况选择。并且,当目标机器人周围预设范围内(如5米内)存在用户与目标机器人进行了接触时,例如,当用户触摸了目标机器人的手臂、或者用户拍打了目标机器人等,即可通过安装于目标机器人上的触觉传感器,获取到这些接触信息,进而可以后续通过步骤s102对这些接触信息进行识别,以判断出这些用户的情绪状态,用以执行后续步骤s103。
103.s102:利用环境信息,识别出目标机器人周围预设范围内用户的身份信息和情绪状态。
104.在本实施例中,目标机器人通过步骤s101主动采集到周围预设范围内的环境信息后,进一步可以对这些环境信息进行处理,以根据处理结果,识别出目标机器人周围预设范围内用户的身份信息和情绪状态,比如,识别出周围预设范围内用户是哪些家庭成员(如家庭中的爸爸、妈妈或孩子等),以及该用户目前的情绪状态(如喜悦、愤怒等),用以执行后续步骤s103。
105.具体来讲,一种可选的实现方式是,当环境信息包括声音信息时;本步骤s102的具体实现过程可以包括下述步骤b1

b2:
106.步骤b1:提取声音信息的声纹特征,作为目标声纹特征。
107.在本实现方式中,目标机器人通过步骤s101主动采集到周围预设范围内的声音信息后,进一步可以对声音信息进行声音识别,从其中提取出表征其声纹信息的声纹特征,并将其定义为目标声纹特征,并将其作为识别依据,用以通过后续步骤b2,实现对声音信息的有效识别,并进一步识别出目标声纹特征所属的目标用户的身份信息和情绪状态。
108.具体来讲,在提取声音信息的声纹特征时,首先需要对目标语音进行分帧处理,得到对应的语音帧序列,然后再对分帧后的语音帧序列进行预加重;进而再依次提取出每一语音帧的声纹特征,其中,该声纹特征指的是用于表征对应语音帧的声纹信息的特征数据,比如,可以是梅尔倒谱系数(mel

scale frequency cepstral coefficients,简称mfcc)特征或对数梅尔滤波器组(log mel

filterbank,简称fbank)特征等。
109.需要说明的是,本技术实施例并不限定声音信息的声纹特征的提取方法,也不限定具体的提取过程,可根据实际情况选择适当的提取方法,以及进行相应的特征提取操作。
110.步骤b2:将目标声纹特征与目标机器人中预先存储的预设用户的预设声纹特征进行对比,确定目标声纹特征所属的目标用户的身份信息和情绪状态。
111.需要说明的是,为了提高目标机器人的拟人化程度,实现与家庭人员等用户之间的更加主动的智能交互。通常需要人为在目标机器人中预先存储家庭成员或与家庭成员接触的用户的个人信息,以及目标机器人自身记录的与其进行过交互的交互对象的信息。
112.其中,在目标机器人中预先存储的家庭成员或与家庭成员接触的用户的个人信息可以包括用户的出生年月、体重、身高、上下班时间、个人爱好、个人图像(如头像图像、全身图像等)、声纹特征信息等。并且,个人图像中包含了表征对应用户各种类型情绪状态(如
喜、怒、哀、乐、烦、困、累、饿等)的预设图像特征,以及声纹特征信息中也包含了表征对应用户各种类型情绪状态(如喜、怒、哀、乐、烦、困、累、饿等)的预设声纹特征。
113.而与目标机器人进行过交互的交互对象的信息也可以包括交互对象对应的图像信息和声音信息等,这些信息可以在交互过程中,通过目标机器人上的拍摄装置或声音传感器采集得到,可以理解的是,这些信息可以在不断的交互过程中进行更新和完善。并且,若交互对象为之前未存储过的用户,则会在交互过程中为其建立新的人物档案,并在后续交互中自行完善该用户的个人信息。
114.在此基础上,在通过步骤b1提取出目标声纹特征后,进一步可以将目标声纹特征与目标机器人中预先存储的预设用户(即目标机器人中预先存储家庭成员或与家庭成员接触的用户以及与目标机器人进行过交互的交互对象)的预设声纹特征进行对比,确定目标声纹特征所属的目标用户的身份信息和情绪状态。例如,假设采集到的声音信息为“今天在幼儿园吃的芒果好好吃啊”,则通过声纹特征进行对比,可以确定出目标声纹特征所属的目标用户的身份信息为家庭成员中的孩子,且其对应的情绪状态为“喜”。
115.具体来讲,当目标机器人中预先存储的m个预设用户各自对应的n种类型的情绪状态,且m和n均为大于1的正整数时,本步骤b2的具体实现过程包括下述步骤b21

b22:
116.步骤b21:计算目标声纹特征与m个预设用户的m个预设声纹特征之间的m个相似度。
117.在本实现方式中,当需要对目标声纹特征所属的目标用户的身份信息进行确认,以识别出目标用户是目标机器人中预先存储的m个预设用户中哪一个用户时,在通过步骤b1得到目标用户具有的目标声纹特征后,进一步可以分别计算出目标用户的目标声纹特征与这m个预设用户的m个预设声纹特征之间的m个相似度,用以执行后续步骤b22,具体计算公式如下:
[0118][0119]
其中,v1表示目标用户的目标声纹特征;v2表示预设用户的预设声纹特征;cos(v1,v2)表示目标用户的目标声纹特征与预设用户的预设声纹特征之间的相似度,cos(v1,v2)的取值越高,表示目标用户和预设用户越相似,即,目标用户与预设用户是同一个人的可能性越大,反之,cos(v1,v2)的取值越小,表示目标用户和预设用户越不相似,即,目标用户和预设用户是同一个人的可能性越小。
[0120]
步骤b22:从m个相似度中选择出最大相似度,并确定目标声纹特征所属的目标用户为最大相似度对应的预设用户;以及从n种类型的情绪状态中确定出目标用户的情绪状态。
[0121]
在本实现方式中,通过步骤b21计算出目标用户的目标声纹特征与m个预设用户的m个预设声纹特征之间的m个相似度后,进一步可以从这m个相似度中选择出最大相似度,并确定目标用户为该最大相似度对应的预设用户。并且可以根据目标用户的目标声纹特征包含的声调信息,确定出用户的情绪状态是预设用户对应的n种类型的情绪状态(如喜、怒、哀、乐、烦、困、累、饿这八种情绪状态)中的至少一种。
[0122]
举例说明:假设采集到的声音信息为“今天在幼儿园吃的芒果好好吃啊”,,且目标机器人中预先存储有三个预设用户甲、乙、丙以及各用户对应的八种情绪状态“喜、怒、哀、
乐、烦、困、累、饿”,以及分别计算出目标用户的目标声纹特征与预设用户甲的预设声纹特征之间的相似度为0.09、目标用户的目标声纹特征与预设用户乙的预设声纹特征之间的相似度为0.93、目标用户的目标声纹特征与预设用户丙的预设声纹特征之间的相似度为0.13,则可以从中确定最高相似度为0.94,且根据该最高相似度为0.94,得到的识别结果为目标用户的身份就是预设用户乙。进一步通过对目标用户的目标声纹特征包含的声调信息进行分析,可以确定出用户的情绪状态是预设用户乙对应的八种类型的情绪状态中的“喜”或“乐”。
[0123]
另一种可选的实现方式是,当环境信息包括图像信息时;本步骤s102的具体实现过程可以包括下述步骤c1

c2:
[0124]
步骤c1:提取图像信息的图像特征,作为目标图像特征。
[0125]
在本实现方式中,目标机器人通过步骤s101主动采集到周围预设范围内的图像信息后,进一步可以对图像信息进行声音识别,从其中提取出图像特征,并将其定义为目标图像特征,并将其作为识别依据,用以通过后续步骤c2,实现对图像信息的有效识别,并进一步识别出目标图像特征所属的目标用户的身份信息和情绪状态。
[0126]
需要说明的是,本技术实施例并不限定图像信息的图像特征的提取方法,也不限定具体的提取过程,可根据实际情况选择适当的提取方法,以及进行相应的特征提取操作。
[0127]
步骤c2:将目标图像特征与目标机器人中预先存储的预设用户的预设图像特征进行对比,确定目标图像特征所属的目标用户的身份信息和情绪状态。
[0128]
在本实现方式中,在通过步骤c1提取出目标图像特征后,进一步可以将目标图像特征与目标机器人中预先存储的预设用户(即目标机器人中预先存储家庭成员或与家庭成员接触的用户以及与目标机器人进行过交互的交互对象)的预设图像特征进行对比,确定目标图像特征所属的目标用户的身份信息和情绪状态。例如,假设采集到的图像信息为一张孩子的脸部微笑特写图像,则通过图像特征进行对比,可以确定出目标图像特征所属的目标用户的身份信息为家庭成员中的孩子,且其对应的情绪状态为“喜”。
[0129]
具体来讲,当目标机器人中预先存储的m个预设用户各自对应的n种类型的情绪状态,且m和n均为大于1的正整数时,本步骤c2的具体实现过程包括下述步骤c21

c22:
[0130]
步骤c21:计算目标图像特征与m个预设用户的m个预设图像特征之间的m个相似度。
[0131]
在本实现方式中,当需要对目标图像特征所属的目标用户的身份信息进行确认,以识别出目标用户是目标机器人中预先存储的m个预设用户中哪一个用户时,在通过步骤c1得到目标用户具有的目标图像特征后,进一步可以分别计算出目标用户的目标图像特征与这m个预设用户的m个预设图像特征之间的m个相似度,用以执行后续步骤c22,具体计算公式如下:
[0132][0133]
其中,p1表示目标用户的目标图像特征;p2表示预设用户的预设图像特征;cos(p1,p2)表示目标用户的目标图像特征与预设用户的预设图像特征之间的相似度,cos(p1,p2)的取值越高,表示目标用户和预设用户越相似,即,目标用户与预设用户是同一个人的可能性越大,反之,cos(p1,p2)的取值越小,表示目标用户和预设用户越不相似,即,目标用户和预
设用户是同一个人的可能性越小。
[0134]
步骤c22:从m个相似度中选择出最大相似度,并确定目标图像特征所属的目标用户为最大相似度对应的预设用户;以及从n种类型的情绪状态中确定出目标用户的情绪状态。
[0135]
在本实现方式中,通过步骤c21计算出目标用户的目标图像特征与m个预设用户的m个预设图像特征之间的m个相似度后,进一步可以从这m个相似度中选择出最大相似度,并确定目标用户为该最大相似度对应的预设用户。并且可以根据目标用户的目标图像特征包含的表情信息,确定出用户的情绪状态是预设用户对应的n种类型的情绪状态(如喜、怒、哀、乐、烦、困、累、饿这八种情绪状态)中的至少一种。
[0136]
举例说明:假设采集到的图像信息为一张孩子的脸部微笑特写图像,且目标机器人中预先存储有三个预设用户j、q、k以及各用户对应的八种情绪状态“喜、怒、哀、乐、烦、困、累、饿”,以及分别计算出目标用户的目标图像特征与预设用户j的预设图像特征之间的相似度为0.12、目标用户的目标图像特征与预设用户q的预设图像特征之间的相似度为0.21、目标用户的目标图像特征与预设用户k的预设图像特征之间的相似度为0.85,则可以从中确定最高相似度为0.85,且根据该最高相似度为0.85,得到的识别结果为目标用户的身份就是预设用户k。进一步通过对目标用户的图像信息包含的表情信息(即“微笑”)进行分析,可以确定出用户的情绪状态是预设用户k对应的八种类型的情绪状态中的“喜”或“乐”。
[0137]
再一种可选的实现方式是,当环境信息包括声音信息和图像信息时;上述步骤s102的具体实现过程可以包括下述步骤d1

d2:
[0138]
步骤d1:提取声音信息的声纹特征,作为目标声纹特征;并提取图像信息的图像特征,作为目标图像特征。
[0139]
在本实现方式中,本步骤d1的实现过程与上述步骤b1和c1一致,相关之处可参见上述步骤b1和c1的详细描述,在此不再赘述。。
[0140]
步骤d2:将目标声纹特征与目标机器人中预先存储的预设用户的预设声纹特征进行对比,得到第一对比结果;并将目标图像特征与目标机器人中预先存储的预设用户的预设图像特征进行对比,得到第二对比结果。
[0141]
在本实现方式中,在通过步骤d1提取出目标声纹特征和目标图像特征后,进一步可以通过执行步骤b2和c2的实现过程,分别将目标声纹特征与目标机器人中预先存储的预设用户的预设声纹特征进行对比,以及将目标图像特征与目标机器人中预先存储的预设用户的预设图像特征进行对比,分别得到第一对比结果和第二对比结果。
[0142]
步骤d3:根据第一对比结果和第二对比结果,确定目标声纹特征和目标图像特征所属的目标用户所属的目标用户的身份信息和情绪状态。
[0143]
在本实现方式中,在通过步骤d2得到第一对比结果和第二对比结果后,进一步可以将二者进行综合分析,以确定出目标声纹特征所属的目标用户的身份信息和情绪状态。例如,假设采集到的声音信息为“今天在幼儿园吃的芒果好好吃啊”,则通过声纹特征进行对比,得到的第一对比结果是:目标声纹特征所属的目标用户的身份信息为家庭成员中的孩子,且其对应的情绪状态为“喜”。且假设采集到的图像信息为一张孩子的脸部微笑特写图像,则通过图像特征进行对比,得到的第二对比结果是:目标图像特征所属的目标用户的
身份信息为家庭成员中的孩子,且其对应的情绪状态为“喜”。由此,通过将声音对比结果和图像对比结果的综合分析,可以确定出目标用户即为家庭成员中的孩子,且其对应的情绪状态为“喜”。
[0144]
具体来讲,当目标机器人中预先存储的m个预设用户各自对应的n种类型的情绪状态,且m和n均为大于1的正整数时,上述步骤d2的具体实现过程为:计算目标声纹特征与m个预设用户的m个预设声纹特征之间的m个第一相似度;以及计算目标图像特征与所述m个预设用户的m个预设图像特征之间的m个第二相似度。
[0145]
在本实现方式中,当需要对目标声纹特征和目标图像特征所属的目标用户的身份信息进行确认,以识别出目标用户是目标机器人中预先存储的m个预设用户中哪一个用户时,在通过步骤b1得到目标用户具有的目标声纹特征,以及通过步骤c1得到目标用户具有的目标图像特征后,进一步可以利用上述公式(1)和(2)分别计算出目标声纹特征与这m个预设用户的m个预设声纹特征之间的m个相似度(此处将其定义为第一相似度),及目标图像特征与这m个预设用户的m个预设图像特征之间的m个相似度(此处将其定义为第二相似度)。
[0146]
在此基础上,上述步骤d2的具体实现过程为:从m个第一相似度中和m个第二相似度中选择出第一相似度和第二相似度总和满足预设条件时对应的预设用户,作为目标声纹特征和目标图像特征所属的目标用户;并从n种类型的情绪状态中确定出目标用户的情绪状态。
[0147]
具体来讲,在计算出m个第一相似度和m个第二相似度后,进一步可以从m个第一相似度中和m个第二相似度中选择出第一相似度和第二相似度总和满足预设条件时对应的预设用户,其中,预设条件可根据实际情况进行设定,本实施例对此不进行限定,比如可以设定为选择出第一相似度和第二相似度总和的最高值,或者在分别选择出高于预设阈值的第一相似度和第二相似度后,再选择出二者总和的最高值等。进一步的,可以将达到该预设条件时对应的预设用户作为目标用户,且可以根据目标用户的目标声纹特征包含的声调信息,以及目标用户的目标图像特征包含的表情信息,确定出用户的情绪状态是预设用户对应的n种类型的情绪状态(如喜、怒、哀、乐、烦、困、累、饿这八种情绪状态)中的至少一种。
[0148]
还一种可选的实现方式是,当环境信息包括目标机器人与他人的接触信息时;上述步骤s102的实现过程具体可以包括:根据目标机器人与他人的接触信息,识别出目标机器人周围预设范围内用户的身份信息和情绪状态
[0149]
在本实现方式是,目标机器人通过步骤s101主动采集到周围预设范围内用户与其进行接触的接触信息后,进一步可以对接触信息进行分析识别,以根据分析结果,确定出用户的情绪状态,用以执行后续步骤s103。其中,接触信息包括但不限于用户与目标机器人之间的触摸、拍打、碰撞等信息。
[0150]
例如:假设采集到的接触信息为目标机器人受到某一用户的持续拍打,则可以确定出用户的情绪状态是“怒”,并且通过拍摄到的包含该用户的图像信息可进一步确定其身份信息。
[0151]
需要说明的是,当环境信息中同时包含声音信息、图像信息以及目标机器人与他人的接触信息时,优选方式是将三者进行综合分析处理,以根据处理结果,更准确的识别出用户的身份信息和情绪状态,具体分析过程如上所述,在此不再赘述。
[0152]
s103:根据用户的身份信息和情绪状态,主动向用户反馈符合其情绪状态的拟人化交互信息,其中,拟人化交互信息包括语音信息、表情信息、动作信息中的至少一项。
[0153]
在本实施例中,通过步骤s102识别出目标机器人周围预设范围内用户的身份信息和情绪状态后,进一步可以根据各个用户的身份信息和情绪状态,主动向对应用户反馈符合其情绪状态的拟人化交互信息,其中,拟人化交互信息包括语音信息、表情信息、动作信息中的至少一项。比如,当目标机器人识别出用户小明处于悲伤的情绪状态时,可以主动向其反馈一些安慰的语音,为其“分忧解难”,实现与小明之间的更加主动的智能交互,从而提高了目标机器人的“拟人化”程度,进而也提高了用户(如小明)的使用体验。
[0154]
在本技术实施例的一种可能的实现方式中,本步骤s103的具体实现过程可以包括:主动向用户反馈符合其情绪状态的语音信息;其中,语音信息是通过声调的变化来体现目标机器人的目标情绪状态;目标情绪状态是符合用户的情绪状态的;和/或,主动向用户反馈符合其情绪状态的表情信息;其中,表情信息是通过目标机器人的显示屏上的颜色变化、表情图像变化、灯光变化中的至少一项来体现目标机器人的目标情绪状态;目标情绪状态是符合用户的情绪状态的。
[0155]
在本实现方式中,目标机器人在通过s102识别出周围用户的身份信息和情绪状态后,进一步可以主动对这些用户做出响应,以实现与这些用户的智能交互,如发出拟人化的语音进行反馈,并通过“说话”语言的声调变化,反应出目标机器人的“目标情绪状态”,且该目标情绪状态是符合用户的情绪状态的。例如,假设采集到孩子的声音信息为“今天在幼儿园吃的芒果好好吃啊”,则目标机器人可以利用欢快的语调向孩子反馈语音“太棒了,小朋友,恭喜你,希望以后可以在幼儿园吃到更多、更好吃的食物哟”,从而反应出目标机器人的对应目标情绪状态是“喜”,符合孩子的“喜”或“乐”的情绪状态。
[0156]
和/或,目标机器人还可以通过自身显示屏颜色、表情图像、灯光等方式,以及目标机器人表面整体颜色的变化,反应出目标机器人的“目标情绪状态”,且该目标情绪状态是符合用户的情绪状态的。例如,假设采集到孩子的声音信息为“今天在幼儿园吃的芒果好好吃啊”,则目标机器人可以在显示屏上显示出竖大拇指的表扬图像,或者将显示屏的灯光进行闪烁等各种预设表扬方式,来反应出目标机器人的对应目标情绪状态是“喜”,符合孩子的“喜”或“乐”的情绪状态。
[0157]
在本技术实施例的另一种可能的实现方式中,本步骤s103的具体实现过程可以包括:通过预设摆动部件摆出预设的动作,主动向用户反馈符合其情绪状态的动作信息;其中,动作信息体现了目标机器人的目标情绪状态;目标情绪状态是符合用户的情绪状态的。
[0158]
在本实现方式中,目标机器人在通过s102识别出周围用户的身份信息和情绪状态后,进一步可以通过预设摆动部件摆出预设的动作,主动对这些用户做出响应,以实现与这些用户的智能交互。比如,如图2所示,假设预设摆动部件为目标机器人的“耳朵”,进而可以通过“耳朵”的前后摆动,反应出目标机器人的“目标情绪状态”,且该目标情绪状态是符合用户的情绪状态的。例如,假设采集到孩子的声音信息为“今天在幼儿园吃的芒果好好吃啊”,则目标机器人可以利用通过“耳朵”的前后摆动,反应出目标机器人对应的目标情绪状态是“喜”,符合孩子的“喜”或“乐”的情绪状态。
[0159]
再比如,如图3所示,假设预设摆动部件为目标机器人的“尾巴”,进而可以通过“尾巴”的上下摆动,反应出目标机器人的“目标情绪状态”,且该目标情绪状态是符合用户的情
绪状态的。例如,仍假设采集到孩子的声音信息为“今天在幼儿园吃的芒果好好吃啊”,则目标机器人可以利用通过“尾巴”的上下摆动,反应出目标机器人对应的目标情绪状态是“喜”,符合孩子的“喜”或“乐”的情绪状态。
[0160]
需要说明的是,目标机器人在识别出周围用户的身份信息和情绪状态后,进一步可以通过语音、表情和动作相结合的方式,主动对这些用户做出响应,以实现与这些用户的智能交互。例如,仍假设采集到孩子的声音信息为“今天在幼儿园吃的芒果好好吃啊”,目标机器人在识别出孩子的“喜”或“乐”的情绪状态后,进一步可以利用欢快的语调向孩子反馈语音“太棒了,小朋友,恭喜你,希望以后可以在幼儿园吃到更多、更好吃的食物哟”,同时,可以在显示屏上显示出竖大拇指的表扬图像,以及将“耳朵”进行前后摆动,共同反应出目标机器人对应的目标情绪状态是“喜”,符合孩子的“喜”或“乐”的情绪状态。
[0161]
这样,通过上述步骤s101

s103,目标机器人在主动采集了包含声音信息、图像信息和接触信息的环境信息后,首先利用这些环境信息,准确判断出周围预设范围内的“用户”的身份和“用户”的情绪状态,然后主动与这些“用户”进行交流,并在交流过程中通过自身语音声调的变化、表面皮肤或显示屏的变化,以及各个不同的动作,来反应出目标机器人的拟人化情绪,从而实现目标机器人与家庭人员等用户之间的更加拟人化、更加主动化的交流,主动与家庭成员等用户进行沟通,为不同的家庭成员排除了不同的忧虑。
[0162]
综上,本实施例提供的一种拟人化机器人的交互方法,目标机器人首先主动采集周围预设范围内的环境信息;其中,环境信息包括声音信息、图像信息、以及目标机器人与他人的接触信息中的至少一项,然后利用环境信息,识别出目标机器人周围预设范围内用户的身份信息和情绪状态;接着,可以根据用户的身份信息和情绪状态,主动向用户反馈符合其情绪状态的拟人化交互信息,其中,拟人化交互信息包括语音信息、表情信息、动作信息中的至少一项。可见,由于本技术实施例中目标机器人是通过主动采集周围的环境信息,来识别出周围家庭成员等用户的情绪状态,从而能够根据其情绪状态,主动向用户反馈符合其情绪状态的语音或动作等拟人化的交互信息,为其“分忧解难”,进而实现了目标机器人与家庭人员等用户之间的更加主动的智能交互,不仅提高了这些机器人的“拟人化”程度,也提高了用户的使用体验。
[0163]
第二实施例
[0164]
本实施例将对一种拟人化机器人的交互装置进行介绍,相关内容请参见上述方法实施例。
[0165]
参见图4,为本实施例提供的一种拟人化机器人的交互装置的组成示意图,该装置400包括:
[0166]
采集单元401,用于主动采集目标机器人周围预设范围内的环境信息;所述环境信息包括声音信息、图像信息、所述目标机器人与他人的接触信息中的至少一项;
[0167]
识别单元402,用于利用所述环境信息,识别出所述目标机器人周围预设范围内用户的身份信息和情绪状态;
[0168]
反馈单元403,用于根据所述用户的身份信息和情绪状态,主动向所述用户反馈符合其情绪状态的拟人化交互信息,所述拟人化交互信息包括语音信息、表情信息、动作信息中的至少一项。
[0169]
在本实施例的一种实现方式中,所述采集单元401包括:
[0170]
第一采集子单元,用于利用所述目标机器人上预置的声音传感器,主动采集所述目标机器人周围预设范围内的声音信息;
[0171]
拍摄子单元,用于在通过所述声音信息判断出所述目标机器人周围预设范围内存在用户时,启动所述目标机器人上预置的拍摄装置,拍摄包含所述用户的图像信息;
[0172]
第二采集子单元,用于利用所述目标机器人上预置的触觉传感器,主动采集所述目标机器人与周围预设范围内用户之间的接触信息。
[0173]
在本实施例的一种实现方式中,当所述环境信息包括声音信息时;所述识别单元402包括:
[0174]
第一提取子单元,用于提取所述声音信息的声纹特征,作为目标声纹特征;
[0175]
第一对比子单元,用于将所述目标声纹特征与所述目标机器人中预先存储的预设用户的预设声纹特征进行对比,确定所述目标声纹特征所属的目标用户的身份信息和情绪状态。
[0176]
在本实施例的一种实现方式中,当所述环境信息包括图像信息时;所述识别单元402包括:
[0177]
第二提取子单元,用于提取所述图像信息的图像特征,作为目标图像特征;
[0178]
第二对比子单元,用于将所述目标图像特征与所述目标机器人中预先存储的预设用户的预设图像特征进行对比,确定所述目标图像特征所属的目标用户的身份信息和情绪状态。
[0179]
在本实施例的一种实现方式中,当所述环境信息包括声音信息和图像信息时;所述识别单元402包括:
[0180]
第三提取子单元,用于提取所述声音信息的声纹特征,作为目标声纹特征;并提取所述图像信息的图像特征,作为目标图像特征;
[0181]
第三对比子单元,用于将所述目标声纹特征与所述目标机器人中预先存储的预设用户的预设声纹特征进行对比,得到第一对比结果;并将所述目标图像特征与所述目标机器人中预先存储的预设用户的预设图像特征进行对比,得到第二对比结果;
[0182]
确定子单元,用于根据所述第一对比结果和第二对比结果,确定所述目标声纹特征和所述目标图像特征所属的目标用户的身份信息和情绪状态。
[0183]
在本实施例的一种实现方式中,所述目标机器人中预先存储的m个预设用户各自对应的n种类型的情绪状态;所述第一对比子单元包括:
[0184]
第一计算子单元,用于计算所述目标声纹特征与所述m个预设用户的m个预设声纹特征之间的m个相似度;所述m为大于1的正整数;所述n为大于1的正整数;
[0185]
第一选择子单元,用于从所述m个相似度中选择出最大相似度,并确定所述目标声纹特征所属的目标用户为所述最大相似度对应的预设用户;以及从n种类型的情绪状态中确定出所述目标用户的情绪状态。
[0186]
在本实施例的一种实现方式中,所述目标机器人中预先存储的m个预设用户各自对应的n种类型的情绪状态;所述第二对比子单元包括:
[0187]
第二计算子单元,用于计算所述目标图像特征与所述m个预设用户的m个预设图像特征之间的m个相似度;所述m为大于1的正整数;所述n为大于1的正整数;
[0188]
第二选择子单元,用于从所述m个相似度中选择出最大相似度,并确定所述目标图
像特征所属的目标用户为所述最大相似度对应的预设用户;以及从n种类型的情绪状态中确定出所述目标用户的情绪状态。
[0189]
在本实施例的一种实现方式中,所述目标机器人中预先存储的m个预设用户各自对应的n种类型的情绪状态;所述第三对比子单元具体用于:
[0190]
计算所述目标声纹特征与所述m个预设用户的m个预设声纹特征之间的m个第一相似度;以及计算所述目标图像特征与所述m个预设用户的m个预设图像特征之间的m个第二相似度;所述m为大于1的正整数;所述n为大于1的正整数;
[0191]
所述确定子单元具体用于:
[0192]
从所述m个第一相似度中和所述m个第二相似度中选择出第一相似度和第二相似度总和满足预设条件时对应的预设用户,作为所述目标声纹特征和所述目标图像特征所属的目标用户;并从所述n种类型的情绪状态中确定出所述目标用户的情绪状态。
[0193]
在本实施例的一种实现方式中,当所述环境信息包括所述目标机器人与他人的接触信息时;所述识别单元402具体用于:
[0194]
根据所述目标机器人与他人的接触信息,识别出所述目标机器人周围预设范围内用户的身份信息和情绪状态。
[0195]
在本实施例的一种实现方式中,所述反馈单元403具体用于:
[0196]
主动向所述用户反馈符合其情绪状态的语音信息;所述语音信息是通过声调的变化来体现所述目标机器人的目标情绪状态;所述目标情绪状态是符合所述用户的情绪状态的;
[0197]
和/或,主动向所述用户反馈符合其情绪状态的表情信息;所述表情信息是通过所述目标机器人的显示屏上的颜色变化、表情图像变化、灯光变化中的至少一项来体现所述目标机器人的目标情绪状态;所述目标情绪状态是符合所述用户的情绪状态的。
[0198]
在本实施例的一种实现方式中,所述目标机器人包括预设摆动部件;所述反馈单元具体用于:
[0199]
通过所述预设摆动部件摆出预设的动作,主动向所述用户反馈符合其情绪状态的动作信息;所述动作信息体现了所述目标机器人的目标情绪状态;所述目标情绪状态是符合所述用户的情绪状态的。
[0200]
进一步地,本技术实施例还提供了一种拟人化机器人的交互设备,包括:处理器、存储器、系统总线;
[0201]
所述处理器以及所述存储器通过所述系统总线相连;
[0202]
所述存储器用于存储一个或多个程序,所述一个或多个程序包括指令,所述指令当被所述处理器执行时使所述处理器执行上述拟人化机器人的交互方法的任一种实现方法。
[0203]
进一步地,本技术实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有指令,当所述指令在终端设备上运行时,使得所述终端设备执行上述拟人化机器人的交互方法的任一种实现方法。
[0204]
进一步地,本技术实施例还提供了一种计算机程序产品,所述计算机程序产品在终端设备上运行时,使得所述终端设备执行上述拟人化机器人的交互方法的任一种实现方法。
[0205]
通过以上的实施方式的描述可知,本领域的技术人员可以清楚地了解到上述实施例方法中的全部或部分步骤可借助软件加必需的通用硬件平台的方式来实现。基于这样的理解,本技术的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在存储介质中,如rom/ram、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者诸如媒体网关等网络通信设备,等等)执行本技术各个实施例或者实施例的某些部分所述的方法。
[0206]
需要说明的是,本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
[0207]
还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个
……”
限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
[0208]
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本技术。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本技术的精神或范围的情况下,在其它实施例中实现。因此,本技术将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献