一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

文本处理方法、装置、设备、介质和程序产品与流程

2022-04-06 22:00:34 来源:中国专利 TAG:
1.本技术涉及智能终端
技术领域
:,尤其涉及一种文本处理方法、装置、设备、介质和程序产品。
背景技术
::2.随着终端设备的广泛使用,越来越多的用户通过终端设备来阅读其显示出来的文本信息,但是有些用户的视力不够好,例如近视眼在日常生活中需要佩戴眼镜才能看清远方物体,而终端设备由于便于携带,其往往距离用户较近。但是这个距离对于近视用户而言就很难控制,如果距离较远,就需要佩戴眼镜,而距离较近时则可以摘下眼镜,随着距离的变化,近视用户就可能需要频繁的摘取眼镜,不方便阅读。3.现有技术中,为了解决此种情况,主要是在终端设备上提供放大功能,用户通过放大功能可以实现对文本的缩放,从而解决了阅读过程中需要频繁摘取眼镜的问题。4.但是,现有技术的这种方式用户需要长期使用放大功能,操作起来非常麻烦,使用不够灵活,无法提供较好的阅读效果。技术实现要素:5.本技术提供一种文本处理方法、装置、设备、介质和程序产品,用于解决现有终端设备无法为视力差的用户提供良好阅读效果的问题。6.第一方面,本技术实施例提供一种文本处理方法,应用于终端设备,所述终端设备包括有显示文本信息的显示界面,所述方法包括:7.获取目标对象的面部状态,确定所述面部状态是否与至少一种预设状态匹配,所述面部状态包括眼部肌肉状态、眼睑状态、眼眉状态、眼睛睁大状态中的至少一种;8.在所述面部信息与至少一种预设面部信息匹配时,获取所述目标对象当前的面部图像,确定所述面部图像中关键坐标点和辅助坐标点,所述关键坐标点包括目标对象的鼻尖和双眼的坐标点,所述辅助坐标点包括目标对象的眉毛、嘴巴、耳朵、额头和下巴的坐标点;9.根据所述关键坐标点和辅助坐标点,确定所述目标对象的面部三维模型;10.根据所述面部三维模型、所述目标对象当前面部与显示界面的距离和当前面部中双眼的瞳孔角度,确定所述目标对象的视线焦点在所述显示界面中的位置;11.根据所述位置,在所述文本信息中选取出目标文本;12.对所述目标文本的参数进行调节和/或语音播报所述目标文本,所述目标文本的参数至少包括目标文本的字号、字体、颜色、背景色和亮度中的至少一种。13.在第一方面的一种可能设计中,所述根据所述面部三维模型、所述目标对象当前面部与显示界面的距离和当前面部中双眼的瞳孔角度,确定所述目标对象的视线焦点在所述显示界面中的位置,包括:14.获取所述鼻尖在所述显示界面上的投影位置;15.根据所述面部三维模型和所述鼻尖的投影位置,确定所述目标对象的左眼眼睛中的瞳孔在所述显示界面上的第一投影位置和右眼眼睛中的瞳孔在所述显示界面上的第二投影位置;16.获取所述第一投影位置和所述第二投影位置的相交区域,作为所述位置。17.在第一方面的另一种可能设计中,所述根据所述位置,在所述文本信息中选取出目标文本,包括:18.确定所述文本信息中的标点符号所处的位置,所述文本信息中包括至少一个标点符号;19.根据所述视线焦点的位置与所述标点符号的位置的相对距离,从所述文本信息中选取出目标文本。20.在第一方面的再一种可能设计中,所述对所述目标文本的参数进行调节,包括:21.在所述显示界面上显示至少两个不同的测试文本,各个测试文本的测试参数各不相同,所述测试参数包括字号、字体、颜色、背景色和亮度中的至少一种;22.获取输入的文本选择指令,在所述至少两个不同的测试文本中选取出目标测试文本;23.根据所述目标测试文本的测试参数,对所述目标文本的参数进行调节。24.在第一方面的又一种可能设计中,则所述对所述目标文本的参数进行调节,包括:25.在所述显示界面上显示预设视力测试表并输出第二提示信息,所述第二提示信息用于指示用户根据所述预设视力测试表输入对应的视力测试结果;26.根据所述视力测试结果、所述用户当前的面部与所述显示界面的距离,确定放大系数;27.根据所述放大系数,对所述目标文本进行放大。28.在第一方面的又一种可能设计中,所述方法还包括:29.响应于接收到的请求信息,将所述目标文本的参数恢复至预设初始值和/或停止播放播报所述目标文本,所述请求信息包括语音信息和输入至所述终端设备的指令中的至少一种30.在第一方面的又一种可能设计中,所述方法还包括:31.在每一次对所述目标文本的参数进行调节和/或语音播报所述目标文本,将所述目标对象的面部状态保存至目标存储空间;32.统计所述目标存储空间中状态相同的面部状态的数量;33.当所述状态相同的面部状态的数量达到预设阈值时,将所述预设状态更新为所述相同的面部状态。34.第二方面,本技术实施例提供一种文本处理装置,包括:35.匹配模块,用于获取目标对象的面部状态,确定所述面部状态是否与至少一种预设状态匹配,所述面部状态包括眼部肌肉状态、眼睑状态、眼眉状态、眼睛睁大状态中的至少一种;36.获取模块,用于在所述面部信息与至少一种预设面部信息匹配时,获取所述目标对象的视线焦点在显示界面中的位置;37.选取模块,用于根据所述位置,在文本信息中选取出目标文本;38.调节模块,用于对所述目标文本的参数进行调节和/或语音播报所述目标文本,所述目标文本的参数至少包括目标文本的字号、字体、颜色、背景色和亮度中的至少一种。39.第三方面,本技术实施例提供一种终端设备,包括:处理器,以及与所述处理器通信连接的存储器;40.所述存储器存储计算机执行指令;41.所述处理器执行所述存储器存储的计算机执行指令,以实现上述的方法。42.第四方面,本技术实施例提供一种可读存储介质,所述可读存储介质中存储有计算机指令,所述计算机指令被处理器执行时用于实现上述的方法。43.第五方面,本技术实施例提供一种程序产品,包括计算机指令,该计算机指令被处理器执行时实现上述的方法。44.本技术实施例提供的文本处理方法、装置、设备、介质和程序产品,通过获取用户的面部状态,如果根据当前用户的面部状态确定用户出现阅读困难时,会自动对目标文本的参数进行调整和/或语音播报目标文本,能够更进一步的提高阅读效果。附图说明45.此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本技术的实施例,并与说明书一起用于解释本技术的原理;46.图1为本技术实施例提供的文本处理方法的场景示意图;47.图2为本技术实施例提供的文本处理方法实施例一的流程示意图;48.图3为本技术实施例提供的文本处理方法实施例二的流程示意图;49.图4为本技术实施例提供的文本处理装置的结构示意图;50.图5为本技术实施例提供的终端设备的结构示意图。51.通过上述附图,已示出本技术明确的实施例,后文中将有更详细的描述。这些附图和文字描述并不是为了通过任何方式限制本技术构思的范围,而是通过参考特定实施例为本领域技术人员说明本技术的概念。具体实施方式52.为使本技术实施例的目的、技术方案和优点更加清楚,下面将结合本技术实施例中的附图,对本技术实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本技术一部分实施例,而不是全部的实施例。基于本技术中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本技术保护的范围。53.首先对本技术所涉及的名词进行解释:54.结构光:55.结构光,是一组由投影仪和摄像头组成的系统结构。用投影仪投射特定的光信息到物体表面后及背景后,由摄像头采集。根据物体造成的光信号的变化来计算物体的位置和深度等信息,进而复原整个三维空间。56.人脸识别:57.人脸识别,是基于人的脸部特征信息进行身份识别的一种生物识别技术。用摄像机或摄像头采集含有人脸的图像或视频流,并自动在图像中检测和跟踪人脸,进而对检测到的人脸进行脸部识别的一系列相关技术,通常也叫做人像识别、面部识别。58.表情识别:59.表情识别,是指从给定的静态图像或动态视频序列中分离出特定的表情状态,从而确定被识别对象的心理情绪。60.机器学习:61.机器学习,是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。62.图1为本技术实施例提供的文本处理方法的的场景示意图,如图1所示,用户在使用终端设备例如手机10时,手机10的显示界面上显示有两行文字。用户在阅读这些文字时,受制于其视力以及显示界面与其面部的距离,可能无法看清其中的文字,此时需要用户靠很近才能看清楚内容,这样不方便用户的使用。为了避免用户靠近来查看内容,就需要手机10自动将用户正在看的文字进行放大,例如用户正在看第二行文字,则第二行文字会被放大一定的倍数,这样用户就可以看清楚。63.其中,手机10在自动将文字进行放大之前,需要检测出用户是不是有阅读困难的情况,例如现有技术中,手机10的前置摄像头可以采集用户的表情,例如眯眼。当用户在眯眼时就会触发自动放大功能,手机10将显示界面中所有文本放大,或者根据显示界面的实际尺寸,只放大部分用户正在查阅的文字。现有技术的这种方式在一定程度上能够缓解用户的阅读障碍,但是这种方式的效果不够理想,有可能存在识别错误的情况,不能够准确的确定出用户是否出现了阅读困难。另外,现有技术主要是放大整体字体,但是会破坏整体视图,造成图片变形失真,文字段落展示失调,造成阅读障碍。64.针对上述文本,本技术实施例提供的文本处理方法、装置、设备、介质和程序产品,通过获取用户的面部状态,具体包括眼部肌肉状态、眼睑状态、眼眉状态、眼睛睁大状态中的至少一种,如果根据当前用户的面部状态确定用户出现阅读困难时,会自动对目标文本的参数进行调整和/或语音播报目标文本,能够更进一步的提高阅读效果。65.下面,通过具体实施例对本技术的技术方案进行详细说明。需要说明的是,下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例中不再赘述。66.图2为本技术实施例提供的文本处理方法实施例一的流程示意图,该方法可以应用于终端设备中,该终端设备至少包括有显示界面以及用于采集用户面部状态的摄像头或结构光等。示例性的,该终端设备可以是手机和计算机电脑等。如图2所示,该方法具体可以包括如下步骤:67.s201、获取目标对象的面部状态,确定面部状态是否与至少一种预设状态匹配。68.其中,面部状态包括眼部肌肉状态、眼睑状态、眼眉状态、眼睛睁大状态中的至少一种。69.在本实施例中的,预设状态可以是眼部肌肉紧缩,眼睑紧缩,皱眉,眼睛睁大程度超过正常大小四种。目标对象可以是用户,当用户当前有一种面部状态与预设状态相符时,则确定用户存在阅读障碍。70.示例性的,终端设备可以通过前置摄像头、结构光等采集到用户的面部状态。71.在一些实施方式中,终端设备还可以采集用户双眼在显示界面同一位置的注视时长,如果注视时长超过预设阈值,则也可以确定出用户存在阅读障碍,将转至后续步骤s202。72.可选的,在一些其他实施例中,还可以采集用户面部与终端设备的显示界面的距离,当距离超过预设距离值时,则也可以确定出用户存在阅读障碍,将转至后续步骤s202。73.可选的,在一些其他实施例中,还可以采集用户输入的控制指令,例如放大指令,如果检测到用户输入了放大指令,则也可以确定用户存在阅读障碍,将转至后续步骤s202。74.s202、在面部信息与至少一种预设面部信息匹配时,获取目标对象当前的面部图像,确定面部图像中关键坐标点和辅助坐标点。75.其中,关键坐标点包括目标对象的鼻尖和双眼的坐标点,辅助坐标点包括目标对象的眉毛、嘴巴、耳朵、额头和下巴的坐标点。76.s203、根据关键坐标点和辅助坐标点,确定目标对象的面部三维模型。77.在本实施例中,各个坐标点的识别可以通过人脸检测算法分析其几何位置进行定位。例如以眉毛为例,可以通过人脸检测算法检测得到眉毛位置,从而得到眉毛的坐标点。78.s204、根据面部三维模型、目标对象当前面部与显示界面的距离和当前面部中双眼的瞳孔角度,确定目标对象的视线焦点在显示界面中的位置。79.在本实施例中,目标对象当前面部与显示界面的距离可以通过远小近大的原则确定,具体的,通过终端设备的摄像头采集目标对象面部的图像大小以及完整信息,距离越近,则采集得到的面部图像越大,信息越不完整(例如缺少了耳朵),距离越远,则采集到的面部图像越小,信息越完整。80.在本实施例中,用户的视线焦点在显示界面中的位置即指示的是用户当前正在阅读的区域。其中,用户的视线焦点可能会在显示界面中发生移动,故而需要对用户的视线焦点进行实时监测。81.示例性的,可以通过眼动仪捕捉用户的注视焦点在显示界面中的位置。82.在本实施例中,通常用户的注视焦点在显示界面中的位置处都显示有文本信息,其中,文本信息可以包括有文本类和图片类等非动态文件,其中,文本类文件可以是文本文档、word文档等,图片类文件可以是可携带文档格式(portabledocumentformat,pdf)或者联合图像专家小组(jointphotographicexpertsgroup,jpeg)。83.s205、根据位置,在文本信息中选取出目标文本。84.在本实施例中,如果用户当前注视的为图片,即注视焦点的位置在某一张图片上,则可以将这张图片作为目标文本。示例性的,如果用户当前注视的为文字,则可以找到该注视焦点所处的段落或者句子,将该段落或句子作为目标文本。85.s206、对目标文本的参数进行调节和/或语音播报目标文本。86.其中,目标文本的参数至少包括目标文本的字号、字体、颜色、背景色和亮度中的至少一种。87.示例性的,如果目标文本为文字,也可以将该文字转换为语音,并播报出来供用户聆听。如果目标文本为图片,则可以将图片放大、改变图片颜色、增加图片亮度或者调节图片的背景色。示例性的,如果目标文本为文字,则还可以将文字的字号调大,将字体调节为粗字体等等。88.可选的,在一些实施方式中,如果目标文本是较长的文字内容(例如段落),则可以将该文字内容转换为语音播报出来。具体可以从用户视线焦点的位置处开始进行语音播报。89.其中,在语音播报的过程中,可以检测是否到达文字内容的末尾,例如到达段尾或句尾,如果到达末尾,则可以停止进行语音播报。90.示例性的,用户可以对终端设备进行设置,例如可以设置同时对目标文本的参数进行调节以及语音播报目标文本,也可以设置优先对目标文本的参数进行调节,还可以设置优先语音播报目标文本。91.本技术实施例通过获取用户的面部状态,如果根据当前用户的面部状态确定用户出现阅读困难时,会自动对目标文本的参数进行调整和/或语音播报目标文本,能够更进一步的提高阅读效果。92.在一些实施例中,上述步骤s204具体可以包括如下步骤:93.根据目标对象当前面部与显示界面的距离,确定鼻尖在显示界面上的投影位置;94.根据面部三维模型和鼻尖的投影位置,确定目标对象的左眼眼睛中的瞳孔在显示界面上的第一投影位置和右眼眼睛中的瞳孔在显示界面上的第二投影位置;95.获取第一投影位置和第二投影位置的相交区域,作为位置。96.在本实施例中,可以以鼻尖垂直显示界面的投影作为中点,根据面部三维模型判断眼睛在显示界面上的投影位置,作为用户实时关注范围。然后再根据眼白和瞳孔的颜色、反光情况等确定瞳孔在显示界面上的投影位置。以眼睛为活动区域取其几何中心作为坐标o,判断双眼在显示界面上的位移情况,将双眼瞳孔在显示界面上的投影交集区作为位置,即用户视线焦点。97.本技术实施例通过构建用户的面部三维模型,然后结合用户当前面部与显示界面的距离、当前面部中双眼的通孔角度,能够准确的找到用户视线焦点在显示界面中的位置,以对该位置处的目标文本进行参数调节或语音播报,提高用户的阅读效果。98.在一些实施例中,上述步骤s205具体可以通过如下步骤实现:99.确定文本信息中的标点符号所处的位置;100.根据视线焦点的位置与标点符号的位置的相对距离,从文本信息中选取出目标文本。101.其中,文本信息中包括至少一个标点符号。示例性的,文本信息中还可以包含有文字。102.在本实施例中,标点符合可以包括有逗号、句号等等。示例性的,当视线焦点与某一个句号之间的相对距离低于预设阈值,例如视线焦点与某一个句号之间只有一个文字的距离时,则可以选取该句号之后的句子作为目标文本。103.示例性的,目标文本也可以包含有多个句子,可以根据显示界面的大小来确定目标文本中包含的句子的数量,例如当显示界面的尺寸足够大,可以放大三个句子且不会溢出显示界面时,则目标文本中可以包含有三个句子。104.其中,可以已视线焦点与标点符号之间的距离,来确定视线焦点当前所处的是哪一个句子处,然后再找到该句子的上一个句子以及下一个句子,将这三个句子作为目标文本。105.本技术实施例通过确定标点符号与视线焦点的相对文字,能够从文本信息中选取出更加准确的目标文本作为用户当前正在查阅的文本,后续将这些目标文本的参数进行调节或语音播报出来时能够使得用户获得更好的阅读效果。106.在一些实施例中,上述步骤s206中“对目标文本的参数进行调节”具体可以通过如下步骤实现:107.在显示界面上显示至少两个不同的测试文本;108.获取输入的文本选择指令,在至少两个不同的测试文本中选取出目标测试文本;109.根据目标测试文本的测试参数,对目标文本的参数进行调节。110.其中,各个测试文本的测试参数各不相同,测试参数包括字号、字体、颜色、背景色和亮度中的至少一种。111.在本实施例中,可以对不同的测试文本进行分级,例如一级、二级、三级等等,不同等级的测试文本中所包含的字号、字体、颜色、背景色和亮度可以均不相同。例如一级测试文本其中的字号最大,二级测试文本的字号次之,三级测试文本的字号最小。112.示例性的,当在显示界面上显示至少两个不同的测试文本之后,可以输出语音提示,提示用户选择其偏好的测试文本,作为目标测试文本。当确定好目标测试文本之后,后续如果需要对目标文本进行参数调节,则直接根据目标测试文本的测试参数来调节目标文本的参数即可。113.本技术实施例通过设置多种不同测试参数的测试文本供用户选择,可以根据用户偏好的测试参数,来调节目标文本的参数,提高用户的阅读效果。114.在一些实施例中,上述步骤206中“对目标文本的参数进行调节”具体可以通过如下步骤实现:115.在显示界面上显示预设视力测试表并输出第二提示信息;116.根据视力测试结果、用户当前的面部与显示界面的距离,确定放大系数;117.根据放大系数,对目标文本进行放大。118.其中,第二提示信息用于指示用户根据预设视力测试表输入对应的视力测试结果。119.示例性的,预设视力测试表可以是现有的测试表,终端设备在显示预设视力测试表的同时,可以输出第二提示信息提示用户查看视力表中的哪一个字母,然后用户反馈其查看结果即可确定出用户的视力测试结果。120.示例性的,在一些其他实施方式中,用户也可以直接输入自己的视力作为视力测试结果。121.本技术实施例通过获取用户的视力情况,然后根据用户当前面部与显示界面之间的距离,可以适应性的调整目标文本的大小,更加灵活的调节目标文本,提高用户的阅读效果。122.在一些实施例中,上述文本处理方法还可以包括如下步骤:123.响应于接收到的请求信息,将目标文本的参数恢复至预设初始值和/或停止播放播报目标文本。124.其中,请求信息包括语音信息和输入至终端设备的指令中的至少一种。示例性的,语音信息可以是用户发出的语音,例如“功能关闭”。指令可以是用户在终端设备上输入的按键指令。125.在一些实施例中,上述方法还包括如下步骤:126.在每一次将目标文本放大和/或语音播报目标文本时,将目标对象的面部状态保存至目标存储空间;127.统计目标存储空间中状态相同的面部状态的数量;128.当状态相同的面部状态的数量达到预设阈值时,将预设状态更新为相同的面部状态。129.示例性的,终端设备可以通过分析抓取到的用户通过手指缩放屏幕内容时的面部状态,对于超过三次出现的面部状态默认为阅读困难表情。130.例如,以面部状态为皱眉为例,当用户在出现阅读困难时可能会皱眉,此时会对目标文本的参数进行调节和/或语音播报目标文本。此时记录一次皱眉,当下一次用户在出现阅读困难时如果又是皱眉,则相同的面部状态(即皱眉)达到了两次,如果再下一次用户在出现阅读困难时还是出现皱眉,则相同的面部状态(即皱眉)达到了三次。131.其中,预设阈值可以为三次,当皱眉出现三次时,则表示用户在出现阅读困难时可能偏向于出现皱眉这一面部状态。即将皱眉这一面部状态作为判定依据。如果下一次用户也出现皱眉,则可以直接确定用户出现阅读困难。132.可选的,在一些实施方式中,终端设备还可以抓取用户在出现阅读困难时发出的语音,如果相同的语音出现的次数超过预设阈值,则可以确定该语言可以作为用户出现阅读困难的判断依据。下一次如果用户发出这种语音,即表示用户出现了阅读困难。133.本技术实施例通过对预设状态进行更新,能够更加准确的捕捉出用户出现阅读困难的情况,提高对用户出现阅读困难的判定准确度。134.图3为本技术实施例提供的文本处理方法实施例二的流程示意图,如图3所示,该方法涉及到多端交互,其具体包括如下步骤:135.s301、监控用户面部状态和视线;136.s302、用户阅读困难,面部状态呈现预设状态;137.s303、触发文本处理功能;138.s304、追踪用户视线;139.s305、形成放大镜将视线聚焦部位文字图片放大;140.s306、文字转换为语音播放;141.s307、用户完成查看,关闭文本处理功能。142.s308、关闭文本处理功能。143.其中,摄像头、屏幕和处理器可以集成在终端设备上。144.下述为本技术装置实施例,可以用于执行本技术方法实施例。对于本技术装置实施例中未披露的细节,请参照本技术方法实施例。145.图4为本技术实施例提供的文本处理装置的结构示意图,该文本处理装置可以集成在终端设备上,也可以独立于终端设备且与终端设备协同实现本技术方案。如图4所示,该文本处理装置40具体可以包括匹配模块41、获取模块42、模型确定模块43、位置确定模块44、选取模块45和调节模块46。146.其中,匹配模块41用于获取目标对象的面部状态,确定面部状态是否与至少一种预设状态匹配。获取模块42用于在面部信息与至少一种预设面部信息匹配时,获取目标对象当前的面部图像,确定面部图像中关键坐标点和辅助坐标点。模型确定模块43用于根据关键坐标点和辅助坐标点,确定目标对象的面部三维模型。位置确定模块44用于根据面部三维模型、目标对象当前面部与显示界面的距离和当前面部中双眼的瞳孔角度,确定目标对象的视线焦点在显示界面中的位置。选取模块45用于根据位置,在文本信息中选取出目标文本。调节模块46用于对目标文本的参数进行调节和/或语音播报目标文本。147.其中,面部状态包括眼部肌肉状态、眼睑状态、眼眉状态、眼睛睁大状态中的至少一种,关键坐标点包括目标对象的鼻尖和双眼的坐标点,辅助坐标点包括目标对象的眉毛、嘴巴、耳朵、额头和下巴的坐标点,目标文本的参数至少包括目标文本的字号、字体、颜色、背景色和亮度中的至少一种。148.在一些实施例中,上述位置确定模块具体可以用于:149.根据目标对象当前面部与显示界面的距离,确定鼻尖在显示界面上的投影位置;150.根据面部三维模型和鼻尖的投影位置,确定目标对象的左眼眼睛中的瞳孔在显示界面上的第一投影位置和右眼眼睛中的瞳孔在显示界面上的第二投影位置;151.获取第一投影位置和第二投影位置的相交区域,作为位置。152.在一些实施例中,上述选取模块具体可以用于:153.确定文本信息中的标点符号所处的位置,文本信息中包括至少一个标点符号;154.根据视线焦点的位置与标点符号的位置的相对距离,从文本信息中选取出目标文本。155.在一些实施例中,上述调节模块具体可以用于:156.在显示界面上显示至少两个不同的测试文本,各个测试文本的测试参数各不相同;157.获取输入的文本选择指令,在至少两个不同的测试文本中选取出目标测试文本;158.根据目标测试文本的测试参数,对目标文本的参数进行调节。159.其中,测试参数包括字号、字体、颜色、背景色和亮度中的至少一种。160.在一些实施例中,上述调节模块具体还可以用于:161.在显示界面上显示预设视力测试表并输出第二提示信息;162.根据视力测试结果、用户当前的面部与显示界面的距离,确定放大系数;163.根据放大系数,对目标文本进行放大。164.其中,第二提示信息用于指示用户根据预设视力测试表输入对应的视力测试结果。165.在一些实施例中,上述文本处理装置还可以包括终止模块,用于响应于接收到的请求信息,将目标文本的参数恢复至预设初始值和/或停止播放播报目标文本。166.其中,请求信息包括语音信息和输入至终端设备的指令中的至少一种。167.在一些实施例中,上述文本处理装置还可以包括更新模块,用于:168.在每一次对目标文本的参数进行调节和/或语音播报目标文本,将目标对象的面部状态保存至目标存储空间;169.统计目标存储空间中状态相同的面部状态的数量;170.当状态相同的面部状态的数量达到预设阈值时,将预设状态更新为相同的面部状态。171.本技术实施例提供的装置,可用于执行上述实施例中的方法,其实现原理和技术效果类似,在此不再赘述。172.需要说明的是,应理解以上装置的各个模块的划分仅仅是一种逻辑功能的划分,实际实现时可以全部或部分集成到一个物理实体上,也可以物理上分开。且这些模块可以全部以软件通过处理元件调用的形式实现;也可以全部以硬件的形式实现;还可以部分模块通过处理元件调用软件的形式实现,部分模块通过硬件的形式实现。例如,获取模块可以为单独设立的处理元件,也可以集成在上述装置的某一个芯片中实现,此外,也可以以程序代码的形式存储于上述装置的存储器中,由上述装置的某一个处理元件调用并执行以上获取模块的功能。其它模块的实现与之类似。此外这些模块全部或部分可以集成在一起,也可以独立实现。这里的处理元件可以是一种集成电路,具有信号的处理能力。在实现过程中,上述方法的各步骤或以上各个模块可以通过处理器元件中的硬件的集成逻辑电路或者软件形式的指令完成。173.图5为本技术实施例提供的终端设备的结构示意图。如图5所示,该终端设备50包括:至少一个处理器51、存储器52、总线53及通信接口54。174.其中:处理器51、通信接口54以及存储器52通过总线53完成相互间的通信。175.通信接口54用于与其它设备进行通信。该通信接口54包括用于进行数据传输的通信接口以及用于进行人机交互的显示界面或者操作界面等。176.处理器51用于执行计算机指令,具体可以执行上述实施例中所描述的方法中的相关步骤。177.处理器51可能是中央处理器,或者是被配置成实施本发明实施例的一个或多个集成电路。终端设备包括的一个或多个处理器,可以是同一类型的处理器,如一个或多个cpu;也可以是不同类型的处理器,如一个或多个cpu以及一个或多个asic。178.存储器52,用于存放计算机指令。存储器可能包含高速ram存储器,也可能还包括非易失性存储器,例如至少一个磁盘存储器。179.本实施例还提供一种可读存储介质,可读存储介质中存储有计算机指令,当终端设备的至少一个处理器执行该计算机指令时,终端设备执行上述的各种实施方式提供的文本处理方法。180.本实施例还提供一种程序产品,该程序产品包括计算机指令,该计算机指令存储在可读存储介质中。终端设备的至少一个处理器可以从可读存储介质读取该计算机指令,至少一个处理器执行该计算机指令使得终端设备实施上述的各种实施方式提供的文本处理方法。181.本技术中,“至少一个”是指一个或者多个,“多个”是指两个或两个以上。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,a和/或b,可以表示:单独存在a,同时存在a和b,单独存在b的情况,其中a,b可以是单数或者复数。字符“/”一般表示前后关联对象是一种“或”的关系;在公式中,字符“/”,表示前后关联对象是一种“相除”的关系。“以下至少一项(个)”或其类似表达,是指的这些项中的任意组合,包括单项(个)或复数项(个)的任意组合。例如,a,b,或c中的至少一项(个),可以表示:a,b,c,a-b,a-c,b-c,或a-b-c,其中,a,b,c可以是单个,也可以是多个。182.可以理解的是,在本技术实施例中涉及的各种数字编号仅为描述方便进行的区分,并不用来限制本技术的实施例的范围。在本技术的实施例中,上述各过程的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本技术的实施例的实施过程构成任何限定。183.最后应说明的是:以上各实施例仅用以说明本技术的技术方案,而非对其限制;尽管参照前述各实施例对本技术进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本技术各实施例技术方案的范围。当前第1页12当前第1页12
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献