一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

用于实时捕捉增强的媒体的方法和系统与流程

2022-11-23 11:19:20 来源:中国专利 TAG:


1.本公开涉及捕捉媒体的领域,并且更具体地,涉及执行场景分析以在微距和非微距感测模式之间切换来实时捕捉微距和非微距媒体。


背景技术:

2.微距摄影涉及捕捉非常接近或邻近的物体和活体,诸如尺寸非常小的昆虫等等。电子设备可以捕捉微距物体。为了捕捉微距物体,用户分析场景并将电子设备手动切换到微距感测模式。由此,未能将电子设备切换到微距感测模式会从至少一个非微距传感器生成低质量的媒体。类似地,用户必须明确地将电子设备切换回至少一个非微距传感器以在非微距感测模式下捕捉物体。
3.图1是示出用于在微距传感器和非微距传感器之间手动切换相机的传统方法的示例图。传统方法涉及用户在默认或非微距感测模式下操作电子设备,这可能提供了微距场景的模糊且低质量的媒体。此外,用户分析微距场景,并且手动将相机切换到微距传感器。以类似的方式,当相机处于微距感测模式时,用户分析捕捉的场景是由于非微距物体而模糊。因此,传统方法需要用户将相机切换到非微距感测模式。
4.因此,传统方法需要用户干预来基于场景在期望的捕捉模式之间切换相机,这是耗时的并且可能提供低质量的媒体。由此,传统方法提供了静态解决方案,而没有任何智能组件来基于场景在捕捉模式之间切换相机,这使得它们更低效。


技术实现要素:

5.【技术问题】
6.这里的示例实施例公开了用于分析场景并在至少一个微距感测模式和至少一个非微距感测模式之间切换而实时捕捉微距媒体和非微距媒体的方法和系统。
7.这里的示例实施例公开了用于在电子设备的后台中配置微距相机和非微距相机以分析场景的方法和系统。
8.这里的示例实施例公开了使用基于聚焦数据的分析、基于模糊检测的分析、面部检测和光照条件中的至少一个来分析场景的方法和系统。
9.【技术解决方案】
10.相应地,这里的实施例提供了用于分析场景并在至少一个微距感测模式和至少一个非微距感测模式之间切换以实时捕捉微距媒体和非微距媒体的方法和系统。根据本公开的一个方面,一种用于控制电子设备的方法可以包括:获取至少一个帧;基于至少一个帧的聚焦数据和模糊数据中的至少一种,在微距感测模式和非微距感测模式中识别电子设备的操作模式;以及通过使用来自电子设备的多个图像传感器中对应于操作模式的图像传感器来获取至少一个图像。
11.相应地,这里的实施例提供了用于分析场景并在至少一个微距感测模式和至少一个非微距感测模式之间切换以实时捕捉微距媒体和非微距媒体的方法和系统。这里公开的
方法包括:分析由至少一个媒体获取单元捕捉的至少一个帧,其中,该分析包括基于聚焦数据的场景分析、基于模糊检测的场景分析。该方法包括通过在至少一个微距感测模式和至少一个非微距感测模式之间切换,由至少一个媒体获取单元捕捉至少一个场景。
12.相应地,这里的实施例提供了一种用于分析场景并在至少一个微距感测模式和至少一个非微距感测模式之间切换以实时捕捉微距媒体和非微距媒体的系统。这里的实施例提供了一种系统,该系统包括至少一个微距相机、至少一个非微距相机、用于分析由至少一个媒体获取单元捕捉的至少一个帧的处理器,其中,该分析包括基于聚焦数据的场景分析、基于模糊检测的场景分析。此外,该系统通过在至少一个微距感测模式和至少一个非微距感测模式之间切换,由至少一个媒体获取单元捕捉至少一个场景。
13.相应地,至少一个微距感测模式可以利用至少一个微距传感器或任何其他具有微距捕捉能力的传感器,诸如超宽传感器等。
14.当结合以下描述和附图考虑时,这里的示例实施例的这些和其他方面将被更好地领会和理解。然而,应该理解的是,尽管以下描述指示了示例性实施例及其众多特定细节,但是这些描述是以说明而非限制的方式给出的。在不脱离其精神的情况下,可以在示例实施例的范围内进行许多改变和修改,并且示例实施例包括所有这样的修改。
附图说明
15.从以下结合附图的描述中,本公开的某些实施例的上述和其他方面、特征和优点将变得更加明显,其中:
16.图1是示出用于在微距传感器和非微距传感器之间手动切换相机的传统方法的示例图;
17.图2描绘了图示根据这里公开的实施例的电子设备的各个单元的框图;
18.图3描绘了图示根据这里公开的实施例的分析捕捉的场景的电子设备的处理器的各个单元的框图;
19.图4描绘了图示根据这里公开的实施例的通过电子设备对捕捉的场景进行分析的场景分析模块的各个单元的框图;
20.图5是描绘根据这里公开的实施例的进行模糊检测和决策确定以在微距感测模式和非微距感测模式之间切换电子设备的示例图;
21.图6是描绘根据这里公开的实施例的通过在电子设备的微距感测模式和非微距感测模式之间进行切换来增强媒体质量的面部检测的示例图;
22.图7是描绘根据这里公开的实施例的通过配置微距传感器和非微距传感器在电子设备的后台运行来分析所捕捉的场景的示例图;
23.图8是描绘根据这里公开的实施例的基于实时分析捕捉的场景来选择相机的示例图;
24.图9是描绘根据这里公开的实施例,基于各种参数,诸如基于聚焦数据的场景分析、基于模糊检测的场景分析和基于面部检测的场景分析,对捕捉的场景进行分析以切换到微距感测模式的示例图;
25.图10是示出根据这里公开的实施例的基于各种分析参数切换到微距感测模式的控制流程的示例图;
26.图11是描绘根据这里公开的实施例的基于各种参数,诸如基于聚焦数据的场景分析、基于模糊检测的场景分析和基于面部检测的场景分析,对捕捉的场景进行分析以切换到非微距感测模式的示例图;
27.图12是示出根据这里公开的实施例的基于各种分析参数切换到非微距感测模式的控制流程的示例图;
28.图13是描绘根据这里公开的实施例的模糊检测和聚焦检测以防止电子设备的微距和非微距感测模式之间的错误切换的示例图;和
29.图14是示出根据这里公开的实施例的用于分析和在至少一个微距和至少一个非微距感测模式之间切换以实时捕捉微距和非微距媒体的方法的流程图。
具体实施方式
30.参考在附图中图示的并在以下描述中详述的非限制性实施例,更全面地解释了这里的示例实施例及其各种特征和有利细节。省略了对公知组件和处理技术的描述,以免不必要地模糊这里的实施例。这里的描述仅仅是为了便于理解可以实践这里的示例实施例的方式,并且进一步使得本领域技术人员能够实践这里的示例实施例。因此,本公开不应被解释为限制这里的示例实施例的范围。
31.这里的实施例涉及用于分析场景并在至少一个微距感测模式和至少一个非微距感测模式之间切换以实时捕捉微距媒体和非微距媒体的方法和系统。
32.参照附图,更具体地参照图2至图14,其中在所有附图中,相似的附图标记始终表示对应的特征,示出了示例性实施例。
33.图2描绘了说明根据这里公开的实施例的电子设备的各个单元的框图。图2图示了根据这里公开的实施例的用于分析场景并在至少一个微距和至少一个非微距感测模式之间切换以实时捕捉微距和非微距媒体的环境100。
34.在本公开中,微距感测模式是指电子设备102(或媒体获取单元110)使用微距图像传感器获取图像的操作模式,非微距感测模式是指电子设备102(或媒体获取单元110)使用非微距图像传感器获取图像的操作模式。
35.电子设备102可以包括存储器104、通信接口106、处理器108和媒体获取单元110。电子设备102可以是独立的设备或者可以与另一个设备集成。电子设备102的示例可以是但不限于,通过通信网络连接的计算机、膝上型电脑、智能手机、移动电话、无线电话、物联网设备、可穿戴设备、视频电话、个人计算机(pc)、上网本计算机、个人数字助理(pda)等。
36.在这里的实施例中,电子设备102可以通过通信网络和/或至少一个其他通信网络连接。通信网络可以包括但不限于有线网络、增值网络、无线网络、卫星网络或其组合中的至少一种。有线网络的示例可以是但不限于局域网(lan)、广域网(wan)、以太网等。无线网络的示例可以是但不限于蜂窝网络、无线lan(例如,wi-fi网络)、蓝牙网络、蓝牙低能量网络、zigbee网络、wi-fi direct(wfd)网络、超宽带(uwb)网络、红外数据协会(irda)网络、近场通信(nfc)网络等。在另一示例中,电子设备102可以直接连接到另一设备,诸如基于云的服务器(例如,经由直接通信、经由接入点等)。在另一示例中,电子设备102可以连接到基于云的服务器,以使得用户能够捕捉微距或非微距物体。在另一示例中,电子设备102可以使用设备上信息来捕捉微距或非微距物体。使用设备上信息,电子设备可以分析当前感测模
式以捕捉物体。在另一示例中,电子设备102可以经由中继器、集线器或网关连接到另一个电子设备。应当理解,电子设备102和基于云的服务器可以以各种方式(包括上述方式)中的任一种彼此连接,并且可以同时以各种方式(包括上述方式)中的两种或更多种彼此连接。
37.电子设备102可以是使(多个)用户能够根据场景通过切换电子设备102来捕捉微距或非微距媒体的设备。在一实施例中,电子设备102可以是被用户用来连接和/或交互和/或控制多个其他设备的用户设备。
38.基于云的服务器可以是接收、存储和管理网络环境中存在的电子设备102的设备信息映射、功能能力、制造商提供的信息和位置信息的服务器。设备信息可以包括诸如但不限于电子设备102的标识值、设备类型等信息。在这里的示例中,标识值可以是但不限于媒体访问控制(mac)标识符(mac id)、序列号、唯一设备id等。位置信息包括与电子设备102的位置相关的信息。电子设备102的制造商提供的信息可以包括但不限于电子设备102的型号、电子设备102的制造年份、电子设备102的寿命、电子设备102正在使用的操作系统、电子设备102正在使用的操作系统的当前版本等中的至少一个。基于云的服务器可以在云环境中更新电子设备102的设备信息、功能能力和位置信息。
39.媒体获取单元110可以包括多个图像传感器,并且该多个图像传感器可以包括至少一个微距图像传感器和至少一个非微距图像传感器。微距图像传感器可以被称为“微距相机”或“微距镜头”,而非微距图像传感器可以被称为“非微距相机”或“非微距镜头”。具体地,微距图像传感器是指具有大于或等于预设阈值的摄影放大率的图像传感器,非微距图像传感器是指具有小于该预设阈值的(最大)放大率的图像传感器。例如,微距图像传感器具有用于近距离摄影的从无限远聚焦到1:1放大率的能力,而非微距图像传感器具有比微距图像传感器低的放大率。
40.在这里的实施例中,电子设备102可以与另一设备集成,诸如但不限于移动电话、智能手机、平板电脑、平板手机、个人数字助理(pda)、计算机、膝上型电脑、电话、物联网设备、可穿戴设备、智能手表、车载信息娱乐系统、电视(tv)、相机等。电子设备102还可以访问数据库,以取得与从用户接收的至少一个查询相关的信息。此外,电子设备102还可以使用至少一个通信网络而连接到云、专用用户交互设备云、另一服务器等中的至少一个,用于访问与从用户接收的至少一个查询相关的信息。通信网络的示例可以是但不限于互联网、有线网络(例如,lan、以太网等)、无线网络(例如,wi-fi网络、蜂窝网络、wi-fi热点、蓝牙网络、zigbee网络等)等等。
41.在一个实施例中,环境100可以包括通过通信网络进行通信的电子设备102,如图2所图示。
42.如图2所图示,媒体获取单元110可以被配置成捕捉来自包括非常接近或邻近的物体和活体的环境的媒体输入(例如,视频输入、图像输入或任何媒体输入)。媒体获取单元110还可以捕捉来自包括诸如正常图像、组图像、风景图像、自然图像、偷拍图像、家庭图像等(例如,正常范围的物体和/或对象)的默认对象的环境的媒体输入。
43.媒体获取单元110可以是用于捕捉媒体的任何种类的设备。媒体获取单元110可以是但不限于数码相机、媒体捕捉设备、网络相机、单镜头反光(slr)相机、数码slr(dslr)相机、无反光镜相机、小型相机、录像机、数字录像机等。媒体可以是但不限于视频、图像等。
44.可以在媒体获取单元110上配置微距感测模式和非微距感测模式,以捕捉微距媒
体和非微距媒体。媒体获取单元110的微距感测模式和非微距感测模式有助于切换媒体获取单元110来捕捉微距媒体和非微距媒体。因此,媒体获取单元110的微距感测模式和非微距感测模式可以被配置为在电子设备102的后台并行运行,以分析通过媒体获取单元110捕捉的场景。因此,电子设备的媒体获取单元110可以基于对捕捉的场景的分析,在微距感测模式和非微距感测模式之间切换。此外,微距感测模式可以利用至少一个微距传感器或任何其他具有微距捕捉能力的传感器,例如超宽传感器等。
45.基于诸如但不限于聚焦数据、模糊检测、面部检测和光照之类的参数来分析所捕捉的媒体以便媒体获取单元110捕捉场景。分析这些参数以决定电子设备102是否要在微距感测模式和非微距感测模式之间切换。
46.基于聚焦数据的场景分析包括分析从媒体获取单元110的自动聚焦模块获取的聚焦数据,以根据微距感测模式和非微距感测模式对场景进行分类。自动聚焦是一种自动控制镜头中的将物体聚焦的光学元件的聚焦系统。
47.基于模糊检测的场景分析包括使用捕捉的帧来确定场景中的模糊量。基于捕捉的帧中存在的模糊量,处理器109可以确定是否要在微距感测模式和非微距模式之间执行切换。
48.基于面部检测的场景分析包括检测捕捉到的场景中面部的存在。基于确定场景中存在至少一个面部,避免切换到微距感测模式。基于检测到捕捉的场景中的面部的存在,可以将感测模式保持在非微距感测模式。
49.还进行检查以确定是否有足够的光照来捕捉媒体。
50.将相应的分析参数与预定的阈值进行比较。基于确定分析参数超过阈值,启动切换。处理器108可以在微距感测模式和非微距感测模式之间切换电子设备102。阈值取决于媒体获取单元110和电子设备102。每个参数(即,基于模糊检测的场景分析、基于聚焦数据的场景分析和基于光照条件的分析)的阈值可以被称为模糊阈值、基于聚焦的阈值和基于光照的阈值。可以基于电子设备102中存在的媒体获取单元110的成像属性来确定阈值。
51.电子设备102的存储器104可以存储至少一个但不限于与所分析的诸如聚焦、模糊、面部检测和光照之类的参数相关的信息以便通过媒体获取单元110捕捉场景。存储器104还可以包括相对镜头位置、模糊值、捕捉到的场景中存在的面部数量以及当前光照条件,以分析电子设备102上的场景。存储器104可以包括闪存型存储介质、硬盘型存储介质、多媒体卡微型存储介质、卡型存储器(例如,安全数字(sd)或极限数字(xd)存储器)、随机存取存储器(ram)、静态ram(sram)、只读存储器(rom)、电可擦除可编程rom(eeprom)、可编程rom(prom)、磁存储器、磁盘或光盘中的至少一种类型的存储介质。
52.通信接口106可以包括被配置成使用通信网络支持的数据通信方法与另一设备(例如,另一电子设备、云服务器等)通信的一个或多个组件。通信接口106可以包括诸如有线通信器、短程通信器、移动/无线通信器和广播接收器之类的组件。有线通信器可以使电子设备102能够使用诸如但不限于有线lan、以太网等之类通信方法与其他设备(例如,另一个电子设备、基于云的服务器、多个设备等)通信。短程通信器可以使电子设备102能够使用诸如但不限于ble、nfc、wlan(或wi-fi)、zigbee、irda、wfd、uwb通信、ant (可互操作无线传输能力)通信、共享无线接入协议(swap)、无线宽带互联网(wibro)、无线千兆联盟(wigig)等之类的通信方法与其他设备通信。
53.处理器108可以包括一个或多个处理器。处理器108可以是通用处理器,如中央处理单元(cpu)、应用处理器(ap)等,图形专用处理单元,如图形处理单元(gpu)、视觉处理单元(vpu),和/或ai专用处理器,如神经处理单元(npu)。处理器108可以被配置为在微距感测模式和非微距感测模式之间切换电子设备。处理器108包括各种组件,如场景捕捉模块302、场景分析模块304和场景切换模块306,以通过媒体获取单元110捕捉场景。基于检查所分析的参数,处理器108确定要用于在显示单元112上显示对象和/或物体的对应相机。处理器108确定捕捉的场景的一个或多个帧满足分析参数的对应条件以便在微距感测模式和非微距感测模式之间进行切换。
54.处理器108可以执行基于聚焦数据的场景分析,其中,处理器108可以使用诸如但不限于相对镜头位置、场景中存在的对象的自动聚焦状态、散焦状态和光照条件之类的参数来捕捉场景。基于执行基于聚焦数据的场景分析,处理器108确定是要在微距感测模式还是非微距感测模式下捕捉场景。处理器108计算捕捉的场景中存在的模糊量,以确定是否在微距感测模式和非微距感测模式之间切换。处理器108确定场景中是否存在任何面部,以确定是否在微距感测模式和非微距感测模式之间切换。处理器108组合基于聚焦数据的场景分析、基于模糊检测的场景分析和基于面部检测的场景分析的结果,以确定当前捕捉模式。由于基于聚焦数据的场景分析、基于模糊检测的场景分析和基于面部检测的场景分析在电子设备102的后台并行运行,所以处理器108组合上述分析的结果。
55.基于组合分析的结果,处理器108进一步检查光照条件。基于确定微距模式将用于捕捉媒体并且光照条件足够,处理器108向要激活的微距相机提供指令并将非微距相机切换到非激活状态。非微距相机可以被设置为电子设备102后台中的辅助相机。
56.处理器108存储与所分析的参数相关的信息。此外,处理器108使得微距感测模式和非微距模式在电子设备102的后台并行运行,以使得能够容易地在感测模式之间切换。
57.在一实施例中,一个或多个处理器108可以根据存储在非易失性存储器和易失性存储器中的预定的操作规则来控制对输入数据的处理。可以通过在电子设备102中存在的存储器104中提供的(多个)指令来提供预定的操作规则或智能模型。
58.显示单元112可以被配置为向(多个)用户提供输出。显示单元112基于分析的参数以在对应的感测模式下提供对象/物体。
59.在一示例中,如果电子设备102是服务器,则显示单元112可以接收来自处理器108的输出,并通过通信接口106将该输出通信到电子设备102,以显示给用户。
60.在一示例中,如果电子设备102是用户设备,则显示单元112可以接收来自处理器108的输出,并且包括例如但不限于声音输出单元、显示器、振动马达、用户界面(ui)模块等,以将接收到的输出提供给用户。输出可以作为但不限于图像、图形、视频信号、文本等来提供。声音输出单元可以是扬声器,其接收来自处理器108的输出,并将该输出作为音频信号提供给用户。显示单元112接收来自处理器108的输出,并将该输出作为图像、视频信号、文本等中的至少一种显示给用户。ui模块可以提供专门的ui或图形用户界面(gui)等,以向用户提供输出。
61.图3描绘了示出根据这里公开的实施例的基于各种参数来分析捕捉的场景的电子设备的处理器108的各个单元的框图。处理器108包括场景捕捉模块302、场景分析模块304和场景切换模块306。
62.场景捕捉模块302可以包括一个或多个相机。场景捕捉模块302可以被配置成捕捉媒体。媒体的示例可以是但不限于视频、图像、动画、扫描等。
63.场景分析模块304可以分析所捕捉的媒体以确定电子设备102用来有效捕捉场景的感测模式。基于对场景的分析,分析模块304确定是使用微距感测模式还是非微距感测模式来捕捉场景。
64.场景分析模块304基于确定场景的性质,启动处理器108以在微距感测模式和非微距感测模式之间切换电子设备102。
65.场景切换模块306执行微距感测模式和非微距感测模式之间的切换。因此,由场景切换模块306进行的相机切换是在没有任何人为干预的情况下执行的,并且可以增强所捕捉的场景的质量。
66.图4描绘了图示根据所公开的实施例的分析通过电子设备102捕捉的场景的场景分析模块的各个单元的框图。场景分析模块304包括基于聚焦数据的场景分析器202、基于模糊检测的场景分析器204、基于面部检测的场景分析器206和基于光照条件的分析器208。
67.基于聚焦数据的场景分析器202使用聚焦相关参数,如相对镜头位置、自动聚焦状态、散焦状态和周围环境光照条件。媒体获取单元110可以包括一个或多个相机或任何其他设备来捕捉场景。相对镜头位置涉及镜头相对于致动器导轨的位置。处理器108跟踪媒体获取单元110的相对镜头位置。例如,可以有多个范围,并且基于相对镜头位置落入的范围,可以近似估算媒体获取单元110是否正在远离或靠近作为场景的一部分而被捕捉的对象,并且处理器108可以在非微距感测模式和微距感测模式之间切换。各种范围的边界取决于电子设备102、微距相机、非微距相机和媒体获取单元110。
68.基于微距相机或非微距相机的聚焦状态,处理器108可以建议在微距感测模式和非微距感测模式之间切换。聚焦状态可以是试图聚焦模式、已聚焦模式和未聚焦模式中的至少一种。媒体获取单元110的散焦值确定捕捉的场景中相位差像素之间的相位差值。如果从场景捕捉的像素的相位差值是负的,则处理器108认为对象更靠近媒体获取单元110。基于相对镜头位置、聚焦状态和散焦的值的组合,处理器108在微距感测模式和非微距感测模式之间切换。
69.光照条件确定了当前场景的照明。基于光照条件的场景分析器208检查当前的光照条件。
70.基于模糊检测的场景分析器204分析正被捕捉的场景中存在的模糊量。基于确定模糊量超过阈值水平,处理器108确定感测模式。例如,当媒体获取单元110处于微距感测模式并且模糊超过阈值水平时,处理器108确定正被捕捉的场景是非微距情景。以类似的方式,基于非微距传感器中存在模糊,处理器108确定捕捉场景是微距情景。阈值取决于电子设备102、微距相机、非微距相机和媒体获取单元110。
71.图5是描绘根据这里公开的实施例的模糊检测和在微距感测模式和非微距感测模式之间切换电子设备102的决策的示例图。如图5所图示的,基于要捕捉的场景中存在的细节的数量来分析模糊量。图5图示了在处理捕捉的场景之后获得的锐利的示例图像和模糊的示例图像。例如,非微距感测模式下的媒体获取单元110分析当前帧中存在的模糊。基于当前帧中存在的模糊,处理器108确定当前相机是否适合该场景。媒体获取单元110基于确定模糊量超过预定的阈值,切换到微距感测模式。以类似的方式,当媒体获取单元110处于
微距感测模式时,媒体获取单元110可以基于确定在来自微距感测模式的媒体(例如,图像、视频等)中出现的模糊超过预定的阈值而切换到非微距感测模式。每个参数(即,基于模糊检测的场景分析、基于聚焦数据的场景分析、基于光照条件的分析)的阈值可以被称为“模糊阈值”、“基于聚焦的阈值”和“基于光照的阈值”。可以基于电子设备102中存在的媒体获取单元110的成像属性来确定阈值。
72.如图5所图示的,基于模糊检测的场景分析器204可以通过处理捕捉的场景来计算模糊量。可以通过使用对媒体(例如,图像、视频等)中的帧的图像处理或者通过使用基于机器学习的解决方案来确定场景中存在的细节的数量而计算模糊量。例如,可以使用边缘检测方法(图像处理解决方案)来确定捕捉的帧中的锐边,并从该帧中移除所有其他像素。由此,基于帧中边缘的数量,确定锐利的图像的百分比。因此,可以通过与锐度百分比互补来计算模糊百分比。可替代地,基于机器学习的解决方案也可用于计算图像中的模糊量或将图像分类为模糊或不模糊的图像。
73.此外,基于模糊检测的场景分析器204可以将模糊百分比值与阈值进行比较,以确定帧中的对象是否模糊。基于相机的属性来确定该阈值。
74.基于面部检测的场景分析器206确定当前帧中人脸的存在(如果有的话)。基于面部检测的场景分析器206基于确定帧中人脸的存在,通知处理器108。例如,媒体获取单元110基于检测到至少一个人脸,通知处理器108关于至少一个人脸的存在。因此,处理器108将媒体获取单元110切换到非微距感测模式。
75.图6是描绘根据所公开的实施例的通过在电子设备102的微距感测模式和非微距感测模式之间切换来增强媒体质量的面部检测的示例图。如图6所图示的,在捕捉的场景中检测人脸。在一实施例中,基于面部检测的场景分析器206是用于捕捉场景的媒体获取单元110中的组件。基于面部检测的场景分析器206分析来自非微距相机的场景中的帧,以执行人脸分割。此外,基于面部检测的场景分析器206可以使用人脸分割来确定捕捉到的媒体中是否存在人脸。处理器108基于确定所捕捉的媒体中面部的存在,使得媒体获取单元110继续处于非微距感测模式或者切换到非微距感测模式。
76.如图6所图示的,通过对捕捉的图像应用各种方法和技术来执行面部检测。在这里的实施例中,基于面部检测的场景分析器206可以存在于媒体获取单元110中。在这里的一实施例中,基于面部检测的场景分析器206可以基于缩放值来检测场景的捕捉的帧中存在的有效面部的数量。
77.图7是描绘通过将微距传感器和非微距传感器配置成在电子设备102的后台运行来分析所捕捉的场景的示例图。如图7所图示的,考虑用户将相机移近对象。参数分析在电子设备102的后台并行运行。处理器108识别要捕捉的场景中存在的模糊。分析聚焦数据,并确定是否有足够的光照来捕捉微距场景。此外,基于面部检测的场景分析器206检测场景中存在的人脸(如果有的话),并且可以使处理器108从非微距相机切换到微距相机。此外,基于面部检测的场景分析器206提供面部检测数据。由此,所获得的面部检测数据确定了要捕捉的场景中存在的人脸的数量。基于确定要捕捉场景的感测模式,执行立即切换到所确定的模式。类似地,当用户将相机从对象移开时,进行分析以从非微距感测模式切换到微距感测模式。
78.图8是根据所公开的实施例,描绘基于对要实时捕捉的场景的分析来选择相机的
示例图。如图8所图示,将捕捉的场景作为输入发送到每个分析模块,并且基于分析的参数,将输出发送到处理器108。在图8中,将所捕捉的场景发送到基于聚焦数据的场景分析器202,通过诸如相对镜头位置、自动聚焦状态、散焦状态和光照条件之类的聚焦参数执行分析。
79.如所图示的,在基于聚焦数据的场景分析器202中,相对镜头位置参数表明镜头在致动器导轨上的位置。相对镜头位置近似估算相机是靠近场景还是远离场景。处理器108跟踪媒体获取单元110的相对镜头位置。在对象越靠近的情况下,相对镜头位置越小。随着媒体获取单元110远离对象,相对镜头位置的值将增加,以表明对象正在远离媒体获取单元110。例如,相对镜头位置的值是0表明传感器试图聚焦在非常近的对象上。以类似的方式,镜头位置的最大值表明传感器试图聚焦在非常远的对象上(无限远)。
80.基于微距相机或非微距相机的聚焦状态,处理器108确定在微距感测模式和非微距感测模式之间的切换。媒体获取单元110的散焦状态确定捕捉场景中相位差像素之间的相位差值。基于确定从场景捕捉的像素的相位差值为负,处理器108认为对象更靠近。基于确定从场景捕捉的像素的相位差值是非负的,处理器108认为对象离媒体获取单元110更远。
81.光照条件确定了当前场景的照明。处理器108还检查当前可用的光照是否足以在微距或非微距感测模式下捕捉对象。
82.基于模糊检测的场景分析器204分析要捕捉的场景的预览中存在的模糊量。例如,当媒体获取单元110处于微距感测模式并且场景的微距预览中存在的模糊超过阈值水平时,处理器108确定将使用非微距感测模式来捕捉场景。例如,当媒体获取单元110处于非微距感测模式并且场景的非微距预览中存在的模糊超过阈值水平时,处理器108确定将使用微距感测模式来捕捉场景。当模糊不超过阈值时,不改变感测模式。阈值取决于电子设备102、微距相机、非微距相机和媒体获取单元110。
83.基于面部检测的场景分析器206确定捕捉到的帧中人脸的数量。基于面部检测的场景分析器206基于确定场景中存在的人脸的数量,启动处理器108保持当前模式(如果当前模式是非微距感测模式)或者切换到非微距感测模式(如果当前模式是微距感测模式)。
84.如图8所图示的,收集每个分析参数的输出。所有分析模块在电子设备102的后台并行运行。应该满足场景中存在的多个帧的所有条件来执行切换。
85.图9是描绘根据所公开的实施例的基于诸如聚焦数据的场景分析、基于面部检测的场景分析之类的各种参数对所捕捉的场景的分析的示例图。
86.在如图9所描绘的示例中,用户打开相机应用来捕捉场景,并且使用非微距传感器、非微距相机和非微距感测模式的相机应用捕捉场景的预览。传感器向电子设备102的处理器108提供所捕捉场景的预览以及聚焦数据、模糊数据和面部数据。传感器向电子设备102的处理器108提供诸如聚焦位置、聚焦状态、散焦值之类的聚焦相关数据、光照条件、模糊相关数据和面部检测数据。处理器108分析由传感器提供的与捕捉场景的预览相关的数据。处理器108确定该场景是微距场景,并执行到使用微距相机的微距感测模式的切换。
87.图10是图示出根据所公开的实施例的基于所分析的参数切换到微距感测模式的控制流程的示例图。用户打开相机以启动捕捉场景的过程,其中,非微距相机和非微距感测模式是激活的。电子设备102的处理器108基于由非微距相机提供的数据来分析参数。由非
微距相机提供的数据可以包括聚焦相关数据,诸如但不限于聚焦位置数据、散焦数据、聚焦状态数据等等。如果非微距相机能够适当地聚焦在场景上,则控制流程回到默认相机。基于在场景中的一个或多个对象上失去聚焦,执行关于相机是否正在试图捕捉微距对象的分析。假设在当前的示例中,用户正在试图捕捉微距场景。
88.检查是否有足够的光照来捕捉场景。假设在当前示例中,有足够的光照来捕捉微距场景。
89.对场景预览进行分析,以检测场景预览中的模糊和面部。假设确定的模糊值超过阈值,并且在场景预览中没有检测到面部。
90.如图10中的示例所图示,基于所分析的参数(并行发生),做出将使用微距相机和微距感测模式来捕捉场景的决策。因为电子设备102当前正在使用非微距相机和非微距感测模式,所以电子设备102切换到使用微距相机和微距感测模式。
91.图11是描绘根据所公开的实施例的基于诸如基于聚焦数据的场景分析、基于面部检测的场景分析之类的各种参数对所捕捉的场景的分析的示例图。
92.在如图11所图示的示例中,用户打开相机应用来捕捉场景,并且使用微距传感器、微距相机和微距感测模式的相机应用捕捉场景的预览。微距传感器向电子设备102的处理器108提供所捕捉场景的预览以及模糊数据和面部数据。具有自动聚焦模块的传感器(微距相机或非微距相机)向电子设备102的处理器108提供诸如聚焦位置、聚焦状态、散焦值之类的聚焦相关数据、光照条件、模糊相关数据和面部检测数据。处理器108分析由传感器提供的与捕捉场景的预览相关的数据。假设处理器108确定场景为非微距,并执行到非微距相机和非微距感测模式的切换。
93.图12是图示出根据所公开的实施例的基于所分析的参数切换到非微距感测模式的控制流程的示例图。用户打开相机以启动捕捉场景的过程,其中,微距相机和微距感测模式是激活的。电子设备102的处理器108基于微距相机提供的数据来分析参数。假设自动聚焦模块存在于微距相机中,由微距相机提供的数据可以包括聚焦相关数据,诸如但不限于聚焦位置数据、散焦数据、聚焦状态数据等等。如果非微距相机仍然不能在来自默认相机的场景上适当地聚焦,则控制流程回到微距相机。基于在场景中的一个或多个对象上获得聚焦,执行关于相机是否正在试图捕捉非微距对象的分析。假设在当前示例中,用户正试图捕捉非微距场景。
94.如果不存在捕捉来自微距相机的场景的足够的光照,控制流程回到默认相机。
95.分析场景预览(来自微距传感器)以检测场景预览中的模糊和面部。假设在场景预览中所确定的模糊值超过了阈值。
96.如图12中的示例所图示,基于所分析的参数(并行发生),做出将使用非微距相机和非微距感测模式来捕捉场景的决策。因为电子设备102当前正在使用微距相机和微距感测模式,所以电子设备102切换到非微距相机和非微距感测模式。
97.图13是描绘根据所公开的实施例的模糊检测和聚焦检测以防止微距感测模式和非微距感测模式之间的错误切换的示例图。用户打开相机应用来捕捉场景,并且处理器108基于确定该场景是微距场景,切换到微距感测模式。在切换到微距感测模式之后,用户可以调整电子设备102来捕捉微距对象的不同角度。
98.如图13中的示例所描绘的,其中,微距传感器和微距感测模式是激活的以捕捉微
距对象,描绘了某一时刻捕捉的微距帧和在同一时刻捕捉的非微距帧。如果仅执行来自非微距传感器的基于聚焦数据的场景分析,当用户在周围移动相机时,非微距传感器能够获得聚焦,并且可能建议错误地切换到非微距感测模式。基于将该结果与在微距帧上计算的小于阈值的模糊值相结合,电子设备102可以避免这样的错误切换。由此,用户可以调整电子设备102以获得微距对象的不同角度。
99.这里的实施例自动执行模式之间的切换,而无需任何额外的硬件组件,例如飞行时间(tof)传感器等。此外,该解决方案独立于自动聚焦模块的类型。
100.这里的实施例在启动执行切换之前测试要连续捕捉的场景的多个帧。这里的实施例避免了由于手抖、用户进行的聚焦场景的调整等而导致的错误切换。这里的实施例实时工作,并且独立于用户而选择最佳相机以最佳地捕捉场景。这里的实施例克服了硬件限制来执行微距对象的自动聚焦。这使得该方法极具竞争力和成本效益,以确保在不同场景下捕捉的图像在可用传感器能力下具有最佳质量。
101.这里的实施例利用具有不同焦距和视场的多个相机传感器,而不是具有多模式操作能力的单个电控相机。这里的实施例利用来自非微距相机(或任何具有自动聚焦模块的相机)的聚焦数据作为智能传感器块的输入,以实时决定最佳相机。因此,通过执行切换,这里的实施例实现了在不同光照条件下捕捉各种场景的高一致性的更高精度。由于相机的自动切换并且不使用距离测量硬件组件,这里的实施例降低了电子设备的功耗。
102.图14是图示出根据这里公开的实施例的用于分析和在至少一个微距感测模式和至少一个非微距感测模式之间切换以实时捕捉微距和非微距媒体的方法的流程图。
103.在步骤s1410,该方法包括,经由包括多个图像传感器的媒体获取单元获取至少一个帧。
104.在步骤s1420,该方法包括,基于至少一个帧的聚焦数据或模糊数据中的至少一种,在微距感测模式和非微距感测模式中识别媒体获取单元的操作模式。
105.在步骤s1430,该方法包括,经由媒体获取单元,通过使用多个图像传感器中与识别的操作模式对应的图像传感器来获取至少一个图像。
106.图14的方法和流程图中的各种动作、行为、块、步骤等可以以所呈现的顺序、以不同的顺序或同时执行。此外,在一些实施例中,在不脱离本公开的范围的情况下,可以省略、添加、修改、跳过一些行为、动作、块、步骤等。
107.特定实施例的前述描述将如此充分地揭示这里实施例的一般性质,以至于其他人可以通过应用当前知识,在不脱离一般概念的情况下,容易地修改和/或适配这些特定实施例以用于各种应用,因此,这种适配和修改应该并且旨在被理解在所公开的实施例的等同物的含义和范围内。应当理解,这里使用的措辞或术语是为了描述的目的,而不是为了限制。因此,尽管已经根据实施例描述了这里的实施例,但是本领域技术人员将认识到,这里的实施例可以在这里描述的实施例的范围内进行修改来实施。
再多了解一些

本文用于创业者技术爱好者查询,仅供学习研究,如用于商业用途,请联系技术所有人。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献