一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

用于渲染逼真光照的自适应时间图像滤波的制作方法

2022-06-15 22:05:44 来源:中国专利 TAG:

用于渲染逼真光照的自适应时间图像滤波
1.相关申请的交叉引用
2.本技术要求于2020年12月10日提交的、题为“adaptive temporalimage filtering with gradient estimation based on backward projection ofsurfaces and g-buffer patching”的美国临时专利申请序列no.63/123,540 的优先权,该申请的全部内容在此出于所有目的并入本文。


背景技术:

3.随着朝着基于物理的渲染的努力,着色(shading)的随机采样(例如使用路径追踪)在实时渲染中正变得越来越重要。为了实时地和/或在其他时间敏感或处理敏感的条件下实现高性能,采样可以限于较低的样本计数。然而,较低的样本计数可能导致噪声,这使得使用复杂的重建滤波器产生较好质量的结果成为必要。关于这样的滤波器的研究在质量和性能两方面显示出戏剧性的改进,因为它们通过重用时间信息来利用连续帧的连贯性以实现稳定、去噪的结果。然而,现有的时间滤波器常常产生诸如鬼影和滞后之类的令人反感的伪影。
4.与来自屏幕上可见的表面子集的当前帧和先前帧的(有噪声)着色结果之间的差异相对应的时间梯度可以用来尝试减少渲染的图像序列或帧序列中的伪影的数量。一种用于计算时间梯度的常规方法是使用先前帧的可见性缓冲器——一种存储每个像素的几何信息的缓冲器。来自先前帧的一些像素被前向投影到当前帧中,并且它们替换当前帧中的常规像素。对于这些梯度像素而言,主射线被追踪到重新投影的表面,而不是像通常那样针对固定距离被追踪到仅仅由像素位置(position)确定的方向上。遗憾的是,该方法对于光栅化几何缓冲器或“g缓冲器”(即,几何和材料信息的屏幕空间表示)无效,因为人们不能让光栅化器针对每个像素都使用自定义子像素偏移量。
5.一种基于前向投影的方法也不能很好地处理反射影像和折射影像,例如使用主表面替换(psr)渲染的那些反射影像和折射影像。其中一个原因是因为在至少一些系统中只有真正的主表面(即主镜面反射路径的第一顶点)才能够前向投影。后续的路径顶点不能被重新投影,因为它们缺乏计算新位置所必需的关于反射/折射链的信息以及以下事实:人们需要追踪整个路径,而不是仅仅主可见性光线,以确定辅助表面是否可见。在psr 渲染器中尝试仅仅在第一路径顶点上使用前向投影在相机移动或者辅助表面移动时导致假阳性梯度,这使得去噪器中的累积历史无效并且产生比正常情况下更多的噪声。
附图说明
6.根据本公开的各个实施例将参照附图进行描述,在附图中:
7.图1a和图1b示出了根据至少一个实施例的图像序列中的图像;
8.图2a、图2b、图2c和图2d示出了根据至少一个实施例的序列中的两个图像之间的照明差异;
9.图3a、图3b、图3c和图3d示出了根据至少一个实施例的投影方法的阶段;
10.图4示出了根据至少一个实施例的示例光线追踪管线;
11.图5a和图5b示出了根据至少一个实施例的用于确定序列中的图像的像素数据的过程;
12.图6示出了根据至少一个实施例的用于生成图像数据的系统的组件;
13.图7a示出了根据至少一个实施例的推理和/或训练逻辑;
14.图7b示出了根据至少一个实施例的推理和/或训练逻辑;
15.图8示出了根据至少一个实施例的示例数据中心系统;
16.图9示出了根据至少一个实施例的计算机系统;
17.图10示出了根据至少一个实施例的计算机系统;
18.图11示出了根据一个或更多个实施例的图形处理器的至少部分;
19.图12示出了根据一个或更多个实施例的图形处理器的至少部分;
20.图13是根据至少一个实施例的高级计算管线的示例数据流图;
21.图14是根据至少一个实施例的用于在高级计算管线中训练、适应、实例化和部署机器学习模型的示例系统的系统图;以及
22.图15a和图15b示出了根据至少一个实施例的用于训练机器学习模型的过程的数据流图,以及利用预训练的注释模型来增强注释工具的客户端
‑ꢀ
服务器架构。
具体实施方式
23.根据各个实施例的方法可以提供为诸如图像序列、视频或者动画之类的内容的生成确定鲁棒的时间梯度。特别地,各个实施例提供了为光线追踪的渲染器计算时间去噪器中的当前帧与先前帧之间的鲁棒的时间梯度。根据这些实施例中的至少一些的方法可以利用反向投影来定位用于梯度估计的匹配表面,其后是表面参数载进(carry-forward)和修补。
24.在至少一个实施例中,图像生成系统可以生成图像或视频帧序列,该序列在按顺序播放时呈现内容的场景,例如动画或者玩游戏的场景。在每个这样的图像中,可能存在表示的各个对象,例如可以包括可以是静态的或者动态的前景和背景对象。不管是静态的还是动态的,任何这些对象的定位、尺寸和取向都可能至少部分地基于用来确定诸如图像的视点或者缩放水平之类的因素的虚拟相机的运动而变化。在这样的图像或视频序列中,视图、定位、尺寸和取向的这些变化可以看作用来表示那些对象的各个像素的一组运动。不同帧中的像素位置之间的这种特征运动在仅仅针对当前帧中的那些特征考虑位置信息的情况下可能看起来有点有锯齿、有噪声或者不流畅。为了平滑表观运动或动画,来自一个或更多个在先帧的像素数据可以与当前帧的像素数据混合。然而,为了混合这些像素值,有必要使这些不同图像中表示相似对象特征的像素相关。在至少一些实施例中,同样合适的是在所述对象在这些帧之间运动时精确地渲染那些对象的照明或着色或者影响那些对象。
25.例如,考虑图1a的初始图像帧100,其可以与视频序列的帧相对应。在该示例中,存在两个光源,包括主光源102(例如太阳或月亮)和诸如街灯之类的辅助光源104。在其他示例中,存在更少或者附加的相似或不同类型的光源。在该示例中,光源102被认为是主光源,因为它在该场景中是最明亮的光源。在该场景中,也存在多个其他的对象,包括前景和背景对象。这些对象包括动态对象,例如人106、第一车辆108和第二车辆 110。为了使得该场景
看起来至少有点逼真感,可以考虑光源102、104在场景的对象上的相对位置,以便对那些对象适当地照亮或者着色。除了对所述对象照明之外,该相对位置信息将用来计算各个对象关于那些光源投射的阴影112、114、116。此外,可能存在该图像中表示的对象的反射影像(reflections)118,例如在另一个对象110的闪亮的表面上可见的对象106、108的反射影像。
26.图1b示出了针对该示例序列生成的下一个或后续图像帧150。在该图像中,所述对象中的至少一些可以处于不同的位置、姿势、视图或者取向,导致这些对象的特征在序列中的不同帧中表示于不同的像素位置。如上所述,为了提供这些帧之间的平滑动画,可能希望的是将初始帧100的“历史”像素数据中的至少一些与该后续帧150的像素数据混合。为此,一种混合过程可以尝试至少在这些特征均表示于这两帧中的程度上使这些特征的位置相关,以便执行该混合,以及确定用于该混合或者其他这样的方面的加权。尝试使该信息相关的一种方式是确定这两幅图像之间的像素运动。在图1b中,示出了一定数量的运动向量,其表示选择的对象的某些特征如何相对于那些特征在初始帧100中的位置运动。如图所示,所述光源中的一个或更多个可能已经运动,以及被那些光源照射的对象中的一个或更多个已经运动。这不仅可以影响那些对象的特征的位置,也可以影响相对应阴影的位置。此外,对象的反射影像也可能至少部分地基于这些其他对象的运动而变化。例如,人106和车辆108在车辆110上的反射影像118将基于这些对象在所述场景中的运动而改变位置,并且这些对象的外观将至少部分地基于由于运动所引起的这些对象的不同照明而变化。
27.如上所述,表示来自屏幕上可见的表面的子集的当前帧和先前帧的着色结果之间的差异的时间梯度可以用来减少伪影的数量并且平滑序列中的动画。也如上所述,(例如通过前向投影)确定时间梯度的常规方法不能很好地处理反射影像和折射影像。为了更好地理解如何确定反射影像,图 2a-2d示出了根据各个实施例的可以利用的示例性基于光线的着色方法。在图2a的示例图像帧200中,存在单个光源202,其照射场景中的两个对象,在这种情况下为盒子204和锥体210。来自光源202的光也产生阴影 206、208,其由来自该灯的光线分别与盒子204和锥体210相交并且因此 (大部分)被防止到达那些对象之后的阴影区域206、208而造成。在该示例中,盒子204的面向前面的一侧包括高度反射的特征212,例如镜面或者光滑的金属面板,其也可以反射来自光源202的光。在该示例中,反射的光可以包括从锥体210反射的光,使得锥体的反射影像214出现在反射性特征212中的适当位置(具有适当的比例和镜像取向)。
28.为了确定照明、阴影和反射影像,可以利用诸如光线追踪之类的方法。如图2b的图像220所示,从光源202向不同方向投射或追踪一组光线(这里为了简单起见仅仅示出了两条光线,但是可以理解可以存在许多投射的光线)。第一光线222入射到盒子204上的点224处,从而该位置的像素的像素颜色应当至少部分地基于该来自光源202的直接光照而确定。此外,可以超出交点224继续追踪该光线(或者追踪第二光线226),以确定其中该光线将与另一个表面(在此例中为其上放置该盒子的地板)相交的第二交点228。为该第二交点228处的像素确定的像素值可以至少部分地基于来自光源202的光被盒子204阻挡(或者阻碍)——这在地板上产生阴影区域——而确定。类似地,从光源投射的光线230可以入射到或者相交于锥体210上的交点232处。在该示例中,该光线然后可以从交点232定向(或者第二光线234从其投射),以确定与盒子204的高度反射的表面 212相交于对应的交点236处。
然后,除了在该示例中高度反射的表面212 上的交点236也很可能从光源接收直接的光线(以及潜在地其他反射的光线)这一事实之外,为交点236处的像素值确定的像素值可以至少部分地基于反射的光和交点232处锥体210的一个或更多个表面属性以及交点 236处高度反射的表面212的表面属性而确定。
29.可以针对序列中的每一帧或者至少帧的子集重复这样的光线追踪方法。例如,图2c的图像240示出了后续帧中的相同场景,其中盒子204、锥体210和光源202至少在稍微不同的方向上全部移动了,这因此也导致阴影206、208以及锥体210在高度反射的表面212中的反射影像214的移动。如上所述,为了诸如改进序列中的动画质量之类的目的,可能希望的是确定这些可表示的对象或元素中的任意或全部的运动(如运动向量的示例选择所表示的)。如图2d的图像260所示,可以再次执行光线追踪以确定图像的方面,例如阴影的当前位置以及锥体的反射影像的新位置和/ 或取向。在至少一些系统中,例如在用于渲染的g缓冲器中,锥体在高度反射的表面上的反射影像将替换盒子数据的部分。然而,如上所述,使用常规方法可能难以确定用于反射影像的光线262的确定。对于运动的现实性而言,可能重要的是精确地确定所述光线,并且使其与来自早先帧的适当像素相关,对历史数据适当地加权,以便防止噪声或不流畅以及诸如时间滞后之类的其他潜在伪影。
30.如上所述,场景中的对象的至少一些运动可能是虚拟相机的动画或运动(这改变了视图方向)的结果。尽管通过从表面位置减去相机位置重建主表面的视图方向可能是相对直截了当的,但是对于诸如反射表面或者折射表面之类的辅助表面而言,这在各种常规系统中是不可能的。一种选项是利用当前帧的视图方向并且保持它未被修补。使用略微不匹配的视图方向主要对于非常闪亮的表面有关系,因此在反射影像中可见的抛光的金属和类似物上可能存在一定量的噪声,这通常比在运动时段期间在每个反射表面或折射表面上存在大量的噪声更可取。
31.根据各个实施例的方法可以提供对于反射影像和折射影像以及对于阴影和直接照射的对象起作用的自适应时间图像滤波。在至少一个实施例中,用于渲染序列中的帧的方法可以针对每个视频帧使用常规的渲染过程使得几何缓冲器(或者“g缓冲器”)被渲染。然后,这之后可以是使用例如主表面替换(psr)对反射影像和/或折射影像进行渲染。接着,可以执行反向投影传递(pass)。为了执行反向投影,可以将当前帧划分为一组层块(stratum),其中每个层块可以包括相邻像素阵列,例如(但不限于)3x3方形像素。对于每个层块,可以选择单个像素,其具有在先前帧中识别的匹配表面。在至少一个实施例中,可以使用g缓冲器填充和psr 传递期间生成的运动向量定位匹配表面,于是其对于反射表面和折射表面可以有效。为了确定某个表面在当前帧像素和先前帧像素中是否相同,可以使用若干方法,除其他这样的选项以外,其可以包括比较两个表面的深度和法线,或者比较可见性缓冲器数据。
32.图3a-3d示出了将层块用于反向投影的示例方法。在图3a中,示出了帧配对300的部分,其中该配对包括场景的帧序列中的两个相邻帧。存在在这些帧中表示的两个对象,它们都在帧之间运动。如图所示,运动的对象和任何背景对象可以具有不同的运动向量,例如其中背景可以是静态的并且因此具有零运动。这些帧被示为由(夸大的)像素组成,示出哪些像素表示那些对象的不同部分。如上所述,每个帧的像素可以划分为层块的栅格,例如每个为3x3像素的方形层块。图3a中示出了一个这样的层块306。如上所述,在该示例中,所述
过程将利用反向投影,从而所述层块选自后续(或当前)帧304而不是初始帧302。在该示例中,每个像素将包括在一个层块中。层块的尺寸可以基于这里讨论的各个因素中的任何因素确定,并且层块中包括的像素的数量可以确定针对序列中的每个帧配对所执行的采样的量。如对于图3b中的图像对320所示,反向投影可以涉及针对给定层块中的每个像素位置确定在先或者初始帧302中的相应像素位置。可以进行尝试以确定该层块的每个像素的匹配表面像素,如果如上面所讨论的在这两个帧中表示的话。在至少一个实施例中,运动向量可以通过以下方式进行计算:采取世界空间中的对象的当前位置、其在世界空间中的先前位置,然后使用当前和先前视图-投影矩阵或者其他这样的方法将这些位置变换到屏幕空间中。在这种情况下,运动向量表示相同对象或表面的屏幕空间位置之间的差异。
33.在许多情况下,层块将包含具有匹配表面的多个像素。在这样的情况下,可以选择代表性像素。在至少一个实施例中,这可以包括如图3c的图像对340所示在初始或先前帧302上具有最明亮光照,但是不用于梯度估计的像素342。使用最明亮光照启发法可以使得光照变化的检测更为鲁棒且感觉上更佳。使用也不用于梯度估计的像素有助于消除由在多个连续帧上针对某个表面重用相同随机数序列而可能造成的偏差。
34.在选择层块中的梯度像素并且在先前帧中定位匹配像素之后,可以执行g缓冲器修补。g缓冲器修补可以涉及从先前帧g缓冲器(或者其他相关缓冲器或者高速缓存)采取表面的某些参数,以及将它们写入到当前帧 g缓冲器的梯度像素中。这可以类似于那些参数的前向投影362,如图3d 中针对帧配对360所示。所讨论的参数可以包括用来计算表面照明以与相同表面的先前帧照明进行比较以进行梯度计算的那些参数。这样的参数包括但不限于随机数生成器种子、法线、金属度和粗糙度。在该示例中,反向投影因此可以用来寻找用于梯度估计的匹配表面,接着是表面参数载进和修补。以此方式修补表面参数在绝大多数情况下可以消除假阳性梯度,使得去噪的图像非常稳定,同时允许快速地对照明变化做出反应。
35.在至少一个实施例中,应当非常密切地匹配、但是不能简单地从在先帧复制的参数包括表面世界位置和视图方向。典型地,延迟渲染器并不存储这些参数,而是这些参数在着色期间从像素位置和相机信息重建。至少一些基于psr的渲染器确实存储这些参数,因为对于反射表面或者折射表面而言,位置和视图方向可能不能够被重建。在至少一些实施例中,梯度表面的这些参数可以被修补到相应的g缓冲器中。然而,在至少一些实施例中,与上面提到的诸如粗糙度之类的参数形成对照的是,这些参数不应当仅仅被复制。
36.例如,当渲染场景时,关于如上面所示和所讨论的动画对象的位置信息可以在帧之间变化。这提供了照明梯度存在的有效原因,以及至少部分地使照明历史信息无效。代替复制位置数据的是,来自先前帧的可见性缓冲器信息可以用来基于相同表面的网格、三角形索引和重心坐标以及更新的顶点缓冲器计算该相同表面的新位置。视图方向也可能因为诸如动画和相机运动之类的因素而变化。在至少一些情况下,通过例如从表面位置减去相机位置,可以相对直接地重建用于主表面的视图方向。对于诸如反射表面或者折射表面之类的辅助表面,这样的方法可能是不可能的,从而可以使用当前帧视图方向,不经修补。使用略微不匹配的视图方向可能对于诸如非常亮或者高度反射的那些表面之类的表面是重要的,因此,在反射影像中可见的抛光金属和类似对象或特征上可以观察到稍微更多的噪声。
37.图4示出了可以用来渲染序列中的图像或帧的示例渲染管线400。在该示例中,可以接收用于要渲染的当前帧的像素数据402(其可以包括用于主表面的g缓冲器数据)作为渲染系统的反射和折射组件404的输入。如上所述,该反射和折射组件404可以使用该数据尝试确定像素数据中用于任何确定的反射影像和/或折射影像的数据,并且可以将该数据提供给反向投影和g缓冲器修补组件406,该组件可以执行本文讨论的反向传播以定位那些反射影像和折射影像的相应点,并且使用该数据修补g缓冲器 418,g缓冲器可以为要渲染的后续帧提供更新的输入。然后,可以将该数据提供给执行光采样的光样本生成组件408、执行光线追踪照明的光线追踪照明组件410以及可以至少部分地基于确定的照明信息(连同诸如颜色、纹理等等之类的其他信息)设置用于该帧的各个像素的像素颜色的一个或更多个着色器412。结果可以由累加模块414或组件进行累加以用于生成希望的尺寸、分辨率或格式的输出帧416。
38.在至少一个实施例中,着色器408可以执行反向投影步骤。一旦完成反向投影传递,并且梯度表面参数已被修补到当前g缓冲器中,那么渲染器就可以执行照明传递。使用来自照明传递的信息以及来自先前帧的照明结果,可以计算梯度,然后对其滤波并且将其用于历史拒绝。这样的方法可以用来为光线追踪的渲染器计算时间去噪器中的当前帧与先前帧之间的鲁棒的时间梯度。这样的基于反向投影的方法还可以解决反射影像和折射影像,并且可以对光栅化g缓冲器起作用。先前的用于反向投影的方法反而省略了任何g缓冲器修补并且依赖于原始的当前g缓冲器样本,这也导致了假阳性梯度。修补表面参数可以在绝大多数情况下消除假阳性,使得去噪图像非常稳定,但仍然快速地对照明变化做出反应。一旦完成反向投影传递,并且已经将梯度表面参数修补到当前g缓冲器中,渲染器可以执行照明传递。使用来自照明传递的信息以及来自先前帧的照明结果,可以计算梯度,然后对其进行滤波并且将其用于历史拒绝。
39.图5a示出了根据至少一个实施例的可以用来生成序列中的图像的示例过程500。在该示例中,例如,生成502用于渲染到g缓冲器中的当前帧的一组运动向量,其中g缓冲器包括用于一个或更多个反射影像和/或折射影像的像素数据。可以使用诸如主表面替换(psr)之类的过程渲染任何反射影像或折射影像。可以使用序列中的先前帧执行504反向投影传递。在至少一个实施例中,可以使用来自当前帧的相邻像素组执行该反向投影。根据反向投影传递,可以在当前帧与先前帧之间定位506一个或更多个匹配表面,例如用于每个像素组的一个或更多个匹配表面。然后,可以使用来自这些匹配表面或者至少这些匹配表面的选择的子集(例如每个像素组一个表面)的信息修补508或者更新先前针对当前帧渲染的g缓冲器。在至少一个实施例中,修补g缓冲器包括将来自先前帧的g缓冲器的匹配表面的一个或更多个参数写入当前帧的g缓冲器的梯度像素中。该一个或更多个参数可以与用来计算表面照明的参数相对应,如可以包括随机生成器种子、法向值、金属度值或者粗糙度值中的至少一个以及其他这样的选项。接着,该经修补的g缓冲器可以用来计算510照明信息。接着,该计算的照明信息可以用来确定512当前帧与先前帧之间的一个或更多个光差异。接着,可以至少部分地基于该一个或更多个光差异渲染514图像。在至少一个实施例中,渲染可以涉及执行当前帧的一个或更多个照明传递,以及基于当前帧的照明传递的输出和计算的与先前帧相对应的照明信息将一个或更多个时间梯度计算为表示该一个或更多个光差异。接着,可以对这些时间梯度进行滤波,且将其用于历史拒绝,例如以便消除用于混合或
者确定当前帧的像素的历史数据。接着,可以输出514该渲染的图像以用于在显示设备上显示或者其他这样的呈现,其可以是视频文件或视频流的一部分。
40.图5b示出了根据至少一个实施例的可以使用多个像素层块执行反向传播的示例过程550。如关于图5a的过程所讨论的,这样的过程可以用来定位一个或更多个匹配表面。如上所述,这样的过程可以使得从在先帧到当前帧的表面的前向投影(如各种常规系统中使用的)能够用从当前帧到在先帧的反向投影来代替。不是首先计算将用于梯度的当前帧中的一些像素子集,而是可以首先完全渲染552用于当前帧的g缓冲器,包括所有反射影像和折射影像。可以将当前帧的像素划分554成相邻像素的层块阵列,例如3x3像素层块的阵列或栅格。可以选择556要分析的当前层块。可以为当前帧中的层块的像素确定558主表面。可以针对那些像素中的每一个执行560反向投影以便尝试562定位在先帧中的一个或更多个匹配表面。可以使用未用于在先帧中的梯度估计的一个或更多个选择标准——例如最明亮像素(或者与最闪亮表面相对应的像素,等等)选择564在先帧中具有识别出的匹配表面的层块中的像素。然后,可以将用于该选择的像素的匹配表面连接到当前帧的层块并且用来相应地修补566g缓冲器。修补g 缓冲器可以包括例如至少基于来自先前帧的可见性缓冲器信息计算在先帧中描绘的第一表面的新位置。可见性缓冲器信息可以包括例如与第一表面相对应的网格信息、三角形信息、重心信息或者一个或更多个更新的顶点缓冲器。可以就是否存在要评估的更多个层块做出568决定。如果是,那么该过程可以通过选择要评估的下一个层块而继续。如果不是,那么可以如本文所讨论的使用570修补的g缓冲器计算照明数据,并且进而可以将该照明数据用来确定572当前帧与在先帧的相应像素之间的光差异(即,计算梯度),且如关于图5a的过程所讨论的渲染最终帧用于输出。
41.如所讨论的,本文给出的各种方法是轻量级的,足以在诸如个人计算机或者游戏控制台之类的客户端设备上实时地执行。这样的处理可以对在该客户端设备上生成或者接收自外部源的内容(例如通过至少一个网络接收的流内容)执行。该源可以是任何适当的源,例如游戏主机、流媒体提供商、第三方内容提供商或者其他客户端设备以及其他这样的选项。在一些情况下,该内容的处理和/或渲染可以由这些其他设备、系统或实体之一执行,然后提供给客户的设备(或者另一个这样的接收者),以供呈现或者另一种这样的用途。
42.在至少一个实施例中,反向投影可以用来训练图像生成网络。这可以包括例如生成式神经网络(例如生成式对抗网络(gan))。在至少一个实施例中,可以使用反向投影对网络进行训练,以便估计帧之间的照明差异。然后,在推理时可以利用当前帧和在先帧的像素数据源将该网络用来渲染图像或视频流的当前帧,以便针对某个场景精确地表示反射影像和折射影像的运动。
43.作为示例,图6示出了可以用于提供、生成或者修改内容的示例网络配置600。在至少一个实施例中,客户端设备602可以使用客户端设备602 上的内容应用程序604的组件和本地存储在该客户端设备上的数据来生成会话的内容。在至少一个实施例中,在内容服务器620(例如,云服务器或边缘服务器)上执行的内容应用程序624(例如,图像生成或编辑应用程序)可以发起与至少客户端设备602相关联的会话,如可以利用会话管理器和存储在用户数据库634中的用户数据,并且可以使内容632由内容管理器626确定。如可能与动画或游戏应用程序有关的场景生成模块628 可以生成或者获得被确定为要提供的内容,其中该内容的至少部分可能需要使用渲染引擎630进行渲染,如果这种类型的内容或平台需要的话,
并且使用适当的传输管理器622传输到客户端设备602,以通过下载、流传输或其他此类传输信道来发送。在至少一个实施例中,该内容632可以包括可以由渲染引擎用于基于确定的场景图或者其他这样的渲染指南渲染场景的素材。在至少一个实施例中,接收该内容的客户端设备602可以将该内容提供给相应的内容应用程序604,所述内容应用程序604还可以或者替代地包括场景生成模块612或者渲染引擎614(如果必要的话),其用于渲染至少一些该内容以便通过客户端设备602呈现,诸如通过显示器606 呈现图像或视频内容,以及通过诸如扬声器或耳机之类的至少一个音频播放设备608呈现诸如声音和音乐之类的音频。在至少一个实施例中,该内容中的至少一些可能已经被存储在客户端设备602上、在客户端设备602 上渲染,或可供客户端设备602访问,使得至少该部分内容不需要通过网络640的传输,诸如在该内容之前可能已下载或本地存储在硬盘驱动器或光盘上的情况下。在至少一个实施例中,可以使用诸如数据流之类的传输机制来将该内容从服务器620或内容数据库634传输到客户端设备602。在至少一个实施例中,该内容的至少一部分可以从诸如第三方内容服务 660之类的另一源获得或者流式传输,其还可包括用于生成或提供内容的内容应用程序662。在至少一个实施例中,可以使用多个计算设备或者诸如可以包括cpu和gpu的组合的一个或更多个计算设备内的多个处理器来执行该功能的部分。
44.在至少一个实施例中,内容应用程序624包括内容管理器626,所述内容管理器626可以在将内容传输到客户端设备602之前确定或者分析该内容。在至少一个实施例中,内容管理器626还可以包括能够生成、修改或增强要提供的内容的其他组件或者与其合作。在至少一个实施例中,这可以包括用于渲染图像或视频内容的渲染引擎。在至少一个实施例中,图像、视频或场景生成组件628可用于生成图像、视频或其他媒体内容。在至少一个实施例中,增强组件630——其还可以包括神经网络——可以对该内容执行一个或更多个增强,如本文所讨论和建议的。在至少一个实施例中,内容管理器626可以使得该内容(经增强或未增强的)被传输到客户端设备602。在至少一个实施例中,客户端设备602上的内容应用程序 604还可以包括诸如渲染引擎、图像或视频生成器612和内容增强模块614 之类的组件,使得该功能中的任何或全部可以附加地或替代地在客户端设备602上执行。在至少一个实施例中,第三方内容服务系统660上的内容应用程序662也可以包括此类功能。在至少一个实施例中,执行至少一些该功能的位置可以是可配置的,或者可以取决于诸如客户端设备602的类型或者具有适当带宽的网络连接的可用性等类似因素。在至少一个实施例中,用于内容生成的系统可以包括在一个或更多个位置的硬件和软件的任何适当组合。在至少一个实施例中,还可以将生成的一个或更多个分辨率的图像或视频内容提供给或使其可用于其他客户端设备650,诸如用于从存储该图像或视频内容的副本的媒体源下载或流式传输。在至少一个实施例中,这可以包括传输多人游戏的游戏内容的图像,其中不同的客户端设备可以以包括一个或更多个超分辨率在内的不同分辨率显示该内容。
45.在该示例中,这些客户端设备可以包括任何适当的计算设备,如可以包括台式计算机、笔记本计算机、机顶盒、流式传输设备、游戏控制台、智能手机、平板计算机、vr耳机、ar护目镜、可穿戴计算机或智能电视。每个客户端设备可以跨至少一个有线或无线网络提交请求,所述网络可以包括因特网、以太网、局域网(lan)或蜂窝网络,以及其他此类选项。在该示例中,这些请求可以提交到与云提供商相关联的地址,所述云提供商可以在云提供商环境下操作或控制一个或更多个电子资源,所述云提供商环境诸如可以包括数据中心或
服务器群。在至少一个实施例中,该请求可以由位于网络边缘并且在与云提供商环境相关联的至少一个安全层之外的至少一个边缘服务器接收或处理。通过这种方式,可以通过使得客户端设备能够与距离更近的服务器交互来减少延迟,同时还可以提高云提供商环境中资源的安全性。
46.在至少一个实施例中,此类系统可以用于执行图形渲染操作。在其他实施例中,此类系统可以用于其他目的,诸如用于提供图像或视频内容以测试或验证自主机器应用,或者用于执行深度学习操作。在至少一个实施例中,此类系统可以使用边缘设备来实现,或者可以结合一个或更多个虚拟机(vm)。在至少一个实施例中,此类系统可以至少部分地在数据中心中或至少部分地使用云计算资源来实现。
47.推理和训练逻辑
48.图7a示出了用于执行与一个或更多个实施例相关联的推理和/或训练操作的推理和/或训练逻辑715。下面结合图7a和/或图7b提供关于推理和/或训练逻辑715的细节。
49.在至少一个实施例中,推理和/或训练逻辑715可以包括但不限于代码和/或数据存储701,用于存储前向和/或输出权重和/或输入/输出数据,和/ 或在一个或更多个实施例的方面中配置被训练为和/或用于推理的神经网络的神经元或层的其他参数。在至少一个实施例中,训练逻辑715可以包括或耦合到用于存储图形代码或其他软件以控制时序和/或顺序的代码和/ 或数据存储701,其中权重和/或其他参数信息被加载以配置逻辑,包括整数和/或浮点单元(统称为算术逻辑单元(alu))。在至少一个实施例中,代码(诸如图代码)基于该代码所对应的神经网络的架构将权重或其他参数信息加载到处理器alu中。在至少一个实施例中,代码和/或数据存储 701存储在使用一个或更多个实施例的方面训练和/或推理期间的输入/输出数据和/或权重参数的前向传播期间结合一个或更多个实施例训练或使用的神经网络的每个层的权重参数和/或输入/输出数据。在至少一个实施例中,代码和/或数据存储701的任何部分都可以包括在其他片上或片外数据存储内,包括处理器的l1、l2或l3高速缓存或系统存储器。
50.在至少一个实施例中,代码和/或数据存储701的任何部分可以在一个或更多个处理器或其他硬件逻辑设备或电路的内部或外部。在至少一个实施例中,代码和/或数据存储701可以是高速缓存存储器、动态随机可访问存储器(“dram”)、静态随机可访问存储器(“sram”)、非易失性存储器(例如闪存)或其他存储。在至少一个实施例中,对代码和/或数据存储701是在处理器的内部还是外部的选择,例如,或者由dram、 sram、闪存或某种其他存储类型组成,可以取决于片上或片外的可用存储空间,正在执行训练和/或推理功能的延迟要求,在神经网络的推理和/ 或训练中使用的数据的批大小或这些因素的某种组合。
51.在至少一个实施例中,推理和/或训练逻辑715可以包括但不限于代码和/或数据存储705,用于存储与在一个或更多个实施例的方面中被训练为和/或用于推理的神经网络的神经元或层相对应的反向和/或输出权重和/或输入/输出数据。在至少一个实施例中,在使用一个或更多个实施例的方面训练和/或推理期间,代码和/或数据存储705存储在输入/输出数据和/或权重参数的反向传播期间结合一个或更多个实施例训练或使用的神经网络的每个层的权重参数和/或输入/输出数据。在至少一个实施例中,训练逻辑 715可以包括或耦合到用于存储图代码或其他软件以控制时序和/或顺序的代码和/或数据存储705,其中权重和/或其他参数信息被加载以配置逻辑,该逻辑包括整数和/或浮点单元(统称为算
术逻辑单元(alu))。在至少一个实施例中,代码(诸如图代码)基于该代码所对应的神经网络的架构将权重或其他参数信息加载到处理器alu中。在至少一个实施例中,代码和/或数据存储705的任何部分可以与其他片上或片外数据存储一起包括,包括处理器的l1、l2或l3高速缓存或系统存储器。在至少一个实施例中,代码和/或数据存储705的任何部分可以在一个或更多个处理器或其他硬件逻辑设备或电路上的内部或外部。在至少一个实施例中,代码和/或数据存储705可以是高速缓存存储器、dram、sram、非易失性存储器(例如闪存)或其他存储。在至少一个实施例中,代码和/或数据存储705是在处理器的内部还是外部的选择,例如,是由dram、sram、闪存还是其他某种存储类型组成,取决于可用存储是片上还是片外,正在执行的训练和/ 或推理功能的延迟要求,在神经网络的推理和/或训练中使用的数据批量大小或这些因素的某种组合。
52.在至少一个实施例中,代码和/或数据存储701以及代码和/或数据存储705可以是分开的存储结构。在至少一个实施例中,代码和/或数据存储 701以及代码和/或数据存储705可以是相同的存储结构。在至少一个实施例中,代码和/或数据存储701以及代码和/或数据存储705可以是部分相同的存储结构和部分分离的存储结构。在至少一个实施例中,代码和/或数据存储701以及代码和/或数据存储705的任何部分可以与其他片上或片外数据存储包括在一起,包括处理器的l1、l2或l3高速缓存或系统存储器。
53.在至少一个实施例中,推理和/或训练逻辑715可以包括但不限于一个或更多个算术逻辑单元(“alu”)710(包括整数和/或浮点单元),用于至少部分地基于训练和/或推理代码(例如,图代码)或由其指示来执行逻辑和/或数学运算,其结果可能会产生存储在激活存储720中的激活(例如,来自神经网络内部的层或神经元的输出值),其是存储在代码和/或数据存储701和/或代码和/或数据存储705中的输入/输出和/或权重参数数据的函数。在至少一个实施例中,激活响应于执行指令或其他代码,由 alu710执行的线性代数和/或基于矩阵的数学生成在激活存储720中存储的激活,其中存储在代码和/或数据存储705中和/或代码和/或数据存储701 中的权重值用作具有其他值的操作数,例如偏置值、梯度信息、动量值或其他参数或超参数,可以将任何或所有这些存储在代码和/或数据存储705 或代码和/或数据存储701或其他片上或片外存储中。
54.在至少一个实施例中,一个或更多个处理器或其他硬件逻辑设备或电路中包括一个或更多个alu 710,而在另一实施例中,一个或更多个alu 710可以在处理器或其他硬件逻辑设备或使用它们(例如协处理器)的电路外。在至少一个实施例中,可以将一个或更多个alu 710包括在处理器的执行单元之内,或者以其他方式包括在由处理器的执行单元可访问的 alu组中,该处理器的执行单元可以在同一处理器内或者分布在不同类型的不同处理器之间(例如,中央处理单元、图形处理单元、固定功能单元等)。在至少一个实施例中,代码和/或数据存储701、代码和/或数据存储 705以及激活存储720可以在同一处理器或其他硬件逻辑设备或电路上,而在另一实施例中,它们可以在不同的处理器或其他硬件逻辑设备或电路或相同和不同处理器或其他硬件逻辑设备或电路的某种组合中。在至少一个实施例中,激活存储720的任何部分可以与其他片上或片外数据存储包括在一起,包括处理器的l1、l2或l3高速缓存或系统存储器。此外,推理和/或训练代码可以与处理器或其他硬件逻辑或电路可访问的其他代码一起存储,并可以使用处理器的提取、解码、调度、执行、退出和/或其他逻辑电路来提取和/或处理。
55.在至少一个实施例中,激活存储720可以是高速缓存存储器、dram、 sram、非易失性存储器(例如,闪存)或其他存储。在至少一个实施例中,激活存储720可以完全地或部分地在一个或更多个处理器或其他逻辑电路内部或外部。在至少一个实施例中,可以取决于片上或片外可用的存储,进行训练和/或推理功能的延迟要求,在推理和/或训练神经网络中使用的数据的批量大小或这些因素的某种组合,选择激活存储720是处理器的内部还是外部,例如,或者包含dram、sram、闪存或其他存储类型。在至少一个实施例中,图7a中所示的推理和/或训练逻辑715可以与专用集成电路(“asic”)结合使用,例如来自google的处理单元、来自graphcore
tm
的推理处理单元(ipu)或来自intelcorp的 (例如“lakecrest”)处理器。在至少一个实施例中,图7a所示的推理和/或训练逻辑715可与中央处理单元(“cpu”)硬件,图形处理单元(“gpu”) 硬件或其他硬件(例如现场可编程门阵列(“fpga”))结合使用。
56.图7b示出了根据至少一个或更多个实施例的推理和/或训练逻辑715。在至少一个实施例中,推理和/或训练逻辑715可以包括但不限于硬件逻辑,其中计算资源被专用或以其他方式唯一地连同对应于神经网络内的一层或更多层神经元的权重值或其他信息一起使用。在至少一个实施例中,图7b 中所示的推理和/或训练逻辑715可以与专用集成电路(asic)结合使用,例如来自google的处理单元,来自graphcore
tm
的推理处理单元(ipu)或来自intelcorp的(例如“lakecrest”)处理器。在至少一个实施例中,图7b中所示的推理和/或训练逻辑715可以与中央处理单元(cpu)硬件、图形处理单元(gpu)硬件或其他硬件(例如现场可编程门阵列(fpga))结合使用。在至少一个实施例中,推理和/或训练逻辑715包括但不限于代码和/或数据存储701以及代码和/或数据存储 705,其可以用于存储代码(例如,图代码)、权重值和/或其他信息,包括偏置值、梯度信息、动量值和/或其他参数或超参数信息。在图7b中所示的至少一个实施例中,代码和/或数据存储701以及代码和/或数据存储 705中的每一个都分别与专用计算资源(例如计算硬件702和计算硬件706) 相关联。在至少一个实施例中,计算硬件702和计算硬件706中的每一个包括一个或更多个alu,这些alu仅分别对存储在代码和/或数据存储701 和代码和/或数据存储705中的信息执行数学函数(例如线性代数函数),执行函数的结果被存储在激活存储720中。
57.在至少一个实施例中,代码和/或数据存储701和705以及相应的计算硬件702和706中的每一个分别对应于神经网络的不同层,使得从代码和/ 或数据存储701和计算硬件702的一个“存储/计算对701/702”得到的激活提供作为代码和/或数据存储705和计算硬件706的下一个“存储/计算对 705/706”的输入,以便反映神经网络的概念组织。在至少一个实施例中,每个存储/计算对701/702和705/706可以对应于一个以上的神经网络层。在至少一个实施例中,在推理和/或训练逻辑715中可以包括在存储计算对 701/702和705/706之后或与之并行的附加存储/计算对(未示出)。
58.数据中心
59.图8示出了可以使用至少一个实施例的示例数据中心800。在至少一个实施例中,数据中心800包括数据中心基础设施层810、框架层820、软件层830和应用层840。
60.在至少一个实施例中,如图8所示,数据中心基础设施层810可以包括资源协调器
812、分组的计算资源814和节点计算资源(“节点c.r.”) 816(1)-816(n),其中“n”代表任何正整数。在至少一个实施例中,节点c.r.816(1)-816(n)可以包括但不限于任何数量的中央处理单元 (“cpu”)或其他处理器(包括加速器、现场可编程门阵列(fpga)、图形处理器等),存储器设备(例如动态只读存储器)、存储设备(例如固态硬盘或磁盘驱动器),网络输入/输出(“nwi/o”)设备,网络交换机,虚拟机(“vm”),电源模块和冷却模块等。在至少一个实施例中,节点c.r.816(1)-816(n)中的一个或更多个节点c.r.可以是具有一个或更多个上述计算资源的服务器。
61.在至少一个实施例中,分组的计算资源814可以包括容纳在一个或更多个机架内的节点c.r.的单独分组(未示出),或者容纳在各个地理位置的数据中心内的许多机架(也未示出)。分组的计算资源814内的节点c.r. 的单独分组可以包括可以被配置或分配为支持一个或更多个工作负载的分组的计算、网络、存储器或存储资源。在至少一个实施例中,可以将包括 cpu或处理器的几个节点c.r.分组在一个或更多个机架内,以提供计算资源来支持一个或更多个工作负载。在至少一个实施例中,一个或更多个机架还可以包括任何数量的电源模块、冷却模块和网络交换机,以任意组合。
62.在至少一个实施例中,资源协调器812可以配置或以其他方式控制一个或更多个节点c.r.816(1)-816(n)和/或分组的计算资源814。在至少一个实施例中,资源协调器812可以包括用于数据中心800的软件设计基础结构(“sdi”)管理实体。在至少一个实施例中,资源协调器108 可以包括硬件、软件或其某种组合。
63.在至少一个实施例中,如图8所示,框架层820包括作业调度器822、配置管理器824、资源管理器826和分布式文件系统828。在至少一个实施例中,框架层820可以包括支持软件层830的软件832和/或应用程序层840 的一个或更多个应用程序842的框架。在至少一个实施例中,软件832或应用程序842可以分别包括基于web的服务软件或应用程序,例如由amazonwebservices,googlecloud和microsoftazure提供的服务或应用程序。在至少一个实施例中,框架层820可以是但不限于一种免费和开放源软件网络应用程序框架,例如可以利用分布式文件系统828来进行大范围数据处理(例如“大数据”)的apachesparktm(以下称为“spark”)。在至少一个实施例中,作业调度器832可以包括spark驱动器,以促进对数据中心800的各个层所支持的工作负载进行调度。在至少一个实施例中,配置管理器824可以能够配置不同的层,例如软件层830和包括spark和用于支持大规模数据处理的分布式文件系统828的框架层820。在至少一个实施例中,资源管理器826能够管理映射到或分配用于支持分布式文件系统828和作业调度器822的集群或分组计算资源。在至少一个实施例中,集群或分组计算资源可以包括数据中心基础设施层810上的分组计算资源 814。在至少一个实施例中,资源管理器826可以与资源协调器812协调以管理这些映射的或分配的计算资源。
64.在至少一个实施例中,包括在软件层830中的软件832可以包括由节点c.r.816(1)-816(n)的至少一部分,分组的计算资源814和/或框架层820的分布式文件系统828使用的软件。一种或更多种类型的软件可以包括但不限于internet网页搜索软件、电子邮件病毒扫描软件、数据库软件和流视频内容软件。
65.在至少一个实施例中,应用层840中包括的一个或更多个应用程序842 可以包括由节点c.r.816(1)-816(n)的至少一部分、分组计算资源814 和/或框架层820的分布式文件系统828使用的一种或更多种类型的应用程序。一种或更多种类型的应用程序可以包括
但不限于任何数量的基因组学应用程序、认知计算和机器学习应用程序,包括训练或推理软件,机器学习框架软件(例如pytorch、tensorflow、caffe等)或其他与一个或更多个实施例结合使用的机器学习应用程序。
66.在至少一个实施例中,配置管理器824、资源管理器826和资源协调器812中的任何一个可以基于以任何技术上可行的方式获取的任何数量和类型的数据来实现任何数量和类型的自我修改动作。在至少一个实施例中,自我修改动作可以减轻数据中心800的数据中心操作员做出可能不好的配置决定并且可以避免数据中心的未充分利用和/或执行差的部分。
67.在至少一个实施例中,数据中心800可以包括工具、服务、软件或其他资源,以根据本文所述的一个或更多个实施例来训练一个或更多个机器学习模型或者使用一个或更多个机器学习模型来预测或推理信息。例如,在至少一个实施例中,可以通过使用上文关于数据中心800描述的软件和计算资源,根据神经网络架构通过计算权重参数来训练机器学习模型。在至少一个实施例中,通过使用通过本文所述的一种或更多种训练技术计算出的权重参数,可以使用上面与关于数据中心800所描述的资源,使用对应于一个或更多个神经网络的经训练的机器学习模型来推理或预测信息。
68.在至少一个实施例中,数据中心可以使用cpu、专用集成电路(asic)、 gpu、fpga或其他硬件来使用上述资源来执行训练和/或推理。此外,上述的一个或更多个软件和/或硬件资源可以配置成一种服务,以允许用户训练或执行信息推理,例如图像识别、语音识别或其他人工智能服务。
69.推理和/或训练逻辑715用于执行与一个或更多个实施例相关联的推理和/或训练操作。本文结合图7a和/或图7b提供关于推理和/或训练逻辑 715的细节。在至少一个实施例中,推理和/或训练逻辑715可以在系统图 8的系统中使用,用于至少部分地基于使用神经网络训练操作、神经网络函数和/或架构或本文所述的神经网络用例计算的权重参数来推理或预测操作。
70.此类组件可以用于生成增强的内容,诸如具有升级的分辨率、减少的伪影存在以及视觉质量增强的图像或视频内容。
71.计算机系统
72.图9是示出根据至少一个实施例示例性计算机系统的框图,该示例性计算机系统可以是具有互连的设备和组件的系统,片上系统(soc)或它们的某种形成有处理器的组合,该处理器可以包括执行单元以执行指令。在至少一个实施例中,根据本公开,例如本文所述的实施例,计算机系统 900可以包括但不限于组件,例如处理器902,其执行单元包括逻辑以执行用于过程数据的算法。在至少一个实施例中,计算机系统900可以包括处理器,例如可从加利福尼亚圣塔克拉拉的英特尔公司 (intelcorporationofsantaclara,california)获得的处理器家族、 xeontm、xscaletm和/或strongarmtm,core
tm
或nervana
tm
微处理器,尽管也可以使用其他系统(包括具有其他微处理器的pc、工程工作站、机顶盒等)。在至少一个实施例中,计算机系统 900可以执行可从华盛顿州雷蒙德市的微软公司(microsoftcorporationofredmond,wash.)获得的windows操作系统版本,尽管其他操作系统(例如unix和linux)、嵌入式软件和/或图形用户界面也可以使用。
73.实施例可以用在其他设备中,例如手持设备和嵌入式应用程序。手持设备的一些示例包括蜂窝电话、互联网协议(internetprotocol)设备、数码相机、个人数字助理(“pda”)和手持pc。在至少一个实施例中,嵌入式应用程序可以包括微控制器、数字信号处理器(“dsp”)、片上系统、网络计算机(“netpc”)、机顶盒、网络集线器、广域网(“wan”) 交换机,或根据至少一个实施例可以执行一个或更多个指令的任何其他系统。
74.在至少一个实施例中,计算机系统900可包括但不限于处理器902,该处理器902可包括但不限于一个或更多个执行单元908,以根据本文描述的技术执行机器学习模型训练和/或推理。在至少一个实施例中,计算机系统900是单处理器台式机或服务器系统,但是在另一实施例中,计算机系统900可以是多处理器系统。在至少一个实施例中,处理器902可以包括但不限于复杂指令集计算机(“cisc”)微处理器、精简指令集计算 (“risc”)微处理器、超长指令字(“vliw”)微处理器、实现指令集组合的处理器,或任何其他处理器设备,例如数字信号处理器。在至少一个实施例中,处理器902可以耦合到处理器总线910,该处理器总线910 可以在处理器902与计算机系统900中的其他组件之间传输数据信号。
75.在至少一个实施例中,处理器902可以包括但不限于1级(“l1”) 内部高速缓存存储器(“cache”)904。在至少一个实施例中,处理器902 可以具有单个内部高速缓存或多级内部缓存。在至少一个实施例中,高速缓存存储器可以驻留在处理器902的外部。根据特定的实现和需求,其他实施例也可以包括内部和外部高速缓存的组合。在至少一个实施例中,寄存器文件906可以在各种寄存器中存储不同类型的数据,包括但不限于整数寄存器、浮点寄存器、状态寄存器和指令指针寄存器。
76.在至少一个实施例中,包括但不限于执行整数和浮点运算的逻辑执行单元908,其也位于处理器902中。在至少一个实施例中,处理器902还可以包括微码(“ucode”)只读存储器(“rom”),用于存储某些宏指令的微代码。在至少一个实施例中,执行单元908可以包括用于处理封装指令集909的逻辑。在至少一个实施例中,通过将封装指令集909包括在通用处理器的指令集中,以及要执行指令的相关电路,可以使用处理器 902中的封装数据来执行许多多媒体应用程序使用的操作。在一个或更多个实施例中,可以通过使用处理器的数据总线的全宽度来在封装的数据上执行操作来加速和更有效地执行许多多媒体应用程序,这可能不需要在处理器的数据总线上传输较小的数据单元来一次执行一个数据元素的一个或更多个操作。
77.在至少一个实施例中,执行单元908也可以用在微控制器、嵌入式处理器、图形设备、dsp和其他类型的逻辑电路中。在至少一个实施例中,计算机系统900可以包括但不限于存储器920。在至少一个实施例中,存储器920可以实现为动态随机存取存储器(“dram”)设备、静态随机存取存储器(“sram”)设备、闪存设备或其他存储设备。在至少一个实施例中,存储器920可以存储由处理器902可以执行的由数据信号表示的指令919和/或数据921。
78.在至少一个实施例中,系统逻辑芯片可以耦合到处理器总线910和存储器920。在至少一个实施例中,系统逻辑芯片可以包括但不限于存储器控制器集线器(“mch”)916,并且处理器902可以经由处理器总线910 与mch 916通信。在至少一个实施例中,mch 916可以提供到存储器920 的高带宽存储器路径918以用于指令和数据存储以及用于图形命令、数据和纹理的存储。在至少一个实施例中,mch 916可以在处理器902、存储器920和计算机系统900中的其他组件之间启动数据信号,并且在处理器总线910、存储器920和系统i/o 922
之间桥接数据信号。在至少一个实施例中,系统逻辑芯片可以提供用于耦合到图形控制器的图形端口。在至少一个实施例中,mch 916可以通过高带宽存储器路径918耦合到存储器920,并且图形/视频卡912可以通过加速图形端口(accelerated graphics port) (“agp”)互连914耦合到mch 916。
79.在至少一个实施例中,计算机系统900可以使用系统i/o 922,所述系统i/o 922是专有集线器接口总线来将mch 916耦合到i/o控制器集线器 (“ich”)930。在至少一个实施例中,ich 930可以通过本地i/o总线提供与某些i/o设备的直接连接。在至少一个实施例中,本地i/o总线可以包括但不限于用于将外围设备连接到存储器920、芯片组和处理器902 的高速i/o总线。示例可以包括但不限于音频控制器929、固件集线器 (“flashbios”)928、无线收发器926、数据存储924、包含用户输入和键盘接口的传统i/o控制器923、串行扩展端口927(例如通用串行总线 (usb)端口)和网络控制器934。数据存储924可以包括硬盘驱动器、软盘驱动器、cd-rom设备、闪存设备或其他大容量存储设备。
80.在至少一个实施例中,图9示出了包括互连的硬件设备或“芯片”的系统,而在其他实施例中,图9可以示出示例性片上系统(soc)。在至少一个实施例中,设备可以与专有互连、标准化互连(例如,pcie)或其某种组合互连。在至少一个实施例中,计算机系统900的一个或更多个组件使用计算快速链路(cxl)互连来互连。
81.推理和/或训练逻辑715用于执行与一个或更多个实施例相关的推理和/或训练操作。下文结合图7a和/或图7b提供关于推理和/或训练逻辑715 的细节。在至少一个实施例中,推理和/或训练逻辑715可以在图9的系统中使用,用于至少部分地基于使用神经网络训练操作、神经网络函数和/ 或架构或本文所述的神经网络用例计算的权重参数来推理或预测操作。
82.此类组件可以用于生成增强的内容,诸如具有升级的分辨率、减少的伪影存在以及视觉质量增强的图像或视频内容。
83.图10是示出根据至少一个实施例的用于利用处理器1010的电子设备 1000的框图。在至少一个实施例中,电子设备1000可以是,例如但不限于,笔记本电脑、塔式服务器、机架服务器、刀片服务器、膝上型计算机、台式机、平板电脑、移动设备、电话、嵌入式计算机或任何其他合适的电子设备。
84.在至少一个实施例中,系统1000可以包括但不限于通信地耦合到任何合适数量或种类的组件、外围设备、模块或设备的处理器1010。在至少一个实施例中,处理器1010使用总线或接口耦合,诸如1℃总线、系统管理总线(“smbus”)、低引脚数(lpc)总线、串行外围接口(“spi”)、高清音频(“hda”)总线、串行高级技术附件(“sata”)总线、通用串行总线(“usb”)(1、2、3版)或通用异步接收器/发送器(“uart”) 总线。在至少一个实施例中,图10示出了系统,该系统包括互连的硬件设备或“芯片”,而在其他实施例中,图10可以示出示例性片上系统(soc)。在至少一个实施例中,图10中所示的设备可以与专有互连线、标准化互连 (例如,pcie)或其某种组合互连。在至少一个实施例中,图10的一个或更多个组件使用计算快速链路(cxl)互连线来互连。
85.在至少一个实施例中,图10可以包括显示器1024、触摸屏1025、触摸板1030、近场通信单元(“nfc”)1045、传感器集线器1040、热传感器1046、快速芯片组(“ec”)1035、可信平台模块(“tpm”)1038、 bios/固件/闪存(“bios,fwflash”)1022、dsp 1060、驱动器1020(例
如固态磁盘(“ssd”)或硬盘驱动器(“hdd”))、无线局域网单元(“wlan”)1050、蓝牙单元1052、无线广域网单元(“wwan”) 1056、全球定位系统(gps)1055、相机(“usb3.0相机”)1054(例如 usb3.0相机)和/或以例如lpddr3标准实现的低功耗双倍数据速率 (“lpddr”)存储器单元(“lpddr3”)1015。这些组件可以各自以任何合适的方式实现。
86.在至少一个实施例中,其他组件可以通过上文所述的组件通信地耦合到处理器1010。在至少一个实施例中,加速度计1041、环境光传感器 (“als”)1042、罗盘1043和陀螺仪1044可以可通信地耦合到传感器集线器1040。在至少一个实施例中,热传感器1039、风扇1037、键盘1036 和触摸板1030可以通信地耦合到ec 1035。在至少一个实施例中,扬声器 1063、耳机1064和麦克风(“mic”)1065可以通信地耦合到音频单元(“音频编解码器和d类放大器”)1062,其又可以通信地耦合到dsp 1060。在至少一个实施例中,音频单元1062可以包括例如但不限于音频编码器/解码器(“编解码器”)和d类放大器。在至少一个实施例中,sim卡(“sim”) 1057可以通信地耦合到wwan单元1056。在至少一个实施例中,组件(诸如wlan单元1050和蓝牙单元1052以及wwan单元1056)可以被实现为下一代形式因素(ngff)。
87.推理和/或训练逻辑715用于执行与一个或更多个实施例相关联的推理和/或训练操作。下文结合图7a和/或图7b提供关于推理和/或训练逻辑 715的细节。在至少一个实施例中,推理和/或训练逻辑715可以在图10 系统中用于至少部分地基于使用神经网络训练操作、神经网络功能和/或架构或本文描述的神经网络用例计算的权重参数来推理或预测操作。
88.此类组件可以用于生成增强的内容,诸如具有升级的分辨率、减少的伪影存在以及视觉质量增强的图像或视频内容。
89.图11是根据至少一个实施例的处理系统的框图。在至少一个实施例中,系统1100包括一个或更多个处理器1102和一个或更多个图形处理器 1108,并且可以是单处理器台式机系统、多处理器工作站系统或具有大量处理器1102或处理器核心1107的服务器系统。在至少一个实施例中,系统1100是结合在片上系统(soc)集成电路内的处理平台,以在移动、手持或嵌入式设备使用。
90.在至少一个实施例中,系统1100可以包括或结合在基于服务器的游戏平台中,包括游戏和媒体控制台的游戏控制台、移动游戏控制台、手持游戏控制台或在线游戏控制台。在至少一个实施例中,系统1100是移动电话、智能电话、平板计算设备或移动互联网设备。在至少一个实施例中,处理系统1100还可包括与可穿戴设备耦合或集成在可穿戴设备中,例如智能手表可穿戴设备、智能眼镜设备、增强现实设备或虚拟现实设备。在至少一个实施例中,处理系统1100是电视或机顶盒设备,其具有一个或更多个处理器1102以及由一个或更多个图形处理器1108生成的图形界面。
91.在至少一个实施例中,一个或更多个处理器1102每个包括一个或更多个处理器核心1107,以处理指令,该指令在被执行时执行针对系统和用户软件的操作。在至少一个实施例中,一个或更多个处理器核心1107中的每一个被配置为处理特定指令组1109。在至少一个实施例中,指令组1109 可以促进复杂指令集计算(cisc)、精简指令集计算(risc),或通过超长指令字(vliw)进行计算。在至少一个实施例中,处理器核心1107可以各自处理不同的指令组1109,该指令组可以包括有助于仿真其他指令组的指令。在至少一个实施例中,处理器核心1107还可以包括其他处理设备,例如数字信号处理器(dsp)。
1140,用于将传统(例如,个人系统2(ps/2))设备耦合到系统1100。在至少一个实施例中,平台控制器集线器1130还可以连接到一个或更多个通用串行总线(usb)控制器1142,该控制器连接输入设备,诸如键盘和鼠标1143组合、相机1144或其他usb输入设备。
96.在至少一个实施例中,存储器控制器1116和平台控制器集线器1130 的实例可以集成到离散的外部图形处理器中,例如外部图形处理器1112。在至少一个实施例中,平台控制器集线器1130和/或存储器控制器1116可以在一个或更多个处理器1102的外部。例如,在至少一个实施例中,系统 1100可以包括外部存储器控制器1116和平台控制器集线器1130,其可以配置成在与处理器1102通信的系统芯片组中的存储器控制器集线器和外围控制器集线器。
97.推理和/或训练逻辑715用于执行与一个或更多个实施例相关联的推理和/或训练操作。下文结合图7a和/或图7b提供关于推理和/或训练逻辑 715的细节。在至少一个实施例中,部分或全部推理和/或训练逻辑715可以结合到图形处理器1100中。例如,在至少一个实施例中,本文描述的训练和/或推理技术可以使用一个或更多个alu,所述alu体现在图形处理器中。此外,在至少一个实施例中,本文描述的推理和/或训练操作可以使用除图7a或图7b所示的逻辑之外的逻辑来完成。在至少一个实施例中,权重参数可以存储在片上或片外存储器和/或寄存器(示出或未示出)中,其配置图形处理器的alu,以执行一种或更多种本文所述的机器学习算法、神经网络架构、用例或训练技术。
98.此类组件可以用于生成增强的内容,诸如具有升级的分辨率、减少的伪影存在以及视觉质量增强的图像或视频内容。
99.图12是根据至少一个实施例的具有一个或更多个处理器核心 1202a-1202n、集成存储器控制器1214和集成图形处理器1208的处理器 1200的框图。在至少一个实施例中,处理器1200可以包含附加核心,多达并包括以虚线框表示的附加核心1202n。在至少一个实施例中,每个处理器核心1202a-1202n包括一个或更多个内部高速缓存单元1204a-1204n。在至少一个实施例中,每个处理器核心还可以访问一个或更多个共享高速缓存单元1206。
100.在至少一个实施例中,内部高速缓存单元1204a-1204n和共享高速缓存单元1206表示处理器1200内的高速缓存存储器层次结构。在至少一个实施例中,高速缓存存储器单元1204a-1204n可以包括每个处理器核心内的至少一级指令和数据高速缓存以及共享中级高速缓存中的一级或更多级缓存,例如2级(l2)、3级(l3)、4级(l4)或其他级别的高速缓存,其中将外部存储器之前的最高级别的高速缓存归类为llc。在至少一个实施例中,高速缓存一致性逻辑维持各种高速缓存单元1206和1204a-1204n 之间的一致性。
101.在至少一个实施例中,处理器1200还可包括一组一个或更多个总线控制器单元1216和系统代理核心1210。在至少一个实施例中,一个或更多个总线控制器单元1216管理一组外围总线,例如一个或更多个pci或 pcie总线。在至少一个实施例中,系统代理核心1210为各种处理器组件提供管理功能。在至少一个实施例中,系统代理核心1210包括一个或更多个集成存储器控制器1214,以管理对各种外部存储器设备(未示出)的访问。
102.在至少一个实施例中,一个或更多个处理器核心1202a-1202n包括对多线程同时进行的支持。在至少一个实施例中,系统代理核心1210包括用于在多线程处理期间协调和操作核心1202a-1202n的组件。在至少一个实施例中,系统代理核心1210可以另外包括电源控制单元(pcu),该电源控制单元包括用于调节处理器核心1202a-1202n和图形处理器1208
的一个或更多个电源状态的逻辑和组件。
103.在至少一个实施例中,处理器1200还包括用于执行图处理操作的图形处理器1208。在至少一个实施例中,图形处理器1208与共享高速缓存单元1206和包括一个或更多个集成存储器控制器1214的系统代理核心 1210耦合。在至少一个实施例中,系统代理核心1210还包括用于驱动图形处理器输出到一个或更多个耦合的显示器的显示器控制器1211。在至少一个实施例中,显示器控制器1211也可以是经由至少一个互连与图形处理器1208耦合的独立模块,或者可以集成在图形处理器1208内。
104.在至少一个实施例中,基于环的互连单元1212用于耦合处理器1200 的内部组件。在至少一个实施例中,可以使用替代性互连单元,例如点对点互连、交换互连或其他技术。在至少一个实施例中,图形处理器1208 经由i/o链路1213与环形互连1212耦合。
105.在至少一个实施例中,i/o链路1213代表多种i/o互连中的至少一种,包括促进各种处理器组件与高性能嵌入式存储器模块1218(例如edram 模块)之间的通信的封装i/o互连。在至少一个实施例中,处理器核心 1202a-1202n和图形处理器1208中的每一个使用嵌入式存储器模块1218 作为共享的最后一级高速缓存。
106.在至少一个实施例中,处理器核心1202a-1202n是执行公共指令集架构的同质核心。在至少一个实施例中,处理器核心1202a-1202n在指令集架构(isa)方面是异构的,其中一个或更多个处理器核心1202a-1202n 执行公共指令集,而一个或更多个其他处理器核心1202a-1202n执行公共指令集的子集或不同指令集。在至少一个实施例中,就微架构而言,处理器核心1202a-1202n是异构的,其中具有相对较高功耗的一个或更多个核心与具有较低功耗的一个或更多个功率核心耦合。在至少一个实施例中,处理器1200可以在一个或更多个芯片上实现或被实现为soc集成电路。
107.推理和/或训练逻辑715用于执行与一个或更多个实施例相关联的推理和/或训练操作。下文结合图7a和/或图7b提供关于推理和/或训练逻辑 715的细节。在至少一个实施例中,部分或全部推理和/或训练逻辑715可以结合到处理器1200中。例如,在至少一个实施例中,本文描述的训练和 /或推理技术可以使用一个或更多个alu,所述alu体现在图12中的图形处理器1512、图形核心1202a-1202n或其他组件中。此外,在至少一个实施例中,本文描述的推理和/或训练操作可以使用除图7a或图7b所示的逻辑之外的逻辑来完成。在至少一个实施例中,权重参数可以存储在片上或片外存储器和/或寄存器(示出或未示出)中,其配置图形处理器1200 的alu以执行一种或更多种本文所述的机器学习算法、神经网络架构、用例或训练技术。
108.此类组件可以用于生成增强的内容,诸如具有升级的分辨率、减少的伪影存在以及视觉质量增强的图像或视频内容。
109.虚拟化计算平台
110.图13是根据至少一个实施例的生成和部署图像处理和推理管线的过程1300的示例数据流程图。在至少一个实施例中,过程1300可以被部署用于在一个或更多个设施1302处与成像设备、处理设备和/或其他设备类型一起使用。过程1300可以在训练系统1304和/或部署系统1306内执行。在至少一个实施例中,训练系统1304可以用于执行机器学习模型(例如,神经网络、对象检测算法、计算机视觉算法等)的训练、部署和实现,以用于部署系统1306。在至少一个实施例中,部署系统1306可以被配置为在分布式计算环境中卸载处理和
计算资源,以减少设施1302的基础设施需求。在至少一个实施例中,管线中的一个或更多个应用程序在应用程序执行期间,可以使用或调用部署系统1306的服务(例如,推理、可视化、计算、ai等)。
111.在至少一个实施例中,在高级处理和推理管线中使用的一些应用程序可以使用机器学习模型或其他ai来执行一个或更多个处理步骤。在至少一个实施例中,可以使用在设施1302处生成(并存储在设施1302处的一个或更多个图片存档和通信系统(pacs)服务器上)的数据1308(例如成像数据)在设施1302处训练机器学习模型,可以使用于自另一个或更多个设施的成像或测序数据1308来训练机器学习模型,或其组合。在至少一个实施例中,训练系统1304可以用于提供应用程序、服务和/或其他资源,以生成用于部署系统1306的工作的、可部署的机器学习模型。
112.在至少一个实施例中,模型注册表1324可以由对象存储支持,该对象存储可以支持版本控制和对象元数据。在至少一个实施例中,可以从云平台内通过例如云存储(例如,图14的云1426)兼容的应用程序编程接口(api)来访问对象存储。在至少一个实施例中,模型注册表1324内的机器学习模型可以由与api交互的系统的开发者或合作伙伴上传、列出、修改或删除。在至少一个实施例中,api可以提供对方法的访问,所述方法允许具有适当凭证的用户将模型与应用程序相关联,使得模型可以作为应用程序的容器化实例化的执行的一部分来执行。
113.在至少一个实施例中,训练管线1404(图14)可以包括以下情形:其中设施1302正在训练他们自己的机器学习模型,或者具有需要优化或更新的现有机器学习模型。在至少一个实施例中,可以接收由成像设备、测序设备和/或其他类型设备生成的成像数据1308。在至少一个实施例中,一旦接收到成像数据1308,ai辅助注释1310就可以用于帮助生成与成像数据1308相对应的注释,以用作机器学习模型的地面实况数据。在至少一个实施例中,ai辅助注释1310可以包括一个或更多个机器学习模型(例如,卷积神经网络(cnn)),可以对该机器学习模型进行训练,以生成对应于某些类型的成像数据1308(例如,来自某些设备)的注释。在至少一个实施例中,然后ai辅助注释1310可以被直接使用,或者可以使用注释工具进行调整或微调,以生成地面实况数据。在至少一个实施例中,ai辅助注释1310、标记的临床数据1312或其组合可以用作训练机器学习模型的地面实况数据。在至少一个实施例中,经训练的机器学习模型可以被称为输出模型1316,并且可以由部署系统1306使用,如本文所述。
114.在至少一个实施例中,训练管线1404(图14)可以包括以下情形:其中设施1302需要机器学习模型,以用于执行用于部署系统1306中的一个或更多个应用程序的一个或更多个处理任务,但是设施1302当前可能没有这种机器学习模型(或者可能没有为此目的而优化的、高效的或有效的模型)。在至少一个实施例中,可以从模型注册表1324中选择现有的机器学习模型。在至少一个实施例中,模型注册表1324可以包括机器学习模型,其被训练为对成像数据执行各种不同的推理任务。在至少一个实施例中,可以在来自不同的设施(例如,位于远处的设施)而不是设施1302的成像数据上训练模型注册表1324中的机器学习模型。在至少一个实施例中,机器学习模型可能已经在来自一个位置、两个位置或任意数量的位置的成像数据上进行训练。在至少一个实施例中,当在来自特定位置的成像数据上进行训练时,可以在该位置处进行训练,或者至少以保护成像数据的机密性或限制成像数据从
场外转移的方式进行训练。在至少一个实施例中,一旦在一个位置处训练了模型或部分地训练了模型,则可以将机器学习模型添加到模型注册表1324。在至少一个实施例中,然后可以在任意数量的其他设施处对机器学习模型进行重新训练或更新,经重新训练或更新的模型可以在模型注册表1324中使用。在至少一个实施例中,然后可以从模型注册表1324中选择机器学习模型(并称为输出模型1316),并且可以在部署系统1306中,以执行用于部署系统的一个或更多个应用程序的一个或更多个处理任务。
115.在至少一个实施例中,在训练管线1404(图14)中,场景可以包括需要机器学习模型的设施1302,以用于执行用于部署系统1306中的一个或更多个应用程序的一个或更多个处理任务,但是设施1302当前可能没有这样的机器学习模型(或者可能没有优化的、高效的或有效的模型)。在至少一个实施例中,由于用于训练机器学习模型的训练数据的种群差异、稳健性,训练数据异常的多样性,和/或训练数据的其他问题,从模型注册表 1324中选择的机器学习模型可能不会针对在设施1302处生成的成像数据 1308进行微调或优化。在至少一个实施例中,ai辅助注释1310可以用于帮助生成与成像数据1308相对应的注释,以用作训练或更新机器学习模型的地面实况数据。在至少一个实施例中,标记的临床数据1312可以用作训练机器学习模型的地面实况数据。在至少一个实施例中,重新训练或更新机器学习模型可以称为模型训练1314。在至少一个实施例中,模型训练 1314(例如ai辅助注释1310,标记的临床数据1312或其组合)可以用作重新训练或更新机器学习模型的地面实况数据。在至少一个实施例中,训练的机器学习模型可以被称为输出模型1316,并且可以由部署系统1306 使用,如本文所述。
116.在至少一个实施例中,部署系统1306可以包括软件1318、服务1320、硬件1322和/或其他组件、特征和功能。在至少一个实施例中,部署系统 1306可以包括软件“栈”,以使软件1318可以构建在服务1320的顶部上,并且可以使用服务1320来执行一些或全部处理任务,并且服务1320和软件1318可以构建在硬件1322的顶部上,并使用硬件1322来执行部署系统的处理、存储和/或其他计算任务。在至少一个实施例中,软件1318可以包括任意数量的不同容器,其中每个容器可以执行应用程序的实例化。在至少一个实施例中,每个应用程序可以在高级处理和推理管线中执行一个或更多个处理任务(例如,推理、对象检测、特征检测、分割、图像增强、校准等)。在至少一个实施例中,除了接收和配置成像数据以供每个容器使用和/或在通过管线处理后由设施1302使用的容器以外,还可以基于对处理成像数据1308想要的或所需的不同容器的选择来定义高级处理和推理管线(例如,以将输出转换回可用的数据类型。在至少一个实施例中,软件1318内的容器组合(例如,其构成管线)可以被称为虚拟仪器(如本文中更详细地描述的),并且虚拟仪器可以利用服务1320和硬件1322来执行容器中实例化的应用程序的部分或全部处理任务。
117.在至少一个实施例中,数据处理管线可以响应于推理请求(例如,来自部署系统1306的用户的请求)接收具体格式的输入数据(例如,成像数据1308)。在至少一个实施例中,输入数据可以代表由一个或更多个成像设备生成的一个或更多个图像、视频和/或其他数据表示。在至少一个实施例中,数据可以作为数据处理管线的一部分进行预处理,以准备数据用于由一个或更多个应用程序处理。在至少一个实施例中,可以在管线的一个或更多个推理任务或其他处理任务的输出上执行后处理,以准备下一个应用程序的输出数据和/或准备输出数据,以供用户传输和/或使用(例如作为对推理请求的响应)。在至少一个实施
例中,推理任务可以由一个或更多个机器学习模型执行,例如经训练或部署的神经网络,所述模型可以包括训练系统1304的输出模型1316。
118.在至少一个实施例中,数据处理管线的任务可以封装在容器中,每个容器表示能够引用机器学习模型的应用程序和虚拟化计算环境的离散、全功能实例化。在至少一个实施例中,容器或应用程序可被发布到容器注册表(本文更详细地描述)的私有(例如,有限访问)区域中,并且经训练或部署的模型可存储在模型注册表1324中,并与一个或更多个应用程序相关联。在至少一个实施例中,应用程序的图像(例如,容器图像)可在容器注册表中使用,并且一旦用户从容器注册表中选择图像以用于在管线中部署,则该图像可用于生成用于应用程序的实例化的容器,以供用户的系统使用。
119.在至少一个实施例中,开发者(例如,软件开发者、临床医生、医生等)可以开发、发布和存储应用程序(例如,作为容器),用于对所提供的数据执行图像处理和/或推理。在至少一个实施例中,可以使用与系统相关联的软件开发工具包(sdk)来执行开发、发布和/或存储(例如,以确保开发的应用程序和/或容器符合系统或与系统兼容)。在至少一个实施例中,所开发的应用程序可以使用sdk在本地测试(例如,在第一设施处,对来自第一设施的数据进行测试),所述sdk作为系统(例如图14中的系统1400)可以支持至少某些服务1320。在至少一个实施例中,由于 dicom对象可能包含一到数百个图像或其他数据类型,并且由于数据的变化,因此开发者可负责管理(例如,设置构造,用于将预处理构建到应用程序中等)传入的数据的提取和准备。在至少一个实施例中,一旦通过系统1400的验证(例如,为了准确性),应用程序便会在容器注册表中可用,以供用户选择和/或实现,以对用户的设施(例如第二设施)处的数据执行一个或更多个处理任务。
120.在至少一个实施例中,开发者随后可以通过网络共享应用程序或容器,以供系统(例如,图14的系统1400)的用户访问和使用。在至少一个实施例中,可以将完成并经过验证的应用程序或容器存储在容器注册表中,并且可以将相关的机器学习模型存储在模型注册表1324中。在至少一个实施例中,请求实体(其提供推理或图像处理请求)可以浏览容器注册表和/ 或模型注册表1324,以获得应用程序、容器、数据集、机器学习模型等,选择所需的元素组合以包含在数据处理管线中,并提交图像处理请求。在至少一个实施例中,请求可以包括执行请求所必需的输入数据(以及在一些示例中与患者相关的数据),和/或可以包括对在处理请求时要执行的应用程序和/或机器学习模型的选择。在至少一个实施例中,然后可以将请求传递到部署系统1306的一个或更多个组件(例如,云),以执行数据处理管线的处理。在至少一个实施例中,由部署系统1306进行的处理可以包括引用从容器注册表和/或模型注册表1324中选择的元素(例如,应用程序、容器、模型等)。在至少一个实施例中,一旦通过管线生成结果,结果可返回给用户以供参考(例如,用于在本地、本地工作站或终端上执行的查看应用程序套件中进行查看)。
121.在至少一个实施例中,为了帮助处理或执行管线中的应用程序或容器,可以利用服务1320。在至少一个实施例中,服务1320可以包括计算服务、人工智能(ai)服务、可视化服务和/或其他服务类型。在至少一个实施例中,服务1320可以提供软件1318中的一个或更多个应用程序所共有的功能,因此可以将功能抽象为可以被应用程序调用或利用的服务。在至少一个实施例中,由服务1320提供的功能可以动态且更有效地运行,同时还可以通过允许应用程序并行地处理数据(例如,使用图14中的并行计算平台 1430)来很好地缩放。在
至少一个实施例中,不是要求共享服务1320提供的相同功能的每个应用程序都必须具有服务1320的相对应实例,而是可以在各种应用程序之间和之中共享服务1320。在至少一个实施例中,作为非限制性示例,服务可包括可用于执行检测或分割任务的推理服务器或引擎。在至少一个实施例中,可以包括模型训练服务,其可以提供机器学习模型训练和/或重新训练能力。在至少一个实施例中,可以进一步包括数据增强服务,其可以提供gpu加速的数据(例如,dicom、ris、cis、符合rest、 rpc、原始等)提取、调整大小、缩放和/或其他增强。在至少一个实施例中,可以使用可视化服务,其可以添加图像渲染效果(例如光线跟踪、光栅化、去噪、锐化等),以向二维(2d)和/或三维(3d)模型添加真实感。在至少一个实施例中,可以包括虚拟仪器服务,其为虚拟仪器的管线内的其他应用程序提供波束赋形、分割、推理、成像和/或支持。
122.在至少一个实施例中,在服务1320包括ai服务(例如,推理服务) 的情况下,作为应用程序执行的一部分,可以通过调用(例如,作为api 调用)推理服务(例如,推理服务器),以执行一个或更多个机器学习模型或其处理,来执行一个或更多个机器学习模型。在至少一个实施例中,在另一应用程序包括用于分割任务的一个或更多个机器学习模型的情况下,应用程序可以调用推理服务来执行机器学习模型,以用于执行与分割任务相关联的一个或更多个处理操作。在至少一个实施例中,实现高级处理和推理管线的软件1318,其包括分割应用程序和异常检测应用程序,可以被流水线化,因为每个应用程序可以调用相同的推理服务来执行一个或更多个推理任务。
123.在至少一个实施例中,硬件1322可包括gpu、cpu、图形卡、ai/ 深度学习系统(例如,ai超级计算机,诸如nvidia的dgx)、云平台或其组合。在至少一个实施例中,可以使用不同类型的硬件1322,以为部署系统1306中的软件1318和服务1320提供高效的、专门构建的支持。在至少一个实施例中,可以实现使用gpu处理来在ai/深度学习系统内、云系统中、和/或部署系统1306的其他处理组件中进行本地处理(例如,在设施1302处),以提高图像处理和生成的效率、准确性和效能。在至少一个实施例中,作为非限制性示例,关于深度学习、机器学习和/或高性能计算,可以针对gpu处理优化软件1318和/或服务1320。在至少一个实施例中,部署系统1306和/或训练系统1304的计算环境中的至少一些可以在具有gpu优化的软件(例如,nvidiadgx系统的硬件和软件组合)的数据中心、一个或更多个超级计算机或高性能计算机系统中执行。在至少一个实施例中,如本文所述,硬件1322可包括任意数量的gpu,所述gpu可被调用以并行执行数据处理。在至少一个实施例中,云平台还可包括用于深度学习任务的gpu优化执行、机器学习任务或其他计算任务的gpu处理。在至少一个实施例中,可以使用ai/深度学习超级计算机和/或gpu优化的软件(例如,如在nvidia的dgx系统上提供的)作为硬件抽象和缩放平台,来执行云平台(例如,nvidia的ngc)。在至少一个实施例中,云平台可以在多个gpu上集成应用程序容器集群系统或协调系统(例如,kubernetes),以实现无缝缩放和负载均衡。
124.图14是根据至少一个实施例的用于生成和部署成像部署管线的示例系统1400的系统图。在至少一个实施例中,系统1400可以用于实现图13 的过程1300和/或其他过程,包括高级处理和推理管线。在至少一个实施例中,系统1400可以包括训练系统1304和部署系统1306。在至少一个实施例中,可以使用软件1318、服务1320和/或硬件1322,来实现训练系统 1304和部署系统1306,如本文所述。
125.在至少一个实施例中,系统1400(例如,训练系统1304和/或部署系统1306)可以在云计算环境中(例如,使用云1426)实现。在至少一个实施例中,系统1400可以在本地实现(关于医疗服务设施),或者作为云计算资源和本地计算资源的组合来实现。在至少一个实施例中,可以通过制定安全措施或协议,将对云1426中的api的访问权限限制为授权用户。在至少一个实施例中,安全协议可以包括网络令牌,其可以由认证(例如, authn、authz、gluecon等)服务签名,并且可以携带适当的授权。在至少一个实施例中,虚拟仪器的api(本文中描述)或系统1400的其他实例可以被限制为已被审核或授权用于交互的一组公共ip。
126.在至少一个实施例中,系统1400的各个组件可以使用多种不同网络类型中的任何一种在彼此之间进行通信,所述不同网络类型包括但不限于经由有线和/或无线通信协议的局域网(lan)和/或广域网(wan)。在至少一个实施例中,系统1400的设施和组件之间的通信(例如,用于发送推理请求、用于接收推理请求的结果等)可以通过一个或更多个数据总线、无线数据协议(wi-fi)、有线数据协议(例如以太网)等进行传送。
127.在至少一个实施例中,类似于本文关于图13所描述的,训练系统1304 可以执行训练管线1404。在至少一个实施例中,其中部署系统1306将在部署管线1410中使用一个或更多个机器学习模型,训练管线1404可用于训练或重新训练一个或更多个(例如,预训练的)模型,和/或实现一个或更多个预训练模型1406(例如,无需重新训练或更新)。在至少一个实施例中,作为训练管线1404的结果,可以生成输出模型1316。在至少一个实施例中,训练管线1404可以包括任意数量的处理步骤,诸如但不限于成像数据(或其他输入数据)的转换或适配。在至少一个实施例中,对于由部署系统1306使用的不同的机器学习模型,可以使用不同的训练管线1404。在至少一个实施例中,类似于关于图13描述的第一示例的训练管线1404 可用于第一机器学习模型,类似于关于图13描述的第二示例的训练管线 1404可用于第二机器学习模型,类似于关于图13描述的第三示例的训练管线1404可用于第三机器学习模型。在至少一个实施例中,可以根据每个相对应机器学习模型的要求来使用训练系统1304内任务的任何组合。在至少一个实施例中,一个或更多个机器学习模型可能已经被训练并准备好用于部署,因此训练系统1304可能不会对机器学习模型进行任何处理,并且一个或更多个机器学习模型可以由部署系统1306来实现。
128.在至少一个实施例中,根据实现方式或实施例,输出模型1316和/ 或预训练模型1406可包括任何类型的机器学习模型。在至少一个实施例中并且不限于此,系统1400使用的机器学习模型可以包括使用线性回归、逻辑回归、决策树、支持向量机(svm)、朴素贝叶斯、k-最近邻(knn)、 k均值聚类、随机森林、降维算法、梯度提升算法、神经网络(例如,自动编码器、卷积、递归、感知器、长/短期记忆(lstm)、hopfield、boltzmann、深度信念、反卷积、生成对抗、液体状态机等),和/或其他类型的机器学习模型。
129.在至少一个实施例中,训练管线1404可以包括ai辅助注释,如本文关于至少图15b更详细描述的。在至少一个实施例中,可以通过任何数量的技术来生成标记的临床数据1312(例如,传统注释)。在至少一个实施例中,在一些示例中可以在绘图程序(例如,注释程序)、计算机辅助设计(cad)程序、标记程序、适用于生成地面实况的注释或标签的另一类型的应用程序中、和/或可以手绘,生成标签或其他注释。在至少一个实施例中,地面实况数据可以被合成产生(例如,从计算机模型或渲染生成)、真实产生(例如,从真实世界数据设计和生成)、机器自动产生(例如,使用特征分析和学习从数据中提取特征,然后生成标签)、人
工注释(例如,标记器或注释专家,定义标签的位置)和/或其组合。在至少一个实施例中,对于成像数据1308(或机器学习模型使用的其他数据类型)的每个实例,可以存在由训练系统1304生成的相对应的地面实况数据。在至少一个实施例中,可以作为部署管线1410的一部分执行ai辅助注释;补充或代替训练管线1404中包括的ai辅助注释。在至少一个实施例中,系统1400 可以包括多层平台,所述多层平台可以包括诊断应用程序(或其他应用程序类型)的软件层(例如软件1318),其可以执行一个或更多个医学成像和诊断功能。在至少一个实施例中,系统1400可以通信地耦合到(例如,经由加密链路)一个或更多个设施的pacs服务器网络。在至少一个实施例中,系统1400可被配置为从pacs服务器访问和引用数据,以执行操作,例如训练机器学习模型、部署机器学习模型、图像处理、推理和/或其他操作。
130.在至少一个实施例中,软件层可以被实现为安全的、加密的和/或经认证的api,通过所述api可以从外部环境(例如,设施1302)援引(invoke) (例如,调用(call))应用程序或容器。在至少一个实施例中,应用程序随后可以调用或执行一个或更多个服务1320,以执行与各自的应用程序相关联的计算、ai或可视化任务,并且软件1318和/或服务1320可以利用硬件1322以有效和高效的方式执行处理任务。
131.在至少一个实施例中,部署系统1306可以执行部署管线1410。在至少一个实施例中,部署管线1410可以包括任意数量的应用程序,所述应用程序可以是顺序的、非顺序的,或者以其他方式应用于成像数据(和/或其他数据类型)-包括ai辅助注释,所述成像数据由成像设备、测序设备、基因组学设备等生成,如上所述。在至少一个实施例中,如本文所述,用于个体设备的部署管线1410可以被称为用于设备的虚拟仪器(例如,虚拟超声仪器、虚拟ct扫描仪器、虚拟测序仪器等)。在至少一个实施例中,对于单个设备,可以存在不止一个部署管线1410,这取决于从设备生成的数据所期望的信息。在至少一个实施例中,在期望从mri机器检测到异常的情况下,可以存在第一部署管线1410,并且在期望从mri机器的输出进行图像增强的情况下,可以存在第二部署管线1410。
132.在至少一个实施例中,图像生成应用程序可以包括包括使用机器学习模型的处理任务。在至少一个实施例中,用户可能希望使用他们自己的机器学习模型,或者从模型注册表1324中选择机器学习模型。在至少一个实施例中,用户可以实现他们自己的机器学习模型或选择机器学习模型,以包含在执行处理任务的应用程序中。在至少一个实施例中,应用程序可以是可选择的和可定制的,并且通过定义应用程序的构造,针对特定用户的应用程序的部署和实现被呈现为更加无缝的用户体验。在至少一个实施例中,通过利用系统1400的其他特征(例如服务1320和硬件1322),部署管线1410可以更加用户友好,提供更容易的集成,并且产生更准确、高效和及时的结果。
133.在至少一个实施例中,部署系统1306可以包括用户接口1414(例如,图形用户接口、web接口等),所述用户接口可以被用于选择要包括在部署管线1410中的应用程序、布置应用程序、修改或改变应用程序或其参数或构造、在设置和/或部署期间使用部署管线1410以及与其交互,和/或以其他方式与部署系统1306交互。在至少一个实施例中,尽管没有关于训练系统1304示出,但是用户接口1414(或不同的用户接口)可用于选择在部署系统1306中使用的模型、用于选择用于在训练系统1304中训练或重新训练的模型,和/或用于以其他方式与训练系统1304交互。
134.在至少一个实施例中,除了应用程序协调系统1428之外,还可以使用管线管理器
1412来管理部署管线1410的应用程序或容器与服务1320 和/或硬件1322之间的交互。在至少一个实施例中,管线管理器1412可以被配置为促进从应用程序到应用程序、从应用程序到服务1320,和/或从应用程序或服务到硬件1322的交互。在至少一个实施例中,尽管示出为包括在软件1318中,这并不旨在进行限制,并且在一些示例中,管线管理器 1412可以被包括在服务1320中。在至少一个实施例中,应用程序协调系统1428(例如,kubernetes、docker等)可以包括容器协调系统,其可以将应用程序分组到容器中,作为用于协调、管理、缩放和部署的逻辑单元。在至少一个实施例中,通过将来自部署管线1410的应用程序(例如,重建应用程序、分割应用程序等)与各个容器相关联,每个应用程序可以在自包含的环境(例如,在内核级)中执行,以提高速度和效率。
135.在至少一个实施例中,每个应用程序和/或容器(或其映像)可以被单独开发、修改和部署(例如,第一用户或开发者可以开发、修改和部署第一应用程序,第二用户或开发者可以开发、修改和部署与第一用户或开发者分开的第二应用程序),这可以允许专注并关注单个应用程序和/或容器的任务,而不受另一个应用程序或容器的任务的阻碍。在至少一个实施例中,管线管理器1412和应用程序协调系统1428可以辅助不同容器或应用程序之间的通信和协作。在至少一个实施例中,只要每个容器或应用程序的预期输入和/或输出是系统已知的(例如,基于应用程序或容器的构造),则应用程序协调系统1428和/或管线管理器1412可以促进每个应用程序或容器之间和之中的通信以及资源的共享。在至少一个实施例中,由于部署管线1410中的一个或更多个应用程序或容器可以共享相同的服务和资源,因此应用程序协调系统1428可以在各个应用程序或容器之间和之中进行协调、负载均衡,并确定服务或资源的共享。在至少一个实施例中,调度器可用于跟踪应用程序或容器的资源需求、这些资源的当前使用或计划使用,以及资源可用性。因此,在至少一个实施例中,考虑到系统的需求和可用性,调度器可以将资源分配给不同的应用程序,并在应用程序之间和之中分配资源。在一些示例中,调度器(和/或应用程序协调系统1428的其他组件)可以基于施加在系统上的约束(例如,用户约束)来确定资源可用性和分布,例如服务质量(qos)、对数据输出的迫切需求(例如,以确定是执行实时处理还是延迟处理)等。
136.在至少一个实施例中,由部署系统1306中的应用程序或容器利用并由其共享的服务1320,可以包括计算服务1416、ai服务1418、可视化服务1420和/或其他服务类型。在至少一个实施例中,应用程序可以调用(例如,执行)一个或更多个服务1320,以执行针对应用程序的处理操作。在至少一个实施例中,应用程序可以利用计算服务1416来执行超级计算或其他高性能计算(hpc)任务。在至少一个实施例中,可以利用一个或更多个计算服务1416来执行并行处理(例如,使用并行计算平台1430),以通过一个或更多个应用程序和/或单个应用程序的一个或更多个任务基本上同时地处理数据。在至少一个实施例中,并行计算平台1430(例如, nvidia的cuda)可以在gpu(gpgpu)(例如,gpu1422)上实现通用计算。在至少一个实施例中,并行计算平台1430的软件层可以提供对 gpu的虚拟指令集和并行计算元素的访问,以执行计算内核。在至少一个实施例中,并行计算平台1430可以包括存储器,并且在一些实施例中,可以在多个容器之间和之中,和/或在单个容器内的不同处理任务之间和之中共享存储器。在至少一个实施例中,可以为多个容器和/或容器内的多个进程生成进程间通信(ipc)调用,以使用于自并行计算平台1430的共享存储器段的相同数据(例如,其中一应用程序或多个应用程序的多个不同阶段正在处理相同的信息)。在至少一个实施例中,不
是复制数据并将数据移动到存储器中的不同位置(例如,读/写操作),而是可以将存储器相同位置中的相同数据用于任何数量的处理任务(例如,在同一时间、不同时间等)。在至少一个实施例中,由于作为处理的结果数据被用于生成新数据,因此数据的新位置的该信息可以在各个应用程序之间存储和共享。在至少一个实施例中,数据的位置以及经更新或修改的数据的位置可以是如何理解容器中的有效负载的定义的一部分。
137.在至少一个实施例中,可以利用ai服务1418来执行推理服务,该推理服务用于执行与应用程序相关联的机器学习模型(例如,任务为执行应用程序的一个或更多个处理任务)。在至少一个实施例中,ai服务1418 可以利用ai系统1424来执行机器学习模型(例如,诸如cnn之类的神经网络)以用于分割、重建、对象检测、特征检测、分类和/或其他推理任务。在至少一个实施例中,部署管线1410的应用程序可以使用于自训练系统1304的一个或更多个输出模型1316和/或应用程序的其他模型,来对成像数据执行推理。在至少一个实施例中,使用应用程序协调系统1428(例如,调度器)进行推理的两个或更多个示例可以是可用的。在至少一个实施例中,第一类别可以包括高优先级/低延时路径,其可以实现更高服务水平协议,例如用于在紧急情况下对紧急请求执行推理,或者在诊断过程中用于放射科医生。在至少一个实施例中,第二类别可以包括标准优先级路径,其可用于可能不紧急的请求或者可以在稍后的时间执行分析的情况。在至少一个实施例中,应用程序协调系统1428可以基于优先级路径来分配资源(例如,服务1320和/或硬件1322),以用于ai服务1418的不同推理任务。
138.在至少一个实施例中,共享存储器可以被安装到系统1400中的ai 服务1418。在至少一个实施例中,共享存储器可以操作为高速缓存(或其他存储设备类型),并且可以用于处理来自应用程序的推理请求。在至少一个实施例中,当提交推理请求时,部署系统1306的一组api实例可以接收请求,并且可以选择一个或更多个实例(例如,为了最佳拟合、为了负载均衡等)来处理请求。在至少一个实施例中,为了处理请求,可以将请求输入到数据库中,如果尚未在高速缓存中,则可以从模型注册表1324 定位机器学习模型,验证步骤可以确保将适当的机器学习模型加载到高速缓存中(例如,共享存储),和/或可以将模型的副本保存到高速缓存中。在至少一个实施例中,如果应用程序尚未运行或没有足够的应用程序的实例,则可使用调度器(例如,管线管理器1412的调度器)来启动在请求中引用的应用程序。在至少一个实施例中,如果尚未启动推理服务器来执行模型,则可以启动推理服务器。每个模型可以启动任意数量的推理服务器。在至少一个实施例中,在将推理服务器聚类的拉(pull)模型中,每当负载均衡有利时,就可以将模型高速缓存。在至少一个实施例中,推理服务器可以静态加载到相应的分布式服务器中。
139.在至少一个实施例中,可以使用在容器中运行的推理服务器来执行推理。在至少一个实施例中,推理服务器的实例可以与模型(并且可选地与模型的多个版本)相关联。在至少一个实施例中,如果在接收到对模型执行推理的请求时推理服务器的实例不存在,则可以加载新实例。在至少一个实施例中,当启动推理服务器时,可以将模型传递到推理服务器,使得可以使用相同的容器来服务不同的模型,只要推理服务器作为不同的实例运行即可。
140.在至少一个实施例中,在应用程序执行期间,可以接收对给定应用程序的推理请求,并且可以加载(如果尚未加载的话)容器(例如,托管推理服务器的实例),以及可以调用
启动程序。在至少一个实施例中,容器中的预处理逻辑可以(例如,使用cpu和/或gpu)对传入的数据进行加载、解码和/或执行任何附加的预处理。在至少一个实施例中,一旦数据准备好进行推理,容器就可以根据需要对数据进行推理。在至少一个实施例中,这可以包括对一个图像(例如,手部x光线)的单个推理调用,或可要求对数百个图像(例如,胸部ct)进行推理。在至少一个实施例中,应用程序可在完成之前总结结果,其可以包括但不限于单个置信度得分、像素级分割、体素级分割、生成可视化或生成文本以总结结果。在至少一个实施例中,可以为不同的模型或应用程序分配不同的优先级。例如,一些模型可具有实时(tat小于1分钟)优先级,而其他模型可具有较低的优先级(例如,tat小于10分钟)。在至少一个实施例中,模型执行时间可以从请求机构或实体进行测量,并且可以包括合作网络遍历时间以及推理服务的执行时间。
141.在至少一个实施例中,请求在服务1320和推理应用程序之间的传送可以隐藏在软件开发工具包(sdk)后面,并且可以通过队列提供鲁棒的传输。在至少一个实施例中,将通过api将请求放置在队列中,以用于个体应用程序/租户id组合,并且sdk将从队列中拉取请求并将请求提供给应用程序。在至少一个实施例中,在sdk将从中拾取队列的环境中,可以提供队列的名称。在至少一个实施例中,通过队列的异步通信可能有用,因为它可以允许应用程序的任何实例在其可用时拾取工作。可以通过队列将结果传送回去,以确保没有数据丢失。在至少一个实施例中,队列还可以提供对工作进行分割的能力,因为最高优先级的工作可以进入与应用程序的大多数实例连接的队列,而最低优先级的工作可以进入与单个实例连接的队列,所述实例按照接收到的顺序处理任务。在至少一个实施例中,应用程序可以在gpu加速的实例上运行,所述实例在云1426中生成,并且推理服务可以在gpu上执行推理。
142.在至少一个实施例中,可以利用可视化服务1420来生成用于查看应用程序和/或部署管线1410输出的可视化。在至少一个实施例中,可视化服务1420可以利用gpu1422来生成可视化。在至少一个实施例中,可视化服务1420可以实现诸如光线追踪之类的渲染效果,以生成更高质量的可视化。在至少一个实施例中,可视化可以包括但不限于2d图像渲染、3d 体渲染、3d体重建、2d层析切片、虚拟现实显示、增强现实显示等。在至少一个实施例中,可以使用虚拟化环境来生成虚拟交互显示或环境(例如,虚拟环境),以供系统用户(例如,医生、护士、放射科医生等)进行交互。在至少一个实施例中,可视化服务1420可以包括内部可视化器、电影和/或其他渲染或图像处理能力或功能(例如,光线追踪、光栅化、内部光学器件等)。
143.在至少一个实施例中,硬件1322可以包括gpu 1422、ai系统1424、云1426和/或用于执行训练系统1304和/或部署系统1306的任何其他硬件。在至少一个实施例中,gpu 1422(例如,nvidia的tesla和/或quadrogpu)可包括可用于执行计算服务1416、ai服务1418、可视化服务1420、其他服务和/或软件1318的任何特征或功能的处理任务的任意数量的gpu。例如,对于ai服务1418,gpu 1422可用于对成像数据(或机器学习模型使用的其他数据类型)执行预处理,对机器学习模型的输出执行后处理和/ 或执行推理(例如以执行机器学习模型)。在至少一个实施例中,云1426、 ai系统1424和/或系统1400的其他组件可以使用gpu1422。在至少一个实施例中,云1426可以包括用于深度学习任务的gpu优化的平台。在至少一个实施例中,ai系统1424可以使用gpu,并且可以使用一个或更多个ai系统1424来执行云1426(或者任务为深度学习或推理的至少部分)。同样,尽管硬件1322被示出为离散组件,
但这并不意图是限制,并且硬件 1322的任何组件可以与硬件1322的任何其他组件组合,或由硬件1322的任何其他组件利用。
144.在至少一个实施例中,ai系统1424可包括专门构建的计算系统(例如,超级计算机或hpc),该计算系统配置用于推理、深度学习、机器学习和/或其他人工智能任务。在至少一个实施例中,除了cpu、ram、存储器和/或其他组件、特征或功能之外,ai系统1424(例如,nvidia的 dgx)还可以包括可以使用多个gpu1422来执行分gpu优化的软件(例如,软件栈)。在至少一个实施例中,可以在云1426中(例如,在数据中心中)实现一个或更多个ai系统1424,以执行系统1400的一些或全部基于ai的处理任务。
145.在至少一个实施例中,云1426可以包括gpu加速的基础设施(例如, nvidia的ngc),其可以提供用于执行系统1400的处理任务的gpu优化的平台。在至少一个实施例中,云1426可以包括ai系统1424,其用于执行系统1400的一个或更多个基于ai的任务(例如,作为硬件抽象和缩放平台)。在至少一个实施例中,云1426可以与利用多个gpu的应用程序协调系统1428集成,以实现应用程序和服务1320之间和之中的无缝缩放和负载均衡。在至少一个实施例中,如本文所述,云1426可以负责执行系统1400的至少一些服务1320,包括计算服务1416、ai服务1418和/或可视化服务1420。在至少一个实施例中,云1426可以执行大小批的推理 (例如,执行nvidia的tensorrt),提供加速的并行计算api和平台1430(例如,nvidia的cuda),执行应用程序协调系统1428(例如, kubernetes),提供图形渲染api和平台(例如,用于光线跟踪,2d 图形、3d图形和/或其他渲染技术以产生更高质量的电影效果),和/或可以为系统1400提供其他功能。
146.图15a示出了根据至少一个实施例的用于训练、重新训练或更新机器学习模型的过程1500的数据流图。在至少一个实施例中,可以使用作为非限制性示例的图14的系统1400来执行过程1500。在至少一个实施例中,过程1500可以利用系统1400的服务1320和/或硬件1322,如本文所述。在至少一个实施例中,由过程1500生成的精炼模型1512可以由部署系统 1306针对部署管线1410中的一个或更多个容器化的应用程序执行。
147.在至少一个实施例中,模型训练1314可包括使用新的训练数据(例如,新的输入数据(诸如客户数据集1506),和/或与输入数据相关联的新的地面实况数据)重新训练或更新初始模型1504(例如,预训练模型)。在至少一个实施例中,为了重新训练或更新初始模型1504,可以重置或删除初始模型1504的输出或损失层,和/或用更新的或新的输出或损失层代替。在至少一个实施例中,初始模型1504可以具有从先前的训练中保留下来的先前精细调整的参数(例如,权重和/或偏差),因此训练或重新训练 1314可能不需要花费与从头开始训练模型一样长的时间或不需要那么多的处理。在至少一个实施例中,在模型训练1314期间,通过重置或替换初始模型1504的输出或损失层,在新的客户数据集1506(例如图13的图像数据1308)上生成预测时,可以基于与输出或损失层的精度相关联的损失计算,更新和重新调整新数据集的参数。
148.在至少一个实施例中,可以将经预训练的模型1406存储在数据存储或注册表中(例如,图13的模型注册表1324)。在至少一个实施例中,经预训练的模型1406可能已经至少部分地在除了执行过程1500的设施之外的一个或更多个设施处被训练。在至少一个实施例中,为了保护患者、受试者或不同设施的客户的隐私和权利,经预训练的模型1406可能已经使用本地生成的客户或患者数据在本地进行了训练。在至少一个实施例中,可以使用云
1426和/或其他硬件1322来训练经预训练的模型1406,但是机密的、受隐私保护的患者数据可以不被传送到云1426的任何组件(或其他非本地硬件)、由其使用或由其访问。在至少一个实施例中,如果使用于自不止一个设施的患者数据来训练经预训练的模型1406,则在来自另一设施的患者或客户数据上进行训练之前,经预训练的模型1406可能已经针对每个设施进行了单独训练。在至少一个实施例中,例如在客户或患者数据已发布隐私问题(例如,通过放弃,用于实验用途等),或者其中客户或患者数据包括在公共数据集中的情况下,来自任意数量的设施的客户或患者数据可以用于在本地和/或外部训练经预训练的模型1406,例如在数据中心中或其他云计算基础设施中。
149.在至少一个实施例中,在选择应用程序以在部署管线1410中使用时,用户还可以选择用于特定应用程序的机器学习模型。在至少一个实施例中,用户可能没有模型以使用,因此用户可以选择要与应用程序一起使用的经预训练的模型1406。在至少一个实施例中,经预训练的模型1406可能没有被优化用于在用户设施的客户数据集1506上生成准确的结果(例如,基于患者多样性、人口统计、所使用的医学成像设备的类型等)。在至少一个实施例中,在将经预训练的模型1406部署到部署管线1410中以与一个或更多个应用程序一起使用之前,经预训练的模型1406可以被更新、重新训练和/或微调,以用于在各个设施处使用。
150.在至少一个实施例中,用户可以选择要更新、重新训练和/或微调的经预训练的模型1406,并且经预训练的模型1406可以称为过程1500中训练系统1304的初始模型1504。在至少一个实施例中,客户数据集1506(例如,成像数据、基因组数据、测序数据或由设施处的设备生成的其他数据类型)可用于对初始模型1504执行模型训练1314(其可包括但不限于传递学习),以生成精炼模型1512。在至少一个实施例中,可以由训练系统1304生成与客户数据集1506相对应的地面实况数据。在至少一个实施例中,可以至少部分地由临床医生、科学家、医生、从业者在设施处生成地面实况数据(例如,如图13中的标记的临床数据1312)。
151.在至少一个实施例中,在一些示例中可以使用ai辅助注释1310来生成地面实况数据。在至少一个实施例中,ai辅助注释1310(例如,使用 ai辅助注释sdk实现)可以利用机器学习模型(例如,神经网络)来生成用于客户数据集的建议或预测的地面实况数据。在至少一个实施例中,用户1510可以在计算设备1508上的用户界面(图形用户界面(gui)) 内使用注释工具。
152.在至少一个实施例中,用户1510可以经由计算设备1508与gui交互,以编辑或微调注释或自动注释。在至少一个实施例中,多边形编辑特征可以用于将多边形的顶点移动到更精确或微调的位置。
153.在至少一个实施例中,一旦客户数据集1506具有相关联的地面实况数据,则地面实况数据(例如,来自ai辅助注释、手动标记等)可以在模型训练1314期间用于生成精炼模型1512。在至少一个实施例中,客户数据集1506可以被应用到初始模型1504任意次数,并且地面实况数据可以用于更新初始模型1504的参数,直到对于精炼模型1512达到可接受的精度水平为止。在至少一个实施例中,一旦生成精炼模型1512,就可以在设施处的一个或更多个部署管线1410内部署精炼模型1512,以用于执行关于医学成像数据的一个或更多个处理任务。
154.在至少一个实施例中,可以将精炼模型1512上传到模型注册表1324 中的经预训练的模型1406,以由另一个设施选择。在至少一个实施例中,他的过程可以在任意数量的设
施处完成,使得可以在新数据集上对精炼模型1512进一步精炼任意次数,以生成更通用的模型。
155.图15b是根据至少一个实施例的用于利用经预训练的注释模型来增强注释工具的客户端-服务器架构1532的示例图示。在至少一个实施例中,可以基于客户端-服务器架构1532来实例化ai辅助注释工具1536。在至少一个实施例中,成像应用程序中的注释工具1536可以帮助放光线医生,例如识别器官和异常。在至少一个实施例中,成像应用程序可以包括软件工具,作为非限制性示例,所述软件工具帮助用户1510识别原始图像1534 中(例如,在3dmri或ct扫描中)的特定感兴趣器官上的几个极值点,并接收特定器官的所有2d切片的自动注释结果。在至少一个实施例中,结果可以作为训练数据1538存储在数据存储中,并且用作(例如但不限于) 用于训练的地面实况数据。在至少一个实施例中,当计算设备1508发送用于ai辅助注释1310的极值点时,例如,深度学习模型可以接收该数据作为输入并返回分割器官或异常的推理结果。在至少一个实施例中,预实例化的注释工具(例如图15b中的ai辅助注释工具1536b)可以通过对服务器(诸如注释助手服务器1540)进行api调用(例如api调用1544) 来增强,注释助手服务器1540可包括存储在例如注释模型注册表中的一组经预训练的模型1542。在至少一个实施例中,注释模型注册表可以存储经预训练的模型1542(例如,机器学习模型,诸如深度学习模型),其被预训练以对特定器官或异常执行ai辅助注释。在至少一个实施例中,可以通过使用训练管线1404来进一步更新这些模型。在至少一个实施例中,随着添加新标记的临床数据1312,可以随时间改进预安装的注释工具。
156.此类组件可以用于生成增强的内容,诸如具有升级的分辨率、减少的伪影存在以及视觉质量增强的图像或视频内容。
157.其他其他变型在本公开的精神内。因此,尽管公开的技术易于进行各种修改和替代构造,但是某些示出的其实施例在附图中示出并且已经在上面进行了详细描述。然而,应理解,无意将公开内容限制为所公开的一种或更多种特定形式,而是相反,其意图是涵盖落入如所附权利要求书所定义的本公开内容的精神和范围内的所有修改、替代构造和等同物。
158.除非另有说明或显然与上下文矛盾,否则在描述所公开的实施例的上下文中(特别是在所附权利要求的上下文中),术语“一”和“一个”和“该”以及类似指代的使用应被解释为涵盖单数和复数,而不是作为术语的定义。除非另有说明,否则术语“包括”、“具有”、“包含”和“含有”应被解释为开放式术语(意味着“包括但不限于”)。术语“连接
”ꢀ
(在未经修改时指的是物理连接)应解释为部分或全部包含在内、附接到或连接在一起,即使有某些介入。除非本文另外指出,否则本文中对数值范围的引用仅旨在用作分别指代落入该范围内的每个单独值的简写方法,并且每个单独值都被并入说明书中,就如同其在本文中被单独叙述一样。除非另外指出或与上下文矛盾,否则术语“集”(例如“项目集”)或“子集”的使用应解释为包括一个或更多个成员的非空集合。此外,除非另外指出或与上下文矛盾,否则术语相对应集的“子集”不一定表示对应集的适当子集,而是子集和对应集可以相等。
159.除非以其他方式明确指出或与上下文明显矛盾,否则诸如“a,b和 c中的至少一个”或“a,b与c中的至少一个”形式的短语之类的连接语在上下文中理解为通常用于表示项目、条款等,其可以是a或b或c,也可以是a和b和c集的任何非空子集。例如,在具有三个成员的集的说明性示例中,连接短语“a,b和c中的至少一个”和“a,b与c中的至少一个”是指以下
任意集:{a},{b},{c},{a,b},{a,c},{b, c},{a,b,c}。因此,这种连接语言通常不旨在暗示某些实施例要求存在a中的至少一个,b中的至少一个和c中的至少一个。另外,除非另有说明或与上下文矛盾,否则术语“多个”表示复数的状态(例如,“多个项目”表示多个项目)。多个项目中项目的数量至少为两个,但如果明确指示或通过上下文指示,则可以更多。此外,除非另有说明或从上下文中可以清楚得知,否则短语“基于”是指“至少部分基于”而不是“仅基于”。
160.除非本文另外指出或与上下文明显矛盾,否则本文描述的过程的操作可以任何合适的顺序执行。在至少一个实施例中,诸如本文所述的那些过程(或其变形和/或其组合)之类的过程在配置有可执行指令的一个或更多个计算机系统的控制下执行,并且被实现为代码(例如,可执行指令,一个或更多个计算机程序或一个或更多个应用程序),该代码通过硬件或其组合在一个或更多个处理器上共同执行。在至少一个实施例中,代码以例如计算机程序的形式存储在计算机可读存储介质上,该计算机程序包括可由一个或更多个处理器执行的多个指令。在至少一个实施例中,计算机可读存储介质是非暂时性计算机可读存储介质,其排除了暂时性信号(例如,传播的瞬态电或电磁传输),但包括非暂时性数据存储电路(例如,缓冲区、高速缓存和队列)。在至少一个实施例中,代码(例如,可执行代码或源代码)被存储在其上存储有可执行指令的一组一个或更多个非暂时性计算机可读存储介质(或用于存储可执行指令的其他存储器)上,该可执行指令在由计算机系统的一个或更多个处理器执行时(即,作为被执行的结果),使得计算机系统执行本文所述的操作。在至少一个实施例中,一组非暂时性计算机可读存储介质包括多个非暂时性计算机可读存储介质,并且多个非暂时性计算机可读存储介质中的个体非暂时性存储介质中的一个或更多个缺少全部代码,而是多个非暂时性计算机可读存储介质共同存储全部代码。在至少一个实施例中,可执行指令被执行,以使得不同的指令由不同的处理器执行,例如,非暂时性计算机可读存储介质存储指令,并且主中央处理单元(“cpu”)执行一些指令,而图形处理单元(“gpu”) 执行其他指令。在至少一个实施例中,计算机系统的不同组件具有单独的处理器,并且不同的处理器执行指令的不同子集。
161.因此,在至少一个实施例中,计算机系统被配置为实现单独地或共同地执行本文所述的过程的操作的一个或更多个服务,并且这样的计算机系统被配置有使能实施操作的适用的硬件和/或软件。此外,实现本公开的至少一个实施例的计算机系统是单个设备,并且在另一实施例中是分布式计算机系统,其包括以不同方式操作的多个设备,使得分布式计算机系统执行本文所述的操作,并且使得单个设备不执行所有操作。
162.本文提供的任何和所有示例或示例性语言(例如,“诸如”)的使用仅旨在更好地阐明本公开的实施例,并且不对公开的范围构成限制,除非另有要求。说明书中的任何语言都不应被解释为表示任何未要求保护的要素对于实践公开内容是必不可少的。
163.本文引用的所有参考文献,包括出版物、专利申请和专利,均通过引用并入本文,其程度就如同每个参考文献被单独且具体地指示为以引用的方式并入本文并且其全部内容在本文中阐述一样。
164.在说明书和权利要求中,可以使用术语“耦合”和“连接”以及它们的派生词。应当理解,这些术语可能不旨在作为彼此的同义词。相反,在特定示例中,“连接”或“耦合”可用于指示两个或更多个元件彼此直接或间接物理或电接触。“耦合”也可能意味着两个或更多
个元素彼此不直接接触,但仍彼此协作或交互。
165.除非另有明确说明,否则可以理解,在整个说明书中,诸如“处理”、“计算”、“计算”、“确定”等之类的术语,是指计算机或计算系统或类似的电子计算设备的动作和/或过程,其将计算系统的寄存器和/或存储器中表示为物理量(例如电子)的数据处理和/或转换为类似表示为计算系统的存储器、寄存器或其他此类信息存储、传输或显示设备中的物理量的其他数据。
166.以类似的方式,术语“处理器”可以指处理来自寄存器和/或存储器的电子数据并将该电子数据转换成可以存储在寄存器和/或存储器中的其他电子数据的任何设备或存储器的一部分。作为非限制性示例,“处理器”可以是cpu或gpu。“计算平台”可以包括一个或更多个处理器。如本文所使用的,“软件”进程可以包括例如随时间执行工作的软件和/或硬件实体,诸如任务、线程和智能代理。同样,每个过程可以指代多个过程,以连续地或间歇地顺序地或并行地执行指令。术语“系统”和“方法”在本文中可以互换使用,只要系统可以体现一种或更多种方法,并且方法可以被认为是系统。
167.在本文件中,可以参考获得、获取、接收或将模拟或数字数据输入子系统、计算机系统或计算机实现的机器中。可以通过多种方式来获得、获取、接收或输入模拟和数字数据,例如通过接收作为函数调用或对应用程序编程接口的调用的参数的数据。在一些实现方式中,可以通过经由串行或并行接口传输数据来完成获得、获取、接收或输入模拟或数字数据的过程。在另一实现方式中,可以通过经由计算机网络将数据从提供实体传输到获取实体来完成获得、获取、接收或输入模拟或数字数据的过程。也可以参考提供、输出、传送、发送或呈现模拟或数字数据。在各种示例中,提供、输出、传送、发送或呈现模拟或数字数据的过程可以通过将数据作为函数调用的输入或输出参数、应用程序编程接口或进程间通信机制的参数进行传输来实现。
168.尽管上面的讨论阐述了所描述的技术的示例实现,但是其他架构可以用于实现所描述的功能,并且旨在落入本公开的范围内。此外,尽管出于讨论的目的在上面定义了具体的职责分配,但是根据情况,可以以不同的方式分配和划分各种功能和职责。
169.此外,尽管已经用特定于结构特征和/或方法动作的语言描述了主题,但是应当理解,所附权利要求书所要求保护的主题不必限于所描述的特定特征或动作。而是,公开了特定的特征和动作作为实现权利要求的示例性形式。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献