一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

游戏资源展示方法及装置、设备、模型训练方法与流程

2021-08-31 17:41:00 来源:中国专利 TAG:互联网 方法 装置 模型 训练
游戏资源展示方法及装置、设备、模型训练方法与流程

本发明涉及互联网技术领域,尤其涉及一种游戏资源展示方法及装置、设备、模型训练方法。



背景技术:

随着游戏市场的日益繁荣,如何留住游戏中的玩家,以提高玩家留存量,成为游戏研发运营的关键问题之一。

目前,相关技术中,通常是由数据分析、运营、策划等相关人员对游戏测试数据进行分析,跟据分析结果提出调整方案,并将调整方案再次投入测试中,从而通过多次测试分析来提高游戏玩家的留存量。这种基于游戏测试数据的分析方式,不仅主观性强,难以保证分析结果的准确性,而且难以甄别多种游戏测试数据对玩家留存的影响,无法提出有效的玩家留存量的提升方案,测试分析效率低。

因此,亟待提出一种用于提升玩家留存量的方案,用以解决上述至少一个技术问题。



技术实现要素:

本发明实施例提供一种游戏资源展示方法及装置、设备、模型训练方法,用以提升玩家留存量。

第一方面,本发明实施例提供一种游戏资源展示方法,该方法包括:

获取目标对象的游戏数据,游戏数据包括目标对象在第一时间段的游戏系统数据;

调用游戏中加载的机器学习模型,并将游戏数据输入机器学习模型,以得到目标对象在第二时间段内是否留存的预测结果;

向目标对象展示与预测结果对应的游戏资源。

第二方面,本发明实施例提供一种游戏资源展示装置,该装置包括:

获取模块,用于获取目标对象的游戏数据,游戏数据包括目标对象在第一时间段的游戏系统数据;

处理模块,用于调用游戏中加载的机器学习模型,并将游戏数据输入机器学习模型,以得到对目标对象在第二时间段内是否留存的预测结果;响应于机器学习模型输出的预测结果,向目标对象展示与预测结果对应的游戏资源。

第三方面,本发明实施例提供一种电子设备,其中包括处理器和存储器,其中,存储器上存储有可执行代码,当可执行代码被处理器执行时,使处理器至少可以实现第一方面中的游戏资源展示方法。

第四方面,本发明实施例提供了一种非暂时性机器可读存储介质,非暂时性机器可读存储介质上存储有可执行代码,当可执行代码被电子设备的处理器执行时,使处理器至少可以实现第一方面中的游戏资源展示方法。

第五方面,本发明实施例提供一种模型训练方法,该方法包括:

确定待预测的目标留存时间;

获取目标留存时间前的第一时间段内的第一训练样本以及目标留存时间内的第二训练样本;

根据第一训练样本和第二训练样本,训练机器学习模型根据第一训练样本和第二训练样本,训练用于加载到游戏中的机器学习模型;

其中,机器学习模型的训练目标为:机器学习模型基于第一训练样本预测得到的训练数据与第二训练样本的偏差符合设定阈值。

本发明实施例提供的技术方案中,可以先获取目标对象的游戏数据,其中该目标对象的游戏数据包括:该目标对象在第一时间段的游戏系统数据,从而通过游戏系统反映该目标对象在游戏系统中的表现。为分析目标对象在游戏系统中的表现以预测该目标对象是否会留存,可以调用游戏中加载的机器学习模型,并将该目标对象的游戏数据输入到该机器学习模型中,以得到该目标对象在第二时间段内是否留存的预测结果,从而,避免主观性判断带来的分析结果偏差,保证了预测结果的准确性。同时,通过向该目标对象展示与预测结果对应的游戏资源,使得留存量提升在游戏运行中即可直接实现,不仅能够直接激励玩家,提高游戏可玩性,提升玩家留存量,还能够改善相关技术中存在测试分析效率低的问题,大大提高留存量提升方案的执行效率。

附图说明

为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。

图1为本发明实施例提供的一种游戏资源展示方法的流程图;

图2为本发明实施例提供的一种游戏资源展示方法的原理示意图;

图3为本发明实施例提供的一种模型训练方法的流程图;

图4为本发明实施例提供的一种游戏资源展示装置的结构示意图;

图5为与图4所示实施例提供的游戏资源展示装置对应的电子设备的结构示意图。

具体实施方式

为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。

在本发明实施例中使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本发明。在本发明实施例和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义,“多种”一般包含至少两种。

取决于语境,如在此所使用的词语“如果”、“若”可以被解释成为“在……时”或“当……时”或“响应于确定”或“响应于检测”。类似地,取决于语境,短语“如果确定”或“如果检测(陈述的条件或事件)”可以被解释成为“当确定时”或“响应于确定”或“当检测(陈述的条件或事件)时”或“响应于检测(陈述的条件或事件)”。

还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的商品或者系统不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种商品或者系统所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的商品或者系统中还存在另外的相同要素。

另外,下述各方法实施例中的步骤时序仅为一种举例,而非严格限定。

本发明实施例提供的游戏资源展示方法可以由一电子设备来执行,该电子设备可以是诸如pc机、笔记本电脑、智能手机等终端设备,也可以是服务器。该服务器可以是包含一独立主机的物理服务器,或者也可以为主机集群承载的虚拟服务器,或者也可以为云服务器。

实际应用中,本发明实施例提供的游戏资源展示方法可以适用于任意游戏,例如,开放大世界游戏、射击游戏、卡牌游戏中的玩家留存提升场景等。

下面结合以下实施例对该游戏资源展示方法的执行过程进行说明。

目前,相关技术中,通常是由数据分析、运营、策划等相关人员对游戏测试数据进行分析,跟据分析结果提出调整方案,并将调整方案再次投入测试中,从而通过多次测试分析来提高游戏玩家的留存量,导致分析结果主观性强,准确性偏低。而且,难以甄别多种游戏测试数据对玩家留存的影响,提出的玩家留存量提升方案缺乏针对性,测试分析效率低。

为了获得良好的玩家留存量,下面结合以下实施例对本文提供的游戏资源展示方法的执行过程进行说明。

图1为本发明实施例提供的一种游戏资源展示方法的流程图,如图1所示,该方法包括如下步骤:

101、获取目标对象的游戏数据。

102、调用游戏中加载的机器学习模型,并将游戏数据输入机器学习模型,以得到目标对象在第二时间段内是否留存的预测结果。

103、向目标对象展示与预测结果对应的游戏资源。

本发明实施例中,目标对象比如是待预测的玩家或者玩家群体。

101中之所以要获取目标对象的游戏数据,是因为目标对象的游戏数据能够反映该目标对象的特征,例如玩家偏好玩法、玩家对副本的挑战意愿、玩家充值意愿,等等。在102中,调用游戏中加载的机器学习模型,并将游戏数据输入机器学习模型,以通过机器学习模型来预测目标对象的未来表现(如留存或流失),避免了主观性判断带来的分析结果偏差,保证了预测结果的准确性。进而,在103中,基于预测结果及时调整针对目标对象的游戏资源展示策略,使得机器学习模型的预测结果直接反映到游戏中,从而,在游戏中即可直接实现玩家留存量的提升。

通过上述步骤,既能够直接激励玩家,提高游戏可玩性,提升玩家留存量,又能够改善相关技术中测试分析效率低的问题,大大提高留存量提升方案的执行效率。

下面结合具体示例对各个步骤的具体实现方式进行说明。

本发明实施例中,目标对象的游戏数据(简称游戏数据)至少包括:目标对象在某一时间段内的游戏系统数据。为与下文其他时间段区分,本文中将这一时间段称为第一时间段。其中,游戏数据的编码格式可以是one-hot,或者也可以是其它类型编码,本发明并不限制。

具体来说,游戏系统数据包括但不限于以下任意一种或组合:培养系统数据、技能系统数据、武器系统数据、宠物系统数据、等级数据、战力数据、系统使用数据、副本数据、体力数据。通过游戏系统数据可以反映第一时间段内目标对象在不同游戏系统中的表现,例如,目标对象在第一时间段内所处状态(如战斗状态、休闲状态)、武器使用情况、道具使用情况、击杀表现、采集表现、宠物升级情况,等等。

当然,除了上述游戏系统数据外,目标对象的游戏数据还包括其他数据,例如,配置数据、游戏客户端数据、玩家偏好数据(比如玩家偏好登陆时段、玩家偏好地图、玩家偏好角色类型等)。通过这些数据也可从不同维度反映目标对象的个人特征,从而,便于后续基于这些个人特征来预测目标对象的未来表现。

在上述或下述实施例中,玩家的游戏数据可以是存储在游戏服务器中,也可存储于游戏客户端中,还可存储运行各种游戏系统的云服务器中。上述存储设备仅为示例,本发明实施例中并不限定。

可选地,从不同存储设备中分别获取不同类型的游戏数据。例如,从游戏登录系统中获取玩家登录数据,从游戏武器系统中获取武器使用数据。当然,也可以将不同类型的游戏数据存储至同一存储设备中,便于从同一存储设备中提取到更多类新的玩家游戏数据。

以游戏服务器为例,101中,可以按照预设策略获取目标对象的游戏数据。例如,从游戏服务器中周期性获取目标对象的游戏数据。例如,若目标对象登录天数达到设定天数阈值,则从游戏服务器中实时获取目标对象的游戏数据流。当然,除了上述示例外,还可采用其他方式获取目标对象的游戏数据,本发明实施例并不限定。

进而,101中获取目标对象的游戏数据后,102中,为提前判断目标对象在待预测时间段内在游戏中留存的可能性,可采用机器学习模型基于游戏数据进行预测。

值得说明的是,用于实现102的机器学习模型,可以是回归模型,也可以是多层神经网络模型,还可以是其他模型,本发明并不限制。为与上文第一时间段进行区分,这一待预测的时间段称为第二时间段。

具体而言,102中,调用游戏中加载的机器学习模型,并将游戏数据输入机器学习模型,以得到目标对象在第二时间段内是否留存的预测结果,从而,避免主观性判断带来的分析结果偏差,保证模型预测结果的准确性。

例如,102中,调用游戏中加载的机器学习模型,并将目标对象的游戏数据输入机器学习模型。从而,通过机器学习模型对游戏数据进行特征提取,基于提取出的数据特征来预测目标对象在第二时间段内是否会留存,并输出最终的预测结果。

可选地,102之前,建立机器学习模型与游戏系统的数据传输接口,以在游戏中加载机器学习模型。例如,假设游戏为开放大世界游戏,可以建立游戏区域与机器学习模型的关联关系,并建立相应游戏系统与该机器学习模型的数据传输接口,以在该游戏区域中加载该机器学习模型。基于此,如果检测到目标对象进入该游戏区域,则触发该机器学习模型通过数据传输接口来获取该目标对象的游戏数据。

再例如,建立游戏登录系统与机器学习模型的关联关系,并建立相应游戏系统与该机器学习模型的数据传输接口,从而,在游戏中加载该机器学习模型。基于此,如果游戏登录系统检测到目标对象进入该游戏,则触发机器学习模型通过数据传输接口来获取该目标对象的游戏数据。

除了上述示例外,还可采用其他方式触发机器学习模型。对机器学习模型的触发过程将在后续实施例中进行详细说明,此处暂不展开。

实际应用中,第一时间段和第二时间段可以是根据机器学习模型的模型目标设置的。

值得说明的是,模型目标可以是玩家在某一时间段的留存概率。为与上文的第一时间段进行区分,本文中将这一时间段称为第二时间段。其中一个示例中,第一时间段早于第二时间段,例如,假设玩家第一次登陆的日期称为第一日,玩家第一次登录日期的后一天称为第二日,玩家第一次登录日期的后两天称为第三日,以此类推。基于上述假设,如果需要获取的模型目标是第四至七日(即第二时间段)的玩家留存概率,此情况下,第一时间段可以设置为第一至第二日。

另一示例中,第一时间段与第二时间段存在部分重叠,例如,仍假设玩家第一次登陆的日期称为第一日,玩家第一次登录日期的后一天称为第二日,以此类推。基于上述假设,若需要获取的模型目标是第四至八日(即第二时间段)的玩家留存概率,此情况下,对于第四日的预测过程而言,第一时间段可以设置为第一至第二日,对于第五日的预测过程而言,第一时间段可以设置为第一至第三日,对于第六日的预测过程而言,第一时间段可以设置为第一至第四日,以此类推。通过动态调整第一时间段的范围,有助于提高机器学习模型的准确性,进一步提升玩家留存量。

当然,除了上述玩家在第二时间段的留存概率外,模型目标还可以设置为玩家流失概率,或者玩家留存并达到某一级别的概率,还可以是玩家留存并获取某一宠物的概率。模型目标还可以是二分类预测结果,如是否留存、是否流失。这些模型目标均为示例,本发明并不限制。

另外,对机器学习模型的训练过程将在后续实施例中进行说明,此处暂不展开。

进而,机器学习模型输出预测结果之后,103中,向目标对象展示与该预测结果对应的游戏资源。这一步骤中,基于机器学习模型的预测结果,及时调整针对目标对象的游戏资源展示策略,使得预测结果能够直接反映到游戏中,从而,在游戏中即可直接实现玩家留存量的提升。

实际应用中,103中,响应于机器学习模型的预测结果,实时向目标对象展示与该预测结果对应的游戏资源。从而,加速模型预测结果的反馈效率,进一步提升游戏体验。

本发明实施例中,与预测结果对应的游戏资源包括但不限于以下任意一种或组合:随机任务、彩蛋效果、道具、武器、宠物、特定活动玩法。随机任务例如是道具获取任务、副本任务、随机关卡任务。特定活动玩法可根据当前时间(如春节、七夕等)或者玩家位置(如玩家所处地块、玩家所处地形区域)设置。

之所以向玩家展示与预测结果对应的游戏资源,实际上,是为了通过游戏资源直接激励目标对象,或者为目标对象提供更多玩法或任务,使预测结果可以直观反馈到游戏中,从而实现了一种全新的玩家留存激励方式。

在一可选实施例中,向目标对象展示与预测结果对应的游戏资源,可以实现为:

判断预测结果是否符合预先设定的留存条件,其中,留存条件比如是留存概率高于留存概率阈值,或者流失概率低于流失概率阈值。当然,留存条件还可根据其他类型的预测结果设置,本发明不作限定。

进而,若预测结果符合预先设定的留存条件,则说明目标对象在第二时间段内留存的可能性较高,无需提前干预目标对象的游戏体验。

若预测结果不符合预先设定的留存条件,则说明目标对象在第二时间段内留存的可能性较低,为提升目标对象的留存可能性,需要调整向目标对象展示的游戏资源,以便提升目标对象的留存意愿。

例如,假设机器学习模型输出的预测结果是目标对象在第四日的留存概率,假设目标对象在第四日的留存概率为50%。假设目标对象留存概率阈值为70%。基于上述假设,由于目标对象在第四日的留存概率低于目标对象留存概率阈值,因此,需要预先干预目标对象的游戏体验,以提高目标对象的留存概率。

其中一个可选实施例中,若预测结果不符合预先设定的留存条件,则从多个游戏资源所属游戏系统中,选取出对预测结果的影响程度符合设定条件的游戏系统,并从选取出的游戏系统中获取待展示的游戏资源。

继续上文示例,假设武器系统数据(比如武器升级速度)对预测结果的影响程度高于其他游戏系统数据。假设设定条件为对预测结果的影响程度最高的游戏系统。

基于上述假设,由于武器系统数据(比如武器升级速度)对预测结果的影响程度高于其他游戏系统数据,因此,从多个游戏资源所属游戏系统中,选取出对预测结果的影响程度符合设定条件的武器系统,并从选取出的武器系统中获取与武器升级速度关联的武器升级包作为待展示的游戏资源。这样,目标对象获取武器升级包后可提高武器升级速度,从而,显然可以大大提升该目标对象的游戏体验,提升该目标对象在第四日的留存概率。

当然,除了上文介绍的游戏资源获取方式外,还可通过其他方式获取游戏资源,本发明并不限定。具体游戏资源获取方式见下文实施例。

通过101至103,可以先获取目标对象的游戏数据,其中该目标对象的游戏数据包括:该目标对象在第一时间段的游戏系统数据,从而通过游戏系统反映该目标对象在游戏系统中的表现。为分析目标对象在游戏系统中的表现以预测该目标对象是否会留存,可以调用游戏中加载的机器学习模型,并将该目标对象的游戏数据输入到该机器学习模型中,以得到该目标对象在第二时间段内是否留存的预测结果,从而,避免主观性判断带来的分析结果偏差,保证了预测结果的准确性。同时,通过向该目标对象展示与预测结果对应的游戏资源,使得留存量提升在游戏运行中即可直接实现,不仅能够直接激励玩家,提高游戏可玩性,提升玩家留存量,还能够改善相关技术中存在测试分析效率低的问题,大大提高留存量提升方案的执行效率。

在上述或下述实施例中,值得说明的是,根据游戏数据所属游戏系统对预测结果的影响程度,从游戏系统中选取与预测结果对应的游戏资源。

可选地,103中,向目标对象展示与预测结果对应的游戏资源,可以具体实现为:计算游戏数据与预测结果的相关性;确定游戏数据中相关性满足预设条件的目标游戏数据,并向目标对象展示与目标游戏数据对应的游戏资源。

上述步骤中,相关性计算的方法很多。其中一种相关性计算方法为,将游戏系统数据输入回归模型,以计算得到游戏系统数据与预测结果的相关性。

例如,假设游戏中加载有游戏系统a、b、c,基于此,可将游戏系统a、b、c各自的游戏系统数据输入到回归模型中,计算得到游戏系统a、b、c各自与预测结果的相关性。进而,假设游戏系统与预测结果的相关性从高到低分别为游戏系统a、b、c。基于此,如果预设条件为以相干性最高的游戏系统作为目标游戏系统,那么,可以选取游戏系统a作为目标游戏系统,从而,向目标对象展示游戏系统a中的游戏资源。或者,若设定条件为基于相关性确定向目标对象推送游戏资源的比例,那么,根据相关性从高到低的顺序,确定各个游戏系统中待推送的游戏资源的数量,并从游戏系统a、b、c中选取确定数量的游戏资源,推送给目标对象。

当然,除了上文介绍的实现方式外,103的实现方式还有多种,例如,还可采用归因法来确定游戏数据对预测结果的影响程度,从游戏数据所属游戏系统中选取与预测结果对应的游戏资源。

在上述或下述实施例中,101中获取目标对象的游戏数据之前,在游戏系统中配置用于触发机器学习模型的触发条件,从而通过触发条件可以筛选机器学习模型的分析对象,并及时启动适配该玩家的机器学习模型。

基于上述设置,101中,获取目标对象的游戏数据,还可以实现为:

确定目标对象在游戏系统中的行为,判断目标对象的行为是否符合机器学习模型的触发条件,若目标对象的行为符合触发条件,则触发获取目标对象的游戏数据。

仍以游戏服务器为例,假设机器学习模型a的触发条件为目标对象登录游戏,基于此,实时监控游戏登录系统中的玩家标识,如果监控到目标对象的玩家标识,那么可以确定目标对象登录该游戏。从而,可以判定目标对象的行为符合机器学习模型a的触发条件,此情况下,可以触发从游戏服务器中获取目标对象的游戏数据,以便将目标对象的游戏数据输入机器学习模型a。

除了上述示例中的触发条件外,机器学习模型的触发条件还包括以下任意一个或组合:目标对象进入预先配置的游戏关卡、副本或游戏区域;目标对象登录时长超过设定时长阈值;目标对象所处级别高于设定级别阈值。例如,机器学习模型b的触发条件可以是目标对象登录3天并达到40级。

实际上,为进一步提升玩家留存,提高模型预测准确性,可在游戏中加载多个机器学习模型,并在游戏系统中配置多个机器学习模型各自的触发条件,从而,使得不同玩家能够触发更适合各自情况的机器学习模型,提高模型预测准确性,进一步扩大机器学习模型的适用范围,提高游戏资源的针对性。

简单来说,就是针对处于不同情况下的玩家,采用不同机器学习模型进行留存结果的预测,使得机器学习模型的预测结果更具有针对性,大大提高留存预测的准确度。并且,使得更多玩家被纳入模型分析范围中,扩大机器学习模型的适用范围,进一步提升玩家留存量。

例如,假设游戏中加载有三个机器学习模型,分别为机器学习模型d、e、f。假设机器学习模型d的触发条件为目标对象登录游戏。假设机器学习模型e的触发条件为目标对象进入预先配置的游戏地块1。假设机器学习模型f的触发条件为目标对象达到5级并进入预先配置的游戏地块2。假设目标对象为玩家i。

基于上述假设,若检测到玩家i登录游戏并出现在初始登录点,则触发机器学习模型d,从而,将游戏数据输入机器学习模型d中,以得到机器学习模型d输出的预测结果d,并基于预测结果d展示对应的游戏资源d’。

参见图2所示,若检测到玩家i从初始登录点移动到游戏地块1,触发机器学习模型e,从而,将游戏数据输入机器学习模型e中,以得到机器学习模型e输出的预测结果e,并基于预测结果e展示对应的游戏资源e’。

若检测到玩家i从游戏地块1移动到游戏地块2,则判断玩家i的等级是否达到5级。如果达到,则触发机器学习模型f,从而,将游戏数据输入机器学习模型f中,以得到机器学习模型f输出的预测结果f,并基于预测结果f展示对应的游戏资源f’。如果未达到,则确定不触发机器学习模型f。

值得说明的是,游戏中加载的机器学习模型的模型目标可以相同,也可以不同。例如,游戏中,机器学习模型1的模型目标可以是玩家次日留存的概率,另一机器学习模型2的模型目标可以是玩家7天后留存并达到x级的概率,从而,通过多个机器学习模型达到不同的留存目标。当然,也可以采用多个机器学习模型对同一模型目标进行预测,以从不同角度去共同提升玩家留存案量。

另外,在上述或下述实施例中,针对不同玩家触发不同机器学习模型。例如,若多个玩家达到同一游戏地块后,针对不同等级的玩家,分别触发不同机器学习模型,以提高对玩家留存量的预测准确性。

在上述或下述实施例中,为进一步提高对玩家留存量的预测准确性,可选地,假设游戏中加载有多个机器学习模型和轮询模块,此情况下,102中,调用游戏中加载的机器学习模型,并将游戏数据输入机器学习模型,以得到目标对象在第二时间段内是否留存的预测结果,可以实现为:

采用轮询模块,分别调用多个机器学习模型中与目标对象匹配的机器学习模型;将游戏数据输入与目标对象匹配的机器学习模型,以获得与目标对象匹配的机器学习模型输出的对目标对象在第二时间段内是否留存的预测结果。

具体而言,假设目标对象为多个玩家,即玩家a、b、c。假设多个机器学习模型分别为m1、m2、m3、m4。基于上述假设,游戏客户端确定各个玩家匹配的机器学习模型,采用轮询模块分别为各个玩家调用各自匹配的机器学习模型。

进而,基于上文假设,进一步假设玩家a匹配的机器学习模型为m1、m2,玩家b匹配的机器学习模型为m1、m3,玩家c匹配的机器学习模型为m1、m2、m3、m4。

基于上述假设,通过轮询模块将玩家a、b、c游戏数据分别输入与各自匹配的机器学习模型,以获得机器学习模型m1、m2、m3、m4各自输出的对上述玩家在第二时间段内是否留存的预测结果。

值得说明的是,多个机器学习模型分别基于不同留存分析维度设置。实际场景中,不同留存分析维度包括但不限于:各个游戏系统、登陆行为、交互行为、在线时长、充值频率、充值额度、各种任务参与频率(如关键性任务、打卡任务、各种地图中的任务的参与频率等)。

进而,如果与目标对象匹配的机器学习模型有多个,则103中向目标对象展示与预测结果对应的游戏资源,可以实现为:

计算各个机器学习模型输出的预测结果与游戏数据的相关性;确定游戏数据中相关性满足预设条件的目标游戏数据,并向目标对象展示与目标游戏数据对应的游戏资源。

在一个可选示例中,预设条件比如是游戏数据中与留存概率最相关的游戏数据,那么,基于此条件可以通过多个机器学习模型从多维度分析游戏数据与留存结果的相关性,从而,以相关性最高的游戏数据来确定最终向用户展示的游戏资源。

另一示例中,继续上文示例的假设,以玩家c为例,玩家c匹配的机器学习模型为m1、m2、m3、m4。假设机器学习模型m1、m2、m3、m4各自输出玩家c的留存概率为60%、70%、45%、90%。假设预设条件是与留存概率最高的预测结果相关的游戏数据。

基于上述假设,从机器学习模型m1、m2、m3、m4的预测结果中,选取留存概率最高的预测结果,即机器学习模型m4的预测结果。假设机器学习模型m4是针对宠物系统设置的,基于此,可以将与机器学习模型m4的预测结果相关的宠物系统数据作为目标游戏数据,并向目标对象展示与宠物系统数据对应的游戏资源。例如,宠物培养道具、宠物皮肤、新宠物、宠物技能提升道具。

当然,与上文的预设条件类似,此处的预设条件可根据实际应用场景设置,本发明实施例中并不限定。预设条件的设置目的是为各个玩家选取更有针对性的留存方案,从而为各个玩家展示更具针对性的游戏资源。

图3为本发明实施例提供的一种模型训练方法的流程图,在前述方法实施例的基础上,机器学习模型的训练过程可以包括如下步骤:

301、确定待预测的目标留存时间。

302、获取目标留存时间前的第一时间段内的第一训练样本以及目标留存时间内的第二训练样本。

303、根据第一训练样本和第二训练样本,训练用于加载到游戏中的机器学习模型。

其中,机器学习模型的训练目标为:机器学习模型基于第一训练样本预测得到的训练数据与第二训练样本的偏差符合设定阈值。

实际应用中,设定阈值可根据具体应用场景进行调整。例如,采用1.5万左右的玩家游戏数据做机器学习模型的训练集,6千左右的玩家游戏数据做机器学习模型的测试集,模型评估指标如受试者工作特征曲线(receiveroperatingcharacteristic,roc)下与坐标轴围成的面积(areaundercurve,auc)设置为80%,以获取更好的随机性。

与上文介绍类似,机器学习模型可以是回归模型,也可以是多层神经网络模型,还可以是其他模型,本发明并不限制。机器学习模型在游戏中的工作原理可以参见前述实施例中的描述,在此不赘述。

实际上,待预测的目标留存时间与上文介绍的第二时间段类似,相似之处可参见上文,此处不再展开。

其中,第一训练样本包括但不限于以下任意一种或组合:培养系统数据、技能系统数据、武器系统数据、宠物系统数据、等级数据、战力数据、系统使用数据、副本数据、体力数据。第一训练样本所包括的游戏系统数据与上文介绍的游戏系统数据类似,此处不在赘述。

第二训练样本至少包括:样本玩家在目标留存时间内是否留存的样本数据。

另外,在实际应用中,上述模型训练过程可以在服务器中进行,需要使用训练得到的机器学习模型的终端设备可以将该机器学习模型下载到本地,从而,可以在终端设备侧使用该机器学习模型。

可选地,若加载到游戏中的机器学习模型有多个,则设置与多个机器学习模型相连的轮询模块;通过轮询模块调用第一训练样本和第二训练样本,以训练多个机器学习模型。

以下将详细描述本发明的一个或多个实施例的游戏资源展示装置。本领域技术人员可以理解,这些游戏资源展示装置均可使用市售的硬件组件通过本方案所教导的步骤进行配置来构成。

图4为本发明实施例提供的一种游戏资源展示装置的结构示意图,如图4所示,该游戏资源展示装置包括:获取模块11、预测模块12、展示模块13。

获取模块11,用于获取目标对象的游戏数据,游戏数据包括目标对象在第一时间段的游戏系统数据;

预测模块12,用于调用游戏中加载的机器学习模型,将游戏数据输入机器学习模型,以得到对目标对象在第二时间段内是否留存的预测结果;

展示模块13,用于响应于机器学习模型输出的预测结果,向目标对象展示与预测结果对应的游戏资源。

可选地,展示模块13向目标对象展示与预测结果对应的游戏资源时,具体用于:计算游戏数据与预测结果的相关性;确定游戏数据中相关性满足预设条件的目标游戏数据,并向目标对象展示与目标游戏数据对应的游戏资源。

其中,可选地,展示模块13计算游戏数据与预测结果的相关性时,具体用于:将游戏系统数据输入回归模型,以计算得到游戏系统数据与预测结果的相关性。

其中,游戏系统数据包括以下任意一种或组合:培养系统数据、技能系统数据、武器系统数据、宠物系统数据、等级数据、战力数据、系统使用数据、副本数据、体力数据。

可选地,装置还包括:配置模块,用于在获取模块11获取目标对象的游戏数据之前,在游戏系统中配置用于触发机器学习模型的触发条件。

其中,可选地,获取模块11获取目标对象的游戏数据时,具体用于:

确定目标对象在游戏系统中的行为;判断目标对象的行为是否符合机器学习模型的触发条件;若目标对象的行为符合触发条件,则触发获取目标对象的游戏数据。

其中,可选地,触发条件包括以下任意一个或组合:

目标对象登陆游戏;

目标对象进入预先配置的游戏关卡、副本或游戏区域;

目标对象登录时长超过设定时长阈值;

目标对象所处级别高于设定级别阈值。

可选地,游戏中加载有多个机器学习模型和轮询模块。

所述预测模块12中还设置有轮询模块,该轮询模块一端与目标对象相连,另一端与多个机器学习模型相连。

预测模块12调用游戏中加载的机器学习模型,将游戏数据输入机器学习模型,以得到对目标对象在第二时间段内是否留存的预测结果时,具体用于:

通过所述轮询模块,分别调用多个机器学习模型中与目标对象匹配的机器学习模型;通过所述轮询模块,将游戏数据输入与目标对象匹配的机器学习模型,以获得与目标对象匹配的机器学习模型输出的对目标对象在第二时间段内是否留存的预测结果。

其中,可选地,若与目标对象匹配的机器学习模型有多个,则展示模块13向目标对象展示与预测结果对应的游戏资源时,具体用于:

计算各个机器学习模型输出的预测结果与游戏数据的相关性;确定游戏数据中相关性满足预设条件的目标游戏数据,并向目标对象展示与目标游戏数据对应的游戏资源。

可选地,游戏资源包括以下任意一种或组合:随机任务、彩蛋效果、道具、武器、宠物、特定活动玩法。

图4所示游戏资源展示装置可以执行前述各实施例中提供的方法,本实施例未详细描述的部分,可参考前述实施例的相关说明,在此不再赘述。

在一个可能的设计中,上述图4所示的游戏资源展示装置的结构可实现为一电子设备。如图5所示,该电子设备可以包括:处理器21、存储器22。其中,存储器22上存储有可执行代码,当可执行代码被处理器21执行时,至少使处理器21可以实现如前述实施例中提供的游戏资源展示方法。

其中,该电子设备的结构中还可以包括通信接口23,用于与其他设备或通信网络通信。

另外,本发明实施例提供了一种非暂时性机器可读存储介质,所述非暂时性机器可读存储介质上存储有可执行代码,当所述可执行代码被电子设备的处理器执行时,使所述处理器执行前述各实施例中提供的游戏资源展示方法。

以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的各个模块可以是或者也可以不是物理上分开的。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。

通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助加必需的通用硬件平台的方式来实现,当然也可以通过硬件和软件结合的方式来实现。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以计算机产品的形式体现出来,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、cd-rom、光学存储器等)上实施的计算机程序产品的形式。

最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献

  • 日榜
  • 周榜
  • 月榜