一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

基于确定效应的感知用户长期参与率提高方法及系统

2022-07-13 22:16:49 来源:中国专利 TAG:


1.本公开实施例涉及计算技术领域,尤其涉及一种基于确定效应的感知用户长期参与率提高方法及系统。


背景技术:

2.群智感知是一种结合了众包思想和移动设备感知能力的新型数据获取模式,它是物联网的一种表现形式。在群智感知中,人们通过自己已有的移动设备(例如智能手机、个人电脑、平板电脑等)形成交互式的、参与式的网络。相比于一般的静态数据收集方式,群智感知可以充分利用无处不在的智能设备以及无线网络基础设施来收集、分析数据。
3.许多群智感知应用都需要参与者持续、多次地参与任务且不退出,并且单次任务本身的持续时间也较长。例如在一些大型的群智感知项目例如噪音级别监测项目、健康服务类项目中,为了获取更加准确的数据信息,需要参与者长期稳定地提供数据,并且需要保证每次感知的持续时间。然而,由于参与者在感知过程中需要消耗自身资源或存在其它的局限性,例如设备电量或流量不足、网络情况不稳定、在感知过程中需要移动出任务区域等,参与者在自然情况下可能不愿意长期、多次地参与某一项任务。在某项长期任务中,如果由于部分参与者的中途退出导致数据在连续时间上出现中断,就可能会使得此任务前期收集的数据失效,产生不必要的资源浪费,设计一种提高参与者保留率,让参与者持续参与感知的方法、机制、系统非常必要
4.现有的方法大多都通过引入虚拟积分的概念或者是引入信念值以及声誉值来提高参与者的长期参与率,减少其退出。然而这些方法存在以下两个主要问题。
5.首先,大多数没有考虑获利概率对参与者预期效用的影响,有些即使考虑了获利概率的影响也没有考虑确定效应低估大概率的作用。然而确定效应揭示,人们在评估概率时往往会赋予“确定结果”更大的权重,赋予“不确定结果”较小的权重,即会低估大概率事件。并且,同一个参与者对同一概率的低估程度并不是不变的,而是会被先前的获利结果影响。因此,更大或更小的获利概率并不意味着更好或更坏的期望效用,则基于传统的期望效用理论构建的机制会出现不符合实际的参与者感知体验。
6.其次,这些机制大多只考虑了参与者的绝对收益。然而行为决策理论中的预期后悔理论揭示,决策者在决策时会考虑未来的潜在损失,当个体认识到如果事先采取其他行为,行为的结果可能更好时,预期后悔就会产生,并且在决策前会将其纳入考量在本发明中用损失来量化。
7.综上所述,亟需一种更有效的激励参与者长期执行群智感知任务的方法来解决上述问题。


技术实现要素:

8.有鉴于此,本公开实施例提供一种基于确定效应的感知用户长期参与率提高方法及系统,至少部分解决现有技术中存在激励效果、平台效用和长期参与率较差的问题。
9.第一方面,本公开实施例提供了一种基于确定效应的感知用户长期参与率提高方法,包括:
10.步骤1,依据所有请求者提交的待完成任务及其所需要的预计完成时长,将全部待完成任务分为长时任务和短时任务;
11.步骤2,根据确定效应设计报酬方案;
12.步骤3,获取任务发布后参与者选择执行的任务类型和任务执行信息,平台依据任务选择算法选择出获胜者,并将任务与参与者进行匹配;
13.步骤4,获取参与者完成任务后提交的任务数据,选择短时任务的参与者更新其风险系数;
14.步骤5,在每一轮任务完成后判断参与者得累积参与任务时长是否达到了累计参与时间阈值,对于未达到的累积参与时间阈值的参与者不作处理,对于达到累积参与时间阈值的参与者,发放额外奖金并清空其累积参与时间;
15.步骤6,在每一轮结束后更新每一个参与者的损失值大小、新进入参与者的额外奖金额大小、所有参与者的损失系数和所有参与者的累积参与时间;
16.步骤7,根据参与者的损失值大小、新进入参与者的额外奖金额大小、所有参与者的损失系数和所有参与者的累积参与时间计算每个参与者的退出收益存量,并根据退出收益存量计算每个参与者的继续参与概率。
17.根据本公开实施例的一种具体实现方式,所述步骤1进一步包括:
18.针对请求者提交的任务集中的所有任务,首先求出所有任务的平均完成所需单位时间数:
[0019][0020]
其中,numj为任务集γ中的任务总数,|γj|为完成任务γj所需的单位时间数。
[0021]
对于任务集γ中的每一个任务γj,如果|γj|>avg,则将任务划分到长时任务区γ
long
中,即γj∈γ
long
,如果|γj|≤avg,则将任务划分到短时任务区γ
short
中,即γj∈γ
short

[0022]
根据本公开实施例的一种具体实现方式,所述步骤2具体包括:
[0023]
令单位时间报酬为oj,则对于一个需要t个单位时间才能完成的任务,总报酬即为t
·
oj,对于每个参与者,平台给定一定数量的任务对供参与者进行选择,每个任务对中包含了一个长时任务和一个短时任务;
[0024]
对于一个任务对中的长时任务和短时任务,报酬方案包括:
[0025]
rpce报酬方案:
[0026]
paymenta:对于任务对中属于长时任务区的任务γj∈γ
long
,设置单位时间报酬为且此报酬可以100%拿到;
[0027]
paymentb:对于任务对中属于短时任务区的任务γj∈γ
short
,设置单位时间报酬

[0028]
其中,ci为基础的成本补偿报酬,当参与者完成任务提交数据后得到,和为增值报酬,pj为paymentb报酬方案中得到增值报酬的概率。
[0029]
根据本公开实施例的一种具体实现方式,选择paymentb方案的参与者的增值报酬概率pj为
[0030][0031]
其中,tj为参与者本轮所选任务的感知时长,{|γ|}表示所有任务的感知时长的集合,αj为概率控制因子,用于控制获利概率的衰减速度。
[0032]
根据本公开实施例的一种具体实现方式,增值报酬和的设置为
[0033][0034][0035]
其中,为确定报酬因子,且为确定报酬因子,且为本系统设定的风险系数阈值,用于区别不同个体对概率的低估程度,且
[0036]
根据本公开实施例的一种具体实现方式,所述参与者wi的退出收益存量定义如下:
[0037]
[0038]
其中,为参与者wi选择paymenta方案阶段的总收入,为参与者wi选择paymentb方案阶段的总收入,为参与者的累积参与时长,当时,表示参与者的累积参与时间达到奖励时间阈值时,参与者可提现额外奖励并获得额外奖励的效用,当时,如果此时退出则会失去额外报酬并降低其效用,其中,所述效用为退出收益存量公式中的损失值函数u
i,regret
(x)。
[0039]
根据本公开实施例的一种具体实现方式,所述损失值函数为:
[0040][0041]
其中,损失函数r(x)为:其中λ为损失系数,且λ>1,x为预期最大收益与当前收益的差值,λ越大表示在同等x的情况下损失值越大;
[0042]
损失系数的定义如下:
[0043][0044]
其中,为参与者wi从第s轮开始参与任务来到第t轮的累积参与任务的时间。
[0045]
根据本公开实施例的一种具体实现方式,所述继续参与概率的表达式为
[0046][0047]
其中w
on
表示参与者选择继续参与感知任务,w
off
表示参与者选择退出感知任务,ri(w
on
)表示参与者wi对选择w
on
预测的估值,ri(w
off
)为参与者wi对选择w
off
预测的估值,表示参与者wi在本模型中对ri(w
on
)和ri(w
off
)之间的差异的敏感度,且越大表示参与者对ri(w
on
)和ri(w
off
)之间的差异越敏感,ri(w
on
)和ri(w
off
)的表达式如下:
[0048]
[0049][0050]
第二方面,本公开实施例提供了一种基于确定效应的感知用户长期参与率提高系统,包括:
[0051]
分类模块,用于依据所有请求者提交的待完成任务及其所需要的预计完成时长,将全部待完成任务分为长时任务和短时任务;
[0052]
设计模块,用于根据确定效应设计报酬方案;
[0053]
匹配模块,用于获取任务发布后参与者选择执行的任务类型和任务执行信息,平台依据任务选择算法选择出获胜者,并将任务与参与者进行匹配;
[0054]
第一更新模块,用于获取参与者完成任务后提交的任务数据,选择短时任务的参与者更新其风险系数;
[0055]
判断模块,用于在每一轮任务完成后判断参与者得累积参与任务时长是否达到了累计参与时间阈值,对于未达到的累积参与时间阈值的参与者不作处理,对于达到累积参与时间阈值的参与者,发放额外奖金并清空其累积参与时间;
[0056]
第二更新模块,用于在每一轮结束后更新每一个参与者的损失值大小、新进入参与者的额外奖金额大小、所有参与者的损失系数和所有参与者的累积参与时间;
[0057]
计算模块,用于根据参与者的损失值大小、新进入参与者的额外奖金额大小、所有参与者的损失系数和所有参与者的累积参与时间计算每个参与者的退出收益存量,并根据退出收益存量计算每个参与者的继续参与概率。
[0058]
本公开实施例中的基于确定效应的感知用户长期参与率提高方案,包括:步骤1,依据所有请求者提交的待完成任务及其所需要的预计完成时长,将全部待完成任务分为长时任务和短时任务;步骤2,根据确定效应设计报酬方案;步骤3,获取任务发布后参与者选择执行的任务类型和任务执行信息,平台依据任务选择算法选择出获胜者,并将任务与参与者进行匹配;步骤4,获取参与者完成任务后提交的任务数据,选择短时任务的参与者更新其风险系数;步骤5,在每一轮任务完成后判断参与者得累积参与任务时长是否达到了累计参与时间阈值,对于未达到的累积参与时间阈值的参与者不作处理,对于达到累积参与时间阈值的参与者,发放额外奖金并清空其累积参与时间;步骤6,在每一轮结束后更新每一个参与者的损失值大小、新进入参与者的额外奖金额大小、所有参与者的损失系数和所有参与者的累积参与时间;步骤7,根据参与者的损失值大小、新进入参与者的额外奖金额大小、所有参与者的损失系数和所有参与者的累积参与时间计算每个参与者的退出收益存量,并根据退出收益存量计算每个参与者的继续参与概率。
[0059]
本公开实施例的有益效果为:通过本公开的方案,考虑了确定效应对参与者的激励作用,建立了能够影响群智感知参与者行为决策的任务发布环境,通过制订任务报酬支付方案和退出收益存量有指向性地引导群智感知任务参与者决策;通过设置确定和风险报酬选项,提高了目标任务的被选择概率;在此基础上引入概率权重函数,反应参与者的真实决策行为,由于确定报酬选项的存在,降低了参与者对风险概率的权重估值,提高了确定报
酬项的选择比例;同时通过设置延时的额外奖金并引入损失系数,结合退出收益存量的设定,使累积参与时间未达标的参与者留在平台中持续参与。相比于对比的机制,本方案在可控甚至更低的任务报酬下使尽可能多的参与者长期留在平台中,提高了平台效用和长期参与率。
附图说明
[0060]
为了更清楚地说明本公开实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
[0061]
图1为本公开实施例提供的一种基于确定效应的感知用户长期参与率提高方法的流程示意图;
[0062]
图2为本公开实施例提供的概率权重函数的示意图;
[0063]
图3为本公开实施例提供的一种总体流程框架的示意图;
[0064]
图4为本公开实施例提供的一种相同数据下使用本发明实施例与现有的具有代表性的方法,平台效用性能比较曲线示意图;
[0065]
图5为本公开实施例提供的一种相同数据下使用本发明实施例与现有的具有代表性的方法,长期参与率比较图;
[0066]
图6为本公开实施例提供的一种基于确定效应的感知用户长期参与率提高系统的结构示意图。
具体实施方式
[0067]
下面结合附图对本公开实施例进行详细描述。
[0068]
以下通过特定的具体实例说明本公开的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本公开的其他优点与功效。显然,所描述的实施例仅仅是本公开一部分实施例,而不是全部的实施例。本公开还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本公开的精神下进行各种修饰或改变。需说明的是,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。基于本公开中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本公开保护的范围。
[0069]
需要说明的是,下文描述在所附权利要求书的范围内的实施例的各种方面。应显而易见,本文中所描述的方面可体现于广泛多种形式中,且本文中所描述的任何特定结构及/或功能仅为说明性的。基于本公开,所属领域的技术人员应了解,本文中所描述的一个方面可与任何其它方面独立地实施,且可以各种方式组合这些方面中的两者或两者以上。举例来说,可使用本文中所阐述的任何数目个方面来实施设备及/或实践方法。另外,可使用除了本文中所阐述的方面中的一或多者之外的其它结构及/或功能性实施此设备及/或实践此方法。
[0070]
还需要说明的是,以下实施例中所提供的图示仅以示意方式说明本公开的基本构想,图式中仅显示与本公开中有关的组件而非按照实际实施时的组件数目、形状及尺寸绘制,其实际实施时各组件的型态、数量及比例可为一种随意的改变,且其组件布局型态也可
能更为复杂。
[0071]
另外,在以下描述中,提供具体细节是为了便于透彻理解实例。然而,所属领域的技术人员将理解,可在没有这些特定细节的情况下实践所述方面。
[0072]
本公开实施例提供一种基于确定效应的感知用户长期参与率提高方法,所述方法可以应用于群智感知场景中的用户参与率计算与激励过程中。
[0073]
参见图1,为本公开实施例提供的一种基于确定效应的感知用户长期参与率提高方法的流程示意图。如图1所示,所述方法主要包括以下步骤:
[0074]
步骤1,依据所有请求者提交的待完成任务及其所需要的预计完成时长,将全部待完成任务分为长时任务和短时任务;
[0075]
可选的,所述步骤1进一步包括:
[0076]
针对请求者提交的任务集中的所有任务,首先求出所有任务的平均完成所需单位时间数:
[0077][0078]
其中,numj为任务集γ中的任务总数,|γj|为完成任务γj所需的单位时间数。
[0079]
对于任务集γ中的每一个任务γj,如果|γj|>avg,则将任务划分到长时任务区γ
long
中,即γj∈γ
long
,如果|γj|≤avg,则将任务划分到短时任务区γ
short
中,即γj∈γ
short

[0080]
具体实施时,可以构建群智感知系统环境,并根据任务信息进行任务分类。假设环境中共有numi个参与者(numi≥2),numj个请求者(numj≥2),任务集合γ={τ1,τ2,...,τ
numj
},对应γ中每个任务τj∈γ(j∈[1,numj])的预计报酬是oj,参与者的预计成本是ci。
[0081]
基于任务完成所需时长对任务进行分类:
[0082]
针对任务集中的所有任务,首先求出所有任务的平均完成所需单位时间数:
[0083][0084]
其中,numj为任务集γ中的任务总数,|γj|为完成任务γj所需的单位时间数。
[0085]
对于任务集γ中的每一个任务γj,如果|τj|>avg,则将任务划分到长时任务区γ
long
中,即τj∈γ
long
,如果|τj|≤avg,则将任务划分到短时任务区γ
short
中,即τj∈γ
short

[0086]
步骤2,根据确定效应设计报酬方案;
[0087]
进一步的,所述步骤2具体包括:
[0088]
令单位时间报酬为oj,则对于一个需要t个单位时间才能完成的任务,总报酬即为t
·
oj,对于每个参与者,平台给定一定数量的任务对供参与者进行选择,每个任务对中包含了一个长时任务和一个短时任务;
[0089]
对于一个任务对中的长时任务和短时任务,报酬方案包括:
[0090]
rpce报酬方案:
[0091]
paymenta:对于任务对中属于长时任务区的任务γj∈γ
long
,设置单位时间报酬为
且此报酬可以100%拿到;
[0092]
paymentb:对于任务对中属于短时任务区的任务γj∈γ
short
,设置单位时间报酬为
[0093]
其中,ci为基础的成本补偿报酬,当参与者完成任务提交数据后得到,和为增值报酬,pj为paymentb报酬方案中得到增值报酬的概率。
[0094]
可选的,选择paymentb方案的参与者的增值报酬概率pj为
[0095][0096]
其中,tj为参与者本轮所选任务的感知时长,{|γ|}表示所有任务的感知时长的集合,αj为概率控制因子,用于控制获利概率的衰减速度。
[0097]
可选的,增值报酬和的设置为
[0098][0099][0100]
其中,为确定报酬因子,且为确定报酬因子,且为本系统设定的风险系数阈值,用于区别不同个体对概率的低估程度,且
[0101]
具体实施时,对于每个参与者,平台会给定一定数量的任务对供参与者进行选择,每个任务对中包含了一个长时任务和一个短时任务。
[0102]
对于一个任务对中的长时任务和短时任务,设计如下的报酬方案:
[0103]
rpce报酬方案:
[0104]
paymenta:对于任务对中属于长时任务区的任务γj∈γ
long
,设置单位时间报酬为且此报酬可以100%拿到。
[0105]
paymentb:对于任务对中属于短时任务区的任务γj∈γ
short
,设置单位时间报酬为
[0106]
其中,ci为基础的成本补偿报酬,只要参与者完成任务提交数据就一定可以得到,这样可以保证参与者的预期效用非负,使得参与者愿意参与到任务中来;和为增值报酬,其值会在下文中进行讨论;pj为paymentb中得到增值报酬的概率。
[0107]
确定报酬额详细参数,为确保感知时长越长的参与者的获利概率越大,对于获利概率pj,本方案给出如下的设置:
[0108][0109]
其中,tj为参与者本轮所选任务的感知时长,{|γ|}表示所有任务的感知时长的集合,αj为概率控制因子,用于控制获利概率的衰减速度。
[0110]
在确定了获利概率后,我们给出增值报酬和的定义:
[0111][0112][0113]
其中,为确定报酬因子,且为确定报酬因子,且为风险系数阈值,用于区别不同个体对概率的低估程度,具体值可以由平台制定。
[0114]
步骤3,获取任务发布后参与者选择执行的任务类型和任务执行信息,平台依据任务选择算法选择出获胜者,并将任务与参与者进行匹配;
[0115]
具体实施时,考虑到确定报酬和风险报酬同时存在,参与者会使用概率权重函数替代概率来评估报酬方案的预期效用。
[0116]
下面给出两种经济学框架下对效用的定义,为方便区分,本文称行为经济学下的期望效用为前景值:
[0117]
传统经济学角度预期收益:u
traditon
=pay
·
p-c
[0118]
行为经济学角度前景值:u
behavior
=pay
·
π(p)-c
[0119]
其中,pay为任务报酬额,p为得到报酬的概率,c为任务成本。与传统经济学中直接使用概率作为效用计算时的依据不同,在前景理论的确定效应中,使用相应的概率权重代
替概率,在上述的效用公式中,π(p)即为p对应的概率权重。
[0120]
需要说明的是,所述概率权重值是参与者依据平台给出的客观概率评估得出的权重值;
[0121][0122]
其中,p为平台公布的客观概率,θ为参与者的风险系数,这是每个参与者的个人属性,参与者的风险系数越大表明决策者越容易低估中大概率事件、低估小概率事件,行为经济学的研究表明,人们的风险系数主要分布于0.5至0.7之间,因此本方案中设定θ∈[0.5,0.7]。所述概率权重函数如图2所示,其中,曲线为概率权重函数,直线为客观概率。
[0123]
参与者在计算自己的预期效用后对任务报酬方案进行选择。平台获取任务发布后参与者选择执行的任务类型和任务执行信息,平台依据任务选择算法选择出获胜者,并将任务与参与者进行匹配。
[0124]
步骤4,获取参与者完成任务后提交的任务数据,选择短时任务的参与者更新其风险系数;
[0125]
具体实施时,当参与者完成任务时会提交任务数据,考虑到选择短时任务的参与者是概率得报酬,所以其风险系数会随每一轮是否得到报酬得结果发生变化,则可以获取参与者完成任务后提交的任务数据,选择短时任务的参与者更新其风险系数。
[0126]
步骤5,在每一轮任务完成后判断参与者得累积参与任务时长是否达到了累计参与时间阈值,对于未达到的累积参与时间阈值的参与者不作处理,对于达到累积参与时间阈值的参与者,发放额外奖金并清空其累积参与时间;
[0127]
具体实施时,此延时额外奖励金有两个发放时机,一是参与者首次加入群智感知任务中时,二是在上一轮次中参与者的累积参与时间达到了平台设定的奖励时间阈值,提现了之前的延时额外奖励,那么在新的一轮中就会发放新的延时额外奖励。延时额外奖励金的范围如下:
[0128][0129]
步骤6,在每一轮结束后更新每一个参与者的损失值大小、新进入参与者的额外奖金额大小、所有参与者的损失系数和所有参与者的累积参与时间;
[0130]
具体实施时,在每一轮任务结束后,平台更新参与者的延时额外奖金值、损失系数以及退出收益存量,并依此得到参与者的参与概率。
[0131]
参与者wi完成当前轮次任务后,在执行下一轮任务前会面临两个选择:
[0132]won
:继续下一轮任务;
[0133]woff
:退出下一轮任务;
[0134]
softmax选择准则通常用于表征决策者在两个并列选择之间选择其中某个选项的概率大小,本方案借用softmax选择准则,结合上文中定义的退出收益存量来表示参与者继续参与下一轮任务的参与概率。同时,更新每一个参与者的损失值大小、新进入参与者的额外奖金额大小、所有参与者的损失系数和所有参与者的累积参与时间,以便进行下一步操作流程。
[0135]
步骤7,根据参与者的损失值大小、新进入参与者的额外奖金额大小、所有参与者的损失系数和所有参与者的累积参与时间计算每个参与者的退出收益存量,并根据退出收益存量计算每个参与者的继续参与概率。
[0136]
可选的,所述参与者wi的退出收益存量定义如下:
[0137][0138]
其中,为参与者wi选择paymenta方案阶段的总收入,为参与者wi选择paymentb方案阶段的总收入,为参与者的累积参与时长,当时,表示参与者的累积参与时间达到奖励时间阈值时,参与者可提现额外奖励并获得额外奖励的效用,当时,如果此时退出则会失去额外报酬并降低其效用,其中,所述效用为退出收益存量公式中的损失值函数u
i,regret
(x)。
[0139]
进一步的,所述损失值函数为:
[0140][0141]
其中,损失函数r(x)为:其中λ为损失系数,且λ>1,x为预期最大收益与当前收益的差值,λ越大表示在同等x的情况下损失值越大;
[0142]
损失系数的定义如下:
[0143][0144]
其中,为参与者wi从第s轮开始参与任务来到第t轮的累积参与任务的时间。
[0145]
在上述实施例的基础上,所述继续参与概率的表达式为
[0146][0147]
其中w
on
表示参与者选择继续参与感知任务,w
off
表示参与者选择退出感知任务,ri(w
on
)表示参与者wi对选择w
on
预测的估值,ri(w
off
)为参与者wi对选择w
off
预测的估值,表示参与者wi在本模型中对ri(w
on
)和ri(w
off
)之间的差异的敏感度,且越大表示参与者对ri(w
on
)和ri(w
off
)之间的差异越敏感,ri(w
on
)和ri(w
off
)的表达式如下:
[0148][0149][0150]
具体实施时,首先,为便于计算继续参与概率,给出参与者wi的退出收益存量定义如下:
[0151][0152]
其中,为参与者wi选择paymenta方案阶段的总收入,为参与者wi选择paymentb方案阶段的总收入。当τi=υ即参与者的累积参与时间达到奖励时间阈值时,参与者可提现额外奖励,因此参与者会获得额外奖励的效用;当τi<υ时,由于参与者还未能提现账户中的额外奖励,如果此时退出则会失去本可以得到的额外报酬其效用会进一步降低,体现为退出收益存量公式中的损失值函数u
i,regret
(x)。
[0153]
损失值函数如下:
[0154]
其中,ε为一个参数,它反映了本可以得到的报酬在决策者的损失函数中所占的权重大小,本文中ε取固定值。
[0155]
损失函数r(x)为:其中,x为预期最大收益与当前收益的差值,λ为损失系数,具体定义如下:
[0156][0157]
其中,为参与者wi从第s轮开始参与任务来到第t轮的累积参与任务的时间。
[0158]
在得到参与者的退出收益存量后,可以计算得出参与者wi的参与概率为参与概率越大就表明参与者越有可能参与下一轮任务。其中,
[0159]
且ri(w
off
)是参与者决定退出时其退出收益存量,ri(w
on
)是参与者继续参与任务时其退出收益存量,本公开实施例的总体流程框架如图3所示。
[0160]
本实施例提供的基于确定效应的感知用户长期参与率提高方法,通过考虑了确定效应对参与者的激励作用,建立了能够影响群智感知参与者行为决策的任务发布环境,通过制订任务报酬支付方案和退出收益存量有指向性地引导群智感知任务参与者决策;通过设置确定和风险报酬选项,提高了目标任务的被选择概率;在此基础上引入概率权重函数,反应参与者的真实决策行为,由于确定报酬选项的存在,降低了参与者对风险概率的权重估值,提高了确定报酬项的选择比例;同时通过设置延时的额外奖金并引入损失系数,结合退出收益存量的设定,使累积参与时间未达标的参与者留在平台中持续参与。相比于对比的机制,本方案在可控甚至更低的任务报酬下使尽可能多的参与者长期留在平台中,提高了平台效用和长期参与率。
[0161]
下面将结合一个具体实施例对本方案进行说明,首先评估了引入确定效应前后对环境中参与者对不同报酬方案效用感知的结果。
[0162]
对于本发明的仿真实验,具体参数如表1所示。
[0163][0164]
表1
[0165]
相关的仿真实验结果如下表2和表3所示,表2是引入确定效应之前参与者对不同报酬方案的预期收益评估,表3是引入确定效应之后参与者对不同报酬方案的预期收益评估。可以看到,参与者w1和参与者w2则会转而选择长时任务,并且此时的总报酬会下降,平台效用得到进一步提高。
[0166][0167]
表2
[0168][0169][0170]
表3
[0171]
为了更进一步评估本发明的性能,本发明也与其它目前有代表性的方法(eswn)进行比较,如图4和图5所示,为方便表述,本发明统称为bem。验证结果表明,本发明的长期平台效用和参与者留存率均优于其它目前最先进的方法。
[0172]
与上面的方法实施例相对应,参见图6,本公开实施例还提供了一种基于确定效应的感知用户长期参与率提高系统60,包括:
[0173]
分类模块601,用于依据所有请求者提交的待完成任务及其所需要的预计完成时长,将全部待完成任务分为长时任务和短时任务;
[0174]
设计模块602,用于根据确定效应设计报酬方案;
[0175]
匹配模块603,用于获取任务发布后参与者选择执行的任务类型和任务执行信息,
平台依据任务选择算法选择出获胜者,并将任务与参与者进行匹配;
[0176]
第一更新模块604,用于获取参与者完成任务后提交的任务数据,选择短时任务的参与者更新其风险系数;
[0177]
判断模块605,用于在每一轮任务完成后判断参与者得累积参与任务时长是否达到了累计参与时间阈值,对于未达到的累积参与时间阈值的参与者不作处理,对于达到累积参与时间阈值的参与者,发放额外奖金并清空其累积参与时间;
[0178]
第二更新模块606,用于在每一轮结束后更新每一个参与者的损失值大小、新进入参与者的额外奖金额大小、所有参与者的损失系数和所有参与者的累积参与时间;
[0179]
计算模块607,用于根据参与者的损失值大小、新进入参与者的额外奖金额大小、所有参与者的损失系数和所有参与者的累积参与时间计算每个参与者的退出收益存量,并根据退出收益存量计算每个参与者的继续参与概率。
[0180]
图6所示系统可以对应的执行上述方法实施例中的内容,本实施例未详细描述的部分,参照上述方法实施例中记载的内容,在此不再赘述。
[0181]
应当理解,本公开的各部分可以用硬件、软件、固件或它们的组合来实现。
[0182]
以上所述,仅为本公开的具体实施方式,但本公开的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本公开揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本公开的保护范围之内。因此,本公开的保护范围应以权利要求的保护范围为准。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献