同城炮约免费-51品茶风楼阁全国,快餐500元2小时联系,全国楼凤论坛兼职平台

自主学习型算法共谋的事前预防与监管*

作者:王健 吴宗泽  2021-08-30 15:51  新传播    【字号:  

近年基于人工智能技术的自主学习型算法在信息推荐、动态定价情境下显现出如价格歧视、性别歧视等异常,逐渐引发学界对自主学习型算法问题的担忧。囿于自主学习型算法的不透明性及行为隐蔽性,往往难以在反垄断执法、司法层面对其予以及时、有效规制。因而须依据自主学习型算法自身特点构筑起合法、有效的事前管控路径,从技术监管、数据控制、算法审核等层面对自主学习型算法加以规制,及时遏止自主学习型算法共谋不当影响的出现和扩张。


三、自主学习型算法共谋的事前预防与监管

对于自主学习型算法共谋这一新兴共谋形式,应当明确其机理、剖析其特征。在此基础上针对性地进行环节设置,寻求合理、有效的规制路径。

(一)自主学习型算法的实现原理

不纯粹或纯粹的自主学习型算法目前大多是基于机器学习原理实现的,依据实现方法不同可粗略分为监督学习(Supervised Learning)、无监督学习(Unsupervised Learning)以及强化学习(Reinforcement Learning)三种。监督学习的核心是通过输入一定量带有标记(监督信号)的训练样本,由计算机自主分析并生成相应的推断功能。如在设计识别物体形状的监督学习算法时,设计者需要事先准备一些标记好形状名称的物体照片。监督算法基于这些训练样本生成出将所有输入映射为相应输出的算法模型,并可对输出内容进行简单判断。而无监督学习的核心则是聚类,即将未标记有特征的训练样本依据划分方法、层次方法等进行聚类。再以识别物体形状为例,假如在设计之初对训练样本图片未作标记,则可直接通过无监督学习算法对训练样本进行聚类。但由于缺乏对训练样本的预先归类,所以在输出结果时算法无法依据确定的标准对其进行衡量。强化学习的核心是在训练时重复试错(Learning Through Trial and Error),并在过程中给予算法一定量的刺激反馈以增强某种行为,如通过奖励正强化行为、通过惩罚负强化行为等。与非监督学习不同,强化学习并非一种映射关系。如在线购物平台进行商品推荐时,非监督学习算法可能会基于用户以往的购物记录推荐类似的商品。而强化学习算法由于在训练时会受到近期购物记录的影响,会尝试推荐不同的商品,并根据用户点击、浏览时间等数据的反馈进而构建出用户购物偏好的模型。

编辑:郑令婉

打印本页】【关闭窗口】【复制地址

往期回顾

深圳新闻网传媒股份有限公司版权所有,未经书面授权禁止使用 COPYRIGHT ? BY WWW.SZNEWS.COM ALL RIGHTS RESERVED。