大数据杀熟|面对“大数据杀熟”等乱象 我们需要什么样的“算法”?( 二 )


不过 , 在头部互联网平台切实严格自律的同时 , 仍有一些采编流程不规范、管理不严的网络社交媒体、新闻客户端在业务导向上走偏了 。 主要表现在:
——向用户推荐劣质信息 。 部分平台为留住用户 , 不断向用户推荐其关注过的相似内容 , 其中掺杂低俗媚俗、色情暴力、真假难辨、缺乏深度、价值观导向错乱等信息 。 一些互联网平台为增加点击率和流量 , 还会进行人工推荐 , 主动推荐“博眼球”、打“擦边球”信息 , 很多用户直呼“辣眼睛” 。 这反映出一些平台社会责任感缺失 , 更忽视了价值观建设 。
——增加用户权益保护难度 。 一些算法推荐的内容过度强化用户偏好 , 影响了用户对于信息内容的自主选择权 , 加剧“信息茧房”效应 , 极易造成个体与社会的隔离 , 缺乏对当下国情世情的深刻认识和判断 。 由于依托于用户浏览记录等数据 , 算法推荐若设计不当 , 还可能侵犯用户个人隐私 。
——进行“大数据杀熟” 。 中国传媒大学大数据研究中心教授沈浩介绍 , 对于算法而言 , 通过用户数据量以及数据更新频次 , 可轻易判断出是“生客”还是“熟客” 。 结果是平台大赚 , 商家、消费者利益受损 , 还容易导致垄断 。
作为一项技术应用 , 算法推荐是中性的 , 问题出在设计者、操作者身上 。
一方面 , 奉行“流量至上”的单一价值导向 。 一些平台为应对竞争 , 将用户停留时间作为重要考核指标 , 忽视了自身作为“把关人”的角色定位 。 而“把关人”必须用积极健康、符合公序良俗的价值观 , 指引算法推荐的设计和应用 , 方能确保推送内容价值导向正确 。
另一方面 , 过度追求“利益至上” , 利用其信息不对称优势侵犯消费者合法权益 。 这是一个需要引起足够重视的法律问题 。
“一些算法的顶层设计思路存在问题 。 ”中国社科院信息化研究中心主任姜奇平对采访人员表示 , 英国著名数学家、逻辑学家图灵等学者在勾画人工智能图景时提出 , 人和机器是对等、双向互进的关系 , 但现在一些算法设计呈现出人与机器的关系是单项的 。 比如在大数据方面 , 迷信相关分析 , 忽略因果分析 。 在定义算法效率方面 , 只把专业化效率定义为效率 , 而实际上多样化效率也是一种效率 。
大数据、算法推荐应更有“温度”
有网友最近在一个问答平台发文称 , 自己在某社交平台和朋友聊天时提到了一款扫地机 , 随后该平台出现了扫地机器人的广告 。 在跟帖中 , 很多网友疑问:“平台是否可能利用算法等技术 , 抓取用户聊天记录进行广告精准投放?”
App专项治理工作组专家何延哲今年9月表示 , 四部委App专项治理工作组在对App多批次检测中尚未发现App有“窃听”行为 。 但App“窃听”在技术实现上是有一定可能性的 , 相关部门有必要出台规定 , 明确企业进行大数据“画像”时能否使用个人语音信息 , 让用户更放心 。
从另一角度看 , 社会舆论的疑问其实指向了大数据、算法等技术应用的价值导向问题 。 如何规范使用大数据、算法技术 , 让其变得更有“温度”、更让人放心?需要建立起一套行之有效的监管体系、评价系统 , 确保算法设计者、操作者以健康、正确、积极的价值观 , 指引算法推荐的设计和应用 。
相关立法和监管亟待加强 , 特别是要强化对算法推荐本身的法治监管 。
例如 , 正在公开征求意见的《个人信息保护法(草案)》规定 , 个人认为自动化决策对其权益造成重大影响的 , 有权拒绝个人信息处理者仅通过自动化决策的方式作出决定 。
11月10日 , 国家市场监管总局发布的《关于平台经济领域的反垄断指南(征求意见稿)》规定 , 基于大数据和算法 , 根据交易相对人的支付能力、消费偏好、使用习惯等 , 实行差异性交易价格或者其他交易条件;对新老交易相对人实行差异性交易价格或者其他交易条件;实行差异性标准、规则、算法;实行差异性付款条件和交易方式等 , 都可能被认定为“大数据杀熟”等不正当竞争行为而面临更严格监管 。


推荐阅读