抢了人类编辑饭碗的AI算法( 二 )

抢了人类编辑饭碗的AI算法
算法推荐的信息抓取不仅可能涉及到大量的版权问题 , 甚至还可能走向“创新的反面” 。 就是智能推荐将走向媚俗化和庸俗化 , 充斥大量缺乏独立思考、深度观察的肤浅内容 , 反过来破坏社会的创新发展 。 人民网的批评 , 同样也代表了众多传统媒体和众多精英人士的观点 , 而且这些现象确实也符合我们大多数人的直观印象 。 但是在附和之前 , 我们仍然需要进一步了解下算法推荐的基本方法和发展 , 搞清楚人们为什么会如此容易被算法“驯服” 。 算法推荐又该如何突破自己的局限而持续进化?算法推荐:人性的 , 太人性信息分发的本质 , 就是有效地联接人和信息 。 而算法推荐的本质就是运用机器算法实现大规模的自动化信息分发 , 让信息自动找到人 。 因此 , 算法推荐需要解决三个问题:了解信息 , 了解人 , 了解人何时何地需要这些信息 。 不过 , 归根到底 , 算法推荐的核心还是了解人 , 即了解人的使用习惯、兴趣爱好 , 再通过算法预测用户可能感兴趣的信息和话题进行加权推荐 。 新闻信息的主要推荐算法都是来自于一些数学算法 。 在各大新闻资讯聚合类应用上主要使用以下这些算法:1、内容推荐 。 这是资讯类推荐最常用到的算法 。 算法系统通过对文本内容进行标签设定 , 一旦用户对相关内容进行过点击、浏览、点赞、评论、分享等操作 , 系统就会对用户打上相应的兴趣标签 。 这样就可以将更多相关标签的文本进行用户标签的匹配 。 比如 , 一个看过“德甲”内容的用户 , 就会得到更多关于“德甲”的信息推送 。 内容推荐 , 如果先期无法获取到用户的兴趣标签特征 , 就会容易遭遇冷启动问题 。 因此 , 内容推荐之外还需要其他推荐方式 。 2、协同过滤推荐 。 这是推荐系统中应用最早和最为成功的技术之一 , 采用了我们常识理解的“人以类聚 , 物以群分”的思路 , 即找到用户的好友或者与其相似特征的其他用户那里 , 将他们感兴趣的内容来推荐给该用户 。 抢了人类编辑饭碗的AI算法
协同过滤推荐采取了经验共享的方式 , 避免了内容推荐中存在着内容分析不准确、过度单一等问题 , 可以为用户发现潜在的兴趣偏好的内容 。 3、热门推荐 。 热门推荐来自于传统媒体的思维方式 , 主要是基于当前热点新闻事件和话题进行的内容推荐 。 区别于传统媒体由新闻编辑进行的人工筛选 , 新闻聚合平台的自动算法推荐更在于通过数据统计的方式将一段时间内点击量、关注度最高的新闻推送给用户 。 此外 , 还有像一系列基于规则、效用、知识以及各类组合的推荐算法来实现对于用户的个性化推荐 。 也就是说 , 对于那些使用了算法推荐的内容平台 , 相当于有了一手“秘密武器”来对付处在信息焦虑和信息饥渴的移动互联网用户 。 即使你是一个新手用户 , 平台对你了解甚少 , 它也会很快通过让你定制兴趣标签、尝试不同类型的内容推送 , AB测试等方式来实现所谓“冷启动” , 找到你的真正爱好 。 但是 , 最根本上来说 , 像今日头条这样的内容平台存在着一个最基本的“原罪”就是 , 平台存在的目的是为了攫取尽可能多的用户时间和注意力 , 而不是为了让用户获得基本的资讯信息之后就转身走人 。 新闻联播还有个准时准点的结束 , 而这些内容平台却可以随时刷新、无限供应 , 获得流量才是其运营的本质 。 所以 , 平台的推荐算法就会尽可能讨好用户 , 利用用户的人性弱点来进行信息的喂养 。 这也正是内容平台经常为人们所诟病的问题:标题党横行、洗稿文章泛滥 , 色情低俗这类深谙人性弱点的内容层出不穷 。 一旦因为好奇浏览相关内容 , 算法就会全力推荐更多相关信息 。 这也是所谓“信息茧房”的根本原因 , 算法纵容了人性 , 人性又反过来固化了认知 , 导致一个用户就在自己熟悉的信息圈里打转 。 这也是很多人对内容平台深恶痛绝 , 但看起来又欲罢不能的深层原因 。 但是需要指出的是 , 算法推荐本身不必为内容平台的这些问题背锅 , 道理就如同“人用刀杀人 , 而罪责在人而不在刀”一样简单 。 其实 , 通过算法推荐本身的演化 , 是可以消解这种用户的信息“偏食”行为和“信息茧房”问题的 。 算法推荐的自救:人机协作是正途无论对于算法推荐的批评有多么严重 , 但是算法推荐的流行和普及已经是一个不争的事实 。 算法推荐的真正进步之处就在于改变了信息分发的方式 , 即从一种中心化的“责编把关”的分发方式变成基于用户个性化的机器智能推荐的“算法把关”的分发方式 。 这种分发方式带来的是信息分发效率的极大提升 , 当然同时也带来了传统权威、专业媒体的分发“算法”的失效和分发内容权重的下降 。 但是从目前来看 , 传统权威媒体已经不再抱有一开始的否定和打压态度 , 而是以积极的姿态拥抱新媒体平台 , 参与到这场算法推荐的流量争夺当中 , 并且正在凭借其官方身份和专业内容 , 在新媒体时代重新获得用户认可 。 对于算法推荐带来的“劣币驱逐良币”的问题 , 这之前确实是算法推荐的弱项 , 最早的一些机器学习算法和推荐算法是无法识别文章内容是否涉嫌标题党、假新闻、洗稿、低俗、黄暴等内容 。 这些低劣内容其实对于平台而言 , 也是一直在努力清除的隐患 。 毕竟平台的发展不能仅靠这些内容来支撑 , 反而会带来众多的版权、投诉和负面舆情 。 现在的平台都已经加大对内容安全机制的建设 , 其中包括高风险内容的识别模型技术的广泛应用以及大规模人工审查核验 。 去年 , 就连同样执着于算法推荐的Facebook也因为假新闻泛滥而开始使用人工编辑来对内容进行审查 。 对于“信息茧房”而言 , 正如近日北师大教授喻国明在一篇《算法推荐必然导致“信息茧房”效应吗》的论文中指出的 , 算法推荐不是“信息茧房”形成的必要条件 , 算法推荐在“信息茧房”生成后并不起增效作用 , 甚至还起到了一定的消解作用 。 简单来说 , “信息茧房”的存在并不是因为算法推荐的出现而出现的 , 传统社会的单一信息、严格的媒介控制以及个人的信息“偏食”倾向都是造成“信息茧房”的原因 。 反而 , 在算法推荐时代 , 个体用户还有着来自传统媒体渠道、社交媒体渠道等多重信息来源 , 更加不容易制造这种“信息茧房”的生成机制;同时 , 随着算法推荐技术的不断迭代 , 用户的潜在信息需求也在不断的挖掘和丰富 。 最终 , 在算法推荐和人工编辑推荐的取舍较量中 , 我们其实更应该推崇一种带有“人文理性”和“技术理性”的可信算法推荐系统 。 显然 , 算法仍然更容易给用户提供一种“沉浸式”的信息阅读体验 , 而算法和人的互动关系 , 本质上是“算法背后设计者的价值逻辑或意识形态与用户的互动” 。 这就要求在算法设计者意识到“信息茧房”可能带来的危害之后 , 主动寻求一种更加优化的解决方案 , 来建立可信的算法推荐的系统 。 最主要的是在算法推荐之外 , 坚持人机协同 , 即重视人工编辑在算法推荐基础之上发挥应用的作用 , 包括提供新闻专业主义的理念 , 设置更多的公共议题;提供更具权重的正反观点信息;提供更多随机视角的信息等等 。 回到微软新闻部门的裁员问题 , 之前是模式是AI算法来辅助人类新闻编辑 , 而未来更可能是人类新闻编辑来辅助AI算法 , 来优化内容推荐的质量 。 显然 , AI算法推荐不可能完全取代人类编辑的工作 。 平台也不会放心将自身的信誉和内容的全部选择权都交给AI算法 。 一项技术的发明和应用在人类的发展历史上从来只起到一种助燃剂或催化剂的作用 。 对于AI的算法推荐来说 , 它既不会毁掉传统媒体的生存根基 , 也不会彻底将人类变成鼠目寸光、各自为营的傻瓜 。 其实 , 如果我们认真观察 , 当你发现身边的老人开始整天盯着手机 , 关注自己城市发生的各种事情 , 关心政府出台的各种政策 , 关心自媒体里各种奇葩狗血的故事 , 未尝不是对他们生活和精神的一种解放 , 至少更加开阔了眼界 , 不用再盯着家里的鸡毛蒜皮 。 而对于那些因为AI而事业的媒体人 , 更加不必悲观叹气 。 夜深人静的时候 , 笔耕不辍地开始你的创作 , 这些内容平台可能会应许你更加光明的前景 。


推荐阅读