“信息茧房”或许并不存在?高考考了半天难道考了个寂寞?

算法个性化推荐技术出现后 , “信息茧房”担忧随之而来 , 再加上今年高考作文题的“加持” , 更是让“信息茧房”这一概念被更多人熟知 。 如果说前几年学界还在讨论如何帮助用户突破“信息茧房”的话 , 那最近的风景可能就有些不一样了 。
一、“信息茧房”的提出:从政治观点扩展开去“信息茧房”概念最早是由哈佛大学法学院教授桑斯坦于2006年 , 在其著作《信息乌托邦》中提出来的 。 它指的是用户在选择信息的时候 , 只关注使自己感到悦耳的内容 , 排除与自己意见相异的内容 , 久而久之 , 使自己置身于蚕茧般的茧房中 , 获得的都是同质化的信息 。
桑斯坦最初提出“信息茧房” , 是基于美国两党政治的语境而言的 , 他认为新技术会降低政治信息的多元化 , 甚至导致极化 , 之后概念的适用范围才逐渐泛化 。
除此之外 , 由于互联网能够帮助用户实现空间上的连接 , 让处在不同空间的人也能因为有共同的声音而结成共同体 , 同时 , 网络“退出群聊”机制给用户提供了避免接触一切不感兴趣的人和事的机会 。 因此 , 用于形容同质化个人观点、声音在密室中反复强化的“回声室”概念也随之出现 。
比如学者沃勒·比克从情感的视角出发 , 发现愤怒、焦虑和恐惧是个体决定是否只与志同道合的人、观点一致的内容进行互动的重要决定因素 。 也即他们发现 , 愤怒的人更有可能既与观点相似者又与观点对立者进行辩论 , 愤怒情绪强化了回音室和论战两方面 。 简而言之 , 比克认为 , 相较于信息技术而言 , 情感是导致“信息茧房”可能性更大的原因 。
另外也有学者研究发现 , 同质化信息不断强化确实会促进用户对某些信息的关注 , 但对“异类”信息的关注只是略微降低了 , 并没有证据证明用户会放完全弃与其意见相左的其他信息 。
当前 , 推荐算法大概有三种常见的分发逻辑:基于内容、协同过滤和时序流行度过滤 。 其中协同过滤和时序流行度过滤不仅把握单个用户的阅读兴趣 , 也同时结合其他相似用户的兴趣 , 所谓“你的朋友在看”和“看过这个的用户还在看” , 这些逻辑都可能阻止“信息茧房”的形成 。
与此同时 , 算法也在不断向多元化方向优化 。 传统静态的用户画像已经不能适应用户多变的信息需求了 , 动态的用户画像和与之相适应的算法建模分析技术也在不断精进 , 用户的历史浏览数据、长期短期浏览偏好都会被纳入算法的运算过程中 。
比如用户的主动搜索会随时更新算法的逻辑 , 再比如用户并非只从一个内容平台获取信息 , 不同内容平台的算法逻辑是不同的(尽管他们都自称是公平公正的) , 用户在不同平台上的社会关系也是不同的 , 不管是基于关系协同过滤 , 还是基于时间流行度过滤 , 都不至于将自己困于同质化的“信息茧房”中 。
三、都有偏见:算法分发与传统编辑分发的比较传统“把关人”时代 , 人们之所以没有“信息茧房”担忧 , 是认为编辑会考虑内容的多样性 , 同一份报纸内的各个不同板块能让读者不至于陷入局限 。 但实际上 , 即使在人工编辑把关的时代 , 信息也一定程度上受媒体的风格、把关人的政治倾向而有一定的局限 , 从人工转向机器 , 解决的是过量信息处理背景下的效率问题 。
再退一万步讲 , 机器分发时代受众与机器的反馈互动、机器对人的喜好的动态学习 , 难道不比人工来得更及时吗?
一是使个性化推荐服务的使用者“意识到未知” , 也即不仅向用户呈现他感兴趣的内容 , 同时也呈现除此之外的其他不同角度 , 让用户意识到哪些内容是被过滤掉的 , 有助于“捡漏”;
另一种则是通过加深“个性化”来有效增强“多样性” , 虽然这听起来像是一个非常扯的“在侵犯隐私边缘试探”的借口 , 但有学者指出 , 由于年龄、受教育程度的不同 , 用户对异质声音的接受度也会不同 , 因此 , 细致描绘用户画像 , 根据用户特性考虑“推荐多少”是避免陷入“信息茧房”的重要手段 。


    推荐阅读