解放日报人工智能修复,让历史“重生”

近日 , 一段被人工智能修复的100年前北京街景影像片段在网络上“刷屏” 。 有了AI的帮助 , 那些原本卡顿、清晰度差的黑白画面被还原了色彩 , 1920年的北京城变得流畅而生动 , 颇有生活气息 。 有人感叹:时间两头的我们 , 被这段影片连了起来 , 好像“穿越”了一样 。 百年前的影像中我们看到了什么?AI修复 , 如何让历史“重生”?
AI再现历史风貌
100年前的北京城和中国人 , 究竟是什么模样?
从大全景来看 , 百年前的北京街景 , 充满了年代感 。 马路上人来人往 , 人流、马车、人力车交错而行 , 集市、食肆、仪仗、礼仪、买卖等 , 就这样呈现在我们眼前 。 不少网友在微博边看边讨论今昔的不同:“骆驼出现在大街上 , 是当时的运输工具;现在要去沙漠里寻找骆驼”“100年前出来逛街的都是男人 , 现在女人比较多”……
这段影像由加拿大摄影师拍摄而成 , 而给它重新上色修复的是中国一位年轻的独立游戏开发者大谷 。 原本色彩单调、轮廓模糊的人影 , 变得面目清晰、动作流畅 , 再加上后期逼真的音效 , 生动再现了当时的历史风貌 。
采访人员通过网络联系到了人在美国纽约的大谷 , 他说 , 自己一直在B站做绘画、作曲等科普视频 , 这是第一次利用人工智能修复历史影像 。 “我从小在北京长大 , 对老北京的风貌情有独钟 。 ”大谷说 , 由于当年拍摄设备的限制 , 我们看到的黑白影像损失了重要的色彩信息 , AI可通过算法和大量的训练打造成“火眼金睛” , 先对照片进行图像分割 , 区分出标志性物体 , 如树木、天空、人脸、服装等 , 对黑白影像场景进行彩色化处理 。
“传统的影像修复 , 是由艺术家们手绘 , 一帧帧影像重新上色 , 比较耗时费力 , 一段影片往往需要几十到数百人同时奋战几十天 。 ”他说 , 而人工智能做的是同样的步骤 , 不过运算效率更快 。 他截取了10分钟视频 , 一个人用了7天时间 , 尝鲜使用AI技术相继完成上色、修复帧率、扩大分辨率 , 最终呈现出流畅的彩色画面 。
大谷同时表达了自己的遗憾 。 “这段影像的色彩 , 是AI自我学习的结果 , 不一定是历史的原色 。 ”他说 , 这次AI修复所采用的模型是从国外老电影中“学习”的 , 影片整体色彩比较淡 , 如果更好地了解历史 , 能做得更准确 。 他表示人工智能不足的地方 , 也要通过训练不断加强 。 他准备让AI程序加强“学习” , 多“看”一些中国年代影片 , 在未来进行修复着色时将更有中国味道 。
年代感的看点不少
这段“重生”的历史影像 , 虽然只有短短几分钟 , 却留下了许多有年代感的看点 。
一段画面中出现了多人互相行礼的片段 , 细细看来 , 包含了三种礼仪 。 比如“打千礼” , 这是满族男子下对上通行的一种礼节 , 流行于清代 。 礼仪姿势为屈左膝、垂右手、上体稍向前俯 , 在清宫戏中常能看到这类礼仪 。 第二个礼仪是“作揖” , 是汉人男子之间的见面礼——两手抱掌前推 , 身子略弯 , 表示向人敬礼 。 孔子像中的孔子 , 也是作揖的姿态 。 第三个是“万福礼” , 这是汉人女子的见面礼 。 右手放在左手上两手握拳 , 位于腹部正中央 , 右脚向后撤一小步 , 两膝微曲 , 颔首低眉 , 微微伏身而起 。 “万福”二字 , 出自《诗经》 , 最早是表示祝福的吉祥语 , 意为福气满满 。 比如1987年版电视剧《红楼梦》中 , 林黛玉初见贾宝玉时 , 贾宝玉行的是作揖礼 , 林黛玉行的就是万福礼 。
这段影像还闪过了一个镜头 , 是见证历史的白色牌坊“克林德碑” 。 当年 , 京城老百姓对这个名字很“硌硬” , 大家都叫它“石头牌坊” 。
1900年6月2日 , 德国公使克林德在此处被人开枪打死 , 以此事件为导火索最终引发了八国联军侵华和签订《辛丑条约》 。 根据德国要求 , 1901年6月25日 , 清政府在克林德殒命处开工建造一座纪念牌坊并祭祀谢罪 。 直到1918年11月第一次世界大战结束 , 德国成为战败国 , 这座象征着屈辱的牌坊立刻成为众矢之的 , 于1919年被拆除 。 拆除后 , 主体的散件被运至中央公园(今中山公园)重新组装 , 题头被换成了“公理战胜” , 在1952年召开的亚洲及太平洋区域和平会议上 , 为表彰中国人民保卫世界和平所做的贡献 , 决定将“公理战胜”牌改为“保卫和平”碑 。
影视作品“修旧如旧”
【解放日报人工智能修复,让历史“重生”】“历史影像一上色 , 好像拉近了和我们之间的距离 , 看完十分亲切 。 ”大谷表示 , 许多网友和他交流中都谈到这一体会 。 其实 , 去年新中国成立70周年时 , 《开国大典》等经过AI和人工修复的献礼片就惊艳了公众 , 许多观众看后热泪盈眶 。
修复版的电影《开国大典》让人们目睹三次战役胜利到开国大典的历史过程 。 通过人工智能深度学习的方式 , 老片中常见的噪点、色偏、模糊、抖动、划痕等“小伤小痛”得以被批量化修复 。 但是 , 一些老片画面由于损失严重或存在大片污渍 , 人工智能无法通过时间、空间信息“脑补” , 在这种情况下 , 必须依靠有经验的修复专家来完成 。 因此 , 专业修复师对影片《开国大典》进行了修补 , 总共修复了1082个镜头 。 虽然修复历时仅40天 , 但这是600人每天工作20小时之后的结果 。 可见 , 人工智能实际上不能完全代替手工劳动 , 人机共同协作才能产生最好的结果 。
为高科技装上“指南针”
近年来 , 计算机视觉在人工智能和深度学习的大背景下变得流行起来 , 越来越多的应用场景被挖掘 , 图像处理技术成为最热门的应用之一 。 而深受公众喜爱的是图像修复功能 , 一键修复老照片等App应用 , 在社交网络上掀起传播潮流 。
大谷告诉采访人员 , AI图像修复有许多神奇的玩法 。 比如人脸生成 , 用新婚夫妇的照片通过AI程序可以制作一张未来孩子的照片;再比如 , 一些人没有童年照片 , 这样的遗憾也可以通过人工智能来弥补 , AI通过对其现有照片的学习和判断 , 生成童年照 。 “你也可以通过人工智能看看自己变老的样子 。 ”他说 。
许多科学家开始关注人工智能的注意力机制 。 注意力机制来源于人类的视觉注意力 , 即人类在进化过程中形成的一种处理视觉信息的机制 。 对于人工智能来说 , 它是机器学习中的一种数据处理方法 , 主要功能是减少对无用线索的关注 。
目前 , AI注意力和真正的人类注意力差距仍然很大 。 在科学家们看来 , 在未经充分训练的情况下 , 让AI关注人是容易的 , 但关注某个特定的人是困难的 。 目前来说 , AI注意力机制更接近直觉 , 科学家也在研究增加模型的知识储备 , 提升模型的推理能力 , 这样AI才能在复杂的图像等语境下运用注意力完成更为复杂的操作 。
人工智能修复 , 为公众呈现了一次遇见古人的时空穿梭之旅 。 然而 , 技术不仅仅是应用工具 。 对于创造和应用技术的人类而言 , 在法律规范和道德约束下让技术“为我所用” , 才能真正为技术装上“指南针” , 实现人类和科技的促进发展 。


    推荐阅读