歪比歪比,歪比巴卜,神经网络也该用上加密“通话”了( 二 )
(5)图像经过加密 , 只有清楚物理硬件的加密规则才有可能将原始图像恢复出来
2.1 视觉变换网络
对网络进行加密 , 直观上的做法就是对网络各层的权重进行加密处理 , 权重加密由一个变化矩阵来实现 , 设加密函数为
本文插图
, 需要满足五个充分条件 , 分别是
1、线性(充分不必要条件 , 因为目前也已经有一些基于非线性衍射的光学元件来对成像进行非线性转换);
2、正定矩阵 , 这表示计算是可逆的 , 也表示加密是无损的 , 如果定义
本文插图
, 我们就可以通过
本文插图
将原始采集到的图像恢复出来;
3、非负矩阵 , 非负矩阵的因式分解是一个NP难问题 , 这保证了加密的可靠性 , 攻击者很难得到加密矩阵 , 也就无法得到原始图像和原始权重;
4、满足非线性交换律 , 保证了加密网络中非线性激活函数的可用性;
5、稀疏性 , 限制了加密过程的计算量 , 保证了其在神经网络中端到端的性能 。
下面考虑一个k层的卷积神经网络 ,
本文插图
每一层的加密因子为
本文插图
, 输入图像的加密因子为
本文插图
(模拟传感器的光学加密) , 加密后的图像为
本文插图
, 则卷积神经网络变为:
本文插图
其中
本文插图
表示某一层的权重加密结果 , 加密因子
本文插图
及其逆
本文插图
存在 , 这满足了上面的条件1和2 。 根据条件4 , 我们假设存在一个非线性激活函数
本文插图
满足非线性交换律 ,
本文插图
这个假设可以将加密因子直接消去 , 允许激活函数直接作用在加密网络上 , 而无需对网络作出其他修改 , 根据以上 , 加密网络中第i层的输出可以表示为:
本文插图
其中线性层包括网络中的卷积层、全连接层、dropout层和平均池化层 , 这些层只需要给原有权重向量乘上对应的加密因子即可 , 对于非线性激活层 , 由于条件3的存在 , 无需作出任何修改 , 网络示意图如下:
【歪比歪比,歪比巴卜,神经网络也该用上加密“通话”了】
推荐阅读
- 反思卷积神经网络:图像角度泛化上的困难重重
- 为AI注入一缕意识:构建更智能、更强大的神经网络
- DeepTech深科技 发长篇论文解析,牛津大学博士后试图撬开深度神经网络黑箱
- |叙利亚巴卜市发生卡车炸弹爆炸,死伤逾57人
- 叙利亚巴卜市发生卡车炸弹爆炸|叙利亚巴卜市发生卡车炸弹爆炸 死伤逾57人
- 【中国新闻网】叙利亚巴卜市发生卡车炸弹爆炸 死伤逾57人
- 「叙利亚巴卜市发生卡车炸弹爆炸」叙利亚巴卜市发生卡车炸弹爆炸 死伤逾57人
- 央视|死伤逾57人,叙利亚巴卜市发生卡车炸弹爆炸
- 央视新闻客户端|叙利亚巴卜市发生卡车炸弹爆炸 死伤逾57人
- 新智元这么简单的游戏还卡壳?神经网络在“生命游戏”里苦苦挣扎