解构AI安全产业链条、解决方案和创业机遇


解构AI安全产业链条、解决方案和创业机遇

文章插图
图片来源@视觉中国
文 | 自象限
划重点:
1、AI大模型的安全问题从来不是某一个单独的问题,它就像人的健康管理一样,是一个复杂的、体系化的,涉及多个主体和整个产业链的系统工程 。
2、AI安全分为:大语言模型的安全(AI Safety)、模型及使用模型的安全(Security for AI)、大语言模型的发展对现有网络安全的影响,对应着个体安全、环境安全和社会安全三种不同层级 。
3、AI作为“新物种”,在大模型的训练过程中要有安全监控,在大模型最后推向市场的时候,也需要一次“质检”,质检后流入市场,需要可控的使用方式,这都是解决安全问题的宏观思路 。
4、AI安全问题并不可怕,但需要监管、立法、技术对抗等多种方式保驾,是一个漫长的过程 。国内外大公司如微软、谷歌、英伟达、百度等已经开始针对AI安全的不同环节给出解决措施 。
5、安全 for AI和AI for 安全,是两个完全不同的方向和产业机遇 。AI for 安全指的是将大模型应用在安全领域,属于拿着锤子找钉子的阶段,工具是有了,能解决什么问题在进一步挖掘;安全 for AI则是保障AI的安全,处于在遍地都是钉子,但要造锤子的阶段,暴露的问题太多,需要研发新的技术逐个解决 。
6、在重点1中所述的3个模块中,每个模块都需要进行连接,而正如同人的关节最脆弱一般,往往模型的部署、模型的应用环节也是最容易受到安全攻击的环节 。我们将以上的3个板块、5个环节中的AI安全细节进行有选择的展开,形成了一张《AI 安全产业架构图》 。
“10分钟被骗430万”、“9秒钟被骗走245万”、“杨幂走进小商家直播间”、“互联网大佬虚拟人真假难辨” 。
大模型火爆了3个月之后,比之更火爆的,是动辄百万的诈骗金额、虚假“明星脸”、真假难辨的AI生成内容、多次抵抗AI觉醒的联名上书,连续一周的热搜,让人们意识到,比发展AI更重要的,是保障AI安全 。
一时间,关于AI安全的讨论也开始不绝于耳,但AI安全并不是某一个行业,也并不局限于某一项技术,而是一个庞大而复杂的产业,目前,我们还没有拨云见雾 。
以“人”的安全为参考系,或许能够帮助我们更好的理解AI安全问题的复杂程度 。首先是人的个体安全,涉及到人的健康、身体健康和思想健康、教育、发展等等 。其次是人所处的环境安全,是否存在危险,是否符合生存条件 。再次是人与人所组成的社会安全,我们所构建的法律、道德都是维护社会安全的准绳 。
AI作为一个“新物种”,在出现的一瞬间,这三个层面的问题同时爆发,也就引来了现阶段的迷茫和慌乱,导致我们的在讨论大模型安全时,没有一个具体的落点 。
本文中,我们试图从头厘清AI安全的三个层面,无论是从技术的角度还是应用的角度,帮助大家定位安全问题,找到解决方案,同时,针对国内巨大的AI安全空白,靶向狙击其中所存在的薄弱环节,也正是巨大的产业机遇 。
本文目录:
一、大模型安全,应该讨论什么?
1、AI安全的三大分类及案例解释
1.1大语言模型的安全(AI Safety)
1.2模型及使用模型的安全(Security for AI)
1.3大语言模型的发展对现有网络安全的影响
二、别慌,安全问题可解
1、训练、防护、验证,大公司的安全机制
三、AI安全中的万亿机遇
1、安全 for AI:3个板块、5个环节、万亿机遇
1.1 数据安全产业链:数据清洗、隐私计算、数据合成
1.2 API安全:模型越开放,API安全越重要
1.3 SSE(安全服务边缘):新型防火墙
1.4 欺诈和反欺诈:数字水印和生物确认技术
2、AI for 安全:成熟产业链中的新机会
大模型安全,应该讨论什么?
一个不得不承认的事实是,现阶段我们对AI大模型安全的讨论是笼统的 。我们太过于担心的AI带来的威胁,以至于将大多数问题都混为一谈 。
比如有人上来就谈论AI的伦理问题,也有人担心AI胡说八道,误人子弟;还有人担心AI滥用,诈骗成风;更有甚者,在ChatGPT发布的第一天就振臂高呼,AI即将觉醒,人类即将毁灭......
这些问题归结起来,都是AI安全的问题,但细分下来,它们其实处在AI发展的不同维度,由不同的主体和人来负责 。而我们只有理清楚了这个责任归属,才能明白应该如何应对大模型时代的安全挑战 。


推荐阅读