生成式人工智能:发展演进及产业机遇( 四 )


尽管Auto-GPT还在非常早期的实验阶段 , 但其开创了一种全新的AI交互方式 , 即由机器主动提出任务和计划 , 人类只需要给出任务目标 。这种交互方式不仅提高了AI智能体的自主性和灵活性 , 同时也拓展了人与AI之间的交互方式 , 打破了人类对于人工智能的“控制”想象 , 使得人工智能技术能从“工具”走向人类的“伙伴” 。
除了独立的AI Agent之外 , 未来还可能出现由多个AI智能体组成的“虚拟智能社会” 。GenerativeAgents—在由斯坦福大学和谷歌联合发表的一篇名叫《GenerativeAgents:InterativeSimulacra of Human Behavior》论文中 , 研究者们成功地构建了一个“虚拟小镇” , 其中的25个智能体在小镇上生存 。借助AIGC , 其中的NPC具备了可信人类行为 , 并对周围环境变化做出适当的反应 , 使得可以用现实社会现象去填充赛博空间 。
国外商业咨询机构预测 , 到2030年AIGC和生成式AI市场规模将达到1100亿美元 。正如“互联网+”一样 , “AIGC+”有望渗透到各行各业 , 在教育、医疗、金融、政务、制造、机器人、数字人、元宇宙、广告营销、电子商务、市场和战略咨询等众多领域带来新的应用形式 , 深度赋能千行百业 , 助力高质量发展 。
AIGC的产业应用中的挑战与问题
1.可解释性与可靠性
生成式人工智能的可解释性问题是指生成式人工智能(Generative Artificial Intelligence)所产生的结果难以解释或理解 。生成式人工智能是一种基于深度学习的人工智能技术 , 其通过学习大量数据来生成新的数据或图像 。但是 , 生成式人工智能所产生的结果通常很难理解和解释 , 因为其内部的运作过程非常复杂 , 而且很难直观地描述 。
这种可解释性问题对于许多应用场景都非常重要 , 比如医疗诊断、金融风控、自动驾驶等领域 。在这些领域中 , 人们需要了解生成式人工智能的内部运作过程 , 以便更好地理解其产生的结果 , 并且能够对其进行调整和优化 。
解决生成式人工智能的可解释性问题是当前人工智能研究的一个重要方向 , 研究人员正在探索各种方法来使生成式人工智能的结果更加可解释和可理解 。这些方法包括可视化技术、可解释性模型、对抗性样本等等 。
2.AI大模型的价值对齐问题
所谓人工智能的价值对齐(AI Alignment) , 就是让人工智能系统的行为符合人类的目标、偏好或伦理原则 。价值对齐是AI安全研究的一个核心议题 。在理论上 , 如果一个强大的AI系统所追求的目标和人类的真实目的意图和价值不一致 , 就有可能给人类带来灾难性后果 。就目前而言 , 大语言模型的价值对齐问题主要表现为 , 如何在模型层面让人工智能理解人类的价值和伦理原则 , 尽可能地防止模型的有害输出 , 从而打造出更加有用同时更加符合人类价值观的AI模型 。在这方面 , RLHF是一个有效的方法 , 通过小量的数据就可能实现比较好的效果 。简言之 , RLHF要求人类专家对模型输出内容的适当性进行评估 , 并基于人类提供的反馈对模型进行优化 。其目标是减少模型在未来生产有害内容的可能性 。实际上 , RLHF算法不仅是确保AI模型具有正确价值观的关键所在 , 而且对于生成式AI领域的长期健康可持续发展也十分重要 。[4]
3.塑造负责任的AI创新生态
大语言模型等生成式AI的进展 , 在让人们看到AGI曙光的同时 , 也带来更加复杂难控的风险 , 包括对人类未来生存的潜在风险 。AI时代需要成为一个负责任创新的时代 , 而非另一个“快速行动、打破陈规”的时代 。人们需要建立合理审慎的AI伦理和治理框架 , 塑造负责任的AI生态 , 打造人机和谐共生的未来 。生成式AI领域的创新主体则需要积极探索技术上和管理上的安全保障措施 , 为生成式AI的健康发展和安全可控应用构筑起防护栏 。
在科技向善理念之下 , 人工智能时代不应成为另一个“快速行动、打破陈规”的时代(即先快速把产品做出来 , 事后再通过修补、补救等方式解决其社会问题) , 而应成为一个负责任创新的时代 , 通过建立合理审慎的AI伦理和治理框架 , 塑造负责任的AI生态 , 打造人机和谐共生的未来 。[5]


推荐阅读