译者 | 布加迪
人工智能(AI)无疑是我们这个时代的流行语 。特别是随着ChatGPT等生成式AI应用程序的出现,AI大受欢迎,成为了技术大辩论的核心话题 。
文章插图
所有人都在谈论像ChatGPT这样的生成式AI应用程序的影响以及利用它们的能力是否公正 。然而,面对这场完美风暴,围绕AI一词的种种谎言和误解突然随之激增 。您可能已经听过很多这样的谎言和误解了 。
【戳穿人工智能的六个谎言:辨别真伪】不妨深入研究这些谎言,戳穿它们,以了解AI的真正本质 。
1. AI是智能的与普遍的看法相反,AI一点也不智能 。现在大多数人确实认为基于AI的模型很智能 。这可能是由于“人工智能”这个名称中含有“智能”一词 。
但是智能是什么意思呢?智能是生物体独有的一种特征 , 其定义是获取并运用知识和技能的一种能力 。这意味着智能使生物体能够与周围环境相互作用 , 从而学会如何生存 。
另一方面 , AI是一种机器模拟,旨在模仿这种自然智能的某些方面 。我们接触的大多数AI应用程序(尤其是在商业和在线平台领域)都依赖机器学习 。
这些是专门的AI系统,使用大量数据进行特定任务的训练 。它们擅长完成指定的任务,无论是玩游戏、翻译语言还是识别图像 。
然而一旦超出其预期范围,它们通常是无用的……在一系列任务中拥有类似人类智能的AI这个概念被称为通用AI , 我们离实现这个里程碑事件还很遥远 。
2. 始终越大越好科技巨头们常常竞相吹嘘自家的AI模型的规模有多庞大 。
Llama 2开源LLM以强大的700亿参数版本让世人感到惊讶,而谷歌的Palma拥有5400亿参数,OpenAI最近发布的ChatGPT4更是拥有1.8万亿参数 。
然而 , LLM的成百上千亿个参数不一定意味着有更好的性能 。数据的质量和训练方法常常是决定模型性能和准确性的更关键因素 。斯坦福大学的Alpaca实验已经证明了这点,一个简单的使用70亿参数的基于Llama的LLM其性能可以与多达1760亿参数的ChatGPT 3.5相媲美 。
所以并非始终是越大就越好!优化LLM的大小及其相应性能将使这些模型在本地得到更广泛的使用,并让我们可以将它们集成到日常设备中 。
3. AI毫无透明度和问责制可言一个常见的误解是,AI是神秘的黑盒子,缺乏任何透明度 。实际上,虽然AI系统可能很复杂,仍然相当不透明,但业界正在努力提高其透明度和问责制 。
监管机构要求有道德、负责任地使用AI 。《斯坦福人工智能透明度报告》和《欧洲人工智能法案》等重要举措旨在促使企业提高AI透明度 , 并为各国政府在这个新兴领域制定法规提供基础 。
透明AI已成为AI社区的一个核心讨论话题,涵盖众多问题,比如允许个人确定AI模型全面测试的流程和理解AI决策背后基本原理的流程 。
这就是为什么全球各地的数据专业人士已经在研究使AI模型更加透明的方法 。
所以虽然这个谎言可能部分正确,但显然不能作为常识 。
4. AI一贯正确许多人认为AI系统是完美的,不会出错 。事实绝非如此 。与任何系统一样,AI的表现取决于其训练数据的质量 。这些数据常常是由人类创建或管理的 。如果这些数据含有偏见,AI系统会在不经意间将偏见固化下来 。
麻省理工学院(MIT)的一个团队分析了多个广泛使用的预训练语言模型后发现,将性别与某些职业和情绪关联时存在明显的偏见 。比如说,空姐或秘书等角色主要与女性特质联系在一起,而律师和法官与男性特质联系在一起 。该团队在情感方面观察到了同样的行为 。
其他发现的偏见与种族有关 。随着LLM进入医疗保健领域 , 有人开始担心,它们可能会承袭基于种族的有害的医疗实践,反映出训练数据中固有的偏见 。
人工干预至关重要,需要监督和纠正这些缺点,确保AI的可靠性 。关键在于使用具有代表性、无偏见的数据 , 并进行算法审计以消除这些偏见 。
5. AI严重冲击就业市场最普遍的担忧之一是 , AI将导致大规模失业 。
然而历史表明,虽然技术可能会淘汰某些工作,但同时也会造就新的行业和机会 。
比如说,世界经济论坛预测,虽然到2025年AI可能会取代8500万个工作岗位,但也将创造9700万个新岗位 。
6. AI主宰人类最后一个谎言也是最反乌托邦的 。以《黑客帝国》和《终结者》等电影为代表的流行文化描绘了AI可能奴役人类的可怕场景 。
推荐阅读
- 神经网络优化算法的新思路:从梯度下降到自适应学习率
- 微软:Octo Tempest是最危险的金融黑客组织之一
- 网络安全工程师都要了解的勒索威胁新趋势
- 检测和应对网络威胁的正确姿势
- 谁是DBA背锅侠的幕后黑手?说说那些不懂装懂的人
- 编译器的并行化与多线程优化
- QLORA:大模型微调的内存高效方法
- 深入理解SQL事务:保证数据的一致性和完整性
- 关系数据库的演变:从过去到现在
- 深入探讨数据库管理系统中的不同隔离级别