译者 | 布加迪
审校 | 重楼
文章插图
在最近一年半的时间里,自然语言处理(NLP)领域发生了显著的变化 , 这主要得益于AI target=_blank class=infotextkey>OpenAI的GPT系列等大语言模型(LLM)的兴起 。
这些功能强大的模型已彻底改变了我们处理自然语言任务的方法,在翻译、情绪分析和文本自动生成等方面提供了前所未有的能力 。它们理解和生成类似人类的文本的能力已带来了曾经被认为无法实现的可能性 。
然而,尽管这些模型具有出色的能力,但训练它们的过程却充满了挑战 , 比如需要投入大量的时间和资金 。这时候,微调LLM就体现出了其重要性 。
通过细化这些预训练的模型以更好地适应特定的应用环境或领域,我们就可以显著提高它们处理特定任务的性能 。这一步不仅提高了它们的质量,还扩大了它们在一系列广泛领域的用途 。
本文旨在将这个过程分解为七个简单步骤 , 以便使任何LLM针对特定任务进行微调 。
理解预训练的大语言模型LLM是机器学习算法的一个特殊类别,旨在根据前一个单词提供的上下文预测序列中的下一个单词 。这些模型建立在Transformers架构上,这是机器学习技术领域的一大突破 , 在谷歌的《你需要的就是注意力》文章中作了首次解释 。
GPT(生成式预训练Transformer)之类的模型就是已经暴露于大量文本数据的预训练语言模型 。这种广泛的训练使它们得以掌握语言使用的基本规则,包括如何将单词组合成连贯的句子 。
文章插图
这些模型的一个关键优势在于,它们不仅能够理解自然语言 , 还能够根据提供的输入生成酷似人类写作的文本 。
那么其最大的优点是什么呢?那就是这些模型已经通过API向大众开放 。
什么是微调,为什么很重要?微调是指选择一个预训练的模型,并通过使用特定领域的数据集进一步训练来改进它的过程 。
大多数LLM模型有很好的自然语言技能和通用知识性能,但在处理特定的面向任务的问题时差强人意 。微调过程提供了一种方法,可以提升模型处理特定问题的性能 , 同时降低计算费用,无需从头开始构建模型 。
文章插图
简而言之,模型经过微调后,针对特定任务拥有更好的性能,使其在实际应用中更有效、更通用 。这个过程对于改进现有模型以处理特定的任务或领域至关重要 。
微调LLM的逐步指南不妨通过如下七个步骤微调一个实际模型来举例说明这个概念 。
第一步:明确具体目标假设我们想要推断任何文本的情绪,决定试用GPT-2来完成这样的任务 。
我敢肯定,我们很快就会发现它在这方面做得很差,这并不奇怪 。然后,一个自然而然的问题浮现在脑海中:我们可以做些什么来改善其性能?
当然,答案是我们可以!
使用含有推文及相应情绪的数据集训练来自Hugging Face Hub的预训练GPT-2模型 , 充分利用微调的效果 , 以便提高性能 。
所以,我们的最终目标是拥有一个善于从文本中推断情绪的模型 。
第二步:选择预训练的模型和数据集第二步是选择什么模型作为基本模型 。在本文例子中,我们已经选择了模型:GPT-2 。所以我们要对它进行一些简单的微调 。
文章插图
始终记住要选择适合您任务的模型 。
第三步:加载要使用的数据我们已有了模型和主要任务,现在需要一些数据来处理 。
不过别担心 , Hugging Face已经把一切都安排好了!
这时候,它的数据集库有了用武之地 。
在这个例子中,我们将充分利用Hugging Face数据集库来导入一个数据集,其中的推文被标记为相应的情绪(积极的、中立的或消极的) 。
from datasets import load_datasetdataset = load_dataset("mteb/tweet_sentiment_extraction")df = pd.DataFrame(dataset['train'])
数据看起来就像这样:文章插图
第四步:分词器(Tokenizer)现在我们有了模型和数据集来对其进行微调 。因此,接下来的合理步骤是加载分词器 。由于LLM使用token(而不是单词!!),我们需要分词器将数据发送到我们的模型 。
推荐阅读
- 人形机器人成本大揭秘:如何降低成本提高效率?
- ChatGPT-4o,OpenAI的一小步,人类「AI助理」的一大步
- Windows和Mac电脑密码修改大揭秘,快来学学吧!
- 看看窦唯,老狼的现状,才发现周晓鸥已经走上了另一条大道
- 人间清醒大张伟:坚持和队友对半分账,拒绝黄小蕾,只宠胖媳妇儿
- 没演技就是没演技,同样是扮演刑侦专家,丁勇岱和张丰毅差距太大
- 林更新大方牵手赵丽颖,冯绍峰微妙回避,星光大赏上的一幕
- 张柏芝大儿子新年首露面,正脸照曝光被指颜值不如谢霆锋
- 有种“整容”叫长大,11年前春晚一转成名的小彩旗,如今像换个人
- 韩剧女王宋慧乔变身驱魔修女, 这次乔妹拼了!尺度比《黑暗荣耀》还大!