Skip to content

Commit

Permalink
finish review chapter7 8 9
Browse files Browse the repository at this point in the history
This year, my friends and I conducted a comprehensive review of the Chinese translations published before, greatly improving the readability, hoping that they can help more people. We have completed the second half of the first part, and are gradually reviewing the first half.
  • Loading branch information
yaoqih committed Sep 10, 2024
1 parent aca889a commit bfd0947
Show file tree
Hide file tree
Showing 26 changed files with 1,482 additions and 1,494 deletions.
14 changes: 7 additions & 7 deletions chapters/zh-CN/chapter7/1.mdx
Original file line number Diff line number Diff line change
Expand Up @@ -2,9 +2,9 @@

# 章节简介 [[章节简介]]

[第三章](/course/chapter3),您了解了如何微调文本分类的模型。在本章中,我们将处理以下常见的 NLP 任务:
[第三章](/course/chapter3) ,你了解了如何微调文本分类模型。在本章中,我们将处理以下常见的 NLP 任务:

- 词元(token)分类
- Token 分类
- 掩码语言建模(如 BERT)
- 文本摘要
- 翻译
Expand All @@ -13,21 +13,21 @@

{#if fw === 'pt'}

为此,您需要利用[第三章](/course/chapter3)中学到的 `Trainer` API 和 🤗 Accelerate 库、[第五章](/course/chapter5)中的 🤗 Datasets 库以及[第六章](/course/chapter6)中的 🤗 Tokenizers 库的所有知识。我们同样会将结果上传到模型中心,就像我们在[第四章](/course/chapter4)中所做的那样,所以这确实是融会贯通的一章
为此,你需要充分利用在 [第三章](/course/chapter3) 中学到的有关 `Trainer` API 和 🤗 Accelerate 库的知识,以及在 [第五章](/course/chapter5) 中学到的 🤗 Datasets 库和 [第六章](/course/chapter6) 中学到的 🤗 Tokenizers 库的知识。我们还会像在 [第四章](/course/chapter4) 中那样将结果上传到 Model Hub,所以这真的是所有所学内容融会贯通的一章

每个部分都可以独立阅读,并将向您展示如何使用 `Trainer` API 或按照您自己的训练循环训练模型,并采用 🤗 Accelerate 加速。你可以随意跳过任何一部分,专注于您最感兴趣的部分:`Trainer` API 非常适用于微调(fine-tuning)或训练您的模型,且无需担心幕后发生的事情;而采用 `Accelerate` 的训练循环可以让您更轻松地自定义所需的任何结构
本章的每个部分都可以独立阅读,它们将向你展示如何使用 `Trainer` API 或自己的训练循环来训练模型,同时使用 🤗 Accelerate 加速。你可以随意跳过其中任意部分,重点关注你最感兴趣的部分: `Trainer` API 非常适合微调(fine-tuning)或训练模型,而无需关注内部的实现细节,而使用 `Accelerate` 的训练循环将使你更容易自定义所需的任何结构

{:else}

为此,您需要利用[第三章](/course/chapter3)中学到的有关 Keras API、[第五章](/course/chapter5)中的 🤗 Datasets 库以及[第六章](/course/chapter6)中的 🤗 Tokenizers 库的所有知识。我们同样会将结果上传到模型中心,就像我们在[第四章](/course/chapter4)中所做的那样,所以这确实是融会贯通的一章
为此,你需要充分利用在 [第三章](/course/chapter3) 中学到的有关 `Keras` API、 [第五章](/course/chapter5) 中的 🤗 Datasets 库以及 [第六章](/course/chapter6) 中的 🤗 Tokenizers 库的所有知识。我们还会像在 [第四章](/course/chapter4) 中那样将结果上传到 Model Hub,所以这真的是所有所学内容融会贯通的一章

每个部分都可以独立阅读
本章每个部分都可以独立阅读

{/if}


<Tip>

如果您按顺序阅读这些部分,您会注意到它们有很多共同的代码和陈述。 重复是有意为之的,让您可以深入(或稍后返回)任何您感兴趣的任务并找到一个完整的工作示例
如果你按顺序阅读这些部分,你会注意到各小节在代码和描述上有许多相似之处。这种重复是有意为之的,让你可以随时钻研或对比学习任何感兴趣的任务,并且在每个任务中都可以找到一个完整的可运行示例

</Tip>
272 changes: 134 additions & 138 deletions chapters/zh-CN/chapter7/2.mdx

Large diffs are not rendered by default.

259 changes: 129 additions & 130 deletions chapters/zh-CN/chapter7/3.mdx

Large diffs are not rendered by default.

227 changes: 115 additions & 112 deletions chapters/zh-CN/chapter7/4.mdx

Large diffs are not rendered by default.

287 changes: 146 additions & 141 deletions chapters/zh-CN/chapter7/5.mdx

Large diffs are not rendered by default.

215 changes: 103 additions & 112 deletions chapters/zh-CN/chapter7/6.mdx

Large diffs are not rendered by default.

298 changes: 149 additions & 149 deletions chapters/zh-CN/chapter7/7.mdx

Large diffs are not rendered by default.

12 changes: 6 additions & 6 deletions chapters/zh-CN/chapter7/8.mdx
Original file line number Diff line number Diff line change
Expand Up @@ -2,16 +2,16 @@

如果你在课程中做到了这一步,恭喜你——你现在拥有了用 🤗 Transformers 和 Hugging Face 生态系统解决(几乎)任何 NLP 任务所需的所有知识和工具!

我们见过很多不同的数据整理器,所以我们制作了这个小视频来帮助您找到每个任务使用哪一个
我们见过很多不同的数据整理器,所以我们制作了这个小视频来帮助你找到每个任务使用哪一个

<Youtube id="-RPeakdlHYo"/>

在完成核心 NLP 任务的快速入门后,您应该
在完成核心 NLP 任务的快速入门后,你应该

* 了解哪种架构(编码器、解码器或编码器-解码器)最适合每个任务
* 了解哪种架构(编码器、解码器或编码器-解码器)最适合哪种任务
* 了解预训练和微调语言模型之间的区别
* 了解如何使用 `Trainer` API 和 🤗 Accelerate 或 TensorFlow 和 Keras 的分布式训练功能来训练 Transformer 模型,具体选择那一种方法取决于您所需要完成的任务
* 了解如何使用 `Trainer` API 和 🤗 Accelerate 或 TensorFlow 和 Keras 的分布式训练功能来训练 Transformer 模型,具体选择那一种方法取决于你所需要完成的任务
* 了解 ROUGE 和 BLEU 等指标在文本生成任务中的意义和局限性
* 知道如何在 Hub 上和使用 🤗 Transformers 中的“管道”与您的微调模型进行交互
* 知道如何在 Hub 上和使用 🤗 Transformers 中的“管道”与你的微调模型进行交互

尽管掌握了所有这些知识,但总有一天你会遇到代码中的困难错误,或者对如何解决特定的 NLP 问题有疑问。幸运的是,Hugging Face 社区随时为您提供帮助!在这部分课程的最后一章中,我们将探讨如何调试 Transformer 模型并有效地寻求帮助。
尽管掌握了所有这些知识,但总有一天你会遇到代码中的困难错误,或者对如何解决特定的 NLP 问题有疑问。幸运的是,Hugging Face 社区随时为你提供帮助!在这部分课程的最后一章中,我们将探讨如何调试 Transformer 模型并有效地寻求帮助。
Loading

0 comments on commit bfd0947

Please sign in to comment.