diff --git a/chapters/zh-CN/chapter1/3.mdx b/chapters/zh-CN/chapter1/3.mdx
index 917ff91db..ca31eb003 100644
--- a/chapters/zh-CN/chapter1/3.mdx
+++ b/chapters/zh-CN/chapter1/3.mdx
@@ -17,7 +17,8 @@
## Transformer被应用于各个方面! [[Transformer被应用于各个方面!]]
Transformer 模型用于解决各种 NLP 任务,就像上一节中提到的那样。以下是一些使用 Hugging Face 和 Transformer 模型的公司和组织,他们也通过分享他们的模型回馈社区:
-![使用 Hugging Face 的公司](https://huggingface.co/course/static/chapter1/companies.PNG)
+
+
[🤗 Transformers 库](https://github.com/huggingface/transformers)提供了创建和使用这些共享模型的功能。[模型中心(hub)](https://huggingface.co/models)包含数千个任何人都可以下载和使用的预训练模型。您还可以将自己的模型上传到 Hub!
@@ -65,15 +66,15 @@ classifier(
目前[可用的一些pipeline](https://huggingface.co/transformers/main_classes/pipelines.html)是:
-* **特征提取**(获取文本的向量表示)
-* **填充空缺**
-* **ner**(命名实体识别)
-* **问答**
-* **情感分析**
-* **文本摘要**
-* **文本生成**
-* **翻译**
-* **零样本分类**
+* `feature-extraction`(获取文本的向量表示)
+* `fill-mask`
+* `ner`(命名实体识别)
+* `question-answering`
+* `sentiment-analysis`
+* `summarization`
+* `text-generation`
+* `translation`
+* `zero-shot-classification`
让我们来看看其中的一些吧!
diff --git a/chapters/zh-CN/chapter2/1.mdx b/chapters/zh-CN/chapter2/1.mdx
index ba49529b7..5e0857b8d 100644
--- a/chapters/zh-CN/chapter2/1.mdx
+++ b/chapters/zh-CN/chapter2/1.mdx
@@ -19,5 +19,5 @@
然后我们来看看标记器API,它是pipeline()函数的另一个主要组件。它是作用分词器负责第一个和最后一个处理步骤,处理从文本到神经网络数字输入的转换,以及在需要时转换回文本。最后,我们将向您展示如何处理在一个准备好的批处理中通过一个模型发送多个句子的问题,然后详细介绍pipeline()函数。
-⚠️ 为了从模型集线器和🤗Transformers的所有可用功能中获益,我们建议creating an account.
+⚠️ 为了从模型中心和🤗Transformers的所有可用功能中获益,我们建议creating an account.
\ No newline at end of file
diff --git a/chapters/zh-CN/chapter3/6.mdx b/chapters/zh-CN/chapter3/6.mdx
index 06f6dbccd..f0e33b25c 100644
--- a/chapters/zh-CN/chapter3/6.mdx
+++ b/chapters/zh-CN/chapter3/6.mdx
@@ -11,7 +11,7 @@
Test what you learned in this chapter!
-### 1.“情绪”数据集包含标记有情绪的 Twitter 消息。在[ Hub ]( https://huggingface.co/datasets 集线器)中搜索它,然后读取数据集卡。哪一个不是它的基本情感?
+### 1.“情绪”数据集包含标记有情绪的 Twitter 消息。在[模型中心](https://huggingface.co/datasets)中搜索它,然后读取数据集卡。哪一个不是它的基本情感?
-### 2.在[ Hub ]( https://huggingface.co/datasets 集线器)中搜索‘ ar _ sarcasm’数据集,它支持哪个任务?
+### 2.在[模型中心](https://huggingface.co/datasets)中搜索‘ ar _ sarcasm’数据集,它支持哪个任务?
")
tokenizer.save_pretrained("")
```
-这 **path_to_dummy_folder** 现在包含所有模型和标记器文件。我们遵循通常的 git 工作流程,将文件添加到暂存区,提交它们并将它们推送到集线器:
+这 **path_to_dummy_folder** 现在包含所有模型和标记器文件。我们遵循通常的 git 工作流程,将文件添加到暂存区,提交它们并将它们推送到模型中心:
```py
repo.git_add()
diff --git a/chapters/zh-CN/chapter7/5.mdx b/chapters/zh-CN/chapter7/5.mdx
index 0fbba71a7..95d18d246 100644
--- a/chapters/zh-CN/chapter7/5.mdx
+++ b/chapters/zh-CN/chapter7/5.mdx
@@ -663,7 +663,7 @@ trainer.push_to_hub(commit_message="Training complete", tags="summarization")
'https://huggingface.co/huggingface-course/mt5-finetuned-amazon-en-es/commit/aa0536b829b28e73e1e4b94b8a5aacec420d40e0'
```
-这会将检查点和配置文件保存到 **output_dir** , 在将所有文件上传到集线器之前。通过指定 **tags** 参数,我们还确保集线器上的小部件将是一个用于汇总管道的小部件,而不是与 mT5 架构关联的默认文本生成小部件(有关模型标签的更多信息,请参阅[🤗 Hub 文档](https://huggingface.co/docs/hub/main#how-is-a-models-type-of-inference-api-and-widget-determined))。输出来自 **trainer.push_to_hub()** 是 Git 提交哈希的 URL,因此您可以轻松查看对模型存储库所做的更改!
+这会将检查点和配置文件保存到 **output_dir** , 在将所有文件上传到模型中心之前。通过指定 **tags** 参数,我们还确保模型中心上的小部件将是一个用于汇总管道的小部件,而不是与 mT5 架构关联的默认文本生成小部件(有关模型标签的更多信息,请参阅[🤗 Hub 文档](https://huggingface.co/docs/hub/main#how-is-a-models-type-of-inference-api-and-widget-determined))。输出来自 **trainer.push_to_hub()** 是 Git 提交哈希的 URL,因此您可以轻松查看对模型存储库所做的更改!
在结束本节之前,让我们看一下如何使用 🤗 Accelerate 提供的底层API对 mT5 进行微调。
diff --git a/chapters/zh-TW/chapter1/3.mdx b/chapters/zh-TW/chapter1/3.mdx
index 31e4c8296..f7727906d 100644
--- a/chapters/zh-TW/chapter1/3.mdx
+++ b/chapters/zh-TW/chapter1/3.mdx
@@ -17,7 +17,8 @@
## Transformer被應用於各個方面!
Transformer 模型用於解決各種 NLP 任務,就像上一節中提到的那樣。以下是一些使用 Hugging Face 和 Transformer 模型的公司和組織,他們也通過分享他們的模型回饋社區:
-![使用 Hugging Face 的公司](https://huggingface.co/course/static/chapter1/companies.PNG)
+
+
[🤗 Transformers 庫](https://github.com/huggingface/transformers)提供了創建和使用這些共享模型的功能。[模型中心(hub)](https://huggingface.co/models)包含數千個任何人都可以下載和使用的預訓練模型。您還可以將自己的模型上傳到 Hub!
@@ -65,15 +66,15 @@ classifier(
目前[可用的一些pipeline](https://huggingface.co/transformers/main_classes/pipelines.html)是:
-* **特徵提取**(獲取文本的向量表示)
-* **填充空缺**
-* **ner**(命名實體識別)
-* **問答**
-* **情感分析**
-* **文本摘要**
-* **文本生成**
-* **翻譯**
-* **零樣本分類**
+* `feature-extraction`(獲取文本的向量表示)
+* `fill-mask`
+* `ner`(命名實體識別)
+* `question-answering`
+* `sentiment-analysis`
+* `summarization`
+* `text-generation`
+* `translation`
+* `zero-shot-classification`
讓我們來看看其中的一些吧!
diff --git a/chapters/zh-TW/chapter2/1.mdx b/chapters/zh-TW/chapter2/1.mdx
index d8d1b9a24..618d780bb 100644
--- a/chapters/zh-TW/chapter2/1.mdx
+++ b/chapters/zh-TW/chapter2/1.mdx
@@ -19,5 +19,5 @@
然後我們來看看標記器API,它是 pipeline() 函數的另一個主要組件。它是作用分詞器負責第一個和最後一個處理步驟,處理從文本到神經網絡數字輸入的轉換,以及在需要時轉換回文本。最後,我們將向您展示如何處理在一個準備好的批處理中通過一個模型發送多個句子的問題,然後詳細介紹 pipeline() 函數。
-⚠️ 為了從模型集線器和 🤗Transformers 的所有可用功能中獲益,我們建議creating an account.
+⚠️ 為了從模型中心和 🤗Transformers 的所有可用功能中獲益,我們建議creating an account.
\ No newline at end of file
diff --git a/chapters/zh-TW/chapter3/6.mdx b/chapters/zh-TW/chapter3/6.mdx
index 9f90c3fc3..b0a72ac28 100644
--- a/chapters/zh-TW/chapter3/6.mdx
+++ b/chapters/zh-TW/chapter3/6.mdx
@@ -11,7 +11,7 @@
Test what you learned in this chapter!
-### 1.「情緒」數據集包含標記有情緒的 Twitter 消息。在[ Hub ]( https://huggingface.co/datasets 集線器)中搜索它,然後讀取數據集卡。哪一個不是它的基本情感?
+### 1.「情緒」數據集包含標記有情緒的 Twitter 消息。在[模型中心](https://huggingface.co/datasets)中搜索它,然後讀取數據集卡。哪一個不是它的基本情感?
-### 2.在[ Hub ]( https://huggingface.co/datasets 集線器)中搜索‘ ar _ sarcasm’數據集,它支持哪個任務?
+### 2.在[模型中心](https://huggingface.co/datasets)中搜索‘ ar _ sarcasm’數據集,它支持哪個任務?
")
tokenizer.save_pretrained("")
```
-這 **path_to_dummy_folder** 現在包含所有模型和標記器文件。我們遵循通常的 git 工作流程,將文件添加到暫存區,提交它們並將它們推送到集線器:
+這 **path_to_dummy_folder** 現在包含所有模型和標記器文件。我們遵循通常的 git 工作流程,將文件添加到暫存區,提交它們並將它們推送到模型中心:
```py
repo.git_add()
diff --git a/chapters/zh-TW/chapter7/5.mdx b/chapters/zh-TW/chapter7/5.mdx
index eeab998ed..49f6cdd4a 100644
--- a/chapters/zh-TW/chapter7/5.mdx
+++ b/chapters/zh-TW/chapter7/5.mdx
@@ -665,7 +665,7 @@ trainer.push_to_hub(commit_message="Training complete", tags="summarization")
'https://huggingface.co/huggingface-course/mt5-finetuned-amazon-en-es/commit/aa0536b829b28e73e1e4b94b8a5aacec420d40e0'
```
-這會將檢查點和配置文件保存到 **output_dir** , 在將所有文件上傳到集線器之前。通過指定 **tags** 參數,我們還確保集線器上的小部件將是一個用於彙總管道的小部件,而不是與 mT5 架構關聯的默認文本生成小部件(有關模型標籤的更多信息,請參閱[🤗 Hub 文檔](https://huggingface.co/docs/hub/main#how-is-a-models-type-of-inference-api-and-widget-determined))。輸出來自 **trainer.push_to_hub()** 是 Git 提交哈希的 URL,因此您可以輕鬆查看對模型存儲庫所做的更改!
+這會將檢查點和配置文件保存到 **output_dir** , 在將所有文件上傳到模型中心之前。通過指定 **tags** 參數,我們還確保模型中心上的小部件將是一個用於彙總管道的小部件,而不是與 mT5 架構關聯的默認文本生成小部件(有關模型標籤的更多信息,請參閱[🤗 Hub 文檔](https://huggingface.co/docs/hub/main#how-is-a-models-type-of-inference-api-and-widget-determined))。輸出來自 **trainer.push_to_hub()** 是 Git 提交哈希的 URL,因此您可以輕鬆查看對模型存儲庫所做的更改!
在結束本節之前,讓我們看一下如何使用 🤗 Accelerate 提供的底層API對 mT5 進行微調。