Skip to content

Commit

Permalink
fix typo and formatting in Chinese translation
Browse files Browse the repository at this point in the history
  • Loading branch information
qcgzxw committed Mar 20, 2024
1 parent eef7403 commit cb3fce6
Show file tree
Hide file tree
Showing 8 changed files with 25 additions and 25 deletions.
14 changes: 7 additions & 7 deletions chapters/zh-CN/chapter1/3.mdx
Original file line number Diff line number Diff line change
Expand Up @@ -17,7 +17,7 @@
## Transformer被应用于各个方面! [[Transformer被应用于各个方面!]]
Transformer 模型用于解决各种 NLP 任务,就像上一节中提到的那样。以下是一些使用 Hugging Face 和 Transformer 模型的公司和组织,他们也通过分享他们的模型回馈社区:

![使用 Hugging Face 的公司](https://huggingface.co/course/static/chapter1/companies.PNG)
![使用 Hugging Face 的公司](https://huggingface.co/datasets/huggingface-course/documentation-images/resolve/main/en/chapter1/companies.PNG)
[🤗 Transformers 库](https://github.com/huggingface/transformers)提供了创建和使用这些共享模型的功能。[模型中心(hub)](https://huggingface.co/models)包含数千个任何人都可以下载和使用的预训练模型。您还可以将自己的模型上传到 Hub!

<Tip>
Expand Down Expand Up @@ -97,7 +97,7 @@ classifier(

此pipeline称为zero-shot,因为您不需要对数据上的模型进行微调即可使用它。它可以直接返回您想要的任何标签列表的概率分数!
<Tip>
✏️**快来试试吧!**使用您自己的序列和标签,看看模型的行为。
✏️**快来试试吧!** 使用您自己的序列和标签,看看模型的行为。
</Tip>

## 文本生成 [[文本生成]]
Expand All @@ -119,7 +119,7 @@ generator("In this course, we will teach you how to")
您可以使用参数 **num_return_sequences** 控制生成多少个不同的序列,并使用参数 **max_length** 控制输出文本的总长度。

<Tip>
✏️**快来试试吧!**使用 num_return_sequences 和 max_length 参数生成两个句子,每个句子 15 个单词。
✏️**快来试试吧!** 使用 num_return_sequences 和 max_length 参数生成两个句子,每个句子 15 个单词。
</Tip>

## 在pipeline中使用 Hub 中的其他模型 [[在pipeline中使用 Hub 中的其他模型]]
Expand Down Expand Up @@ -148,7 +148,7 @@ generator(

通过单击选择模型后,您会看到有一个小组件,可让您直接在线试用。通过这种方式,您可以在下载之前快速测试模型的功能。
<Tip>
✏️**快来试试吧!**使用标签筛选查找另一种语言的文本生成模型。使用小组件测试并在pipeline中使用它!
✏️**快来试试吧!** 使用标签筛选查找另一种语言的文本生成模型。使用小组件测试并在pipeline中使用它!
</Tip>

## 推理 API [[推理 API]]
Expand Down Expand Up @@ -177,7 +177,7 @@ unmasker("This course will teach you all about <mask> models.", top_k=2)
**top_k** 参数控制要显示的结果有多少种。请注意,这里模型填充了特殊的< **mask** >词,它通常被称为掩码标记。其他掩码填充模型可能有不同的掩码标记,因此在探索其他模型时要验证正确的掩码字是什么。检查它的一种方法是查看小组件中使用的掩码。

<Tip>
✏️**快来试试吧!**在 Hub 上搜索基于 bert 的模型并在推理 API 小组件中找到它的掩码。这个模型对上面pipeline示例中的句子预测了什么?
✏️**快来试试吧!** 在 Hub 上搜索基于 bert 的模型并在推理 API 小组件中找到它的掩码。这个模型对上面pipeline示例中的句子预测了什么?
</Tip>

## 命名实体识别 [[命名实体识别]]
Expand All @@ -199,7 +199,7 @@ ner("My name is Sylvain and I work at Hugging Face in Brooklyn.")
我们在pipeline创建函数中传递选项 **grouped_entities=True** 以告诉pipeline将对应于同一实体的句子部分重新组合在一起:这里模型正确地将“Hugging”和“Face”分组为一个组织,即使名称由多个词组成。事实上,正如我们即将在下一章看到的,预处理甚至会将一些单词分成更小的部分。例如,**Sylvain** 分割为了四部分:**S、##yl、##va****##in**。在后处理步骤中,pipeline成功地重新组合了这些部分。

<Tip>
✏️**快来试试吧!**在模型中心(hub)搜索能够用英语进行词性标注(通常缩写为 POS)的模型。这个模型对上面例子中的句子预测了什么?
✏️**快来试试吧!** 在模型中心(hub)搜索能够用英语进行词性标注(通常缩写为 POS)的模型。这个模型对上面例子中的句子预测了什么?
</Tip>

## 问答系统 [[问答系统]]
Expand Down Expand Up @@ -280,7 +280,7 @@ translator("Ce cours est produit par Hugging Face.")

<Tip>

✏️**快来试试吧!**搜索其他语言的翻译模型,尝试将前一句翻译成几种不同的语言。
✏️**快来试试吧!** 搜索其他语言的翻译模型,尝试将前一句翻译成几种不同的语言。

</Tip>

Expand Down
4 changes: 2 additions & 2 deletions chapters/zh-CN/chapter2/5.mdx
Original file line number Diff line number Diff line change
Expand Up @@ -189,7 +189,7 @@ batched_ids = [ids, ids]

<Tip>

✏️ **Try it out!** 试试看!将此列表转换为张量并通过模型传递。检查您是否获得与之前相同的登录(但是只有两次)
✏️ **试试看!** 将此列表转换为张量并通过模型传递。检查您是否获得与之前相同的登录(但是只有两次)
</Tip>

批处理允许模型在输入多个句子时工作。使用多个序列就像使用单个序列构建批一样简单。不过,还有第二个问题。当你试图将两个(或更多)句子组合在一起时,它们的长度可能不同。如果您以前使用过张量,那么您知道它们必须是矩形,因此无法将输入ID列表直接转换为张量。为了解决这个问题,我们通常填充输入。
Expand Down Expand Up @@ -326,7 +326,7 @@ tf.Tensor(

<Tip>

✏️ 试试看!在第2节中使用的两个句子上手动应用标记化(“我一生都在等待拥抱课程。”和“我非常讨厌这个!”)。通过模型传递它们,并检查您是否获得与第2节中相同的登录。现在使用填充标记将它们批处理在一起,然后创建适当的注意掩码。检查通过模型时是否获得相同的结果!
✏️ 试试看!在第2节中使用的两个句子上手动应用标记化(“我一生都在等待Hugging Face课程。”和“我非常讨厌这个!”)。通过模型传递它们,并检查您是否获得与第2节中相同的登录。现在使用填充标记将它们批处理在一起,然后创建适当的注意掩码。检查通过模型时是否获得相同的结果!

</Tip>

Expand Down
6 changes: 3 additions & 3 deletions chapters/zh-CN/chapter4/3.mdx
Original file line number Diff line number Diff line change
Expand Up @@ -51,7 +51,7 @@

将文件上传到集线器的最简单方法是利用 **push_to_hub** API 接口。

在继续之前,您需要生成一个身份验证令牌,以便 **huggingface_hub** API 知道您是谁以及您对哪些名称空间具有写入权限。确保你在一个环境中 **transformers** 已安装(见[Setup](/course/chapter0))。如果您在笔记本中,可以使用以下功能登录:
在继续之前,您需要生成一个身份验证令牌,以便 **huggingface_hub** API 知道您是谁以及您对哪些名称空间具有写入权限。确保你在一个环境中 **transformers** 已安装(见[安装](/course/chapter0))。如果您在笔记本中,可以使用以下功能登录:

```python
from huggingface_hub import notebook_login
Expand All @@ -65,7 +65,7 @@ notebook_login()
huggingface-cli login
```

在这两种情况下,系统都会提示您输入用户名和密码,这与您用于登录 Hub 的用户名和密码相同。如果您还没有 Hub 配置文件,则应该创建一个[here](https://huggingface.co/join)
在这两种情况下,系统都会提示您输入用户名和密码,这与您用于登录 Hub 的用户名和密码相同。如果您还没有 Hub 配置文件,则应该创建一个[创建一个账户](https://huggingface.co/join)

好的!您现在已将身份验证令牌存储在缓存文件夹中。让我们创建一些存储库!

Expand Down Expand Up @@ -570,7 +570,7 @@ Objects not staged for commit:

{/if}

Let's proceed to the final steps, committing and pushing to 让我们继续最后的步骤,提交并推动Hugging Face远程仓库:
让我们继续最后的步骤,提交并推送到Hugging Face远程仓库:

```bash
git commit -m "First model version"
Expand Down
2 changes: 1 addition & 1 deletion chapters/zh-CN/chapter5/6.mdx
Original file line number Diff line number Diff line change
Expand Up @@ -177,7 +177,7 @@ Dataset({

<Tip>

✏️ **Try it out!** 看看能不能不用pandas就可以完成列的扩充; 这有点棘手; 你可能会发现 🤗 Datasets 文档的 ["Batch mapping"](https://huggingface.co/docs/datasets/about_map_batch#batch-mapping) 对这个任务很有用。
✏️ **试试看!** 看看能不能不用pandas就可以完成列的扩充; 这有点棘手; 你可能会发现 🤗 Datasets 文档的 ["Batch mapping"](https://huggingface.co/docs/datasets/about_map_batch#batch-mapping) 对这个任务很有用。

</Tip>

Expand Down
14 changes: 7 additions & 7 deletions chapters/zh-TW/chapter1/3.mdx
Original file line number Diff line number Diff line change
Expand Up @@ -17,7 +17,7 @@
## Transformer被應用於各個方面!
Transformer 模型用於解決各種 NLP 任務,就像上一節中提到的那樣。以下是一些使用 Hugging Face 和 Transformer 模型的公司和組織,他們也通過分享他們的模型回饋社區:

![使用 Hugging Face 的公司](https://huggingface.co/course/static/chapter1/companies.PNG)
![使用 Hugging Face 的公司](https://huggingface.co/datasets/huggingface-course/documentation-images/resolve/main/en/chapter1/companies.PNG)
[🤗 Transformers 庫](https://github.com/huggingface/transformers)提供了創建和使用這些共享模型的功能。[模型中心(hub)](https://huggingface.co/models)包含數千個任何人都可以下載和使用的預訓練模型。您還可以將自己的模型上傳到 Hub!

<Tip>
Expand Down Expand Up @@ -97,7 +97,7 @@ classifier(

此pipeline稱為zero-shot,因為您不需要對數據上的模型進行微調即可使用它。它可以直接返回您想要的任何標籤列表的概率分數!
<Tip>
✏️**快來試試吧!**使用您自己的序列和標籤,看看模型的行為。
✏️**快來試試吧!** 使用您自己的序列和標籤,看看模型的行為。
</Tip>

## 文本生成
Expand All @@ -119,7 +119,7 @@ generator("In this course, we will teach you how to")
您可以使用參數 **num_return_sequences** 控制生成多少個不同的序列,並使用參數 **max_length** 控制輸出文本的總長度。

<Tip>
✏️**快來試試吧!**使用 num_return_sequences 和 max_length 參數生成兩個句子,每個句子 15 個單詞。
✏️**快來試試吧!** 使用 num_return_sequences 和 max_length 參數生成兩個句子,每個句子 15 個單詞。
</Tip>

## 在pipeline中使用 Hub 中的其他模型
Expand Down Expand Up @@ -148,7 +148,7 @@ generator(

通過單擊選擇模型後,您會看到有一個小組件,可讓您直接在線試用。通過這種方式,您可以在下載之前快速測試模型的功能。
<Tip>
✏️**快來試試吧!**使用標籤篩選查找另一種語言的文本生成模型。使用小組件測試並在pipeline中使用它!
✏️**快來試試吧!** 使用標籤篩選查找另一種語言的文本生成模型。使用小組件測試並在pipeline中使用它!
</Tip>

## 推理 API
Expand Down Expand Up @@ -177,7 +177,7 @@ unmasker("This course will teach you all about <mask> models.", top_k=2)
**top_k** 參數控制要顯示的結果有多少種。請注意,這裡模型填充了特殊的< **mask** >詞,它通常被稱為掩碼標記。其他掩碼填充模型可能有不同的掩碼標記,因此在探索其他模型時要驗證正確的掩碼字是什麼。檢查它的一種方法是查看小組件中使用的掩碼。

<Tip>
✏️**快來試試吧!**在 Hub 上搜索基於 bert 的模型並在推理 API 小組件中找到它的掩碼。這個模型對上面pipeline示例中的句子預測了什麼?
✏️**快來試試吧!** 在 Hub 上搜索基於 bert 的模型並在推理 API 小組件中找到它的掩碼。這個模型對上面pipeline示例中的句子預測了什麼?
</Tip>

## 命名實體識別
Expand All @@ -199,7 +199,7 @@ ner("My name is Sylvain and I work at Hugging Face in Brooklyn.")
我們在pipeline創建函數中傳遞選項 **grouped_entities=True** 以告訴pipeline將對應於同一實體的句子部分重新組合在一起:這裡模型正確地將「Hugging」和「Face」分組為一個組織,即使名稱由多個詞組成。事實上,正如我們即將在下一章看到的,預處理甚至會將一些單詞分成更小的部分。例如,**Sylvain** 分割為了四部分:**S、##yl、##va****##in**。在後處理步驟中,pipeline成功地重新組合了這些部分。

<Tip>
✏️**快來試試吧!**在模型中心(hub)搜索能夠用英語進行詞性標注(通常縮寫為 POS)的模型。這個模型對上面例子中的句子預測了什麼?
✏️**快來試試吧!** 在模型中心(hub)搜索能夠用英語進行詞性標注(通常縮寫為 POS)的模型。這個模型對上面例子中的句子預測了什麼?
</Tip>

## 問答系統
Expand Down Expand Up @@ -280,7 +280,7 @@ translator("Ce cours est produit par Hugging Face.")

<Tip>

✏️**快來試試吧!**搜索其他語言的翻譯模型,嘗試將前一句翻譯成幾種不同的語言。
✏️**快來試試吧!** 搜索其他語言的翻譯模型,嘗試將前一句翻譯成幾種不同的語言。

</Tip>

Expand Down
4 changes: 2 additions & 2 deletions chapters/zh-TW/chapter2/5.mdx
Original file line number Diff line number Diff line change
Expand Up @@ -189,7 +189,7 @@ batched_ids = [ids, ids]

<Tip>

✏️ **Try it out!** 試試看!將此列表轉換為張量並通過模型傳遞。檢查您是否獲得與之前相同的登錄(但是隻有兩次)
✏️ **試試看!** 將此列表轉換為張量並通過模型傳遞。檢查您是否獲得與之前相同的登錄(但是隻有兩次)
</Tip>

批處理允許模型在輸入多個句子時工作。使用多個序列就像使用單個序列構建批一樣簡單。不過,還有第二個問題。當你試圖將兩個(或更多)句子組合在一起時,它們的長度可能不同。如果您以前使用過張量,那麼您知道它們必須是矩形,因此無法將輸入ID列表直接轉換為張量。為了解決這個問題,我們通常填充輸入。
Expand Down Expand Up @@ -326,7 +326,7 @@ tf.Tensor(

<Tip>

✏️ 試試看!在第2節中使用的兩個句子上手動應用標記化(“我一生都在等待擁抱課程。”和“我非常討厭這個!”)。通過模型傳遞它們,並檢查您是否獲得與第2節中相同的登錄。現在使用填充標記將它們批處理在一起,然後創建適當的注意掩碼。檢查通過模型時是否獲得相同的結果!
✏️ 試試看!在第2節中使用的兩個句子上手動應用標記化(“我一生都在等待Hugging Face課程。”和“我非常討厭這個!”)。通過模型傳遞它們,並檢查您是否獲得與第2節中相同的登錄。現在使用填充標記將它們批處理在一起,然後創建適當的注意掩碼。檢查通過模型時是否獲得相同的結果!

</Tip>

Expand Down
4 changes: 2 additions & 2 deletions chapters/zh-TW/chapter4/3.mdx
Original file line number Diff line number Diff line change
Expand Up @@ -414,7 +414,7 @@ README.md

如果您剛剛使用 Hugging Face Hub 創建了您的存儲庫 **create_repo** 方法,這個文件夾應該只包含一個隱藏的 **.gitattributes** 文件。如果您按照上一節中的說明使用 Web 界面創建存儲庫,則該文件夾應包含一個自述文件文件旁邊的隱藏 **.gitattributes** 文件,如圖所示。

添加一個常規大小的文件,例如配置文件、詞彙文件,或者基本上任何幾兆字節以下的文件,就像在任何基於 git 的系統中所做的一樣。但是,更大的文件必須通過 git-lfs 註冊才能將它們推送到擁抱臉
添加一個常規大小的文件,例如配置文件、詞彙文件,或者基本上任何幾兆字節以下的文件,就像在任何基於 git 的系統中所做的一樣。但是,更大的文件必須通過 git-lfs 註冊才能將它們推送到Hugging Face

讓我們回到 Python 來生成我們想要提交到我們的虛擬存儲庫的模型和標記器:

Expand Down Expand Up @@ -570,7 +570,7 @@ Objects not staged for commit:

{/if}

Let's proceed to the final steps, committing and pushing to 讓我們繼續最後的步驟,提交併推動擁抱臉遠程倉庫
讓我們繼續最後的步驟,提交併推送到Hugging Face遠程倉庫

```bash
git commit -m "First model version"
Expand Down
2 changes: 1 addition & 1 deletion chapters/zh-TW/chapter5/6.mdx
Original file line number Diff line number Diff line change
Expand Up @@ -188,7 +188,7 @@ Dataset({

<Tip>

✏️ **Try it out!** 看看能不能不用pandas就可以完成列的擴充; 這有點棘手; 你可能會發現 🤗 Datasets 文檔的 ["Batch mapping"](https://huggingface.co/docs/datasets/about_map_batch#batch-mapping) 對這個任務很有用。
✏️ **試試看!** 看看能不能不用pandas就可以完成列的擴充; 這有點棘手; 你可能會發現 🤗 Datasets 文檔的 ["Batch mapping"](https://huggingface.co/docs/datasets/about_map_batch#batch-mapping) 對這個任務很有用。

</Tip>

Expand Down

0 comments on commit cb3fce6

Please sign in to comment.