Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

Added Chapter 1 - 1.mdx for Nepali Language #765

Open
wants to merge 3 commits into
base: main
Choose a base branch
from
Open
Show file tree
Hide file tree
Changes from all commits
Commits
File filter

Filter by extension

Filter by extension

Conversations
Failed to load comments.
Loading
Jump to
Jump to file
Failed to load files.
Loading
Diff view
Diff view
5 changes: 5 additions & 0 deletions chapters/ne/_toctree.yml
Original file line number Diff line number Diff line change
Expand Up @@ -2,3 +2,8 @@
sections:
- local: chapter0/1
title: परिचय

- title: 1. ट्रान्सफर्मर मोडेल
sections:
- local: chapter1/1
title: परिचय
119 changes: 119 additions & 0 deletions chapters/ne/chapter1/1.mdx
Original file line number Diff line number Diff line change
@@ -0,0 +1,119 @@
# परिचय[[introduction]]

<CourseFloatingBanner
chapter={1}
classNames="absolute z-10 right-0 top-0"
/>

## 🤗 पाठ्यक्रममा स्वागत छ![[welcome-to-the-course]]

<Youtube id="00GKzGyWFEs" />

यो पाठ्यक्रमले तपाईंलाई [Hugging Face](https://huggingface.co/) इकोसिस्टमका लाइब्रेरीहरू — [🤗 Transformers](https://github.com/huggingface/transformers), [🤗 Datasets](https://github.com/huggingface/datasets), [🤗
Tokenizers](https://github.com/huggingface/tokenizers), र [🤗 Accelerate](https://github.com/huggingface/accelerate) — साथै [Hugging Face Hub](https://huggingface.co/models) प्रयोग गरेर प्राकृतिक भाषा प्रशोधन (NLP) को बारेमा
सिकाउनेछ। यो पूर्णतया नि:शुल्क र विज्ञापन रहित छ।

## के अपेक्षा गर्ने?[[what-to-expect]]

यहाँ पाठ्यक्रमको संक्षिप्त विवरण छ:

<div class="flex justify-center">
<img class="block dark:hidden" src="https://huggingface.co/datasets/huggingface-course/documentation-images/resolve/main/en/chapter1/summary.svg" alt="पाठ्यक्रमका अध्यायहरूको संक्षिप्त विवरण।">
<img class="hidden dark:block" src="https://huggingface.co/datasets/huggingface-course/documentation-images/resolve/main/en/chapter1/summary-dark.svg" alt="पाठ्यक्रमका अध्यायहरूको संक्षिप्त विवरण।">
</div>

- अध्याय १ देखि ४ ले 🤗 Transformers लाइब्रेरीका मुख्य अवधारणाहरूको परिचय दिन्छन्। यो भागको अन्त्यसम्ममा, तपाईं Transformer मोडेलहरू कसरी काम गर्छन् भन्ने कुरासँग परिचित हुनुहुनेछ र [Hugging Face Hub](https://huggingface.co/models) बाट मोडेल प्रयोग गर्न, डाटासेटमा
फाइन-ट्युन गर्न र आफ्नो नतिजाहरू हबमा साझा गर्न सक्षम हुनुहुनेछ!
- अध्याय ५ देखि ८ ले 🤗 Datasets र 🤗 Tokenizers का आधारभूत कुराहरू सिकाउँछन् र त्यसपछि परम्परागत NLP कार्यहरूमा गहिरिन्छ। यो भागको अन्त्यसम्ममा, तपाईं आफैं सबैभन्दा सामान्य NLP समस्याहरू समाधान गर्न सक्षम हुनुहुनेछ।
- अध्याय ९ ले NLP भन्दा बाहिर गई 🤗 हबमा आफ्ना मोडेलहरूको डेमो कसरी बनाउने र साझा गर्ने भन्ने कुरा समेट्छ। यो भागको अन्त्यसम्ममा, तपाईं आफ्नो 🤗 Transformers एप्लिकेसन संसारलाई देखाउन तयार हुनुहुनेछ!

यो पाठ्यक्रम:

* पाइथनको राम्रो ज्ञान आवश्यक पर्छ
* [fast.ai](https://www.fast.ai/) को [Practical Deep Learning for Coders](https://course.fast.ai/) वा [DeepLearning.AI](https://www.deeplearning.ai/) द्वारा विकसित कार्यक्रमहरू जस्ता परिचयात्मक डिप लर्निङ पाठ्यक्रम पछि लिन उत्तम हुन्छ
* [PyTorch](https://pytorch.org/) वा [TensorFlow](https://www.tensorflow.org/) को पूर्व ज्ञान अपेक्षा गर्दैन, यद्यपि कुनै एकको केही जानकारी भए सहयोगी हुन्छ

यो पाठ्यक्रम पूरा गरेपछि, हामी DeepLearning.AI को [Natural Language Processing
Specialization](https://www.coursera.org/specializations/natural-language-processing?utm_source=deeplearning-ai&utm_medium=institutions&utm_campaign=20211011-nlp-2-hugging_face-page-nlp-refresh) हेर्न सुझाव दिन्छौं, ज
naive Bayes र LSTMs जस्ता परम्परागत NLP मोडेलहरूको विस्तृत जानकारी दिन्छ जुन जान्न उपयोगी छ!

## हाम्रो टिम को को हौं?[[who-are-we]]

लेखकहरूको बारेमा:

[**Abubakar Abid**](https://huggingface.co/abidlabs) ले स्ट्यानफोर्डमा एप्लाइड मेसिन लर्निङमा पीएचडी पूरा गरे। आफ्नो पीएचडी अवधिमा, उनले [Gradio](https://github.com/gradio-app/gradio) को स्थापना गरे, एउटा खुला स्रोत पाइथन लाइब्रेरी जुन ६००,००० भन्दा बढी मेसिन
लर्निङ डेमोहरू बनाउन प्रयोग भएको छ। Gradio लाई Hugging Face ले अधिग्रहण गर्यो, जहाँ अबुबकर अहिले मेसिन लर्निङ टिमको नेतृत्व गर्छन्।

[**Matthew Carrigan**](https://huggingface.co/Rocketknight1) Hugging Face मा मेसिन लर्निङ इन्जिनियर हुन्। उनी डब्लिन, आयरल्यान्डमा बस्छन् र यसअघि Parse.ly मा ML इन्जिनियरको रूपमा र त्यसअघि ट्रिनिटी कलेज डब्लिनमा पोस्ट-डक्टोरल अनुसन्धानकर्ताको रूपमा काम गरेका थिए। उनी
वर्तमान आर्किटेक्चरहरूलाई स्केल गरेर AGI मा पुग्न सकिन्छ भन्ने विश्वास गर्दैनन्, तर रोबोट अमरत्वको लागि उच्च आशा राख्छन्।

[**Lysandre Debut**](https://huggingface.co/lysandre) Hugging Face मा मेसिन लर्निङ इन्जिनियर हुन् र सुरुवाती विकास चरणदेखि नै 🤗 Transformers लाइब्रेरीमा काम गरिरहेका छन्। उनको लक्ष्य साधारण API भएका उपकरणहरू विकास गरेर NLP लाई सबैको लागि पहुँचयोग्य बनाउनु हो।

[**Sylvain Gugger**](https://huggingface.co/sgugger) Hugging Face मा रिसर्च इन्जिनियर र 🤗 Transformers लाइब्रेरीका मुख्य मेन्टेनरहरू मध्ये एक हुन्। पहिले उनी fast.ai मा रिसर्च साइन्टिस्ट थिए, र जेरेमी होवार्डसँग _[Deep Learning for Coders with fastai an
PyTorch](https://learning.oreilly.com/library/view/deep-learning-for/9781492045519/)_ को सह-लेखक हुन्। उनको अनुसन्धानको मुख्य फोकस डिप लर्निङलाई सीमित स्रोतहरूमा छिटो तालिम दिन सक्ने प्रविधिहरूको डिजाइन र सुधार गरेर अझ पहुँचयोग्य बनाउनु हो।

[**Dawood Khan**](https://huggingface.co/dawoodkhan82) Hugging Face मा मेसिन लर्निङ इन्जिनियर हुन्। उनी न्यूयोर्क सिटीका हुन् र न्यूयोर्क विश्वविद्यालयबाट कम्प्युटर साइन्स अध्ययन गरेका हुन्। केही वर्ष iOS इन्जिनियरको रूपमा काम गरेपछि दाउदले आफ्ना सहकर्मीहरूसँग Gradio सुरु गरे।
Gradio पछि Hugging Face द्वारा अधिग्रहण गरियो।

[**Merve Noyan**](https://huggingface.co/merve) Hugging Face मा डेभलपर एडभोकेट हुन्, जसले उपकरणहरू विकास गर्ने र तिनीहरूको वरिपरि सामग्री निर्माण गरी मेसिन लर्निङलाई सबैका लागि लोकतान्त्रिक बनाउने काम गर्छिन्।

[**Lucile Saulnier**](https://huggingface.co/SaulLu) Hugging Face मा मेसिन लर्निङ इन्जिनियर हुन्, जसले खुला स्रोत उपकरणहरूको विकास र प्रयोगमा सहयोग गर्छिन्। उनी सहयोगात्मक प्रशिक्षण र BigScience जस्ता प्राकृतिक भाषा प्रशोधन क्षेत्रका धेरै अनुसन्धान परियोजनाहरूमा पनि सक्रिय र
संलग्न छिन्।

[**Lewis Tunstall**](https://huggingface.co/lewtun) Hugging Face मा मेसिन लर्निङ इन्जिनियर हुन्, जसले खुला स्रोत उपकरणहरूको विकास र तिनलाई व्यापक समुदायको लागि पहुँचयोग्य बनाउनमा ध्यान केन्द्रित गर्छन्। उनी O'Reilly पुस्तक [Natural Language Processing with
Transformers](https://www.oreilly.com/library/view/natural-language-processing/9781098136789/) का सह-लेखक पनि हुन्।

[**Leandro von Werra**](https://huggingface.co/lvwerra) Hugging Face को खुला स्रोत टिममा मेसिन लर्निङ इन्जिनियर र O'Reilly पुस्तक [Natural Language Processing with
Transformers](https://www.oreilly.com/library/view/natural-language-processing/9781098136789/) का सह-लेखक हुन्। उनीसँग सम्पूर्ण मेसिन लर्निङ स्ट्याकमा काम गरेर NLP परियोजनाहरूलाई उत्पादनमा ल्याउने कई वर्षको उद्योग अनुभव छ।

## बारम्बार सोधिने प्रश्नहरू[[faq]]

यहाँ बारम्बार सोधिने प्रश्नहरूका केही उत्तरहरू छन्:

- **के यो पाठ्यक्रम पूरा गरेपछि प्रमाणपत्र दिइन्छ?**
हाल हामीसँग यो पाठ्यक्रमको लागि कुनै प्रमाणपत्र छैन। तथापि, हामी Hugging Face इकोसिस्टमको लागि एउटा प्रमाणीकरण कार्यक्रममा काम गरिरहेका छौं -- पर्खनुहोस्!

- **यो पाठ्यक्रममा कति समय लगाउनुपर्छ?**
यस पाठ्यक्रमको प्रत्येक अध्याय १ हप्तामा पूरा गर्न डिजाइन गरिएको छ, प्रति हप्ता लगभग ६-८ घण्टाको काम। तथापि, तपाईंले पाठ्यक्रम पूरा गर्न आवश्यक जति समय लिन सक्नुहुन्छ।

- **कुनै प्रश्न भएमा कहाँ सोध्ने?**
यदि पाठ्यक्रमको कुनै खण्डको बारेमा प्रश्न छ भने, पृष्ठको माथिल्लो भागमा रहेको "*प्रश्न सोध्नुहोस्*" बटनमा क्लिक गर्नुहोस् र तपाईं स्वचालित रूपमा [Hugging Face फोरम](https://discuss.huggingface.co/) को सही खण्डमा पुग्नुहुनेछ:

<img src="https://huggingface.co/datasets/huggingface-course/documentation-images/resolve/main/en/chapter1/forum-button.png" alt="Hugging Face फोरमको लिंक" width="75%">

पाठ्यक्रम पूरा गरेपछि थप अभ्यास गर्न चाहनुहुन्छ भने फोरममा [परियोजना विचारहरूको](https://discuss.huggingface.co/c/course/course-event/25) सूची पनि उपलब्ध छ।

- **पाठ्यक्रमको कोड कहाँ पाइन्छ?**
प्रत्येक खण्डको लागि, पृष्ठको माथिल्लो भागमा रहेको बटनमा क्लिक गरेर Google Colab वा Amazon SageMaker Studio Lab मा कोड चलाउन सक्नुहुन्छ:

<img src="https://huggingface.co/datasets/huggingface-course/documentation-images/resolve/main/en/chapter1/notebook-buttons.png" alt="Hugging Face पाठ्यक्रम नोटबुकहरूको लिंक" width="75%">

पाठ्यक्रमका सबै कोड समावेश भएका Jupyter नोटबुकहरू [`huggingface/notebooks`](https://github.com/huggingface/notebooks) रेपोमा होस्ट गरिएका छन्। यदि तपाईं तिनीहरूलाई स्थानीय रूपमा तयार गर्न चाहनुहुन्छ भने, GitHub मा
[`course`](https://github.com/huggingface/course#-jupyter-notebooks) रेपोमा निर्देशनहरू जाँच गर्नुहोस्।

- **मैले पाठ्यक्रममा कसरी योगदान गर्न सक्छु?**
पाठ्यक्रममा योगदान गर्ने धेरै तरिकाहरू छन्! यदि तपाईंले कुनै टाइपो वा बग फेला पार्नुभयो भने, कृपया [`course`](https://github.com/huggingface/course) रेपोमा एउटा इश्यु खोल्नुहोस्। यदि तपाईं पाठ्यक्रमलाई आफ्नो मातृभाषामा अनुवाद गर्न सहयोग गर्न चाहनुहुन्छ भने,
[यहाँ](https://github.com/huggingface/course#translating-the-course-into-your-language) निर्देशनहरू जाँच गर्नुहोस्।

- **प्रत्येक अनुवादमा के-के छनोटहरू गरिएका छन्?**
प्रत्येक अनुवादमा एउटा शब्दावली र `TRANSLATING.txt` फाइल छ जसले मेसिन लर्निङ शब्दावली आदिको लागि गरिएका छनोटहरूको विवरण दिन्छ। जर्मनको लागि एउटा उदाहरण [यहाँ](https://github.com/huggingface/course/blob/main/chapters/de/TRANSLATING.txt) हेर्न सक्नुहुन्छ।

- **के मैले यो पाठ्यक्रम पुन: प्रयोग गर्न सक्छु?**
पक्कै! यो पाठ्यक्रम [Apache 2 license](https://www.apache.org/licenses/LICENSE-2.0.html) अन्तर्गत जारी गरिएको छ। यसको अर्थ तपाईंले उचित श्रेय दिनुपर्छ, लाइसेन्सको लिंक प्रदान गर्नुपर्छ, र परिवर्तनहरू गरिएको छ भने संकेत गर्नुपर्छ। तपाईंले कुनै उचित तरिकाले यसो गर्न
सक्नुहुन्छ, तर लाइसेन्सदाताले तपाईंलाई वा तपाईंको प्रयोगलाई समर्थन गर्छ भन्ने संकेत नगर्ने गरी। यदि तपाईं पाठ्यक्रमलाई उद्धृत गर्न चाहनुहुन्छ भने, कृपया निम्न BibTeX प्रयोग गर्नुहोस्:
```
@misc{huggingfacecourse,
author = {Hugging Face},
title = {The Hugging Face Course, 2022},
howpublished = "\url{https://huggingface.co/course}",
year = {2022},
note = "[Online; accessed <today>]"
}
```

## सुरु गरौं
के तपाईं तयार हुनुहुन्छ? यस अध्यायमा, तपाईंले सिक्नुहुनेछ:

* पाठ उत्पादन र वर्गीकरण जस्ता NLP कार्यहरू समाधान गर्न `pipeline()` फंक्शन कसरी प्रयोग गर्ने
* Transformer आर्किटेक्चरको बारेमा
* एन्कोडर, डिकोडर, र एन्कोडर-डिकोडर आर्किटेक्चरहरू र तिनका प्रयोग केसहरू बीच कसरी भिन्नता छुट्याउने
Loading