Skip to content

Commit

Permalink
[CI] Fix Slides
Browse files Browse the repository at this point in the history
  • Loading branch information
AnirudhDagar committed Jan 15, 2022
1 parent c4d40d7 commit ba8a112
Show file tree
Hide file tree
Showing 12 changed files with 14 additions and 14 deletions.
Original file line number Diff line number Diff line change
Expand Up @@ -371,7 +371,7 @@ class DotProductAttention(tf.keras.layers.Layer):
return tf.matmul(self.dropout(self.attention_weights, **kwargs), values)
```

[**上記の `DotProductAttention` クラス** を実証するために]、加法的な注意として、前の toy の例と同じキー、値、有効な長さを使用します。内積演算では、クエリの特徴量をキーの特徴量と同じにします。
[**上記の `DotProductAttention` クラス を実証するために**]、加法的な注意として、前の toy の例と同じキー、値、有効な長さを使用します。内積演算では、クエリの特徴量をキーの特徴量と同じにします。

```{.python .input}
queries = d2l.normal(0, 1, (2, 1, 2))
Expand Down
2 changes: 1 addition & 1 deletion chapter_computer-vision/fcn.md
Original file line number Diff line number Diff line change
Expand Up @@ -179,7 +179,7 @@ print('output image shape:', out_img.shape)
d2l.plt.imshow(out_img);
```

完全畳み込みネットワークでは、転置畳み込み層を双一次内挿のアップサンプリングで初期化します。$1\times 1$ 畳み込み層には Xavier 初期化を使います。**]
完全畳み込みネットワークでは、[**転置畳み込み層を双一次内挿のアップサンプリングで初期化します。$1\times 1$ 畳み込み層には Xavier 初期化を使います。**]

```{.python .input}
W = bilinear_kernel(num_classes, num_classes, 64)
Expand Down
2 changes: 1 addition & 1 deletion chapter_computer-vision/image-augmentation.md
Original file line number Diff line number Diff line change
Expand Up @@ -128,7 +128,7 @@ apply(img, torchvision.transforms.ColorJitter(
brightness=0, contrast=0, saturation=0, hue=0.5))
```

また、`RandomColorJitter` インスタンスを作成し、[**イメージの `brightness``contrast``saturation``hue` を同時にランダムに変更する方法を設定することもできます。
また、`RandomColorJitter` インスタンスを作成し、[**イメージの `brightness``contrast``saturation``hue` を同時にランダムに変更する方法を設定することもできます**]

```{.python .input}
color_aug = gluon.data.vision.transforms.RandomColorJitter(
Expand Down
2 changes: 1 addition & 1 deletion chapter_computer-vision/kaggle-dog.md
Original file line number Diff line number Diff line change
@@ -1,6 +1,6 @@
# Kaggleでの犬種識別 (ImageNet 犬)

このセクションでは、Kaggle で犬種識別問題を練習します。(**このコンペティションのウェブアドレスは https://www.kaggle.com/c/dog-breed-identification ** です)
このセクションでは、Kaggle で犬種識別問題を練習します。(**このコンペティションのウェブアドレスは https://www.kaggle.com/c/dog-breed-identification です**)

このコンテストでは、120種類の犬種が表彰されます。実際、このコンペティションのデータセットは ImageNet データセットのサブセットです。:numref:`sec_kaggle_cifar10` の CIFAR-10 データセット内のイメージとは異なり、ImageNet データセット内のイメージは、さまざまな次元でより高く、幅が広くなっています。:numref:`fig_kaggle_dog` は、競合他社のウェブページに情報を表示します。結果を送信するには Kaggle アカウントが必要です。

Expand Down
2 changes: 1 addition & 1 deletion chapter_convolutional-neural-networks/lenet.md
Original file line number Diff line number Diff line change
Expand Up @@ -9,7 +9,7 @@

## LeNet

大まかに言うと、(**LeNet (LeNet-5) は、(i) 2 つの畳み込み層からなる畳み込み符号化器と (ii) 3 つの完全結合層からなる高密度ブロック** の 2 つの部分から構成されます)。アーキテクチャは :numref:`img_lenet` にまとめられています。
大まかに言うと、(**LeNet (LeNet-5) は、(i) 2 つの畳み込み層からなる畳み込み符号化器と (ii) 3 つの完全結合層からなる高密度ブロック の 2 つの部分から構成されます**)。アーキテクチャは :numref:`img_lenet` にまとめられています。

![Data flow in LeNet. The input is a handwritten digit, the output a probability over 10 possible outcomes.](../img/lenet.svg)
:label:`img_lenet`
Expand Down
2 changes: 1 addition & 1 deletion chapter_deep-learning-computation/model-construction.md
Original file line number Diff line number Diff line change
Expand Up @@ -60,7 +60,7 @@ net(X)
:end_tab:

:begin_tab:`pytorch`
この例では、`nn.Sequential` をインスタンス化してモデルを構築しました。レイヤーは実行順序どおりに引数として渡されます。つまり、(**`nn.Sequential` は特別な種類の `Module`** を定義します)、PyTorch でブロックを提示するクラスです。構成要素 `Module` の順序付きリストを維持します。2 つの完全接続層はそれぞれ `Linear` クラスのインスタンスであり、それ自体が `Module` のサブクラスであることに注意してください。順伝播 (`forward`) 関数も非常に単純です。リスト内の各ブロックを連結し、それぞれの出力を入力として次のブロックに渡します。ここまでは、コンストラクション `net(X)` を介してモデルを呼び出して、その出力を取得してきました。これは実際には `net.__call__(X)` の省略形です。
この例では、`nn.Sequential` をインスタンス化してモデルを構築しました。レイヤーは実行順序どおりに引数として渡されます。つまり、(**`nn.Sequential` は特別な種類の `Module` を定義します**)、PyTorch でブロックを提示するクラスです。構成要素 `Module` の順序付きリストを維持します。2 つの完全接続層はそれぞれ `Linear` クラスのインスタンスであり、それ自体が `Module` のサブクラスであることに注意してください。順伝播 (`forward`) 関数も非常に単純です。リスト内の各ブロックを連結し、それぞれの出力を入力として次のブロックに渡します。ここまでは、コンストラクション `net(X)` を介してモデルを呼び出して、その出力を取得してきました。これは実際には `net.__call__(X)` の省略形です。
:end_tab:

:begin_tab:`tensorflow`
Expand Down
4 changes: 2 additions & 2 deletions chapter_linear-networks/softmax-regression-scratch.md
Original file line number Diff line number Diff line change
@@ -1,7 +1,7 @@
# ソフトマックス回帰のゼロからの実装
:label:`sec_softmax_scratch`

(**線形回帰をゼロから実装したように、**) ソフトマックス回帰も同様に基本的であり、(**あなたは**の残酷な詳細を知っておくべきです) (~~softmax regression~~) そしてそれを自分でどのように実装するか。:numref:`sec_fashion_mnist` で導入されたばかりの Fashion-MNIST データセットを使用して、バッチサイズ 256 のデータイテレータを設定します。
(**線形回帰をゼロから実装したように、**) ソフトマックス回帰も同様に基本的であり、(**あなたはの残酷な詳細を知っておくべきです**) (~~softmax regression~~) そしてそれを自分でどのように実装するか。:numref:`sec_fashion_mnist` で導入されたばかりの Fashion-MNIST データセットを使用して、バッチサイズ 256 のデータイテレータを設定します。

```{.python .input}
from d2l import mxnet as d2l
Expand Down Expand Up @@ -136,7 +136,7 @@ def net(X):

次に、:numref:`sec_softmax` で紹介されたクロスエントロピー損失関数を実装する必要があります。現時点では、分類問題は回帰問題よりはるかに多いため、これはすべての深層学習で最も一般的な損失関数です。

クロスエントロピーは、真のラベルに割り当てられた予測確率の負の対数尤度をとることを思い出してください。Python の for ループ (非効率になりがちです) で予測を反復処理するのではなく、1 つの演算子ですべての要素を選択することができます。以下では、[**3 つのクラスの予測確率の 2 つの例とそれに対応するラベル `y` を含む標本データ `y_hat` を作成します] `y` では、最初の例では最初のクラスが正しい予測であり、2 番目の例では 3 番目のクラスがグラウンドトゥルースであることがわかっています。[**`y_hat` の確率の指標として `y` を使用, **] 最初の例では最初のクラスの確率を、2 番目の例では第 3 クラスの確率を選びます。
クロスエントロピーは、真のラベルに割り当てられた予測確率の負の対数尤度をとることを思い出してください。Python の for ループ (非効率になりがちです) で予測を反復処理するのではなく、1 つの演算子ですべての要素を選択することができます。以下では、[**3 つのクラスの予測確率の 2 つの例とそれに対応するラベル `y` を含む標本データ `y_hat` を作成します**] `y` では、最初の例では最初のクラスが正しい予測であり、2 番目の例では 3 番目のクラスがグラウンドトゥルースであることがわかっています。[**`y_hat` の確率の指標として `y` を使用,**] 最初の例では最初のクラスの確率を、2 番目の例では第 3 クラスの確率を選びます。

```{.python .input}
#@tab mxnet, pytorch
Expand Down
2 changes: 1 addition & 1 deletion chapter_multilayer-perceptrons/kaggle-house-price.md
Original file line number Diff line number Diff line change
Expand Up @@ -93,7 +93,7 @@ def download_all(): #@save

競技データはトレーニングセットとテストセットに分かれています。各レコードには、住宅のプロパティ値と、道路タイプ、建設年、屋根のタイプ、地下の状態などの属性が含まれます。フィーチャは、さまざまなデータタイプで構成されます。たとえば、建設年は整数で表され、屋根のタイプは個別のカテゴリ割り当てで表され、その他のフィーチャは浮動小数点数で表されます。そして、現実が物事を複雑にしているのはここです。いくつかの例として、一部のデータは完全に欠落しており、欠損値は単に「na」とマークされています。各ハウスの価格はトレーニングセットのみに含まれています(結局コンペティションです)。トレーニングセットを分割して検証セットを作成しますが、Kaggle に予測をアップロードした後に公式テストセットでモデルを評価することしかできません。:numref:`fig_house_pricing` の「競技」タブの「データ」タブには、データをダウンロードするためのリンクがあります。

はじめに、:numref:`sec_pandas` で導入した [**`pandas`** を使用してデータを読み込んで処理します]。したがって、先に進む前に `pandas` がインストールされていることを確認してください。幸いなことに、Jupyterで読んでいる場合は、ノートブックを離れることなくパンダをインストールできます。
はじめに、:numref:`sec_pandas` で導入した [**`pandas` を使用してデータを読み込んで処理します**]。したがって、先に進む前に `pandas` がインストールされていることを確認してください。幸いなことに、Jupyterで読んでいる場合は、ノートブックを離れることなくパンダをインストールできます。

```{.python .input}
# If pandas is not installed, please uncomment the following line:
Expand Down
2 changes: 1 addition & 1 deletion chapter_preliminaries/ndarray.md
Original file line number Diff line number Diff line change
Expand Up @@ -14,7 +14,7 @@ Python で最も広く使われている科学計算パッケージである Num
:end_tab:

:begin_tab:`pytorch`
(**まず、`torch` をインポートします。PyTorch という名前ですが、`pytorch` ではなく `torch` をインポートする必要があることに注意してください (**)
(**まず、`torch` をインポートします。PyTorch という名前ですが、`pytorch` ではなく `torch` をインポートする必要があることに注意してください **)
:end_tab:

:begin_tab:`tensorflow`
Expand Down
Original file line number Diff line number Diff line change
Expand Up @@ -106,7 +106,7 @@ $$n_i \propto \frac{1}{i^\alpha},$$

$$\log n_i = -\alpha \log i + c,$$

$\alpha$ は分布を表す指数で、$c$ は定数です。統計を数えて平滑化することで単語をモデル化したい場合、これはすでに一時停止しているはずです。結局のところ、まれな単語としても知られている尾の頻度を大幅に過大評価します。しかし、[**バイグラム、トリグラムなどの他の単語の組み合わせについてはどうですか?バイグラム周波数がユニグラム周波数と同じように動作するかどうかを見てみましょう。
$\alpha$ は分布を表す指数で、$c$ は定数です。統計を数えて平滑化することで単語をモデル化したい場合、これはすでに一時停止しているはずです。結局のところ、まれな単語としても知られている尾の頻度を大幅に過大評価します。しかし、[**バイグラム、トリグラムなどの他の単語の組み合わせについてはどうですか?バイグラム周波数がユニグラム周波数と同じように動作するかどうかを見てみましょう。**]

```{.python .input}
#@tab all
Expand Down
4 changes: 2 additions & 2 deletions chapter_recurrent-neural-networks/sequence.md
Original file line number Diff line number Diff line change
Expand Up @@ -116,7 +116,7 @@ x = d2l.sin(0.01 * time) + d2l.normal([T], 0, 0.2)
d2l.plot(time, [x], 'time', 'x', xlim=[1, 1000], figsize=(6, 3))
```

次に、このようなシーケンスを、モデルがトレーニングできるフィーチャとラベルに変換する必要があります。埋め込みディメンション $\tau$ に基づいて [**データを $y_t = x_t$ と $\mathbf{x}_t = [x_{t-\tau}, \ldots, x_{t-1}]$ のペアにマッピングします] 賢明な読者は、最初の $\tau$ の履歴が十分でないため、$\tau$ のデータ例が少なくなることに気付いたかもしれません。特にシーケンスが長い場合の簡単な修正は、これらのいくつかの項を破棄することです。あるいは、シーケンスをゼロで埋めることもできます。ここでは、最初の 600 個のフィーチャとラベルのペアのみを学習に使用します。
次に、このようなシーケンスを、モデルがトレーニングできるフィーチャとラベルに変換する必要があります。埋め込みディメンション $\tau$ に基づいて [**データを $y_t = x_t$ と $\mathbf{x}_t = [x_{t-\tau}, \ldots, x_{t-1}]$ のペアにマッピングします**] 賢明な読者は、最初の $\tau$ の履歴が十分でないため、$\tau$ のデータ例が少なくなることに気付いたかもしれません。特にシーケンスが長い場合の簡単な修正は、これらのいくつかの項を破棄することです。あるいは、シーケンスをゼロで埋めることもできます。ここでは、最初の 600 個のフィーチャとラベルのペアのみを学習に使用します。

```{.python .input}
#@tab mxnet, pytorch
Expand Down Expand Up @@ -298,7 +298,7 @@ d2l.plot([time, time[tau:], time[n_train + tau:]],

上の例が示すように、これは目を見張るような失敗です。予測は、いくつかの予測ステップの後、かなり速く一定に減衰します。アルゴリズムがそれほどうまく機能しなかったのはなぜですか?これは最終的に、エラーが蓄積するためです。ステップ1の後に、エラー$\epsilon_1 = \bar\epsilon$が発生したとしましょう。これで、ステップ 2 の*入力* が $\epsilon_1$ によって摂動されます。したがって、定数 $c$ では $\epsilon_2 = \bar\epsilon + c \epsilon_1$ のオーダで何らかのエラーが発生します。誤差は、実際の観測値からかなり急速に逸脱する可能性があります。これはよくある現象です。たとえば、次の24時間の天気予報はかなり正確になる傾向がありますが、それを超えると精度は急速に低下します。この章以降では、これを改善する方法について説明します。

$k = 1, 4, 16, 64$ の系列全体に対する予測を計算して、[**$k$ ステップ先予測の難しさを詳しく見てみよう]
$k = 1, 4, 16, 64$ の系列全体に対する予測を計算して、[**$k$ ステップ先予測の難しさを詳しく見てみよう**]

```{.python .input}
#@tab all
Expand Down
2 changes: 1 addition & 1 deletion chapter_recurrent-neural-networks/text-preprocessing.md
Original file line number Diff line number Diff line change
Expand Up @@ -72,7 +72,7 @@ for i in range(11):

## ボキャブラリー

トークンの文字列型は、数値入力を受け取るモデルでは不便です。ここで [**辞書を作って、文字列トークンを 0** から始まる数値インデックスにマップするために、*vocabulary* と呼ばれることもあります]。そのためには、まずトレーニングセットのすべてのドキュメント、つまり*corpus* で一意のトークンをカウントし、その頻度に応じて一意の各トークンに数値インデックスを割り当てます。まれにしか出現しないトークンは、複雑さを軽減するために削除されることがよくあります。コーパスに存在しないトークン、または削除されたトークンは、未知の特殊なトークン「<unk>」にマッピングされます。オプションで、<pad>パディングを表す「」、<bos>シーケンスの先頭を示す「」、<eos>シーケンスの最後を表す「」など、予約されたトークンのリストを追加します。
トークンの文字列型は、数値入力を受け取るモデルでは不便です。ここで [**辞書を作って、文字列トークンを 0 から始まる数値インデックスにマップするために、*vocabulary* と呼ばれることもあります**]。そのためには、まずトレーニングセットのすべてのドキュメント、つまり*corpus* で一意のトークンをカウントし、その頻度に応じて一意の各トークンに数値インデックスを割り当てます。まれにしか出現しないトークンは、複雑さを軽減するために削除されることがよくあります。コーパスに存在しないトークン、または削除されたトークンは、未知の特殊なトークン「<unk>」にマッピングされます。オプションで、<pad>パディングを表す「」、<bos>シーケンスの先頭を示す「」、<eos>シーケンスの最後を表す「」など、予約されたトークンのリストを追加します。

```{.python .input}
#@tab all
Expand Down

0 comments on commit ba8a112

Please sign in to comment.