Skip to content

Commit

Permalink
fix math
Browse files Browse the repository at this point in the history
  • Loading branch information
astonzhang committed Dec 10, 2021
1 parent 5bd7744 commit 53e0c81
Show file tree
Hide file tree
Showing 2 changed files with 38 additions and 4 deletions.
31 changes: 31 additions & 0 deletions .gitignore
Original file line number Diff line number Diff line change
@@ -0,0 +1,31 @@
**/.ipynb_checkpoints
**/__pycache__
data/
*.json
*.params
*.DS_Store
*.Rhistory
*.csv
build/README.md
build/environment.yml
*egg-info*
dist/*
build/chapter*
build/_build
build/img
build/data
build/d2l
/chapter_attention-mechanisms/fra-eng.zip
/chapter_recurrent-neural-networks/fra-eng.zip
img/*.pdf
aclImdb*
/_build/
graffle/*/*.svg
graffle/*/*.pdf
build/
/chapter_deep-learning-computation/mydict
/chapter_deep-learning-computation/x-file
/chapter_deep-learning-computation/x-files
.idea
.vscode
.pytest_cache
11 changes: 7 additions & 4 deletions chapter_preliminaries/linear-algebra.md
Original file line number Diff line number Diff line change
Expand Up @@ -259,7 +259,7 @@ como $a_ {2, 3j}$ e $[\mathbf {A}] _ {2i-1, 3}$.
Às vezes, queremos inverter os eixos.
Quando trocamos as linhas e colunas de uma matriz,
o resultado é chamado de *transposição* da matriz.
Formalmente, significamos uma matriz $\mathbf {A}$ transposta por $\mathbf {A} ^ \ top$
Formalmente, significamos uma matriz $\mathbf {A}$ transposta por $\mathbf {A} ^ \top$
e se $\mathbf {B} = \mathbf {A} ^ \top$, então $b_ {ij} = a_ {ji}$ para qualquer $i$ e $j$.
Assim, a transposição de $\mathbf {A}$ em: eqref: `eq_matrix_def` é
uma matriz $n \times m$:
Expand Down Expand Up @@ -288,6 +288,7 @@ A.T
#@tab tensorflow
tf.transpose(A)
```

Como um tipo especial de matriz quadrada,
[**a *matriz simétrica* $\mathbf {A}$ é igual à sua transposta:
$\mathbf{A} = \mathbf{A}^\top$.**]
Expand All @@ -312,7 +313,6 @@ B

Agora comparamos `B` com sua transposta.


```{.python .input}
B == B.T
```
Expand Down Expand Up @@ -687,6 +687,7 @@ x, y, torch.dot(x, y)
y = tf.ones(4, dtype=tf.float32)
x, y, tf.tensordot(x, y, axes=1)
```

Observe que
(**podemos expressar o produto escalar de dois vetores de forma equivalente, realizando uma multiplicação elemento a elemento e, em seguida, uma soma:**)

Expand Down Expand Up @@ -776,6 +777,7 @@ Quando chamamos `np.dot (A, x)` com uma matriz `A` e um vetor` x`,
o produto matriz-vetor é realizado.
Observe que a dimensão da coluna de `A` (seu comprimento ao longo do eixo 1)
deve ser igual à dimensão de `x` (seu comprimento).

```{.python .input}
A.shape, x.shape, np.dot(A, x)
```
Expand Down Expand Up @@ -928,6 +930,7 @@ $\mathbf{x}$ são $x_1, \ldots, x_n$.

onde o subscrito $2$ é frequentemente omitido nas normas $L_2$, ou seja, $\|\mathbf{x}\|$ é equivalente a $\|\mathbf{x}\|_2$. Em código,
podemos calcular a norma $L_2$ de um vetor da seguinte maneira.

```{.python .input}
u = np.array([3, -4])
np.linalg.norm(u)
Expand All @@ -944,6 +947,7 @@ torch.norm(u)
u = tf.constant([3.0, -4.0])
tf.norm(u)
```

Em *Deep Learning*, trabalhamos com mais frequência
com a norma $L_2$ ao quadrado.

Expand Down Expand Up @@ -972,7 +976,6 @@ torch.abs(u).sum()
tf.reduce_sum(tf.abs(u))
```


Tanto a norma $L_2$ quanto a norma $L_1$
são casos especiais da norma mais geral $L_p$:

Expand Down Expand Up @@ -1088,4 +1091,4 @@ YzOTY2MDg1LC0xNzU2MjUxNTU4LDIwNzQ0MzkxOTMsLTQ5MjUw
MTY0MSwxMTA1NzM3OTQ4LDYwMTg4NzIzNiw4NTc0ODg5OTksMT
Y4MTA1MjQyMSwxNjM5NjEyNzk5LDIwMzc5Njc4NjQsMTg0OTQ5
NDc3NCwxMDE5Mjg4MDM2XX0=
-->
-->

0 comments on commit 53e0c81

Please sign in to comment.