-
Notifications
You must be signed in to change notification settings - Fork 5
/
Copy pathtest.py
45 lines (36 loc) · 2.46 KB
/
test.py
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
from main import main
# Reproduces results from paper
params_merity = ["--embedding-size", '400', '--hidden-size', '400', '--n-layers', '3',
'--batch-size', '20', '--epochs', '500', '--seed', '123',
'--log-interval', '200', '--patience', '5', '--lr', '30.0',
'--rnn-dropout', '0.25', '--tie-weights', '--input-dropout',
'0.4', '--file-name', 'merity', '--no-positional-attention']
main(params_merity)
params_attentive_lm = ["--embedding-size", '400', '--hidden-size', '400', '--n-layers', '2',
'--batch-size', '32', '--epochs', '500', '--seed', '123',
'--log-interval', '200', '--patience', '6', '--lr', '30.0',
'--rnn-dropout', '0.2', '--tie-weights', '--file-name', 'salton',
'--attention', '--no-positional-attention']
main(params_attentive_lm)
positional_lm = ["--embedding-size", '400', '--hidden-size', '400', '--n-layers', '2',
'--batch-size', '32', '--epochs', '500', '--seed', '123', '--rnn-dropout', '0.2',
'--log-interval', '200', '--lr', '30.0', '--tie-weights', '--file-name',
'positional', '--patience', '5']
main(positional_lm)
params_merity = ["--embedding-size", '400', '--hidden-size', '400', '--n-layers', '3',
'--batch-size', '20', '--epochs', '750', '--seed', '123',
'--log-interval', '200', '--patience', '5', '--lr', '30.0',
'--rnn-dropout', '0.2', '--tie-weights',
'--file-name', 'wiki_merity', '--no-positional-attention', '--dataset', 'wiki-02']
main(params_merity)
params_attentive_lm = ["--embedding-size", '400', '--hidden-size', '400', '--n-layers', '2',
'--batch-size', '32', '--epochs', '500', '--seed', '123',
'--log-interval', '200', '--patience', '6', '--lr', '30.0',
'--rnn-dropout', '0.2', '--tie-weights', '--file-name', 'wiki_salton',
'--attention', '--no-positional-attention', '--dataset', 'wiki-02']
main(params_attentive_lm)
positional_lm = ["--embedding-size", '400', '--hidden-size', '400', '--n-layers', '2',
'--batch-size', '32', '--epochs', '500', '--seed', '123', '--rnn-dropout', '0.2',
'--log-interval', '200', '--lr', '30.0', '--tie-weights', '--file-name',
'wiki_positional', '--patience', '5', '--dataset', 'wiki-02']
main(positional_lm)