-
Notifications
You must be signed in to change notification settings - Fork 335
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
[id] cs-229-unsupervised-learning #139
base: master
Are you sure you want to change the base?
Conversation
…cheatsheet-machine-learning-tips-and-tricks.md
…cheatsheet-machine-learning-tips-and-tricks.md
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
Mas perkenalkan saya Prasetia, dan ada beberapa review. Menurut saya untuk weights tidak perlu diterjemahkan dikarenakan merupakan kosakata teknis yang umum di bidang neural network.
Terimakasih
id/cheatsheet-deep-learning.md
Outdated
@@ -60,7 +60,7 @@ | |||
|
|||
**11. Learning rate ― The learning rate, often noted α or sometimes η, indicates at which pace the weights get updated. This can be fixed or adaptively changed. The current most popular method is called Adam, which is a method that adapts the learning rate.** | |||
|
|||
⟶**11. Learning rate - Learning rate (Tingkat pembelajaran), sering dinotasikan sebagai α atau η, merupakan fase pembaruan pembobotan. Tingkat pembelajaran dapat diperbaiki atau diubah secara adaptif. Metode yang paling populer saat ini disebut Adam, yang merupakan metode yang dapat menyesuaikan tingkat pembelajaran. | |||
⟶**11. Learning rate - Learning rate (Tingkat pembelajaran), sering dinotasikan sebagai α atau η, merupakan fase pembaruan pembobotan. Tingkat pembelajaran dapat diperbaiki atau diubah secara adaptif. Metode yang paling populer saat ini disebut Adam, yang merupakan metode yang dapat menyesuaikan tingkat pembelajaran.** |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
Learning rate- Learning rate, sering dinotasikan sebagai α atau η, mendefinisikan seberapa cepat nilai weight diperbaharui. Learning rate bisa diset dengan nilai fix atau dirubah secara adaptif. Metode yang paling terkenal saat ini adalah Adam, sebuah method yang merubah learning rate secara adaptif.
@@ -78,61 +78,62 @@ | |||
|
|||
**14. Updating weights ― In a neural network, weights are updated as follows:** | |||
|
|||
⟶ | |||
⟶**14. Memperbaharui bobot w - Dalam neural network, bobot w diperbarui nilainya dengan cara berikut:** | |||
|
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
Memperbaharui nilai weights - Dalam neural network, nilai weights diperbaharui nilainya dengan cara berikut:
Menurut saya weights tidak usah diterjemahkan, karena merupakan kosakata teknis pada neural network
|
||
<br> | ||
|
||
**15. Step 1: Take a batch of training data.** | ||
|
||
⟶ | ||
⟶**15. Langkah 1: Mengambil jumlah batch dari data latih.** | ||
|
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
- Langkah 1: Mengambil batch (sample data) dari keseluruhan training data.
|
||
<br> | ||
|
||
**16. Step 2: Perform forward propagation to obtain the corresponding loss.** | ||
|
||
⟶ | ||
⟶**16. Langkah 2: Melakukan forward propagation untuk mendapatkan nilai loss yang sesuai. ** | ||
|
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
- Langkah 2: Melakukan forward propagation untuk mendapatkan nilai loss berdasarkan nilai masukan (input).
|
||
<br> | ||
|
||
**18. Step 4: Use the gradients to update the weights of the network.** | ||
|
||
⟶ | ||
⟶**18. Langkah 4: Menggunakan gradient untuk untuk memperbarui nilai dari network.** | ||
|
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
- Langkah 4: Menggunakan gradient untuk untuk memperbarui nilai weight dari network.
id/cheatsheet-deep-learning.md
Outdated
|
||
<br> | ||
|
||
**19. Dropout ― Dropout is a technique meant at preventing overfitting the training data by dropping out units in a neural network. In practice, neurons are either dropped with probability p or kept with probability 1−p** | ||
|
||
⟶ | ||
⟶**19. Dropout - Dropout adalah teknik untuk mencegah overfitting data latih dengan menghilangkan satu atau lebih unit layer dalam neural network. Pada praktiknya, neurons melakukan drop dengan probabilitas p atau tidak melakukannya dengan probabilitas 1-p** |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
- Dropout - Dropout adalah teknik untuk mencegah model overfit terhadap training data dengan menghilangkan satu atau lebih unit layer dalam neural network. Pada praktiknya, neurons di-drop dengan probabilitas p atau dipertahankan dengan probabilitas 1-p
|
||
<br> | ||
|
||
**21. Convolutional layer requirement ― By noting W the input volume size, F the size of the convolutional layer neurons, P the amount of zero padding, then the number of neurons N that fit in a given volume is such that:** | ||
|
||
⟶ | ||
⟶ **21. Kebutuhan layer convolutional - W adalah ukuran volume input, F adalah ukuran dari layer neuron convolutional, P adalah jumlah zero padding, maka jumlah neurons N yang dapat dibentuk dari volume yang diberikan adalah: ** | ||
|
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
maka jumlah neuron N yang sesuai dengan ukuran dimensi masukan adalah:
|
||
<br> | ||
|
||
**22. Batch normalization ― It is a step of hyperparameter γ,β that normalizes the batch {xi}. By noting μB,σ2B the mean and variance of that we want to correct to the batch, it is done as follows:** | ||
|
||
⟶ | ||
⟶ **22. Batch normalization - Adalah salah satu step hyperparameter γ,β yang menormalisasikan batch {xi}. Dengan notasi μB,σ2B adalah rata-rata dan variansi nilai yang digunakan untuk perbaikan dalam batch, dapat diselesaikan sebagai berikut:** | ||
|
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
Dengan mendefinisikan μB,σ2B sebagai nilai rata-rata dan variansi dari batch yang ingin kita normalisasi, hal tersebut dapat dilakukan dengan cara:
Thanks a lot @swicaksono for all your work! It is really appreciated. It seems that there are several translations besides the one for the |
Malam Mas @swicaksono Apakah translasi bisa diteruskan atau bagaimana? |
Halo mas @gitarja. |
Yang belum yg supervised sama machine learning Mas. Terimakasih |
ok mas siap
…On Sat, Oct 12, 2019 at 9:16 AM Prasetia Utama Putra < ***@***.***> wrote:
Malam Mas @swicaksono <https://github.com/swicaksono>
Apakah translasi bisa diteruskan atau bagaimana?
Terimakasih
Halo mas @gitarja <https://github.com/gitarja>.
Iya transliterasinya bisa diteruskan mas. Sudah update sampai bagian apa
mas?
Yang belum yg supervised sama machine learning Mas.
Tolong yang reviews saya diresolve dan dimerge Mas
Terimakasih
—
You are receiving this because you were mentioned.
Reply to this email directly, view it on GitHub
<#139?email_source=notifications&email_token=AEG5X7S3OOZZUCDMTSEWQYDQOEQNNA5CNFSM4HLBBTYKYY3PNVWWK3TUL52HS4DFVREXG43VMVBW63LNMVXHJKTDN5WW2ZLOORPWSZGOEBBRSCA#issuecomment-541268232>,
or unsubscribe
<https://github.com/notifications/unsubscribe-auth/AEG5X7Q54I26CROXHKPCUGLQOEQNNANCNFSM4HLBBTYA>
.
|
|
||
**8. Activation function ― Activation functions are used at the end of a hidden unit to introduce non-linear complexities to the model. Here are the most common ones:** | ||
|
||
⟶ **8. Fungsi aktivasi - Fungsi aktivasi di unit hidden terakhir berfungsi untuk menunjukkan kompleksitas non-linear terhadap model. Beberapa yang umum digunakan:** |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
Fungsi aktivasi - Fungsi aktivasi digunakan oleh unit tersembunyi untuk menunjukkan kompleksitas non-linear terhadap model. Berikut beberapa model yang umum digunakan:
|
||
**10. Cross-entropy loss ― In the context of neural networks, the cross-entropy loss L(z,y) is commonly used and is defined as follows:** | ||
|
||
⟶**10. Cross-entroy loss - Dalam konteks neural networks, cross-entroy loss L(z,y) sangat umum digunakan untuk mendefinisikan:** |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
Cross-entropy loss - Dalam konteks jaringan neural, cross-entropy loss L(z,y) umumnya digunakan dan didefinisikan sebagai berikut:
|
||
**11. Learning rate ― The learning rate, often noted α or sometimes η, indicates at which pace the weights get updated. This can be fixed or adaptively changed. The current most popular method is called Adam, which is a method that adapts the learning rate.** | ||
|
||
⟶**11. Learning rate - Learning rate, sering dinotasikan sebagai α atau η, mendefinisikan seberapa cepat nilai weight diperbaharui. Learning rate bisa diset dengan nilai fix atau dirubah secara adaptif. Metode yang paling terkenal saat ini adalah Adam. Sebuah method yang merubah learning rate secara adaptif.** |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
Learning rate - Learning rate, sering dinyatakan dengan α atau terkadang η, menujukkan seberapa cepat nilai weight diperbarui. Laju tersebut bisa diubah atau disesuaikan. Metode paling umum saat ini adalah Adam, sebuah metode yang menyesuaikan dengan learning rate.
|
||
**12. Backpropagation ― Backpropagation is a method to update the weights in the neural network by taking into account the actual output and the desired output. The derivative with respect to weight w is computed using chain rule and is of the following form:** | ||
|
||
⟶**12. Backpropagation - Backpropagation adalah metode untuk memperbarui bobot dalam neural networks dengan memperhitungkan output aktual dan output yang diinginkan. Bobot w dihitung dengan menggunakan aturan rantai turunan dalam bentuk berikut:** |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
Backprogation - Backprogation adalah sebuah metode untuk memperbarui nilai weights pada jaringan neural dengan memperhitungkan keluaran riil dan keluaran yang dikehendaki. Turunan yang berhubungan dengan nilai weight w dihitung dengan menggunakan kaidah rantai dan berbentuk sebagai berikut:
Hi, I've finished and need a review for my work translating the unsupervised learning cheatsheet. Thank you.