Gradient Descent adalah algoritma optimasi untuk menemukan minimum lokal dari fungsi terdiferensiasi. Penurunan gradien hanya digunakan dalam pembelajaran mesin untuk menemukan nilai parameter fungsi (koefisien) yang meminimalkan fungsi biaya sejauh mungkin.
Mengapa kita menggunakan penurunan gradien dalam regresi linier?
Alasan utama mengapa penurunan gradien digunakan untuk regresi linier adalah kompleksitas komputasi: komputasi lebih murah (lebih cepat) untuk menemukan solusi menggunakan penurunan gradien dalam beberapa kasus. Di sini, Anda perlu menghitung matriks X′X lalu membalikkannya (lihat catatan di bawah). Perhitungannya mahal.
Mengapa penurunan gradien digunakan dalam jaringan saraf?
Gradient descent adalah algoritma optimasi yang biasa digunakan untuk melatih model pembelajaran mesin dan jaringan saraf. Data pelatihan membantu model ini belajar dari waktu ke waktu, dan fungsi biaya dalam penurunan gradien secara khusus bertindak sebagai barometer, mengukur akurasinya dengan setiap iterasi pembaruan parameter.
Mengapa penurunan gradien berfungsi untuk pembelajaran mendalam?
Gradient descent adalah algoritma optimasi yang digunakan untuk meminimalkan beberapa fungsi dengan bergerak secara iteratif ke arah penurunan paling curam seperti yang didefinisikan oleh negatif dari gradien. Dalam pembelajaran mesin, kami menggunakan penurunan gradien untuk memperbarui parameter model kami.
Di mana penurunan gradien digunakan?
Penurunan gradien paling baik digunakan ketika parameter tidak dapat dihitung secara analitis (misalnya menggunakan aljabar linier) dan harus dicari dengan algoritme optimisasi.