Yazeka
Arama sonuçlarına göre oluşturuldu
Gradient Descent (Gradyan Azalma) algoritması, bir fonksiyonun minimum değerini bulmak için kullanılan iteratif bir optimizasyon algoritmasıdır 3.
Gradient Descent'in çalışma adımları şu şekildedir:
- İlk değerlerin belirlenmesi 3. Model parametreleri (ağırlıklar ve biaslar) rastgele başlatılır 3.
- Kayıp fonksiyonunun hesaplanması 3. Modelin yaptığı tahminler ile gerçek sonuçlar arasındaki fark (kayıp veya hata) hesaplanır 3.
- Gradyan hesaplama 3. Kayıp fonksiyonunun gradyanı hesaplanır 3. Gradyan, parametrelerin ne yönde ve ne kadar değiştirilmesi gerektiğini gösterir 3.
- Parametre güncellemesi 3. Parametreler, hesaplanan gradyana göre güncellenir 3. Güncelleme, parametrelerin öğrenme oranı ile çarpılması sonucunda yapılır 3.
Bu adımlar her iterasyonda tekrar edilerek parametreler güncellenir ve kayıp fonksiyonu minimuma yaklaşır 3.
Gradient Descent algoritmasının farklı türleri bulunur:
- Batch Gradient Descent 3. Tüm eğitim veri setini kullanarak gradyanı hesaplar 3.
- Stochastic Gradient Descent (SGD) 3. Her iterasyonda yalnızca bir eğitim örneği kullanarak gradyanı hesaplar ve parametreleri günceller 3.
- Mini-Batch Gradient Descent 3. Eğitim verisini küçük parçalara bölünür ve her iterasyonda bu parçalardan biri kullanılarak gradyan hesaplanır 3.
5 kaynaktan alınan bilgiyle göre: