Yazeka
Arama sonuçlarına göre oluşturuldu
SGD (Stokastik Gradyan İnişi) yöntemi, makine öğreniminde ve özellikle derin öğrenmede kullanılan bir optimizasyon algoritmasıdır 12.
Çalışma prensibi:
- Gradyan hesaplaması: Her adımda, tüm veri kümesi yerine rastgele seçilmiş bir veri örneği veya küçük bir alt küme (mini parti) kullanılarak gradyan hesaplanır 125.
- Parametre güncellemesi: Gradyanın ters yönünde hareket edilerek parametreler güncellenir 12.
- Öğrenme oranı: Güncelleme sırasında atılan adım boyutunu kontrol eden bir hiperparametre olan öğrenme oranı (learning rate) kullanılır 124.
- Dönem (epoch): Tüm eğitim veri kümesinin bir tam geçişi bir dönem olarak kabul edilir ve genellikle birden fazla dönem uygulanır 1.
5 kaynaktan alınan bilgiyle göre: