câu này là C đúng không mn
learning rate trong gradient descent
KhaNguyen09
#2
theo mình nghĩ là câu B. Vì vòng lặp là 20 thì khi run model thì loss function đi xuống nhanh sẽ dễ tạo ra tình huống phân kỳ và vòng lặp bão hòa khi ở số 15. Nên chỉ số learning rate hiện đang cao quá dẫn đến việc run model ở 20 như kỳ vọng chưa xảy ra.