learning rate trong gradient descent

deep-learning

#1

câu này là C đúng không mn


#2

theo mình nghĩ là câu B. Vì vòng lặp là 20 thì khi run model thì loss function đi xuống nhanh sẽ dễ tạo ra tình huống phân kỳ và vòng lặp bão hòa khi ở số 15. Nên chỉ số learning rate hiện đang cao quá dẫn đến việc run model ở 20 như kỳ vọng chưa xảy ra.