Hàm kích hoạt trong CNN

deep-learning
cnn
machine-learning

#1

Chào mọi người, mình có câu hỏi muốn thỉnh giáo, mình có đọc một tài liệu nói về cái này nhưng thấy vẫn còn mơ hồ nên hỏi mọi người:

“Output của convolutional layer sẽ qua hàm activation function trước khi trở thành input của convolutional layer tiếp theo.” Điều này luôn luôn xảy ra à? Tại sao vậy?


#2

Chào bạn,

Việc sắp xếp thứ tự các layer thế nào là tùy ý người lập trình/nghiên cứu. Miễn sao khi huấn luyện mô hình đạt được kết quả tốt là được. Tất nhiên, trường hợp thường gặp nhất vẫn là conv -> activation


#3

Mình có đi hỏi vòng vòng, và được trả lời là để qua mỗi layer sẽ phi tuyến hóa để mô hình dễ fit hơn.


#4

Nếu ý bạn là luôn cần có activation thì đúng vậy. Activation không thể thiếu được vì nó khiến mô hình thành phi tuyến. Nhờ đó mà có thể học được quan hệ giữa dữ liệu và đầu ra (hầu hết là phi tuyến)