Thắc mắc về chứng minh tính hội tụ của PLA

perceptron

#1

Chào mọi người,

Em có một thắc mắc về một điểm trong chứng minh tính hội tụ trong PLA trong quyển sách machine learning cơ bản của anh Vũ Hữu Tiệp.

Khi nhân alpha thì mặt phẳng (đường thẳng) bị nghiêng 1 góc \beta, e thắc mắc làm sao \alpha w^* có thể tối ưu với \alpha bất kì được?

Em mong nhận được giải đáp từ mọi người.

Em xin cảm ơn


#2

có lẽ em hơi nhầm lẫn chút, \mathbf{w} là nghiệm của phương trình \mathbf{w}^T\mathbf{x} = 0 chứ không phải y = \mathbf{w}^T\mathbf{x}.