گرادیان کاهشی چند متغیره

1 دقیقه |  2020/09/09

الگوریتم جدید ما برای گرادیان کاهشی با چندین متغیر به این صورت است:

دوره یادگیری ماشین دانشگاه استنفورد به فارسی

و قسمت $ \frac{1}{m} \sum_{i=1}^m (h_\theta(x^{(i)}) - y^{(i)} ) x_j^{(i)} $ همان مشتق جرئی $\frac {\partial} {\partial\theta_0} J(\theta)$ است.

به طور مثال برای دو متغیره و یا بیشتر خواهیم داشت:

$$ \theta_0 := \theta_0 - \alpha \frac{1}{m} \sum ^ m _ {i=1} (h_\theta(x^{(i)}) - y^{(i)}) x_0 ^{(i)} $$

$$ \theta_1 := \theta_1 - \alpha \frac{1}{m} \sum ^ m _ {i=1} (h_\theta(x^{(i)}) - y^{(i)}) x_1 ^{(i)} $$

$$ \theta_2 := \theta_2 - \alpha \frac{1}{m} \sum ^ m _ {i=1} (h_\theta(x^{(i)}) - y^{(i)}) x_2 ^{(i)} $$

$$ … $$

یادآوری: مقدار $x_0$ برابر $1$ است.