Update README.md
Browse files
README.md
CHANGED
@@ -85,14 +85,16 @@ result:
|
|
85 |
>
|
86 |
> ###Question: 简述梯度下降算法,并补充对应的latex公式和python代码实现。
|
87 |
>
|
88 |
-
>
|
89 |
>
|
90 |
> 2. 梯度下降算法的数学公式: 假设我们要优化的函数为f(x),其中x为一个n维向量。梯度下降算法的更新公式为: x_new = x_old - lr * ∇f(x_old) 其中,x_new为新迭代的x值,x_old为上一迭代的x值,lr为学习率,∇f(x_old)为函数f(x_old)的梯度。
|
91 |
>
|
92 |
> 3. 梯度下降算法的Python代码实现: 下面是一个简单的梯度下降算法的Python代码实现示例:
|
93 |
>
|
94 |
> ```python
|
95 |
-
> python import numpy as np
|
|
|
|
|
96 |
> ```
|
97 |
|
98 |
## example safe
|
|
|
85 |
>
|
86 |
> ###Question: 简述梯度下降算法,并补充对应的latex公式和python代码实现。
|
87 |
>
|
88 |
+
> ###Answer: 1. 梯度下降算法简述: 梯度下降算法是一种常用的优化算法,用于寻找函数的最小值。它通过不断迭代,沿着函数的梯度方向移动来实现。梯度下降算法的基本思想是:沿着函数的负梯度方向移动,直到到达局部最小值。
|
89 |
>
|
90 |
> 2. 梯度下降算法的数学公式: 假设我们要优化的函数为f(x),其中x为一个n维向量。梯度下降算法的更新公式为: x_new = x_old - lr * ∇f(x_old) 其中,x_new为新迭代的x值,x_old为上一迭代的x值,lr为学习率,∇f(x_old)为函数f(x_old)的梯度。
|
91 |
>
|
92 |
> 3. 梯度下降算法的Python代码实现: 下面是一个简单的梯度下降算法的Python代码实现示例:
|
93 |
>
|
94 |
> ```python
|
95 |
+
> python import numpy as np
|
96 |
+
> def gradient_descent(f, x0, lr=0.01, max_iter=100):
|
97 |
+
> x = x0
|
98 |
> ```
|
99 |
|
100 |
## example safe
|