Skip to content

Commit 3dde9a5

Browse files
mrcangyeSigureMoBrilliantYuKaimin
authored
Paddle 文档修复 test=document_fix (#5211)
* Paddle 文档修复 test=document_fix * fix some bug and test test=document_fix * fix some docs * Update Sigmoid_cn.rst * Create Silu_cn.rst * revert shape related changes * Update SmoothL1Loss_cn.rst * Update SmoothL1Loss_cn.rst * Update Softmax_cn.rst * Update Softplus_cn.rst * Update sigmoid_cn.rst * Update silu_cn.rst * Update smooth_l1_loss_cn.rst * Update softmax_cn.rst * Update softplus_cn.rst * \mathrm{e} in Sigmoid_cn.rst Co-authored-by: BrilliantYuKaimin <[email protected]> * \mathrm{e} in Silu_cn.rst Co-authored-by: BrilliantYuKaimin <[email protected]> * \mathrm{e} in sigmoid_cn.rst Co-authored-by: BrilliantYuKaimin <[email protected]> * \mathrm{e} in Softmax_cn.rst Co-authored-by: BrilliantYuKaimin <[email protected]> * \mathrm{e} in silu_cn.rst Co-authored-by: BrilliantYuKaimin <[email protected]> * adjust format in Silu_cn.rst Co-authored-by: BrilliantYuKaimin <[email protected]> * :math:`k \geqslant 1` in SmoothL1Loss_cn.rst Co-authored-by: BrilliantYuKaimin <[email protected]> * :math:`k \geqslant 1` in smooth_l1_loss_cn.rst Co-authored-by: BrilliantYuKaimin <[email protected]> * beta -> \beta in softplus * threshold -> \varepsilon in softplus * delta -> \delta in smooth_l1_loss * test=document_fix Co-authored-by: Nyakku Shigure <[email protected]> Co-authored-by: BrilliantYuKaimin <[email protected]>
1 parent 46f904d commit 3dde9a5

File tree

10 files changed

+83
-68
lines changed

10 files changed

+83
-68
lines changed

docs/api/paddle/nn/Sigmoid_cn.rst

Lines changed: 7 additions & 4 deletions
Original file line numberDiff line numberDiff line change
@@ -5,23 +5,26 @@ Sigmoid
55

66
.. py:class:: paddle.nn.Sigmoid(name=None)
77
8-
创建一个 ``Sigmoid`` 的可调用类。这个类可以计算输入 `x` 经过激活函数 `sigmoid` 之后的值。
8+
用于创建一个 ``Sigmoid`` 的可调用类。这个类可以计算输入 :attr:`x` 经过激活函数 ``sigmoid`` 之后的值。
99

1010
.. math::
1111
12-
output = \frac{1}{1 + e^{-x}}
12+
sigmoid(x) = \frac{1}{1 + \mathrm{e}^{-x}}
1313
1414
参数
1515
::::::::
16+
1617
- **name** (str,可选) - 具体用法请参见 :ref:`api_guide_Name`,一般无需设置,默认值为 None。
1718

1819
形状
1920
::::::::
20-
- **x** (Tensor)- N-D tensor,可以支持的数据类型是 float16,float32,float64。
21+
22+
- **x** (Tensor) - N-D Tensor,支持的数据类型是 float16、float32 和 float64。
2123

2224
返回
2325
::::::::
24-
返回计算 ``Sigmoid`` 的可调用对象。
26+
27+
返回计算 ``Sigmoid`` 的可调用对象。
2528

2629

2730
代码示例

docs/api/paddle/nn/Silu_cn.rst

Lines changed: 4 additions & 2 deletions
Original file line numberDiff line numberDiff line change
@@ -8,16 +8,18 @@ Silu 激活层。计算公式如下:
88

99
.. math::
1010
11-
Silu(x) = \frac{x}{1 + e^{-x}}
11+
silu(x) = \frac{x}{1 + \mathrm{e}^{-x}}
1212
13-
其中:math:`x` 为输入的 Tensor
13+
其中 :math:`x` 为输入的 Tensor
1414

1515
参数
1616
::::::::::
17+
1718
- **name** (str,可选) - 具体用法请参见 :ref:`api_guide_Name`,一般无需设置,默认值为 None。
1819

1920
形状:
2021
::::::::::
22+
2123
- input:任意形状的 Tensor。
2224
- output:和 input 具有相同形状的 Tensor。
2325

docs/api/paddle/nn/SmoothL1Loss_cn.rst

Lines changed: 14 additions & 14 deletions
Original file line numberDiff line numberDiff line change
@@ -5,36 +5,36 @@ SmoothL1Loss
55

66
.. py:class:: paddle.nn.SmoothL1Loss(reduction='mean', delta=1.0, name=None)
77
8-
该 OP 计算输入 input 和标签 label 间的 SmoothL1 损失,如果逐个元素的绝对误差低于 1,则创建使用平方项的条件
9-
,否则为 L1 损失。在某些情况下,它可以防止爆炸梯度,也称为 Huber 损失,该损失函数的数学计算公式如下:
8+
计算输入 :attr:`input` 和标签 :attr:`label` 间的 SmoothL1 损失,如果逐个元素的绝对误差低于 1,则创建使用平方项的条件,否则为 L1 损失。在某些情况下,它可以防止爆炸梯度,也称为 Huber 损失,该损失函数的数学计算公式如下:
109

11-
.. math::
12-
loss(x,y) = \frac{1}{n}\sum_{i}z_i
10+
.. math::
11+
loss(x, y) = \frac{1}{n}\sum_{i}z_i
1312
14-
`z_i`的计算公式如下:
13+
:math:`z_i` 的计算公式如下:
1514

16-
.. math::
15+
.. math::
1716
18-
\mathop{z_i} = \left\{\begin{array}{rcl}
19-
0.5(x_i - y_i)^2 & & {if |x_i - y_i| < delta} \\
20-
delta * |x_i - y_i| - 0.5 * delta^2 & & {otherwise}
17+
\mathop{z_i} = \left\{\begin{array}{rcl}
18+
0.5(x_i - y_i)^2 & & {if |x_i - y_i| < \delta} \\
19+
\delta * |x_i - y_i| - 0.5 * \delta^2 & & {otherwise}
2120
\end{array} \right.
2221
2322
参数
2423
::::::::::
25-
- **reduction** (string,可选): - 指定应用于输出结果的计算方式,数据类型为 string,可选值有:`none`, `mean`, `sum`。默认为 `mean`,计算 `mini-batch` loss 均值。设置为 `sum` 时,计算 `mini-batch` loss 的总和。设置为 `none` 时,则返回 loss Tensor。
26-
- **delta** (string,可选): SmoothL1Loss 损失的阈值参数,用于控制 Huber 损失对线性误差或平方误差的侧重。数据类型为 float32。默认值= 1.0。
24+
25+
- **reduction** (str,可选) - 指定应用于输出结果的计算方式,可选值有 ``none``、``mean`` 和 ``sum``。默认为 ``mean``,计算 ``mini-batch`` loss 均值。设置为 `sum` 时,计算 `mini-batch` loss 的总和。设置为 ``none`` 时,则返回 loss Tensor。
26+
- **delta** (str,可选) - SmoothL1Loss 损失的阈值参数 :math:`\delta`,用于控制 Huber 损失对线性误差或平方误差的侧重。数据类型为 float32。默认值为 :math:`1.0`。
2727
- **name** (str,可选) - 具体用法请参见 :ref:`api_guide_Name`,一般无需设置,默认值为 None。
2828

2929
输入
3030
::::::::::
31-
- **input** (Tensor):输入 `Tensor`,数据类型为 float32。其形状为 :math:`[N, C]`,其中 `C` 为类别数。对于多维度的情形下,它的形状为 :math:`[N, C, d_1, d_2, ..., d_k]`,k >= 1。
32-
- **label** (Tensor):输入 input 对应的标签值,数据类型为 float32。数据类型和 input 相同。
33-
3431

32+
- **input** (Tensor):输入 `Tensor`,数据类型为 float32。其形状为 :math:`[N, C]`,其中 :math:`C` 为类别数。对于多维度的情形下,它的形状为 :math:`[N, C, d_1, d_2, ..., d_k]`,:math:`k \geqslant 1`。
33+
- **label** (Tensor):输入 :attr:`input` 对应的标签值,数据类型和 :attr:`input` 相同。
3534

3635
返回
3736
:::::::::
37+
3838
Tensor,计算 `SmoothL1Loss` 后的损失值。
3939

4040

docs/api/paddle/nn/Softmax_cn.rst

Lines changed: 8 additions & 8 deletions
Original file line numberDiff line numberDiff line change
@@ -4,25 +4,25 @@ Softmax
44
-------------------------------
55
.. py:class:: paddle.nn.Softmax(axis=-1, name=None)
66
7-
Softmax 激活层,OP 的计算过程如下
7+
Softmax 激活层,计算过程如下
88

9-
步骤 1:输入 ``x````axis`` 维会被置换到最后一维;
9+
步骤 1:输入 :attr:`x`:attr:`axis` 维会被置换到最后一维;
1010

11-
步骤 2:将输入 ``x`` 在逻辑上变换为二维矩阵。二维矩阵第一维(列长度)是输入除最后一维之外的其他维度值的乘积,第二维(行长度)和输入 ``axis`` 维的长度相同;对于矩阵的每一行,softmax 操作对其进行重新缩放,使得该行的每个元素在 \[0,1\] 范围内,并且总和为 1;
11+
步骤 2:将输入 :attr:`x` 在逻辑上变换为二维矩阵。二维矩阵第一维(列长度)是输入除最后一维之外的其他维度值的乘积,第二维(行长度)和输入 :attr:`axis` 维的长度相同;对于矩阵的每一行,softmax 操作对其进行重新缩放,使得该行的每个元素在 :math:`[0, 1]` 范围内,并且总和为 1;
1212

13-
步骤 3:softmax 操作执行完成后,执行步骤 1 和步骤 2 的逆运算,将二维矩阵恢复至和输入 ``x`` 相同的维度。
13+
步骤 3:softmax 操作执行完成后,执行步骤 1 和步骤 2 的逆运算,将二维矩阵恢复至和输入 :attr:`x` 相同的维度。
1414

1515
上述步骤 2 中 softmax 操作计算过程如下:
1616

17-
- 对于二维矩阵的每一行,计算 K 维向量(K 是输入第 ``axis`` 维的长度)中指定位置的指数值和全部位置指数值的和。
17+
- 对于二维矩阵的每一行,计算 K 维向量(K 是输入第 :attr:`axis` 维的长度)中指定位置的指数值和全部位置指数值的和。
1818

1919
- 指定位置指数值与全部位置指数值之和的比值就是 softmax 操作的输出。
2020

21-
对于二维矩阵中的第 i 行和第 j 列有:
21+
对于二维矩阵中的第 :math:`i` 行和第 :math:`j` 列有:
2222

2323
.. math::
2424
25-
Softmax[i, j] = \frac{\exp(x[i, j])}{\sum_j(exp(x[i, j])}
25+
softmax[i, j] = \frac{\exp(x[i, j])}{\sum_j(exp(x[i, j])}
2626
2727
- 示例 1(矩阵一共有三维。axis = -1,表示沿着最后一维(即第三维)做 softmax 操作)
2828

@@ -82,7 +82,7 @@ Softmax 激活层,OP 的计算过程如下:
8282
8383
参数
8484
::::::::::
85-
- **axis** (int,可选) - 指定对输入 Tensor 进行运算的轴。``axis`` 的有效范围是[-D, D),D 是输入 Tensor 的维度,``axis`` 为负值时与 :math:`axis + D` 等价。默认值为-1。
85+
- **axis** (int,可选) - 指定对输入 Tensor 进行运算的轴。:attr:`axis` 的有效范围是 :math:`[-D, D)`,:math:`D` 是输入 Tensor 的维度,``axis`` 为负值时与 :math:`axis + D` 等价。默认值为 -1。
8686
- **name** (str,可选) - 具体用法请参见 :ref:`api_guide_Name`,一般无需设置,默认值为 None。
8787

8888
形状:

docs/api/paddle/nn/Softplus_cn.rst

Lines changed: 8 additions & 5 deletions
Original file line numberDiff line numberDiff line change
@@ -7,20 +7,23 @@ Softplus
77
Softplus 激活层
88

99
.. math::
10-
11-
Softplus(x) = \frac{1}{beta} * \log(1 + e^{beta * x}) \\
12-
\text{为了保证数值稳定性,当}\,beta * x > threshold\,\text{时,函数转变为线性函数 x}。
10+
softplus(x)=\begin{cases}
11+
\frac{1}{\beta} * \log(1 + e^{\beta * x}),&x\leqslant\frac{\varepsilon}{\beta};\\
12+
x,&x>\frac{\varepsilon}{\beta}.
13+
\end{cases}
1314
1415
其中,:math:`x` 为输入的 Tensor
1516

1617
参数
1718
::::::::::
18-
- **beta** (float,可选) - Softplus 激活计算公式中的 beta 值。默认值为 1。
19-
- **threshold** (float,可选) - Softplus 激活计算公式中的 threshold 值。默认值为 20。
19+
20+
- **beta** (float,可选) - Softplus 激活计算公式中的 :math:`\beta` 值。默认值为 1。
21+
- **threshold** (float,可选) - Softplus 激活计算公式中的 :math:`\varepsilon` 值。默认值为 20。
2022
- **name** (str,可选) - 具体用法请参见 :ref:`api_guide_Name`,一般无需设置,默认值为 None。
2123

2224
形状:
2325
::::::::::
26+
2427
- input:任意形状的 Tensor。
2528
- output:和 input 具有相同形状的 Tensor。
2629

docs/api/paddle/nn/functional/sigmoid_cn.rst

Lines changed: 4 additions & 4 deletions
Original file line numberDiff line numberDiff line change
@@ -7,21 +7,21 @@ sigmoid
77
88
99
10-
1110
sigmoid 激活函数
1211

1312
.. math::
14-
out = \frac{1}{1 + e^{-x}}
13+
sigmoid(x) = \frac{1}{1 + \mathrm{e}^{-x}}
1514
1615
1716
参数
1817
:::::::::
1918

20-
- **x** Tensor - 数据类型为 float32float64。激活函数的输入值。
21-
- **name** (str,可选) - 具体用法请参见 :ref:`api_guide_Name`,一般无需设置,默认值为 None。默认:None
19+
- **x** (Tensor) - 数据类型为 float32float64。激活函数的输入值。
20+
- **name** (str,可选) - 具体用法请参见 :ref:`api_guide_Name`,一般无需设置,默认值为 None。
2221

2322
返回
2423
:::::::::
24+
2525
Tensor,激活函数的输出值,数据类型为 float32。
2626

2727
代码示例

docs/api/paddle/nn/functional/silu_cn.rst

Lines changed: 5 additions & 3 deletions
Original file line numberDiff line numberDiff line change
@@ -9,18 +9,20 @@ silu 激活层。计算公式如下:
99

1010
.. math::
1111
12-
Silu(x) = \frac{x}{1 + e^{-x}}
12+
silu(x) = \frac{x}{1 + \mathrm{e}^{-x}}
1313
1414
其中,:math:`x` 为输入的 Tensor
1515

1616
参数
1717
::::::::::
18-
- **x** (Tensor) - 输入的 ``Tensor``,数据类型为:float32、float64。
18+
19+
- **x** (Tensor) - 输入的 ``Tensor``,数据类型为 float32 或 float64。
1920
- **name** (str,可选) - 具体用法请参见 :ref:`api_guide_Name`,一般无需设置,默认值为 None。
2021

2122
返回
2223
::::::::::
23-
``Tensor``,数据类型和形状同 ``x`` 一致。
24+
25+
``Tensor``,数据类型和形状同 :attr:`x` 一致。
2426

2527
代码示例
2628
::::::::::

docs/api/paddle/nn/functional/smooth_l1_loss_cn.rst

Lines changed: 13 additions & 11 deletions
Original file line numberDiff line numberDiff line change
@@ -8,30 +8,32 @@ smooth_l1_loss
88
计算输入 input 和标签 label 间的 SmoothL1 损失,如果逐个元素的绝对误差低于 1,则创建使用平方项的条件,
99
否则为 L1 损失。在某些情况下,它可以防止爆炸梯度,也称为 Huber 损失,该损失函数的数学计算公式如下:
1010

11-
.. math::
12-
loss(x,y) = \frac{1}{n}\sum_{i}z_i
11+
.. math::
12+
loss(x,y) = \frac{1}{n}\sum_{i}z_i
1313
14-
`z_i`的计算公式如下:
14+
:math:`z_i` 的计算公式如下:
1515

16-
.. math::
16+
.. math::
1717
18-
\mathop{z_i} = \left\{\begin{array}{rcl}
19-
0.5(x_i - y_i)^2 & & {if |x_i - y_i| < delta} \\
20-
delta * |x_i - y_i| - 0.5 * delta^2 & & {otherwise}
18+
\mathop{z_i} = \left\{\begin{array}{rcl}
19+
0.5(x_i - y_i)^2 & & {if |x_i - y_i| < \delta} \\
20+
\delta * |x_i - y_i| - 0.5 * \delta^2 & & {otherwise}
2121
\end{array} \right.
2222
2323
参数
2424
::::::::::
25-
- **input** (Tensor) - 输入 `Tensor`,数据类型为 float32。其形状为 :math:`[N, C]`,其中 `C` 为类别数。对于多维度的情形下,它的形状为 :math:`[N, C, d_1, d_2, ..., d_k]`,k >= 1。
26-
- **label** (Tensor) - 输入 input 对应的标签值,数据类型为 float32。数据类型和 input 相同。
27-
- **reduction** (string,可选) - 指定应用于输出结果的计算方式,数据类型为 string,可选值有:`none`, `mean`, `sum`。默认为 `mean`,计算`mini-batch` loss 均值。设置为 `sum` 时,计算 `mini-batch` loss 的总和。设置为 `none` 时,则返回 loss Tensor。
28-
- **delta** (string,可选) - SmoothL1Loss 损失的阈值参数,用于控制 Huber 损失对线性误差或平方误差的侧重。数据类型为 float32。默认值= 1.0。
25+
26+
- **input** (Tensor) - 输入 `Tensor`,数据类型为 float32。其形状为 :math:`[N, C]`,其中 :math:`C` 为类别数。对于多维度的情形下,它的形状为 :math:`[N, C, d_1, d_2, ..., d_k]`,:math:`k \geqslant 1`。
27+
- **label** (Tensor) - 输入 :attr:`input` 对应的标签值,数据类型和 :attr:`input` 相同。
28+
- **reduction** (str,可选) - 指定应用于输出结果的计算方式,数据类型为 string,可选值有 ``none``、``mean``、``sum``。默认为 ``mean``,计算 ``mini-batch`` loss 均值。设置为 ``sum`` 时,计算 ``mini-batch`` loss 的总和。设置为 ``none`` 时,则返回 loss Tensor。
29+
- **delta** (str,可选) - SmoothL1Loss 损失的阈值参数 :math:`\delta`,用于控制 Huber 损失对线性误差或平方误差的侧重。数据类型为 float32。默认值为 1.0。
2930
- **name** (str,可选) - 具体用法请参见 :ref:`api_guide_Name`,一般无需设置,默认值为 None。
3031

3132

3233

3334
返回
3435
:::::::::
36+
3537
Tensor,返回计算 `smooth_l1_loss` 后的损失值。
3638

3739

docs/api/paddle/nn/functional/softmax_cn.rst

Lines changed: 11 additions & 10 deletions
Original file line numberDiff line numberDiff line change
@@ -4,22 +4,21 @@ softmax
44
-------------------------------
55
.. py:function:: paddle.nn.functional.softmax(x, axis=-1, dtype=None, name=None)
66
7+
实现 softmax 层。计算过程如下:
78

8-
实现了 softmax 层。OP 的计算过程如下:
9+
步骤 1:输入 :attr:`x` 的 :attr:`axis` 维会被置换到最后一维;
910

10-
步骤 1:输入 ``x`` 的 ``axis`` 维会被置换到最后一维
11+
步骤 2:将输入 :attr:`x` 在逻辑上变换为二维矩阵。二维矩阵第一维(列长度)是输入除最后一维之外的其他维度值的乘积,第二维(行长度)和输入 ``axis`` 维的长度相同;对于矩阵的每一行,softmax 操作对其进行重新缩放,使得该行的每个元素在 :math:`[0, 1]` 范围内,并且总和为 :math:`1`
1112

12-
步骤 2:将输入 ``x`` 在逻辑上变换为二维矩阵。二维矩阵第一维(列长度)是输入除最后一维之外的其他维度值的乘积,第二维(行长度)和输入 ``axis`` 维的长度相同;对于矩阵的每一行,softmax 操作对其进行重新缩放,使得该行的每个元素在 \[0,1\] 范围内,并且总和为 1;
13-
14-
步骤 3:softmax 操作执行完成后,执行步骤 1 和步骤 2 的逆运算,将二维矩阵恢复至和输入 ``x`` 相同的维度。
13+
步骤 3:softmax 操作执行完成后,执行步骤 1 和步骤 2 的逆运算,将二维矩阵恢复至和输入 :attr:`x` 相同的维度。
1514

1615
上述步骤 2 中 softmax 操作计算过程如下:
1716

18-
- 对于二维矩阵的每一行,计算 K 维向量(K 是输入第 ``axis`` 维的长度)中指定位置的指数值和全部位置指数值的和。
17+
- 对于二维矩阵的每一行,计算 K 维向量(K 是输入第 :attr:`axis` 维的长度)中指定位置的指数值和全部位置指数值的和。
1918

2019
- 指定位置指数值与全部位置指数值之和的比值就是 softmax 操作的输出。
2120

22-
对于二维矩阵中的第 i 行和第 j 列有:
21+
对于二维矩阵中的第 :math:`i` 行和第 :math:`j` 列有:
2322

2423
.. math::
2524
@@ -84,14 +83,16 @@ softmax
8483
8584
参数
8685
::::::::::
87-
- **x** (Tensor) - 输入的 ``Tensor``,数据类型为:float32、float64。
88-
- **axis** (int,可选) - 指定对输入 ``x`` 进行运算的轴。``axis`` 的有效范围是[-D, D),D 是输入 ``x`` 的维度,``axis`` 为负值时与 :math:`axis + D` 等价。默认值为-1。
86+
87+
- **x** (Tensor) - 输入的 ``Tensor``,数据类型为 float32 或 float64。
88+
- **axis** (int,可选) - 指定对输入 :attr:`x` 进行运算的轴。:attr:`axis` 的有效范围是 :math:`[-D, D)`,:math:`D` 是输入 :attr:`x` 的维度,:attr:`axis` 为负值时与 :math:`axis + D` 等价。默认值为 -1。
8989
- **dtype** (str,可选) - 输出 `Tensor` 的数据类型,支持 float32、float64。
9090
- **name** (str,可选) - 具体用法请参见 :ref:`api_guide_Name`,一般无需设置,默认值为 None。
9191

9292
返回
9393
::::::::::
94-
``Tensor``,形状和 ``x`` 相同,数据类型为 ``dtype`` 或者和 ``x`` 相同。
94+
95+
``Tensor``,形状和 :attr:`x` 相同,数据类型为 :attr:`dtype` 或者和 :attr:`x` 相同。
9596

9697
代码示例
9798
::::::::::

docs/api/paddle/nn/functional/softplus_cn.rst

Lines changed: 9 additions & 7 deletions
Original file line numberDiff line numberDiff line change
@@ -8,23 +8,25 @@ softplus
88
softplus 激活层
99

1010
.. math::
11-
12-
softplus(x) = \frac{1}{beta} * \log(1 + e^{beta * x}) \\
13-
\text{为了保证数值稳定性,当}\,beta * x > threshold\,\text{时,函数转变为线性函数 x}。
11+
softplus(x)=\begin{cases}
12+
\frac{1}{\beta} * \log(1 + e^{\beta * x}),&x\leqslant\frac{\varepsilon}{\beta};\\
13+
x,&x>\frac{\varepsilon}{\beta}.
14+
\end{cases}
1415
1516
其中,:math:`x` 为输入的 Tensor
1617

1718
参数
1819
::::::::::::
1920

20-
- **x** (Tensor) - 输入的 ``Tensor``,数据类型为float32float64。
21-
- **beta** (float,可选) - Softplus 激活计算公式中的 beta 值。默认值为 1。
22-
- **threshold** (float,可选) - Softplus 激活计算公式中的 threshold 值。默认值为 20。
21+
- **x** (Tensor) - 输入的 ``Tensor``,数据类型为 float32float64。
22+
- **beta** (float,可选) - Softplus 激活计算公式中的 :math:`\beta` 值。默认值为 1。
23+
- **threshold** (float,可选) - Softplus 激活计算公式中的 :math:`\varepsilon` 值。默认值为 20。
2324
- **name** (str,可选) - 具体用法请参见 :ref:`api_guide_Name`,一般无需设置,默认值为 None。
2425

2526
返回
2627
::::::::::
27-
``Tensor``,数据类型和形状同 ``x`` 一致。
28+
29+
``Tensor``,数据类型和形状同 :attr:`x` 一致。
2830

2931
代码示例
3032
::::::::::

0 commit comments

Comments
 (0)