pypto.lrelu#
产品支持情况#
产品 |
是否支持 |
|---|---|
Ascend 950PR/Ascend 950DT |
√ |
Atlas A3 训练系列产品/Atlas A3 推理系列产品 |
√ |
Atlas A2 训练系列产品/Atlas A2 推理系列产品 |
√ |
功能说明#
对输入张量逐元素应用 Leaky ReLU(带泄漏的线性整流函数)激活函数。计算公式如下:
其中 negative_slope 为负斜率参数,默认值为 0.01。
函数原型#
lrelu(input: Tensor, negative_slope: Union[float, Element] = 0.01) -> Tensor
参数说明#
参数名 |
输入/输出 |
说明 |
|---|---|---|
input |
输入 |
源操作数。 |
negative_slope |
输入 |
负区间的斜率系数。 |
返回值说明#
返回输出Tensor,Tensor的数据类型和input相同,Shape与input一致。
约束说明#
input 数据类型必须为 DT_FP16、DT_BF16 或 DT_FP32。
negative_slope 必须为非负浮点数(≥ 0),且不能为
nan或inf。negative_slope建议优先使用 Element,传入 float 标量,对于 fp16 场景,不保证正确性。
不支持 in-place 操作(即输出不能与输入共享内存)。
调用示例#
TileShape设置示例#
说明:调用该operation接口前,应通过set_vec_tile_shapes设置TileShape。
TileShape维度应和输出一致。
示例1:输入input shape为[m, n],输出为[m, n], TileShape设置为[m1, n1], 则m1, n1分别用于切分m, n轴。
pypto.set_vec_tile_shapes(4, 16)
接口调用示例#
a = pypto.tensor([[-1.0, 0.0, 1.0]], pypto.DT_FP32)
out = pypto.lrelu(a)
结果示例如下:
输入数据a: [[-1.0 0.0 1.0]]
输出数据out: [[-0.01 0.0 1.0]]