标签:result 支持 http star training guide 否则 打包 算术运算
MindSpore静态图语法支持
在Graph模式下,Python代码并不是由Python解释器去执行,而是将代码编译成静态计算图,然后执行静态计算图。
关于Graph模式和计算图,可参考文档:https://www.mindspore.cn/tutorial/training/zh-CN/r1.1/advanced_use/debug_in_pynative_mode.html
当前仅支持编译@ms_function装饰器修饰的函数、Cell及其子类的实例。 对于函数,则编译函数定义;对于网络,则编译construct方法及其调用的其他方法或者函数。
ms_function使用规则可参考文档:https://www.mindspore.cn/doc/api_python/zh-CN/r1.1/mindspore/mindspore.html#mindspore.ms_function
Cell定义可参考文档:https://www.mindspore.cn/doc/programming_guide/zh-CN/r1.1/cell.html
由于语法解析的限制,当前在编译构图时,支持的数据类型、语法以及相关操作并没有完全与Python语法保持一致,部分使用受限。
本文主要介绍,在编译静态图时,支持的数据类型、语法以及相关操作,这些规则仅适用于Graph模式。
以下所有示例都运行在Graph模式下的网络中,为了简洁,并未将网络的定义都写出来。
当前支持的Python内置数据类型包括:Number、String、List、Tuple和Dictionary。
支持int、float、bool,不支持complex(复数)。
支持在网络里定义Number,即支持语法:y
=
1、y
=
1.2、 y
=
True。
不支持在网络里强转Number,即不支持语法:y
=
int(x)、y
=
float(x)、y
=
bool(x)。
支持在网络里构造String,即支持语法y
=
"abcd"。
不支持在网络里强转String,即不支持语法 y
=
str(x)。
支持在网络里构造List,即支持语法y
=
[1,
2,
3]。
不支持在网络里强转List,即不支持语法y
=
list(x)。
计算图中最终需要输出的List会转换为Tuple输出。
append: 向list里追加元素。
示例如下:
x = [1, 2, 3]
x.append(4)
结果如下:
x: (1, 2, 3, 4)
支持单层和多层索引取值以及赋值。
取值和赋值的索引值仅支持int。
赋值时,所赋的值支持Number、String、Tuple、List、Tensor。
示例如下:
x = [[1, 2], 2, 3, 4]
y = x[0][1]
x[1] = Tensor(np.array([1, 2, 3]))
x[2] = "ok"
x[3] = (1, 2, 3)
x[0][1] = 88
结果如下:
y: 2
x: ([1, 88], Tensor(shape=[3], dtype=Int64, value=[1, 2, 3]), ‘ok‘, (1, 2, 3))
支持在网络里构造Tuple,即支持语法y
=
(1,
2,
3)。
不支持在网络里强转Tuple,即不支持语法y
=
tuple(x)。
索引值支持int、slice、Tensor,也支持多层索引取值,即支持语法data
=
tuple_x[index0][index1]...。
索引值为Tensor有如下限制:
tuple_len)。int、slice索引示例如下:
x = (1, (2, 3, 4), 3, 4, Tensor(np.array([1, 2, 3])))
y = x[1][1]
z = x[4]
m = x[1:4]
结果如下:
y: 3
z: Tensor(shape=[3], dtype=Int64, value=[1, 2, 3])
m: (2, 3, 4), 3, 4)
Tensor索引示例如下:
class Net(nn.Cell):
def __init__(self):
super(Net, self).__init__()
self.relu = nn.ReLU()
self.softmax = nn.Softmax()
self.layers = (self.relu, self.softmax)
def construct(self, x, index):
ret = self.layers[index](x)
return ret
支持在网络里构造Dictionary,即支持语法y
=
{"a":
1,
"b":
2},当前仅支持String作为key值。
计算图中最终需要输出的Dictionary,会取出所有的value组成Tuple输出。
keys:取出dict里所有的key值,组成Tuple返回。
values:取出dict里所有的value值,组成Tuple返回。
示例如下:
x = {"a": Tensor(np.array([1, 2, 3])), "b": Tensor(np.array([4, 5, 6])), "c": Tensor(np.array([7, 8, 9]))}
y = x.keys()
z = x.values()
结果如下:
y: ("a", "b", "c")
z: (Tensor(shape=[3], dtype=Int64, value=[1, 2, 3]), Tensor(shape=[3], dtype=Int64, value=[4, 5, 6]), Tensor(shape=[3], dtype=Int64, value=[7, 8, 9]))
取值和赋值的索引值都仅支持String。赋值时,所赋的值支持Number、Tuple、Tensor。
示例如下:
x = {"a": Tensor(np.array([1, 2, 3])), "b": Tensor(np.array([4, 5, 6])), "c": Tensor(np.array([7, 8, 9]))}
y = x["b"]
x["a"] = (2, 3, 4)
结果如下:
y: Tensor(shape=[3], dtype=Int64, value=[4, 5, 6])
x: {"a": (2, 3, 4), Tensor(shape=[3], dtype=Int64, value=[4, 5, 6]), Tensor(shape=[3], dtype=Int64, value=[7, 8, 9])}
当前MindSpore自定义数据类型包括:Tensor、Primitive和Cell。
当前不支持在网络里构造Tensor,即不支持语法x
=
Tensor(args...)。
可以通过@constexpr装饰器修饰函数,在函数里生成Tensor。
关于@constexpr的用法可参考:https://www.mindspore.cn/doc/api_python/zh-CN/r1.1/mindspore/ops/mindspore.ops.constexpr.html
对于网络中需要用到的常量Tensor,可以作为网络的属性,在init的时候定义,即self.x
=
Tensor(args...),然后在construct里使用。
如下示例,通过@constexpr生成一个shape
=
(3,
4),
dtype
=
int64的Tensor。
@constexpr
def generate_tensor():
return Tensor(np.ones((3, 4)))
下面将介绍下Tensor支持的属性、接口、索引取值和索引赋值。
shape:获取Tensor的shape,返回一个Tuple。
dtype:获取Tensor的数据类型,返回一个MindSpore定义的数据类型。
all:对Tensor通过all操作进行归约,仅支持Bool类型的Tensor。
any:对Tensor通过any操作进行归约,仅支持Bool类型的Tensor。
view:将Tensorreshape成输入的shape。
expand_as:将Tensor按照广播规则扩展成与另一个Tensor相同的shape。
示例如下:
x = Tensor(np.array([[True, False, True], [False, True, False]]))
x_shape = x.shape
x_dtype = x.dtype
x_all = x.all()
x_any = x.any()
x_view = x.view((1, 6))
y = Tensor(np.ones((2, 3), np.float32))
z = Tensor(np.ones((2, 2, 3)))
y_as_z = y.expand_as(z)
结果如下:
x_shape: (2, 3)
x_dtype: Bool
x_all: Tensor(shape=[], dtype=Bool, value=False)
x_any: Tensor(shape=[], dtype=Bool, value=True)
x_view: Tensor(shape=[1, 6], dtype=Bool, value=[[True, False, True, False, True, False]])
y_as_z: Tensor(shape=[2, 2, 3], dtype=Float32, value=[[[1.0, 1.0, 1.0], [1.0, 1.0, 1.0]], [[1.0, 1.0, 1.0], [1.0, 1.0, 1.0]]])
索引值支持int、True、None、slice、Tensor、Tuple。
支持单层和多层int索引取值,单层int索引取值:tensor_x[int_index],多层int索引取值:tensor_x[int_index0][int_index1]...。
int索引取值操作的是第0维,索引值小于第0维长度,在取出第0维对应位置数据后,会消除第0维。
例如,如果对一个shape为(3,
4,
5)的tensor进行单层int索引取值,取得结果的shape是(4,
5)。
多层索引取值可以理解为,后一层索引取值在前一层索引取值结果上再进行int索引取值。
示例如下:
tensor_x = Tensor(np.arange(2 * 3 * 2).reshape((2, 3, 2)))
data_single = tensor_x[0]
data_multi = tensor_x[0][1]
结果如下:
data_single: Tensor(shape=[3, 2], dtype=Int64, value=[[0, 1], [2, 3], [4, 5]])
data_multi: Tensor(shape=[2], dtype=Int64, value=[2, 3])
支持单层和多层True索引取值,单层True索引取值:tensor_x[True],多层True索引取值:tensor_x[True][True]...。
True索引取值操作的是第0维,在取出所有数据后,会在axis=0轴上扩展一维,该维长度为1。
例如,对一个shape为(3,
4,
5)的tensor进行单层True索引取值,取得结果的shape是(1,
3,
4,
5)。
多层索引取值可以理解为,后一层索引取值在前一层索引取值结果上再进行True索引取值。
示例如下:
tensor_x = Tensor(np.arange(2 * 3 ).reshape((2, 3)))
data_single = tensor_x[True]
data_multi = tensor_x[True][True]
结果如下:
data_single: Tensor(shape=[1, 2, 3], dtype=Int64, value=[[[0, 1, 2], [3, 4, 5]]])
data_multi: Tensor(shape=[1, 1, 2, 3], dtype=Int64, value=[[[[0, 1, 2], [3, 4, 5]]]])
None索引取值和True索引取值一致,可参考True索引取值,这里不再赘述。
支持单层和多层ellipsis索引取值,单层ellipsis索引取值:tensor_x[...],多层ellipsis索引取值:tensor_x[...][...]...。
ellipsis索引取值操作的是所有维度,原样不动取出所有数据。一般多作为Tuple索引的组成元素,Tuple索引将于下面介绍。
例如,对一个shape为(3,
4,
5)的tensor进行ellipsis索引取值,取得结果的shape依然是(3,
4,
5)。
示例如下:
tensor_x = Tensor(np.arange(2 * 3 ).reshape((2, 3)))
data_single = tensor_x[...]
data_multi = tensor_x[...][...]
结果如下:
data_single: Tensor(shape=[2, 3], dtype=Int64, value=[[0, 1, 2], [3, 4, 5]])
data_multi: Tensor(shape=[2, 3], dtype=Int64, value=[[0, 1, 2], [3, 4, 5]])
支持单层和多层slice索引取值,单层slice索引取值:tensor_x[slice_index],多层slice索引取值:tensor_x[slice_index0][slice_index1]...。
slice索引取值操作的是第0维,取出第0维所切到位置的元素,slice不会降维,即使切到长度为1,区别于int索引取值。
例如,tensor_x[0:1:1]
!=
tensor_x[0],因为shape_former
=
(1,)
+
shape_latter。
多层索引取值可以理解为,后一层索引取值在前一层索引取值结果上再进行slice索引取值。
slice有start、stop和step组成。start默认值为0,stop默认值为该维长度,step默认值为1。
例如,tensor_x[:]
==
tensor_x[0:length:1]。
示例如下:
tensor_x = Tensor(np.arange(4 * 2 * 2).reshape((4, 2, 2)))
data_single = tensor_x[1:4:2]
data_multi = tensor_x[1:4:2][1:]
结果如下:
data_single: Tensor(shape=[2, 2, 2], dtype=Int64, value=[[[4, 5], [6, 7]], [[12, 13], [14, 15]]])
data_multi: Tensor(shape=[1, 2, 2], dtype=Int64, value=[[[12, 13], [14, 15]]])
支持单层和多层Tensor索引取值,单层Tensor索引取值:tensor_x[tensor_index],多层Tensor索引取值:tensor_x[tensor_index0][tensor_index1]...。
Tensor索引取值操作的是第0维,取出第0维对应位置的元素。
索引Tensor数据类型必须是int32,元素不能是负数,值小于第0维长度。
Tensor索引取值得到结果的data_shape
=
tensor_index.shape
+
tensor_x.shape[1:]。
例如,对一个shape为(6,
4,
5)的tensor通过shape为(2,
3)的tensor进行索引取值,取得结果的shape为(2,
3,
4,
5)。
多层索引取值可以理解为,后一层索引取值在前一层索引取值结果上再进行Tensor索引取值。
示例如下:
tensor_x = Tensor(np.arange(4 * 2 * 3).reshape((4, 2, 3)))
tensor_index0 = Tensor(np.array([[1, 2], [0, 3]]), mstype.int32)
tensor_index1 = Tensor(np.array([[0, 0]]), mstype.int32)
data_single = tensor_x[tensor_index0]
data_multi = tensor_x[tensor_index0][tensor_index1]
结果如下:
data_single: Tensor(shape=[2, 2, 2, 3], dtype=Int64, value=[[[[4, 5], [6, 7]], [[8, 9], [10, 11]]], [[[0, 1], [2, 3]], [[12, 13], [14, 15]]]])
data_multi: Tensor(shape=[1, 2, 2, 2, 3], dtype=Int64, value=[[[[[4, 5], [6, 7]], [[8, 9], [10, 11]]], [[[4, 5], [6, 7]], [[8, 9], [10, 11]]]]])
索引Tuple的数据类型必须是int32,支持单层和多层Tuple索引取值,单层Tuple索引取值:tensor_x[tuple_index],多层Tuple索引取值:tensor_x[tuple_index0][tuple_index1]...。
Tuple索引里的元素可以包含int、slice、ellipsis、Tensor。
索引里除ellipsis外每个元素操作对应位置维度,即Tuple中第0个元素操作第0维,第1个元素操作第1维,以此类推,每个元素的索引规则与该元素类型索引取值规则一致。
Tuple索引里最多只有一个ellipsis,ellipsis前半部分索引元素从前往后对应Tensor第0维往后,后半部分索引元素从后往前对应Tensor最后一维往前,其他未指定的维度,代表全取。
元素里包含的Tensor数据类型必须是int32,且Tensor元素不能是负数,值小于操作维度长度。
例如,tensor_x[0:3,
1,
tensor_index]
==
tensor_x[(0:3,
1,
tensor_index)],因为0:3,
1,
tensor_index就是一个Tuple。
多层索引取值可以理解为,后一层索引取值在前一层索引取值结果上再进行Tuple索引取值。
示例如下:
tensor_x = Tensor(np.arange(2 * 3 * 4).reshape((2, 3, 4)))
tensor_index = Tensor(np.array([[1, 2, 1], [0, 3, 2]]), mstype.int32)
data = tensor_x[1, 0:1, tensor_index]
结果如下:
data: Tensor(shape=[2, 3, 1], dtype=Int64, value=[[[13], [14], [13]], [[12], [15], [14]]])
索引值支持int、ellipsis、slice、Tensor、Tuple。
索引赋值可以理解为对索引到的位置元素按照一定规则进行赋值,所有索引赋值都不会改变原Tensor的shape。
同时支持增强索引赋值,即支持+=、-=、*=、/=、%=、**=、//=。
支持单层和多层int索引赋值,单层int索引赋值:tensor_x[int_index]
=
u,多层int索引赋值:tensor_x[int_index0][int_index1]...
=
u。
所赋值支持Number和Tensor,Number和Tensor都会被转为与被更新Tensor数据类型一致。
当所赋值为Number时,可以理解为将int索引取到位置元素都更新为Number。
当所赋值为Tensor时,Tensor的shape必须等于或者可广播为int索引取到结果的shape,在保持二者shape一致后,然后将赋值Tensor元素更新到索引取出结果对应元素的原Tensor位置。
例如,对shape
=
(2,
3,
4)的Tensor,通过int索引1赋值为100,更新后的Tensorshape仍为(2,
3,
4),但第0维位置为1的所有元素,值都更新为100。
示例如下:
tensor_x = Tensor(np.arange(2 * 3).reshape((2, 3)).astype(np.float32))
tensor_y = Tensor(np.arange(2 * 3).reshape((2, 3)).astype(np.float32))
tensor_z = Tensor(np.arange(2 * 3).reshape((2, 3)).astype(np.float32))
tensor_x[1] = 88.0
tensor_y[1][1] = 88.0
tensor_z[1]= Tensor(np.array([66, 88, 99]).astype(np.float32))
结果如下:
tensor_x: Tensor(shape=[2, 3], dtype=Float32, value=[[0.0, 1.0, 2.0], [88.0, 88.0, 88.0]])
tensor_y: Tensor(shape=[2, 3], dtype=Float32, value=[[0.0, 1.0, 2.0], [3.0, 88.0, 5.0]])
tensor_z: Tensor(shape=[2, 3], dtype=Float32, value=[[0.0, 1.0, 2.0], [66.0, 88.0, 99.0]])
支持单层和多层ellipsis索引赋值,单层ellipsis索引赋值:tensor_x[...]
=
u,多层ellipsis索引赋值:tensor_x[...][...]...
=
u。
所赋值支持Number和Tensor,Number和Tensor里的值都会转为与被更新Tensor数据类型一致。
当所赋值为Number时,可以理解为将所有元素都更新为Number。
当所赋值为Tensor时,Tensor里元素个数必须为1或者等于原Tensor里元素个数,元素为1时进行广播,个数相等shape不一致时进行reshape, 在保证二者shape一致后,将赋值Tensor元素按照位置逐一更新到原Tensor里。
例如,对shape
=
(2,
3,
4)的Tensor,通过...索引赋值为100,更新后的Tensorshape仍为(2,
3,
4),所有元素都变为100。
示例如下:
tensor_x = Tensor(np.arange(2 * 3).reshape((2, 3)).astype(np.float32))
tensor_y = Tensor(np.arange(2 * 3).reshape((2, 3)).astype(np.float32))
tensor_z = Tensor(np.arange(2 * 3).reshape((2, 3)).astype(np.float32))
tensor_x[...] = 88.0
tensor_y[...] = Tensor(np.array([22, 44, 55, 22, 44, 55]).astype(np.float32))
结果如下:
tensor_x: Tensor(shape=[2, 3], dtype=Float32, value=[[88.0, 88.0, 88.0], [88.0, 88.0, 88.0]])
tensor_y: Tensor(shape=[2, 3], dtype=Float32, value=[[22.0, 44.0, 55.0], [22.0, 44.0, 55.0]])
支持单层和多层slice索引赋值,单层slice索引赋值:tensor_x[slice_index]
=
u,多层slice索引赋值:tensor_x[slice_index0][slice_index1]...
=
u。
所赋值支持Number和Tensor,Number和Tensor里的值都会转为与被更新Tensor数据类型一致。
当所赋值为Number时,可以理解为将slice索引取到位置元素都更新为Number。
当所赋值为Tensor时,Tensor里元素个数必须为1或者等于slice索引取到Tensor里元素个数,元素为1时进行广播,个数相等shape不一致时进行reshape, 在保证二者shape一致后,将赋值Tensor元素按照位置逐一更新到原Tensor里。
例如,对shape
=
(2,
3,
4)的Tensor,通过0:1:1索引赋值为100,更新后的Tensorshape仍为(2,
3,
4),但第0维位置为0的所有元素,值都更新为100。
示例如下:
tensor_x = Tensor(np.arange(3 * 3).reshape((3, 3)).astype(np.float32))
tensor_y = Tensor(np.arange(3 * 3).reshape((3, 3)).astype(np.float32))
tensor_z = Tensor(np.arange(3 * 3).reshape((3, 3)).astype(np.float32))
tensor_x[0:1] = 88.0
tensor_y[0:2][0:2] = 88.0
tensor_z[0:2] = Tensor(np.array([11, 12, 13, 11, 12, 13]).astype(np.float32))
结果如下:
tensor_x: Tensor(shape=[3, 3], dtype=Float32, value=[[88.0, 88.0, 88.0], [3.0, 4.0, 5.0], [6.0, 7.0, 8.0]])
tensor_y: Tensor(shape=[3, 3], dtype=Float32, value=[[88.0, 88.0, 88.0], [88.0, 88.0, 88.0], [6.0, 7.0, 8.0]])
tensor_z: Tensor(shape=[3, 3], dtype=Float32, value=[[11.0, 12.0, 13.0], [11.0, 12.0, 13.0], [6.0, 7.0, 8.0]])
仅支持单层Tensor索引赋值,即tensor_x[tensor_index]
=
u。
索引Tensor支持int32和bool类型。
所赋值支持Number、Tuple和Tensor,Number、Tuple和Tensor里的值必须与原Tensor数据类型一致。
当所赋值为Number时,可以理解为将Tensor索引取到位置元素都更新为Number。
当所赋值为Tensor时,Tensor的shape必须等于或者可广播为索引取到结果的shape,在保持二者shape一致后,然后将赋值Tensor元素更新到索引取出结果对应元素的原Tensor位置。
当所赋值为Tuple时,Tuple里元素只能全是Number或者全是Tensor。
当全是Number时,Number的类型必须与原Tensor数据类型是一类,且元素的个数必须等于索引取到结果shape的最后一维,然后广播为索引取到结果shape;
当全是Tensor的时候,这些Tensor在axis=0轴上打包之后成为一个新的赋值Tensor,这时按照所赋值为Tensor的规则进行赋值。
例如,对一个shape为(6,
4,
5)、dtype为float32的tensor通过shape为(2,
3)的tensor进行索引赋值,如果所赋值为Number,则Number必须是float; 如果所赋值为Tuple,则tuple里的元素都得是float,且个数为5;如果所赋值为Tensor,则Tensor的dtype必须为float32,且shape可广播为(2,
3,
4,
5)。
示例如下:
tensor_x = Tensor(np.arange(3 * 3).reshape((3, 3)).astype(np.float32))
tensor_y = Tensor(np.arange(3 * 3).reshape((3, 3)).astype(np.float32))
tensor_index = Tensor(np.array([[2, 0, 2], [0, 2, 0], [0, 2, 0]], np.int32))
tensor_x[tensor_index] = 88.0
tensor_y[tensor_index] = Tensor(np.array([11.0, 12.0, 13.0]).astype(np.float32))
结果如下:
tensor_x: Tensor(shape=[3, 3], dtype=Float32, value=[[88.0, 88.0, 88.0], [3.0, 4.0, 5.0], [88.0, 88.0, 88.0]])
tensor_y: Tensor(shape=[3, 3], dtype=Float32, value=[[11.0, 12.0, 13.0], [3.0, 4.0, 5.0], [11.0, 12.0, 13.0]])
支持单层和多层Tuple索引赋值,单层Tuple索引赋值:tensor_x[tuple_index]
=
u,多层Tuple索引赋值:tensor_x[tuple_index0][tuple_index1]...
=
u。
Tuple索引赋值和Tuple索引取值对索引的支持一致, 但多层Tuple索引赋值不支持Tuple里包含Tensor。
所赋值支持Number、Tuple和Tensor,Number、Tuple和Tensor里的值必须与原Tensor数据类型一致。
当所赋值为Number时,可以理解为将Tensor索引取到位置元素都更新为Number。
当所赋值为Tensor时,Tensor的shape必须等于或者可广播为索引取到结果的shape,在保持二者shape一致后,然后将赋值Tensor元素更新到索引取出结果对应元素的原Tensor位置。
当所赋值为Tuple时,Tuple里元素只能全是Number或者全是Tensor。
当全是Number时,Number的类型必须与原Tensor数据类型是一类,且元素的个数必须等于索引取到结果shape的最后一维,然后广播为索引取到结果shape;
当全是Tensor的时候,这些Tensor在axis=0轴上打包之后成为一个新的赋值Tensor,这时按照所赋值为Tensor的规则进行赋值。
示例如下:
tensor_x = Tensor(np.arange(3 * 3).reshape((3, 3)).astype(np.float32))
tensor_y = Tensor(np.arange(3 * 3).reshape((3, 3)).astype(np.float32))
tensor_z = Tensor(np.arange(3 * 3).reshape((3, 3)).astype(np.float32))
tensor_index = Tensor(np.array([[0, 1], [1, 0]]).astype(np.int32))
tensor_x[1, 1:3] = 88.0
tensor_y[1:3, tensor_index] = 88.0
tensor_z[1:3, tensor_index] = Tensor(np.array([11, 12]).astype(np.float32))
结果如下:
tensor_x: Tensor(shape=[3, 3], dtype=Float32, value=[[0.0, 1.0, 2.0], [3.0, 88.0, 88.0], [6.0, 7.0, 8.0]])
tensor_y: Tensor(shape=[3, 3], dtype=Float32, value=[[0.0, 1.0, 2.0], [88.0, 88.0, 5.0], [88.0, 88.0, 8.0]])
tensor_z: Tensor(shape=[3, 3], dtype=Float32, value=[[0.0, 1.0, 2.0], [12.0, 11.0, 5.0], [12.0, 11.0, 8.0]])
当前支持在网络里构造Primitive及其子类的实例,即支持语法reduce_sum
=
ReduceSum(True)。
但在构造时,参数只能通过位置参数方式传入,不支持通过键值对方式传入,即不支持语法reduce_sum
=
ReduceSum(keep_dims=True)。
当前不支持在网络调用Primitive及其子类相关属性和接口。
Primitive定义可参考文档:https://www.mindspore.cn/doc/programming_guide/zh-CN/r1.1/operators.html
当前已定义的Primitive可参考文档:https://www.mindspore.cn/doc/api_python/zh-CN/r1.1/mindspore/mindspore.ops.html
当前支持在网络里构造Cell及其子类的实例,即支持语法cell
=
Cell(args...)。
但在构造时,参数只能通过位置参数方式传入,不支持通过键值对方式传入,即不支持在语法cell
=
Cell(arg_name=value)。
当前不支持在网络调用Cell及其子类相关属性和接口,除非是在Cell自己的contrcut中通过self调用。
Cell定义可参考文档:https://www.mindspore.cn/doc/programming_guide/zh-CN/r1.1/cell.html
当前已定义的Cell可参考文档:https://www.mindspore.cn/doc/api_python/zh-CN/r1.1/mindspore/mindspore.nn.html
算术运算符和赋值运算符支持Number和Tensor运算,也支持不同dtype的Tensor运算。
之所以支持,是因为这些运算符会转换成同名算子进行运算,这些算子支持了隐式类型转换。
规则可参考文档:https://www.mindspore.cn/doc/note/zh-CN/r1.1/operator_list_implicit.html
算术运算符 |
支持类型 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
赋值运算符 |
支持类型 |
|
标量、 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
逻辑运算符 |
支持类型 |
|
|
|
|
|
not |
成员运算符 |
支持类型 |
|
|
|
与 |
身份运算符 |
支持类型 |
|
仅支持判断是 |
|
仅支持判断不是 |
使用方式:
(cond):
statements...
=
y
if
(cond)
else
z参数:cond – 支持类型Number、Tuple、List、String、None、Tensor、Function,也可以是计算结果类型是其中之一的表达式。
限制:
示例1:
if x > y:
return m
else:
return n
if分支返回的m和else分支返回的n,二者数据类型和shape必须一致。
示例2:
if x > y:
out = m
else:
out = n
return out
if分支更新后out和else分支更新后out,二者数据类型和shape必须一致。
使用方式:for
i
in
sequence
示例如下:
z = Tensor(np.ones((2, 3)))
x = (1, 2, 3)
for i in x:
z += i
return z
结果如下:
z: Tensor(shape=[2, 3], dtype=Int64, value=[[7, 7], [7, 7], [7, 7]])
参数:sequence – 遍历序列(Tuple、List)
使用方式:while(cond)
参数:cond – 与if一致。
限制:
示例1:
while x > y:
x += 1
return m
return n
while内返回的m和while外返回的n数据类型必须和shape一致。
示例2:
out = m
while x > y:
x += 1
out = n
return out
while内,out更新后和更新前的数据类型和shape必须一致。
当前流程控制语句支持了break、continue和pass。
可用于for和while代码块里,用于终止整个循环。
示例如下:
for i in x:
if i == 2:
break
statement_a
statement_b
当 i
==
2时,循环终止,执行statement_b。
可用于for和while语句块里,用于终止本轮循环,直接进入下一轮循环。
示例如下:
for i in x:
if i == 2:
continue
statement_a
statement_b
当 i
==
2时,本轮循环终止,不会往下执行statement_a,进入下一轮循环。
不做任何事情,占位语句。
用于定义函数。
使用方式:
def
function_name(args):
statements...
示例如下:
def number_add(x, y):
return x + y
ret = number_add(1, 2)
结果如下:
ret: 3
用于生成函数。
使用方式:lambda
x,
y:
x
+
y
示例如下:
number_add = lambda x, y: x + y
ret = number_add(2, 3)
结果如下:
ret: 5
当前支持的Python内置函数包括:len、isinstance、partial、map、range、enumerate、super和pow。
功能:求序列的长度。
调用:len(sequence)
入参:sequence – Tuple、List、Dictionary或者Tensor。
返回值:序列的长度,类型为int。当入参是Tensor时,返回的是Tensor第0维的长度。
示例如下:
x = (2, 3, 4)
y = [2, 3, 4]
d = {"a": 2, "b": 3}
z = Tensor(np.ones((6, 4, 5)))
x_len = len(x)
y_len = len(y)
d_len = len(d)
z_len = len(z)
结果如下:
x_len: 3
y_len: 3
d_len: 2
z_len: 6
功能:判断对象是否为类的实例。
调用:isinstance(obj,
type)
入参:
dtype模块下的一个类型。返回值:obj为type的实例,返回True,否则返回False。
示例如下:
x = (2, 3, 4)
y = [2, 3, 4]
z = Tensor(np.ones((6, 4, 5)))
x_is_tuple = isinstance(x, mstype.tuple_)
y_is_list= isinstance(y, mstype.list_)
z_is_tensor = isinstance(z, mstype.tensor)
结果如下:
x_is_tuple: True
y_is_list: True
z_is_tensor: True
功能:偏函数,固定函数入参。
调用:partial(func,
arg,
...)
入参:
返回值:返回某些入参固定了值的函数。
示例如下:
def add(x, y):
return x + y
add_ = partial(add, x=2)
m = add_(y=3)
n = add_(y=5)
结果如下:
m: 5
n: 7
功能:根据提供的函数对一个或者多个序列做映射,由映射的结果生成一个新的序列。 如果多个序列中的元素个数不一致,则生成的新序列与最短的那个长度相同。
调用:map(func,
sequence,
...)
入参:
返回值:返回一个Tuple。
示例如下:
def add(x, y):
return x + y
elements_a = (1, 2, 3)
elements_b = (4, 5, 6)
ret = map(add, elements_a, elements_b)
结果如下:
ret: (5, 7, 9)
功能:将多个序列中对应位置的元素打包成一个个元组,然后由这些元组组成一个新序列, 如果各个序列中的元素个数不一致,则生成的新序列与最短的那个长度相同。
调用:zip(sequence,
...)
入参:sequence – 一个或多个序列(Tuple或List)`。
返回值:返回一个Tuple。
示例如下:
elements_a = (1, 2, 3)
elements_b = (4, 5, 6)
ret = zip(elements_a, elements_b)
结果如下:
ret: ((1, 4), (2, 5), (3, 6))
功能:根据起始值、结束值和步长创建一个Tuple。
调用:
stop,
step)
stop)入参:
返回值:返回一个Tuple。
示例如下:
x = range(0, 6, 2)
y = range(0, 5)
z = range(3)
结果如下:
x: (0, 2, 4)
y: (0, 1, 2, 3, 4)
z: (0, 1, 2)
功能:生成一个序列的索引序列,索引序列包含数据和对应下标。
调用:
start)入参:
返回值:返回一个Tuple。
示例如下:
x = (100, 200, 300, 400)
y = Tensor(np.array([[1, 2], [3, 4], [5 ,6]]))
m = enumerate(x, 3)
n = enumerate(y)
结果如下:
m: ((3, 100), (4, 200), (5, 300), (5, 400))
n: ((0, Tensor(shape=[2], dtype=Int64, value=[1, 2])), (1, Tensor(shape=[2], dtype=Int64, value=[3, 4])), (2, Tensor(shape=[2], dtype=Int64, value=[5, 6])))
功能:用于调用父类(超类)的一个方法,一般在super之后调用父类的方法。
调用:
self).xxx()入参:
返回值:返回父类的方法。
示例如下:
class FatherNet(nn.Cell):
def __init__(self, x):
super(FatherNet, self).__init__(x)
self.x = x
def construct(self, x, y):
return self.x * x
def test_father(self, x):
return self.x + x
class SingleSubNet(FatherNet):
def __init__(self, x, z):
super(SingleSubNet, self).__init__(x)
self.z = z
def construct(self, x, y):
ret_father_construct = super().construct(x, y)
ret_father_test = super(SingleSubNet, self).test_father(x)
return ret_father_construct, ret_father_test
功能:求幂。
调用:pow(x,
y)
入参:
返回值:返回x的y次幂,Number或Tensor。
示例如下:
x = Tensor(np.array([1, 2, 3]))
y = Tensor(np.array([1, 2, 3]))
ret = pow(x, y)
结果如下:
ret: Tensor(shape=[3], dtype=Int64, value=[1, 4, 27]))
功能:用于打印。
调用:print(arg,
...)
入参:arg – 要打印的信息(String或Tensor)。
返回值:无返回值。
示例如下:
x = Tensor(np.array([1, 2, 3]))
print("result", x)
结果如下:
result Tensor(shape=[3], dtype=Int64, value=[1, 2, 3]))
类别 |
内容 |
|
mindspore/nn/*、自定义Cell。 |
|
Cell的construct中可以调用其他类成员函数。 |
|
使用@dataclass装饰的类。 |
|
|
|
|
|
使用@constexpr生成的值计算算子。 |
函数 |
自定义Python函数、前文中列举的系统函数。 |
在网络初始化的时候,设置self.support_non_tensor_inputs
=
True,该配置目前仅支持正向网络,暂不支持反向网络,即不支持对整网入参有非Tensor的网络求反向。
支持最外层传入标量示例如下:
class ExpandDimsNet(nn.Cell):
def __init__(self):
super(ExpandDimsNet, self).__init__()
self.support_non_tensor_inputs = True
self.expandDims = ops.ExpandDims()
def construct(self, input_x, input_axis):
return self.expandDims(input_x, input_axis)
expand_dim_net = ExpandDimsNet()
input_x = Tensor(np.random.randn(2,2,2,2).astype(np.float32))
expand_dim_net(input_x, 0)
示例如下:
class Net(Cell):
def __init__(self):
super(Net, self).__init__()
self.num = 2
self.par = Parameter(Tensor(np.ones((2, 3, 4))), name="par")
def construct(self, x, y):
return x + y
上面所定义的网络里,self.num不是一个Parameter,不允许被修改,而self.par是一个Parameter,可以被修改。
示例如下:
class Net(Cell):
def __init__(self):
super(Net, self).__init__()
def construct(self, x):
return x + self.y
上面所定义的网络里,construct里使用了并未定义的类成员self.y,此时会将self.y作为None处理。
标签:result 支持 http star training guide 否则 打包 算术运算
原文地址:https://www.cnblogs.com/wujianming-110117/p/14316493.html