# -*- coding: utf-8 -*-
import tensorflow as tf
import numpy as np
# 建立張量
a = tf.constant([1
,5], dtype=tf.int64)
print
("a:"
, a)
print
("a.dtype:"
, a.dtype)
print
("a.shape:"
, a.shape)
a: tf.tensor([1 5], shape=(2,), dtype=int64)
a.dtype: a.shape: (2,)
# 將np格式的資料轉換為tensor格式
a = np.arange(0,
5)b = tf.convert_to_tensor(a, dtype=tf.int64)
print
("a:"
, a)
print
("b:"
, b)
a: [0 1 2 3 4]
b: tf.tensor([0 1 2 3 4], shape=(5,), dtype=int64)
a = tf.zeros([2
,3])
# 建立全為0的張量
b = tf.ones(4)
# 建立全為1的張量
c = tf.fill([2
,2],
9)#建立全為指定值的張量
print
("a:"
, a)
print
("b:"
, b)
print
("c:"
, c)
a: tf.tensor(
[[0. 0. 0.]
[0. 0. 0.]], shape=(2, 3), dtype=float32)
b: tf.tensor([1. 1. 1. 1.], shape=(4,), dtype=float32)
c: tf.tensor(
[[9 9]
[9 9]], shape=(2, 2), dtype=int32)
d = tf.random.normal([2
,2], mean=
0.5, stddev=1)
# 生成正態分佈的隨機數,預設均值為0,標準差為1
print
("d:"
, d)
e = tf.random.truncated_normal([2
,2], mean=
0.5, stddev=1)
#生成截斷式正態分佈,生成的資料取值在正負兩倍標準差之內,資料更集中
print
("e:"
, e)
d: tf.tensor(
[[ 2.5829678 -1.2323483 ]
[-0.6496475 0.18799412]], shape=(2, 2), dtype=float32)
e: tf.tensor(
[[0.8986387 2.126217 ]
[1.2121066 0.28844398]], shape=(2, 2), dtype=float32)
f = tf.random.uniform([2
,2], minval=
0, maxval=1)
#生成均勻分布的隨機數, minval最小值,maxval最大值
print
("f:"
, f)
f: tf.tensor(
[[0.06484163 0.00596273]
[0.8598033 0.8169972 ]], shape=(2, 2), dtype=float32)
Tensorflow2 0張量生成
tensorflow 1 tensor就是張量,多維陣列,多維列表,階表示張量的維數 dimension 維數階 名字例子 0 d標量scalar s 1 2 3 1 d向量vector v 1,2,3 2 d矩陣matrix m 1,2,3 4,5,6 7,8,9 n dn 張量tensor t ...
Tensorflow實戰 張量
import tensorflow as tf tf.constant 是乙個計算,這個計算的結果為乙個張量,儲存在變數a中。a tf.constant 1.0,2.0 name a b tf.constant 2.0,3.0 name b result tf.add a,b,name add pr...
Tensorflow張量(tensor)解析
tensor是tensorflow基礎的乙個概念 張量。定義在 framework ops.py tensorflow用到了資料流圖,資料流圖包括資料 data 流 flow 圖 graph tensorflow裡的資料用到的都是tensor,所以谷歌起名為tensorflow。下面介紹張量幾個比較...