在线看毛片网站电影-亚洲国产欧美日韩精品一区二区三区,国产欧美乱夫不卡无乱码,国产精品欧美久久久天天影视,精品一区二区三区视频在线观看,亚洲国产精品人成乱码天天看,日韩久久久一区,91精品国产91免费

<menu id="6qfwx"><li id="6qfwx"></li></menu>
    1. <menu id="6qfwx"><dl id="6qfwx"></dl></menu>

      <label id="6qfwx"><ol id="6qfwx"></ol></label><menu id="6qfwx"></menu><object id="6qfwx"><strike id="6qfwx"><noscript id="6qfwx"></noscript></strike></object>
        1. <center id="6qfwx"><dl id="6qfwx"></dl></center>

            新聞中心

            EEPW首頁 > 智能計(jì)算 > 設(shè)計(jì)應(yīng)用 > 一步一步學(xué)用Tensorflow構(gòu)建卷積神經(jīng)網(wǎng)絡(luò)

            一步一步學(xué)用Tensorflow構(gòu)建卷積神經(jīng)網(wǎng)絡(luò)

            作者: 時(shí)間:2017-11-13 來源:網(wǎng)絡(luò) 收藏

              0. 簡介

            本文引用地址:http://www.biyoush.com/article/201711/371373.htm

              在過去,我寫的主要都是“傳統(tǒng)類”的機(jī)器學(xué)習(xí)文章,如樸素貝葉斯分類、邏輯回歸和Perceptron算法。在過去的一年中,我一直在研究深度學(xué)習(xí)技術(shù),因此,我想和大家分享一下如何使用從頭開始構(gòu)建和訓(xùn)練。這樣,我們以后就可以將這個(gè)知識(shí)作為一個(gè)構(gòu)建塊來創(chuàng)造有趣的深度學(xué)習(xí)應(yīng)用程序了。

              為此,你需要安裝(請參閱安裝說明),你還應(yīng)該對Python編程和背后的理論有一個(gè)基本的了解。安裝完之后,你可以在不依賴GPU的情況下運(yùn)行一個(gè)較小的神經(jīng)網(wǎng)絡(luò),但對于更深層次的神經(jīng)網(wǎng)絡(luò),就需要用到GPU的計(jì)算能力了。

              在互聯(lián)網(wǎng)上有很多解釋工作原理方面的網(wǎng)站和課程,其中有一些還是很不錯(cuò)的,圖文并茂、易于理解[點(diǎn)擊此處獲取更多信息]。我在這里就不再解釋相同的東西,所以在開始閱讀下文之前,請?zhí)崆傲私饩矸e神經(jīng)網(wǎng)絡(luò)的工作原理。例如:

              什么是卷積層,卷積層的過濾器是什么?

              什么是激活層(ReLu層(應(yīng)用最廣泛的)、S型激活或tanh)?

              什么是池層(最大池/平均池),什么是dropout?

              隨機(jī)梯度下降的工作原理是什么?

              本文內(nèi)容如下:

              Tensorflow基礎(chǔ)

              1.1 常數(shù)和變量

              1.2 Tensorflow中的圖和會(huì)話

              1.3 占位符和feed_dicts

              Tensorflow中的神經(jīng)網(wǎng)絡(luò)

              2.1 介紹

              2.2 數(shù)據(jù)加載

              2.3 創(chuàng)建一個(gè)簡單的一層神經(jīng)網(wǎng)絡(luò)

              2.4 Tensorflow的多個(gè)方面

              2.5 創(chuàng)建LeNet5卷積神經(jīng)網(wǎng)絡(luò)

              2.6 影響層輸出大小的參數(shù)

              2.7 調(diào)整LeNet5架構(gòu)

              2.8 學(xué)習(xí)速率和優(yōu)化器的影響

              Tensorflow中的深度神經(jīng)網(wǎng)絡(luò)

              3.1 AlexNet

              3.2 VGG Net-16

              3.3 AlexNet性能

              結(jié)語

              1. Tensorflow 基礎(chǔ)

              在這里,我將向以前從未使用過Tensorflow的人做一個(gè)簡單的介紹。如果你想要立即開始構(gòu)建神經(jīng)網(wǎng)絡(luò),或者已經(jīng)熟悉Tensorflow,可以直接跳到第2節(jié)。如果你想了解更多有關(guān)Tensorflow的信息,你還可以查看這個(gè)代碼庫,或者閱讀斯坦福大學(xué)CS20SI課程的講義1和講義2。

              1.1 常量與變量

              Tensorflow中最基本的單元是常量、變量和占位符。

              tf.constant()和tf.Variable()之間的區(qū)別很清楚;一個(gè)常量有著恒定不變的值,一旦設(shè)置了它,它的值不能被改變。而變量的值可以在設(shè)置完成后改變,但變量的數(shù)據(jù)類型和形狀無法改變。

              #We can create constants and variables of different types.

              #However, the different types do not mix well together.

              a = tf.constant(2, tf.int16)

              b = tf.constant(4, tf.float32)

              c = tf.constant(8, tf.float32)

              d = tf.Variable(2, tf.int16)

              e = tf.Variable(4, tf.float32)

              f = tf.Variable(8, tf.float32)

              #we can perform computations on variable of the same type: e + f

              #but the following can not be done: d + e

              #everything in Tensorflow is a tensor, these can have different dimensions:

              #0D, 1D, 2D, 3D, 4D, or nD-tensors

              g = tf.constant(np.zeros(shape=(2,2), dtype=np.float32)) #does work

              h = tf.zeros([11], tf.int16)

              i = tf.ones([2,2], tf.float32)

              j = tf.zeros([1000,4,3], tf.float64)

              k = tf.Variable(tf.zeros([2,2], tf.float32))

              l = tf.Variable(tf.zeros([5,6,5], tf.float32))

              除了tf.zeros()和tf.ones()能夠創(chuàng)建一個(gè)初始值為0或1的張量(見這里)之外,還有一個(gè)tf.random_normal()函數(shù),它能夠創(chuàng)建一個(gè)包含多個(gè)隨機(jī)值的張量,這些隨機(jī)值是從正態(tài)分布中隨機(jī)抽取的(默認(rèn)的分布均值為0.0,標(biāo)準(zhǔn)差為1.0)。

              另外還有一個(gè)tf.truncated_normal()函數(shù),它創(chuàng)建了一個(gè)包含從截?cái)嗟恼龖B(tài)分布中隨機(jī)抽取的值的張量,其中下上限是標(biāo)準(zhǔn)偏差的兩倍。

              有了這些知識(shí),我們就可以創(chuàng)建用于神經(jīng)網(wǎng)絡(luò)的權(quán)重矩陣和偏差向量了。

              weights = tf.Variable(tf.truncated_normal([256 * 256, 10]))

              biases = tf.Variable(tf.zeros([10]))

              print(weights.get_shape().as_list())

              print(biases.get_shape().as_list())

              >>>[65536, 10]

              >>>[10]

              1.2 Tensorflow 中的圖與會(huì)話

              在Tensorflow中,所有不同的變量以及對這些變量的操作都保存在圖(Graph)中。在構(gòu)建了一個(gè)包含針對模型的所有計(jì)算步驟的圖之后,就可以在會(huì)話(Session)中運(yùn)行這個(gè)圖了。會(huì)話可以跨CPU和GPU分配所有的計(jì)算。

              graph = tf.Graph()

              with graph.as_default():

              a = tf.Variable(8, tf.float32)

              b = tf.Variable(tf.zeros([2,2], tf.float32))

              with tf.Session(graph=graph) as session:

              tf.global_variables_initializer().run()

              print(f)

              print(session.run(f))

              print(session.run(k))

              >>>

              >>> 8

              >>> [[ 0. 0.]

              >>> [ 0. 0.]]

              1.3 占位符 與 feed_dicts

              我們已經(jīng)看到了用于創(chuàng)建常量和變量的各種形式。Tensorflow中也有占位符,它不需要初始值,僅用于分配必要的內(nèi)存空間。 在一個(gè)會(huì)話中,這些占位符可以通過feed_dict填入(外部)數(shù)據(jù)。

              以下是占位符的使用示例。

              list_of_points1_ = [[1,2], [3,4], [5,6], [7,8]]

              list_of_points2_ = [[15,16], [13,14], [11,12], [9,10]]

              list_of_points1 = np.array([np.array(elem).reshape(1,2) for elem in list_of_points1_])

              list_of_points2 = np.array([np.array(elem).reshape(1,2) for elem in list_of_points2_])

              graph = tf.Graph()

              with graph.as_default():

              #we should use a tf.placeholder() to create a variable whose value you will fill in later (during session.run()).

              #this can be done by 'feeding' the data into the placeholder.

              #below we see an example of a method which uses two placeholder arrays of size [2,1] to calculate the eucledian distance

              point1 = tf.placeholder(tf.float32, shape=(1, 2))

              point2 = tf.placeholder(tf.float32, shape=(1, 2))

              def calculate_eucledian_distance(point1, point2):

              difference = tf.subtract(point1, point2)

              power2 = tf.pow(difference, tf.constant(2.0, shape=(1,2)))

              add = tf.reduce_sum(power2)

              eucledian_distance = tf.sqrt(add)

              return eucledian_distance

              dist = calculate_eucledian_distance(point1, point2)

              with tf.Session(graph=graph) as session:

              tf.global_variables_initializer().run()

              for ii in range(len(list_of_points1)):

              point1_ = list_of_points1[ii]

              point2_ = list_of_points2[ii]

              feed_dict = {point1 : point1_, point2 : point2_}

              distance = session.run([dist], feed_dict=feed_dict)

              print("the distance between {} and {} -> {}".format(point1_, point2_, distance))

              >>> the distance between [[1 2]] and [[15 16]] -> [19.79899]

              >>> the distance between [[3 4]] and [[13 14]] -> [14.142136]

              >>> the distance between [[5 6]] and [[11 12]] -> [8.485281]

              >>> the distance between [[7 8]] and [[ 9 10]] -> [2.8284271]

              2. Tensorflow 中的神經(jīng)網(wǎng)絡(luò)

              2.1 簡介

                

             

              包含神經(jīng)網(wǎng)絡(luò)的圖(如上圖所示)應(yīng)包含以下步驟:

              1. 輸入數(shù)據(jù)集:訓(xùn)練數(shù)據(jù)集和標(biāo)簽、測試數(shù)據(jù)集和標(biāo)簽(以及驗(yàn)證數(shù)據(jù)集和標(biāo)簽)。 測試和驗(yàn)證數(shù)據(jù)集可以放在tf.constant()中。而訓(xùn)練數(shù)據(jù)集被放在tf.placeholder()中,這樣它可以在訓(xùn)練期間分批輸入(隨機(jī)梯度下降)。

              2. 神經(jīng)網(wǎng)絡(luò)**模型**及其所有的層。這可以是一個(gè)簡單的完全連接的神經(jīng)網(wǎng)絡(luò),僅由一層組成,或者由5、9、16層組成的更復(fù)雜的神經(jīng)網(wǎng)絡(luò)。

              3. 權(quán)重矩陣和**偏差矢量**以適當(dāng)?shù)男螤钸M(jìn)行定義和初始化。(每層一個(gè)權(quán)重矩陣和偏差矢量)

              4. 損失值:模型可以輸出分對數(shù)矢量(估計(jì)的訓(xùn)練標(biāo)簽),并通過將分對數(shù)與實(shí)際標(biāo)簽進(jìn)行比較,計(jì)算出損失值(具有交叉熵函數(shù)的softmax)。損失值表示估計(jì)訓(xùn)練標(biāo)簽與實(shí)際訓(xùn)練標(biāo)簽的接近程度,并用于更新權(quán)重值。

              5. 優(yōu)化器:它用于將計(jì)算得到的損失值來更新反向傳播算法中的權(quán)重和偏差。

              2.2 數(shù)據(jù)加載

              下面我們來加載用于訓(xùn)練和測試神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù)集。為此,我們要下載MNIST和CIFAR-10數(shù)據(jù)集。 MNIST數(shù)據(jù)集包含了6萬個(gè)手寫數(shù)字圖像,其中每個(gè)圖像大小為28 x 28 x 1(灰度)。 CIFAR-10數(shù)據(jù)集也包含了6萬個(gè)圖像(3個(gè)通道),大小為32 x 32 x 3,包含10個(gè)不同的物體(飛機(jī)、汽車、鳥、貓、鹿、狗、青蛙、馬、船、卡車)。 由于兩個(gè)數(shù)據(jù)集中都有10個(gè)不同的對象,所以這兩個(gè)數(shù)據(jù)集都包含10個(gè)標(biāo)簽。

                

             

              首先,我們來定義一些方便載入數(shù)據(jù)和格式化數(shù)據(jù)的方法。

              def randomize(dataset, labels):

              permutation = np.random.permutation(labels.shape[0])

              shuffled_dataset = dataset[permutation, :, :]

              shuffled_labels = labels[permutation]

              return shuffled_dataset, shuffled_labels

              def one_hot_encode(np_array):

              return (np.arange(10) == np_array[:,None]).astype(np.float32)

              def reformat_data(dataset, labels, image_width, image_height, image_depth):

              np_dataset_ = np.array([np.array(image_data).reshape(image_width, image_height, image_depth) for image_data in dataset])

              np_labels_ = one_hot_encode(np.array(labels, dtype=np.float32))

              np_dataset, np_labels = randomize(np_dataset_, np_labels_)

              return np_dataset, np_labels

              def flatten_tf_array(array):

              shape = array.get_shape().as_list()

              return tf.reshape(array, [shape[0], shape[1] shape[2] shape[3]])

              def accuracy(predictions, labels):

              return (100.0 * np.sum(np.argmax(predictions, 1) == np.argmax(labels, 1)) / predictions.shape[0])

              這些方法可用于對標(biāo)簽進(jìn)行獨(dú)熱碼編碼、將數(shù)據(jù)加載到隨機(jī)數(shù)組中、扁平化矩陣(因?yàn)橥耆B接的網(wǎng)絡(luò)需要一個(gè)扁平矩陣作為輸入):

              在我們定義了這些必要的函數(shù)之后,我們就可以這樣加載MNIST和CIFAR-10數(shù)據(jù)集了:

              mnist_folder = './data/mnist/'

              mnist_image_width = 28

              mnist_image_height = 28

              mnist_image_depth = 1

              mnist_num_labels = 10

              mndata = MNIST(mnist_folder)

              mnist_train_dataset_, mnist_train_labels_ = mndata.load_training()

              mnist_test_dataset_, mnist_test_labels_ = mndata.load_testing()

              mnist_train_dataset, mnist_train_labels = reformat_data(mnist_train_dataset_, mnist_train_labels_, mnist_image_size, mnist_image_size, mnist_image_depth)

              mnist_test_dataset, mnist_test_labels = reformat_data(mnist_test_dataset_, mnist_test_labels_, mnist_image_size, mnist_image_size, mnist_image_depth)

              print("There are {} images, each of size {}".format(len(mnist_train_dataset), len(mnist_train_dataset[0])))

              print("Meaning each image has the size of 28281 = {}".format(mnist_image_sizemnist_image_size1))

              print("The training set contains the following {} labels: {}".format(len(np.unique(mnist_train_labels_)), np.unique(mnist_train_labels_)))

              print('Training set shape', mnist_train_dataset.shape, mnist_train_labels.shape)

              print('Test set shape', mnist_test_dataset.shape, mnist_test_labels.shape)

              train_dataset_mnist, train_labels_mnist = mnist_train_dataset, mnist_train_labels

              test_dataset_mnist, test_labels_mnist = mnist_test_dataset, mnist_test_labels

              ######################################################################################

              cifar10_folder = './data/cifar10/'

              train_datasets = ['data_batch_1', 'data_batch_2', 'data_batch_3', 'data_batch_4', 'data_batch_5', ]

              test_dataset = ['test_batch']

              c10_image_height = 32

              c10_image_width = 32

              c10_image_depth = 3

              c10_num_labels = 10

              with open(cifar10_folder + test_dataset[0], 'rb') as f0:

              c10_test_dict = pickle.load(f0, encoding='bytes')

              c10_test_dataset, c10_test_labels = c10_test_dict[b'data'], c10_test_dict[b'labels']

              test_dataset_cifar10, test_labels_cifar10 = reformat_data(c10_test_dataset, c10_test_labels, c10_image_size, c10_image_size, c10_image_depth)

              c10_train_dataset, c10_train_labels = [], []

              for train_dataset in train_datasets:

              with open(cifar10_folder + train_dataset, 'rb') as f0:

              c10_train_dict = pickle.load(f0, encoding='bytes')

              c10_train_dataset_, c10_train_labels_ = c10_train_dict[b'data'], c10_train_dict[b'labels']

              c10_train_dataset.append(c10_train_dataset_)

              c10_train_labels += c10_train_labels_

              c10_train_dataset = np.concatenate(c10_train_dataset, axis=0)

              train_dataset_cifar10, train_labels_cifar10 = reformat_data(c10_train_dataset, c10_train_labels, c10_image_size, c10_image_size, c10_image_depth)

              del c10_train_dataset

              del c10_train_labels

              print("The training set contains the following labels: {}".format(np.unique(c10_train_dict[b'labels'])))

              print('Training set shape', train_dataset_cifar10.shape, train_labels_cifar10.shape)

              print('Test set shape', test_dataset_cifar10.shape, test_labels_cifar10.shape)

              你可以從Yann LeCun的網(wǎng)站下載MNIST數(shù)據(jù)集。下載并解壓縮之后,可以使用python-mnist 工具來加載數(shù)據(jù)。 CIFAR-10數(shù)據(jù)集可以從這里下載。


            上一頁 1 2 3 下一頁

            評論


            相關(guān)推薦

            技術(shù)專區(qū)

            關(guān)閉