TensorFlow 2.0入門(mén)指南
本文經(jīng)AI新媒體量子位(公眾號 ID: QbitAI)授權轉載,轉載請聯(lián)系出處。
本文引用地址:http://dyxdggzs.com/article/201910/405549.htm前幾天,TensorFlow 2.0正式發(fā)布。如果你對新的深度學(xué)習框架還不熟悉,推薦看看這篇集簡(jiǎn)介、速成課程、API速查參考為一體的Overview。
作者是Google深度學(xué)習科學(xué)家、Keras作者Fran?ois Chollet。
在這份指南的開(kāi)頭部分,作者寫(xiě)道Keras發(fā)布于2015年3月,TensorFlow發(fā)布于2015年11月,迄今都已經(jīng)有四年的時(shí)間。過(guò)去TensorFlow 1.x+Keras的組合存在很多問(wèn)題。新的TensorFlow 2.0進(jìn)一步整合了兩者,并解決了很多問(wèn)題。
TensorFlow 2.0基于以下核心思想:
· 讓用戶(hù)暢爽運行計算,就像用Numpy。這讓TF2.0編程更加直觀(guān)、像Python一樣。
· 保留已編譯計算圖的優(yōu)勢,使TF2.0快速、可擴展以及可投入生產(chǎn)。
· 使用Keras作為高級深度學(xué)習API,讓TF2.0易于上手且高效。極大的擴展了Keras的工作流范圍。
在正文部分,這份Overview主要包括兩部分內容:
1、TensorFlow基礎
· Tensor張量
· 隨機常數張量
· 變量
· TensorFlow數學(xué)運算
· 使用GradientTape計算梯度
· 端到端示例:線(xiàn)性回歸
· 用tf.function加速
2、Keras API
· 基本的層類(lèi)
· 可訓練和不可訓練的權重
· 遞歸嵌套
· 各種內建好的層
· 通過(guò)call訓練參數
· 更具功能性的定義模型
· 損失類(lèi)
· 度量標準類(lèi)
· 優(yōu)化器類(lèi)&快速端到端訓練循環(huán)
· add_loss方法
· 端到端示例:VAE
· 使用內建的訓練循環(huán)
· Callback
Fran?ois Chollet這篇指南發(fā)出來(lái)之后,推特上一片感謝之聲。想要查看全部詳細內容,可以直接訪(fǎng)問(wèn)這個(gè)地址:
https://colab.research.google.com/drive/1UCJt8EYjlzCs1H1d1X0iDGYJsHKwu-NO
這里我們截取其中的部分內容,供感興趣的朋友參考。
評論