跳到主要內容

PyTorch 入門


BurgeoningCourse
只能經由邀請註冊這課程

課程基本資訊

中階課程

影片時數:約 3 小時

授課語言/字幕:皆為繁體中文

老師駐課答題日期:2021/1/18~2021/1/31(後續仍可繼續觀看教材)

費用:免費領取方式

此為免費自學課程,老師不一定會在課程討論區回答問題。

課程簡介

TensorFlow 和 PyTorch 皆是 Python 實作深度學習的熱門框架,但近幾年來,PyTorch 因其沿襲 Python 簡潔的特性,而且語法設計與 Numpy 相似,都讓 PyTorch 更為易學、易用。目前 PyTorch 已成為國際頂尖 AI 研討會最熱門的深度學習框架。

在這門課程中,您可以學到:

  • 建立深度學習 GPU 開發環境或使用 Google Colab。
  • 深度學習基礎知識。
  • PyTorch 基本資料結構:tensor。
  • PyTorch 自動求導(autograd)。
  • 使用 PyTorch 建立線性迴歸模型。
  • 使用 PyTorch 建立神經網路模型。

#您可以獲得的技能

#PyTorch#tensor#autograd#Google Colab #CUDA環境設置 #線性迴歸 #神經網路 #激勵函數(Activation Function) #反向傳播法(Backpropagation) #損失函數(Loss Function) #最佳化方法(Optimization)

先備知識

  • 需基礎微積分知識以理解課程中的數學推導。
  • 熟悉 Python 基礎語法及資料結構(或修習過補根課程「Python 程式語言入門」)。

課程大綱

課程中附範例程式,供大家參考練習。

主題

內容

GPU 深度學習開發環境

  • 建立 GPU 加速運算環境:安裝及設定 CUDA、cuDNN
  • Google Colab 介紹與操作示範(附免費 GPU)

PyTorch 基礎觀念與實作

  • Why PyTorch?
  • 基本資料結構:tensor
  • tensor 數值型態與基本運算
  • 廣播(broadcasting)
  • tensor 索引(Indexing)和切片(Slicing)

深度學習基礎知識

  • 線性迴歸與梯度下降(Gradient Descent)
  • 感知器(Perceptron)、神經元(Neuron)
  • 神經網路(Neural Network)
  • 激勵函數(Activation Function):Sigmoid、ReLU 等
  • 多類別分類方法:Softmax
  • 反向傳播法(Backpropagation)
  • 損失函數(Loss Function):MSE、Cross Entropy 等
  • 模型權重最佳化(Optimization)方法:SGD、AdaGrad、RMSProp、Adam 等

使用 PyTorch 建立神經網路

  • 使用 GPU 運算
  • 自動求導(autograd)
  • 使用 PyTorch 建立線性迴歸模型
  • 使用 PyTorch 建立神經網路模型

備註:開課後課程內容仍會根據同學需求做部分調整,若對授課內容有任何需求或建議歡迎提出。

課程示範環境

  • Google Colab
    • Python 3.6.9
    • PyTorch 1.7.0
    • CUDA 10.1

授課教師

徐浩軒

「補根課程」(Burgeoning Course)共同創辦人

「Python 資料科學與人工智慧」FB粉絲專頁 共同創辦人

清華大學 資訊系統與應用研究所 博士候選人

清華大學 資訊工程學士


目前已開設「Python 資料科學實作」、「Python 機器學習與深度學習實作」、「Python 金融數據分析與預測實作」、「Python 自然語言處理實作」課程,累積學生超過兩千位。

譯有《打造機器學習應用|從構想邁向產品》(歐萊禮,2021)
E. Ameisen, Building Machine Learning Powered Applications: Going From Idea to Product. "O'Reilly Media, Inc.", 2020.


若對本課程有任何問題,歡迎來信詢問:burgeoningcourse@gmail.com