国产人妻人伦精品_欧美一区二区三区图_亚洲欧洲久久_日韩美女av在线免费观看

合肥生活安徽新聞合肥交通合肥房產生活服務合肥教育合肥招聘合肥旅游文化藝術合肥美食合肥地圖合肥社保合肥醫院企業服務合肥法律

代寫FIT3181: Deep Neural Networks
代寫FIT3181: Deep Neural Networks

時間:2024-09-03  來源:合肥網hfw.cc  作者:hfw.cc 我要糾錯


FIT3181: Deep Learning (2024)

Deep Neural Networks

Due: 11:55pm Sunday, 8 September 2024 (Sunday)

Important note: This is an individual assignment. It contributes 25% to your final mark. Read the assignment instructions carefully.

What to submit

This assignment is to be completed individually and submitted to Moodle unit site. By the due date, you are required to submit one single zip file, named  xxx_assignment01_solution.zip where  xxx is your student ID, to the corresponding Assignment (Dropbox) in Moodle. You can use Google Colab to do Assigmnent 1 but you need to save it to an   *.ipynb file to submit to the unit Moodle.

More importantly, if you use Google Colab to do this assignment, you need to first make a copy of this notebook on your Google drive .

For example, if your student ID is 12356, then gather all of your assignment solution to folder, create a zip file named 123456_assignment01_solution.zip and submit this file.

Within this zipfolder, you must submit the following files:

1. Assignment01_solution.ipynb: this is your Python notebook solution source file.

2. Assignment01_output.html: this is the output of your Python notebook solution exported in html format.

3. Any extra files or folder needed to complete your assignment (e.g., images used in your answers).

Since the notebook is quite big to load and work together, one recommended option is to split solution into three parts and work on them seperately. In that case, replace Assignment01_solution.ipynb by three notebooks: Assignment01_Part1_solution.ipynbAssignment01_Part2_solution.ipynb and Assignment01_Part3_solution.ipynb

You can run your codes on Google Colab. In this case, you have to make a copy of your Google colab notebook including the traces and progresses of model training before submitting.

Part 1: Theory and Knowledge Questions    [Total marks for this part: 30 points]

The first part of this assignment is to demonstrate your knowledge in deep learning that you have acquired from the lectures and tutorials materials. Most of the contents in this assignment are drawn from the lectures and tutorials from weeks 1 to 4. Going through these materials before attempting this part is highly   recommended.

Question 1.1 Activation function plays an important role in modern Deep NNs. For each of the activation functions below, state its output range, find its derivative (show your steps), and plot the activation fuction and its derivative

(b) Gaussian Error Linear Unit (GELU): GELU(x) = xΦ(x) where Φ(x) is the  probability cummulative function of the standard Gaussian distribution or  Φ(x) = P (X ≤ x) where X ~ N (0, 1) . In addition, the GELU activation fuction (the link for the main paper (https://arxiv.org/pdf/1606.08415v5.pdf)) has

been widely used in the state-of-the-art Vision for Transformers (e.g., here is the link for the main ViT paper (https://arxiv.org/pdf/2010.11929v2.pdf)).  [1.5 points]

Write your answer here. You can add more cells if needed.

Question 1.2: Assume that we feed a data point with a ground-truth label y = 2 to the feed-forward neural network with the  ReLU activation function as shown in the following figure 

(a) What is the numerical value of the latent presentation h1 (x)?  [1 point]

(b) What is the numerical value of the latent presentation h2 (x)?   [1 point]

(c) What is the numerical value of the logith3 (x)?   [1 point]

(d) What is the corresonding prediction probabilities p(x)?   [1 point]

(e) What is the predicted label y(^)? Is it a correct and an incorect prediction? Remind that y = 2. [1 point]

(f) What is the cross-entropy loss caused by the feed-forward neural network at (x, y)? Remind that y = 2.  [1 point]

(g) Why is the cross-entropy loss caused by the feed-forward neural network at (x, y) (i.e., CE(1y, p(x))) always non-negative? When does this CE(1y, p(x)) loss get the value 0? Note that you need to answer this question for a general pair (x, y) and a general feed-forward neural network with, for example M = 4  classes?   [1 point]

You must show both formulas and numerical results for earning full mark. Although it is optional, it is great if you show your PyTorch code for your computation.

Question 1.3:

For Question 1.3, you have two options:

·   (1) perform the forwardbackward propagationand SGD update for  one mini-batch (10 points), or

·   (2) manually implement a feed-forward neural network that can work on real tabular datasets (20 points).

You can choose either (1) or (2) to proceed.

Option 1         [Total marks for this option: 10 points]

Assume that we are constructing a multilayered feed-forward neural network for a classification problem with three classes where the model parameters will be generated randomly using your student IDThe architecture of this network is 3(Input) → 5(ELU) → 3(output) as shown in the following figure. Note that the ELU has the same formula as the one in Q1.1.

We feed a batch X with the labels Y as shown in the figure. Answer the following questions. 

You need to show both formulas, numerical results, and your PyTorch code for your computation for earning full marks.

In  [  ]:

Out[3]:

<torch._C.Generator at 0x7dc439f98810>

In  [  ]:

#Code to generate random matrices and biases for W1, b1, W2, b2

Forward propagation

(a) What is the value of h(¯)1 (x) (the pre-activation values of h1 )?  [0.5 point]

In  [  ]:

(b) What is the value of h1 (x)?   [0.5 point]

In  [  ]:

(c) What is the predicted value y(^)?  [0.5 point]

In  [  ]:

(d) Suppose that we use the cross-entropy (CE) loss. What is the value of the CE loss l incurred by the mini-batch? [0.5 point]

In  [  ]:

Backward propagation

(e) What are the derivatives   ,  , and ?  [3 points]

In  [  ]:

(f) What are the derivatives  ,  ,  , and  ?   [3 points]

In  [  ]:

SGD update

(g) Assume that we use SGD with learning rate η = 0.01 to update the model parameters. What are the values of W 2 , b2 and W 1 , b1  after updating?  [2 points]

In  [  ]:

Option 2    [Total marks for this option: 20 points]

In  [  ]:

import torch

from torch.utils.data import DataLoader

from torchvision import datasets, transforms

In Option 2, you need to implement a feed-forward NN manually using PyTorch and auto-differentiation of PyTorch. We then manually train the model on the MNIST dataset.

We first download the  MNIST dataset and preprocess it.

In  [  ]:

Each data point has dimension   [28,28] . We need to flatten it to a vector to input to our FFN.

In  [  ]:

train_dataset.data = train_data.data.view(-1, 28*28)  test_dataset.data = test_data.data.view(-1, 28*28)

train_data, train_labels = train_dataset.data, train_dataset.targets  test_data, test_labels = test_dataset.data, test_dataset.targets

print(train_data.shape, train_labels.shape)

print(test_data.shape, test_labels.shape)

In  [  ]:

train_loader = DataLoader(dataset=train_dataset, batch_size=64, shuffle=True)  test_loader = DataLoader(dataset=test_dataset, batch_size=64, shuffle=False)

Develop the feed-forward neural networks

(a) You need to develop the class  MyLinear with the following skeleton. You need to declare the weight matrix and bias of this linear layer.  [3 points]

In  [  ]:

(b) You need to develop the class  MyFFN with the following skeleton   [7 points]

In  [  ]:

In  [  ]:

myFFN = MyFFN(input_size = 28*28, num_classes = 10, hidden_sizes = [100, 100], act = torch.nn.ReLU)  myFFN.create_FFN()

print(myFFN)

(c) Write the code to evaluate the accuracy of the current  myFFN model on a data loader (e.g., train_loader or test_loader).   [2.5 points]

In  [  ]:

(c) Write the code to evaluate the loss of the current  myFFN model on a data loader (e.g., train_loader or test_loader).  [2.5 points]

In  [  ]:

def compute_loss(model, data_loader):

"""

This function computes the loss of the model on a data loader

"""

#Your code here

Train on the  MNIST data with 50 epochs using  updateSGD .

In  [  ]:

(d) Implement the function  updateSGDMomentum in the class and train the model with this optimizer in   50 epochs. You can update the corresponding function in the  MyFNN class.   [2.5 points]

In  [  ]:

(e) Implement the function  updateAdagrad in the class and train the model with this optimizer in   50 epochs. You can update the corresponding function in the MyFNN class.  [2.5 points]

In  [  ]:

Part 2: Deep Neural Networks (DNN)   [Total marks for this part: 25 points]

The second part of this assignment is to demonstrate your basis knowledge in deep learning that you have acquired from the lectures and tutorials materials. Most of the contents in this assignment are drawn from the tutorials covered from weeks 1 to 2. Going through these materials before attempting this assignment is highly recommended.

In the second part of this assignment, you are going to work with the FashionMNIST dataset for image recognition task. It has the exact same format as MNIST (70,000 grayscale images of 28 × 28 pixels each with 10 classes), but the images represent fashion items rather than handwritten digits, so each class is more  diverse, and the problem is significantly more challenging than MNIST.

In  [  ]:

import torch

from torch.utils.data import DataLoader

from torchvision import datasets, transforms torch.manual_seed(1234)

Load the Fashion MNIST using   torchvision

In  [  ]:

torch.Size([60000, 28, 28]) torch.Size([60000]) torch.Size([10000, 28, 28]) torch.Size([10000]) torch.Size([60000, 784]) torch.Size([60000])

torch.Size([10000, 784]) torch.Size([10000])

Number of training samples: 18827  Number of training samples: 16944  Number of validation samples: 1883

Question 2.1: Write the code to visualize a mini-batch in  train_loader including its images and labels.  [5 points]

In  [  ]:

####Question 2.2: Write the code for the feed-forward neural net using PyTorch   [5 points]

We now develop a feed-forward neural network with the architecture 784 → 40(ReLU) → 30(ReLU) → 10(softmax) . You can choose your own way to implement your network and an optimizer of interest. You should train model in 50 epochs and evaluate the trained model on the test set.

In  [  ]:

Question 2.3: Tuning hyper-parameters with grid search   [5 points]

Assume that you need to tune the number of neurons on the first and second hidden layers n1   ∈ {20, 40} , n2  ∈ {20, 40} and the used activation function act ∈ {sigmoid, tanh, relu} . The network has the architecture pattern 784 → n1 (act) → n2 (act) → 10(softmax) where n1 , n2 , and act are in their

grides. Write the code to tune the hyper-parameters n1 , n2 , and act. Note that you can freely choose the optimizer and learning rate of interest for this task.

In  [  ]:

 

請加QQ:99515681  郵箱:99515681@qq.com   WX:codinghelp




 

掃一掃在手機打開當前頁
  • 上一篇:COMP20003代寫、代做c/c++,Java語言編程
  • 下一篇:代寫ECON1011 Economics for Business
  • 無相關信息
    合肥生活資訊

    合肥圖文信息
    流體仿真外包多少錢_專業CFD分析代做_友商科技CAE仿真
    流體仿真外包多少錢_專業CFD分析代做_友商科
    CAE仿真分析代做公司 CFD流體仿真服務 管路流場仿真外包
    CAE仿真分析代做公司 CFD流體仿真服務 管路
    流體CFD仿真分析_代做咨詢服務_Fluent 仿真技術服務
    流體CFD仿真分析_代做咨詢服務_Fluent 仿真
    結構仿真分析服務_CAE代做咨詢外包_剛強度疲勞振動
    結構仿真分析服務_CAE代做咨詢外包_剛強度疲
    流體cfd仿真分析服務 7類仿真分析代做服務40個行業
    流體cfd仿真分析服務 7類仿真分析代做服務4
    超全面的拼多多電商運營技巧,多多開團助手,多多出評軟件徽y1698861
    超全面的拼多多電商運營技巧,多多開團助手
    CAE有限元仿真分析團隊,2026仿真代做咨詢服務平臺
    CAE有限元仿真分析團隊,2026仿真代做咨詢服
    釘釘簽到打卡位置修改神器,2026怎么修改定位在范圍內
    釘釘簽到打卡位置修改神器,2026怎么修改定
  • 短信驗證碼 寵物飼養 十大衛浴品牌排行 suno 豆包網頁版入口 wps 目錄網 排行網

    關于我們 | 打賞支持 | 廣告服務 | 聯系我們 | 網站地圖 | 免責聲明 | 幫助中心 | 友情鏈接 |

    Copyright © 2025 hfw.cc Inc. All Rights Reserved. 合肥網 版權所有
    ICP備06013414號-3 公安備 42010502001045

    国产人妻人伦精品_欧美一区二区三区图_亚洲欧洲久久_日韩美女av在线免费观看
    青青草国产免费| 99www免费人成精品| 欧美精品一二区| 国产精品裸体一区二区三区| 国产成人精品免高潮费视频| 91免费国产精品| 97久久精品视频| 成人a在线视频| av日韩一区二区三区| 99久久免费观看| 久久综合久久综合这里只有精品| 91精品国产91久久久| 91精品久久久久久久久久久久久| av电影一区二区三区| 国产日韩欧美在线播放| 国产狼人综合免费视频| 北条麻妃在线视频观看| 97久草视频| 久久久亚洲网站| 日韩在线欧美在线国产在线| 国产精品久久久久久久天堂第1集 国产精品久久久久久久午夜 | 性色av香蕉一区二区| 少妇精品久久久久久久久久| 日本福利视频一区| 欧美两根一起进3p做受视频| 黑人中文字幕一区二区三区| 国产乱码精品一区二区三区中文| 91九色极品视频| 视频在线观看99| 麻豆国产精品va在线观看不卡| 在线观看一区二区三区三州| 日产日韩在线亚洲欧美| 欧美一级爱爱| 国产精品自在线| 九九九九九精品| 久久电影一区二区| 天堂精品一区二区三区| 国内成+人亚洲| 99视频日韩| 日韩视频欧美视频| 欧美激情xxxx| 日本www在线视频| 国产一区二区三区高清| 久久香蕉综合色| 欧美成人久久久| 日韩在线xxx| 黄黄视频在线观看| 91精品久久久久| 国产精品久久久av久久久| 午夜欧美一区二区三区免费观看| 黄色片视频在线播放| 91.com在线| 国产精品久久..4399| 亚洲综合在线小说| 欧洲精品久久久| 97精品在线视频| 久久亚洲精品小早川怜子66| 日韩免费视频在线观看| 99在线首页视频| 久热精品在线视频| 欧美一性一乱一交一视频| 97国产精品人人爽人人做| 国产精品麻豆va在线播放| 日本精品久久中文字幕佐佐木| 国产精品夜色7777狼人| 国产精品女人久久久久久| 日本一区二区三区视频在线播放 | 久久久精品国产网站| 亚洲日本一区二区三区在线不卡| 欧美精品免费观看二区| 久久婷婷五月综合色国产香蕉| 亚洲自拍欧美另类| 国产伦一区二区三区色一情| 国产精品久久国产| 欧美日韩一区二区三区在线观看免 | 亚洲欧洲另类精品久久综合| 欧美日韩精品久久| 久久伊人一区二区| 性欧美亚洲xxxx乳在线观看| 91精品综合视频| 一区一区视频| 国产日韩欧美黄色| 久久香蕉国产线看观看网| 欧美日韩一区二区三| 丝袜美腿精品国产二区| 日韩 欧美 高清| 国产suv精品一区二区| 日本一区二区三区在线播放| 91精品国产91久久久久久不卡| 亚洲丰满在线| 99久久免费国| 亚洲日本理论电影| 97精品国产97久久久久久免费| 欧美精品激情在线观看| 国产美女精彩久久| 欧美激情a∨在线视频播放| 国产男女猛烈无遮挡91| 色综合五月天导航| 国产精品中文久久久久久久| 欧美激情18p| 97干在线视频| 日本新janpanese乱熟| 国产成人精品网站| 精品一区二区成人免费视频| 欧美大胆在线视频| 国产免费一区二区| 亚洲一区三区在线观看| 久久精品在线免费视频| 日韩精品av一区二区三区| 久青草国产97香蕉在线视频| 黄色大片中文字幕| 色综合天天综合网国产成人网| 国产精品亚洲自拍| 日产精品久久久一区二区福利| 国产成人精品一区二区在线| 国产资源在线视频| 亚洲综合精品一区二区| 久久国产成人精品国产成人亚洲| 欧美亚洲另类久久综合| 九九热精品视频| 91精品美女在线| 日韩人妻精品无码一区二区三区| 国产精品视频播放| 成人精品一区二区三区| 日本一区二区三区在线播放| 国产精品久久中文字幕| 99视频精品全部免费看| 欧美中文字幕视频在线观看| 精品国产一区二区三区四区vr | 成人久久18免费网站漫画| 日本三级中国三级99人妇网站 | 国产伦精品一区二区三区| 性色av一区二区三区在线观看| 久久久国产精彩视频美女艺术照福利| 国产亚洲精品自在久久| 欧美一级视频免费看| 国产精品免费区二区三区观看| 欧洲中文字幕国产精品| 欧美日本啪啪无遮挡网站| 国产不卡视频在线| 国产日韩第一页| 日本a级片在线观看| 欧美情侣性视频| 久久久久久久爱| 国产乱子伦精品无码专区| 日本一区二区三区免费观看| 久久av在线播放| 日韩一二三在线视频播| 成人h视频在线| 黄色一级片国产| 色播五月综合| 久久久久久成人精品| 国产精品丝袜久久久久久不卡| 97久久精品国产| 国产一区在线观| 秋霞久久久久久一区二区| 亚洲精品一卡二卡三卡四卡| 国产精品久久久久免费a∨大胸| 国产高清在线一区| 分分操这里只有精品| 欧美大香线蕉线伊人久久| 日韩av电影在线播放| 欧美激情亚洲综合一区| 国产精品久久久久久亚洲影视| 久久久久久午夜| 久久久日本电影| 99精品视频在线看| 国产精品有限公司| 国产系列第一页| 国模私拍一区二区三区| 日av在线播放中文不卡| 日本一区二区三区在线视频| 亚洲视频欧美在线| 精品国产一区二区三区无码| 国产精品久久久久av| 深夜福利一区二区| 久久久久久www| 久久久欧美精品| 久久精品一区二区三区不卡免费视频| av在线免费观看国产| 成人乱人伦精品视频在线观看| 国产男女无遮挡| 国产日韩在线免费| 国产三级精品网站| 国产视频福利一区| 国产女女做受ⅹxx高潮| 国产免费黄色小视频| 国产欧美va欧美va香蕉在线| 国产一二三四区在线观看| 国产综合香蕉五月婷在线| 国产在线欧美日韩| 黄色国产精品视频| 国产一区二区在线网站| 国产欧美在线一区| 国产日韩第一页| 超碰网在线观看| 777久久精品一区二区三区无码| 国产精品333| 国产ts人妖一区二区三区| 久久激情视频久久|