下週考試可以帶a4小抄,考到ch4, 大約5題
從作業.textbook例題出,考試題目不會超出課本範圍
- - -
hw1 -- 98
竟然有抓抄襲, 很可怕,
因為我1,2題有參考晨晨的
3,4題的code也有給晨晨, 只是我後來整個大改寫
所以交出去的code長得已經完全不一樣了
我個人是覺得, 紙本部分他不會抓抄襲, (因為沒有自動比對程式)
只有程式題才有機會被抓, 被抓到直接*0.3, 粉可怕
但是其實我們都有互相討論阿....只是code還是要自己寫過
覺得這門課以後還是不要直接share答案, 不管是被shared, 還是share給別人
話說這門課怎麼這麼硬... 硬度根本是其他三門的總和
每次禮拜五都覺得壓力頗大
- - -
今天把ch4在三小時內通通上完
根本就是在趕課阿
ch4講classification的數學原理
比較重要的是logistic regression和它的Laplace近似
logistic regression是指函數輸出時, 有用一個sigmiod function去做轉換
這跟在regression裡提到的sigmoid基底函數不同
logistic regression基本上不是Regression, 而是一個Classification問題
Regression的輸出是連續, 不是label型態, 也比較容易找得到close form
Regression和Classification最大的差別,
在於Classification還有外加一個輸出函數(可以想像成是類神經網路的激活函數)
Regression沒有
但兩者都可以對X取基底函數
logistic regression的Laplace近似其實就是用二次微分的泰勒展開式去逼近一個高斯分布
從作業.textbook例題出,考試題目不會超出課本範圍
- - -
hw1 -- 98
竟然有抓抄襲, 很可怕,
因為我1,2題有參考晨晨的
3,4題的code也有給晨晨, 只是我後來整個大改寫
所以交出去的code長得已經完全不一樣了
我個人是覺得, 紙本部分他不會抓抄襲, (因為沒有自動比對程式)
只有程式題才有機會被抓, 被抓到直接*0.3, 粉可怕
但是其實我們都有互相討論阿....只是code還是要自己寫過
覺得這門課以後還是不要直接share答案, 不管是被shared, 還是share給別人
話說這門課怎麼這麼硬... 硬度根本是其他三門的總和
每次禮拜五都覺得壓力頗大
- - -
今天把ch4在三小時內通通上完
根本就是在趕課阿
ch4講classification的數學原理
比較重要的是logistic regression和它的Laplace近似
logistic regression是指函數輸出時, 有用一個sigmiod function去做轉換
這跟在regression裡提到的sigmoid基底函數不同
logistic regression基本上不是Regression, 而是一個Classification問題
Regression的輸出是連續, 不是label型態, 也比較容易找得到close form
Regression和Classification最大的差別,
在於Classification還有外加一個輸出函數(可以想像成是類神經網路的激活函數)
Regression沒有
但兩者都可以對X取基底函數
logistic regression的Laplace近似其實就是用二次微分的泰勒展開式去逼近一個高斯分布
沒有留言:
張貼留言