Lecture 1~3
<Lec 1 ์ ๋ฆฌ>
Machine Learning ์ด๋?
- ์ผ์ข ์ ์ํํธ์จ์ด ํ๋ก๊ทธ๋จ. ํ๋ก๊ทธ๋จ ์์ฒด๊ฐ data๋ฅผ ๋ณด๊ณ ํ์ตํด์ ๋ฐฐ์์ ์์ฉํ๋ ๋ฅ๋ ฅ์ ๊ฐ๋ ํ๋ก๊ทธ๋จ.
ML์ ํฌ๊ฒ ๋๊ฐ์ง๋ก ๋๋ ์ ์์.
Supervised Learning : ์ ํด์ ธ ์๋ data. Training set์ ๊ฐ์ง๊ณ ํ์ต์ ํจ.
Unsupervised Learning : Label ์ด ์ ํด์ง์ง ์์ ๋ฐ์ดํฐ๋ฅผ ๊ฐ์ง๊ณ ํ์ต. ex) word clustering, ๊ตฌ๊ธ ๋ด์ค ๋ฑ
Supervised Learning
์์๋ก ์ด๋ฏธ์ง ๋ผ๋ฒจ๋ง, ์ด๋ฉ์ผ ์คํธ ํํฐ, ์ฑ์ ์์ธก๊ธฐ ๋ฑ์ด ์์. ๊ธฐ์กด์ ์๋ฃ๊ฐ ์์ด์ผํ๋ค.
์ฌ๊ธฐ์ ๊ธฐ์กด์ ์๋ฃ๋ฅผ 'Training Dataset' ์ด๋ผ๊ณ ํจ.
Supervised Learning ๋ ์ธ๊ฐ์ง ํ์ ์ผ๋ก ๋๋ ์ ์๋ค.
Regression : ๋ฒ์ ๋ด์์ ๊ฒฐ๊ณผ๊ฐ์ ๋. ex) ๊ณต๋ถํ ์๊ฐ์ ๋ฐ๋ฅธ ์ฑ์ ์์ธกํ๋ ํ๋ก๊ทธ๋จ 0~100 ์ฌ์ด์ ๊ฒฐ๊ณผ ๊ฐ ๋์ถ
Binary classification : ๋ ์ค ํ๋๋ก ๋ถ๋ฅํ๋ ๊ฒฐ๊ณผ๋ฅผ ๋. ex) pass/nonpass
Multi-label classficiation : ์ฌ๋ฌ๊ฐ ๋ ๋ฒจ๋ก ๋ถ๋ฅํ๋ ๊ฒฐ๊ณผ. ex) A/B/C/D/F ๋ก ๋ถ๋ฅ
<Lec 2 ์ ๋ฆฌ>
Linear Regression ์ ๋ฐฉ๋ฒ
H(x) = Wx + b ํํ์ ์์์ด ๋์ฌ ๊ฒ์ด๋ผ ๊ฐ์ค์ ์ธ์ด๋ค.
๊ฐ์ค์ด ๋ํ๋ด๋ ์ ์ค ๊ฐ์ฅ ์ข์ ๊ฐ์ด ๋ฌด์์ธ์ง๋ฅผ ์ฐพ๋๋ค. -> Data ๊ฐ๊ณผ ๊ฐ์ฅ ๊ฐ๊น์ด ๊ฒ์ด ์ข์ ๊ฐ.
Training Data์ ์์
1
1
2
2
3
3
์ด๋ค Data๊ฐ ์์ ๋ Linearํ ์ ์ ์ฐพ๋ ๋ชจ๋ธ.
Cost Function (Lost Function)
๊ฐ์ค์ ์ธ์ด ์ ๊ณผ Data์ ๊ฑฐ๋ฆฌ๋ฅผ ์ธก์ ํ๋ ๋ฒ. ๊ฐ์ค๊ณผ ์ค์ ๊ฐ ์ผ๋ง๋ ๋ค๋ฅธ์ง ๊ณ์ฐ
= ( H(x) - y )^2
H(x)๋ฅผ ๋์ ํ์ฌ ๊ณ์ฐํด์, ๊ฐ์ฅ ์์ ๊ฐ์ด ๋์ค๋๋ก W์ b๋ฅผ ๊ตฌํ๋ ๊ฒ์ด Linear Regression์ ํ์ต.
minimize cost(W,b)
<Lec 3 ์ ๋ฆฌ>
Const Function cost(W) ๋ฅผ ์ต์ํํ๋ ํจ์ ์ฐพ๊ธฐ.
H(x) = Wx ๋ก ๊ฐ์ํํด์ ๊ฐ์ค ์ธ์ฐ๊ณ , W๊ฐ 0, 1, 2, ... ์ธ ๊ฒฝ์ฐ๋ก ๊ฐ๊ฐ data ๋์ ํ์ฌ ์ต์๊ฐ ๊ตฌํ๊ธฐ.
์์) Training Data๊ฐ ๋ค์๊ณผ ๊ฐ์ ๊ฒฝ์ฐ
1
1
2
2
3
3
W=1 ์ผ๋ cost(W) = 0
W=0 ์ผ๋, cost(W) = 4.67
W=2 ์ผ๋, cost(W) = 4.67
...
๊ทธ๋ํ๋ฅผ ๊ทธ๋ ค cost function ์ด ์ต์ํ๋๋ W๊ฐ ์ฐพ๊ธฐ.
Gradient descent algortihm ( = ๊ฒฝ์ฌ๋ฅผ ๋ฐ๋ผ ๋ด๋ ค๊ฐ๋ ์๊ณ ๋ฆฌ์ฆ)
=> ๋ค์ ์๊ณ ๋ฆฌ์ฆ์ ์ ์ฉํด cost(W,b) ๋ฅผ ๊ฐ์ฅ ์ต์ํํ๋ W์ b์ ๊ฐ์ ์ ์ ์๋ค.
์๊ณ ๋ฆฌ์ฆ์ ์๋๋ฒ:
ํจ์์์ ๊ฒฝ์ฌ๋(๊ธฐ์ธ๊ธฐ)๋ฅผ ๊ตฌํด ๋ฐ๋ผ ์์ง์ด๋ค ์ต์ข ์ ์ผ๋ก 0์ ๋์ฐฉ. -> ํญ์ ์ต์ ์ ์ ๋์ฐฉํ๋ค๋ ๊ฒ์ด ์ด ์๊ณ ๋ฆฌ์ฆ์ ์ฅ์ .
์๋ฌด ์ ์์๋ ์์ ๊ฐ๋ฅ
W๋ฅผ ์กฐ๊ธ์ฉ ๋ฐ๊พธ๋ฉฐ cost๋ฅผ ์ค์.
๊ทธ ๊ฒฝ์ฌ๋๋ฅผ ๊ณ์ฐํด ๋ฐ๋ณตํ์ฌ ์ต์๊ฐ ๊ตฌํจ.
๊ฒฝ์ฌ๋ ๊ตฌํ๋ ๋ฒ
๋ค์ ์์์ผ๋ก W ๊ฐ์ ๋ณํ์ํค๋ฉด์ ์ต์ ์ ์ฐพ์.
Convex function : Gradient descent algorithm์ผ๋ก ๊ทธ๋ฆผ์ ๊ทธ๋ฆฐ ๊ทธ๋ํ. ๋ฐฅ ๊ทธ๋ฆ ํํ. ์ด๋์ ์์ํ๋ ํญ์ ๋์ฐฉํ๋ ์ ์ด ์ต์ ์ ์ด๋ค.
Cost Function์ ์ค๊ณํ ๋ ์ด ํจ์์ ๋ชจ์์ด ๋ฐ๋์ Convex Function์ด ๋๋๋ก ํด์ผํ๋ค!
ํ๊ธฐ ์ ๋ฆฌ
์ถ์ฒ
๋ชจ๋๋ฅผ ์ํ ๋ฅ๋ฌ๋ ๊ฐ์ข ์์ฆ 1 - YouTube
Last updated