DL/DL_Network_cal(5)
-
Convolutional Neural Network
Modules of Classifier Feature Extrator => Convolution Layer + Pooling Layer → output = Feature vector Classifier => Dense Layer → output = Class Scores Feature를 뽑아내는 이유 input의 image를 classifier로 바로 넣어 분류하기 어려움 (성능 ↓) → Feature를 만들기 시작 Shapes in the Classifier 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 from tensorflow.keras.layers import Dense n_neurons = [50, 25, 10]..
2022.09.08 -
Pooling Layer
Pooling Pooling은 sub sampling이라고 함 image data를 작은size의 image로 줄이는 과정 pooling을 사용하는 이유 앞선 layer들을 거친 output의 모든 data가 필요하지 않기 때문 → 즉, 추론을 하는데 있어 적당량의 data만 있어도 되기 때문 pooling의 특징 학습변수가 없다. (ex. weight, bias) pooling의 output은 channel수에 영향 없다. Max Pooling 최댓값을 뽑아내는 pooling의 한 종류 $\phi =\max \left( W\right) $ 1D Max Pooling 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 import numpy as np i..
2022.08.31 -
Loss Function
Classification 분류는 class를 예측하는 것 어떤 text를 입력했을 때, 어떤 class에 속하는지 예측하는 것 즉, 예측해야 할 대상(class)이 정해져있다. discrete한 값이 ouptut 미리 정의된 가능성이 있는 여러 클래스 레이블 중 하나를 예측하는 것 중간이 없다 classification의 종류 1. binary classification - 예측할 class가 2가지인 경우 2. multi-class classification - 예측할 class가 여러가지인 경우 Binary Classification output을 T / F, 앞 / 뒤와 같이 두가지 그룹으로 분류하는 것 output y가 binary한 0 / 1 로 나옴 → Output layer에 Activat..
2022.08.25 -
Classifier, Softmax Layer
Odds 확률 p에 대한 odds $O=\dfrac{p}{1-p}$ 실패비율 대비 성공비율을 설명하는 것 Logit 확률 p의 logit $l=\log \left( \dfrac{p}{1-p}\right) $ 즉, odds에 log를 씌운 것 ( log + odds ) odds는 1보다 큰 지, logit은 0보다 큰지가 결정의 기준 logit의 역함수는 sigmoid $l=\log \left( \dfrac{p}{1-p}\right) $ $e^{e}=\dfrac{p}{1-p}$ $\dfrac{1}{0^{1}}=\dfrac{1-p}{p}=\dfrac{1}{p}-1$ $\dfrac{1}{e^{l}}+1=\dfrac{1}{p}$ $\dfrac{e^{l}+1}{e^{l}}=\dfrac{1}{p}$ $p=\dfra..
2022.08.17 -
Artificial Neuron
Tensor Zeroth- order Tensor ( 0차원 텐서 ) = scalar First-order Tensor(1차원 텐서) = vector Second-order Tensor( 2차원 텐서) = matrix ※ 위와 같이 나눌 수 있으나, 모두 Tensor로 표현 가능 데이터의 배열, 다차원의 배열을 통칭 scalar, vector, matrix를 general하게 표현한 것 Dataset $\overrightarrow{X}^{T}=\left( x_{1}x_{2}\ldots x_{l_{I}}\right) $ 주로 column형식의 벡터로 표현 $X^{T}=\begin{pmatrix} X^{\left( 1\right) } \\ \chi ^{\left( 2\right) } \\ : \\ X^{(N..
2022.08.14