공부하는삶

Composite pattern의 활용 composite pattern 중 하나의 속성은 inheritance를 대신 할 수 있음 class A: class C: class B: def __init__(self): self.a = A() self.c = B() def multi(self): return self.a * self.b class AA: a = 1 def aaaa(slef, x): self.b = x def aaa(self): return self.b class BB(AA): pass 상속의 문제점 : AA와 coupling. 밀접하게 연결이 되어 있어서, class AA가 바뀌면 class BB의 기능도 바뀌어짐. class CC: ## AA가 변할 때 같이 안 변함 a = 1 # overi..
Feature space Feature Space Feature Space란, 정의한 feature의 N 차원으로 정의됨. 만약에 2개의 feature를 정의하였으면 2차원으로 정의됩니다. 다만, target label은 포함되지 않습니다. Feature Space coverage feature space coverage는 매우 중요합니다. train과 evalutation을 위한 데이터의 예시는, 대표성을 띄어야 하니다. 즉, 모델에 전달될 requests와 이 requests가 feature space에 있는 경우 해당 feature space의 영역도 model을 train하거나 evaluation할 때 다뤄야 합니다. 동일한 classes에 대한 동일한 차원 image data에 대한 비슷한 특성..
You Only Look Once: Unified, Real-Time Object Detection 2 Stage Object Detection : 위치 → 분류 1 Stage Object Detection : 위치 + 분류 → Confidence = acc. + IoU ⇒ confidence 50% 이상인 경우에만 물체가 있을 확률이 높다고 판단, 50% 이하의 경우 무시 Abstract 속도가 매우 빠름, 45 frame/second (cf. Faster-RCNN 0.5 sec/frame) YOLO가 당시 SOTA detection model에 비하여 localization error가 더 있지만 background에 대한 false-positive가 더 적음 : 있는데 없다고 하는 경우는 더 적음 ..
Normalization 정규화 IMG_SIZE = 180 resize_and_rescale = tf.keras.Sequential([ layers.Resizing(IMG_SIZE, IMG_SIZE), layers.Rescaling(1./255)]) '정규화'라고 번역이 되는데 Regularization, Standardzation과 차이가 무엇일까? Normalization : 값 범위를 왜곡시키지 않고 데이터셋을 공통 스케일로 변경하는 것. ex. KNN, K-means 등 distance based algorithms을 사용할 때 입력 데이터의 범위를 한정 시키는 것. Min-max scaling 등 Z-score normalizatioin : 편차가 크면 over fitting 문제가 생기기 때문..
InceptionNet-v1 2013년도 ZFNet : 11x11 -> 7x7 visualization 해서 제일 좋을 것이라고 진단을 하고 나서 씀 Hebb's Rule : 가장 도움이 되는 것에 weight가 커질 것. 어떤 weight가 가장 클 것 -> 3x3 convoultion인지 5x5 convolution인지 학습을 통해서 알 수 있을 것 즉, 학습을 통해 가장 중요한 것의 weight가 커진다는 것이 기본 생각 NIN에서 차원을 맞추지 않으면 갯수가 안 맞아서 더하기 어려운 것을 확인했기 때문에 차원을 맞추는 테크닉이 필요함. concatenate를 통해 여러 convolution을 계산함. pooling은 당연히 다를 수 밖에 없음. 1x1 convolution 은 차원만 줄이는 역할을..
ZFNet 목표 : AlexNet에서 pooling을 시켰을 때 어떤 상태인지 확인하기 의의 : Visualization, ablation study pooling한 것을 복원하면 디테일이 다 죽기 때문에 완벽하게 복원이 안 되고, 가장 큰 값이 무엇인지 확인이 가능함 AlexNet과 다른 점 11x11, /4 -> 7x7, /2 : 7x7 receptive field가 더 성능이 좋은 것을 확인 가능함 + parameter도 줄어드는 부차적인 효과가 있음 overlapping pooling abulation study 관점에서 convolution의 활성화 영역을 보는 것. 푸른 색일 수록 크게 영향을 미쳤음을 확인 할 수 있고, 만약 회색 filter가 있는 영역이 파란색으로 표현이 되었으면 그 영역..
Hanna 한나
'공부하는삶' 카테고리의 글 목록 (3 Page)