본문 바로가기
반응형

분류 전체보기100

YOLOv5 Custom Model 만들기(1) - LabelImg 사용법 You Only Look Once (YOLO) 의 특징 - 대표적인 One-Stage Detector로써 빠르고 정확한 Object Detection Model이다. - 실시간 물체/객체 탐지가 가능하다. 우선 version 별 YOLO 모델의 특징을 간단하게 요약 YOLOv1 - "One-Stage Detector"를 사용하여 실시간 탐지 가능, - One-Stage Detector 구현을 위해 Loss Function에서 바운딩 박스의 크기, 위치, Class 종류까지 학습. YOLOv2 - v1에 마지막에 들어가는 FC Layer대신 앵커박스 개념 도입 -> 바운딩 박스의 위치 정보를 살리기 위함 - 416으로 이미지 크기를 늘려 작은 물체도 감지하기 쉽게 (224 -> 416), - BatchNo.. 2022. 8. 20.
논문 읽기[Seq2Seq] - Sequence to Sequence Learning with Neural Networks Abstract - DNN은 레이블된 학습 데이터 셋을 쓸 때 성능이 좋음. 하지만 Sequence to sequence를 mapping 하는데 사용 불가능 - 고정된 차원 벡터의 Input LSTM(Encoder), Output을 출력하는 또 다른 LSTM(Decoder)로 구성. - English to French 번역인 WMT'14 데이터 셋 사용, *BELU Score는 34.8 - pharse-based SMT system의 BELU score는 33.3, LSTM에 SMT system을 적용시 BELU Score 36.5 - 입력 문장을 뒤집는 방법을 통해 LSTM의 성능 상승. 입력 문장과 출력 문장의 단기 의존도가 생겨 최적화가 쉬워짐. * BELU Score : 변역의 퀄리티를 평가하는 .. 2022. 8. 13.
YOLOv1 논문리뷰 처음 읽어보는 논문입니다. 또한 학부생이기 때문에 틀린부분이 있을 수 있습니다. 틀린 부분이 있다면 지적해주시면 감사하겠습니다. 어떤 부분은 번역이, 어떤부분은 의역이, 어떤 부분은 저의 생각이 들어가 있습니다. 양해 부탁드립니다. YOLO는 You Look Only Once의 줄임말로 대표적인 Real-Time Object Detection을 가능하게 하는 새로운 접근 방법의 Object Detection 이다. Object Detection이란 컴퓨터가 시각적 세계를 이해하고 학습하도록 하는 인공지능 분야인 Computer Vision의 한 분야로 Multiple objects Classification + Localization을 수행하는 것이 Object Detection이라 보면 된다. 시작에 .. 2022. 7. 15.
Forward Pass & BackPropagation 수식 정리. output classes = (1, 10) number of hidden nodes = 50, 20, 30 Activation Function : Sigmoid ($\sigma $) Loss Function : Cross Entropy Forward Pass Layer 1 $$ Z^1 = X \bullet W^{[1]} + b^{[1]}, \\ A^{[1]} = \sigma{(Z^{[1]})} $$ On layer 1, input feature size = (1,400), 따라서 $$ X \in \mathbb{R}^{1 \times 400}, \; W^{[1]} \in \mathbb{R}^{400 \times 50}, \; b^{[1]} \in \mathbb{R}^{1 \times 50} $$ $$ Z.. 2022. 5. 2.
Backpropagation 에서 전치의 발생. 마크다운에서 수식 이미지 넣는 법 우선 이 수식은 왜 있는지 이해를 못했다. Loss값에 대해 X를 편미분 -> 근데 왜 하는거지..? 따라서 밑의 수식이 왜 나오게 되는지 Backpropagation에서 전치를 하는 이유를 알아보겠다. 우선 다음과 같은 Vector X,W,Y가 있다고 할 때. Loss에 대해 W를 편미분하게 되면 Chain Rule에 의해 다음과 같이 만들 수 있다. 이걸 풀어서 쓰게 되면 2022. 5. 2.
MLP에서의 Forward pass, Layer shape 맞추기. 우선 Feed forward neural network의 forward layer 쌓기. shape 끼어 맞추기. i번째 Layer의 출력물 𝑎^[i] 는 다음 Layer i+1 번째 Layer의 Input으로 들어간다. W : Weight로 간선을 생각하면 된다. 크기는 (이전 Layer의 노드 수 x 다음 Layer의 노드 수) b : bias 편향 -> y = ax + b에서 b역할을 맡음. 크기 : (1 x 출력 Layer의 노드 수) Z : Layer 통과 후 Activation Fuction을 거치기 전 단계. Activation Fuction을 넣어주는 이유 : 비선형 함수를 넣지 않는 다면 XOR 문제를 해결할 수 없기 때문. 조건 input feature map size = 400. ou.. 2022. 4. 28.
OpenCV 2차원 히스토그램 만들기. OpenCV-Python으로 배우는 영상처리 및 응용. Chapter 6 화소처리 Q14 우선 OpenCV내장함수 cv2.cvtColor(image, cv2.COLOR_BGR2HSV)를 사용하지 않고 변환공식은 이전 링크 에 적어두었다. 내장함수 사용하지않고 BGR2HSV 구현하기 이번에는 앞에서 만든 소스코드를 바탕으로 위에 문제에 맞는 2차원 히스토그램을 만들어보겠다. 2차원 Histogram을 만들기 위해서는 cv.calcHist() 를 사용하면 됩니다. cv2.calcHist([img], [0,1], [img_size], [img_range, color_range]) Point : two_dim_histo[hsv_img[row, col, 0], hsv_img[row, col, 1]] += 1 im.. 2022. 4. 18.
BGR2HSV OpenCV 내장함수 없이 구현하기 영상처리 프로그래밍 도중 HSV 변환공식을 따라하였는데 안되서 직접 구현해본 BGR to HSV OpenCV-Pythondㅡ로 배우는 영상처리 및 응용 chapter 6 화소 변환. OpenCV 내장함수를 통한 변환. hsv_img = cv2.cvtColor(BGR_img , cv2.COLOR_BGR2HSV)영상처리 책 속 변환공식 -> 책이 왜 안될까.. 이상하다.. 직접 구현한 HSV to RGB 단 R', G', B' 은 R/255, G/255, B/255 V는 기존과 같음 S는 V를 분모로 올림. 0과 1 사이의 값으로 나오기 때문에 255를 곱해주어야 하며 H는 0부터 360사이의 값이 나오기 때문에 /2를 한 후 scale을 해주어야 하는데 /2만 해줘도 됐다. (cv2... 2022. 4. 17.
DFS 기초 코드 나는 DFS가 너무 어려웡.. #include #include #include using namespace std; vector lotto; vector v; void DFS(int num, int cnt) { if (cnt == 6) { for (int i=0; i> n; if(n==0) break; else cout 2022. 2. 26.
큰 수의 나눗셈_모듈러 연산 & 분할정복 (A + B) % C = ((A % C) + (B % C)) % C (A - B) % C = ((A % C) - (B % C)) % C (A * B) % C = ((A % C) * (B % C))) % C 모듈러 연산 (더 알고싶으면 유클리드 호제법 검색하기.) 이를 이용하여 (A1 * A2 * ... * An) % C (A1 * A2 * .. * An) 을 다 계산하게 되면 수가 매우 커지게 되며 시간복잡도 또한 O(n) 이 되게 된다. 따라서 우리는 위와 같이 모듈러 연산을 사용하면 시간복잡도 및 연산의 결과가 자료형의 크기를 벗어나며 오류가 나는 상황을 막을 수 있다. ((A1 * A2 * A3 * ... * An-1) % C * (An % C)) % C 너무 안예쁜데.. 훔.. 위와 같은 모듈러 .. 2022. 2. 26.
반응형