본문 바로가기
반응형

분류 전체보기101

NeRF파헤치기 NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis 저자: Ben Mildenhall 소속: UC Berkeley 학회: ECCV 2020 Best Paper 인용 수: 3094 [논문리뷰]NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis Nerf 논문 이해하기 velog.io Baseline - Volume density: 3차원에서 각 지점에 대한 opacity or transparency (투명도 혹은 불투명도) 색상의 밝기 정도로 보자. ++ 자세히 파고 들어가면, 해당 지점에서 물체가 차지하는 정도이다. 따라서 3D Modeling에서 물체의 보는 각도에 따른 시각적인 특성, 굴절, 반사 그림자 등을 모사하는데 중요한 역할을 한다. - emitted radiance: R.. 2023. 5. 28.
논문으로 알아보는 Label smoothing. When Does Label Smoothing Help? 논문: When Does Label Smoothing Help? 저자: Rafael Müller∗ , Simon Kornblith, Geoffrey Hinton 소속: Google Brain (Toronto) 학회: 2019 NIPS 인용 수: 1423 (2023.05.23기준) Baseline - 기존의 One-hot 방식의 hard label을 사용하는 것 보다 soft label을 사용하는 것이 더 성능이 좋았다. - 왼쪽이 Soft-Label 방식으로, 레이블 마다 중요도를 바탕으로 label을 다시 만드는 방법이 있으며, Label-smoothing은 우측 그림과 같이 정답에서 일정한 부분을 빼서 나머지에 나눠주는 방식이다. - hypterparameter a만큼 정답 label에서 빼준 후, .. 2023. 5. 26.
Stanford CS229 강의 요약 Machine Learning - Logistic Regression & Newton's Method in Logistic Regression | Lecture 3-2 (Autumn 2018) 이전 강의 요약 Stanford CS229 강의 요약 Machine Learning Course, Lecture 1 - Andrew Ng (Autumn 2018) Stanford CS229 강의 요약 Machine Learning - Linear Regression and Gradient Descent | Lecture 2 (Autumn 2018) Stanford CS229 강의 요약 Machine Learning - Locally Weighted & Logistic Regression | Lecture 3-1 (Autumn 2018) Week 3 Topic 1. Linear Regression (Recap) 2. Locally weighted Regression 3. Probabilistic inter.. 2023. 5. 25.
Stanford CS229 강의 요약 Machine Learning - Locally Weighted & Probabilistic interpretation & Maximum likelihood | Lecture 3-1 (Autumn 2018) Stanford CS229 강의 요약 Machine Learning Course, Lecture 1 - Andrew Ng (Autumn 2018) Stanford CS229 강의 요약 Machine Learning - Linear Regression and Gradient Descent | Lecture 2 (Autumn 2018) Week 3 Topic & Week 2 Recap 1. Linear Regression (Recap) 2. Locally weighted Regression 3. Probabilistic interpretation + Why we use the qudratic loss function? 4. logistic regression (3-2 다음 포스팅에서) 5. Newton's .. 2023. 5. 24.
Stanford CS229 강의 요약 Machine Learning - Linear Regression and Gradient Descent | Lecture 2 (Autumn 2018) 강의 요약 1. Normal eqation 2. Linear Regression 3. LMS Algorithm 4.왜 X는 invertible 해야할까? (feat 다중공산성) Chapter 1. Linear Regression. - 이번엔 bedrooms라는 정보가 포함이 되었다. multi feature가 되었다. 따라서 x는 ℝ이 아닌 ℝ^2 가 된다. (LaTex화난다) - 따라서 수식은 아래와 같이 x2에 대한 항이 하나가 추가가 되었다. x1은 Living area, x2는 bedrooms가 된다. - 위에서 언급한 n이 이제는 2인 case를 처리해보자. - θ는 parameter 혹은 weight라고 불린다. - x0을 dummy feature로 적용을 하면 다음과 같이 간략하게 사용이 가.. 2023. 5. 23.
Stanford CS229 강의 요약 Machine Learning Course, Lecture 1 - Andrew Ng (Autumn 2018) 강의 제목 : Machine Learning Course, Lecture 1 - Andrew Ng (Autumn 2018) 강의영상: https://www.youtube.com/watch?v=jGwO_UgTS7I&list=PLoROMvodv4rMiGQp3WXShtMGgzqpfVfbU&index=1' 강의 자료: http://cs229.stanford.edu/main_notes.pdf CS229 Syllabus Spring 2023: https://docs.google.com/spreadsheets/d/12ua10iRYLtxTWi05jBSAxEMM_104nTr8S4nC2cmN9BQ/edit#gid=639488399 CS229를 듣기 전 봐야할 PPT: https://cs229.stanford.edu/mat.. 2023. 5. 23.
피어슨 상관계수(Pearson Correlation Coefficient) 알아보기 및 직접 HeatMap과 분포도 시각화해보기. 피어슨 상관계수란? 두 변수 X, Y 간의 선형 상관관계를 수치로 나타낸 것이다. 수식은 아래와 같다. 상관계수 r은 두 변수 X와 Y의 상관관계를 파악하기 위해 분모에는 각 X,Y 샘플의 표준편차를, 분자에는 공분산을 구하는 과정이 들어가 있다. 공분산 및 표준편차를 구하는 과정에서 분모의 N-1이 약분되어 위와 같은 수식을 가지게 된다. 따라서 -1 부터 1까지의 값을 가지게 되는데 아래 그림과 같은 분포가 나올 때 피어슨 상관계수 r은 그림의 글씨와 같다. Python에서 heatmap을 그릴 때 위의 피어슨 상관계수를 활용하는데, 직접 활용하여 수치 및 데이터의 분포를 알 수 있다. Boston Housing Value 정보를 가지고 있는 seaborn library를 활용하여 직접 실습을 진행해.. 2023. 5. 21.
논문 읽기 CoRe-Sleep: A Multimodal Fusion Frameworkfor Time Series Robust to Imperfect Modalities. 저자: Konstantinos Kontras et al 소속: KU Leuven University 학회: IEEE TRANSACTIONS 2023 BaseLine - 수면 단계 분류를 하기 위해선 다양한 신호 데이터를 수집하는데 EEG, EOG, ECG, EMG와 같은 정보를 수집한다. - 30초 단위로 수면 단계를 분류하며, SHHS 데이터셋은 AASM scoring 방식을 채택하였다. - 수면 단계에는 Wake, RAM(Rapid Eye Movement), Non-RAM1, Non-RAM2, Non-RAM3가 있다. Problem - 기존의 방법은 EEG signal에만 의존하는 경향이 있었다. 하지만, 다양한 신호가 더 다양한 정보를 제공하며, EEG 신호에 Noise, missing value와.. 2023. 5. 8.
논문 읽기 - DeepSleepNet: a Model for Automatic Sleep StageScoring based on Raw Single-Channel EEG 저자: Akara Supratak et al. 소속: Imperial College London, London 학회: IEEE TRANSACTIONS on Neural Systems and Rehabilitation Engineering 2017 인용: 786 (until 2023.05.07) Baseline PSG(Polysomnogram) - PSG: EEG(뇌파), EOG(눈), EMG(근전도), ECG(심전도)등 다양한 형태의 신호를 수면 중 수집한 데이터 정보 - 30초 간격으로 R&K 혹은 AASM Manual을 통해 어떤 수면 단계에 있는지를 판단한다. Time Invariant vs Time variant. - 아래 이미지와 같이, 같은 입력에 대해 같은 출력이 나오도록 하는 것. hand.. 2023. 5. 7.
논문 파헤치기 - What Do Self-Supervised Vision Transformers Learn? Self supervised Learning을 시도할 때, 크게 2가지 방법이 있다. Contrastive Learning(CL)과 Masked Image Modeling이다. 하지만 최근에 MIM이 주목을 받으면서, 많은 사람들이 MIM을 사용하지만 왜 사용하는지, 언제 사용해야하는지에 대한 내용은 모를 것이다. 이 논문은 이러한 점을 ViT를 사용하여 분석하는 논문이다. 이 논문에서는 최근 주목받는 MIM이 항상 정답이 아님을 보여주며, 그렇다면 어떤 상황에서 어떤 모델을 쓸 수 있는지에 대한 가이드가 될 수 있다 생각한다. 저자: Namuk park 소속: Prescient Design Genentech, NAVER AI Lab 날짜: 2023.05.01 Arxiv 등재 학회: ICLR 2023 G.. 2023. 5. 4.
반응형