본문 바로가기
반응형

Machine Learning/CS2296

Stanford CS229 강의 요약 Machine Learning - Generalized Linear Model, Softmax Regression | Lecture 4-2 (Autumn 2018) Stanford CS229 강의 요약 Machine Learning - Course Introduce | Lecture 1 - Andrew Ng (Autumn 2018) Stanford CS229 강의 요약 Machine Learning - Linear Regression and Gradient Descent | Lecture 2 (Autumn 2018) Stanford CS229 강의 요약 Machine Learning - Locally Weighted & Logistic Regression | Lecture 3-1 (Autumn 2018) Stanford CS229 강의 요약 Machine Learning - Logistic Regression & Newton's Method | Lecture 3-2.. 2023. 6. 10.
Stanford CS229 강의 요약 Machine Learning - Perceptron Algorithm, Exponential family | Lecture 4-1 (Autumn 2018) Stanford CS229 강의 요약 Machine Learning - Course Introduce | Lecture 1 - Andrew Ng (Autumn 2018) Stanford CS229 강의 요약 Machine Learning - Linear Regression and Gradient Descent | Lecture 2 (Autumn 2018) Stanford CS229 강의 요약 Machine Learning - Locally Weighted & Logistic Regression | Lecture 3-1 (Autumn 2018) Stanford CS229 강의 요약 Machine Learning - Logistic Regression & Newton's Method | Lecture 3-2.. 2023. 6. 10.
Stanford CS229 강의 요약 Machine Learning - Logistic Regression & Newton's Method in Logistic Regression | Lecture 3-2 (Autumn 2018) 이전 강의 요약 Stanford CS229 강의 요약 Machine Learning Course, Lecture 1 - Andrew Ng (Autumn 2018) Stanford CS229 강의 요약 Machine Learning - Linear Regression and Gradient Descent | Lecture 2 (Autumn 2018) Stanford CS229 강의 요약 Machine Learning - Locally Weighted & Logistic Regression | Lecture 3-1 (Autumn 2018) Week 3 Topic 1. Linear Regression (Recap) 2. Locally weighted Regression 3. Probabilistic inter.. 2023. 5. 25.
Stanford CS229 강의 요약 Machine Learning - Locally Weighted & Probabilistic interpretation & Maximum likelihood | Lecture 3-1 (Autumn 2018) Stanford CS229 강의 요약 Machine Learning Course, Lecture 1 - Andrew Ng (Autumn 2018) Stanford CS229 강의 요약 Machine Learning - Linear Regression and Gradient Descent | Lecture 2 (Autumn 2018) Week 3 Topic & Week 2 Recap 1. Linear Regression (Recap) 2. Locally weighted Regression 3. Probabilistic interpretation + Why we use the qudratic loss function? 4. logistic regression (3-2 다음 포스팅에서) 5. Newton's .. 2023. 5. 24.
Stanford CS229 강의 요약 Machine Learning - Linear Regression and Gradient Descent | Lecture 2 (Autumn 2018) 강의 요약 1. Normal eqation 2. Linear Regression 3. LMS Algorithm 4.왜 X는 invertible 해야할까? (feat 다중공산성) Chapter 1. Linear Regression. - 이번엔 bedrooms라는 정보가 포함이 되었다. multi feature가 되었다. 따라서 x는 ℝ이 아닌 ℝ^2 가 된다. (LaTex화난다) - 따라서 수식은 아래와 같이 x2에 대한 항이 하나가 추가가 되었다. x1은 Living area, x2는 bedrooms가 된다. - 위에서 언급한 n이 이제는 2인 case를 처리해보자. - θ는 parameter 혹은 weight라고 불린다. - x0을 dummy feature로 적용을 하면 다음과 같이 간략하게 사용이 가.. 2023. 5. 23.
Stanford CS229 강의 요약 Machine Learning Course, Lecture 1 - Andrew Ng (Autumn 2018) 강의 제목 : Machine Learning Course, Lecture 1 - Andrew Ng (Autumn 2018) 강의영상: https://www.youtube.com/watch?v=jGwO_UgTS7I&list=PLoROMvodv4rMiGQp3WXShtMGgzqpfVfbU&index=1' 강의 자료: http://cs229.stanford.edu/main_notes.pdf CS229 Syllabus Spring 2023: https://docs.google.com/spreadsheets/d/12ua10iRYLtxTWi05jBSAxEMM_104nTr8S4nC2cmN9BQ/edit#gid=639488399 CS229를 듣기 전 봐야할 PPT: https://cs229.stanford.edu/mat.. 2023. 5. 23.
반응형