일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 | 31 |
- Baekjoon
- Multi-Head Attention
- assignment1
- RNN
- dropout
- Optimization
- Regularization
- do it! 알고리즘 코딩테스트: c++편
- 딥러닝
- 밑바닥부터 시작하는 딥러닝2
- Python
- CNN
- Algorithm
- marchine learning
- Alexnet
- CPP
- cs231n
- DFS
- C++
- Transformer
- deep learning
- Generative Models
- SQLD
- Adam
- assignment2
- 밑바닥부터 시작하는 딥러닝
- Machine Learning
- computer vision
- BFS
- mask r-cnn
- Today
- Total
목록Machine Learning (11)
newhaneul

본 포스팅은 서울대학교 이준석 교수님의 M3239.005300 Machine Learning & Deep Learning 1을 수강하고 공부한 내용을 정리하기 위한 포스팅입니다.이준석 교수님에게 강의 자료 사용에 대한 허락을 받았음을 알립니다.https://youtu.be/poxVMbBVbkU?si=we1lyc5WToBhfsuD 0. 들어가기 전에.. 이전 Lecture에서 배운 Fully Connected layer의 경우 아래의 신경망 구조를 띤다고 하였다. CNN에 대해 들어가기 전에 이미지로부터 패턴을 인식하는 방법에 대해 생각해보자. 만약 이미지로부터 찾고자 하는 패턴이 있다면 그 패턴에 높은 score를 주는 filter를 설정하면 될 것이다. 그리고 우리는 이미지에서 패턴이 어디에 있는..

본 포스팅은 서울대학교 이준석 교수님의 M3239.005300 Machine Learning & Deep Learning 1을 수강하고 공부한 내용을 정리하기 위한 포스팅입니다.이준석 교수님에게 강의 자료 사용에 대한 허락을 받았음을 알립니다.https://youtu.be/3yeFaZXFnE8?si=06PweceXABIcQuyt 이전 Lecture에서 배웠던 Linear classifier는 class마다 하나의 template 밖에 배우지 못한다는 단점이 있다. 때문에 실제 class는 여러 모습이 있지만 이를 모두 반영하지 못한다. 또한 Linear decision boundary 밖에 결정할 수 밖에 없다는 단점이 있다. 때문에 복잡한 관계를 갖는 두 개의 class들을 완전하게 분리하지 못한다..

본 포스팅은 서울대학교 이준석 교수님의 M3239.005300 Machine Learning & Deep Learning 1을 수강하고 공부한 내용을 정리하기 위한 포스팅입니다.이준석 교수님에게 강의 자료 사용에 대한 허락을 받았음을 알립니다.https://youtu.be/gauQVTkWdYY?si=faI0wqYJfsUyEKhO 1. K-Nearest Neighbors(KNN) K-Nearest Neighbors(KNN)는 Supervised Learning에서 사용되는 간단하면서도 강력한 알고리즘이다. 주어진 데이터의 클래스를 예측하거나 값을 추정할 때, 가장 가까운 K개의 이웃을 기준으로 결정을 내린다. 두 개의 이미지를 비교하려고 하면, 숫자들의 metric로 변환한 후 비교할 수 있을 것이다...

본 포스팅은 서울대학교 이준석 교수님의 M3239.005300 Machine Learning & Deep Learning 1을 수강하고 공부한 내용을 정리하기 위한 포스팅입니다.이준석 교수님에게 강의 자료 사용에 대한 허락을 받았음을 알립니다.https://youtu.be/fBtMz4htSGg?si=qsHn3wPXg3gUjLcJ Unsupervised Learning (비지도 학습) Unsupervised Learning은 label이 없는 데이터에서 패턴이나 구조를 찾아내는 학습 방법이다. 주어진 데이터만으로 숨겨진 관계나 구조적 특성을 발견하는 것이 목표이다. 주요 기법으로 Clustering, Dimension reduction, Density estmation이 있다. 1. Clustering..

본 포스팅은 서울대학교 이준석 교수님의 M3239.005300 Machine Learning & Deep Learning 1을 수강하고 공부한 내용을 정리하기 위한 포스팅입니다.이준석 교수님에게 강의 자료 사용에 대한 허락을 받았음을 알립니다.https://youtu.be/yQ7UGAFCU44?si=fbaJcvhBD4Yu13mp 지금까지 배운 Discriminant analysis는 각 class가 정규 분포라는 가정하에 p(y|x)를 추정하였고, logistic regression의 경우에는 log odds가 linear하다는 가정으로 decision boundary을 찾아냈었다. 이번 Lecture에서는 Support Vector Machine이라는 확률을 사용하지 않으면서 decision bo..

본 포스팅은 서울대학교 이준석 교수님의 M3239.005300 Machine Learning & Deep Learning 1을 수강하고 공부한 내용을 정리하기 위한 포스팅입니다.이준석 교수님에게 강의 자료 사용에 대한 허락을 받았음을 알립니다.https://youtu.be/yvK2BjH1LF4?si=_glhDZEVkdMoVhro 1. Bootstrapping Bootstrapping은 dataset을 복원 추출(With Replacement)하는 방식으로 여러 개의 새로운 훈련 데이터를 생성하는 기법을 말한다. 데이터의 불확실성을 줄이고 모델의 안정성을 높이는 데 사용된다. Bootstrapping의 원리복원 추출(With Replacement)주어진 원본 데이터에서 중복을 허용하며 랜덤하게 샘플을 ..

본 포스팅은 서울대학교 이준석 교수님의 M3239.005300 Machine Learning & Deep Learning 1을 수강하고 공부한 내용을 정리하기 위한 포스팅입니다.이준석 교수님에게 강의 자료 사용에 대한 허락을 받았음을 알립니다.https://youtu.be/KNBP2KkN-ug?si=YgV6MG8UzvQGALEr 1. Decision Trees Decision Tree는 데이터를 기반으로 의사결정을 위한 규칙을 트리(Tree) 형태로 표현하는 Supervised Learning 알고리즘이다.일련의 조건 분할을 통해 데이터를 여러 개의 subtree들로 나누어 예측을 수행한다. 이는 사람의 의사결정 과정과 유사하며, Classification과 Regression Problem 모두 ..

본 포스팅은 서울대학교 이준석 교수님의 M3239.005300 Machine Learning & Deep Learning 1을 수강하고 공부한 내용을 정리하기 위한 포스팅입니다.이준석 교수님에게 강의 자료 사용에 대한 허락을 받았음을 알립니다.https://youtu.be/5nVeXPeGDYM?si=frW4h8M9FPCF00Oc 1. Overfitting Overfitting(과적합)은 Model이 훈련 데이터에 너무 잘 맞춰져서 Test Data에서 좋은 성능을 내지 못하는 현상을 의미한다. Model Capacity란 Model Complexity와 동의어이다. 일반적으로 parameter(β)의 개수와 model의 복잡성이 커질수록 Model Capacity가 증가한다. 이는 model이 T..