일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 | 29 |
30 | 31 |
- slack variables
- Algorithm
- tree purning
- SQLD
- Machine Learning
- deep learning
- Baekjoon
- CBOW
- marchine learning
- CPP
- Python
- 밑바닥부터 시작하는 딥러닝
- BFS
- 딥러닝
- dynamic programming
- RNN
- boosting for classification
- boosting for regression
- DFS
- word2vec
- Linear Regression
- classification
- jini impurity
- 고전소설
- C++
- Language model
- Backtracking
- 밑바닥부터 시작하는 딥러닝2
- do it! 알고리즘 코딩테스트: c++편
- numpy
- Today
- Total
목록2025/03/13 (3)
newhaneul

본 포스팅은 서울대학교 이준석 교수님의 M3239.005300 Machine Learning & Deep Learning 1을 수강하고 공부한 내용을 정리하기 위한 포스팅입니다.이준석 교수님에게 강의 자료 사용에 대한 허락을 받았음을 알립니다.https://youtu.be/yQ7UGAFCU44?si=fbaJcvhBD4Yu13mp 지금까지 배운 Discriminant analysis는 각 class가 정규 분포라는 가정하에 p(y|x)를 추정하였고, logistic regression의 경우에는 log odds가 linear하다는 가정으로 decision boundary을 찾아냈었다. 이번 Lecture에서는 Support Vector Machine이라는 확률을 사용하지 않으면서 decision bo..

Lagrange Multiplier (라그랑주 승수)와 KKT Condition (Kuhn-Tucker 조건)Lagrange Multiplier와 KKT Condition은 최적화 문제를 풀 때, 특히 제약 조건이 있는 최적화 문제에서 중요한 수학적 도구들이다. 이들은 주어진 제약 조건 하에서 최적화 문제를 해결하는 데 사용된다. 1. Lagrange Multiplier (라그랑주 승수)라그랑주 승수는 제약 조건을 가진 최적화 문제를 해결할 때 사용되는 기법이다.🧑🏫 기본 개념최적화 문제를 해결할 때, 목표 함수 f(x)와 제약 조건 g(x)=0이 있을 때, 라그랑주 승수는 목표 함수와 제약 조건을 결합하여 새로운 라그랑주 함수(Lagrangian function)를 만든다. 이를 통해 최적화 문제..

본 포스팅은 Do it! 알고리즘 코딩테스트: C++편을 토대로 공부한 내용을 정리하기 위한 포스팅입니다.https://github.com/KwonKiHyeok/Do_it_Alogrithm_Coding_Test_with_Cpp GitHub - KwonKiHyeok/Do_it_Alogrithm_Coding_Test_with_Cpp: Do it! 알고리즘 코딩 테스트: C++편Do it! 알고리즘 코딩 테스트: C++편. Contribute to KwonKiHyeok/Do_it_Alogrithm_Coding_Test_with_Cpp development by creating an account on GitHub.github.com 너비 우선 탐색(Breadth-First Search) 너비 우선 탐색(Br..