일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
31 |
- assignment1
- Generative Models
- Regularization
- marchine learning
- SQLD
- C++
- cs231n
- Python
- BFS
- deep learning
- 딥러닝
- Transformer
- DFS
- dropout
- Positional Encoding
- Algorithm
- Baekjoon
- 밑바닥부터 시작하는 딥러닝
- Optimization
- Multi-Head Attention
- Adam
- assignment2
- Machine Learning
- do it! 알고리즘 코딩테스트: c++편
- CNN
- RNN
- mask r-cnn
- 밑바닥부터 시작하는 딥러닝2
- computer vision
- CPP
- Today
- Total
목록Positional Encoding (4)
newhaneul

본 포스팅은 NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis (ECCV 2020)을 읽고 정리하기 위한 포스팅입니다.논문명: NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis (ECCV 2020) NeRF: Representing Scenes as Neural Radiance Fields for View SynthesisWe present a method that achieves state-of-the-art results for synthesizing novel views of complex scenes by optimizing an underlyi..

본 포스팅은 서울대학교 이준석 교수님의 M3224.000100 Machine Learning for Visual Understanding을 수강하고 공부한 내용을 정리하기 위한 포스팅입니다. https://youtu.be/p1fdYbs9W0c?si=4d87BJ3pcIUCCgV5 1. Attention Mechanism Attention Mechanism은 입력 시퀀스 중에서 중요한 부분에 집중(attend)하도록 학습하는 메커니즘이다. 즉, 모든 입력 요소 간의 상호작용을 계산하고, 중요한 정보에 더 많은 가중치를 부여한다. Query: Decoder hidden stateKey, Value: Encoder hidden stateAttention Value: Weighted average of enco..

본 포스팅은 Stanford University School of Engineering의 CS231n: Convolutional Neural Networks for Visual Recognition을 수강하고 공부한 내용을 정리하기 위한 포스팅입니다.https://github.com/cs231n/cs231n.github.io/blob/master/assignments/2025/assignment3.md cs231n.github.io/assignments/2025/assignment3.md at master · cs231n/cs231n.github.ioPublic facing notes page. Contribute to cs231n/cs231n.github.io development by creatin..

본 포스팅은 서울대학교 이준석 교수님의 M3239.005300 Machine Learning & Deep Learning 1을 수강하고 공부한 내용을 정리하기 위한 포스팅입니다.이준석 교수님에게 강의 자료 사용에 대한 허락을 받았음을 알립니다.https://youtu.be/8QDbm0qSKCI?si=DauUnYoTxRUVFOAV1. More Details on Transformers 이번 Lecture에서는 Transformer의 작동 원리와 어떤 문제를 해결하는지에 대해 자세히 알아보도록 한다. Token Aggregation (Average Pooling) Transformer 모델에서는 입력이 여러 개의 토큰(Token) 단위로 나뉘어 처리된다. 하지만 최종적으로는 이 여러 개의 토큰들을 하나의..