일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- 빅데이터
- SQL
- 데이터
- CNN
- 딥러닝
- Python
- AI
- 주가예측
- lstm
- R시각화
- HIVE
- Deeplearning
- 기계학습
- 데이터시각화
- word2vec
- R그래프
- R프로그래밍
- 그래프
- 자연어처리
- 머신러닝
- 그래프시각화
- ggplot
- NLP
- 데이터처리
- pandas
- 하둡
- 데이터분석
- r
- Hadoop
- 빅데이터처리
- Today
- Total
목록데이터과학 (49)
욱이의 냉철한 공부
* 출저 본 개념정리는 제 담당교수님이신 연세대학교 정보대학원 김하영 교수님 수업과 Andrew 교수님의 Coursera 수업을 통해 얻은 정보를 통해 정리했습니다. 자료는 Andrew 교수님의 Coursera 수업자료입니다. * 목차 1. 딥러닝의 hidden layer 효과 (Network의 Size 중요성) 2. 딥러닝에서의 자유도와 가중치 3. 딥러닝에서의 High-level feature 4. 딥러닝에서의 Bottle neck 현상 1. 딥러닝의 hidden layer 효과 (Network의 Size 중요성) - 개념 더 high-level feature를 학습할 수 있다. 즉 복잡한 문제를 해결 할 수 있게 된다. 왜냐하면 네트..
* 출저 본 개념정리는 제 지도교수님이신 연세대학교 정보대학원 김하영 교수님 수업과 Andrew 교수님의 Coursera 수업을 통해 얻은 정보를 통해 정리했습니다. 자료는 대부분 Andrew 교수님의 Coursera 수업자료입니다. * 목차 1. 학습과 평가를 위한 Dataset 개념 2. 학습최적화 : Optimizer, Momentum과 아이들 3. 학습최적화 : Mini-batch (미니 배치) 4. 학습최적화 : Batch Normalization (배치 정규화) 5. 학습최적화 : The problem of local optima 1. 학습과 평가를 위한 Dataset 개념 - Training Dataset 처음 확인하는 것은 아키텍쳐가 많은 데이터 양을 잘 학습하도록 잘 구축되어 있는가를 확..
* 출저 본 개념정리는 제 지도교수님이신 연세대학교 정보대학원 김하영 교수님 수업과 Andrew 교수님의 Coursera 수업을 통해 얻은 정보를 통해 정리했습니다. 자료는 대부분 Andrew 교수님의 Coursera 수업자료입니다. * 목차 1. 과적합(Overfit) 해결 : Regulation(규제화) 2. 과적합(Overfit) 해결 : Drop-out(드롭아웃) 3. 과적합(Overfit) 해결 : data augmentation 4. 과적합(Overfit) 해결 : early stopping 5. 과적합(Overfit) 해결 : 모델 Size를 축소? 1. 과적합(Overfit) 해결 : Regualtion(규제화) - Regulation(규제화)가 왜 Overfit(과적합)을 해결하는가? 가..
* 출저 본 개념정리는 제 담당교수님이신 연세대학교 정보대학원 김하영 교수님 수업과 Andrew 교수님의 Coursera 수업을 통해 얻은 정보를 통해 정리했습니다. 자료는 Andrew 교수님의 Coursera 수업자료입니다. 1. 딥러닝의 학습 메커니즘 - loss function의 의미 예측값과 정답과 비교하는 함수이다. - Optimizer(옵티마이저) loss function을 기반하여 네트워크(파라미터)를 업데이터 하는 것이다. 2. 학습 : 손실함수 - 활성화 함수 (Activation function) - 손실 함수 (Loss function) 개념 - Task 종류에 따른 손실함수 (Loss function) 1) Regression 연속값 2) Binary Classification ..
* 출저 본 개념정리는 제 담당교수님이신 연세대학교 정보대학원 김하영 교수님 수업과 Andrew 교수님의 Coursera 수업을 통해 얻은 정보를 통해 정리했습니다. 자료는 Andrew 교수님의 Coursera 수업자료입니다. 1. Tensor 개념 2. MLE(Maximum likelihood estimation) 개념 - Maximum likelihood estimation(MLE) 개념 원래 모집단의 분포에 최대한 가깝게 파라미터를 추정하는 방법. 머신러닝의 목표는 미지의 데이터에(아직 확인하지 않은 데이터)에 대해 좋은 예측을 하는 것이다. 즉 데이터를 잘 설명할 수 있거나, 주어진 데이터로부터 결과값을 잘 예측하는 것들이 이에 속한다. 이것을 일반화라고 한다. (generation) 좋은..
* 논문 Forecasting stock prices with a feature fusion LSTM-CNN model using different representations of the same data * 목차 1. Contribution 2. Input data 3. Output data, Performance measure 4. Modeling 5. Experiment and result 6. 한계점 1. Contribution 이 연구의 Contribution은 동일한 데이터에서 temporal(시간적) features와 image(이미지) features를 추출 및 조합하여 예측 오차를 줄이는 것입니다. 기존 각 features들을 유형에 따라 분리하여 사용하는 것보다 더 낳은 성능개선을 보..
1. computer vision - 이미지에 신경망 적용의 문제점 이미지의 각 픽셀에 동일한 값(가중치)로 계산되어지지 않는다. 픽셀값 하나만 달라져도 다르게 계산되어진다. 즉 픽셀마다 다른 가중치(W)값을 곱해 계산한다. 이로 인해 아래와 같은 문제점이 생긴다. 1). 데이터 양 확보 어려움 : 많은 파라미터 때문에 생긴 과대 적합을 방지하도록 충분한 데이터를 얻는 것을 어렵. 2). 컴퓨터 성능 확보 어려움 : 많은 파라미터 가진 신경망을 단련하기 위한 컴퓨터, 메모리 요구사항 실행불가. 그렇다고 작은 이미지 한정해서 사용하는 것 원치 않음 그래서 나온 것이 Convolutional Neural Networks다. - 이미지에서 우리가 원하는 기능 => 아래 2가지가 구현되면서 파라미터 수를 대..
* 참고자료 및 강의 - cs231n 우리말 해석 강의 https://www.youtube.com/watch?v=y1dBz6QPxBc&list=PL1Kb3QTCLIVtyOuMgyVgT-OeW0PYXl3j5&index=6 - Coursera, Andrew Ng교수님 인터넷 강의 * 목차 1. 모델 발전 개요 2. 모델1 : LeNet-5 3. 모델2: AlexNet 4. 모델3 : ZFNet 5. 모델4 : VGG 6. 모델5 : GoogLeNet 7. 모델6 : ResNet 8. 모델7 : DenseNet 1. 모델 발전 개요 - 모델 목표 더 깊은 네트워크를 만들면서, 성능을 높여간다. - 모델 목표를 위해 중요한 것. HOW? 어떻게 학습능력을 높여서 더 깊은 네트워크를 학습했는가? -..