
2017년에 시도 했던 Machine learning을 다시 해 보려고주섬 주섬 코드를 찾고 그래픽 카드를 설치하고 머신러닝을 해 보려고 하는데몇가지 어려움이 생긴다. 1. 데이터가 커지니 전 처리가 쉽지않다. 그 동안 데이터가 100GB 이상, 3억건으로 커졌고 여기에 Label 을 붙이려고 하니 몇 일이 걸렸다. 2. 오래된 GTX1080Ti는 호환성을 맞추기가 참 어렵다. CUDA, Numpy Pandas 등 최신 버전을 사용 할 수 없고 예전 버전을 사용 해야 하는데, 그러면 최신 예제 코드들이 에러가 난다. 쓸 수는 있는데, 쉽지 않다. 3. 데이터가 커지니 학습도 쉽지 않다. 용량이 커지니 배치로 처리 하는데, 데이터를 가져 오고 학습하는 과정이 많..
이번에는 층을 늘여서 Regression을 해 보겠습니다. 층을 늘이기 위해서 마지막에 Wx+b 층 전 까지 Activation Function을 사용 해서네트워크들을 연결 해 주었습니다. Activation 은 Relu를 사용 했습니다.Relu 를 사용하면서 부터 Vanishing gradient라는 현상을 피할 수 있어서학습 layer를 깊게 쌓을수 있게 되었다고 합니다. 그림으로 표현해 보면 아래와 같습니다. 그리고 이렇게 층이 많아지면 W,B 도 같이 많아지게되고이러한 변수들의 초기값을 정하는 것이 중요한 문제가 됩니다. 왜냐하면 위의 그림만 하더라도 W 값이 19*50 + 50*50*18 + 19 개가 되고초기값이 적절하게 정해지지 못하면 학습 시간이 많이 걸리게 되기 때문 입니다. 이런 Wei..
CSV 파일을 이용해서 데이터를 가져오고간단한 1 layer regression 을 해 보겠습니다. 지난 포스트에서 사용했던 데이터를 이용해서모델을 만들어 보겠습니다. 입력 데이터는 19개 이고 출력 데이터는 0~1 의 실수를 갖는 모델 입니다.아래 그림과 같이 19개의 weight와 1개의 Bias가 필요 합니다. 수학 공식으로 나타내면y = w1*x1+b1 +w2*x2+b1+ w3*x3+b1 + ... + w17*x17+b1 + w18*x18+b1 _w19*x19+b1 제 데이터는 200만개 정도로200만개 중에서 랜덤으로 10000개씩 Batch 처리 해서 데이터를 불러와 학습하고오차율을 계산 해 보겠습니다. import tensorflow as tf with tf.name_scope("input"..
- Total
- Today
- Yesterday