본문 바로가기

ML, DL

(34)
Feedforward Network DL : 비선형 함수를 활용 affine transform : 선형으로 변형 activation function : 비선형을 활용 (... 추가 작성 필요 ...) [왜 Feedforward network 는 충분히 잘될 까] 1989,시벤코 정리 (universal approximation theorem) -> 하나 이상의 hidden layer 를 갖는 인공신경만은 임의의 연속인 다변수 함수 f를 원하는 정도로 근사 할 수 있다! -> 그러나 w1,w2..wn, bias, active func 이 잘못되거나 hidden layer neuron 수가 부족하다면 근사하는데 실패 할 수 있으며, 얼마나 큰 네트워크여야 하는지는 모른다 -> 모델 크기, hyper parameter 를 잘 조절해야 한다 ->..
머신러닝 기초 [기계학습 문제 해결 순서] 1. 해결 할 일(task) 에 대해 input, ouput 이 무엇인지 분석한다. - 회귀인지, 분류인지 - 라벨링이 되어있는지, 아닌지 2. 데이터를 이해한다 (EDA) - Missing value 채움, Outlier 제거 - 데이터 분포 및 값을 검토 - 모델링 시 주의점 파악 - 모델 선택 가설 수립 3. Train, Test 데이터를 대표성을 띄도록 임의로 나누고, metric 을 정의한다. *Validation set 이 필요한 이유 : 학습 중간 과정에 Model 성능 평가 가능, 모델링 진행자를 위해 존재 4. 피처엔지니어링과 모델링을 한다 - 피처엔지니어링 : 데이터 도메인 지긱을 활용하여 데이터 Feature 를 추가로 만들어 주는 과정 (고도화된 DL 에..
Pytorch
Tensorflow, Keras 출처 : https://wikidocs.net/32105 07) 케라스(Keras) 훑어보기 이 책에서는 딥 러닝을 쉽게 할 수 있는 파이썬 라이브러리인 케라스(Keras)를 사용합니다. 케라스는 유저가 손쉽게 딥 러닝을 구현할 수 있도록 도와주는 상위 레벨의 인터 ... wikidocs.net Keras 훑어보기 (Keras Sequential API) Sequential() 을 model 로 선언 한 뒤 model.add() 를 통계 layer 를 단계적으로 추가합니다. model = Sequential() Dense : Fully Conntect layer 를 추가합니다. model = Sequential() model.add(Dense(1, input_dim=3, activation='relu')..
Stress GAN : A Generative deep learning model for 2d stress distribution prediction Abstract cGAN 을 사용하여 2D von Mises stress 를 예측. geometries, load, boundary condition 을 condition 으로 사용 기존 CNN 보다 high resolution stress distribution 예측에 성능 우수함 Introduction 기존에 DN 을 사용하여 residual/shear/von mises stress 를 예측하는 문헌은 많았음. 하지만 geometry 와 B.C 가 고정되어있어 범용적인 사용이 어려웠음. 본 문헌에서는 GAN 을 사용하여 그 한계를 극복. Dataset 은 128x128 fine-mesh 로 38,400 sample 을 사용했으며 10 개 Pattern 의 Load position 과 8개 패턴의 BC..
Andrew NG 강의 정리 [데이터의 종류] - Structed Data : DataFrame - Unstructed Data : Audio, Image, etc CNN 은 layer depth 가 증가 하면 이론과 다르게 error 가 증가하나, skip connection 을 적용하면 에러가 지속적으로 감소 ResNET 이 좋은 이유는 skip connection 이 항등 함수 역할을 하기 때문에, 성능에 손해가 없고 운이 좋다면 추가된 hidden layer 에 의한 성능 개선도 기대 할 수 있음 Object Detection 등 아직 미수강
PatchGAN Discriminator 뽀개기 원글 출처 : https://brstar96.github.io/mldlstudy/what-is-patchgan-D/ (NN Methodology) PatchGAN Discriminator 뽀개기 본 글은 개인적으로 스터디하며 정리한 자료입니다. 간혹 레퍼런스를 찾지 못해 빈 곳이 있으므로 양해 부탁드립니다. brstar96.github.io
GAN Loss 원글 출처 : https://velog.io/@hyebbly/Deep-Learning-Loss-%EC%A0%95%EB%A6%AC-1-GAN-loss [Deep Learning👽] Loss 정리 1️⃣ : GAN loss 간단하게 딥러닝을 할 때 사용되는 Loss 몇 개를 정리해 보고자 한다. ✅ GAN Loss (Minimax Loss) velog.io minimax loss function GAN에서 사용하고 있는 loss function은 minimax loss로, 식은 다음과 같다. 각각의 항은 다음을 의미한다. 첫번째 항: real data x를 discriminator 에 넣었을 때 나오는 결과를 log 취했을 때 얻는 기댓값 두번째 항: fake data z를 generator에 넣었을 때 나..