전체 글 (161) 썸네일형 리스트형 Tensorflow, Keras 출처 : https://wikidocs.net/32105 07) 케라스(Keras) 훑어보기 이 책에서는 딥 러닝을 쉽게 할 수 있는 파이썬 라이브러리인 케라스(Keras)를 사용합니다. 케라스는 유저가 손쉽게 딥 러닝을 구현할 수 있도록 도와주는 상위 레벨의 인터 ... wikidocs.net Keras 훑어보기 (Keras Sequential API) Sequential() 을 model 로 선언 한 뒤 model.add() 를 통계 layer 를 단계적으로 추가합니다. model = Sequential() Dense : Fully Conntect layer 를 추가합니다. model = Sequential() model.add(Dense(1, input_dim=3, activation='relu').. 용어 정리 Multilinear polynomial (*polynomial : 다항식) In algebra, a multilinear polynomial is a multivariate polynomial that is linear (meaning affine) in each of its variables separately, but not necessarily simultaneously. It is a polynomial in which no variable occurs to a power of 2 or higher; that is, each monomial is a constant times a product of distinct variables. For example f(x,y,z) = 3xy + 2.5 y.. Stress GAN : A Generative deep learning model for 2d stress distribution prediction Abstract cGAN 을 사용하여 2D von Mises stress 를 예측. geometries, load, boundary condition 을 condition 으로 사용 기존 CNN 보다 high resolution stress distribution 예측에 성능 우수함 Introduction 기존에 DN 을 사용하여 residual/shear/von mises stress 를 예측하는 문헌은 많았음. 하지만 geometry 와 B.C 가 고정되어있어 범용적인 사용이 어려웠음. 본 문헌에서는 GAN 을 사용하여 그 한계를 극복. Dataset 은 128x128 fine-mesh 로 38,400 sample 을 사용했으며 10 개 Pattern 의 Load position 과 8개 패턴의 BC.. Andrew NG 강의 정리 [데이터의 종류] - Structed Data : DataFrame - Unstructed Data : Audio, Image, etc CNN 은 layer depth 가 증가 하면 이론과 다르게 error 가 증가하나, skip connection 을 적용하면 에러가 지속적으로 감소 ResNET 이 좋은 이유는 skip connection 이 항등 함수 역할을 하기 때문에, 성능에 손해가 없고 운이 좋다면 추가된 hidden layer 에 의한 성능 개선도 기대 할 수 있음 Object Detection 등 아직 미수강 PatchGAN Discriminator 뽀개기 원글 출처 : https://brstar96.github.io/mldlstudy/what-is-patchgan-D/ (NN Methodology) PatchGAN Discriminator 뽀개기 본 글은 개인적으로 스터디하며 정리한 자료입니다. 간혹 레퍼런스를 찾지 못해 빈 곳이 있으므로 양해 부탁드립니다. brstar96.github.io GAN Loss 원글 출처 : https://velog.io/@hyebbly/Deep-Learning-Loss-%EC%A0%95%EB%A6%AC-1-GAN-loss [Deep Learning👽] Loss 정리 1️⃣ : GAN loss 간단하게 딥러닝을 할 때 사용되는 Loss 몇 개를 정리해 보고자 한다. ✅ GAN Loss (Minimax Loss) velog.io minimax loss function GAN에서 사용하고 있는 loss function은 minimax loss로, 식은 다음과 같다. 각각의 항은 다음을 의미한다. 첫번째 항: real data x를 discriminator 에 넣었을 때 나오는 결과를 log 취했을 때 얻는 기댓값 두번째 항: fake data z를 generator에 넣었을 때 나.. 기울기 소실(Gradient Vanishing)과 폭주(Exploding) 원글 출처 : https://wikidocs.net/61375 06) 기울기 소실(Gradient Vanishing)과 폭주(Exploding) 깊은 인공 신경망을 학습하다보면 역전파 과정에서 입력층으로 갈 수록 기울기(Gradient)가 점차적으로 작아지는 현상이 발생할 수 있습니다. 입력층에 가까운 층들에서 가중 ... wikidocs.net 깊은 인공 신경망을 학습하다보면 역전파 과정에서 입력층으로 갈 수록 기울기(Gradient)가 점차적으로 작아지는 현상이 발생할 수 있습니다. 입력층에 가까운 층들에서 가중치들이 업데이트가 제대로 되지 않으면 결국 최적의 모델을 찾을 수 없게 됩니다. 이를 기울기 소실(Gradient Vanishing) 이라고 합니다. 반대의 경우도 있습니다. 기울기가 점차 커.. 과적합 (Overfitting) 을 막는 방법들 원글 출처 : https://wikidocs.net/61374 05) 과적합(Overfitting)을 막는 방법들 학습 데이터에 모델이 과적합되는 현상은 모델의 성능을 떨어트리는 주요 이슈입니다. 모델이 과적합되면 훈련 데이터에 대한 정확도는 높을지라도, 새로운 데이터. 즉, 검증 데이 ... wikidocs.net 1. 데이터의 양을 늘리기 모델은 데이터의 양이 적을 경우, 해당 데이터의 특정 패턴이나 노이즈까지 쉽게 암기하기 되므로 과적합 현상이 발생할 확률이 늘어납니다. 그렇기 때문에 데이터의 양을 늘릴 수록 모델은 데이터의 일반적인 패턴을 학습하여 과적합을 방지할 수 있습니다. 만약, 데이터의 양이 적을 경우에는 의도적으로 기존의 데이터를 조금씩 변형하고 추가하여 데이터의 양을 늘리기도 하는데 이.. 이전 1 ··· 16 17 18 19 20 21 다음