ML, DL (34) 썸네일형 리스트형 과적합 (Overfitting) 을 막는 방법들 원글 출처 : https://wikidocs.net/61374 05) 과적합(Overfitting)을 막는 방법들 학습 데이터에 모델이 과적합되는 현상은 모델의 성능을 떨어트리는 주요 이슈입니다. 모델이 과적합되면 훈련 데이터에 대한 정확도는 높을지라도, 새로운 데이터. 즉, 검증 데이 ... wikidocs.net 1. 데이터의 양을 늘리기 모델은 데이터의 양이 적을 경우, 해당 데이터의 특정 패턴이나 노이즈까지 쉽게 암기하기 되므로 과적합 현상이 발생할 확률이 늘어납니다. 그렇기 때문에 데이터의 양을 늘릴 수록 모델은 데이터의 일반적인 패턴을 학습하여 과적합을 방지할 수 있습니다. 만약, 데이터의 양이 적을 경우에는 의도적으로 기존의 데이터를 조금씩 변형하고 추가하여 데이터의 양을 늘리기도 하는데 이.. Tensorflow Normalization https://www.tensorflow.org/addons/tutorials/layers_normalizations 활성화 함수(Activation Function) 원글 출처 : https://wikidocs.net/24987 02) 인공 신경망(Artificial Neural Network) 훑어보기 인공 신경망에 대한 기본적인 내용들을 정리합니다. ##**1. 피드 포워드 신경망(Feed-Forward Neural Network, FFNN)**  앞서 배운 퍼셉트론에서는 계단 함수(Step function)를 통해 출력값이 0이 될지, 1이 될지를 결정했습니다. 이러한 매커니즘은 실제 뇌를 구성하는 신경 세포 뉴런이 전위가 일정치 이상이 되면 시냅스가 서로 화학적으로 연결되는 모습을 모방한 것입니다. 이렇게 은닉층과 출력층의 뉴런에서 출력값을 결정하는 함수를 활성화 .. 활성화 함수(Activation Function) 원글 출처 : https://wikidocs.net/24987 02) 인공 신경망(Artificial Neural Network) 훑어보기 인공 신경망에 대한 기본적인 내용들을 정리합니다. ##**1. 피드 포워드 신경망(Feed-Forward Neural Network, FFNN)**  앞서 배운 퍼셉트론에서는 계단 함수(Step function)를 통해 출력값이 0이 될지, 1이 될지를 결정했습니다. 이러한 매커니즘은 실제 뇌를 구성하는 신경 세포 뉴런이 전위가 일정치 이상이 되면 시냅스가 서로 화학적으로 연결되는 모습을 모방한 것입니다. 이렇게 은닉층과 출력층의 뉴런에서 출력값을 결정하는 함수를 활성화 .. 소프트맥스 회귀(Softmax Regression) 원글 출처 : https://wikidocs.net/35476 09) 소프트맥스 회귀(Softmax Regression) 앞서 로지스틱 회귀를 통해 2개의 선택지 중에서 1개를 고르는 이진 분류(Binary Classification)를 풀어봤습니다. 이번에는 3개 이상의 선택지 중에서 1개를 ... wikidocs.net 3개 이상의 선택지 중에서 1개를 고르는 다중 클래스 분류 문제를 위한 소프트맥스 회귀(Softmax Regression)에 대해서 배웁니다. 1. 다중 클래스 분류(Multi-class Classification) 앞서 로지스틱 회귀에서 사용한 시그모이드 함수는 입력된 데이터에 대해서 0과 1사이의 값을 출력하여 해당 값이 둘 중 하나에 속할 확률로 해석할 수 있도록 만들어주었습니다.. 다중 선형 회귀 행렬 연산으로 이해하기 원글 출처 : https://wikidocs.net/37001 08) 벡터와 행렬 연산 앞서 독립 변수 $x$가 2개 이상인 선형 회귀와 로지스틱 회귀에 대해서 배웠습니다. 그런데 다음 실습인 소프트맥스 회귀에서는 종속 변수 $y$의 종류도 3개 이상이 되면서 ... wikidocs.net 독립 변수가 2개 이상일 때, 1개의 종속 변수를 예측하는 문제를 행렬의 연산으로 표현한다면 어떻게 될까요? 다중 선형 회귀나 다중 로지스틱 회귀가 이러한 연산의 예인데, 여기서는 다중 선형 회귀를 통해 예를 들어보겠습니다. 다음은 독립 변수 x가 n개인 다중 선형 회귀 수식입니다. 이는 입력 벡터 [x1,...xn]와 가중치 벡터 [w1,...,wn]의 내적으로 표현할 수 있습니다. 또는 가중치 벡터 [w1,...,.. 로지스틱 회귀(Logistic Regression) 원글 출처 : https://wikidocs.net/22881 05) 로지스틱 회귀(Logistic Regression) 일상 속 풀고자하는 많은 문제 중에서는 두 개의 선택지 중에서 정답을 고르는 문제가 많습니다. 예를 들어 시험을 봤는데 이 시험 점수가 합격인지 불합격인지가 궁금할 수도 있 ... wikidocs.net 1. 이진 분류(Binary Classification) 앞서 선형 회귀를 설명하며 공부 시간과 성적 간의 관계를 직선의 방정식으로 표현한다는 가설 하에, 주어진 데이터로부터 가중치 w와 편향 b를 찾아 데이터를 가장 잘 표현하는 직선을 찾았습니다. 그런데 이번에 배울 둘 중 하나의 선택지 중에서 정답을 고르는 이진 분류 문제는 직선으로 표현하는 것이 적절하지 않습니다. 학생들이 시험.. GAN 학습이 어려운 이유 원글 출처 : https://chaelin0722.github.io/gan/6-Why-it-is-so-hard-to-train-Generative-Adversarial-Networks!/ GAN GAN 은 정규 분포 또는 균일 분포를 사용하여 잡음 z 를 샘플링 하고 심층 네트워크 생성기 GG 를 사용하여 이미지 x(x=G(z))x(x=G(z))를 생성 합니다. GAN에서는 판별자 입력이 실제인지 생성되었는지 구별하기 위해 판별자를 추가합니다. 입력이 실제일 확률을 추정하기 위해 값 D(x)을 출력합니다 . 목적 함수와 기울기 GAN은 다음과 같은 목적 함수를 갖는 minmax game 으로 정의됩니다. minGmaxDV(D,G)=Ex∼Pdata(x)[logD(x)]+Ex∼pz(z)[log(1−D(G(z.. 이전 1 2 3 4 5 다음