본문 바로가기

ML, DL

(34)
Chapter2 - Probability Distribution
[통계 분석] 통계 기초 - 수학 기호 & 통계 기호 통계 기호 l 상징 기호 이름 의미/정의 P ( x ) 확률 밀도 함수 (pdf-probability density function ) P ( a ≤ x ≤ b ) = ∫ f ( x ) dx P ( A ) 확률 함수 사건 A의 확률 P ( A ∩ B ) 사건 교차 확률 사건 A와 B의 확률 P ( A ∪ B ) 사건 합동 확률 사건 A 또는 B의 확률 P ( A | B ) 조건부 확률 함수 이벤트 B가 발생한 경우 이벤트 A의 확률 Σ 통계에서는 수열의 합. 시그마. 수열의 모든 항을 더한것 더하다는 뜻 sum 에서 유래하여 그리스 기호 시그마로 s로 나타낸다. F ( x ) 누적 분포 함수 (cdf-Cumulative distribution function) F ( x ) = P ( X ≤ x ) E ..
Chater1 - Probability theory - 불확실성 (uncertainty) 이 발생하는 이유 .충분하지 못한 데이터 .관찰된 데이터의 noise - Probability theory : 불확실성을 정확하고 정량적으로 표현하는 수학적 프레임 워크 제공 - Decision theory : 불완전하고 모호한 정보로부터 최적의 예측안을 마련 - 확률의 법칙 - 확률 밀도 (Probability densities) - 평균과 공분산 (Expectations and covariances) *Covariance (COV, 공분산) : 두 개 이상의 확률변수의 상관 정도 (인과관계를 나타내지는 않음) - 베이지언 확률 (Bayesian probabilities) .확률을 고려 할 때, 빈도론자 (Freuqentist) 는 발생한 사건에 대한 빈도를 고려 ..
Pattern recognition & Machine learning 교재 정리 사이트 주소 http://norman3.github.io/prml/ PRML Sep 27, 2016 요즘 시간이 없어서 업데이트를 자주 못합니다. 그래도 생각날때마다 조금씩 내용을 업데이트하고는 있습니다. 앞으로도 계속 이런 식으로 진행될 것 같습니다. Mar 30, 2016 PRML Study 페 norman3.github.io
Entropy, Cross Entropy, KL Divergence 출처 : 초보를 위한 정보이론 안내서 - Entropy란 무엇일까 (hyunw.kim) 초보를 위한 정보이론 안내서 - Entropy란 무엇일까 딥러닝을 공부하다 보면 KL-divergence, cross-entropy 등에서 entropy라는 용어를 자주 접하게 됩니다. 이번 글을 통해서 정보이론의 아버지라 불리는 Shannon이 주창한 기초 개념인 entropy를 정리해봅니다. hyunw.kim Quantity of information : 정보량 - 어떤 내용을 표현하기 위해 물어야 하는 최소한의 질문 개수 (정보는 sequential 하다고 가정함...?? 예를 들어서 정수..) Information Entropy - 불확실성의 정도를 나타내는 개념 - Entorpy 의 값이 크다는 것은 정보를 ..
확률(probability), 가능도(likelihood), 최대우도측정(likelihood maximization) 출처 : 확률(probability)과 가능도(likelihood) 그리고 최대우도추정(likelihood maximization) (tistory.com) 확률(probability)과 가능도(likelihood) 그리고 최대우도추정(likelihood maximization) * 우선 본 글은 유투브 채널StatQuest with Josh Starmer 님의 자료를 한글로 정리한 것 입니다. 만약 영어듣기가 되신다면 아래 링크에서 직접 보시는 것을 추천드립니다. 이렇게 깔끔하게 설명한 자료 jjangjjong.tistory.com https://youtu.be/XepXtl9YKwc - 확률 (Probability) = P(관측값 X | 확률분포 D ) *확률분포(probability distribut..
Tensorflow checkpoint 출처 : https://eehoeskrap.tistory.com/343 [TensorFlow] .ckpt vs .pb vs .pbtxt 차이점 간단하게 말하자면 아래와 같다. ckpt 파일 모델의 변수(가중치)인 체크포인트 파일 pb 파일 모델의 변수 + 구조 (즉, 전체 그래프) 로 이루어진 바이너리 파일 pbtxt 파일 pb 파일을 읽을 수 있는 텍 eehoeskrap.tistory.com train1.ckpt.data-00000-of-00001 모델의 구조를 제외한 모든 변수들을 포함, 모델 복원시 메타파일과 데이터 파일을 이용 train1.ckpt.index 데이터파일과 메타파일을 올바르게 매핑하기 위한 내부적으로 필요한 인덱스 파일임 train1.ckpt.meta 메타 그래프를 포함, 변수 값을..
Batch norm, layer norm, instance norm, group norm http://dongsarchive.tistory.com/74 Batch Norm, Layer Norm, Instance Norm, Group Norm 다양한 Normalization 기법들이 있어서 정리하고자 포스팅한다. Network layer의 output을 normalize 하는 경우 트레이닝 타임이 크게 감소하고, 학습이 잘 된다. 잘 되는 이유에는 초기에는 Internal Covariate S.. dongsarchive.tistory.com