본문 바로가기

전체 글344

4.5.4 고유벡터의 계산 행렬 A의 고윳값 $\lambda$이 구해지면 남은 것은 고유벡터 $\textbf{p}$를 간단하게 찾는 것입니다. 예제 1: 2 X 2로 사전 연습 $A = \begin{pmatrix} 3 & -2\\ 1 & 0 \end{pmatrix}$ 고윳값은 이미 구한 대로 $\lambda$ = 1, 2입니다. (참조: https://bizzengine.tistory.com/24) 4.5.3 고윳값의 계산: 특성방정식 벡터 $\textbf{p}$가 nxn 행렬 A의 고유벡터다(고윳값은 $\lambda$)라는 것은 어떤 상황일까? $(\lambda I - A)\textbf{p} = \textbf{0}$ $\textbf{0}$이 아닌 벡터 $\textbf{p}$에 행렬 $(\lambda I - A)$를 곱하.. bi.. 2019. 9. 6.
최대우도추정법 최대우도추정법? 우도함수(likelihood function)를 최대화하는 방법입니다. 우도함수(이산형 분포) $X_{1}, X_{2}, ..., X_{n}$는 모수 $\theta$를 가지는 이산형 확률분포 $f(x,\theta)$로부터 취한 확률변수입니다. 결합분포 $L(x_{1},x_{2}, ..., x_{n};\theta) = f(x_{1},x_{2}, ..., x_{n};\theta)= f(x_{1},\theta)f(x_{2},\theta)\cdots f(x_{n},\theta)$를 우도함수라 합니다. (변수는 $\theta$입니다.) $x_{1}, x_{2}, ..., x_{n}$을 표본의 값이라 할 때 표본의 우도 $L(x_{1},x_{2}, ..., x_{n};\theta)$는 결합확률$P(.. 2019. 9. 5.
Chap02 통계 학습(1) ● 통계 학습(Statistical Learning)이란? 우리가 관찰한 $Y_{i}$ 그리고 $X_{i} = (X_{i1}, ..., X_{ip})$ for $i = 1, ..., n$을 가정할 때 Y와 적어도 하나의 X와 관계가 있지 않을까 생각합니다. 이러한 생각을 모델로 표현해보면 $\mathbf{Y_{i}} = f(\mathbf{X_{i}}) + \mathbf{\varepsilon_{i}}$ 여기서 f는 알지 못하는 함수이고 $\varepsilon$은 평균이 0인 우연오차(random error)입니다. 간단한 예시를 보면 ● 다양한 값의 표준 편차 f를 추정하는데 어려움은 $\varepsilon's$의 표준 편차 때문입니다. ● 다양한 f 추정 ● 실생활에서의 통계 학습(Statistical .. 2019. 9. 5.
API with Python(feat.공공데이터포털)(2) - API데이터 확인하기 python으로 데이터를 불러오기 전에 참고문서를 보면서 내용을 확인합니다. 참고문서를 다운 받습니다. 서비스 인증키 활용을 봐둡니다. 서비스 개요에서 메시지 교환 유형이 Request-Response인걸 확인합니다. HTTP Method의 GET부분이 진하게 칠해져 있고 아래 요청 메세지 명세 보면 구체적으로 데이터를 어떻게 요청해야 하는지 나와있습니다. 여기서는 북한산을 예로 들었네요 위의 주소를 request하면 이러한 내용이 response된다는 것을 알 수 있네요 이렇게 데이터가 있다는 것을 알 수 있습니다. 다음 시간에는 이제 python으로 데이터를 불러와서 정제하는 것을 배워보겠습니다. 감사합니다. 2019. 9. 5.