"general"이라는 이름에서 알 수 있듯이, 이 모델은 많은 다양한 유형의 분석에서 사용됩니다.
GLM은 by far the m/c statistical approach for detecting task-related neural activation라고 할 수 있습니다.
기본적으로 matrix algebra에 대한 지식이 필요합니다.
하나 이상의 continuous 또는 categorical independent variable들, 즉 predictor들을 single, continuous dependent variable에 연결하는 역할을 합니다.
여기에서 single independent variable이 있는 가장 간단한 모델은 simple linear regression이 될 것입니다.
그리고 두 개이상이 predictor 또는 regressor가 있다면 이 때는 multiple regression이 됩니다.
GLM이 강력한 도구가 되는 이유는 많은 다른 분석들(one-sample t-test, two-sample t-test, paired t-test, ANOVA, ANCOVA (ANOVA + covariate variables))이 이 것으로 실행될 수 있기 때문입니다. GLM은 ANOVA의 확장입니다. ANOVA는 독립변수가 하나일 경우에 사용하며, GLM은 독립변수가 2개 이상일 경우에도 사용합니다.
아래의 그림을 보십시오.
이 Y를 설명하기 위한 것이 Xβ이고 여기에 Y와 Xβ 사이의 차이를 보정하여 주기 위한 에러값(가장 작은 것이 좋겠지요. 그래서 least square estimates라는 개념을 사용합니다)으로 ε이 추가가 됩니다.
그러면 Xβ는 X라는 design matrix와 β 라는 parameter들로 구성되어 있습니다.
여기에서 design matrix인 X의 각 로우(가로줄)은 각기 다른 시간대, 칼럼(세로줄)은 각기 다른 predictor/regressor를 의미한다고 보시면 되겠습니다.
그런데 모델을 좀 더 향상시키기 위해서는 즉, error를 줄이기 위해서는 "model everything"이라고 합니다. 즉, 실험적으로로로 관심이 없는 것이라고 모든 알려진 변수들을 모델에 집어넣어서 모델링을 하는 것이 좋다는 것입니다. 따라서 각 칼럼에 해당하는 여러 predictor들 중에서는 관심이 없는 것도 있고, 관심이 가는 것도 있습니다. 실제로 관심을 갖는 predictor를 우리는 effects of interest라고 이야기를 합니다.
아래의 그림을 보십시오.
여기에서 더 나아가서 우리는 β 라는 parameter를 구하기를 원합니다. 이 것을 구하는 것이 GLM입니다. 좀 더 자세히 이야기를 해 나가 보겠습니다.
댓글 없음:
댓글 쓰기