Chapter 6. Nonparametric Identification
by wholmesian안녕하세요, 가짜연구소 Causal Inference 팀의 남궁민상입니다.
Introduction to Causal Inference 강의의 여섯 번째 챕터이며, 해당 챕터에서 다루는 내용은 아래와 같습니다.
Contents
-calculus- Determining Identifiability from the Graph
◦ 강의 영상 링크 : Chapter 5 - Randomised Experiments and Identification
Ch 5와 6이 하나의 강의로 합쳐져 있습니다. 위 영상의 전반부는 교과서의 Ch 5, 후반부는 Ch 6 내용입니다. 그래서 여기서부터는 영상 제목과 챕터 제목이 안 맞습니다ㅠ
작성된 내용 중 개선점이나 잘못된 부분이 있다면 댓글로 알려주세요!
-calculus
잠깐 지금까지의 내용을 되짚어 볼까요? 우리가 원하는 것은 treatment
- 아주아주 간단한 경우, 다른 노드 없이
라면 statistical quantity가 곧 causal quantity입니다. 입니다. - 그런데 여러 노드들 사이의 관계가 복잡하게 엮이면, $P(y\:|\:do(t))$를 계산하기 위해 더 복잡한 과정이 필요합니다.
- graph factorization을 통해 노드들 사이의 관계를 쭉 늘어놓고
- 우리가 관심없는 것들($T$를 제외한 노드들)은 marginalize하고
- 그리고 $do(t)$ 항을 없애는 방향으로(observation으로 바꿔나가는 방향으로) 식을 정리한다.
- 이 과정이 지난 시간에 배웠던 adjusting for confounders입니다.
앞서 다룬 backdoor criterion과 frontdoor criterion은 이런 과정이 간단한 케이스입니다. DAG만 쓱 보고도 identify할 수 있는 특수 케이스죠. 그런데 특수 케이스 말고, 일반적인 접근법은 없을까요?
당연히 있습니다! 이 과정에 쓰일 수 있는 3가지의 inference rule이 있는데, 이 일련의 규칙들이 바로

쉽게 말하자면,
밑에 자세히 설명하겠지만
-calculus의 의미를 쉽게 설명하자면...
Rule 1: ~~한 조건이 만족된다면, ~~에 대한 observation을 무시할 수 있다.
Rule 2: ~~한 조건이 만족된다면, ~~에 대한 intervention을 observation으로 간주할 수 있다.
Rule 3: ~~한 조건이 만족된다면, ~~에 대한 intervention을 무시할 수 있다.
또는 3개의 규칙 모두...
DAG를 ~~하게 조작했을 때,와 가 d-separated 관계라면 에 대한 항을 무시 or 치환할 수 있다.
-calculus를 위한 몇 가지 표기법
또는 : 조작변인. 우리가 그 영향력을 알아보고자 하는 노드들. : 종속변인. 쉽게 말하면 결과. 우리가 궁극적으로 원하는 것은 $P(y\:|\:do(t))$를 알아내는 것.
또,

Causal graph
: 집합 에 포함된 노드들의 incoming edge ( 인 엣지)를 제거한 그래프 : 집합 에 포함된 노드들의 outgoing edge ( 인 엣지)를 제거한 그래프
처음 보는 표기법이지만, 직관적으로 이해하기는 어렵지 않을 겁니다. 노드 사이의 관계가 폭포처럼 위에서 아래로 흐른다고 생각해봅시다.
: 위를 막는다 → 부모로부터 오는 엣지 차단 : 아래를 막는다 → 자식한테 넘겨주는 엣지 차단
그럼 본격적으로
Rule 1: Observation의 삽입 / 제거
수학적인 의미를 풀어보자면, 우리가
조금 직관적으로 풀어보자면,

예시 하나 살펴볼까요? 위와 같은 그래프를 생각해보자. (여기서는 $T$ 대신 $X$라는 문자를 사용합니다)
$X\rightarrow Y$에 대한 인과관계를 밝히고 싶은데, $Z$를 신경써야 할까요?
직관적으로 봤을 때도,
Rule 2: Action ↔ Intervention의 교환
그런데 Rule 1을 아무리 활용해도 식에 do-operator가 있는 걸 없앨 수는 없죠? 그걸 해주는 게 Rule 2입니다!
수학적으로는, $G_{\overline{T},\underline{Z}}$에서 $(Y {\perp\!\!\!\perp} Z\:|\:T,W)$가 성립하면 $Z$에 대한 intervention은 observation과 같습니다. 즉, $Z$에
직관적으로는,

마찬가지로 위와 같은 예시를 생각해봅시다. 여기서
Rule 3: Action의 삽입 / 제거
규칙 3은 꽤나 복잡하게 생겼습니다.
먼저

위 케이스에서,
따라서

반면 이 경우, 하나 있는
그러면 두 케이스에서
Application
앞서서 frontdoor & backdoor adjustment는
Backdoor Adjustment


Frontdoor Adjustment

-calculus의 특징
- Complete:
-calculus의 3가지 규칙을 이용하면 모든 identifiable causal estimand를 identify할 수 있습니다. 다시 말해, 이 세 가지 규칙을 이용해도 identify하지 못하는 케이스는 그냥 identify할 수 없는 케이스입니다. - Nonparametric:
-calculus는 데이터 분포에 대해 특별한 가정을 하지 않습니다. 특정 분포를 가정했을 때는 parametric identification이라고 불리며 nonparametric에 비해 더 많은 causal estimand를 알아낼 수 있다고 합니다. 하지만 이 코스에서는 다루지 않는다네요.
Determining Identifiability from the Graph
있습니다! Unconfounded Children Identifiability라고 불리는 케이스입니다. 아래와 같은 경우죠.
하나의 conditioning set으로의 자손 중에 의 조상인 것들로 통하는 backdoor path를 모두 막을 수 있다면, 는 identifiable하다.
frontdoor adjustment와 비슷해 보입니다. 자세한 예시를 볼까요?

위의 그림에서 frontdoor는 만족하지 않지만 confounded children은 만족한다. Confounded children criterion이 좀 더 일반적인 기준인 셈이죠.
이 외에도 hedge condition이라는 게 있긴 한데, 이 강의에서는 다루지 않습니다.
참고자료
블로그의 정보
가짜연구소 Causal Inference Lab
wholmesian