1️⃣ 왜 토폴로지 딥러닝이 필요한가?
전통적인 딥러닝 모델(CNN, RNN 등)은 대부분 유클리드 공간 기반임.
→ 즉, 격자(이미지), 시계열(1D), 영상(3D)처럼 고정된 구조에서 동작함.
하지만 현실 데이터는 더 복잡함.
• 소셜 네트워크 = 사람들의 관계 → 그래프
• 뇌 연결망(fMRI, EEG) = 뇌 영역 간 복잡한 연결 → 네트워크
• 단백질 구조 = 3차원 접힘 형태와 구멍 → 고차원 위상 구조
이런 데이터는 격자 위가 아니라, 비유클리드 공간(우리가 일반적으로 생각하는 직선, 평면, 격자 구조 같은 익숙한 공간이 아닌, 더 복잡하거나 휘어진 구조를 가진 공간) 위에 존재함.
→ 전통적인 딥러닝 구조로는 표현/학습하기 어려움.
그래서 등장한 게 Topology Deep Learning.
2️⃣ 토폴로지(Topology)란?
• 형태의 본질적인 특성을 다루는 수학
• 거리, 각도, 면적 X → 연결성, 구멍 수, 고리의 유무 O
• 예: 도넛과 머그컵은 위상학적으로 같음 (구멍 1개)
→ 도넛: 구멍이 하나 있음
→ 머그컵: 손잡이 구멍이 하나 있음
도넛을 쭉쭉 늘리고 휘면 머그컵이 될 수 있음. 끊기거나 구멍이 생기지만 않으면 같은 형태로 보기 때문.
즉, Topology는 “구조가 얼마나 복잡하게 얽혀 있냐”, “형태가 어떻게 생겼냐”를 다룸.
3️⃣ 토폴로지 딥러닝이란?
비유클리드 공간에 존재하는 데이터의 복잡한 구조와 연결성을 딥러닝으로 학습하는 방법론
기존 딥러닝이 다루는 건 주로 픽셀 간 거리/위치 관계
→ 토폴로지 딥러닝은 노드 간 구조, 고리, 구멍, 위상 변화 등까지 학습 대상으로 봄
4️⃣ 어떤 구조를 다루는가?
✅ 그래프(Graph)
• 노드(Node)와 엣지(Edge)로 구성
• 소셜 네트워크, 뇌 연결망, 웹 페이지 구조 등
✅ Simplicial Complex (단순 복합체)
• 노드-엣지를 넘어, 삼각형, 사면체 등 고차원 연결 구조까지 표현
• 고차 상호작용(3명 이상이 동시에 연결됨 등)을 모델링 가능
✅ 하이퍼그래프(Hypergraph)
• 엣지가 2개 이상의 노드를 한 번에 연결함 (예: 그룹 채팅 구조)
✅ Persistent Homology 구조
• 점들이 모여 구조를 형성할 때 구멍이 생기고 사라지는 과정을 추적
• 바코드 / 퍼시스턴스 다이어그램으로 위상 구조를 요약
5️⃣ 주요 기술/모델
Graph Neural Networks (GNN)
• 노드 간 정보를 message passing 형태로 전달
• 주변 노드의 정보를 취합하여 node representation 생성
📌 대표 모델
• GCN (Graph Convolutional Network): 그래프 위의 합성곱
• GAT (Graph Attention Network): attention으로 중요도 가중치 부여
• GraphSAGE: 샘플링 기반 확장 가능 구조
• MPNN: 메시지 전달 기반 일반형 GNN
Persistent Homology (TDA)
• Topological Data Analysis 핵심 기법
• 데이터가 커지거나 연결될 때 어떤 위상적 특징(구멍, 고리)이 얼마나 지속되는지 측정
• 이걸 벡터로 바꿔 CNN/GNN 등에 feature로 넣음
📌 사용 예:
• fMRI 데이터에서 특정 뇌 영역 간 연결 구조의 불안정성 측정
• 단백질 구조에서 고리형 접힘의 안정성 추출
고차 구조 신경망
• Simplicial Complex GNN
→ 삼각형, 사면체 등 고차 연결 구조 포함
• Cell Complex GNN, TopoNet, HodgeNet
→ 그래프보다 더 복잡한 위상 정보 처리 가능
6️⃣ 적용 사례
🧠 뇌과학 (Neuroscience)
• EEG/fMRI에서 뽑은 뇌 네트워크 → 그래프 구조
• 연결 밀도, 구멍 수 등 위상 특성이 환자/비환자군 구분에 활용됨
🔬 생물정보학 (Bioinformatics)
• 단백질의 접힌 구조는 단순 그래프 아님
• 접힘 구조의 위상 정보 → 단백질 기능 예측에 유용
📉 금융/시계열 + 그래프
• 센서 네트워크, 주식 연동 그래프 등에서
• 시간에 따라 위상 구조가 어떻게 바뀌는지 추적
7️⃣ 장점 요약
✅ 구조에 강함: 단순 위치 정보보다 형태 자체를 학습
✅ 불변성(Invariance): 회전, 크기 변화 등에 강건
✅ 일반화 가능성↑: 구조적 패턴은 소량 데이터로도 잘 학습됨
✅ 해석력↑: 무엇이 중요했는지 위상적으로 설명 가능
댓글