광학 GNN, ‘올옵티컬’인가 (메시지패싱, 공정비교, 에너지)

광학 GNN, ‘올옵티컬’인가 (메시지패싱, 공정비교, 에너지)
광학 GNN, ‘올옵티컬’인가 (메시지패싱, 공정비교, 에너지)

 

HoloGraph(2602.07724v1)는 “자유공간 DONN에서 그래프 학습을 하겠다”는 큰 목표를 걸고, 그래프 메시지패싱의 정보 손실 문제를 optical skip channel(광학 스킵 채널)로 완화하려는 시도를 보여주는 개념 증명 논문입니다. 그래프를 DONN 입력으로 바꾸는 파이프라인(PCA→PPRGo top-k→k×d→N×N zero-padding)과, 레지듀얼 개념을 광학 경로(빔스플리터/미러)로 구현해 “추가 에너지 없이” 잃는 정보를 보상하겠다는 발상은 신선합니다. 다만 현재 증거는 PyTorch/FFT 기반 시뮬레이션 중심이며, “올-옵티컬 메시지패싱”의 엄밀성, 비교의 공정성, 에너지 3–4 orders 주장 근거를 더 조여야 결론이 논문형으로 단단해집니다.

메시지패싱: ‘광학이 무엇을 근사하는지’가 수식으로 더 정확히 고정돼야 합니다

논문은 GNN의 일반적 메시지패싱을 식 (1)로 제시하며, 이웃의 특징과 엣지 정보를 ϕ(·)로 변환하고 A(·)로 순열 불변 집계를 한 뒤 σ(·)로 노드 상태를 갱신한다고 설명합니다(3쪽). 그리고 HoloGraph의 핵심은 DONN의 “회절+위상 마스크” 연산을 **DiffMSG**라는 모듈로 묶어, 반복 적용으로 전파를 구성한다는 것입니다(5쪽, 식 (4)).

문제는 사용자가 짚은 대로 “올-옵티컬 메시지패싱”이라는 주장 대비, 그래프의 핵심 연산이 광학 바깥에서 이미 크게 결정된다는 점입니다. 실제로 입력 준비에서

PCA로 D차원 노드 특징을 d로 축소하고

PPRGo로 top-k 이웃을 선택한 뒤

k×d 행렬을 N×N으로 zero-padding해 DONN에 넣습니다(4쪽, 3.1절).

즉 이웃 집합 N(i)와 “어떤 이웃을 얼마나 중요하게 볼지”에 가까운 구조 정보가 PPRGo 단계에서 이미 반영됩니다. 이후 광학부는 선택된 이웃 특징 텐서를 회절/위상 변조로 섞어 분류기로 보내는 형태라, 독자 입장에서는 “그래프 메시지패싱을 광학으로 구현했다”기보다 “그래프를 PPRGo로 펼친 후 DONN으로 분류했다”로 읽힐 여지가 있습니다.

논문이 더 강해지려면, 최소한 다음 대응 관계를 명확히 써야 합니다.

식 (1)의 ϕ/𝒜/σ 중 어느 부분이 회절+위상 마스크(=DiffMSG)의 어떤 연산과 대응되는지

특히 PPRGo가 사실상 “가중 이웃 집계” 성격을 갖는다면, 광학부의 집계가 PPRGo 집계와 어떤 점에서 다르고 무엇을 추가로 학습하는지

현재는 “광학 모듈이 전자 메시지패싱과 comparable하다”는 문장이 나오지만(7쪽 Table 1 해석), 그 ‘comparable’의 수학적 의미가 더 단단해야 “domain-specific message passing mechanism” 주장(초록/서론)이 설득력을 얻습니다.

공정비교: 동일 split·동일 전처리·동일 이웃선택을 ‘강제’해야 결론이 깔끔해집니다

Table 1은 Cora-ML/Citeseer/Amazon Photo에서 HoloGraph가 85.3/77.6/94.8의 정확도를 보이고, PPRGo(87.2/74.3/95.0), GCN(87.0/77.1/94.5), DGNN(86.5/74.4/94.0)과 비교해 “경쟁력 또는 일부 우수”하다고 주장합니다(7쪽). 그런데 논문 본문에 “DGNN은 보고된 best setting을 가져왔다”고만 하고, split/seed/hyperparameter가 완전히 통일되었는지는 불명확합니다(7쪽). 또한 평가 설정 자체가 “테스트 1000 노드 랜덤 선택”으로 되어 있어(7쪽), 그래프 벤치마크에서 흔한 분산 문제(시드/스플릿에 따른 변동)를 피하기 어렵습니다.

이 논문이 “시뮬레이션 기반 개념 증명”을 넘어 “시스템/아키텍처 논문” 톤을 가지려면, 비교 공정성을 다음처럼 강제하는 것이 가장 빠른 보강입니다.

동일 split 고정 + 3~5 seeds 평균±표준편차(그래프는 이것만으로 신뢰도가 급상승합니다)

HoloGraph가 사용하는 전처리(PCA d, PPRGo top-k)를 디지털 베이스라인에도 동일 적용한 “동일 정보 조건” 비교(현재는 PPRGo 모델은 PPR 점수 가중 합을 쓰지만, 다른 모델에 동일 이웃 리스트를 어떻게 적용했는지 더 선명해야 합니다)

“DGNN best setting”을 가져오는 대신, 가능하면 동일 split에서 재현(혹은 최소한 재현 실패/차이 원인 명시)

흥미로운 점은, 논문이 이미 ablation을 꽤 잘 구성했다는 것입니다. 예를 들어 optical skip channel이 없는 baseline 정확도가 83.8%이고, 다양한 skip 연결 세팅이 모두 baseline을 이긴다고 보고합니다(8쪽 Figure 3). 또한 merged(여러 출력을 한 곳에 합침)보다 separate(각 스킵을 다른 레이어로 분리)가 낫다는 관찰도 제시합니다(8쪽).
이런 ablation의 설득력을 “공정 비교”까지 확장하면, ‘경쟁력’ 주장이 훨씬 깔끔해집니다.

에너지 효율: “광학 코어 vs 전체 파이프라인”을 분리해 보고해야 합니다

논문은 Table 2에서 frame/sec/Joule 기준으로 HoloGraph가 GPU/CPU 대비 3–4 orders 개선이라고 주장합니다(9쪽). 그런데 같은 페이지에서 **CPU/GPU는 ‘워크로드만’ 전력 측정**, HoloGraph는 **SLM 기반 하드웨어 셋업을 문헌 기반으로 추정(estimation)**했다고 명시합니다(9쪽). 이 자체가 “동일 기준 비교가 아니다”라는 신호입니다.

또한 “One frame refers to one whole graph inference”라고 정의하지만(9쪽), 실제 그래프 추론은 노드 단위/배치 단위가 흔하고, 무엇보다 HoloGraph는 PCA+PPRGo 전처리가 필수 경로로 들어갑니다(4쪽, 7쪽). 이 전처리 비용(시간/전력)이 frame 정의에 포함되는지 불명확하면, “end-to-end 효율” 주장은 보수적으로 읽힐 수밖에 없습니다.

그래서 에너지 파트는 다음처럼 두 장의 표로 쪼개는 것이 가장 효과적입니다.

Optical-core only: 광원+SLM(또는 마스크)+광학 경로+센서/ADC까지 포함한 “순수 광학 추론 코어”의 throughput/J와 지연

End-to-end: PCA/PPRGo(또는 대체 이웃 선택), 입력 구성/패딩, SLM 업데이트, 판독/후처리까지 포함한 전체 파이프라인의 throughput/J

그리고 각 표에서 “포함/제외”를 체크리스트로 고정하면, 3–4 orders 같은 강한 문장도 훨씬 방어가 됩니다. 논문도 free-space DONN이 “패시브 디바이스라 추가 에너지가 거의 없다”는 논리를 사용하지만(3쪽, 6쪽 스킵 채널은 passive device로 ‘no extra energy cost’ 주장), 실제 시스템은 SLM 구동/정렬/센서 읽기/전처리가 비용의 큰 부분이 될 수 있어, 이 경계선을 엄밀히 그어야 합니다.

HoloGraph는 그래프 학습을 DONN으로 가져오고 optical skip channel로 정보 손실을 보완하려는 아이디어가 분명합니다. 다만 PCA/PPRGo 의존으로 ‘광학 메시지패싱’의 범위가 흐려지고, 비교 실험과 에너지 산정의 기준이 완전히 동등하지 않아 결론은 조심스럽게 읽힙니다. 수식 대응, 동일 split·시드 평균, end-to-end vs optical-core 분리 보고가 보강되면 훨씬 강해집니다.

자주 묻는 질문 (FAQ)

Q. 논문이 말하는 optical skip channel은 정확히 무엇인가요? A. 입력(또는 이전 레이어의 신호)을 더 긴 회절 거리로 보내 “identity 정보”를 만들고, 특정 레이어 입력에서 기존 신호와 평균 결합하는 구조입니다. 예를 들어 layer 0의 입력을 4×z 거리로 회절시킨 f′0를 만들고, layer 4 입력에서 (기존 신호+f′0)/2로 합칩니다(식 (5)~(6)).

Q. 왜 “올-옵티컬 GNN” 주장에 비판이 나올 수 있나요?
A. 입력 준비에서 PCA로 특징을 줄이고, PPRGo로 top-k 이웃을 선택합니다(3.1절). 이웃 선택과 구조 정보 반영이 디지털에서 결정되므로, 광학부는 ‘선택된 이웃 특징을 섞는 인코더/분류기’에 가깝게 해석될 여지가 있습니다.

Q. 성능 비교에서 가장 먼저 추가하면 좋은 것은 무엇인가요?
A. 동일 split을 고정하고 3~5개 시드 평균±표준편차를 보고하는 것입니다. Table 1 비교에서 DGNN은 “보고된 best setting”을 가져왔다고만 되어 있어(7쪽), 동일 조건 재현과 분산 보고가 추가되면 “경쟁력” 주장이 훨씬 단단해집니다.

[출처]
https://arxiv.org/html/2602.07724v1

댓글 쓰기

0 댓글

이 블로그 검색

태그

신고하기

프로필