최대 1 분 소요

“LightGCN: Simplifying and Powering Graph Convolution Network for Recommendation”이란 논문에 대한 리뷰입니다.

원문은 [링크]https://dl.acm.org/doi/abs/10.1145/3397271.3401063?casa_token=ySupMmytd1gAAAAA:gO2tAeOoYLjD_t31QAguW_9LQN0G5gt2wStqegkmHfYkQIpPPAOm0ig0n_j2bbUM4oZm05T1Qcc)에서 확인할 수 있습니다.

KEY

GCN의 경우에 input feature가 rich한 경우에 해당한 것.

하지만 CF 데이터는 ID data라서 sparse하기에 적절하지 않다.

또한 (weight) transformation과 non-linear activation은 beneficial하지 않고 단지 neighborhood aggregation만이 중요한 것

  • 이는 비록 representation power가 더 좋더라도 training difficulty에 기인한 것이다. 즉 generalizability와 power간의 discrepancy

마지막에 score 계산 시 각 layer의 결과들을 모으게 된다.(transformation이 없으니 가능한 것)

  • layer 수가 늘어날 수록 embedding은 over-smoothed된다.
  • 각 layer는 서로 다른 semantics를 반영해서 그러하다. 이는 단순히 생각하면 Adj mat이 곱해지면서 proximity가 증가하기 때문
  • layer가 진행되면서 proximity order가 증가해 over-smoothed 그래서 다 모아야 적절히 smooth된 결과가 되는 것

또한 전처리할 때 self-connectness를 반영하지 않아도 된다.

  • 각 layer의 결과값을 합치기 때문에 self-connected path가 반영되어서 그런 것이라 생각

댓글남기기