본문 바로가기

연구/논문3

[논문정리, 미팅기록] Hard Sample Aware Network for Contrastive Deep Graph Clustering (AAAI 2023) Hard Sample Aware Network for Contrastive Deep Graph ClusteringYue Liu  et al. NIPS 2020c. https://arxiv.org/pdf/2212.08665https://github.com/yueliu1999/HSAN Abstracthard sample minig method에는 2가지 문제점이 있고, 우리는 이 문제점들을 해결하는 방법인 HSAN을 제안한다.😨Problem1. 유사성 계산에서 중요한 구조적 정보가 간과됨.  → Sol. 새로운 유사성 측정 기준 도입! (considering attribute embedding and structure embedding)😨Problem2. 어려운 부정 샘플에만 초점을 맞춤. 어려운 긍정 .. 2024. 5. 29.
[미팅 후 기록] What Makes for Good View for Conrastive Learning? (NIPS 2020) What Makes for Good View for Conrastive Learning?Yonglong Tian et al. NIPS 2020c. https://arxiv.org/pdf/2005.10243https://github.com/HobbitLong/PyContrast 이 논문을 보게된 배경...그래프에서 링크를 예측하는 것은 중요하다.→ 예측을 잘 하려면 경향성을 아는 것이 중요하다. (특정 값보단!!)→ 이 방안으로 Contrastive Learning이 뜬다.→ Contrastive Learning을 잘 하기 위해서는 View를 잘 만들어야 한다!→ "What Makes for Good View for Conrastive Learning?" Information Theory이 논문을 잘 이해.. 2024. 5. 29.
[논문정리, 미팅기록] What Makes for Good View for Conrastive Learning? (NIPS 2020) What Makes for Good View for Conrastive Learning?Yonglong Tian et al. NIPS 2020c. https://arxiv.org/pdf/2005.10243https://github.com/HobbitLong/PyContrast Main point in this paper •  reducing the mutual information(MI)•  keeping task-relevant in formation위를 만족 시킬 수 있는 View 찾기 → InfoMin Principle 3.1 Multiview Contrastive LearningMI량 >= K개의 방해 요소에 따른 상수 - InfoNCE 손실함수 = MI량의 하한   3.2 Three Regime.. 2024. 5. 23.