General AI | NeurIPS·ICML·ICLR 완전 비교 가이드

NeurIPS, ICML, ICLR은 머신러닝/딥러닝 커뮤니티의 중심입니다. 확실한 이론 기여, 대규모 실험, 재현성은 세 학회 공통 핵심입니다. 학회별 특징을 더욱 자세히 알아보세요!
dkhan's avatar
Aug 22, 2025
General AI | NeurIPS·ICML·ICLR 완전 비교 가이드

🎓 왜 Tier 1일까요?

  • 인용·파급력: 핵심 알고리즘/이론·대형 벤치마크·표준 평가 프로토콜이 이곳에서 탄생/정립되는 경우가 많습니다. 이후 타 학회·저널·산업에 대량 인용/채택.

  • 낮은 수락률 & 촘촘한 리뷰: 매해 다르지만 대체로 낮은 수락률과(대략 두 자리수 초중반) 전문성 높은 메타리뷰·에리어체어 구조로 엄격한 품질 관리.

  • 생태계의 허브: 수천 편의 논문 + 수십 개 트랙(메인/워크숍/챌린지/튜토리얼/데모)이 동시 운영. 연구자–산업의 교차점이자 채용·협업의 장.

  • 규범 설정자: 재현성 체크리스트, 윤리/사회적 영향 서술, 코드/데이터 공개 문화 확산을 주도.

  • 커뮤니티 학습 속도: 스포트라이트·오럴·패널·튜토리얼을 통해 최신 방법이 빠르게 검증·비판·개선되며 지식의 반감기가 짧습니다.

스코프 차이: 이론/응용/Representation Learning

주제/성향

NeurIPS

ICML

ICLR

Representation Learning/딥러닝 코어

매우 강함

강함

핵심 강점

학습 이론/일반화/최적화

강함

매우 강함

중간–강함

응용(멀티모달/강화학습/그래프/사회과학 등)

범위 가장 넓음

넓음

중간–넓음

뉴로사이언스/인지과학 접점

상대적으로 활발

일부

일부

데이터셋·벤치마크·경진대회

활발(전용 트랙/챌린지)

활발

활발

  • ICLR: 표현학습·아키텍처·학습기제·해석/로버스트니스 같은 딥러닝 중심 논의에 특히 최적.

  • ICML: 이론·알고리즘적 기여의 선명도(정리·증명·경계 조건)와 탄탄한 실험 설계가 강점.

  • NeurIPS: 스펙트럼이 가장 넓음—멀티모달·RL·최적화·응용/사회과학·뉴로사이언스 교차까지.

💡

제출 팁

  • 이론 중심이면 ICML, 표현학습/딥러닝 코어면 ICLR, 응용 폭 넓은
    주제거나 새 벤치마크/멀티모달이면 NeurIPS가 비교적 어울립니다.

  • 단, 세 학회 모두 폭넓은 주제를 수용하므로 “핵심 기여의 무게중심”으로 최종 결정하세요.

워크숍 · 스포트라이트 · 데모 활용법

  • 워크숍(Workshop)

    • 아이디어 인큐베이터: 초기 아이디어/새 태스크/작은 데이터/실무 케이스를 빠르게 피드백 받기 좋음.

    • 정책: 다수 워크숍은 비아카이브(논문 아카이브)·확장 제출·중복 금지 규정이 상이하므로 공지 필수 확인.

    • 전략: 메인 제출 전 워크숍에서 에러 분석·문제정의를 더 날카롭게 다듬고 커뮤니티 피드백을 흡수.

  • 스포트라이트·오럴

    • 선정 기준: 기여의 선명도, 보편적 관심사, 실험 탄탄함, 설명력.

    • 발표 전략: 5–8분(스포트라이트 기준)에 “문제→핵심 아이디어→한 줄 수식/도식→대표 실험→어블레이션 한 컷→한계/향후 과제”를 빠르고 선명하게.

    • 포스터 연계: 발표 직후 포스터로 이동해 Q&A를 집중적으로 소화(FAQ 슬라이드 제작 추천).

  • 데모/엑스포/챌린지

    • 데모/엑스포: 실제 사용자 흐름, 지연/자원 사용량, 실패 케이스를 정직하게 공개하면 신뢰 상승.

    • 챌린지/리더보드: 규칙·데이터 누출 방지·평가 지표 정의가 핵심. 베이스라인·코드 공개는 채택 가능성을 높임

준비 로드맵 (주제 선정 → 실험 → 코드 공개)

권장 타임라인: ≥ 12–16주 전부터 역산

  1. 문제정의 & 기여 초안 (T-16~12주)

    • 1문장 문제정의(“왜 어려운가”)와 핵심 기여 2–3개를 먼저 고정.

    • 관련 연구 맵핑(강·약점 표) → 우리 기여의 공백(Gap) 명확화.

  2. 프로토타입 & 파일럿 (T-12~10주)

    • 소규모 데이터/축약 실험으로 효과의 존재를 조기 검증.

    • 실패 원인 기록(로그/시각화 템플릿) → 후속 어블레이션 설계에 반영.

  3. 정식 실험 설계 (T-10~7주)

    • 평가 프로토콜 확정(데이터 분할/시드/하이퍼파라미터/조기종료/선정 기준).

    • 어블레이션 플랜: 모듈 교체·하이퍼 파동·데이터 규모/잡음 민감도·연산/메모리.

    • 공정 비교를 위해 재현 가능한 베이스라인 스크립트 확립.

  4. 본실험 & 에러분석 (T-7~4주)

    • 메인 테이블 완료 → 오류 유형 분해(케이스 스터디), 일반화/강건성 시험(도메인 쉬프트, OOD).

    • 사회적 영향/윤리 리스크·완화 전략 정리.

  5. 글쓰기 스프린트 (T-4~2주)

    • 그림 1(핵심 아이디어/파이프라인)부터 제작 → 본문은 문제–아이디어–증거–한계 순으로 직관적 구성.

    • 체크리스트(재현성·윤리)와 데이터/모델 카드 초안 동시 작성.

  6. 리뷰·리버틀 대비 (T-2~0주)

    • 라이트하우스 리더 2–3명에게 프리리뷰 받아 주요 반박 포인트 선제 보완.

    • 부록에 추가 실험 슬롯(시간 나면 돌릴 수 있게 스크립트·시드 미리 준비).

    • 코드/모델 공개 레포 준비(README, 환경 yml, 실험 스크립트, 체크포인트, 라이선스).

  7. 제출 후

    • 리버틀 기간: 오해 정정 → 정량 근거(추가 표/그림/반례)로 간결 대응.

    • 거절 시: 코어 가설 유지하되 평가/분석 강화·데이터/문제정의 개선·워크숍/다음 라운드로 리스핀.

💡

필수 산출물 체크리스트

  • 재현성 체크리스트(데이터·코드·시드·자원)

  • 윤리/사회적 영향·한계·오남용 시나리오

  • 데이터/모델 카드, 라이선스

  • README + 1-클릭 재현 스크립트(run.sh)

  • 메인 테이블/어블레이션/실패 사례 도판 세트

Share article

Murfy 공식 블로그