NASNet, ‘설계’ 자체를 학습하다
모바일 및 엣지 환경에서의 효율성을
ShuffleNet이 공학적으로 다듬어낸 이후,
딥러닝 연구의 초점은 한 걸음 더 근본적인 질문으로 옮겨갔습니다.
"좋은 블록을 사람이 설계해야만 하는가?
그 '설계 규칙' 자체를 알고리즘이 학습하게 할 수는 없을까?"
NASNet(Neural Architecture Search Network)은
바로 이 질문에 답하려 했던 대표적인 시도입니다.
NASNet은 작은 데이터셋에서
좋은 '세포(Cell)' 구조를 자동으로 탐색한 다음,
그 세포를 큰 네트워크로 규모 확장(Scaling)하여
대형 데이터셋에서도 뛰어난 성능을 발휘하도록 하는
혁신적인 전략을 제시했습니다.
이러한 자동화된 아키텍처 탐색 아이디어는
이후 EfficientNet의 균형 확장(Balanced Scaling) 철학으로 이어지는
중요한 전환점이 됩니다.
NASNet의 핵심 아이디어: 명확하고 간결하게 다듬기
1. 셀(Cell) 기반 조립 방식
전체 네트워크를 사람이 일일이 설계하는 대신,
재사용 가능한 작은 부품(셀)을 만들어서 레고 블록처럼 반복적으로 쌓아 올립니다.
- Normal Cell: 이미지의 특징을 뽑아내는 기본 작업 셀.
- Reduction Cell: 이미지의 크기를 줄이는 작업 셀.
이 두가지 셀의 구조만 잘 찾으면 됩니다.
2. 작은 문제로 먼저 셀 찾기 (프록시 작업)
거대한 데이터셋(ImageNet)에서 완벽한 구조를 바로 찾으려면
시간과 비용이 너무 많이 듭니다.
- 먼저 작고 쉬운 데이터셋(CIFAR-10)에서 작은 모델을 이용해 최적의 셀 구조를 빠르게 찾습니다.
- 그렇게 찾은 최적의 셀 구조를 거대한 모델과 데이터셋에 그대로 적용(이식)합니다.
탐색 비용을 크게 줄일 수 있습니다.
3. 설계자를 학습시키는 인공지능 (컨트롤러)
RNN(순환 신경망)으로 만들어진
'컨트롤러(Controller)'가 신경망 설계자 역할을 합니다.
작동방식:
- 컨트롤러는 "이 연산을 써라", "저 연산을 연결해라" 같은 설계 명령을 내립니다.
- 그 명령대로 만들어진 셀을 학습시켜 성능(정확도)을 측정합니다.
- 성능이 좋으면 보상을 주고, 나쁘면 벌칙을 줍니다. (강화학습의 원리를 이용)
- 컨트롤러는 보상을 최대화하도록 스스로 학습하여 점점 더 좋은 셀 구조를 만드는 법을 깨닫게 됩니다.
4. 연산의 선택지 (Operation Set)
컨트롤러가 셀을 만들 때 사용할 수 있는 기본 연산(도구)들을 미리 정해줍니다.
3x3, 5x5 합성곱, 풀링(Pooling),
리고 특히 가벼우면서 효과적인 분리 합성곱(Separable Convolution) 등을 사용합니다.
너무 복잡하지 않고 효율적이면서도 다양한 표현력을 가진 연산들로
탐색 공간을 제한하여 효율성을 높였습니다.

NASNet의 성과 및 기술적 의미
NASNet의 접근 방식은
단순히 아이디어에 그치지 않고
실제 성능으로 그 잠재력을 입증했습니다.
NASNet이
CIFAR-10과 ImageNet과 같은 이미지 분류 벤치마크에서
당시 최고 수준의 정확도를 달성했다는 점은 큰 의미가 있습니다.
특히,
사람이 수년간 축적한 지식으로 설계한 아키텍처들보다
알고리즘이 자동으로 찾아낸 구조가
더 뛰어나다는 사실을 보여주었습니다.
Convolutional Neural Network의 성능 경쟁이 심화되던 시기에,
NASNet은
"어떤 연산을 어떻게 연결해야 가장 효율적일까?"
에 대한 답을 자동화했습니다.
이는 수많은 설계 후보를 컴퓨터의 힘으로 체계적으로 탐색했기에 가능했습니다.
신경망 설계의 새로운 시대
NASNet은,
딥러닝 아키텍처 설계 패러다임을
인간 중심(Human-designed)에서 기계 중심(Machine-designed)으로
전환하는 결정적인 계기를 마련했습니다.
이전에는 ResNet, Inception 등
연구자의 깊은 통찰과 수동적인 실험을 통해
블록 구조가 탄생했습니다.
하지만 NASNet이 제시한 Neural Architecture Search(NAS)라는 개념은,
신경망 자체를 설계하는 메타 지식(Meta-knowledge)을
알고리즘이 학습할 수 있음을 증명했습니다.
물론 NASNet의 컨트롤러 학습 방식은
여전히 막대한 컴퓨팅 자원을 필요로 한다는 한계가 있었습니다.
하나의 최적 셀을 찾기 위해
수백 GPU일 이상의 탐색 시간이 소요되었기 때문입니다.
그러나 이 원천 기술은 이후 연구자들이
탐색 공간을 더욱 효율적으로 줄이는 (DARTS 등),
그리고 탐색 시간을 획기적으로 단축하는
후속 연구에 박차를 가하는 촉매제가 되었습니다.
마무리: EfficientNet으로의 연결
NASNet의 혁신적인 아이디어,
'자동으로 찾은 최적의 셀 구조'와 그 구조를 '규모 확장(Scaling)하는 전략'은
곧바로 후속 연구의 주요 주제가 되었습니다.
NASNet의 성공은 단순히
"더 좋은 CNN"을 넘어
"가장 효율적으로 CNN을 확장하는 방법"에 대한
질문을 던졌습니다.
이 질문에 정교한 답을 제시하며
딥러닝 이미지 분류 시리즈 2부의 대미를 장식할 모델이
바로 EfficientNet입니다.
NASNet이 설계 자동화의 문을 열었다면,
EfficientNet은 최적의 확장 원칙을 정립함으로써
NAS 기술의 실용화와 모바일 딥러닝 시대의 가속화를 이끌었습니다.
참고 문헌
Zoph, B., Vasudevan, V., Shlens, J., & Le, Q. V. (2017). Learning Transferable Architectures for Scalable Image Recognition. arXiv:1707.07012. (CVPR 2018)
이미지 크레딧
NASNet 구조도: 원문(Zoph et al., 2017, arXiv:1707.07012 / CVPR 2018)을 바탕으로 필자 재제작.
이전 글: ShuffleNet, 2018 — 효율의 미학 (딥러닝 이미지 분류 시리즈 2부 ④)
ShuffleNet, 2018 — 효율의 미학 (딥러닝 이미지 분류 시리즈 2부 ④)
2018년, 효율이 ‘실속’이 되다 MobileNet이 연산을 분리해이론적 FLOPs를 줄이는 데 집중했다면,ShuffleNet은 한 발 더 나아가이렇게 물었습니다.“연산량을 줄였는데 왜 실제 기기에서는 빨라지지 않
bitwizx.tistory.com
다음 글: CondenseNet, 2018 — 구조적 압축의 실험 (딥러닝 이미지 분류 시리즈 2부 ⑥)
CondenseNet, 2018 — 구조적 압축의 실험 (딥러닝 이미지 분류 시리즈 2부 ⑥)
DenseNet의 연결성을, MobileNet의 효율로 2018년, 딥러닝 연구는 두 가지 축으로 나뉘어 있었습니다.하나는 NASNet처럼 자동으로 구조를 탐색하는 흐름, 또 하나는 MobileNet과 ShuffleNet처럼사람이 직접 설
bitwizx.tistory.com
'딥러닝 > 딥러닝 역사 시리즈 - 이미지 분류' 카테고리의 다른 글
| MixNet, 2019 — 혼합 커널의 탐색 (딥러닝 이미지 분류 시리즈 2부 ⑦) (0) | 2025.11.13 |
|---|---|
| CondenseNet, 2018 — 구조적 압축의 실험 (딥러닝 이미지 분류 시리즈 2부 ⑥) (0) | 2025.11.12 |
| ShuffleNet, 2018 — 효율의 미학 (딥러닝 이미지 분류 시리즈 2부 ④) (0) | 2025.11.02 |
| MobileNet, 2017 — 모바일 딥러닝의 시작 (딥러닝 이미지 분류 시리즈 2부 ③) (0) | 2025.10.30 |
| SENet, 2017 — 채널에 주목하다 (딥러닝 이미지 분류 시리즈 2부 ②) (0) | 2025.10.30 |