디지틀조선TV 유튜브 바로가기

HBM 다음은 HBF?… 낸드플래시의 극적 반전

임윤서 기자 ㅣ seoo@chosun.com
등록 2026.02.04 16:23

낸드플래시 가격 한 달 새 64.8% 폭등
HBM 용량 한계 넘는 'HBF' 새 대안으로 급부상

/디지틀조선TV

낸드플래시의 운명이 불과 몇 개월 만에 180도 바뀌었다. 지난해 상반기까지만 해도 낸드는 '대표적 공급과잉 품목'이었다. 코로나19 특수가 끝난 뒤 IT 기기 교체 수요가 급감하자 삼성전자와 SK하이닉스는 감산에 나섰고, '팔면 손해'라는 말까지 나왔다. 하지만 올해 1월 시장 인식은 완전히 전환됐다. 범용 128Gb 낸드플래시의 평균 거래가격이 한 달 새 64.8%나 폭등하며 9.46달러를 기록한 것이다. 지난해 말 5.74달러였던 가격이 순식간에 치솟으며 메모리 시장에 새로운 바람이 불고 있다.


이 같은 가격 급등의 배경에는 인공지능(AI) 산업의 질적 변화가 자리하고 있다. 그동안 AI 메모리 시장은 'HBM=AI 메모리'라는 등식에 갇혀 있었다. 그래픽처리장치(GPU)의 고속 연산을 위해서는 D램 기반의 고대역폭메모리(HBM)가 필수라는 인식이 지배적이었고, 실제로 HBM 시장은 폭발적으로 성장했다. 하지만 AI가 학습 단계를 넘어 추론 영역으로 확장되면서 메모리 수요의 본질이 달라지기 시작했다. 단순히 빠른 연산만이 아니라 방대한 데이터를 실시간으로 처리하고 저장하는 능력이 중요해진 것이다.


이런 배경에서 주목받는 기술이 HBF(고대역폭 낸드플래시)다. HBF는 HBM처럼 낸드플래시 칩을 수직으로 적층해 속도와 저장용량을 동시에 극대화한 제품이다. HBM에 쓰이는 실리콘관통전극(TSV) 기반 적층 기술을 낸드에 적용한 것으로, HBM과 기본 기술부터 공정 장비까지 대부분을 재활용하고 공유할 수 있다.


HBF의 성능은 주목할 만하다. HBM보다 속도는 다소 느리지만(80∼90% 수준) 용량은 최대 8∼16배까지 확장 가능하다. 최신 HBM3E 12단 한 개 용량이 36GB인 반면 낸드는 이미 321층을 쌓은 제품이 양산되고 있어 용량 확대에 훨씬 유리하다.


무엇보다 HBF는 HBM의 대체재가 아닌 보완재로 설계됐다는 점이 핵심이다. GPU가 AI 작업을 수행할 때 연산 자체보다 메모리에서 데이터를 가져오는 데 많은 시간이 소요된다. 이것이 바로 메모리 병목 현상이다. HBM이 처리할 수 없는 대용량 데이터는 네트워크로 연결된 데이터센터에서 전송되는데, HBF의 역할은 데이터센터 일부를 가져와 GPU 옆에 붙여주는 것이다. GPU는 HBM과, HBM은 HBF와 데이터를 주고받는 구조다.


여기에 더해 HBF는 AI 개인화 시대에 필수적인 기술로 평가받는다. 개인화 AI는 사용자의 과거 대화, 행동, 맥락을 기억해 즉각 대응해야 하는데, 휘발성 메모리인 HBM은 전원이 꺼지면 데이터가 사라진다. 반면 HBF는 낸드 기반의 비휘발성 메모리이면서도 기존 솔리드스테이트드라이브(SSD)보다 빠른 접근 속도를 제공해 '기억 저장장치'로서 개인화 AI 서비스에 적합하다.


이종환 상명대 시스템반도체학과 교수는 "AI 칩 관련해서는 추론을 위한 파라미터가 굉장히 많아지면서 기존 D램보다는 반영구적인 낸드 플래시의 특성이 더 유용하다"며 "수요가 지속적으로 증가할 것으로 예상되고, 점차 시장이 커지는 추세인 것만은 분명하다"고 분석했다.

샌디스크 공식 홈페이지에 소개된 SK하이닉스와의 HBF 산업 표준 협력 MOU 체결 관련 자료. /샌디스크 제공

국내 반도체 기업들은 HBF 개발 경쟁에 본격 뛰어들었다. SK하이닉스는 지난해 8월 미국 샌디스크와 HBF 표준화 양해각서(MOU)를 체결했다. 또 SK하이닉스는 최근 'AIN(AI-낸드) 패밀리'라는 차세대 낸드 전략을 발표하며 이르면 올해 낸드를 16단으로 적층한 HBF1 샘플을 출하한다는 계획을 밝혔다. 낸드 1위인 삼성전자(32%)는 아직 구체적인 차세대 낸드 방향성을 제시하지 않았지만 HBF 독자 개발에 속도를 내고 있는 것으로 알려졌다.


이 교수는 양사 간 경쟁 구도에 대해 "양사 간 낸드플래시 경쟁에서 누가 유리할지는 지켜봐야 하는 문제"라며 "얼마나 빨리 대응하고 선점하느냐가 관건이고, 양산성과 성능 이 두 가지가 가장 중요하기 때문에 본격적인 경쟁이 시작되고 나면 판가름날 것"이라고 전망했다.


업계는 HBF가 2027년쯤 상용화되고, 2030년부터 AI 가속기에 본격적으로 장착될 것으로 내다보고 있다. 다만 상용화까지 풀어야 할 과제도 적지 않다. 낸드는 열에 취약해 정상 동작 범위가 섭씨 85도 이하인데, AI 서버가 내뿜는 열기를 어떻게 극복할지가 숙제다. 또 낸드는 데이터를 쓰고 지울 수 있는 횟수가 셀 타입에 따라 수백 회에서 수만 회 수준으로, 횟수 제한이 없는 D램과 대비된다.


공급 문제도 남아있다. 주요 메모리 기업들은 그간 수익성 높은 HBM과 D램 설비 투자에 집중하느라 낸드 라인 증설 시기를 놓쳤다. 이런 상황 속에서도 AI 메모리 경쟁이 연산 속도를 넘어 저장 용량으로 확장되고 있다는 점은 분명하다. HBF는 '휘발성 고속 메모리'와 '비휘발성 저속 저장장치'라는 수십 년간의 이분법적 구도를 무너뜨리는 새로운 메모리 패러다임을 예고하고 있다.

최신기사


    최신 뉴스 더보기




        많이 본 뉴스

          산업 최신 뉴스 더보기

            많이 본 뉴스