로데슈바르즈-엔비디아, 업계 최초로 '뉴럴 리시버(Neural Receiver)'에 대한 HIL(Hardware-In-the-Loop) 데모를 공개하고 훈련된 머신러닝 모델을 통해 향상된 성능을 기존의 신호 프로세싱 방식과 대비, 선보인다.

사진:로데슈바르즈
사진:로데슈바르즈

미래의 6G 무선 통신 표준을 위한 기술 구성요소 연구가 본격화되면서 6G용 인공지능-네이티브 무선 인터페이스에 대한 가능성 또한 모색되고 있으며 향후, 6G 네트워킹의 핵심 구성요소로 자리잡을 것으로 기대하고 있다

테스트 & 측정, IT 기술과 무선 통신 분야의 글로벌 기업 독일의 로데슈바르즈(Rohde & Schwarz)이 엔비디아와 협력하여 미래의 6G 기술을 위한 시뮬레이션에서 AI/ML(Artificial Intelligence/Machine Learning) 구현으로 한 걸음 더 앞서가고 있다.

두 회사는 27일부터 3월 2일(현지시간)까지 스페인 바로셀로나에서 열리는 MWC(Mobile World Congress) 2023에서 업계 최초로 '뉴럴 리시버(Neural Receiver)'에 대한 HIL(Hardware-In-the-Loop) 데모를 공개하고 훈련된 머신러닝 모델을 통해 향상된 성능을 기존의 신호 프로세싱 방식과 대비, 선보일 예정이다.
 
6G 물리계층의 청사진이 될 수 있는 5G NR 업링크 MU-MIMO(Multi-User Multiple Input Multiple Output) 시나리오에서 어떻게 뉴럴 리시버(신경 수신기) 접근방식이 수행되는지 확인할 수 있는 최초의 시연인 것이다.

이 셋업은 로데슈바르즈의 신호 생성 및 분석을 위한 하이-엔드 테스트 솔루션과 링크 레벨 시뮬레이션을 위한 엔비디아(NVIDIA)의 시오나(Sionna™) GPU 가속 오픈소스 라이브러리로 구성된다.

뉴럴 리시버는 무선 통신 시스템의 물리계층에 대한 신호 프로세싱 블록을 트레이닝된 머신러닝 모델로 대체하는 개념 중 하나다.

전 세계 주요 연구기관과 학계 및 업계 전문가들은 향후 6G 표준이 채널 예측(Channel Estimation), 채널 이퀄라이제이션(Channel Equalization), 디매핑(Demapping)과 같은 신호 프로세싱 작업에 AI/ML을 활용할 것으로 예상한다. 오늘날의 시뮬레이션은 뉴럴 리시버가 현재 5G NR에 사용된 고성능 결정론적 소프트웨어 알고리즘에 비해 링크 품질을 높이고, 처리량에 영향을 미칠 것임을 시사하고 있다.

머신러닝을 트레이닝하기 위해서는 데이터 세트가 절대적으로 필요하다. 하지만 필요한 데이터 세트에 대한 접근이 제한되거나 사용할 수 없는 경우도 많다. 현재의 초기 6G 연구 단계에서 신호 프로세싱 작업을 위한 머신러닝 모델을 트레이닝하기 위해서는 서로 다른 신호 구성을 가진 다양한 데이터 세트를 생성해야만 테스트 및 측정 장비가 실행 가능한 대안을 제공할 수 있다.

로데슈바르즈는 AI/ML 기반 뉴럴 수신기 셋업에서 R&S SMW200A 벡터 신호 발생기는 MIMO 2x2 신호 구성으로 80MHz 폭 신호를 업링크 방향으로 전송하는 두 명의 개별 사용자를 에뮬레이션한다. 각 사용자는 독립적으로 페이딩되고, 실제 무선 채널 조건을 시뮬레이션하기 위해 노이즈가 적용된다.

수신기 역할을 수행하는 R&S MSR4 다기능 위성 수신기는 4개의 위상 동기식(Phase-Coherent) 수신 채널을 사용하여 3GHz의 반송파 주파수에서 전송된 신호를 캡처한다. 그런 다음, 이 데이터는 실시간 스트리밍 인터페이스를 통해 서버로 전송된다. 여기에서 이 신호는 R&S VSE(Vector Signal Explorer) 마이크로 서비스를 비롯한 R&S SBT(Server-Based Testing) 프레임워크를 이용해 사전 프로세싱된다.

VSE(벡터 신호 탐색기) 신호 분석 소프트웨어는 신호를 동기화하고, FFT(Fast Fourier Transforms)를 수행한다. FFT를 적용한 데이터 세트는 엔비디아 시오나를 이용해 구현된 뉴럴 리시버의 입력이 된다.

엔비디아의 시오나는 링크 레벨 시뮬레이션을 위한 GPU 가속 오픈소스 라이브러리이다. 이는 복잡한 통신 시스템 아키텍처에 대한 신속한 프로토타이핑을 지원하고, 6G 신호 프로세싱을 위한 통합 머신러닝을 기본적으로 지원한다.

이 데모에서는 결정론적 소프트웨어 알고리즘에 기반한 기존의 신호 프로세싱 기법이 적용된 전통적인 개념의 LMMSE(Linear Minimum Mean Squared Error) 수신기 아키텍처와 비교하여 트레이닝된 뉴럴 수신기의 성능을 확인할 수 있다. 이러한 고성능 알고리즘은 현재의 4G 및 5G 이동통신 네트워크에 이미 널리 적용되어 있다.

로데슈바르즈의 테스트 & 측정 사업부 수석 부사장인 안드레아스 파울리(Andreas Pauly)는 “머신러닝 알고리즘을 이용한 무선 통신 신호 프로세싱은 현재 업계에서 가장 뜨거운 이슈이며, 종종 업계 전문가들 사이에 논쟁의 대상이 되기도 합니다. 우리는 엔비디아와 같은 파트너와 협력하여 테스트 베드를 구축하게 된 것을 매우 기쁘게 생각합니다"라고 말했다.

이어 "이를 통해 연구자들과 업계 전문가들이 데이터 중심 접근방식을 기반으로 모델을 검증하고, 신호 생성 및 분석을 위한 로데슈바르즈의 선도적인 테스트 솔루션을 사용하여 HIL 실험으로 이러한 모델을 테스트할 수 있게 되었습니다.”라고 덧붙였다.

엔비디아의 통신 부문 수석 부사장인 로니 바시타(Ronnie Vasishta)는 “트레이닝된 ML 모델은 기존의 신호 프로세싱에 비해 성능을 크게 향상시킬 수 있는 잠재력을 가지고 있습니다"라며, "로데슈바르즈와 엔비디아의 뉴럴 리시버에 대한 이번 HIL 데모는 6G 기술에서 AI와 머신러닝의 유용성을 입증하는 업계의 중요한 이정표가 될 것입니다”라고 말했다.

한편, 인공지능 머신러닝 기반 무선 인터페이스는 네트워크에 보다 깊숙이 지능을 부여하여 송신기와 수신기의 실시간 신호 처리 작업에 적용한다. AI/ML이 전체 프로세스에 도입되면, 모든 채널, 하드웨어, 애플리케이션에 적용되는 무선 인터페이스까지도 스스로 최적화 상태를 유지할 수 있다.

이는 곧 미래의 네트워크가 모든 데이터 소스, 애플리케이션, 이용 사례 등에 완벽하게 적응할 수 있다는 것을 의미한다. 이와 같은 유연성은 산업용 통신 시스템과 같은 프라이빗 네트워크에서 그 장점이 극대화될 것으로 예상된다. 참고로 노키아 벨 연구소의 '6G AI 네이티브 무선 백서-다운)'를 통해 더 자세한 내용을 참고하면 도움이 될 수 있다.

저작권자 © 인공지능신문 무단전재 및 재배포 금지