2025-11-06 14:20-14:40 [B3-2] 신변보호
다중 이동통신사 셀 정보 예측을 위한 딥러닝 모델별 성능 분석
전주일*, 이정호, 조영수
GPS 음영 지역에서의 정밀 측위 기술은 단일 이동통신사(MNO)의 셀 정보에 의존할 때 명확한 한계를 가진다. 이 문제를 해결하기 위해, 본 논문은 신경망 기계 번역(NMT) 모델을 활용하여 한 통신사의
셀
정보로부터 다른 통신사의 셀 정보를 예측하는 방법을 제안한다. 특히, 이 문제에 가장 적합한 모델을 찾기 위해 대표적인 NMT 아키텍처인 Seq2Seq와 Transformer의 성능을 심층적으로 비교 분석한다.
구체
적으로, 특정 위치에서 관측된 서빙 셀과 이웃 셀들의 물리적 셀 ID(PCI), 주파수 채널(EARFCN) 등 고유 정보를 조합하여 하나의 시퀀스 '문장'으로 구성하였다. 이후, 동일 위치에서 측정된 통신사별 문
장
쌍으로 병렬 데이터셋을 구축하여, LSTM 기반의 전통적인 Seq2Seq 모델과 어텐션 메커니즘 기반의 Transformer 모델을 학습시켰다. 대전광역시 대전시청역 부근에서 수집한 셀 정보 데이터를 활용하여
예
측 정확도를 평가한 결과, Transformer 모델이 Seq2Seq 모델에 비해 평균 F1-Score가 약 15.8% 더 높은 월등한 성능을 보였다. 이는 Transformer의 셀프 어텐션 구조가 셀 정보 시퀀스 내의 복잡한 상호
관계
를 더 효과적으로 학습함을 시사한다. 본 연구 결과는 단일 통신사 데이터만으로 타 통신사의 셀 정보를 효과적으로 예측 및 생성할 수 있음을 보여준다. 이는 측위에 활용 가능한 데이터의 양을 증대시
켜,
셀 정보가 부족한 음영 지역에서도 정밀 측위의 정확도와 신뢰성을 향상시키는 핵심 기술로 활용될 수 있다.
Performance Analysis of Deep Learning Models for Multi-Carrier Cell Information Prediction
Juil Jeon*, Jung Ho Lee, Youngsu Cho
Precise positioning technology in GPS-denied areas has clear limitations when relying solely on cell information from a single Mobile Network Operator (MNO). To address this issue, this paper proposes a
method for predicting another carrier's cell information from one carrier's data using Neural Machine Translation (NMT) models. Specifically, to find the most suitable model for this task, we conduct an in-
depth
comparative analysis of the performance of representative NMT architectures: Seq2Seq and Transformer. We constructed a sequence 'sentence' by combining unique information such as the Physical Cell
ID
(PCI) and frequency channel (EARFCN) of serving and neighbor cells observed at a specific location. Subsequently, a parallel dataset was built with pairs of sentences from different carriers measured at
the
same location, which was used to train a traditional LSTM-based Seq2Seq model and an attention-based Transformer model. Using cell information data collected near Daejeon City Hall Station in Daejeon,
we
evaluated the prediction accuracy. The results showed that the Transformer model significantly outperformed the Seq2Seq model, with an average F1-Score approximately 15.8% higher. This suggests that
the
Transformer's self-attention mechanism more effectively learns the complex interrelationships within cell information sequences. The findings of this study demonstrate that it is possible to effectively predict
and
generate other carriers' cell information from a single carrier's data. This can be utilized as a core technology to enhance the accuracy and reliability of precise positioning in areas with poor cell coverage
by
augmenting the amount of available data for positioning.
Keywords: precise positioning, Seq2Seq, transformer, deep learning
 |
Speaker 전주일* 한국전자통신연구원 |
|