同時ローカリゼーションとマッピング(SLAM)は、ロボットが完全な自律性と多機能性を実現するための重要なテクノロジーです。移動ロボットには、主に環境情報を検知してSLAMを実現するためのさまざまなセンサーが装備されています。マルチセンサーフュージョンアプリケーションの制限により、単一のセンサーの制限と複雑な環境変化への適応。たとえば、IMUの高周波出力は過度の動きを処理でき、カメラの特徴追跡はIMUのドリフトを克服でき、レーザーポイントクラウドは高精度の長距離深度情報など。低コストを前提に、豊富な環境情報、本論文では、IMU、深度カメラ、LIDARの利点を組み合わせて、視覚慣性レーザー融合に基づくSLAMアルゴリズムを研究および構築します。