本研究は、自動運転車(AV)の知覚システムの脆弱性を検証するために、黒箱アプローチを提案している。具体的には以下の通りである:
既存の道路設計ガイドラインを形式化し、「自然な」シナリオを定義する。これらのガイドラインは、ごみ箱、看板、緑地などの日常的な道路脇オブジェクトの配置を規定している。
提案するTrashFuzzアルゴリズムは、これらのオブジェクトの配置を最適化することで、AVの知覚システムを欺き、交通法規違反を引き起こすシナリオを見つける。アルゴリズムは、ガイドラインに準拠した「自然な」シナリオを生成しつつ、効率的な探索を行う。
実装と評価では、Apollo自動運転システムとLGSVLシミュレータを使用した。結果として、TrashFuzzは15種類の交通法規違反を引き起こすシナリオを見つけた。これらのシナリオは、AVの知覚システムを欺いて、危険な運転行動を引き起こすものである。
本研究の成果は、自動運転車の安全性向上に向けて、既存の道路設計ガイドラインの見直しの必要性を示唆している。また、AVの知覚システムに対する新たな攻撃手法を提示し、その脆弱性を明らかにした。
Para Outro Idioma
do conteúdo original
arxiv.org
Principais Insights Extraídos De
by Yang Sun, Ch... às arxiv.org 09-18-2024
https://arxiv.org/pdf/2409.10562.pdfPerguntas Mais Profundas