وسایل نقلیه خودمختار باید سریع و با دقت جهان را ببینند. اما درک زمان واقعی وقتی مدل شما در میلیون ها نقطه LIDAR و تصاویر با وضوح بالا غرق می شود ، سخت است. راه حل؟ همجوشی سنسور ، کمیت مدل و یک اسپری از شتاب Tensorrt.
بگذارید شما را از طریق نحوه بهینه کردن a قدم بزنم مدل ادراک چند حالته برای اجرای 40 ٪ سریعتر در حالی که آن را به اندازه کافی تیز نگه می دارد تا عابران پیاده و ماشین های پارک شده را گول بزند.
تنگنا: یک میلیون امتیاز ، یک میلیون مشکل
وسایل نقلیه خودمختار به لیدار و دوربینهر کدام دارای نقاط قوت و ضعف هستند. LIDAR در تخمین عمق، اما آن را تف می کند میلیون ها امتیاز در ثانیهبشر دوربین ها ارائه می دهند بافت ها و رنگ های غنی اما فاقد عمق است. فیوز هر دو در یک خط لوله به معنای متعادل کردن سرعت و دقتبشر
مشکل 1: تاخیر بین داده های LIDAR و دوربین
تا زمانی که لیدر اسکن را تمام کرد ، دوربین قبلاً یک قاب جدید را ضبط کرده است. این سوء استفاده به این معنی است که موقعیت های شیء مطابقت ندارند.
رفع: من استفاده کردم جبران حرکات نفس با فیلترهای کالمن برای تنظیم نقاط lidar به صورت پویا. در اینجا قطعه ای از نحوه عملکرد آن در پایتون آورده شده است:
import numpy as np
class EgoMotionCompensation:
def __init__(self, initial_pose, process_noise, measurement_noise):
self.state = initial_pose
self.P = np.eye(5) * 0.01
...