يحقق المنظمون الفيدراليون في الولايات المتحدة فيما إذا كان استدعاء سيارة تيسلا في شهر ديسمبر قد أدى بالفعل إلى إصلاح مشكلات السلامة في نظامي Autopilot وFSD.
حتى عندما تتصل بالطيار الآلي من المستوى الثاني لنظام مساعدة السائق المتقدم (ADAS)، وعلى الرغم من أنك تدرج بوضوح ما يمكنه وما لا يمكنه فعله، فإنه لا يزال بحاجة إلى مراقبة بشرية وثيقة - وللتأكد من قيام السائقين بذلك بالفعل.
هذا هو الاستنتاج الذي توصلت إليه الإدارة الوطنية للسلامة المرورية على الطرق السريعة (NHTSA) بعد الانتهاء من تحقيقها في الطيار الآلي لشركة Tesla، والذي بدأ في عام 2021.
ويطرح المزيد من الأسئلة والمتاعب المحتملة لشيء يراهن عليه الرئيس التنفيذي لشركة Tesla Elon Musk لمستقبل الشركة.
علاوة على ذلك، فإن أحدث التحقيقات التي أجرتها الإدارة الوطنية لسلامة المرور على الطرق السريعة، والتي فحصت ما يقرب من 1000 حادث على مدار خمس سنوات، أرجعت المئات من حوادث الطيار الآلي لشركة تسلا إلى سوء استخدام السائقين والنهج المتراخي الذي يتبعه النظام في مراقبة انتباه السائق.
وفحصت الوكالة 956 حادثًا تم الإبلاغ عنها وقعت بين عامي 2018 وأغسطس 2023، ووجدت أن سوء استخدام النظام تسبب في مقتل 13 شخصًا و"العديد من الحوادث الأخرى التي تنطوي على إصابات خطيرة".
وفقًا لمكتب التحقيقات المعيبة (ODI)، "لم يكن نظام مشاركة السائق الضعيف في شركة تسلا مناسبًا لقدرات التشغيل المتساهلة في نظام الطيار الآلي"، و"قد تكون أهمية ونطاق ضوابط النظام غير كافية لمنع إساءة استخدام السائق".