ایده جنجالی راننده تسلا؛ تلاش برای زیرگرفتن کودک با هدف اثبات امنیت سیستم خودران
خودروهای ساخت تسلا بهدلیل داشتن فناوریهای پیشرفته همواره در کانون توجه بودهاند. حتی شخص ایلان ماسک، مدیرعامل تسلا، بارها گفته است که محصولات این شرکت فراتر از خودروهای عادیاند. یکی از جنبههای جذاب خودروهای تسلا سیستم خودران است. این سیستم برای فعالشدن به پیششرطهایی نیاز دارد و بهصورت کاملاً مستقل و بدون حضور راننده نمیتواند فعالیت کند.
یکی از عواملی که باعث شده است تسلا نتواند به سیستم کاملاً خودران دست پیدا کند، ترس از تصادفات منجر به فوت است. هیچ فرد عاقلی نمیتواند به خودرویی هوشمند برای رانندگی در محیطهای پر ازدحام اعتماد کند. در این زمینه، ویدئویی در شبکههای اجتماعی منتشر شده است که نشان میدهد خودرو تسلا هنگام دیدن عروسکی به ابعاد کودک در خیابان از حرکت نمیایستد.
خودرویی که در سمت راست تصویر دربرابر عروسکی هماندازه با کودک میایستد، به حسگر لایدار مجهز است. تسلا همچنان دربرابر استفاده از لایدار در خودروهایش مقاومت نشان میدهد
نام سیستم Full Self-Driving تسلا بهگونهای است که اکثر مردم فکر میکنند با سیستمی «کاملاً خودران» مواجه هستند؛ اما حقیقت این است که سیستم تسلا کاملاً خودران نیست؛ چون بهشرطی فعال میشود که رانندهای هوشیار در داخل خودرو حضور داشته باشد.
یکی از کاربران توییتر در توییتی بهظاهر طعنهآمیز گفته است که برای اثبات دقیقبودن سیستم خودران تسلا میخواهد تلاش کند کودکی را زیر بگیرد: «کسی در منطقهی خلیج سانفرانسیسکو کودکی دارد که بتواند جلو خودرو من هنگام فعالبودن قابلیت آزمایشی Full Self-Driving بدود تا موضوعی را اثبات کنم؟ قول میدهم که کودک را زیر نگیرم!»
کاربران شبکههای اجتماعی واکنشی گسترده به این توییت نشان دادند. انتقادها بهحدی شدت گرفت که نویسندهی توییت مجبور شد در چند توییت دیگر شفافسازی انجام دهد و بگوید واقعا بهدنبال زیرگرفتن کودکان نیست؛ زیرا فردی در صندلی راننده حضور دارد و هر مشکلی پیش بیاید، دست به کار میشود.
کارشناس ورج میگوید چنین ایدهای بسیار خطرناک است. بهگفتهی او، حتی اگر آزمایش با موفقیت پیش برود و مشکلی برای کودک پیش نیاید، ممکن است افراد دیگری بهدنبال تکرار این آزمایش در شرایط متفاوتی باشند و نتیجهی آزمایش آنها به صدمهدیدن کودکان منتهی شود.
دراینمیان، گاردین در گزارشی مینویسد گروهی متمرکز بر ایمنسازی فناوری که مخالف استفاده از سیستم خودران در خودروهای تسلا است، در آزمایشهایش متوجه شده که این خودروها احتمالاً برای کودکان در خیابان مرگبارند. این گروه پیشتر بارها تلاش کرده بود به بزرگترین تولیدکنندهی خودروهای برقی در دنیا ضربه بزند.
اعضای «پروژهی سپیدهدم» میگویند نتایج جدیدترین آزمایش جادهای نشان میدهد سیستم Full Self-Driving تسلا که در مرحلهی بتا بهسر میبرد، نتوانسته است در میانگین سرعت ۴۰ کیلومتربرساعت مانکن ثابت هماندازه با کودک را شناسایی کند. این ادعای جدید بخشی از پویش تبلیغاتی بزرگتری است که از مردم میخواهد کنگرهی آمریکا را برای ممنوعکردن استفاده از فناوری خودران در خودروهای تسلا زیر فشار بگذارند.
- فناوری خودران تسلا اتوپایلوت؛ مقصر احتمالی در تصادف منجر به فوت دو موتورسوار
- نسخه بتای سیستم کاملاً خودران تسلا بهدلیل مشکلات نرمافزاری متوقف شد
پروژهی سپیدهدم را دن اوداود بنیانگذاری کرده است؛ فردی که بارها بهصورت عمومی از ایلان ماسک انتقاد کرده و گفته است که تسلا خودروهای خودران غیرایمن را بیملاحظه تولید میکند. اوداود نتایج آزمایش اخیر را عمیقاً نگرانکننده قلمداد میکند و اعتقاد دارد که سیستم خودران تسلا تهدیدی مرگبار برای همهی آمریکاییها است. بهگفتهی اوداود درحالحاضر بیش از ۱۰۰ هزار رانندهی تسلا از سیستم Full Self-Driving در جادههای عمومی استفاده میکنند و همین موضوع باعث میشود کودکان در مناطق مختلف در خطر باشند.
تسلا تاکنون بارها از مواضع خود دفاع کرده و گفته است سیستم خودرانی که توسعه میدهد، بهحدی پیشرفته است که میتواند از تصادف جلوگیری کند. بااینهمه، سیستم خودران تسلا همواره پرحاشیه بوده و تاکنون چندین تصادف به این سیستم نسبت داده شده است.
پس از تصادفی مرگبار در ایالت تگزاس در سال ۲۰۲۱ که با آتشگرفتن خودرو تسلا همراه بود، ایلان ماسک گفت قابلیت Autopilot (نسخهی سادهتر Full Self-Driving) در لحظهی تصادف فعال نبوده است.
چند هفته پیش در جلسهای با سهامداران تسلا، ماسک گفت سیستم Full Self-Driving بهبودهای زیادی تجربه کرده است و احتمالاً تسلا تا پیش از پایان امسال قابلیت یادشده را برای تمامی رانندگانی دردسترس قرار میدهد که خواهان آن باشند. باوجوداین، سؤالاتی دربارهی امنیت سیستم خودران تسلا همچنان مطرح میشود.