«Прискорений курс Ілона Маска» побіжно розглядає інженерні та нормативні збої

Незалежно від того, наскільки розумним чи далекоглядним хтось може здатися на поверхні, важливо пам’ятати, що в кінцевому підсумку вони люди та недоліки. Тільки тому, що їм вдається досягти успіху в деяких сферах, це не означає, що вони можуть робити те ж саме у всьому, що намагаються. Ось чому дуже важливо не ставити людей на занадто високий п’єдестал, тому що це буде боляче, коли вони впадуть. Новий документальний фільм, опублікований у New York Times
Нью-Йорк Таймс
і тепер трансляція на Hulu намагається поглянути на зусилля Ілона Маска щодо просування та продажу автоматизованого водіння на Tesla
TSLA
транспортних засобів, але не відповідає тому, що могло б бути.

При тривалості 74 хвилини «Прискорений курс Ілона Маска” намагається охопити багато питань, але в кінцевому підсумку здається, що витрачає занадто багато часу на деякі теми і недостатньо на деякі з найважливіших. Режисер Емма Шварц відкриває фільм з огляду на походження Tesla та спроби розробити автоматизовані транспортні засоби, що сягають рекламного фільму GM з 1956 року з концепцією Firebird II та DAR.
AR
PA Grand Challenge.

Однак, здається, що фільм пішло не так, це витрачає занадто багато часу на Джошуа Брауна. Браун був колишнім експертом із знешкодження бомб ВМС, який став першим відомим загиблим під час використання системи допомоги водієві AutoPilot від Tesla. Значна частина фільму віддана тому, що деякі з друзів Брауна почули, чому він був настільки закоханий у AutoPilot, що проїхав понад 45,000 2016 миль на своїй Model S за дев’ять місяців між випуском AutoPilot і його смертю в травні XNUMX року.

Хоча репортери New York Times Ніл Бодетт і Кейд Метц вміють пояснювати деякі обмеження AutoPilot, більшість людей, які, ймовірно, повинні дивитися подібний фільм, імовірно, мало або зовсім не знають, як працює автоматизоване водіння. Ці представники широкої громадськості отримали б велику користь від надійного прикладу, який розбирає численні помилки щодо автоматизованого водіння, багато з яких були оприлюднені самим генеральним директором Tesla Маском протягом багатьох років.

Глядачі могли б отримати кілька важливих уроків про те, що насправді потрібно для створення, тестування та перевірки автоматизованого транспортного засобу, якби у фільмі були інтерв’ю з професором інформатики Університету Карнегі-Меллона Філіпом Купманом або адвокатом з Енн-Арбора Дженніфер Дукарскі. Замість цього ми отримуємо багато слів від друзів Брауна, які пояснюють, наскільки він був зацікавлений у технологіях і чому він був настільки непохитний у тестуванні обмежень свого автомобіля.

До честі режисерів вони включали інтерв'ю з парою колишніх інженерів команди AutoPilot, членами Національної ради з безпеки на транспорті (NTSB), включаючи колишнього голови Роберта Сумволта та Браяна Томаса, колишнього директора з комунікацій Національної адміністрації безпеки дорожнього руху. (НХТ
HT
SA).

Рейвен Цзян і Дж. Т. Стакс визнали обмеження автопілота. «Ми хотіли спробувати зробити автопілот безпечним», – сказав Цзян.

«Під час цієї аварії я знав, що люди довіряли системі робити те, що вона не була розроблена або не здатна робити», — додав Стакс. «Той факт, що така аварія сталася, очевидно, трагічний, але це було те, що мало статися».

Однією з причин, чому це могло статися, є те, що Tesla вирішила спочатку використовувати камеру, а тепер систему лише з камерою. «Не було етапу глибокого дослідження, де різні транспортні засоби оснащувалися рядом датчиків, багатьом членам команди це хотілося б, замість цього спочатку був зроблений висновок, а потім тестування та розробка почали доводити, що висновок правильний».

За останні 15 років Маск просунув багато великих розробок у ракетобудуванні та популяризації електромобілів і програмно-визначених транспортних засобів. Але коли справа доходить до критично важливих систем безпеки, немає ярликів. Коли на карту поставлено життя, ті, хто створює технології, зобов’язані піклуватися про них. Якщо їм не вдається зробити це, як Маск неодноразово робив з автопілотом і повним самокеруванням, відповідальність цих людей несе регулятори безпеки.

У цьому я бачу найбільший недолік цього фільму. NTSB відповідає за розслідування транспортних аварій усіх видів, включаючи авіаційні, залізничні, морські та наземні транспортні засоби. Після аварії Брауна NTSB зробив багато чудових рекомендацій, включаючи вимогу більш надійного моніторингу водія для систем, які все ще потребують нагляду людини, як-от Tesla AutoPilot/FSD, GM Super Cruise та будь-які інші системи на дорозі сьогодні. NTSB також рекомендував, щоб системи були геозони до доріг, де вони можуть безпечно працювати.

NHTSA — це агенція, яка має регуляторні та правозастосовні повноваження щодо автомобільної промисловості. За шість років після смерті Брауна було багато інших смертельних аварій, пов’язаних із неправильним використанням автопілота, але NHTSA взагалі нічого не зробила для виконання будь-яких правил NTSB. Лише за останні 12 місяців після зміни адміністрації у Вашингтоні NHTSA навіть почало проводити серйозний збір даних про частково автоматизовані системи, і ніхто не здогадується, коли щось конкретне буде зроблено.

Фільм повністю кидає м’яч на розгляд того, чому NHTSA нічого не зробило для того, щоб переконатися, що системи часткової автоматизації насправді є безпечними та ефективними. У всякому разі, агентство дозволило Tesla продовжувати просуватися вперед, продаючи технологію, яка насправді не працює, і просувати її більше, ніж будь-коли. Справедливості заради варто відзначити, що інші державні установи, такі як Федеральна торгова комісія, також можуть намагатися вирішити принаймні маркетингову сторону цієї проблеми, але фільм не розглядає недоліки будь-яких державних чиновників.

У капіталістичній системі зовсім не незвичайно, що компанії намагаються втекти якомога більше в гонитві за прибутком. Завдання урядів — встановити огорожі, необхідні для захисту населення від недобросовісних компаній. Завдання журналістів – врахувати всі недоліки процесу, щоб ми, як населення, могли бути обізнані та притягувати кожного до відповідальності. Екстренний курс Ілона Маска мав нагоду зробити набагато більше навколо історії і кинув м’яч. Потрібно зробити більше, щоб розповісти правду про те, що відбувається з усіма сторонами, причетними до цієї трагічної історії.

Джерело: https://www.forbes.com/sites/samabuelsamid/2022/05/23/elon-musks-crash-coursetakes-a-cursory-look-at-engineering-and-regulatory-failure/