Аргумент щодо того, чи Tesla FSD переїде дитину чи дитину-пустишку, не має суті

A недавнє відео від TeslaTSLA
-критик Ден О'Дауд з проекту «Світанок» показує тестову трасу з дорогою, зробленою з конусів. Там водій, який користується прототипом FSD від Tesla, під’їжджає до дитячого автомобіля та збиває його. Стверджується, що Telsa FSD не надійно гальмує для дітей. Критики О'Дауда стверджували, що відео було підробленим або погано створеним, і деякі зробили власні демонстрації, в тому числі, на превеликий жаль, тестування з живими дітьми-добровольцями. Мало хто розглядав питання про те, чи повинен такий прототип, як Tesla FSD, надійно гальмувати для дітей, що є справді цікавим питанням.

О'Дауд часто писав, що хоче заборонити Tesla FSD. Я висвітлював його кампанію раніше, і нещодавно він балотувався в Сенат Каліфорнії виключно для розміщення рекламної кампанії проти Tesla FSD. Він, природно, викликав гнів Ілона Маска та спільноти, яка виступає за Tesla. Таким чином, одразу відбувся спаринг. Оригінальне відео, на яке наведено посилання вище, не показує активацію FSD, хоча пізніші випуски показали, що це було. Дехто припустив, що зображення на екрані, які важко читати, свідчать про те, що водій тримає педаль. Інші дані показують, що автомобіль уповільнює швидкість або видає попередження, а також суперечки щодо реальності демонстрації.

РЕКЛАМА

Демонстрацію обрали провокативну, адже немає нічого страшнішого за збиття автомобілів дітей. У США щодня в автокатастрофах гинуть 3 дитини, а щороку близько 170 дітей-пішоходів гинуть від наїзду автомобілів. Для багатьох реакція полягає в тому, що жодна технологія, яка коли-небудь наїде на дитину, є прийнятною. NHTHT
SA дійсно почала розслідування розгортання Tesla Autopilot (який є випущеним продуктом) і починає розглядати прототип FSD. Інші, наприклад Ральф Нейдер, також закликали зняти прототип FSD з доріг. Після того, як дуже невелика кількість людей повторила тест зі справжніми дітьми, NHTSA випустило попередження не робити цього, і Youtube вилучив відео людей, які це роблять. Повідомляється, що Tesla попросила також видалити відео, на яких їхня машина збивається з тестовим манекеном. The Washington Post повідомляє, що бачила лист від Tesla про припинення і відмову.

Це питання дуже складне, і, як це не надто незвичайно, ніхто не розуміє його правильно. Система FSD, хоч і називається бета-версією, точніше її називати прототипом. На думку більшості розробників, автономні прототипи (і бета-версії) справді потребують великої кількості тестів на дорозі, і кожна команда робить це, за допомогою людей-«водіїв безпеки», які контролюють систему та регулярно втручаються, коли вона допускає помилки, щоб запобігти інцидентам. Tesla незвичайна тим, що дозволяє звичайним клієнтам брати участь у цьому тестуванні, тоді як у всіх інших компаніях є співробітники з певним рівнем підготовки, які виконують це завдання, і зазвичай мають 2 співробітники на автомобіль.

Прототипи, за своєю природою, не справляються, в тому числі щодо таких важливих речей, як зупинка для пішоходів на дорозі. Кожна команда, від найкращої, як-от Waymo, до найгіршої, виставляла на дороги транспортні засоби, які регулярно робили щось серйозне, за винятком втручання, і більшість вважає, що проведення випробувань таких ранніх стадій транспортних засобів було і досі є необхідним для досягнення прогресу та врешті-решт розгортання автомобілів. Після розгортання автомобілі будуть набагато вищої якості та рятуватимуть життя — багато з них — тому всі хочуть, щоб це розгортання відбулося якомога швидше, але є багато питань, які слід обговорити щодо того, як ми досягнемо цього моменту та коли ми досягнемо це.

РЕКЛАМА

Система допомоги водієві проти самостійного водіння

На додаток до питання про те, чи використання Tesla клієнтів для тестування свого прототипу є гарною ідеєю, багато питань обертаються навколо різниці між системами допомоги водієві, які передбачають, що людина повністю бере участь у керуванні, але наглядає за системою, а не рухається фізично. елементи керування та системи самостійного керування, де не потрібен нагляд людини (і справді, транспортний засіб може рухатися без нікого в ньому).

Багато інсайдерів галузі вважають, що це дві досить різні речі, і NHTSA було помилкою оголосити їх лише двома різними «рівнями» технології автоматизації. Стерлінг Андерсон, співзасновник Aurora self-driving, вважає, що перехід від допомоги водієві (або ADAS, для розширеної допомоги водієві) до самостійного водіння — це все одно, що намагатися потрапити на Місяць, будуючи вищі драбини.

Першою великою просунутою системою допомоги водієві, яка дозволяла людині зняти ноги з педалей, був круїз-контроль, зокрема адаптивний круїз-контроль. Пізніше з’явилася система ведення смуги руху, яка дозволяла вам відірвати руки від керма, і невдовзі обидва вони були об’єднані в таких продуктах, як «Автопілот» Tesla. Як інструменти ADAS (допомога водієві), вони призначені для використання з повною увагою.

РЕКЛАМА

Хоча спочатку не всі в це вірили, сьогодні загальний висновок такий, що ці системи працюють і не створюють небезпеки на дорозі. Спочатку люди сумнівалися навіть у базовому круїз-контролі, але незабаром він став дуже поширеною функцією автомобілів.

Автопілот Tesla викликав нові запитання з різних причин, але найцікавіша проблема полягає в тому, що він явно перевершує за функціональністю попередні продукти, включаючи простіші системи круїз-контролю, але ця перевага насправді може зробити його небезпечнішим і, отже, гіршим. Виникає дивний парадокс: чим краща система, тим гіршим може бути результат, оскільки краща система викликає «автоматизоване самовдоволення», коли керуючий водій звертає менше уваги на дорогу. (Дехто також вважає, що назви Tesla «Автопілот» і FSD заохочують таке самовдоволення, і публічні повідомлення про ці продукти також сприяють цьому.)

Це не дуже хороший парадокс. Ми хочемо розробляти кращі системи, але якщо система стає гіршою, коли ви її вдосконалюєте, набагато важче отримати справді хороші системи, коли ви подорожуєте долиною небезпеки, де все погіршується, перш ніж покращитися. Сьогодні ми б ніколи не звинувачували стандартний круїз-контроль у тому, що він збив дитину або проїхав на червоне світло — ці системи були набагато простішими й не мали можливості уникнути цих помилок. Але багато хто хоче звинуватити набагато кращу систему, яка зупиняється на більшості перешкод, тому що вона не зупиняється на 100% — навіть якщо жодна система ніколи не буде настільки досконалою, щоб уникнути 100% помилок, і хоча люди також не будуть ідеальними.

РЕКЛАМА

Я брав участь у розробці перших у світі законів про тестування автомобілей у Неваді та Каліфорнії. Гравці погодилися, що повинні бути деякі основні правила щодо того, як проводити тестування на дорогах (попередні правила не забороняли це, оскільки, звичайно, ніхто ніколи не думав про це). У той же час автовиробники, які продають інструменти ADAS, зробили не хочуть, щоб на їхні автомобілі ADAS поширювалися правила тестування на безпілотне водіння, тому роботу ADAS було виділено як таку, що не підпадає під ці правила.

У Каліфорнії, зокрема, це створило відкрите питання. Усі тести на самостійне водіння (за кількома нещодавніми винятками) проводяться під наглядом водія безпеки. Таким чином, це дуже схоже на водіння автомобіля ADAS. Закон не чітко розрізняв, що створило деякі цікаві ситуації. Ентоні Левандовскі, який також брав участь у розробці регламенту, пізніше очолював UberUBER
ATG. Він заявив, що оскільки всі їхні автомобілі на той час працювали лише з безпечним водієм, це був ADAS, і Uber не потрібно було дотримуватися правил тестування самостійного водіння. DMV Каліфорнії відповіло «ні», що за цією логікою ніхто не тестував самостійне керування, і це не було метою закону. Вони сказали Uber, що їм потрібно зареєструватися як безпілотні випробувальні транспортні засоби, інакше вони знімуть номерні знаки з автомобілів Uber, використовуючи свої спеціальні повноваження. Uber підкорився.

РЕКЛАМА

DMV дотримувався такого підходу, що якщо ви намагаєтесь створити систему самостійного водіння, навіть якщо вона була незавершеною, потребувала нагляду та постійно контролювалася, вас слід вважати компанією з тестування самокерування, яка керується правилами.

Незважаючи на це, Tesla продовжує той самий підхід. Оскільки Tesla точно має продукт ADAS, вони ніколи не повідомляють державі про проведення будь-яких тестів на безпілотне керування. Наразі DMV замовчує це — навіть тестування Tesla FSD працівниками Tesla, яке дуже важко відрізнити від того, що вони завадили Uber. DMV цілком може регулювати це. Але як щодо використання користувачами, коли це офіційно (якщо ви читаєте дрібний шрифт і ігноруєте назву) інструмент допомоги водієві?

Але, здається, працює

Основним рішенням для цього були способи забезпечення високої уваги з боку наглядових органів. Існують різні методи для цього, у тому числі стеження за водієм різними способами та приставання до нього, якщо він не звертає уваги, або, як зазначалося, наявність навчених професійних водіїв або навіть команди з них, які кілька разів дивляться на дорогу. Протягом багатьох десятиліть ми навчали водіїв-підлітків в автошколах, маючи інструктора, який може взяти кермо та має власне гальмо, щоб зупинити автомобіль, і ця система спрацювала дуже добре.

РЕКЛАМА

Переконливий висновок наразі полягає в тому, що це працює. Показники безпеки таких великих компаній, як Waymo, що працюють безпілотно, є взірцевими. Waymo повідомила про понад 20 мільйонів миль тестування з безпечними водіями у 2021 році, і за цей час було, можливо, 2 аварії з вини. Люди в середньому зазнають близько 40 нещасних випадків за цей період часу. Подібно до того, як учні водіння з інструкторами з водіння справляються набагато краще, ніж свіжоотримані водії, система моніторингу явно працює, і ці транспортні засоби фактично створюють менший ризик для населення, ніж подібне водіння звичайними людьми.

Принаймні в США, якщо ніхто не постраждає — або, принаймні, якщо рівень ризику нижчий, ніж звичайне водіння, діяльність, як правило, не регулюватиметься. Підхід США набагато більш поблажливий — вам не потрібно доводити, що те, що ви робите, безпечно, але якщо це виявиться небезпечним, вас можуть зупинити та визнати відповідальними за будь-яку завдану вами шкоду. Деякі інші країни вимагатимуть від регуляторів заздалегідь визначити, чи є щось безпечним, набагато вища планка, яка набагато менш сприятлива для інновацій.

Звичайно, в одному відомому випадку підхід безпечного водія закінчився смертельно, коли автомобіль Uber ATG збив на смерть пішохода в Арізоні. Розслідування NTSB і подальші судові справи виявили недбалість водія безпеки (вона дивилася телевізор, а не виконувала свою роботу), хоча Uber також звинувачували в поганій культурі управління водіями безпеки, що сприяло цій помилці. Однак важливий висновок такий система безпечного драйвера працює і сама по собі не наражає громадськість на невиправданий ризик, хоча водії, які забезпечують безпеку людей, очевидно можуть проявити недбалість і спричинити високий ризик.

РЕКЛАМА

Це система з підготовленими платними водіями. Tesla йде далі, і звичайні клієнти виконують цю роботу. Була низка інцидентів, коли водії Tesla явно недбало контролювали продукт Autopilot, і мали місце аварії, в тому числі зі смертельними наслідками. Однак автомобілі Tesla проїжджають набагато більше миль з автопілотом, ніж будь-яка безпілотна команда, тому наявність негативних і навіть трагічних подій не обов’язково свідчить про те, що система наражає громадськість на більший ризик.

Кожного кварталу Tesla публікує оманливу статистику, яка стверджує, що водії, які використовують автопілот, мають кращі показники безпеки, ніж ті, хто його не використовує, навіть якщо деякі користувачі автопілота недбало. Хоча ці цифри є брехнею, Я та інші намагалися сконструювати реальні числа, і реальні цифри не такі вже й погані, і вони свідчать про те, що користувачі Autopilot мають такі самі показники безпеки, як і некористувачі. Хоча це не є кращим, але й не наражає людей на додатковий ризик. Результат досить близький до того, що NHTSA проводить розслідування аварій Tesla з автомобілями швидкої допомоги. Невідомо, чи будуть вони застосовувати запобіжний підхід чи дивитимуться на загальну безпеку.

Багато хто припустив, що Tesla може покращити свій рекорд за допомогою кращого моніторингу водіїв. Стандартний моніторинг просто вимагає, щоб водій регулярно прикладав зусилля до керма. Інші компанії мають камери, які спостерігають за очима водія, щоб переконатися, що він стежить за дорогою — якби Uber ATG зробив це, вони б запобігли їхньому смертю. Нещодавно Tesla також почала використовувати моніторинг погляду водія.

РЕКЛАМА

Слід зазначити, що розрахунок, який показує, що безпека автопілота Tesla подібна до звичайного водіння, є утилітарним. Насправді це поєднання вищого рівня аварій серед невеликої групи недбалих користувачів автопілота, які ігнорують дорогу або впадають у самовдоволення автоматизацією, і кращих показників безпеки у тих, хто старанний. Ми маємо філософські труднощі з цим — нам не подобається, що деякі люди мають вищий ризик, навіть якщо більше людей отримують менший ризик. Нам не дуже подобається, що ми можемо позбавити старанних людей інструменту, який робить їх безпечнішими для захисту тих, хто недбалий, хоча це не наша мета.

Що щодо FSD

Наведені вище дані стосуються Autopilot, який є продуктом доставки. Tesla FSD не є продуктом для доставки. Вони називають це «бета» (це майже завершений продукт на останній фазі тестування перед випуском), але це зовсім не так. Зараз у них більше 100,000 15,000 власників Tesla, які випробовують це. Щоб скористатися нею, власник повинен сплатити комісію (зараз вона зростає до XNUMX XNUMX доларів США) за попереднє замовлення можливої ​​системи FSD і пройти свого роду іспит з безпечного водіння, щоб бути допущеним до когорти випробувань. Іспит з безпечного водіння здебільшого є фіктивним і не перевіряє, чого б ви насправді хотіли для цього завдання, але це означає, що не кожен, хто платить, отримує його.

Вони попереджають водіїв, що система має багато помилок і потребує постійного нагляду, як ADAS, кажучи: «Вона зробить неправильні речі в найгірший момент». Це досить чітке твердження, але в той же час назва «повне самостійне водіння» явно створює образ, відмінний від ADAS. Я їздив із цією системою та оцінив її продуктивність як безпілотну систему.

РЕКЛАМА

Незважаючи на протилежну інтуїцію, підхід Тесли, здається, працює. Маючи 100,000 XNUMX водіїв, система проходить мільйони миль (хоча немає публічних даних про те, скільки кожен водій використовує систему). Ми також знаємо, що громадськість дуже ретельно перевіряє будь-які аварії, пов’язані з тестуванням FSD. системи, і лише невелика кількість незначних інцидентів стала публічною. Хоча деякі випробувачі Tesla FSD є такими великими фанатами Tesla, що можуть приховувати аварію, яку вони потрапили, вкрай малоймовірно, що значна кількість серйозних аварій відбувається без жодної розкриття. Будь-які серйозні нещасні випадки, про які повідомляє поліція, особливо нещасні випадки з травмами, дуже ймовірно привернуть увагу, як це відбувається з автопілотом.

І все ж ми їх не бачимо. Хоча це не справжній науковий аналіз, здається ймовірним, що програма Tesla FSD наразі не ставить під загрозу громадськість. Це можна пояснити тим, наскільки погана система. Більшість водіїв знають, що було б справжньою дурістю не звертати уваги на цю систему в її поточному стані. Цілком можливо, що коли стане краще, це зміниться. Якщо розглядати базовий круїз-контроль, який набагато примітивніший, то він працює, тому що ніхто не посміє не звертати уваги на дорогу під час його використання.

РЕКЛАМА

Назва Тесли

Tesla не допомагає собі назвами своїх продуктів. Багато хто критично ставився до назви «Автопілот», оскільки (хибна) громадська думка полягає в тому, що автопілоти літальних апаратів керують літаком самостійно. Насправді, автопілот літака є значно, значно простішою системою, ніж автомобільний автопілот Tesla, і він працює лише тому, що в повітрі ви дуже далеко від того, з чим можете зіткнутися. Однак це не зупиняє хибне суспільне сприйняття. З FSD ще гірше. Він ще не на рівні автономного керування, навіть близько, і, звичайно, не є «повним». Ця плутанина змусила Waymo відмовитися від використання терміну «самокерування» для опису свого продукту через побоювання, що Tesla неправильно визначила цей термін у суспільній свідомості.

Tesla насправді не потребує додаткового ажіотажу щодо своїх продуктів. Вони продають усе, що можуть зробити. Викликає здивування те, що вони навмисно використовують ці назви, а не занижують і перевищують. Вони б заощадили собі багато горя — окрім того, що «будь-яка реклама — хороша реклама».

Тож чи нормально, якщо Tesla вдарить манекен розміром з дитиною?

Дивовижна відповідь: «Ймовірно». Усі системи для тестування прототипів будуть робити такі речі, і, окрім заборони будь-якого тестування прототипів, немає способу вимагати досконалості навіть у такій викликаній проблемі, як збої з дітьми. Важко розробити регуляторний режим, який би заборонив Tesla FSD, який також не забороняє або не сповільнює розвиток дуже важливої ​​технології, яка з часом врятує мільйони життів. Мільйони життів – це не дрібниця, це буде один із найбільших досягнень безпеки в історії людства.

РЕКЛАМА

Щонайбільше, ми могли б спробувати визначити речі так, щоб ті, хто контролює такі тестові системи, відповідали певним критеріям. Ми могли б наполягати на тому, щоб вони мали кращий моніторинг (що Tesla і робить). Ми могли б попросити їх бути професіоналами або пройти тест, але тоді ми б створили орган, який визначає та забезпечує виконання цих тестів, що було б громіздким. Ви можете стати інструктором з водіння, просто склавши письмовий іспит і отримавши довідку про стан здоров'я, ніякого живого тестування навичок не проводиться.

Тим не менш, ми могли б визначити набір правил щодо того, хто може контролювати прототип системи, і це могло б зупинити діяльність Tesla. Але зробити це означало б потрапити в парадокс «чим краще, тим більше нам це не подобається». Ми не хочемо ускладнювати цю долину, щоб стати кращою системою. Справжнє питання полягає в тому, чому ми хотіли б навіть поїхати туди, якщо ніхто не постраждав. Наразі немає повідомлень про постраждалих людей, звісно, ​​не на рівні, який би вказував на те, що існує більший ризик, ніж звичайне водіння. Ми не хочемо потрапити в пастку заборони речей, тому що у нас є інтуїція, що вони небезпечні. Ми хочемо заборонити лише те, що насправді небезпечно.

Цілком можливо, що згодом тестування Tesla FSD стане занадто небезпечним. Це може статися через самовдоволення автоматизації або зміни в системі. Розумно попросити Tesla повідомити владі, скільки інцидентів сталося під час тестування системи, щоб ми могли знати, чи стане вона небезпечною і коли. Підхід О'Дауда «ми повинні заборонити це, тому що мені здається, що це було б небезпечно» є неправильним, принаймні в США.

РЕКЛАМА

Читайте та залишайте коментарі тут

Джерело: https://www.forbes.com/sites/bradtempleton/2022/08/25/the-argument-over-whether-tesla-fsd-will-run-over-a-child-or-dummy-child- втрачає суть/