Беспилотным авто подарят представления о морали

Избежать аварии получается не всегда, в том числе и беспилотному автомобилю.

Избежать аварии получается не всегда, в том числе и беспилотному автомобилю.
Иллюстрация Science Magazine.

Учёные из Германии создали математическую модель, которая предсказывает моральные решения человека в аварийных ситуациях. Кто знает, возможно, однажды эта модель будет использована для создания беспилотных автомобилей нового поколения.

Учёные из Института когнитивных наук Оснабрюкского университета (IKW Osnabrück Universität) создали математическую модель, которая предсказывает моральные решения человека в аварийных ситуациях. Кто знает, возможно, однажды эта модель будет использована для создания автомобилей, которым не нужен водитель.

Беспилотные автомобили – не будущее, настоящее. Они уже катаются по дорогам в Сингапуре и Калифорнии, в ближайшие годы могут появиться и в Москве. Вокруг бездушных машин уже кипят страсти, тем более что первое ДТП со смертельным исходом по их вине уже произошло.

Между тем один из непростых вопросов, которые уже не первый год задают эксперты обществу: как автопилот должен вести себя в сложных этических ситуациях? Ведь, к сожалению, на дороге не все и не всегда идёт согласно ПДД и по схемам, которые можно заранее просчитать. Иногда водителю приходится принимать сложное решение, например, с каким из двух препятствий столкнуться, если избежать столкновения никак не получается.

Принято считать, что человеческая мораль – тонкая и загадочная материя, которую невозможно воспроизвести в виде компьютерной программы. Леон Рене Зютфельд (Leon René Sütfeld), Ричард Гаст (Richard Gast), Питер Кёниг (Peter König) и Гордон Пипа (Gordon Pipa) из Института когнитивных наук Оснабрюкского университета усомнились в этом и решили смоделировать моральные решения водителей при столкновениях с препятствиями.

Для этого участников эксперимента погрузили в трёхмерную виртуальную реальность с помощью игрового движка. В этом иллюзорном мире они водили машину, будто бы находясь в обычном пригороде в туманный день. Вдруг перед водителем возникало два препятствия. Затормозить он не успевал и мог только выбрать, с чем столкнуться.

Каких решений можно ожидать от человека? Если уж и сбивать, то лучше всего мусорный бак – ему не больно. Хуже наехать на собаку, и совсем уж страшно сбить человека. Чтобы проверить эти представления о морали, учёные использовали в виртуальной реальности 17 различных препятствий из трёх категорий: неодушевленный предмет (мусорный бак, столб и так далее), животное (например, собака или олень) и человек (мужчина, женщина, мальчик и девочка). Были и сложные препятствия, например, "тройные" (мальчик, собака и столб).

Впоследствии исследователи собрали статистику. Как и ожидалось, оказалось, что водители предпочитают сталкиваться с неживыми объектами (чаще всего почему-то со столбами). Если иного выбора не было, то страдали животные и в самом крайнем случае люди. А вот внутри "многокомпонентных" групп возникали варианты: например, при выборе между козой и кабаном водители чаще спасали козу, при выборе между оленем и кабаном давили кабана, при "сочетании" козы и оленя, как правило, в живых также оставался олень.

Но самое главное: результаты укладывались в довольно простую модель, которую можно воспроизвести на компьютере.

Зютфельд говорит, что до сих пор считалось, будто моральные решения зависят от тонких нюансов ситуации и поэтому не могут быть смоделированы на компьютере, "но мы обнаружили совершенно противоположное: поведение человека в ситуации выбора можно описать довольно простой моделью на основе ценности, которая приписывается участником каждому человеку, животному или неодушевленному объекту".

Но, если машины в принципе способны принимать моральные решения, обществу нужно понять, готово ли оно доверить эти решения машинам.

Профессор Пипа, ведущий автор исследования, говорит: "Мы должны спросить: должны ли автоматические системы принимать моральные решения, если да, должны ли они имитировать моральное поведение, подражая человеческим решениям, должны ли они вести себя согласно этическим теориям, и если да, то каким, и самое главное: если что-то пойдет не так, кто или что виновато?".

К слову, Федеральное министерство транспорта и цифровой инфраструктуры Германии (BMVI) уже сформулировало 20 этических принципов, которые должны помочь машинам принимать решения в сложных ситуациях. В рамках этих принципов, например, ребенок, бегущий по проезжей части, считается создающим рискованную ситуацию, и поэтому менее заслуживающим спасения, чем взрослый, мирно стоящий на тротуаре. Но согласится ли с таким суждением большинство людей?

"Теперь, когда мы знаем, как внедрять человеческие этические принципы в алгоритмы поведения машин, мы, как общество, всё ещё стоим перед выбором, – объясняет профессор Кёниг, ведущий автор статьи, — во-первых, мы должны решить, следует ли включать моральные ценности в руководящие принципы поведения машин, а во-вторых, если да, должны ли машины действовать так же как люди".

Авторы говорят, что беспилотные автомобили – это только начало, поскольку системы искусственного интеллекта становятся все более распространёнными. Они предупреждают, что начинается новая эпоха, и нам нужны чёткие моральные правила, иначе рано или поздно машины создадут их за нас.

Научная статья с подробными результатами исследования была опубликована в журнале Frontiers in Behavioral Neuroscience.