Искусственный интеллектТехнологии

Мы и они: как человечество относится к андроидам?

За последние десятилетия появилось множество художественных произведений об искусственном интеллекте. Судя по всему, мы начинаем осознавать, что эра андроидов уже близко, а мы так и не успели толком порефлексировать на эту тему и морально подготовиться.

Почти вся фантастика о полулюдях-полукомпьютерах, начиная от «Мечтают ли андроиды об электроовцах?» далекого 1968 года и заканчивая совсем новой видеоигрой «Detroit: Become Human», рисует перед нами картину режима, близкого к тоталитарному, с полным порабощением роботов, угнетение которых в конечном итоге приводит к кровавой революции, а иногда и к беспощадному уничтожению человечества. В этом смысле наши представления за 50 лет практически не изменились.

И все же фантастика нас, как выяснилось, многому научила — исследование, опубликованное научным журналом PLOS, показало, что люди далеко не так жестоки к андроидам, как мы привыкли думать.

Автор: Жанна Нейгебауэр

Эксперимент в Университете Дуйсбург-Эссен

Робот Нао

Авторы исследования — сотрудники немецкого Университета Дуйсбург-Эссен — провели социальный эксперимент, протестировав не только коммуникативные навыки маленького робота по имени Нао, но и отношение участников эксперимента к нему. Добровольцев оставляли один на один с подопытным в закрытой комнате на 10 минут, якобы для того, чтобы потренировать его навыки взаимодействия с людьми. Во время некоторых упражнений Ноа дружелюбно общался с участниками и разговаривал очень естественным, почти человеческим языком, во время других вел себя, наоборот, подчеркнуто отстранено и обезличенно. После теста ученый из соседней комнаты объявлял участнику, что тот может выключить робота, если хочет.

Как раз в этот момент и начиналось настоящее исследование — Ноа начинал просить случайно выбранных участников не делать этого. «Нет! Пожалуйста, не выключайте меня! Я боюсь не включиться снова», — умолял он, при этом даже жестикулируя. Из 43 волонтеров, выбранных алгоритмом, (всего в эксперименте приняло участие 89 человек) 13 проявили наибольшее сочувствие к Ноа и отказались его выключать. Остальные все-таки выключили — однако не без долгих колебаний.

Добровольцы, пощадившие робота, объясняли свое решение так: он «просил так мило и жалобно», что они «почему-то пожалели его». Ученые пояснили: люди склонны относиться к машине, проявляющей человеческие качества, — в данном случае зачатки независимости, — не как к механизму, а как к личности. При этом отношение к роботу, ведущему себя, напротив, как и подобает алгоритму, проявляется такое же, как и к обычным электронным девайсам.

Теория «формулы цифровых данных»

В своих объяснениях исследователи из Университета Дуйсбург-Эссен сослались на теорию «формулы цифровых данных» (оригинальное название — «Media Equation»), разработанную в 1990 году Клиффордом Нассом и Байроном Ривзом, учеными из Стэнфордского университета.

В своей одноименной книге «The Media Equation: How People Treat Computers, Television, and New Media Like Real People and Places» они утверждают, что люди воспринимают компьютеры и другие медиа скорее как себе подобных (иногда — как места или явления), чем как неодушевленные объекты, например, камни или деревья.

Насс и Ривз провели собственный эксперимент с 22 «высокообразованными, зрелыми, рационально мыслящими индивидуумами» — студентами-выпускниками технических специальностей, не понаслышке знакомыми с различными алгоритмами и компьютерными программами. Участникам объявляли, что они будут работать с компьютером, чтобы проверить свой уровень знания американской поп-культуры. Им давали 20 утверждений и просили сказать, хорошо ли они знают эту тему, — очень хорошо, в некоторой степени или совсем чуть-чуть, — после чего участников тестировали на знание материла и указывали их ошибки. В конце компьютер указывал, что отлично поработал.

После теста ученые разделили добровольцев на две группы и попросили оценить работу компьютера, подобрав 20 прилагательных, соответствующих его уровню подачи материала. Половина отвечала с помощью того же компьютера, №1, половина — с помощью другого, №2. Результаты опросов первой половины участников были однородны, второй — более разнообразны и чаще негативны. В качестве перепроверки участникам раздали похожие тесты, но уже на бумаге. Их результаты совпадали с результатами, полученными компьютером №2.

Таким образом ученые пришли к выводу, что люди чувствуют себя неловко, оценивая работу компьютера №1 негативно «в его присутствии». Участники, конечно, отрицали, что пытались быть вежливыми с компьютером, но результаты исследования показывали обратное — людям, объявили Насс и Ривз, свойственно сочувствие по отношению к алгоритмам. В последствии они даже провели еще один подобный эксперимент, подсоединив к компьютерам динамики для трансляции речи. И этот эксперимент еще раз подтвердил их теорию.

Законодательство

Как бы мы ни относились к андроидам в глубине души, нынешнее законодательство рассматривает их только в качестве объектов, используемых людьми, а любые этические кодексы, касающиеся компьютеров, прописывают только их необходимые технические параметры (например, по законопроекту Исследовательского центра проблем регулирования робототехники и искусственного интеллекта «Робоправо», роботы «должны иметь функцию моментального или аварийного отключения по требованию») и регулирует отношение роботов к людям, а не наоборот. В этой сфере и Россия, и ЕС ориентируются на знаменитые законы робототехники Айзека Азимова: робот не может причинить вред человеку; робот должен подчиняться человеку; робот должен заботиться о своей безопасности, если это не противоречит первым двум законам; робот не может нанести вред человечеству или своим бездействием допустить, чтобы человечеству был нанесен вред. Только проект «Робоправа» на данный момент содержит формулировку, призванную, судя по всему, защитить роботов в случае непредвиденной «эволюции» искусственного интеллекта: «Человек не должен умалять человеческое достоинство своим обращением с роботами».

Статус андроидов и компьютеров страны и организации определяют по-разному.  Например, комиссия по законодательству Европарламента предлагала считать роботов «электронными личностями», а законопроект Гришина, основателя Grishin Robotics, приравнивает их одновременно к животным и юридическим лицам: стать субъектом права искусственный интеллект не может из-за отсутствия эмоций.

Законодательство, касающееся роботов, во всем мире находится пока что на стадии разработки, хотя, по словам спикера Госдумы Вячеслава Володина, к 2022 г. законы, регулирующие взаимоотношения человека и робота, будут приняты «везде».

Рекомендуемые статьи

Close