© pixabay.com

Робот в доме престарелых и фальшивое сопереживание

Какое отношение роботы имеют к тому, как мы думаем о старении? Подобные вопросы последнее время занимают ум доцента Хельсинского университета Аки Висала. В недавнем исследовании Висала рассуждает о том, как развитие роботов и искусственного интеллекта изменит наше представление о человечности — особенно в вопросах эволюции сознания и морали.

Висала опасается, что с развитием искусственного интеллекта проблемой может стать снижение количества взаимодействий между людьми. Людей можно будет заменить технологиями во множестве профессий. Висала приводит в пример заботу о стариках.

«Возможно, в будущем, вместо того, чтобы целостно посмотреть на потребности старых людей, мы предпочтем поместить их в дома, где о них будут заботиться не люди, а роботы», — предупреждает исследователь.

Вопрос о том, какого рода социальные ресурсы вкладывать в заботу о стариках — это моральная и политическая проблема.

«Приемлемо ли для робота-кэртейкера использовать систему опознавания лиц чтобы узнать, грустит пациент или радуется, а потом отреагировать на это словами или вздохами, создающими впечатление, что роботы способны к сопереживанию? Ведь это означает предлагать симуляцию заботы и эмпатии вместо чего-то настоящего».

Висала уточняет, что это не апокалиптическая антиутопия, а обычное человеческое беспокойство. Ограничения искусственного интеллекта могут изменить наше моральное представление о человеческой природе.

«Действительно ли мы хотим, чтобы обязанности, требующие поддержания отношений, перешли от людей к вещам, которые умеют реагировать, но не могут по-настоящему заботиться и чувствовать ответственность?»

Технологии не нейтральны нравственно

Висала также видит проблему в использовании технологических решений для профессий, требующих моральных усилий: если о стариках будут заботиться роботы, их детям не надо будет отвлекаться от своей карьеры, чтобы посвящать больше времени и ресурсов заботе о родителях.

Если мы делегируем машинам заботу, вместе с тем мы откажем себе и другим в возможности духовного роста. Кроме того, это может изменить наше представление о том, к чему нужно стремиться в жизни.

Эта идея не нова. Например, в шестидесятых французский философ Жак Эллюль размышлял о последствиях технологического мышления, которое, фокусируясь только на материальной выгоде, начинает диктовать, какие типы вещей мы считаем достойными того, чтобы к ним стремиться. Технология не является морально нейтральной — ведь она может повлиять на то, что мы считаем важным.

В контексте 2010-х рассмотрим пример секс-робота. Вместо того чтобы критиковать идею о том, что человек должен соответствовать неким стандартом красоты и сексуальной привлекательности, чтобы быть любимым, мы пытаемся предлагать технологические решения людям, которые не подпадают под общепринятый идеал.

«Вместо секса, суть которого взаимодействие между двумя сознательными людьми, полное обязательств и ответственности, это по сути является мастурбацией с секс-роботом», — утверждает Висала.

Какая форма разумности самая ценная?

Технология трансформирующая человеческие отношения — излюбленная тема научной фантастики. Эта тема — в центре сюжета фильма Бегущий по Лезвию 2049 (2017), сиквела на классический фильм 1982-го года.

«Интересно, что большинство человеческих персонажей фильма — роботы, тогда как люди там — безэмоциональные социопаты. Наверное, это потому, что люди привыкли относиться к человекоподобным как к мусору. И постепенно начали относиться так же друг к другу», — пишет Висала.

В таком видении будущего проблема состоит не в том, что машины становятся слишком похожими на людей, а в том, что сами люди становятся подобными машинам — существам, которые не заботятся друг о друге и не могут относиться друг к другу гуманно.

Что если бы мы могли разработать социально и морально разумный искусственный интеллект? Возможно ли это вообще, и какой была бы роль такого робота в человеческом обществе?

«Во-первых, мы должны осознать, как мы представляем идеал человеческой разумности. Это и логическое решение задач, и контакт с физической реальностью, и управление эмоциями. Последнее является самым трудным. Люди — это моральные существа, которые живут в культуре, у которых есть язык. Люди руководствуются неочевидными нормативными ожиданиями и правилами».

«Я был бы очень впечатлен, если бы робот мог поймать меня на лжи и убедить, что лгать — это плохая идея, потому что это неправильно и имеет последствия».

Поступай с techno sapi­ens так, как поступил бы с homo sapiens

По словам Висала, разработчики технологий традиционно уделяли мало внимания этическим вопросам. Однако это очень актуальная область.

«Во времена, когда разрабатывалось оружие массового поражения, было много политических и этических дебатов на тему того, как мы живем и какими видим себя. Мы должны сделать то же самое и сейчас, иначе мы будем разрабатывать искусственный интеллект без всяких правил или соглашений, вплоть до момента, когда его можно будет использовать для чего угодно».

Висала верит, что мы должны относиться к человекоподобным роботам, техно сапиенсам, точно так же, как к людям. Однако отсутствие согласия в отношении концепции человечности даже в случае с homo sapiens является серьезной проблемой.

«Академический мир так и не пришел к консенсусу, что же означает для человека иметь свободу воли и ответственность, или же осознанность. Мы также не знаем, как в первую очередь следует подходить к моральным вопросам: с точки зрения правил или последствий», — объясняет Висала.

В разделении человека и машины планка не должна быть установлена слишком высоко.

«Если есть существо, которое, как кажется, ведет себя разумно и способно к морально независимым решениям и самостоятельности, мы должны относиться к нему как к человеку, просто на всякий случай».

Современный искусственный интеллект и роботы далеки от человеческого уровня способностей и ответственности, особенно с точки зрения морали и управления собственной жизнью. Они не могли бы стать членами современного нравственного сообщества. Но в теории, искусственный интеллект может значительно продвинуться в этих областях.

«У нас, людей, есть печальная история об этом: если что-то нам чуждо, мы начинаем считать его чем-то низшим, „недочеловеческим“. Так мы относились, например, к отстающим в развитии», — заключает Висала.

Источник:As artificial intelligence advances, humans behaving like machines will be a bigger problem than machines being human