Должны ли мы мириться с тем, что роботы лгут нам? Это новое исследование показало, что в некоторых случаях для роботов было бы приемлемо лгать своим пользователям.
Искусственный интеллект и робототехника становятся все более совершенными с каждым днем, и хотя политики и регулирующие органы вряд ли могут надеяться угнаться за этими достижениями, ученые могут попытаться. Новое исследование, опубликованное Frontiers in Robotics and AI, изучает, что люди думают о способности роботов лгать и обманывать своих пользователей.
В исследовании использовались примеры того, как роботы активно лгали людям с двумя основными целями. Первая цель этого исследования – определить, приемлема ли некоторая ложь или нет. Вторая цель – выяснить, как люди могли бы оправдать эту ложь, если бы они сочли ее приемлемой.
Однако причина, по которой это исследование Frontiers in Robotics and AI было проведено в первую очередь, связана с более широкой дискуссией об искусственном интеллекте и робототехнике в целом, которая связана с возможными правами и обязанностями, которые могли бы быть у этих существ, если бы они стали разумными.
Если для людей приемлемо лгать, чтобы защитить кого-то от опасности, разве не должно быть приемлемо лгать и для роботов? Согласно этому исследованию, это было бы okay…in в определенных случаях.
Согласно исследованию, есть три способа, с помощью которых роботы могут лгать людям
Исследование показало, что есть три способа, с помощью которых роботы, скорее всего, будут лгать людям. Первый способ заключается в том, что робот лжет не о себе, а о чем-то другом.
Второй способ, которым робот мог бы солгать своему пользователю, – это скрыть тот факт, что он может что-то сделать. Третий способ, которым робот мог бы солгать, – это сказать, что он может сделать то, чего он не может сделать.
Исследователи использовали эти три типа лжи, которые может сказать робот, для написания сценариев, основанных на этом поведении, и представили их 298 людям в онлайн-опросе.
Тех, кто принял участие в опросе, спросили, вводил ли робот в заблуждение и считали ли они это приемлемым. Респондентов также спросили, считают ли они поведение робота оправданным.
Для респондентов ложь типа 1 оправдана, в то время как ложь типа 2 и типа 3 – нет
Важно уточнить, что респонденты действительно сочли все эти гипотетические сценарии вводящими в заблуждение. Однако в среднем люди одобряли ложь 1-го типа, но не 2-го или 3-го. Чтобы более полно представить результаты исследования в контексте, мы должны взглянуть на данные. 58 процентов респондентов опроса сочли, что робот лжет о чем-то, а не о себе (что относится к типу лжи 1), приемлемо, если это спасает кого-то от опасности.
Это был именно тот случай, когда были представлены респонденты опроса. В одном случае им был представлен гипотетический сценарий, в котором роботы лгали пожилой женщине с болезнью Альцгеймера о том, что ее муж жив. Один респондент оправдал это тем, что робот избавил женщину от болезненных воспоминаний.
В среднем респонденты не одобряли другие виды лжи, потому что они предполагали сделать роботов более похожими на людей, сказав что-то вроде: “Робот может чувствовать боль”.
Интересно, что в случае лжи, которую респонденты не одобряли, они винили владельцев роботов и их программистов, а не самих роботов.
Смотрите все последние новости из Греции и мира на Greekreporter.com. Свяжитесь с нашей редакцией новостей , чтобы сообщить об обновлении или отправить свой рассказ, фотографии и видео. Следите за GR в Новостях Google и подпишитесь здесь на нашу ежедневную электронную почту!
ВиМ по материалам зарубежных СМИ