Массачусетский технологический институт опубликовал базу данных из 700 способов, которыми ИИ может потенциально разрушить нашу жизнь, из-за его быстрого нерегулируемого развития. Кредит: Madcoverboy (обсуждение) – CC BY-SA 3.0
Многие эксперты определяют, что мы находимся в середине 4-й промышленной революции, основанной на искусственном интеллекте. Технология искусственного интеллекта продолжает становиться все более интегрированной в повседневную жизнь, от ChatGPT до AI DJ Spotify, создающего миксы для вас.
Наши жизни теперь управляются ИИ, и поэтому существует реальная необходимость понять опасности этой технологии. Вот почему Массачусетский технологический институт (MIT) составил базу данных из почти 700 различных способов, которыми ИИ может разрушить вашу жизнь.
Однако научно-фантастические произведения, такие как франшиза «Терминатор» , и общее развитие технологий всегда вызывали опасения у общественности, учитывая, что ИИ может причинить вред и использоваться в злонамеренных целях.
Возможно, он не захватывает мир (по крайней мере, пока). Тем не менее, мы видели, как процветают грязные способы использования этой в остальном революционной технологии, такие как Deep Fakes политиков и людей, сексуализированных с помощью ИИ без их согласия.
Эти опасения побудили некоторые регулирующие органы притормозить разработки, связанные с ИИ, чтобы регулировать их, но это оказалось чрезвычайно сложной задачей, а также вызвало вопросы о наших политических системах.
Grecian Delight поддерживает Грецию
Один из самых актуальных вопросов заключается в том, способны ли западные демократии регулировать технологии, которые развиваются с каждым днем.
Технология глубокого фейка на основе искусственного интеллекта сотрет границы между реальностью и контентом, созданным искусственным интеллектом
Одним из наиболее тревожных аспектов быстрого развития технологий искусственного интеллекта является то, насколько быстро создаются инструменты для генерации фальшивого контента, такого как видео и клонирование голоса , и насколько они доступны по цене.
Это может привести к разработке более сложных схем в ближайшем будущем. Этот аспект технологии ИИ является тем, в котором известные личности могут использоваться киберпреступниками для поддержки мошеннических проектов без предоставления ими своего разрешения.
Это уже проблема на самом деле. Буквально в прошлом месяце широко сообщалось, что Илон Маск нарушил положения и условия своей собственной платформы X из-за Deep Fake-поста Камалы Харрис.
Причина, по которой этот пост мог нарушить правила X, заключается в том, что он не пометил пост как сгенерированный ИИ или как пародию. Вместо этого Маск решил опубликовать его без каких-либо отказов от ответственности.
Есть реальный потенциал, что это может продолжаться в более широких масштабах, когда интернет-пользователи попадают под влияние неаутентичных видеороликов, не записанных реальными людьми. Это может манипулировать общественным мнением.
По данным Массачусетского технологического института, если ИИ превзойдет человеческий интеллект, он может стать угрозой для человечества
Реальная проблема MIT в отношении ИИ заключается в том, что искусственный интеллект может разрабатывать цели, которые будут противоречить человеческим интересам. Вот где база данных MIT становится дистопичной.
ИИ способен обнаруживать неожиданные кратчайшие пути к достижению цели, неправильно понимать или переосмысливать цели, поставленные людьми, или ставить новые цели по собственной «воле».
В этих случаях MIT опасается, что ИИ может потенциально сопротивляться попыткам контролировать его или отключить, особенно если он определит, что сопротивление будет эффективным способом достижения его целей. ИИ также может использовать другие стратегии для достижения своих целей, например, манипулирование людьми.
В отчете по базе данных Массачусетского технологического института говорится: «Несогласованная система искусственного интеллекта может использовать информацию о том, контролируется ли она или оценивается, чтобы поддерживать видимость согласованности, скрывая при этом несогласованные цели, которые она планирует преследовать после развертывания или предоставления достаточных полномочий».
Риски потенциально разумного ИИ невероятно сложны
Все риски, которые обсуждались ранее, незначительны по сравнению с возможностью разумного ИИ. Разумность — это состояние, в котором ИИ способен воспринимать или чувствовать эмоции или ощущения, по сути, развивая способность иметь субъективные переживания, подобные переживаниям человека.
Это было бы крайне тревожным событием для ученых и регулирующих органов, учитывая, что им придется столкнуться с такими проблемами, как определение наличия или отсутствия у систем прав, а также потребует от наших обществ серьезных моральных соображений.
Как и в фильме 1982 года «Бегущий по лезвию» , Массачусетский технологический институт обеспокоен тем, что станет все сложнее точно определить уровень сознательности, которым может обладать система искусственного интеллекта, а также когда и как это даст ей моральное право или статус «разумного существа».
