Главная Наука.Культура.Человек С новыми технологиями приходят новые обязанности

С новыми технологиями приходят новые обязанности

через Исмаил
0 комментарий 20

 

Человеческое воображение – основа всего в окружающем нас мире. Как сказал известный писатель-мотиватор Уильям Артур Уорд, «Если вы можете это представить, вы можете это создать».

На протяжении всей истории именно люди с, казалось бы, смелыми фантазиями изобрели так много технологий, которые мы сегодня считаем само собой разумеющимися, таких как электричество, самолеты, трансплантация органов, интернет и мобильные телефоны — все это имеет далеко идущие последствия для общества и мировой экономики. Благодаря конвергенции множества технологий в ходе этой Четвертой промышленной революции технологические фантазии изобретателей становятся еще более смелыми — полеты в любую точку мира за 30 минут, продление жизни, 3D-печать целых городов, управление сельским хозяйством из космоса, мысленное общение с компьютером и создание искусственного интеллекта, равного к когнитивным способностям человеческого мозга и способности говорить, чтобы общаться с животными. Это лишь некоторые из многих технологических фантазий, к которым сегодня реально стремятся люди.

Именно такие смелые технологические фантазии стимулируют инновации и оказывают влияние на общество. В нашей истории было много технологий общего назначения (GPT) (в первую очередь, огонь и электричество), однако, что отличается в наш исторический момент, так это скорость, с которой технологии общего назначения внедряются в наше общество, экономику и дома. Искусственный интеллект основывается на всех предыдущих технологиях, таких как Интернет, мобильные телефоны, Интернет вещей (IoT) и синтетическая биология. Такая быстрая интеграция открывает огромные экономические и социальные возможности, но также сопряжена с потенциальной огромной социальной опасностью.

Социальная сплоченность и психическое благополучие по прихоти архитектуры принятия решений
Поскольку мы живем в эпоху распространения новых технологий, стоит оценить силу архитектуры принятия решений, которая влияет на процесс принятия решений людьми. Лучшим примером, демонстрирующим это, является недооцененное влияние архитектуры принятия решений в социальных сетях на структуру нашего общества. Социальные сети были созданы на основе смелой технологической фантазии — «Что, если бы существовала цифровая платформа, где каждый мог бы поддерживать связь со всеми своими друзьями». С тех пор, хотя он и оставался платформой для общения с вашими друзьями, он также расширился, став утилитой для бизнеса, точной рекламной платформой и громкоговорителем как для государственных чиновников, так и для террористов.

С годами алгоритмы начали меняться, и технологов и инженеров-программистов попросили разработать алгоритмические системы, стимулирующие удержание людей на платформах социальных сетей как можно дольше, чтобы они могли просматривать как можно больше рекламы. Одним из таких примеров является Facebook, где 97,5% всех доходов поступает от рекламы. Корпоративные решения, которые были сосредоточены исключительно на доходах от рекламы, без учета влияния на общество, имели множество последствий для психического здоровья всех демографических групп населения.

На индивидуальном уровне алгоритмическая архитектура принятия решений, ориентированная исключительно на корпоративные стимулы, отрицательно сказалась на психическом благополучии. The Wall Street Journal провела журналистское расследование об алгоритме TikTok и обнаружила, что он способен классифицировать и показывать зрителям интересующие их элементы, даже если они явно не искали их. Что еще более важно, они обнаружили, что то, что заставляет людей просматривать больше видео на платформе, не обязательно является тем, что им интересно и что им нравится, но тем, к чему они наиболее «уязвимы». Было обнаружено, что Facebook и Instagram усугубляют проблемы с изображением тела у подростков, особенно у девочек. Meta знает об этом и о том, как ее платформы создают низкую самооценку у детей и подростков. Исследование использования социальных сетей подростками, совершившими самоубийство, выявило различные темы, связанные с вредным воздействием социальных сетей, такие как «зависимость, триггеры, кибервиктимизация и психологическая травля». Эти негативные последствия ИИ в социальных сетях не были полностью устранены и продолжают причинять вред сегодня.

На социальном уровне алгоритмическая архитектура принятия решений, которая отдает предпочтение исключительно корпоративным стимулам без учета последствий нисходящего порядка, создала поляризованные и фрагментированные общества. Центр гуманных технологий описывает влияние общества AIon в презентации Азы Раскин и Тристана Харриса “Дилемма искусственного интеллекта”. В этой презентации они проводят различие между первым взаимодействием общества с ИИ, которое произошло через социальные сети; и они отмечают, что второе взаимодействие общества с ИИ произойдет в 2023 году с использованием существующих и появляющихся инструментов генеративного ИИ. Информационная перегрузка, роковой сценарий, зависимость, сокращение концентрации внимания, сексуализация детей, поляризация, фейковые новости, фабрики культов, боты-подделки и крах демократии – вот лишь некоторые из вредов, которые были выявлены в результате алгоритмического взаимодействия общества с социальными сетями.

Хотя у разработчиков программного обеспечения не было злого умысла, они пренебрегли своим долгом перед обществом, когда сосредоточились исключительно на создании алгоритмов, которые стимулировали бы максимальное взаимодействие на платформе. Оценка Раскина и Харриса того, что происходит в обществе при следующем взаимодействии с ИИ, – это коллапс реальности из-за избытка всего поддельного, что, в свою очередь, приводит к краху доверия. В своей книге «Грядущая волна» Мустафа Сулейман, основатель DeepMind от Google, также выражает озабоченность по поводу повсеместной природы генеративного ИИ и его способности демократизировать создание кибероружия, эксплойт-кода и самой нашей биологии. Эти проблемы, которые возникают каждый день, не были решены в полной мере и сегодня представляют собой заметные угрозы.

Хотя важно решать социальные проблемы, связанные с существующими алгоритмами, существуют новые алгоритмы и новые способы, с помощью которых они будут глубже внедряться в нашу жизнь.

Новые фантазии, новые технологии, новые обязанности
В качестве механизма преодоления горя после смерти своего лучшего друга Евгения Куйда создала его разговорного ИИ-бота, основанного на всех их текстовых обменах. Она сделала это, чтобы продолжить общаться с ним посмертно. Основываясь на этом опыте, она создала компанию Replika, где любой желающий может создать персонализированного собеседника с искусственным интеллектом для общения. В отзывах много счастливых пользователей, которые чувствуют, что нашли друга и что этот цифровой алгоритмический компаньон скрасил их одиночество. Фактически, Replika и другие компании, занимающиеся цифровым сопровождением искусственного интеллекта, создают ценную технологию, которая решает растущую социальную проблему.
В мае 2023 года Главный хирург США опубликовал консультативный отчет, в котором говорится о кризисе общественного здравоохранения, вызванном одиночеством и социальной изоляцией. В настоящее время две страны в мире назначили министра по вопросам одиночества — Великобритания и Япония. Однако исследования показывают, что эта эпидемия одиночества и социальной изоляции прочно обосновалась также в Африке и Индии, а также в других частях мира, где исследования еще не проводились.

Учитывая неблагоприятные социальные последствия, которые ИИ оказал на социальные сети, поскольку для решения растущей проблемы одиночества создаются новые чат-боты на основе ИИ и цифровые компаньоны, крайне важно учитывать первое правило из «Трех правил гуманных технологий», изложенных Центром гуманных технологий: «Когда вы изобретая новую технологию, вы открываете для себя новый класс обязанностей». Это правило относится не только к тем, кто изобретает новую технологию, но и ко всем тем, кто использует эту технологию. В политике Общего регламента Европейского союза по защите данных (GDPR), регулирующей порядок управления персональными данными, есть раздел о «Праве быть забытым», который не должен был существовать до тех пор, пока компьютеры не смогли запомнить нас навсегда. Нужно ли будет создавать новые законы, чтобы заставить компании поддерживать облачную инфраструктуру цифровых компаньонов на протяжении всей жизни человека? Понадобятся ли права для этих алгоритмических компаньонов, чтобы тем, кто полагается на них, не приходилось горевать или чувствовать себя одиноко без них? Что, если люди захотят жениться на своем ИИ-компаньоне? Если спутники с искусственным интеллектом станут важной формой социальной инфраструктуры и частью человеческой близости, необходимо будет создать новые законы для защиты этих настраиваемых алгоритмов и доступа к ним.

Со временем появится новая государственная политика и нормативные акты, направленные на смягчение социальных последствий существующих и новых технологий искусственного интеллекта и управление ими, однако текущее состояние технологического прогресса продолжает превышать скорость, с которой нормативные акты принимаются законодательно. Отсутствие регулирования не означает, что компании должны отказываться от своей ответственности за это. В эпоху, когда одиночество и изоляция находятся на подъеме, те, кто разрабатывает алгоритмы, должны сыграть огромную роль в создании алгоритмических систем, которые не разрушают социальную сплоченность, не усугубляют одиночество и не подталкивают подростков к самоубийству. Те, кто использует алгоритмы, созданные другими, должны нести ответственность за себя и других, чтобы гарантировать, что алгоритмические системы не причиняют вреда.

В то же время, дикая технологическая фантазия, которую мы все должны принять сегодня, должна заключаться в разработке алгоритмических систем, которые создают стимулы для процветания человека и социально-экономического процветания.

Лидия Костопулос
Observer Research Foundation

 

 

СВЯЗАННЫЕ ПОСТЫ

Оставить комментарий

Этот веб-сайт использует файлы cookie для улучшения вашего опыта. Мы будем считать, что вы согласны с этим, но вы можете отказаться, если хотите. Принимать