Главная Наука.Культура.Человек Пионер в создании искусственного интеллекта покидает Google и предупреждает о предстоящих опасностях

Пионер в создании искусственного интеллекта покидает Google и предупреждает о предстоящих опасностях

через Исмаил
0 комментарий 38

 

Пионер в создании искусственного интеллекта (ИИ) Джеффри Хинтон покинул Google, предупредив о растущих опасностях разработок в этой области.

Хинтон, который в течение полувека разрабатывал технологию, лежащую в основе чат-ботов, таких как ChatGPT, сказал в понедельник New York Times (NYT): «Трудно понять, как вы можете помешать плохим людям-пользователям использовать ее для плохих дел».

Джеффри Хинтон . Фото Sky News

В интервью Би-би-си его попросили подробнее остановиться на этом, он ответил: «Это просто своего рода наихудший сценарий, своего рода кошмарный сценарий».

«Вы можете представить, например, что какой-нибудь «плохой парень», такой как [президент России Владимир] Путин, решил дать роботам возможность создавать свои собственные подцели». Ученый предупредил, что в конечном итоге это может «создать подцели типа ”Мне нужно получить больше энергии».

В 2012 году Хинтон и двое его студентов в Торонто, Илья Суцкевер и Алекс Кришевский, построили нейронную сеть, которая могла анализировать тысячи фотографий и обучаться распознавать обычные объекты, такие как цветы, собаки и автомобили.

Google потратила 44 миллиона долларов на приобретение компании, основанной Хинтоном и двумя его учениками. И их система привела к созданию все более мощных технологий, включая новых чат-ботов, таких как ChatGPT и Google Bard.

По мере того, как компании совершенствуют свои системы искусственного интеллекта, они становятся все более опасными, сказал он NYT. «Посмотрите, как это было пять лет назад и как обстоит сейчас, – сказал он о технологии искусственного интеллекта. – Теперь возьмите разницу и распространяйте ее дальше. Это пугает».

Опасности, связанные с тем, что технологические гиганты вовлечены в конкуренцию с искусственным интеллектом
По его словам, до прошлого года Google действовала как «надлежащий распорядитель» технологии, стараясь не выпускать что-то, что могло бы причинить вред. Но теперь, когда Microsoft дополнила свою поисковую систему Bing чат—ботом, что бросает вызов основному бизнесу Google, Google стремится внедрить такую же технологию.

По словам Хинтона, технологические гиганты вовлечены в конкуренцию, остановить которую, возможно, будет невозможно.

Его непосредственная озабоченность заключается в том, что Интернет будет наводнен фальшивыми фотографиями, видео и текстом, и обычный человек «больше не сможет знать, что является правдой».

В будущем он обеспокоен тем, что будущие версии технологии представляют угрозу для человечества, поскольку они часто узнают о неожиданном поведении из огромных объемов данных, которые они анализируют.

По его словам, это становится проблемой, поскольку отдельные лица и компании позволяют системам искусственного интеллекта не только генерировать свой собственный компьютерный код, но и фактически запускать этот код самостоятельно. И он боится того дня, когда по—настоящему автономное оружие — эти роботы-убийцы – станут реальностью.
«Идея о том, что этот материал действительно может стать умнее людей — в это верили немногие”, – сказал он. – Но большинство людей думали, что это было далеко не так. И я думал, что это было далеко не так. Я думал, что до этого еще 30-50 лет, а то и больше. Очевидно, я больше так не думаю», – сказал Хинтон в интервью NYT.

В конце марта генеральный директор Tesla и Twitter Илон Маск и соучредитель Apple Стив Возняк были в числе нескольких технических экспертов, которые призвали к паузе в разработке искусственного интеллекта.
В письме эксперты предупредили о потенциальных рисках для общества и человечества, поскольку технологические гиганты, такие как Google и Microsoft, стремятся создавать программы искусственного интеллекта, способные обучаться самостоятельно.

ВиМ по материалам иностранной прессы

СВЯЗАННЫЕ ПОСТЫ

Оставить комментарий

Этот веб-сайт использует файлы cookie для улучшения вашего опыта. Мы будем считать, что вы согласны с этим, но вы можете отказаться, если хотите. Принимать