Это начало конца? Каждое десятилетие приносит с собой моменты, которые заставляют нас задуматься о том, не приближается ли человеческая цивилизация к крупной катастрофе. От историй о мировых войнах и изменении климата до политической нестабильности и технологических сдвигов — легко почувствовать, что мир подходит к концу. Но действительно ли это начало конца или просто следующий этап в эпоху эволюции человечества?
В этой статье мы подробно рассмотрим современные тенденции в области разработки искусственного интеллекта (ИИ), этические аспекты и исламский взгляд на его развитие.
Расцвет искусственного интеллекта и глобальные амбиции
Искусственный интеллект — это уже не футуристическая концепция, а реальность настоящего. Соединённые Штаты и Китай находятся в авангарде новой глобальной гонки за доминирование в сфере ИИ, что вызывает споры о его преимуществах и рисках.
Всего месяц назад президент Дональд Трамп был приведён к присяге в качестве 47го президента Соединённых Штатов, сменив на этом посту бывшего президента Джо Байдена. Несколько дней спустя он объявил о «Проекте Звёздных врат» стоимостью 500 миллиардов долларов — амбициозном проекте в области искусственного интеллекта, целью которого является создание крупных центров обработки данных по всей территории Соединённых Штатов. Хотя детали проекта всё ещё неясны, одно остаётся неизменным — США стремятся возглавить мир в марафоне искусственного интеллекта.
Тем временем китайская технологическая индустрия также набирает обороты. Китайский стартап недавно выпустил DeepSeek-R1 — модель ИИ с открытым исходным кодом, которая конкурирует с ChatGPT-4 от OpenAI. Хосе Антонио, технический аналитик, отмечает, что она превосходит ChatGPT по нескольким показателям, а также значительно более низкую стоимость — 0,14 доллара за миллион токенов по сравнению с 7,50 доллара у OpenAI. Выпуск модели вызвал реакцию пользователей сети и даже привёл к обвалу фондовых рынков, когда стало известно о её эффективности по сравнению с моделью OpenAI и её доступности.
AGI: Прогресс или опасность? Должны ли мы опасаться развития искусственного интеллекта?
Развитие искусственного интеллекта больше не является новостью. На самом деле, мы постепенно вступаем в эпоху общего искусственного интеллекта (AGI), разновидности ИИ, способной сравняться с интеллектом человека или даже превзойти его в широком спектре когнитивных задач. Генеральный директор Open AI Сэм Альтман, возглавляющий проект «Звёздные врата», недавно объявил о планах компании выпустить «первого ИИ-агента», который он называет «самой мощной технологией в истории человечества».
Развитие искусственного интеллекта, а в последнее время и сверхразумного интеллекта, похоже на обоюдоострый меч, у которого есть как многообещающее будущее, так и потенциальная опасность для человечества. Возможности искусственного интеллекта сейчас выходят за рамки нашего понимания, и он способен выполнять удивительные задачи. В статье Уилла Дугласа, технического аналитика, он объясняет работу «Оператора», первого ИИ-агента, выпущенного OpenAI. Он мог выполнять определённые онлайн-задачи, такие как бронирование билетов, резервирование мест и оформление онлайн-заказов продуктов, — всё это путём создания снимков экрана компьютера, сканирования пикселей и взаимодействия с кнопками на нём.
Однако эти достижения вызывают опасения. Нарушение конфиденциальности, дезинформация и нерегулируемое использование — вот лишь несколько рисков, которые беспокоят экспертов. В интервью BBC Newsnight Джеффри Хинтон, «крестный отец» ИИ, выразил обеспокоенность нерегулируемым развитием ИИ, которое он называет «экзистенциальной угрозой». Хинтон считает, что современные большие языковые модели, которые у нас есть, гораздо мощнее, чем мы думаем. Он объясняет, почему, по его мнению, они являются «высшей формой интеллекта».
«Представьте, что вы можете создать множество копий одной и той же нейронной сети [скажем, 10 000], каждая из которых может изучать разные данные, и все они делятся друг с другом тем, что узнают. Он сравнивает это с 10 000 человек, каждый из которых получает диплом и делится своими знаниями с другими 10 000. Представьте, насколько умными они стали бы», — добавляет Хинтон. К сожалению, это невозможно для людей, но возможно для нейронных сетей.
Точно так же в эксклюзивном интервью сBusiness Insider Йошуа Бенжио, канадский учёный-исследователь, которого наряду с Джеффри Хинтоном и Янном Лекуном считают крёстным отцом ИИ, предупреждает о риске создания агентного ИИ.
«Все катастрофические сценарии, связанные с искусственным общим интеллектом или суперинтеллектом, происходят, если у нас есть агенты […]. Если мы создадим неагентные системы искусственного интеллекта, их можно будет использовать для управления агентными системами», — сказал Бенджио в интервью BI.
Во время панельной дискуссии о безопасности ИИ Бенджио также назвал разработку ИИ-агентов «тревожным сигналом» и «самым опасным путём». Однако он подчеркнул, что ИИ можно использовать во благо — например, для научных открытий, — которые не требуют агентских систем, таких как DeepMind, совершивший прорыв в сворачивании белков.
ИИ: Темная сторона
В видео, опубликованном Чарли Хольцем, программистом, на его странице в X, он делится своим опытом использования модели GPT-4 + vision @elevenlabs, которая имитирует голос Дэвида Аттенборо, британского телеведущего и биолога, и рассказывает о жизни Хольца. Это видео стало популярным в социальных сетях и вызвало несколько реакций: пользователи хвалили модель ИИ.
Всего через неделю после этого инцидента сэр Дэвид Аттенборо — настоящий — выразил обеспокоенность тем, что этот ИИ потенциально может ввести людей в заблуждение, заставив их поверить в то, что он говорит вещи, противоречащие его убеждениям. Дэвид Аттенборо считает, что ИИ-версия его самого вызывает у него лично тревогу. Это наглядно демонстрирует одно из возможных злоупотреблений генеративным ИИ в технологии дипфейков.
Мы также видим недавние обвинения в адрес генерального директора Meta Марка Цукерберга, которого обвинили в использовании пиратского контента для обучения своих моделей ИИ. . Это произошло после судебного иска, поданного против него в 2022 году за то, что он позволил Cambridge Analytica собирать данные пользователей Facebook без их согласия с помощью алгоритмов ИИ. Эксперты выражают обеспокоенность по поводу ИИ и нарушений конфиденциальности данных.
Ник Робинс-Эрли, технический аналитик, также подтверждает, что в настоящее время в войнах по всему миру используются системы искусственного интеллекта, оснащённые оружием. Например, Китай в настоящее время разрабатывает роботизированных собак с оружием в руках, а вооружённые дроны используются в российско-украинской войне.
Несколько стран сейчас используют зону боевых действий в качестве полигона для своих систем искусственного интеллекта, что поднимает актуальные вопросы о нерегулируемом применении ИИ в военных действиях.
Исламская этика в развитии искусственного интеллекта
В свете этих опасений важно учитывать этические принципы, изложенные в учении ислама. Священный Коран поощряет изучение природы и использование знаний на благо человечества:
اَوَلَمۡ یَتَفَکَّرُوۡا فِیۡۤ اَنۡفُسِہِمۡ ۟ مَا خَلَقَ اللّٰہُ السَّمٰوٰتِ وَالۡاَرۡضَ وَمَا بَیۡنَہُمَاۤ اِلَّا بِالۡحَقِّ وَاَجَلٍ مُّسَمًّی ؕ وَاِنَّ کَثِیۡرًا مِّنَ النَّاسِ بِلِقَآیِٔ رَبِّہِمۡ لَکٰفِرُوۡنَ
«Неужели они не размышляют? Аллах сотворил небеса и землю и всё, что между ними, в соответствии с требованиями мудрости и на определённый срок. Но многие из людей не верят в встречу со своим Господом». (Сура ар-Рум, 30:9)
Тем не менее, Священный Коран предупреждает человечество, чтобы оно не устраивало собственное уничтожение:
И не уподобляйтесь им в их заблуждениях
«[…] и не погубите себя собственными руками» (Сура «Бакара», глава 2: V.196)
Подходящей аналогией для человечества, которое само себя уничтожает, является Манхэттенский проект, в результате которого была создана первая атомная бомба. Даже Роберт Оппенгеймер, учёный, стоявший за её разработкой, выразил глубокое сожаление, узнав о разрушительных последствиях бомбы.
В том же ключе первопроходцы в области искусственного интеллекта сейчас выражают обеспокоенность его быстрым развитием. В связи с тревожным ростом популярности ИИ кажется, что история вот-вот повторится.
Аллах Всемогущий наделил нас свободой воли. Он также наделил нас способностью отличать добро от зла:
И это уже не случайность
«И Мы указали ему два пути [добра и зла]». (Сура аль-Балад, аят 90: V.11)
Точно так же Обетованный Мессияаш подчёркивал важность использования данных Богом способностей в нужное время и в нужном месте. (Малфузат [2018], т. 1, стр. 34)
Священный Коран также особо подчеркивает важность проверки информации:
يَـٰٓأَيُّهَا ٱلَّذِينَ ءَامَنُوٓاْ إِن جَآءَكُمۡ فَاسِقُۢ بِنَبَإٖ فَتَبَيَّنُوٓاْ أَن تُصِيبُواْ قَوۡمَۢا بِجَهَٰلَةٖ فَتُصۡبِحُواْ عَلَىٰ مَا فَعَلۡتُمۡ نَٰدِمِينَ
«О вы, которые уверовали! Если неправедный человек принесёт вам какую-либо весть, то убедитесь [в правдивости] донесения, чтобы вы не навредили людям по незнанию, а затем раскаялись в содеянном». (Сура аль-Худжурат, аят 7)
Этот стих особенно актуален в наше время, когда в интернете появляется бесчисленное количество ложной информации.
Священный Коран также призывает человека задуматься над своими поступками:
И когда ты войдёшь в землю, чтобы поселиться в ней, и когда ты будешь подобен земледельцу и землепашцу, и когда Аллах не полюбит фасад
«И когда он приходит к власти, он расхаживает по земле, сея в ней смуту и уничтожая посевы и потомство [людей]; а Аллах не любит смуты». (Сура «Бакара», аят 206)
Смысл этого стиха можно также отнести к сверхдержавам: они должны задуматься о своих действиях. Неконтролируемое развитие ИИ без этического надзора может привести к значительному ущербу для человечества. Это говорит о необходимости сбалансированного подхода к разработке и использованию ИИ.
Во время мулакас командойсайта AlislamХузур-и-Анвар а подчеркнул важность человеческого контроля при ответственном использовании ИИ. Он также посоветовал, чтобы вся информация, полученная с помощью ИИ, особенно та, что касается Джамаата, подвергалась редактированию и анализу, чтобы убедиться, что она написана правильно. Хузур а также предупредил о возможном злоупотреблении ИИ и необходимости разработки превентивных мер, чтобы избежать распространения неверной информации.
В другом мулакате, говоря об искусственном интеллекте, Хузураа призвал ахмади проводить более глубокие исследования в этой области. Он привёл пример, когда ИИ получил предложение, но неправильно перевёл его. Несмотря на этот недостаток, Хузураа не осудил использование ИИ; вместо этого он подчеркнул важность тщательной проверки информации, которую он генерирует, чтобы обеспечить точность и надёжность.
Призыв к ответственному искусственному интеллекту
По мере развития ИИ люди оказываются на перепутье. Несмотря на огромный потенциал для научных открытий и пользы для общества, нельзя пренебрегать рисками неконтролируемого развития. Этические соображения, такие как конфиденциальность, справедливость и подотчётность, должны определять использование и развитие ИИ. Таким образом, чтобы снизить риски, связанные с развитием ИИ, было бы разумно принять некоторые меры безопасности:
Разработка прозрачной модели: документирование проектирования систем, процессов обучения и принятия решений имеет решающее значение для выявления и устранения потенциальных предубеждений в системах ИИ.
Строгое государственное регулирование: государственным органам необходимо принять законы, которые обеспечат тщательный контроль за компаниями, разрабатывающими ИИ, чтобы все созданные модели ИИ соответствовали правилам и рекомендациям в области ИИ. Это предотвратит любое злоупотребление и снизит потенциальные риски.
Международные нормы: существует острая необходимость в том, чтобы континентальные и международные организации, такие как Европейский союз и Организация Объединённых Наций, приняли всеобъемлющие законы, запрещающие разработку и использование ИИ в современных военных конфликтах.
Такие правила предотвратят превращение систем искусственного интеллекта в оружие и уменьшат последствия, связанные с использованием автономных систем вооружения. Страны, которые не будут соблюдать эти установленные стандарты, должны столкнуться со строгими санкциями, чтобы обеспечить подотчётность и предотвратить нарушения. Это необходимый шаг для обеспечения мира и безопасности во всём мире.
Заключение
В заключение отметим, что экспоненциальное развитие ИИ, несомненно, полезно, но, как и все другие технологические изменения, оно сопряжено с определёнными рисками. Хотя опасения по поводу его опасности и злоупотребления им обоснованны, мы не можем полностью отрицать его положительное влияние в современную эпоху.
Если ИИ будет разрабатываться ответственно, он может помочь нам по-новому взглянуть на природу, привести нас к крупным научным прорывам и даже помочь преодолеть экономические кризисы.
Вопрос не в том, будет ли ИИ формировать наше будущее, а в том, как мы решим формировать ИИ, чтобы он отражал лучшее, что есть в человечестве.
Автор- Лавал Ибрагим Оланийи, выпускник факультета машиностроения, Нигерия
