ЕС намерен представить новую инициативу по привлечению крупных технологических компаний к снижению рисков, связанных с ИИ.
БРЮССЕЛЬ. Серия хвалебных комментариев в адрес Гитлера, сделанных чат-ботом Grok с искусственным интеллектом, принадлежащим Илону Маску, побудила европейских политиков потребовать более жёстких мер в отношении крупных технологических компаний, поскольку Евросоюз делает ещё один шаг к ужесточению своих законов.
На этой неделе чат-бот Илона Маска подвергся критике за антисемитские посты, в которых нацистский лидер Адольф Гитлер восхвалялся как человек, лучше всех способный справиться с предполагаемой «ненавистью к белым», после того как X обновил свою модель искусственного интеллекта в минувшие выходные.
Последние нецензурные высказывания чат-бота побудили политиков ЕС потребовать введения строгих правил для самых сложных и продвинутых моделей искусственного интеллекта, таких как та, что лежит в основе Grok. Ожидается, что в четверг будет опубликовано новое отраслевое руководство.
Это также привлекло внимание к тому, как ЕС относится к компании X, которая находится под следствием за нарушение законов блока о социальных сетях.
Инцидент с Grok «подчёркивает вполне реальные риски, для устранения которых был разработан [Европейский] закон об искусственном интеллекте», — заявил депутат Европарламента от итальянских социал-демократов Брандо Бенифеи, который руководил разработкой свода правил ЕС в области искусственного интеллекта, вступившего в силу в прошлом году.
«Этот случай лишь подтверждает необходимость регулирования ЕС в отношении чат-ботов с искусственным интеллектом», — заявила датский депутат от Социал-демократической партии Кристель Шальдемосе, которая возглавляла работу над Законом ЕС о цифровых услугах, направленным на борьбу с опасным онлайн-контентом, таким как разжигание ненависти.
Владелец Grok, компания xAI, быстро удалила «неприемлемые посты» и заявила в среду, что приняла меры, чтобы «запретить разжигание ненависти перед публикацией постов Grok в X», не уточнив, что это значит.
Руководство ЕС — это инструмент добровольного соблюдения требований для компаний, разрабатывающих модели ИИ общего назначения, такие как GPT от OpenAI, Gemini от Google или Grok от X.
На прошлой неделе Европейская комиссия провела закрытую презентацию с которой ознакомилось издание POLITICO, на которой было предложено исключить требования из предыдущих проектов, в том числе требование к компаниям предоставлять информацию о том, как они устраняют системные риски, связанные с их моделями.
Законодатели и организации гражданского общества опасаются, что рекомендации будут недостаточно чёткими, чтобы заставить передовые компании в сфере ИИ соблюдать добровольные правила.
Боеприпасы
После запуска ChatGPT в ноябре 2022 года законодатели и страны ЕС добавили в недавно принятый закон ЕС об искусственном интеллекте раздел, направленный на ограничение моделей ИИ общего назначения, которые могут выполнять несколько задач по запросу. Примером может служить GPT от OpenAI или Grok от xAI.
Эта часть закона вступит в силу через три недели, 2 августа. В ней изложен ряд обязательств для таких компаний, как xAI, в том числе требования о раскрытии данных, используемых для обучения моделей, соблюдении авторских прав и устранении различных «системных» рисков.
Инцидент с Grok «подчеркивает вполне реальные риски, для устранения которых был разработан [Европейский] закон об искусственном интеллекте», — заявил депутат Европарламента от итальянских социал-демократов Брандо Бенифеи, который руководил разработкой свода правил ЕС в области искусственного интеллекта, вступившего в силу в прошлом году. | Wael Hamzeh/EPA
Но многое зависит от рекомендаций по добровольному соблюдению требований, которые Комиссия разрабатывает в течение последних девяти месяцев.
В среду группа пяти высокопоставленных законодателей выразила «большую обеспокоенность» в связи с «исключением в последнюю минуту ключевых положений свода правил, таких как публичная прозрачность, а также ослаблением положений об оценке и снижении рисков».
Эти законодатели считают комментарии Grok ещё одним доказательством важности чётких инструкций, против которых активно выступают представители отрасли и администрация США.
«Комиссия должна решительно выступить против такой практики в соответствии с Законом об искусственном интеллекте», — заявила депутат Европарламента от партии «Зелёные» Ким ван Спаррентак. Но «они, похоже, позволяют Трампу и его технологической олигархии лоббировать правила в области искусственного интеллекта, нарушая кодекс практики».
Одно из спорных мест в отраслевом руководстве напрямую связано с фиаско Grok.
В последних черновиках риск, связанный с незаконным контентом, понижен до уровня, который компании, занимающиеся искусственным интеллектом, могут учитывать, но не обязаны устранять.
Это вызвало ожесточённое сопротивление. Отраслевой кодекс должен содержать «чёткие указания, обеспечивающие ответственное внедрение моделей и не подрывающие демократические или фундаментальные ценности», — сказал Бенифей.
Технический директор Комиссии Хенна Вирккунен в интервью POLITICO на прошлой неделе назвала работу над сводом правил «успешной».
Риски
Отвечая на вопрос об антисемитских высказываниях Grok, Комиссия также указала на то, что в соответствии с Законом о цифровых услугах она продолжает работу по обеспечению соблюдения этого знакового закона о регулировании платформ.
Р
Хотя в ЕС нет правил, определяющих, что является незаконным контентом, во многих странах предусмотрена уголовная ответственность за разжигание ненависти и особенно за антисемитские высказывания.
Крупноязыковые модели, интегрированные в очень крупные онлайн-платформы, в том числе в X, «возможно, должны учитываться при оценке рисков», которую должны проводить платформы, и «подпадать под требования аудита DSA», сообщил POLITICO представитель Комиссии Томас Ренье.
Проблема в том, что ЕС ещё не принял никаких мер против X в рамках своего всеобъемлющего закона.
В январе Комиссия начала расследование с участием нескольких компаний в отношении генеративного ИИ на платформах социальных сетей, уделяя особое внимание галлюцинациям, манипуляциям с голосами избирателей и дипфейкам.
В последнем отчёте X об оценке рисков, где платформа описывает потенциальные угрозы для гражданского дискурса и меры по их устранению, X не упоминает о рисках, связанных с искусственным интеллектом и разжиганием ненависти.
Ни X, ни Комиссия не ответили на вопросы POLITICO о том, была ли проведена новая оценка рисков для Grok после того, как он стал доступен всем пользователям X в декабре.
Депутат Европарламента от французских либералов Сандро Гози заявила, что обратится в Еврокомиссию с вопросом, достаточно ли Закона об искусственном интеллекте и Закона о цифровых услугах для «предотвращения подобной практики» или необходимы новые правила.
Автор: Питер Хек и Элиза Гкрици
