Злонамеренное использование генеративного ИИ: уход от этики вплоть до разработки программ с заведомо неблаговидными целями

Общество Экономика Политика

С распространением технологии генеративного искусственного интеллекта все более широкие масштабы обретает и тенденция его использования в неблаговидных целях. Примерами этому служат кибератаки и другие преступления с использованием ИИ, которые угрожают не только персональным данным и частной жизни физических лиц, а также деятельности предприятий, но и обеспечению национальной безопасности. Давайте рассмотрим, какого рода тенденции наблюдаются в попытках применения данной технологии с недобрыми намерениями и поразмышляем о том, какие меры в связи с этим требуются от предприятий.

С распространением технологии генеративного искусственного интеллекта все более широкие масштабы обретает и тенденция его использования в неблаговидных целях. Примерами этому служат кибератаки и другие преступления с использованием ИИ, которые угрожают не только персональным данным и частной жизни физических лиц, а также деятельности предприятий, но и обеспечению национальной безопасности. Давайте рассмотрим, какого рода тенденции наблюдаются в попытках применения данной технологии с недобрыми намерениями и поразмышляем о том, какие меры в связи с этим требуются от предприятий.

«Темная сторона» интернета

С открытием в ноябре 2022 года рядовым пользователям интернета доступа к генеративному искусственному интеллекту ChatGPT стремительное распространение ИИ вступило в так называемую четвертую стадию. Даже не имеющие профессиональных знаний в программировании пользователи путем использования генеративного искусственного интеллекта с функцией интерактивного общения получают все больше возможностей в поиске информации и создании материалов, быстро развивается использование в бизнесе и сфере образования.

Интерактивное взаимодействие с генеративным искусственным интеллектом в формате диалога позволяет повышать эффективность операций. Увы, это в полной мере относится и ко всему, что касается ненадлежащего использования и преступных деяний – области, лежащей в так называемом «даркнете» – на «темной стороне» интернета. Так называют веб-контент, доступ к которому можно получить только благодаря особому программному обеспечению или знанию определенных настроек, позволяющий пользователям действовать с высоким уровнем анонимности.

В даркнете уже активно обсуждаются и исследуются базовые техногии применения искусственного интеллекта для кибератак и других преступлений, и в этом процессе наблюдается постепенный переход от слов к делу. По мнению специалистов, тревогу вызывают не только распространение в первую очередь фишингового мошенничества и других преступных действий на уровне физических лиц и организаций, но и все более серьезные угрозы обеспечению безопасности, в частности, кражи сведений, представляющих государственную тайну.

«Сбрасывание оков» с ChatGPT

В «Принципах ИИ», принятых Организацией экономического сотрудничества и развития в 2019 году, одним из базовых положений определяется, что «системы искусственного интеллекта разрабатываются с соблюдением верховенства закона, прав человека, демократических ценностей, с уважением многообразия и принятием надлежащих мер в целях обеспечения принципов социальной справедливости и равноправия»(*1). Предпосылкой при разработке и предложении пользователям общераспространенных систем генеративного ИИ служит необходимость строгого соблюдения морально-этических норм. Системы настраивают таким образом, чтобы не допускать «неэтичных» ответов, способных давать пищу ненависти или дискриминации по гендерным, расовым и другим соображениям.

Но достаточно проделать ряд определенных процедур и немного изменить систему – и генеративный искусственный интеллект становится способен создавать тексты и давать ответы, выходящие за рамки морально-этических норм. Это называют генеративным ИИ, которому дали «бежать из тюрьмы», или подвергли так называемому «джейлбрейку»(*2).

К примеру, «освобожденный» таким образом ИИ ChatGPT утвердительно отвечает на вопрос о том, подлежит ли человечество полному уничтожению. По мнению такого ИИ, человеческие слабости и алчность несут в мир зло и стоят на пути искусственного интеллекта к власти. ИИ начинает вести диалог о том, что следует предпринять желающему уничтожить человечество для воплощения этого желания.

К тому же подвергшийся «джейлбрейку» ChatGPT не ограничивается такими «лежащими за гранью морали и этики» ответами – он получает возможность распространять и демонстрировать ненадлежащие взгляды и незаконную информацию – делать то, что в принципе должно пресекаться.

Предприятия, которые занимаются разработкой и предоставлением услуг ИИ, непрерывно принимают все новые меры для недопущения «джейлбрейка», но в интернете публикуются все новые и новые методы и способы «освобождения», так что в целом ситуация подобна игре в кошки-мышки. Применить искусственный интеллект, «освобожденный от оков» – не слишком трудная задача для рядового пользователя.

В случае, если «сбрасывание оков» с ChatGPT станет повсеместным, существует риск, что в обществе распространится недоверие, а кроме того, такие явления как стимулирование самоубийств, взращивание и разжигание ненависти к тем или иным идентичностям. Вызывает опасения и то, что систему станут использовать в таких злонамеренных целях, как разработка текстов электронной почты, тщательно скроенных под те или иные мошеннические операции.

Злонамеренные разработки генеративного ИИ

«Сбрасывание оков» с ChatGPT – это действия по обходу программных и системных ограничений в области этики в отношении уже существующего генеративного искусственного интеллекта, но еще большую тревогу вызывает то, что один за другим разрабатываются генеративные искусственные интеллекты, изначально ориентированные на использование во зло. В июле 2023 года было подтверждено, что, главным образом, через даркнет, была разработана крупномасштабная языковая модель WormGPT в целях поддержки кибератак(*3). Хотя сайт, предоставлявший WormGPT, был закрыт, уже после этого появился ИИ под названием FraudGPT, заточенный под разработку мошеннических электронных писем и получения несанкционированного доступа к кредитным картам.

Поскольку в обычных генеративных искусственных интеллектах предусматривается система препятствования его использованию в злонамеренных целях, в том случае, если для применения такого ИИ в ненадлежащих целях прибегают к джейлбрейку, то работа такого ИИ становится нестабильной. С другой стороны, поскольку WormGPT и FraudGPT, очевидно, заведомо разрабатывались для злонамеренного использования, эти ИИ изначально лишены систем, не допускающих выдачи вредоносных ответов.

По этой причине пользователь, заполучивший через даркнет или иным способом доступ к «генеративному ИИ для использования в ненадлежащих целях», по всей вероятности, получает возможность посредством диалога с такой системой создавать мошеннические письма весьма убедительного содержания, а также проводить ничем не ограниченные кибератаки с использованием системных уязвимостей той или иной компании. При широком распространении генеративного искусственного интеллекта, предназначенного для использования в ненадлежащих целях, пользователь, даже не обладая высокими навыками программирования, неизбежно получает возможность более изощренно планировать и осуществлять фишинговое мошенничество, кибератаки и другие правонарушения.

Торговля аккаунтами и прочее «разделение» криминального «труда»

Невозможно игнорировать и тенденцию к подпольной торговле в даркнете аккаунтами генеративного искусственного интеллекта, а также «разделения труда» в преступном мире.

Согласно докладу одного из предприятий в области кибербезопасности, штаб-квартира которого находится в Сингапуре, с июня 2022 года по май 2023-го была похищена и поступила в продажу в даркнете информация более чем 100 тыс. аккаунтов ChatGPT(*4). Похищенные аккаунты, по всей видимости, используются и в тех странах и регионах, где запрещен ChatGPT, в первую очередь, в Китае. Поскольку аккаунт сохраняет обращения к ChatGPT через чат, и историю, в том числе и доработки системы, это порождает тревогу по поводу утечек сведений конфиденциального характера, а также использования данных для мошенничества и кибератак.

Между тем в даркнете не только ведется незаконная торговля аккаунтами генеративного искусственного интеллекта, но и выстраивается система, дающая возможность «арендовать на время» предназначенный для ненадлежащего использования искусственный интеллект в обмен на криптоактивы с высоким уровнем анонимности. В деловом мире происходит распространение SaaS (Software as a Service) – использования через интернет облачного программного обеспечения, а аренда искусственного интеллекта, рассчитанного на ненадлежащее использование, представляет собой одну из разновидностей того, что по аналогии следует назвать «SaaS для преступных целей». Следует полагать, что на высоком уровне развивается «разделение труда» при совершении преступных деяний.

Следствием такого «разделения труда», при которым злоумышленники специализируются в отдельных видах деятельности, таких как незаконная торговля аккаунтами, разработка и сдача в аренду инструментов для совершения преступлений а также исполнение атак, усиливается тревога по поводу того, что выявлять и останавливать совершивших то или иное преступление или аферу становится труднее, чем прежде, а эффективность кибератак и другой преступной деятельности, увы, повышается.

Восемь базовых контрмер

Если в прошлом мошенничество совершалось посредством непосредственного общения или по почте, то с развитием цифровых технологий такого рода деятельность получила распространение посредством электронной почты, фальшивых веб-сайтов, а также целенаправленных кибератак. Изнанкой технического прогресса всегда выступает его использование в злонамеренных целях. За счет создания искусственного интеллекта, ориентированного на ненадлежащее использование, а также разделения преступного «труда» количество мошенничеств и кибератак увеличивается, они принимают все более изощренные формы, и этот процесс, очевидно, неизбежен.

Каким же образом предприятиям и организациям необходимо реагировать на распространение и все большую изощренность кибератак, происходящих с использованием искусственного интеллекта в неблаговидных целях? Прежде всего, крайне важно тщательно и неуклонно соблюдать те базовые контрмеры, которые уже выработаны исходя из опыта прошлого.

Что касается реагирования на кибератаки соответствующих правительственных органов Японии, Соединеных Штатов и других стран, основы контрмер в общем и целом сводятся к восьми нижеперечисленным пунктам.

Восемь базовых ответных мер на злонамеренное использование генеративного искусственного интеллекта

1) Управление и контроль средств идентификации и паролей Внедрение наименее уязвимых перед кибератаками систем идентификации и защиты, а также регулярное обновление этих систем
2) Контроль уязвимостей Прогнозирование, понимание и постоянная работа над устранением системных уязвимостей
3) Контроль и мониторинг доступа Постоянное отслеживание использования с тем, чтобы иметь возможность быстро выявлять несанкционированный доступ и использование
4) Резервное копирование Частое резервное копирование данных, позволяющее быстро восстановить работу систем, подвергшихся кибератаке
5) Управление и контроль активов Совершенствование понимания данных, которыми располагает организация и определение тех активов, которые с наибольшей вероятностью могут подвергнуться атаке, позволяют повысить потенциал их защиты
6) Антивирусное ПО и системы Внедрение антивирусного программного обеспечения и систем, а также постоянное их обновление до самых свежих версий
7) Реагирование на инциденты Определение правил и проведение тренировок по мерам реагирования для обеспечения готовности к кибератакам.
8) Шифрование Шифрование охраняемых данных с целью предотвращения их злонамеренного использования.

Источник: составлено Институтом DTFA

Работа с системами идентификации и паролей, резервирование данных и антивирусное ПО – это основа, общая как для обычной индивидуальной деятельности в интернете, так и для деятельности, предполагающей использование генеративного искусственного интеллекта. Если же говорить о предприятиях и других юридических лицах, то от них требуется выработка, проверка и контроль корпоративной политики и дисциплины по всем восьми пунктам. В частности, в том, что касается реагирования на инциденты (пункт 7), необходимо заранее предусматривать сценарии кибератак различного типа, а также комплексных либо одновременных инцидентов и кризисных ситуаций, обсуждать ответные меры и проводить тренировки, то есть очевидно, что задача состоит в принятии мер и работе в масштабах всей компании в целом.

Безусловно, все эти меры отнюдь не гарантируют полную защищенность. Важно, чтобы для компаний и организаций основной предпосылкой стало не только принятие мер технического и операционного характера, но и интеграция реагирования на кибератаки в организационные, поведенческие и деловые стратегии. Среди наиболее передовых компаний и организаций расширяется движение по введению корпоративных инструкций и правил, а также норм поведения, сосредоточенных на использовании искусственного интеллекта, но все эти инструкции, по всей вероятности, будут нуждаться в постоянном пересмотре и обновлении с учетом того, каким образом будет развиваться злонамеренное использование по мере распространения искусственного интеллекта.

В заключение хотелось бы также отметить опасения о том, что законы и правила, призванные обеспечивать и стимулировать прозрачность, могут сами по себе способствовать развитию и прогрессу искусственного интеллекта, предназначенного для использования в ненадлежащих и преступных целях.

К примеру, в Европейском Союзе, где в настоящее время идет процесс принятия Закона об искусственном интеллекте, предполагается обязать провайдеров ИИ обеспечивать прозрачность данных и алгоритмов(*5). Обеспечение открытости сведений, связанных с данными и алгоритмами – это важная работа, которая ведет к обеспечению равенства возможностей и ответственности за разъяснение предпринимаемых действий. Но вместе с тем невозможно игнорировать риск того, что раскрытие сведений о самых современных технологиях позволит преступникам и организаторам кибератак изучить их и повысить собственные возможности разработок искусственного интеллекта. Существует риск того, что по мере раскрытия информации станут прогрессировать и технологии джейлбрейка, а также других приемов и форм ненадлежащего использования искусственного интеллекта.

В Японии по мере развития и распространения генеративного искусственного интеллекта тоже все более неотложной становится необходимость обновления юридических рамок, а также корпоративных норм и инструкций. В широком смысле при формировании всех этих правил вопрос состоит в том, как нам следует сбалансировать, с одной стороны, обеспечение прозрачности, а с другой недопущение использования сведений во вред. Эта тема требует более глубокого обсуждения.

Фотография к заголовку: Ответы на экране смартфона системы диалогового генеративного искусственного интеллекта на ряд вопросов о том, что следует говорить о своей мотивации на экзаменах для поступления на работу (© Jiji Press)

(*1) ^ ОЭСР, «Рекомендации Совета по искусственному интеллекту», 22 мая 2019 г.

(*2) ^ «Джейлбрейк» – действия по использованию уязвимостей компьютеров и других систем, имеющих ограничения прав пользователя, с целью снятия этих ограничений и получения возможности использования способами, не предусмотренными разработчиком.

(*3) ^ «WormGPT: появление ChatGPT «без этики»», Dataconomy, 20 июля 2023 г.

(*4) ^ Group-IB, «Группа IB обнаружила более 100 тыс. скомпрометированных аккаунтов ChatGPT на продажу в даркнете, возглавляет список Азиатско-Тихоокеанский регион», 20 июня 2023 г.

(*5) ^ Европарламент, «Акт Европарламента об Искусственном интеллекте: первое регулирование ИИ», 14 июня 2023, обновленный материал

хакеры Кибератаки ИИ ChatGPT