Генеративный искусственный интеллект: что нужно знать каждому директору по информационной безопасности
Управление рисками
Новые технологии всегда меняют ситуацию в области безопасности, но немногие из них, скорее всего, обладают преобразующей силой генеративного искусственного интеллекта. Поскольку такие платформы, как ChatGPT, продолжают завоевывать популярность, директора по информационной безопасности должны понимать, какие беспрецедентные риски кибербезопасности они несут, и что с ними делать.
Автор: Грег Янг, 1 июня 2023 г. Время чтения: (слова)
Сохранить в фолио
«Подрывная» часть подрывных инноваций часто связана с неожиданными последствиями, которые они приносят. Печатный станок облегчил копирование текста, но при этом заново соткал социальную, политическую, экономическую и религиозную ткань Европы. Произведя революцию в мобильности людей, автомобиль изменил дизайн сообщества, породив пригороды и культуру вождения 20-го века. Совсем недавно Всемирная паутина полностью изменила то, как люди общаются друг с другом и получают доступ к информации, переосмысливая при этом вопросы конфиденциальности, геополитических границ и свободы слова.
Генеративный ИИ, кажется, готов стать столь же преобразующим, как и все эти: большие языковые модели, такие как ChatGPT и Google Bard, и генераторы изображений, такие как DALL-E, привлекают огромный интерес всего за несколько месяцев.
Учитывая быстрое распространение этих инструментов, директорам по информационной безопасности срочно необходимо понять связанные с ними риски кибербезопасности и то, чем эти риски радикально отличаются от всех, которые существовали раньше.
Безудержное понимание
Сказать, что компании в восторге от возможностей генеративного искусственного интеллекта, значит не сказать ничего. Согласно одному опросу, всего через шесть месяцев после публичного запуска ChatGPT 49% предприятий заявили, что уже используют его, 30% заявили, что планируют его использовать, а 93% первых пользователей намеревались использовать его больше.
Зачем? Все: от написания документов и создания компьютерного кода до взаимодействия со службой поддержки клиентов. И это лишь поверхностное представление о том, что будет дальше. Сторонники утверждают, что ИИ поможет решить сложные проблемы, такие как изменение климата, и улучшить здоровье человека — например, за счет ускорения рабочих процессов в радиологии и повышения точности результатов рентгенографии, КТ и МРТ, одновременно улучшая результаты с меньшим количеством ложноположительных результатов.
Однако любая новая технология несет в себе риски, включая новые уязвимости и способы атак. Несмотря на весь шум и неразбериху вокруг ИИ сегодня, эти риски еще не до конца понятны.
Что отличает генеративный ИИ?
Машинное обучение (МО) и ранние формы искусственного интеллекта уже давно с нами. Беспилотные автомобили, системы торговли акциями, логистические решения и многое другое сегодня основаны на той или иной комбинации машинного обучения и искусственного интеллекта. В решениях безопасности, таких как XDR, машинное обучение выявляет закономерности и сравнивает поведение, делая аномалии более заметными. ИИ действует как наблюдатель, отслеживая активность и выявляя потенциальные угрозы на основе анализа ML того, как выглядит нормальная или неопасная деятельность, и при необходимости запуская автоматические реакции.
Но машинное обучение и более простые формы искусственного интеллекта в конечном итоге ограничиваются работой с введенными в них данными. Генеративный ИИ отличается тем, что его алгоритмы не обязательно фиксированы или статичны, как обычно в МО: они часто постоянно развиваются, опираясь на прошлый «опыт» системы в рамках ее обучения и позволяя ей создавать совершенно новую информацию.
До сих пор злоумышленники в основном избегали ОД и более ограниченных форм ИИ, поскольку их результаты не представляют особой ценности для эксплуатации. Но возможности машинного обучения по обработке данных в сочетании с креативностью генеративного искусственного интеллекта делают его гораздо более привлекательным инструментом атаки.
Риски безопасности: ключевые вопросы
С кем ты на самом деле разговариваешь?
Британский математик и ученый-компьютерщик Алан Тьюринг в 1950-х годах задумал провести тест, чтобы проверить, можно ли достаточно продвинутый компьютер заменить человека в разговоре на естественном языке. Система искусственного интеллекта LaMDA от Google прошла это испытание в 2022 году, подчеркнув одну из основных проблем безопасности, связанную с генеративным искусственным интеллектом, а именно его способность имитировать человеческое общение.