Опасности ChatGPT: отличный инструмент персонализации или отличная технология фишинга?

Опубликовано: 2023-02-28

ChatGPT от OpenAI покорил мир.

Помимо миллионов людей, которые уже попробовали его, поставщики услуг электронной почты (ESP) обучают его, используя данные кампании, для создания высокоэффективных тем и контента электронной почты.

Пользователи Salesforce изучают, как ChatGPT может создавать формулы и правила проверки. И Microsoft теперь включила его в свою поисковую систему Bing — уже говорят о том, что это потенциальный «убийца Google!»

Итак, как работает новая технология?

ChatGPT (Generative Pre-trained Transformer) использует методы глубокого обучения для обработки терабайтов веб-данных (содержащихмиллиардыслов) для создания ответов на подсказки или вопросы пользователей.

Взаимодействия похожи на разговор с человеком. Многие говорят, что ChatGPT — первое приложение ИИ, прошедшее тест Тьюринга, то есть оно демонстрирует интеллектуальное поведение, эквивалентное человеческому существу или неотличимое от него.

Мы уже видели несколько привлекательных вариантов использования:

  • Британская газета Times использовала ChatGPT для написания своей ежедневной редакционной статьи , а затем попросила читателей определить, какой контент был создан компьютером. Большинство не смогли!
  • Интернет-магазин поздравительных открыток Moonpig рассматривает возможность интеграции ChatGPT в свои системы. Клиенты могут попросить его создать персонализированное сообщение или стихотворение, не ломая головы в поисках нужных слов.

ChatGPT обеспечивает инновации и производительность, которые могут изменить правила игры, соперничая с созданием самой сети. Но у каждой медали есть две стороны. Есть ли потенциальная темная сторона этой новой технологии?

Давайте посмотрим, как ChatGPT может создать новые возможности как для злоумышленников, так и для защитников кибербезопасности.

Улучшенные попытки фишинга

Исследователи уже видят сгенерированный ИИ код, размещенный на форумах по киберпреступности . Одним из вариантов использования ChatGPT с «темной стороны» является целевой фишинг — мошенничество с электронной почтой, намеренно нацеленное на конкретных лиц, организации или предприятия. Используя эту тактику, мошенники могут красть данные в злонамеренных целях или устанавливать вредоносное ПО на целевых компьютерах.

В типичном примере сотрудники компании могут получить электронное письмо от своего «генерального директора» с настоятельной просьбой внести свой вклад в связанный документ или прочитать вложение. Знакомое имя в сочетании с запросом, которого они обычно ожидают, повышает правдоподобие — и вероятность того, что они ответят.

На самом деле, вполне возможно, что недавняя атака программы-вымогателя Royal Mail началась с фишингового электронного письма.

Поскольку ChatGPT может создавать контент в стиле назначенного человека, фишинговые электронные письма скоро станут ещеболееубедительными. Мошенники теперь могут запрашивать контент, похожий на генерального директора цели, что делает сообщение еще более реалистичным и увеличивает вероятность того, что сотрудники попадутся на него.

Антисоциальная инженерия

ChatGPT также может усиливать другие формы мошенничества с выдачей себя за другое лицо, особенно в тех случаях, когда необходимо установить доверие.

Используя ChatGPT, мошенники могут более убедительно изображать из себя банковских служащих, сотрудников полиции, налоговых служащих (которые сообщают жертвам, что у них есть неоплаченный счет) или представителей поставщиков услуг (которые утверждают, что маршрутизаторы жертв были взломаны, и им нужен удаленный доступ к их компьютерам). решить проблему).

Все более распространенным примером являются сообщения от друзей или членов семьи, которые находятся «за границей». Обычно они говорят, что их бумажник и телефон украдены, и кто-то одолжил им еще один телефон, чтобы запросить средства на экстренный случай.

Смерть оригинального контента

Многие преподаватели крайне обеспокоены тем, что ChatGPT означает, что учащимся никогда не придется писать еще одно эссе.

Некоторые уже испытали это на себе , отправляя статьи, созданные ИИ, и получая заслуживающие доверия проходные баллы (при условии, что они согласны с тем, что не являются лучшими в своем классе). Педагоги серьезно обеспокоены тем, что ИИ приведет к массовому списыванию, и в ответ некоторые школы уже отказываются от домашних заданий.

Вопросы конфиденциальности

ChatGPT может знать, какая планета была впервые сфотографирована космическим телескопом Webb (это была HIP 65426 b). Но способ получения этих данных может противоречить новым законам о конфиденциальности, таким как Общее положение о защите данных (GDPR) и Калифорнийский закон о конфиденциальности потребителей (CCPA).

Дело Clearview AI , в котором база данных распознавания лиц была создана с использованием очистки изображений, закончилось многомиллионными штрафами со стороны общеевропейских регуляторов.

Принцип работы ChatGPT не совсем такой: он больше похож на блендер для данных, где исходные ингредиенты больше не распознаются. Но по-прежнему будет возникать вопрос о том,намеревалисьли люди использовать свои данные таким образом.

Нарушение авторских прав является более вероятным сценарием. В США был подан коллективный иск против Stability AI, разработчика арт-генератора искусственного интеллекта Stable Diffusion. Прокуроры заявляют о нарушении прав владельцев оригинального изображения.

И Getty Images, британская фото- и художественная библиотека, заявляет, что также подаст в суд на Stable Diffusion за использование своих изображений без лицензии.

GPT = Получите защиту сегодня

Хотя эти сценарии могут показаться немного апокалиптическими, существуют проверенные передовые методы, которые можно использовать в качестве мер безопасности:

  • Бдительность всегда является первой линией обороны. Банки и сотрудники полиции никогда не будут запрашивать данные карты, PIN-коды или пароли для интернет-банкинга. Так что относитесь к любым подобным просьбам крайне скептически.
  • При получении электронного письма проверяйте наличие данных, которые могут быть только у законного отправителя. Вот почему банки часто включают почтовые индексы в свои сообщения. Использование индикаторов бренда для аутентификации сообщений (BIMI) также будет играть здесь ключевую роль, поскольку базовый протокол аутентификации (DMARC) подтверждает, что электронное письмо исходит от проверенного отправителя.
  • На работе внедрите правила, чтобы выделять электронные письма из-за пределов вашей организации. Электронное письмо, якобы отправленное вашим генеральным директором, но с предисловием «внешнее», сразу же станет тревожным сигналом.

Как идентифицировать контент, созданный ИИ

Мы также наблюдаем появление новых тактик, помогающих идентифицировать контент, созданный ИИ. Например, такие инструменты, как GPTZero, были разработаны, чтобы помочь учителям и преподавателям определить, написаны ли эссе их студентов машинным способом.

Кроме того, есть прогнозы, что OpenAI вставит водяной знак в текст, полученный из ChatGPT.

Люди также станут более изобретательными в отношении того, как они защищают данные, которые могут использовать генеративные ИИ. Есть известная история о том, как рок-группа Van Halen требовала тарелки с M&Ms, убрав коричневые, как часть их концертных требований. Критики обвиняли их в том, что слава вскружила им голову. Затем их вокалист Дэвид Ли Рот объяснил, что это было сделано для того, чтобы их контракты с организаторами мероприятий (со значительными требованиями безопасности) были полностью прочитаны.

Вполне возможно, что люди начнут рассылать в сети неверные «факты» о себе (по аналогии с тем, как поставщики средств защиты от спама устанавливают первоначальные спам-ловушки).

Например, я мог бы заявить в блоге, что я вырос в Австралии. (На самом деле это была Южная Африка.) Любой, кто знает меня, поймет, что упоминание об Австралии не соответствует действительности, и если бы оно впоследствии использовалось в материалах обо мне, это было бы тревожным сигналом!

ИИ по-прежнему является силой добра

Несмотря на опасения, которые я изложил в этом посте, общее влияние этой революции ИИ должно быть исключительно положительным.

Его можно сравнить с другими важными изобретениями, такими как автомобиль и компьютер. Профессии изменятся (как и жизнь), но появятся новые, особенно в областях, связанных с разработкой и внедрением ИИ. Возможно, самое главное, повысится производительность.

Хотите услышать наши прогнозы о том, как генеративный ИИ послужит миру маркетинга? Посмотрите наш недавний веб-семинар State of Email Live , где мы подробно рассмотрим эти возможности.

Посмотреть вебинар

И в ответ на ваш незаданный вопрос: нет, я не использовал ChatGPT для написания этой статьи!