ChatGPT の危険性: 優れたパーソナライゼーション ツールまたは優れたフィッシング技術?

公開: 2023-02-28

OpenAI の ChatGPT は世界を席巻しました。

すでに試した何百万人もの人々は別として、メール サービス プロバイダー (ESP) はキャンペーン データを使用して非常に効果的なメールの件名とコンテンツを作成するようにトレーニングしています。

Salesforce ユーザーは、ChatGPT で数式と検証ルールを作成する方法を検討しています。 そして、Microsoft は現在、それを Bing 検索エンジンに組み込んでいます。これが潜在的な「Google キラー」であるという話はすでにあります。

では、新しいテクノロジーはどのように機能するのでしょうか。

ChatGPT (Generative Pre-trained Transformer) は、深層学習技術を使用してテラバイト単位の Web データ (数十億語を含む) を処理し、プロンプトやユーザーからの質問に対する回答を作成します。

インタラクションは、人と話すようなものです。 多くの人が、ChatGPT はチューリング テストに合格した最初の AI アプリケーションであると言っています。つまり、人間と同等の、または人間と区別がつかないインテリジェントな動作を示します。

目を引くユースケースをいくつか見てきました。

  • 英国のタイムズ紙は、ChatGPT を使用して毎日の社説を書き、読者にどのコンテンツが機械で作成されたかを特定するよう求めました。 ほとんどができませんでした!
  • オンライン グリーティング カード小売業者 Moonpig は、 ChatGPT をシステムに統合することを検討しています。 顧客は、頭をかきむしって適切な言葉を探すことなく、パーソナライズされたメッセージや詩を作成するように依頼できます。

ChatGPT は、Web 自体の作成に匹敵する革新と生産性を可能にします。 しかし、すべてのコインには両面があります。 この新しいテクノロジーには潜在的な暗黒面がありますか?

ChatGPT がサイバーセキュリティの攻撃者と防御者の両方に新しい機会をどのように生み出すかを見てみましょう。

より良いフィッシング試行

研究者は、AI によって生成されたコードがサイバー犯罪フォーラムに投稿されていることをすでに確認しています 「ダークサイド」からの ChatGPT の使用例の 1 つは、スピア フィッシングです。これは、特定の個人、組織、または企業を意図的に標的とする電子メール詐欺です。 この戦術を使用して、詐欺師は悪意のある目的でデータを盗んだり、標的のコンピューターにマルウェアをインストールしたりできます。

典型的な例として、会社のスタッフは「CEO」から、リンクされたドキュメントへの投稿や添付ファイルの閲覧を緊急に要求する電子メールを受け取ることがあります。 よく知られている名前と、彼らが通常期待する要求を組み合わせると、もっともらしさが増し、応答する可能性が高くなります。

実際、最近の Royal Mailランサムウェア攻撃がスピア フィッシング メールから始まった可能性は十分にあります。

ChatGPT は指名された人物のスタイルでコンテンツを作成できるため、スピア フィッシング メールはすぐにさらに説得力のあるものになります 詐欺師は、ターゲットの CEO のように聞こえるコンテンツを要求できるようになり、メッセージをより現実的なものにし、従業員が騙される可能性を最大化します。

反社会的エンジニアリング

ChatGPT は、特に信頼を確立する必要がある場合に、他の形態のなりすまし詐欺を強化する可能性もあります。

ChatGPT を使用すると、詐欺師は銀行員、警察官、税務署員 (未払いの請求書があることを被害者に告げる)、またはサービス プロバイダーの担当者 (被害者のルーターがハッキングされており、自分のコンピューターへのリモート アクセスが必要であると主張する) などのより説得力のあるふりをすることができます。問題を修正します)。

ますます一般的な例として、「海外」にいる友人や家族からのメッセージが挙げられます。 彼らは通常、財布と電話が盗まれ、誰かが緊急資金を要求するために別の電話を貸したと言います。

オリジナルコンテンツの死

多くの教育者は、ChatGPT によって学生が別のエッセイを書く必要がなくなることを非常に懸念しています。

すでにこれをテストして、AI によって生成された記事を提出し、信頼できる合格点を獲得した人もいます (クラスのトップでなくても問題ないという条件で)。 教育者は、AI が大規模なカンニングにつながるのではないかと真剣に懸念を募らせており、一部の学校では、それに対応して、すでに宿題のエッセイを廃止しています。

プライバシーの問題

ChatGPT は、どの惑星が Webb 宇宙望遠鏡によって最初に撮影されたかを知ることができます (それは HIP 65426 b でした)。 しかし、このデータの入手方法は、一般データ保護規則(GDPR) やカリフォルニア州消費者プライバシー法 (CCPA) などの新しいプライバシー法と衝突する可能性があります。

画像スクレイピングを使用して顔認識データベースが構築されたClearview AI事件は、欧州全域の規制当局から数百万ドルの罰金を科されました。

ChatGPT の仕組みはまったく同じというわけではありません。データ用の食品ブレンダーのようなもので、元の成分はもはや認識できません。 しかし、個人が自分のデータをこのように使用することを意図しているかどうかという問題は依然として存在します

著作権侵害は、より可能性の高いシナリオです。 米国では、 AI アート ジェネレーター Stable Diffusion の開発元である Stability AI に対して集団訴訟が提起されました。 検察官は、元の画像の所有者の権利を侵害していると主張しました。

また、英国を拠点とする写真とアートのライブラリであるゲッティ イメージズも、ライセンスなしで画像を使用したとして、Stable Diffusion を訴えると述べています。

GPT = 今日保護を受ける

これらのシナリオは少し終末論的に聞こえるかもしれませんが、セーフガードとして使用できる確立されたベスト プラクティスがあります。

  • 警戒は常に防御の最前線です。 銀行や警察当局は、カードの詳細、暗証番号、またはインターネット バンキングのパスワードを要求することはありません。 したがって、同様の要求には非常に懐疑的です。
  • 電子メールを受信するときは、正当な送信者だけが持つデータを確認してください。 これが、銀行が郵便番号をメッセージの一部として含めることが多い理由です。 基になる認証プロトコル (DMARC) が電子メールが検証済みの送信者から送信されたことを確認するため、メッセージ認証 (BIMI) にブランド インジケーターを使用することも重要な役割を果たします。
  • 職場では、組織外からのメールを強調するルールを実装します。 あなたの CEO からのものであると主張しているが、「外部」で始まる電子メールは、すぐに危険信号になります。

AI で作成されたコンテンツを特定する方法

また、AI によって作成されたコンテンツを特定するのに役立つ新しい戦術も登場しています。 たとえば、 GPTZeroのようなツールは、生徒のエッセイが機械で作成されたかどうかを教師や講師が判断するのに役立つように開発されました。

さらに、ChatGPT をソースとするテキストに OpenAI が透かしを挿入するという予測もあります。

また、個人は、生成 AI が使用する可能性のあるデータを保護する方法について、より創造的になるでしょう。 ロック バンドのヴァン ヘイレンが、コンサートの要件の一部として茶色のボウルを取り除いた M&M のボウルを要求したという有名な話があります。 批評家は、彼らが名声を頭に浮かび上がらせていると非難しました。 その後、歌手のデビッド・リー・ロスは、これはイベントプロモーターとの契約(重大な安全要件を伴う)が完全に読まれるようにするためであると説明しました.

人々が自分自身について誤った「事実」を Web 上に広め始める可能性は十分にあります (アンチスパム ベンダーが初期のスパム トラップを展開する方法と同様です)。

たとえば、オーストラリアで育ったことをブログで述べることができます。 (実際は南アフリカでした。)私を知っている人なら誰でも、オーストラリアの言及が真実ではないことを知っているでしょう。その後、私に関するコンテンツでそれが使用された場合、それは危険信号になるでしょう!

AI は依然として善の原動力です

この投稿で概説した懸念にもかかわらず、この AI 革命の全体的な影響は、圧倒的にプラスになるはずです。

これは、自動車やコンピューターなどの重要な発明に匹敵します。 仕事は変化しますが (生活も変化します)、特に AI の開発と展開に関連する分野で、新しい仕事が出現します。 おそらく最も重要なことは、生産性が向上することです。

ジェネレーティブ AI がマーケティングの世界にどのように役立つかについての私たちの予測を聞きたいですか? 最新のState of Email Liveウェビナーをご覧ください。これらの機会について詳しく説明しています。

ウェビナーを見る

そして、あなたの素朴な質問に答えて、いいえ、私はこの記事を書くために ChatGPT を使用しませんでした!