Ipad

2019年には不正AIチャットボットが登場するのか? 新年に注目すべき、そして注目すべきニュースはこちら

2019年には不正AIチャットボットが登場するのか? 新年に注目すべき、そして注目すべきニュースはこちら
(Pixabay / モハメド・ハッサン画像)

ショッピングサイトを閲覧していると、「こんにちは、ジョンです。今日は何かお手伝いが必要ですか?」というポップアップウィンドウが突然表示されます。

ここ数年、オンラインショッピング、製品サポート、あるいはベンダーのウェブサイトを訪れたことがあるなら、一見親切そうなチャットボットが次々と現れ、あなたのあらゆる要望や気まぐれに対応してくれることに気づいたはずです。特定のウェブサイトで少し長く滞在しすぎると、チャットダイアログウィンドウが表示されることがあります。多くの場合、フレンドリーな画像が表示され、まるで人間と話しているかのように錯覚させられます。しかし実際には、ウェブサイトがビジネス向上のために導入した自動チャットボットに遭遇した可能性が高いのです。

AI搭載のチャットボットは、昨今、オンラインビジネスを展開する企業の間で大流行しています。サポートへの問い合わせを70%削減し、訪問者を希望の商品へと迅速に誘導することで、収益と利益の向上につながると宣伝されています。

チャットボットに質問すると、答えが返ってくるか、少なくともその答えを見つけられるリンクへと誘導してくれます。一見すると、チャットボットはwin-winの関係のように見えます。顧客は質問を迅速に解決でき、企業は人間の担当者に費やす時間と費用を削減できるからです。しかし、機械学習の装置に過度の信頼を寄せることで、私たちは偽善の道を歩んでいるのかもしれません。

2019 年には、サイバー犯罪者が AI チャットボットを私たちに仕掛けてくると予測しています。

2019年:潜在的に悪質なチャットボットの新たな年

毎年年末になると、私のチームと私は、サイバー攻撃者がその年のマルウェアやデジタル攻撃をどのように変化させるかを予測しようとします。今年は、AI駆動型チャットボットが悪用されると予測しました。脅威情勢における定量化可能な傾向に基づく多くの予測とは異なり、この予測は、AI技術の急速な進化とサイバー犯罪者のソーシャルエンジニアリングの歴史を鑑みて得た直感から生まれたものです。

この不正チャットボットの予測には、短期的なものと長期的なものの2つのバージョンがあります。それぞれ見ていきましょう。

近い将来、文字通り来年には、悪意のあるハッカーが正規のウェブサイトに偽のテキストチャットボットを埋め込み、訪問者をソーシャルエンジニアリングで操作するようになるだろうと予測しています。近年、チャットボットを目にする機会が増えたため、その存在に慣れ、以前ほど疑念を抱かなくなったかもしれません。しかし、多くのウェブサイトにはまだチャットボットが実装されておらず、サイバー犯罪者による改ざんの標的になりやすい状況となっています。

仕組みは以下のとおりです。多くのウェブサイトは、ハッカーが望ましくないコードを挿入できるウェブアプリケーションの脆弱性を抱えています。あるセキュリティ企業によると、ウェブサイトの94%が少なくとも1つの重大度の高いウェブアプリケーションの欠陥を抱えています。サイバー犯罪者は、クロスサイトスクリプティング(XSS)などのこうした脆弱性を悪用し、本来は正当で信頼できるウェブサイトに悪意のあるコードを挿入することがあります。この種の脆弱性を悪用することで、サイバー犯罪者は来年にも、正当なサイトに不正なチャットボットを追加する可能性があります。

銀行のウェブサイトにまだ独自のチャットボットが導入されていないと想像してみてください。もしそのウェブサイトにウェブアプリケーションの欠陥があれば、犯罪者は銀行から発信されているように見えるリモートチャットボットを起動する小さなコードを追加するだけで済みます。訪問者がローンや口座に関する情報を尋ねると、悪意のあるチャットボットは悪質なドライブバイダウンロードサイトに誘導し、コンピュータにマルウェアを強制的にインストールさせてしまう可能性があります。さらに悪いことに、この不正なチャットボットはソーシャルエンジニアリングによって被害者に銀行の認証情報を提供させ、攻撃者が訪問者の口座にアクセスできるようにしてしまう可能性があります。

音声を追加することでディストピアの可能性が増す

しかし、これはあくまで短期的な予測に過ぎません。5年後を見据えると、状況はさらにディストピア的なものになります。これまではテキストベースのチャットボットについてのみ取り上げてきましたが、ご存知の通り、音声ベースのデジタルアシスタントも人気を集めています。今後数年間で、チャットボットとのやり取りはテキストよりも音声で行われるようになるでしょう。Siri、Alexa、Googleアシスタント、Cortanaの急速な普及は、このことを如実に示しています。

最近、こうしたデジタルアシスタントの1つがアップグレードされました。素晴らしい機能ではあるものの、ダークサイドの可能性を露呈しています。2018年、GoogleはDuplexのデモを行いました。これはGoogleアシスタントに自然言語処理機能を追加したもので、人間に電話して予約を設定するなど、デジタル以外のタスクを実行できるようになります。

過去にコンピューターが話すのを聞いたことがあるでしょうが、歴史的に見て、その音声はまさに不気味の谷に陥っていました。時とともに改善されてはいるものの、私たちは常に、機械と話したり、機械の話を聞いていると感じてしまうようです。しかし、GoogleのAI搭載Duplexはこの傾向を覆します。「えー」というつなぎ言葉まで、まるで人間のように聞こえます。さらに、これまでコンピューターが苦手としていた脱線、休止、話題の変更など、人間らしいダイナミックな会話をこなすことができます。このDuplexのデモをまだ聴いたことがない方は、ぜひ一度聴いてみてください。きっと驚きと衝撃を受けるでしょう。

残念ながら、この新しいレベルの音声対応AIは、不正なチャットボットを新たなレベルに引き上げる可能性があります。人間と話していると感じれば、コンピュータープログラムよりも信頼感を抱く傾向があります。自然言語を話すチャットボットは、サイバー詐欺の自動化と大規模化をはるかに促進する可能性があります。

例えば、Microsoftサポートを装った詐欺電話について、聞いたことがあるかもしれませんし、実際に受けた経験があるかもしれません。何者かがMicrosoftサポート担当者を名乗り、突然電話をかけてきて、あなたのコンピューターに異常なアクティビティが見られると警告します。そして、リモートデスクトップの設定を強要し、「問題を解決」しようとしますが、実際にはあなたのコンピューターを乗っ取ろうとしているのです。このような電話を受けたら、すぐに電話を切りましょう。

いずれにせよ、この種の電話詐欺が大規模な被害に至らない数少ない要因の一つは、人間のサイバー犯罪者が一人一人の被害者に手動で電話をかけ、やり取りしなければならないという事実です。しかし、DuplexのようなAIがこの種の電話を自動化するようプログラムされていると想像してみてください。そうすれば、サイバー犯罪者は一度に何千もの詐欺を仕掛けることができるのです。事態はさらに悪化します…

最近、Lyrebirdのような研究者や企業が、機械学習とAIを用いて人の音声や動画を複製することに成功しました。わずか30個の録音された文章、あるいは公開されている膨大な数の動画さえあれば、研究者も攻撃者もコンピューターをまるで知っている人間のように音声化し、コンピューターチャットボットの発言内容を正確に制御することが可能です。

これにより、大規模なスピアフィッシング攻撃が可能になるかもしれません。「あなたの上司」から電信送金を依頼され、その後の質問にもダイナミックで説得力のある回答が返ってくるのを想像してみてください。CEOがメールで2万ドルの電信送金を依頼してきたら、二の足を踏むかもしれませんが、いわゆる「上司」から説得力のある口頭での依頼を受けたら、おそらく反応は異なるでしょう。

不正なAIチャットボットから身を守る方法

AI搭載の不正チャットボットが蔓延する「暗い」未来を想像した今、あなたは「スカイネット」をどうやって回避、あるいは撃退できるのか疑問に思っているかもしれません。ここでは、短期的および長期的な不正チャットボット攻撃から身を守るための実践的なアドバイスをご紹介します。

短期的には、Webトラフィックをフィルタリングして悪意のあるアクティビティを検出するセキュリティ製品の使用をお勧めします。ネットワークセキュリティアプライアンス、DNSファイアウォール、ホストベースのセキュリティスイートなど、悪意のあるWebリンクやIPアドレスへのアクセスを自動的にブロックする製品が存在します。これらの製品は、悪意のあるチャットボットから送信されたリンクを誤ってクリックした場合でも、インターネット上の悪意のあるサイトへのアクセスを防止します。

パワーユーザーであれば、NoScriptやScriptSafeなどのブラウザ拡張機能もおすすめです。これらの拡張機能は、許可するまでウェブサイトでのスクリプト実行をブロックします。学習には少し時間がかかりますが、正規のサイトが外部ドメインにリンクする悪意のあるスクリプトを実行するのを防ぐ手段となります。つまり、正規のサイトに悪意のあるチャットボットが挿入されるのを防ぐことができるのです。

長期的には、警戒と規制こそが最大の希望です。コンピューターが自然な会話をより巧みにこなせるようになり、チューリングテストさえクリアするようになれば、自動化されたソーシャルエンジニアリング攻撃キャンペーンが爆発的に増加するでしょう。つまり、私たちは新しい「人」と話す際に、より警戒し、疑念を抱く必要があるということです。そうでなければ、コンピューターを悪用した詐欺に引っかかっていることに気づかないかもしれません。

さらに、政府は「ロボット」が人間と会話する前に自己紹介を義務付ける新たな法律を制定する必要があります。Googleによる最初のDuplexテストでは、音声AIは自己紹介をせず、相手は自分がコンピューターと話していることに全く気づいていないことがわかりました。しかし、2回目のデモではAIアシスタントは自己紹介を行いました。これはおそらく、最初のデモへの懸念と、カリフォルニア州のようなボットに自己紹介を義務付ける新しい法律への対応によるものと思われます。

この予測の根拠となっているAIの発展と自然言語処理の改良は革新的で刺激的であり、音声制御と応答性に優れた機械の継続的な進化に期待しています。しかし、他のテクノロジーと同様に、チャットボットは善にも悪にも平等の機会を提供します。AI搭載チャットボットを恐れる必要はありませんが、来年、彼らが暴走する可能性を警戒し、警戒を怠らないようにする必要があります。