ボットの排除にTwitterが苦戦する4つの理由 | 株式会社宝情報

セキュリティ最新ニュース SECURITY NEWS

  • このエントリーをはてなブックマークに追加

Security

ボットの排除にTwitterが苦戦する4つの理由

Twitterは自身に問題があることを認めています。

Twitter社は、ロシアの報道機関であるRussia TodayとSputnikに「すぐに効果が得られる」広告を提供しないと発表しました。
この、世界第4位のソーシャルメディアネットワークは次のように述べています。

2016年の米国大統領選挙におけるウェブサイトの役割についての内部調査により、この2つの組織がロシア政府のために選挙妨害を試みたことが判明しました。そのため、ユーザーエクスペリエンスの完全性を守るためにも、Twitterでの広告を禁止する必要がありました。– Twitter

Twitter社の役員が上院情報委員会へ出席するに先立ち、Vanity FairのMaya Kosoff氏は、こうした措置を「ダメージコントロール」と称し、「脳腫瘍に絆創膏を貼る」ことに例えました。トロール(荒らし)アカウントやボットなどが大手を振るっていることに比べれば、禁止された広告の効果など微々たるものだとKosoffは指摘しています。ある調査によると、トロールやボットによる投稿は、選挙関連の投稿全体のうち5分の1を占めていました。[1]

ボットを使用して有権者の揺さぶりを試みるという活動は米国での話に留まりません。研究者たちは、ボットと疑われる13,000のアカウントが、英国の有権者をブレグジット(Brexit)で「離脱」に投票するよう誘導しようとしたことを発見しました。

Twitterは最も支配力のあるウェブサイトであり、広告収入はその1つの側面です。Russia TodayとSputnikの2社の広告を排除しても特に収益には影響しません。しかし、Twitter広告はFacebookの普及度や影響力には遠く及びません。別のウェブサイトでは2016年の選挙におけるTwitterの役割について厳しく調査しています。実際、広告収入についてはFacebookに大きな優位性があります。

米国大統領選以降、Twitter社は熱心にトロール(荒らし)アカウントを個別に削除する道を模索してきました。しかし私には、過度な政治的議論を助長するボットを止めるために、何故Twitter社がその程度の対策しか取ることができないのか疑問に感じられました。

F-Secure LabsのAndy PatelはTwitterのAPIを使い、@realDonaldTrump周囲のアクティビティを見ることでTwitterのボットアカウントと自作自演を監視し始めました。
それからというもの、彼は最近のフランス、イギリス、ドイツの選挙に関連するウェブサイトが行っていたTwitterでの活動についてフォレンジック調査を行っています。彼は、Twitterのバックエンドロジックがボットに対して自動的なアクションを取ることを発見しました。
そこで私は、彼にTwitter社が何故全てのボットを止めることができないのかを尋ねました。それに対して彼は次のように答えてくれました。

Twitter社は彼らのデータベースにある未処理のデータにアクセスすることができ、そこには私たちが閲覧できないものも含まれています。彼らはもしかすると、アカウントや行動など、複数要素の関係性を見ることができる強力なツールを持っているのかもしれません。しかし、仮にそのようなツールによって処理を行っていたとしても、悪意のある政治的Twitterユーザーグループを見つけることは困難で、時間も掛かるのです。– Andy Patel, F-Secure

そして彼は、ボットを止めることが非常に困難である理由を4つ提示しました。

  1. 宣伝からプロパガンダを選り分けることは難しい
  2. アカウントを誤って削除することは検閲を疑われるきっかけになります。ですから、あるべき政治的議論とプロパガンダとを区別するための基準は厳密でなければなりません。彼らが採用した方法のひとつは、実際のユーザーとボットアカウントとを区別するというものでした。

  3. ツイートが絶え間なく流れるTwitterの仕組みはボットにとって有利にはたらく
  4. 疑わしいアカウントを見つける作業は、どのような検索キーワードで調査するかを決めるところから始まります。その為にも、なるべく監視対象と関連の深いアカウントをいくつか見定めておくことが望ましいです。悪意あるアカウントやボットネットの運営者は頻繁に戦術を変更するため、監視対象となる振る舞いかどうかを見分けるロジックを持っているだけでは逃げられてしまうのです。

  5. ボットは自動化できるが、検出には人力が必要である
  6. Twitter上の悪意ある言動を捕捉するような自動化システムを設計するには、「手動による調査の結果として得られた」正しい設定値が必要で、「政治的談話、ユーザーアカウント、悪意あるユーザーが用いている戦術を追跡調査することによって」状況の変化に応じて絶えず再構成する必要があります。結局のところ、自動化されたデータ出力には、例外や異常値を見定めるために人間による評価が必要なのです。

  7. 誰がついていけるのか?
  8. 過去のデータを使って悪意のパターンを見つけることと、今現在発生している悪意ある活動を捕捉することとはまったく異なります。過去のデータを調査することで、悪意あるアカウントがどのような言動を見せるかについての手がかりを研究者に提供することはできます。しかし同様の分析をライブストリームのデータでも再現したければ、全く違う方法論が求められます。(そしてこの方法論はより難易度の高いものです。)
    事実として、ソーシャルメディア上では常に複数の政治的な議題が流れてくる(そして刻一刻と話題が変化する)状況です。これは、今何が起こっているのか、ソーシャルネットワークの管理者であってもとても追いつけない状況であることを意味しています。

そしてAndyは、次のように述べました。

Twitter社はジハーディストのアカウントを積極的に監視し、アカウント削除もしています。つまり他の不適切な言動に対しても、言動の特定やアカウント削除などについて同様のプロセスを実行するようリソースを割くことができれば、うまくいくように思えます。– Andy Patel, F-Secure

しかし、これをリアルタイムでどのように実行するかは、近い将来でも依然として課題となるでしょう。

脚注

[1]Social bots distort the 2016 U.S. Presidential election online discussion | First Monday

オリジナル記事情報

    4 Reasons Twitter Struggles to Shut Down Bots
    掲載日:2017年10月28日
    執筆者:Jason
本記事はF-Secure KKの許諾のもと、オリジナル記事を日本語に翻訳・編集したものです。

当社では、F-Secure社のエンドポイントセキュリティソフト、エフセキュア プロテクションサービス ビジネスを取り扱っております。
F-Secure

記事一覧に戻る