ビッグデータ分析プロジェクトの実態 (2):重要な5つの基礎

ビッグデータ分析プロジェクトの実態:マーケティングにおけるデータ活用

こんにちは。インフォマティカ編集部です。

1月よりご紹介している自社のビッグデータ分析基盤導入プロジェクト紹介シリーズ第3弾です。今回はプロジェクトを成功させる上で非常に重要となるいくつかのポイントをご紹介し、またそれらが何故重要なのかをお伝えしていきたいと思います。

前回のシリーズより我々のビッグデータ分析基盤構築プロジェクトは60日間で実施した旨お伝えしてきました。ただし、その60日間のプロジェクトがスタートする前にもいくつか非常に重要なポイントの検討を進めていたり、過去より導入していたツールやプロセスを活かした部分があります。これらの基礎はビッグデータ分析基盤を導入するにあたって絶対に欠かせないポイントなので是非ご紹介したいと思います。

 

本当に価値のあるものに注力する

我々がマーケティングオペレーションの変革に求める“ビッグウィン”は、マーケティングと営業部門の相互協力(パートナーシップ)です。口だけで言うパートナーシップではなく、本当の意味でのパートナーシップです。

過去我々は俗に言う典型的な“丸投げ”モデルを実装しており、マーケティングが打つ様々なアクティビティで得た新規リードをまとめて営業部門へ送り、そこから商談を作るよう依頼していました。しかし、このモデルでは営業が効率的に案件化する事が出来ておらず、マーケティングが作ったリードが実際の売上に繋がる確率が圧倒的に低い状況でした。終いには営業が我々の作るマーケティングパイプラインを全く信用しなくなってしまい、マーケティング部門としても自分たちのシステムを信用できなくなってしまうという悪循環になっていました。その経験から、新しいモデルはオープンかつ両者の強力なコラボレーションの上に成り立つシステムにする必要があると考えました。結局のところ営業とマーケティングは同じ目標を持ち、それぞれの業務に取り組んでいるのですから。ただし、それには非常に透明性の高い運用モデルが必要となります。マーケティングが実施した取り組みの“全容”を営業へ開示し、また我々も営業の取組み内容と結果をしっかり可視化できる仕組みです。

この理想に近づく為には、保持しているデータの整備・理解、各種アプリケーションとの連携、管理プロセスの効率化、ガバナンス等をしっかり考える必要があります。

 

<ビッグデータマーケティングの5つの基礎>

1.自社データの収集とマーケティングオートメーションの実現

はじめに修正が必要だったのが、自社データの収集プロセスです。過去に多くの時間をかけてマーケティングデータベースを構築しましたが、グローバルで活用されるには至りませんでした。それは構築したデータベースが、ユーザーが求める役割を実現できていなかったからです。当時サービス中心モデルを展開し、SalesforceとEloquaのデータを統合するデータベースを構築しましたが、レコード単位で課金されるライセンスの制限に依存し非常に高価なデータベースと化していました。そのため、まずはこのデータベースの再検討、再交渉、再調整が必要と考えたのです。

ちょうど2014年の3月にEloquaのライセンス更新時期が迫っており、またバージョンを9から10にアップグレードする必要がありました。大規模な移行が発生するため、この機会に我々のデータ戦略とマーケティングオートメーション基盤の再検討を実施することにしました。マーケティングオートメーションツールとしては、EloquaとMarketoの2つに絞り込み、最終的にはITの知識もほぼ無いマーケティング部門のメンバにも使いやすく、またSalesforceとの連携も比較的容易で堅牢であると判断したMarketoを選択しました。

この決断により、これまでのプロセスと運用ルールから、キレイでシンプル、且つより良いマーケティング連携基盤へ一新する機会を得た事になりました。余談ですが、このマーケティングデータベースの一新により、これまでの顧客と見込み客に再認証が必要となることは避けたいと考えました。そこはIT部門に協力してもらいJavaスクリプトで見込み客データを取り込むことで、見込み客がウェブフォームを入力する際、これまで通り情報が自動入力されるよう保つ事ができました。これは外部の力や製品を使わずとも実現出来る作業の一つです。自社にJavaスクリプトを使える人材がいることは非常に大きなメリットとなりました。

新しいMarketo環境とデータベースで得たもの

  • 品質の高いデータと非常に使いやすくアクセスし易いデータベース(勿論データの品質向上のため、自社製品Data QualityMDMのマジックを活用しています)
  • より良くまた低いコストでSalesforceとMarketoの連携を実現(こちらも自社製品PowerCenterを活用し、完全な双方向連携とカスタムカラムの連携を実現しています)
  • 営業とマーケティング部門に唯一の信頼できるデータを提供
  • 相互の説明責任!

 

2. ウェブサイトとウェブ分析

次に取り掛かったのがウェブサイトとその分析に関する検討です。これまでは、コンテンツの翻訳には非常に優れているものの多くの制限(カスタマイズや利便性、モバイルへの対応など)や課題もあったCMSのSDL Tridium上でウェブを構築し、分析にはライト版のAdobe Analyticsを利用していました。今回、我々は全てのウェブ関連ツールをAdobe Experience Managerへ移行する決断をしました。様々なウェブプラットフォームとマーケティングクラウド製品を比較検討しましたが、Adobeが断トツでカスタマイズ、反応、モバイル対応、その他への対応が優れていると判断したためです。私の様なウェブデータオタクには最高のプラットフォームです。またAdobeは今後もより進化を続ける為に重要となる、健全な開発者と導入ベンダーを揃えていました。それは我々にとって非常に重要な点でした。

その後、訪問者のトラッキング、アドバンス分析、顧客変換率と関連性を確実に可視化出来る分析基盤の構築に取り掛かりました。今ではそれらに合わせ、各顧客がウェブ上で実際にどの製品に興味を示しているのか等の行動追跡をもリアルタイムに把握できる仕組みが出来ています。堅牢で、処理能力が高く整備されたウェブサイトが無ければ我々が求めたビッグデータマーケティング基盤の運用は実現できません。

Cookieデバッグをオンにして自社ネットワークから自社サイトを見た際の図:DemandBaseから訪問者の業種が”ハイテク”であり、サブ業種が”ソフトウェアアプリケーション”である事が分かる。

新しいAdobe Analyticsが実現してくれた事

  • ウェブ訪問者の細かな動きのトラッキング
  • ページフローや紹介者、再訪問者や変換率などを含むハードコアなウェブ分析
  • リバースIPマッピングを実現するDemandBaseとの連携や業種や会社規模等の属性情報等のトラッキング

 

3. 拡張性の高い有料メディアとSEOプログラム

上述の2つで必要なツールは揃ってきました。ここからはいかに自社サイトでトラフィックを生み出すかを考える必要があります。我々は外部のパートナー企業(イギリスのVelocity社)にコンテンツマーケティング戦略を依頼し、まずは、サイトに誘導するTOFU(Top of Funnel)コンテンツを作りました。戦略は非常にシンプルです。多くの見込み客が興味を持っている課題に関するコンテンツを作り、様々な広告手法で外部展開し、ソーシャルメディアでも複数回に渡り効率的に対象顧客へ広告を打ちます。

リスティング広告やコンテンツ表示、リマーケティング、LinkedInやFacebook等のソーシャルが提供する有償プログラム等の戦術にもトライしました。結果として、そこから得たトラフィックの30%ほどを、その後我々の世界に取り込む=見込み客としてトラックする事が可能となったのです。

キャンペーンコードの利用

全てのマーケティング活動において必ずキャンペーンコードを使うことは我々のマーケティング運用を成功させる上で、非常に重要なポイントです。過去の環境では、キャンペーンコードを登録せずに活動することも多々あり、その度に正しくデータ分析ができず苦労していました。現在は必ずキャンペーンコードを付与するプロトコルを作り、万が一忘れた場合には全てやり直しとする大胆な手法を導入しました。

キャンペーンコードのルール:14Q2=作成された時期、www=ウェブアセット、GBL=グローバルプログラム、EN=英語(全9か国語対応)、Data Integration..=プログラムの名前、eBook= コンテンツ種類、PT2642=パート番号

メディアプログラムから得た事

  • 多くの新しいトラフィック量を生成
  • 必ずキャンペーンコードを活用することで、どのマーケティングチャネルやプログラムから新しい顧客やパイプライン、収益を得られたかを確実に可視化
  • 最適化を重ねる事でより効率的な運用を実現

 

4. より可能性の高い見込み客に対し効果的なアプローチをとる為の予知分析

質の高いリードを確実に営業に渡すことができる様、我々はリードのスコアリングと最適なナーチャープログラムの構築を必要としていました。いくつかはMarketoだけでも実現できますが、ベストな仕事をするには予知分析が必要であると考えました。そこで我々はLatticeエンジンを採用し、リードのスコアリング基盤を構築しました。Latticeが何をしてくれるかというと、実際に我々の製品を購入してくれた個人と企業を役職や会社の信用度、企業規模、雇用プロファイル、技術プロファイル、立地や行動等の数百のポイントから深く分析します。

Latticeは全てのリードを見て、過去に購入してくれた人や企業との類似性からスコアリングを行います。A、B、C、Dの4段階で、一番購入確率の高いリードはAにスコアリングされます。このスコアリングの結果、スコアAのリードは過去に営業に渡していたリードと比較しても、6倍の確率で売上に繋がることが証明されました。これが実際の数字となって証明されると一気に社内での状況が変わりました。営業はマーケティングから渡されるリード情報を信用し、楽しみに待つ様になりました。勿論簡単には予知モデルを作り出すことは出来ません。今後また営業やマーケティングのメソドロジーが進化を続けていく上で、このモデルがまだ有効なのかを定期的に評価し、必要に応じて再検討、教育する必要があります。

予知分析から得た事

  • 高品質で高い忠実性が証明されたリードスコアリング(実収益への変換率)
  • 非常に高い見込み客の変換率
  • 確率の低いリードのフォローをタスクから排除する事で、営業の生産性を向上
  • より速い収益化を実現

 

5.データ連携とガバナンス

5つ目の基礎は全てのデータの信頼性を保ち連携する技術です。これは複数のアプリケーション間の連携とそれらを分析する工程での統合も含みます。例えば、全てのMarketo訪問者が確実にAdobe AnalyticsとMarketo API経由で連携する様構築しました。そうする事でAdobe Analyticsのデータと各見込み客の行動を確実に直接リンクできるからです。ビッグデータマーケティングを実現する上で非常に重要なカギとなるのはデータの正確性とガバナンスです。ビッグデータを最大限活用するには、データを格納するデータウェアハウスと同様にデータの品質が重要となってきます。

データ上で収益チャンスを構築するには、必ず、データがキレイで正確かを知る必要があります。上記で触れた厳格なキャンペーンコードを付与するルールも、品質を上げる為に作ったルールの一つです。

このブログシリーズで何か一つだけ学んでいただくとすれば、ぜひこれを理解していただきたいと思います。

「一貫したデータルールとタグ管理が無ければ、ビッグデータマーケティングに期待されるデータ分析やトラッキングの実現は不可能であるということ。何故ならばこれ無しにはデータを繋げ実際の収益とする事は出来ないから。」

なお、我々はB2Bビジネスを行っているため、マスター管理や階層管理もガバナンスの観点で重要なポイントでした。弊社では自社のMDMプラットフォームを活用し、リードの重複を防いで関連性を理解することを実現しています。また我々のパートナーであるDun and Bradstreet社のDUNS番号も活用しています。

データガバナンスの管理から得た事

  • データの品質、正確性、信頼性を保持
  • 最終的な変換率までを管理
  • 全商談のファーストタッチとラストタッチを可視化

 

これら5つのポイントの実現や検討の一部に関しては、実際のプロジェクトに要した60日間の前に実施されていたものもあります。これを読んでいただくと、我々のスタートポイントはそれなりに進んでいたと思われるかもしれません。ただどの企業でも日々様々な検討は行われているはずで、それらが無駄になることは無く、何かしらの形で生かされると思います。これらのステップに近道は存在しません。実行エンジンも重要ですが、その前にそこに流し込むデータの品質や管理が重要となるのです。

次回のブログシリーズでは、我々が何故ビッグデータアプローチを取る事にしたかをお伝えします!お楽しみに!

 


※本ページの内容は2016年1月28日更新のUS Blog の抄訳です。

Naked Marketing: The 5 Foundations for Big Data Marketing

著者:マーケティングエキスパート Franz Aman


【ビッグデータ分析プロジェクトシリーズ】

ビッグデータをフル活用したマーケティング分析事例 –個々のデータをつなぎ合わせて情報資産に-

ビッグデータ分析 プロジェクトの実態 (1):マーケティングにおけるデータ活用

ビッグデータ分析プロジェクトの実態 (2):重要な5つの基礎

ビッグデータ分析プロジェクトの実態(3):ビジネスケース

ビッグデータ分析プロジェクトの実態(4):活用テクノロジー

コメント