Adobe Summit 2018 レポート(2):経験の創造者たち

エクスチュア総合研究所をご覧の皆様こんにちは、

インターン生の畝川(せがわ)です。

間が空いてしまいましたが、Adobe Summit 2日目の基調講演をレポートしたいと思います。

1日目はAdobeのビジョンや、それを実現するためのソリューションについての講演でした。

(よろしければそちらも合わせてご覧ください。)

2日目の基調講演では、「経験創造」に携わる各業界の人々が具体期に語ってくれます。

2日目の特徴は何と言っても豪華なゲスト陣。

ラインナップは以下の通りです。

① NVIDIA×Adobe 〜CEOが語るデジタルの未来〜

② J.J. Watt 〜現役NFL選手が語る経験とは〜

③ Twitter×LinkedIn×Facebook 〜マルチデバイス時代のSNS〜

④ Richard Branson 〜世界最高の実業家が語る経験と未来〜

それでは早速まいりましょう。

① NVIDIA×Adobe 〜CEO同士で語るデジタルの未来〜

NVIDIAのCEO、Jensen Huang氏が登壇します。

当サイトにいらしている方はご存知だと思いますが、念のため最初にNVIDIAの説明を。

NVIDIAはカリフォルニアに拠点を置く半導体メーカーで、主にコンピュータのグラフィック処理などを行うGPUを製造しています。GPUのシェアとしては世界第1位なのではないでしょうか。他にはIntelやAMDが頑張っていますが、NVIDIA製のGeForceシリーズが相当のシェアを占めているといえるでしょう。

公私ともに仲が良いという二人の雑談から始まったこのセッション。

まずはデジタル・トランスフォーメーションについて。

AIの時代が迫っている今日、企業にとってデジタル化を進めないという選択肢は「ありえない」そうです。

組織にデジタル・トランスフォーメーションを起こすことは容易ではありませんが、企業に求められるのは「Roll up the sleeves (気合いを入れる、頑張ること)」。とりとめのない話ですが、要は迷っている暇はないということでしょうか。

自組織の特徴を知り、テクノロジーを直感的に(intuitiveに)学び、そのテクノロジーをいかに取り入れるか考えることが必要となってきます。

次に話題にあがったのは3D処理、VR、ARについてでした。

3Dゲームのスクリーンショットを撮ることができるANSELというソフトにAdobe Senseiが導入されることで、ゲームのキャラクターの表情や、属性(人、馬、バケツなど)を自動で認識してくれるようになったり、人の輪郭に合わせて画像を保存することが可能に。

VRやARの発展により、3Dで作ったバーチャルな世界とシームレスにつながることができるようになり、顧客への経験提供にあらたな方法が加わることになります。

最後に話は「マーケティング」へ。

Huang氏にとってマーケティングとは「Storytelling(物語)」であり、いかにクリエイティブなStoryを作れるかがマーケティングの成功を左右すると述べていました。

② J.J. Watt 〜現役NFL選手が語る経験とは〜

続いて登壇したのは現役NFL(アメリカンフットボール)選手のJ.J. Watt 氏。

この人は成績優秀なだけでなく、NFL選手の中でも超「良い人」として有名で、さまざまなチャリティ活動やファンサービスを行っています。そんなスポーツマンシップ溢れるJ.J. Watt氏が語るのはチャリティ活動にまつわる経験について。

アメリカで甚大な被害をもたらしたハリケーンハービー。

彼はTwitterなどのSNSをフルに活用し、ヒューストンへの寄付金を集めました。

この時を振り返り、彼は「人は皆、人道的な良いことをしたいと思っているが、どう行動すればいいかわからずにいる。」と述べます。そして、人道的で素晴らしいことをする「経験」を手伝ったり、シェアするためのプラットフォーム(今回はSNS)の必要性を訴えていました。

そして、アメフト選手という謂わば花形の仕事についている彼は「努力によって人生はいかようにも変えられる」と言って話を締めくくりました。

③ Twitter×LinkedIn×Facebook 〜マルチデバイス時代のSNS〜

このセッションではTwitter、LinkedIn、Facebookという性質の異なるSNS3社の代表者がマルチデバイス時代のSNSについて語ります。

マルチデバイス時代は、ユーザと企業とのタッチポイントが膨大で、エンゲージメントまでの道筋も多種多様になり、企業にとっては管理が煩雑で、謂わば「めんどくさい」時代です。

しかしながら、これは自分たちにとって最大のチャンスの時代でもあると彼らは述べています。

顧客がコンテンツに触れる機会が増え、顧客行動に変化を及ぼしやすくなっているからです。

プライバシーの問題など、法整備が進みつつあり、ますますやることは増えていきますが、彼らはみな将来に期待をしているようです。

④ Richard Branson 〜世界最高の実業家が語る経験と未来〜

最後に登場したのはこの御方。

リチャードブランソン氏といえば、世界屈指の実業家(entrepreneur)。

高校を中退して雑誌を刊行してからというもの、様々な事業で成功し、いまや総資産は51億ドル(約5600億円)にのぼるとか。事業成功による経済的貢献と雇用創出が認められ、エリザベス女王から「ナイト」の称号を賜っています。この人はミスター(Mr.)ではなくサー(Sir)というわけです。日本語で言うと、リチャード・ブランソン卿です。

彼にとってビジネスとは人々の生活を豊かにすることであり、楽しい経験(experience to enjoy)を想像し、作り上げることが必要だと言います。そして、そのためには綿密な顧客観察が必要だそうです。実際にヴァージン航空では、飛行機に乗っている乗客を観察し、気づいたことを書き込むノートを社員に配布し、自らも観察したそうです。その結果飛行機移動を長時間の拘束時間ではなく、エンターテイメントとして楽しむ経験にするというアイデアが生まれ、今では当たり前となっている座席のモニターをいち早く導入したそうです。

彼は今話題のデザイン思考を無意識的に実践しているようですね。

そして、長期視点でビジネスを構築することが成功の秘訣だと言います。短期的な利益を追求し、コミュニティや地球環境に悪影響を及ぼすようなビジネスモデルはいずれ淘汰されるからです。ヴァージングループではVirgin Uniteというプロジェクトが設定され、グループ全体で貧困や教育格差といった世界中の問題に対峙しています。

そんな彼の一番の関心は宇宙産業だそうで、「宇宙に行くからみんな注目しておいてくれ!」としきりに言っていました。

 

以上が2日目基調講演のまとめでした。

いかがでしたでしょうか。

小手先のテクニックで商品を「買わせる」時代はとうに終わっています。これからはより良い経験を作り上げ、商品を「買ってもらう」時代です。

経験創造に成功している人たちは、一見次元の違う存在にも見えますが、「観察」など、自分にもできることはきっとあるはずです。手間を惜しまずに経験に携わることが大切だと言えるのではないでしょうか。

Adobe Summit 2018 レポート(1):AIとヒトで最高の経験を!

エクスチュア総合研究所をご覧の皆様こんにちは、

インターン生の畝川(せがわ)です。

3月に、Adobe Summit 2018に参加してきました。

https://summit.adobe.com/na/

Adobe Summitは、デジタルマーケティングのカンファレンスの中でも最大級の規模を誇り、基調講演や夜間イベントには豪華なゲストが登場する業界人にとってとにかくアツいイベントなんです!

初めて参加したのですが、得られたものが大きすぎて一回でアウトプットしきれないので、何回かに分けてレポートいたします。

 

今回は1日目の基調講演について。

1日目の基調講演はAdobeの製品にフォーカスしたプレゼンテーションが行われます。

まずCEOのシャンタヌ・ナラヤン(Shantanu Narayen)氏が登場し、Adobeのビジョンを語ります。

その後EVPのブラッド・レンチャー(Brad Rencher)氏がビジョンを具体的に解説しながら様々なゲストともに製品や事例の紹介をしていくという流れです。

 

魅力的な新サービスや新機能に目を奪われがちですが、根幹にあるアイディアを理解することに努めました。

その結果大きく分けて以下の三つのメッセージがあると感じました。

①「経験(experience)」を制するものが市場を制する

②機械(AI)に得意なことは任せましょう

③人間がやるべきこと、それは創造行為

 

一つ一つ解説していきます。

①「経験」を制するものが市場を制する

ナラヤン(Narayen)氏が提示したこのスライド。

「人々が購入しているのは商品そのものではなく、経験だ」

 

楽しかった旅行の思い出が、時が経っても思い出されるように、

良い経験は人々の深層意識に大きな影響を与えます。

ものがあふれ、似たような商品が市場に出回る中で、売れるものと売れないものの差は、

顧客にとって価値ある経験を提供できるかどうかによると彼は言います。

確かに○タバの新作が大学生によく売れるのは、それが美味しいからかもしれませんが、

「新作飲んでみた!」と友人とシェアしたい人や、新しいもの好きな人に

価値ある経験を提供できているからかもしれませんよね。

航空券を買おうとしている五人組アイドルグループAのファンの方は

CMを見てA○AよりもJ○Lを選ぶかもしれません。

これも一種の経験を買っているといえるでしょう。

経験に着目した戦略を立てることで、ビジネスのパフォーマンスが上昇することは

調査で明らかになっているといいます(Rencher 氏)。

それでは、価値ある経験とはどのようなものでしょうか。

それは、「良質で、個人に最適なコンテンツが、適切なタイミングで提供される」ことです。

そのためにはまず、様々なデバイスで情報にアクセスする個人を個人として名寄せし、

一元管理するUnified Profileが必要になります。

Adobeは端末情報を参加者同士で共有するDevice Co-Opというサービスを2018年5月にリリース予定です。

多様なサービスを提供する企業様がDevice Co-Opに入れば、

名寄せに必要なリソースが大幅に削減されるかもしれませんね。

加えて必要とされるのが「機械学習(AI)」と「クリエイティビティ」です。

②機械(AI)が得意なことは任せましょう

膨大なデータから情報を取り出したり、パターンを見出したりすることは

機械のほうが得意になりつつあります。

Adobe Senseiはまさにそのようなソリューションです。

https://www.adobe.com/jp/sensei.html

Adobe Senseiができることには枚挙にいとまがありません。

Advertising Cloud上でデバイスごとに最適な表示の広告を作成することや、

最適な広告費配分の自動計算、ラフ画から似たような写真を探してくる、

特定の行動パターンの顧客に自動で適切な広告を打つ、etc…

要は、「(名寄せされた)個人に(いくつかあるなかで)最適なコンテンツを選択して、適切なタイミングで提供する」ということはAIにほとんど任せられるということです。

逆に言えば、機械に任せられないことを人間はすればいいわけです。

「良質」なコンテンツそのものを創り出すことです。

③人間がやるべきこと、それは創造行為

「最適化」、「漸進的なカイゼン」は機械のほうが得意になるでしょう。

しかし、「破壊的な創造」はどうでしょうか。

0から1を創造するクリエイティビティは今のところ機械には十分備わっていません。

経験を評価することは機械に任せて、経験を作る(Createする)側に回りましょうというのが要旨です。

Experience Thinkerから、Experience Makerになることが求められています。

「Experience League」はExperience Makerを目指す人向けのコミュニティとして発表されました。

https://landing.adobe.com/experience-league/

Experience LeagueではTipsやエキスパートからのアドバイスなどを得られるそうです!

そして、Adobeにはクリエイティビティを支えるCreative Cloudもあります。

Experience CloudCreative Cloudがシームレスに連携できるAdobeは、

デジタルマーケティングにおいて最強の企業と言えるかもしれませんね!

以上が1日目、基調講演のレポートです。いかがでしたでしょうか。

もっとよく知りたいという方は、基調講演が

オンラインで見返せるようになっています(2018年4月時点)ので

ぜひそちらもご参照ください。

http://summit.adobe.com/na/sessions/summit-online/

ここまで読んでいただきありがとうございました。

mouseflowによる分析の観点

こんにちは、インターン生の丸山です。今回は、mouseflowを用いた分析をどうやって進めていけばいいのか、という部分について、自分のやり方を振り返っていこうと思います。

方向性は2つ

自分の中で分析の方向性は、「データから見る」か「訪問者視点で見る」かの2つに大きく別れます。

まず「データから見る」の観点で分析していって、補足的に「訪問者視点で見る」の観点で進めていきます。(といってもどちらも大事です。)

データから見る

①ヒートマップ

どのページに問題がありそうか、というのを発見する手がかりはヒートマップ一覧にあります。

ビュー数が多いページほど、改善効果が大きいので、ビュー数が多い順に上から見ていきます。

そして、各項目で問題がありそうな部分を探します。例えば、「ビュー数が多いけれど、スクロール率がとても悪い」なんてところがあったら何か問題がありそうですよね。

ヒートマップにはフィルターがかけられますので、

国 OS ブラウザ 流入元 ・・・

などといった条件で色々と見てみると発見があるかもしれません。

 

②レコーディング(セッションリプレイ)

訪問者の特徴的な動きを見つけたい場合はセッションリプレイを見ます。

②-1 クリックレイジ

mouseflowでは、ページに自動でタグ付けをしてくれています。導入の際に設定を行えば、オリジナルな条件のタグをつくることもできます。

デフォルトに備わっているタグの中で非常に便利なものが、「CLICK_RAGE」です。

これは、訪問者が異常にクリック連打しているページにつけられるタグです。

「クリックしても何も起こらない部分なのに、リンクに見えている」とか

「UIがよくなくてイライラしている」とか、そんなことがわかるかもしれません。

タグにCLICK_RAGEを設定してフィルターをかけると、クリック連打している訪問者のセッションリプレイが抽出できます。

ただ、ある訪問者の行動の記録をランディングページから離脱ページまで全部見るのでは、効率が悪いです。「ページ」の数字のところがプルダウンになっていて、そこをクリックすると

このように、その訪問者がたどった順にページが1ページずつ表示されます。そうすると、どのページでクリックレイジが発生したかがわかるので、そこだけ見ましょう。時短時短。

②-2 滞在時間の長いページ

タグは関係なく見るさいには、滞在時間の長いページを見る、というのも有効だと思います。

このようにプルダウンで開くと、ページごとに滞在時間が緑の棒グラフで表示されるので、滞在時間が長いページを見てみます。

豊富なコンテンツのあるページならば、「どこを見ているのか」「どれにしようか迷っている」、だとか

あるいは「行きたいページへのリンクが見つからない」だとかそんなことがわかるかもしれません。

②-3 何度も同じページをリロードしている訪問者

②-1,2はページ単位でセッションリプレイを見ましたが、訪問者単位で見ることも有効です。

上の画像の左の部分にはページURLがぞろっと並んでいます。例えばここで同じページが何度も続いていたら、何かしらの理由でその訪問者は同じページをリロードしまくっていることになります。問題がありそうですよね。

 

訪問者視点で見る

ここまでマウスフローからページや行動を探す見方をしてきましたが、今度は訪問者視点で見てみます。

①サイトの対象者を想定して、その立場になってサイトを見てみる。

例えば30代くらいのビジネスマンを対象としたサイトであるならば、たとえ20代でも、想像力を膨らませて、なりきってサイトを見ます。使いにくいな、と感じる点をメモして、仮説を立てます。

その仮説の根拠を探す形で、ヒートマップやセッションリプレイを見て、根拠が見つかればいいですね。

 

②ファネル分析

自分が訪問者だったらこんな行動をするな(Aページ→Bページ→Dページと遷移するな)という風に、訪問者の行動パターンをいくつか考えて、そのとおりに行動しなかった人のセッションリプレイを見て、どうしてそう行動しなかったんだろう、と考える方法もあります。

想定どおりに行動しなかった人のセッションリプレイは、ファネル機能を使うと簡単に抽出できます。

ファネルでページを登録すると、各STEPの遷移率と、離脱率、離脱した人のセッションリプレイが見られます。

 

③ページ毎に、見てほしい・見たいコンテンツが何かを考える。

情報量の多いページをいくつかピックアップして、

そのページで一番伝えたいことは何か、

重要な情報は何か、

訪問者視点で欲しい情報は何か

といったところを考えます。ヒートマップを見て、その部分にきちんとアテンションが集まっているか、集まっていなかったらなぜなのか、と考えていくと何かわかるかもしれません。

 

おわり

自分の整理がてらmouseflowの分析の観点をいくつか紹介しました。mouseflowに慣れていない方などに、この観点では見ていなかった、なんて思ってもらえることがあったら嬉しく思います。

 

最後まで読んでいただきありがとうございました。

Ad Hoc Analysisを用いてセグメント作成を効率化する

こんにちは、インターン生の丸山です。

AAによる分析にあたり、セグメントの作成はマストです。今回はAd Hoc Analysisを用いたセグメント作成の小ネタをご紹介します。

 

こんなシーンありませんか?

例えば過去PC,SP両方のデバイスを使用したユーザーのIDリストをセグメント化したい、というシーンがあったとします。

そのような訪問者のIDリストを作成するまではよいとして、それをセグメント化するにあたりIDを一つ一つ入力していくのには、IDの個数にもよりますが大変な手間がかかります。

今回書いていくのは、そんなときに一発でセグメントを作成する小ネタです。(今回はIDで説明しますが、利用シーンに合わせて「ID」を必要なデータに置き換えて読んで下さい。)

 

Ad Hoc Analysisを使います。

Ad Hoc Analysisは、AAのツールの一つで、大量のデータをワークスペースより高速に処理することのできるものです。

おおざっぱな流れとしては、

①何のセグメントもかかっていないIDリストをディメンションに並べる。

②PC,SP両方のデバイスを使用したことのあるユーザーIDリストを作成する。

③作成したIDリストをテキストエディターで加工する。

④③で作成したデータで、①のディメンションにフィルターをかける

⑤ディメンションを全選択し、右クリックから「セグメントを作成」

以上となります。

では詳細を説明していきます。

①、②について

これについては今回の要旨とは関係ない部分ですので省略します。

③ 作成したIDリストをテキストエディターで加工する。

この過程では、②で作成したIDリストをIDごとの間隔が半角分の空白になるようにします。

まずはExcel上のIDリストをコピーして、適当なテキストエディタに貼り付けます。(今回はTeraPadを用います。)そうすると、IDごとに改行され、縦長に並んで表示されます。

ここで、「改行」を「半角スペース」に置換します。

まず「Ctrl + R」で置換ウィンドウを開き、「¥n」と「 」を入力しましょう。(¥nは改行を意味します。)

すべて置換を選択すると・・

こうなりました、成功です! 次のステップのために、これをコピーします。

④ ③で作成したデータで、①のディメンションにフィルターをかける

Ad Hocに戻ります。ディメンション名の付近に虫眼鏡アイコンがあるのでクリックします。

すると以下のウィンドウが表示されます。「これらの単語のいずれか」にコピーしたテキストエディタの情報を貼り付けます。

「検索」を押します。この作業により、入力したIDリスト情報と合致するIDのみがAd Hoc上で表示されます。

⑤ ディメンションを全選択し、右クリックから「セグメントを作成」

現在ディメンションに表示されているものは、セグメントに入れたいIDリストです。ディメンションを全選択し、右クリックをすると、一覧表示される中に「セグメントを作成」がありますのでこれをクリックします。

データ量によっては多少処理に時間がかかるかもしれませんが、気長に待ちましょう。自動的にIDがひとつずつセグメントに入力されていきます。

 

※ワークスペースではできません

「結局、範囲を指定して右クリックでセグメントを作成するってことだよね、だったらワークスペースでもできるんじゃない?」という疑問が生じるかもしれませんが、

・ワークスペースでは一度に表示可能な桁数が最大200

・セグメントのみを選択することができない(指標も含めないと選択できない)

以上の2点からワークスペースではできませんので、お気をつけください。

 

おわり

Ad Hoc Analysisは一度に5万行データを表示できますし、CSV等でデータを落とさなくてもかんたんにコピーができたりするので、とても便利です。(ワークスペースだとたびたびコピーが上手くいかないシーンがありますよね。)

今回書いた小ネタのこともありますし、これからはAd Hocも利用してAAの分析をより効率よく進めていこうと思いました。この記事が何かのお役に立てば幸いです。

 

最後まで読んでいただきありがとうございました!

DataWarehouseについて

はじめまして、インターン生の丸山です。

Adobe Analyticsにはたくさんの機能が備わっています。自分はワークスペースとレポートばかり触っていましたが、その他の部分についても触れる機会を得ましたので、今回はその中の1つ、DataWarehouseについて振り返っていこうと思います。

 

DataWarehouseとは?

 

Warehouseとは

(商品を収納するための)倉庫、貯蔵所、卸売り店、問屋 (Weblio英和辞典

DataWarehouse(以下DWH)は、ワークスペースのように、お好みの指標・ディメンション・セグメントを指定した結果をCSVあるいはTableau形式で取得するツールです。Dataの倉庫から引っ張り出してくるイメージですね。

ただデータをダウンロードすることはワークスペース等でも可能ですが、DWHはより大量のデータを一度に取得できるところに優位があります。

ワークスペースでは、一度に表示できるディメンションのデータの数は最大で200行です。例えば「3万行あるデータを全部取得して、Excelで処理したい」という場合に、地道に200行ずつCSVでダウンロードしていくのは非常に効率が悪いです。そういった場合にはDWHの便利さが光ります。

実はレポートでも、アドバンスダウンロードオプションを使うことにより、一度に5万行までのデータをダウンロードできます。しかし、自在に条件をカスタマイズしてデータ抽出するのはワークスペースのほうがやりやすいです。DWHはワークスペースに近いかたちでデータ抽出できることがレポートに対する一つの優位ではないかと思います。

 

DWHでしかできないこと

 

↑では、ワークスペース、レポートに比べて、「ワークスペースに近い形でより大量のデータを一度に取得できる」ところに優位があると書きました。それに加えて、DWHは他にも便利な点があります。

①DWHでしか扱えない指標・ディメンションが存在する。

DWHではAAに蓄積されている生ログをそのまま取得することができます。したがって、ワークスペースやレポートでは扱えない指標やディメンションも、DWHでは使用できる場合があります。

例:IPアドレス、訪問者ID、次ページ、前ページ等

 

②より大量のデータを扱った定期配信が行える。

「アドバンス配信オプション」>「スケジュールオプション」

より、レポートの定期配信を行うことができます。DWHでしか取得できないデータ、あるいは大量のデータを定期配信する際はDWHを利用するとよいでしょう。

 

注意点

便利なDWHですが、取得したデータを見るさいには注意しておかないといけない点があります。

①ディメンションに複数要素を指定した場合の表示

 

※表の数値はでたらめです。

ディメンションに複数要素をかけ合わせたデータを取得した場合、↑のようにディメンションは横並びに表示されます。(一方ワークスペースではディメンションは縦並びに表示されます。)

 

②ディメンションにセグメントを指定した場合の表示

※表の数値はでたらめです。

ディメンションにセグメントを指定した場合、ディメンションには0か1のどちらかの値が入ります。

0:セグメントに該当しない

1:セグメントに該当する

となります。

↑の画像の場合、

①2行目は「一般」「法人」両方のセグメントに該当しない

②3行目は「一般」のセグメントに該当

③4行目は「法人」のセグメントに該当

④5行目は「一般」「法人」両方のセグメントに該当した値が指標で表示されていることになります。

 

 

 

 

おわり

DWHの概要をかんたんに振り返りました。自分がDWHを使用したタスクは、DWHでしか取得できないデータを分析に用いたい場合が多かったです。AAを使っていてるけれどDWHは知らなかった、あるいは名前だけ知っていた、なんて人の目にとまってお役に立つ記事となっていれば幸いです。

最後まで読んでいただきありがとうございました!

まぐれ

こんにちは、インターンの安岡です。

今回は「まぐれ―投資家はなぜ、運を実力と勘違いするのか」を読んだ感想と中身をちょこっとまとめようと思います。

そもそも全く別の経路から著者の「ブラックスワン」を常々読みたいと考えていましたが、amazonレビューを見た結果本作品でブラックスワン上下巻分の内容があるとのことだったのでこちらを購入していただきました。文体としてはよくある洋書にありがちな変な言い回しが多いうえに西洋の古典や哲学の例や、作者の金融関係者の一部への恨みが詰まったような言い方で若干げんなりするところもあるのですが、しかし面白い本だったと思います。データ分析とは関係ないじゃないかと思う方もいらっしゃるかもしれませんが、データを扱う上でもいくらか教訓があるように思えたので内容をまとめたいと思います。

〇感想

この本が主張するのは、我々はほとんどが偶然や運といったものにふりまわせれざるを得ないのにも関わらず、それらの果たす役割を過小評価しがちであるということである。そのことによって運を実力と勘違いしたり、運がいいだけの人間を実力があるといって持ち上げてみたりする。しかし、運がいい人間はエルゴール性(本来は統計力学の用語だが、筆者は”長い時間のなかで物事が収束する”といういみで使用している)によっていつか取り返しのつかない大損をして市場から退場してしまう。どれだけ損する可能性が低くとも、自分自身がその損を吸収できない(吹き飛ぶ)ようなトレードをすべきではない。期待値で取引を評価すべきで、ロシアンルーレットのようなまねごとは(計算上1,000,000,000,000年に一度、標準偏差10個分のできごとだとしても)すべきでない(そしてそのような出来事はなぜか起こってしまう)。というのが筆者の主張である。

こんなことは言われてみれば当然のことで改めて言われなくてもそうだなあと思ってしまうが、このことに我々がなかなか気づくことができないのは、生存バイアスによって運だけの人間の足元にある無数の屍をにんしきできないことや、(どんなに頭のいい人間でも、バイアスやヒューリスティクスによって)物事の認知にどうしようもない欠陥があって非合理になってしまうことに由来する。「我々の脳は非線形性を扱えるわけではない。二つの変数に因果関係がある場合、ひとは原因のほうの変数が安定していれば結果も安定していると考えてしまう。例えば勉強を毎日していれば何かが身についていると思ってしまう。(中略)しかし、現実は厳しく、線形で正の進歩はめったになく、結果が出ないことにうんざりしなければある日突然何かが訪れたりする。」このような性質によって、人間はまれな出来事を過小評価してしまうのである。特に我々はある出来事が”ノイズ”であるのか”シグナル”であるのかを判断することができず、ノイズとシグナルの判別ができない。成功している人間も局所的な最適解に過剰適合しているだけで、本当は大域最適は別にあるかもしれないのである(合成の誤謬のように)。これに騙されないようにするには人間は耳をふさぎ目を閉じて再現性のある地味な道を耐えるしかないのである。

分析をする上では小さなデータをたびたび無視してノイズを取り払い、局所的最適解を目指さざるを得ないが、頭の片隅にはこのようなまれな事象を置いておかなくてはならない。

 

というところで次回はRとStanについて書きたいと思います。

 

Tableauカンファレンスレポート

こんにちは、インターン生の柳沼です!

秋晴れといった天気が続いていますね、ちなみに自分が通う大学ではこの季節になるといちょう並木に銀杏爆弾が投下され始め、銀杏トラップを踏んだ学生がそのまま教室に入ってくるので教室がとても銀杏のにおいに満ちて、授業中も秋を感じられます。

ところで、遅くなってしまったのですが、10/9~10/12にラスベガスで開催された、Tableauのカンファレンスに参加してきました。

tc17.tableau.com

四月に日本で開催されたカンファレンスにも参加したのですが、受けた衝撃も規模も何もかもが違いました。

自分自身、初海外ということで言語、文化の違いに触れられたのもとても経験になりました。

初めての海外、初めてのカンファレンスということで、経験を忘れてしまわないよう復習しつつまとめて行こうと思います。

1日目はTableauのCEO、Adam Selipskyさんのキーノートから始まりました。

僕は初日から道に迷ってしまい、始まるギリギリの時間に会場に到着したのでリモートスクリーンで見ました笑

お話のタイトルは、「タブローのビジョン」です。

Tableauがどのように考え、何を目指しているのか、お話していました。

今までは「データはアナリストだけのためもの」だったが、それを「データは全ての人のためのもの」に変えたいとおっしゃっていました。

そのため、コーディングが必要だったビジュアライズに着目し、直感的に操作ができ、誰でもビジュアライズできるツールを目指し、Tableauを作るに至ったそうです。

また、近年ではデータ前処理の需要も高まっており、そこにも通常コーディングが必要とされることから、データ前処理も誰もが簡単にできるようにProject Maestroを開発しているとおっしゃっていました。

目指すビジョンが明確で、それに沿った機能、製品はどんなものなのかすごく考えているんだなと感じました。

Tableauの長所は、誰もが簡単に美しいビジュアライズを作成できるという部分にあるということがひしひし伝わってきました。

そこからセッションを受け、1日目最後のキーノートはDev on stageです。

Dev on stageとは、現在開発中の機能をエンジニアの方が実演していくというものです。

既にベータ版がリリースされている10.5で実装される、Viz in tooltipやHyperなど本当に強力な機能ばかりで感動しました。自分はServerやOnlineはいじったことがないのでその辺のお話はからっきしわかりませんでしたが、Desktopで可視化の種類にDensity(ヒートマップ)が加わるというのはついにきたかと思いすごく興奮しました。

また、Serverの方で、各データセットにデータエンジニアの認証マークがつけられるという機能が加わるところで、テクノロジーの進歩に伴ってデータ量も増加する、よってデータの品質がより求められる時代になる、というのが印象に残りました。

二日目のキーノートは、ヤバい経済学の著者さんのキーノートでした。こちらは英語が聞き取れなかったので、後で録画で確認しようと思います笑

tclive.tableau.com

多分誰でも見れると思うので是非見てみてください!

 

二日目の夕方のキーノートは、Iron vizでした。

これがまたすごくて、20分という時間制限の中なのですが、10分ほどで全員の参加者が仕上げに入っていて、世界のトップのレベルの高さを見せつけられました。

20分でレベルの高いビズを作れる人もすごいと思ったのですが、同時にこれがTableauのコアかなと思いました。

Tableauだから、20分という短い時間で素早くデータから傾向を見つけ出し、それをストーリーにまで落とし込める。

直感的な操作が可能で、処理が早いという特徴を併せ持ったTableauだから、このようなコンテストが可能なんだな、と感じました。

自分も次回のStudent vizにはぜひ参加したいです!

3日目はAdam Savageさんのキーノートでした。なんでも思いついたら自分で作るという姿勢が、すごいと思いました。英語は全く聞き取れなかったのですが、会場で大笑いが起きていたので、すごく面白いことを言っていたんだと思います笑

このカンファレンスで、いかに自分のしてきた英語の勉強が無力だったかも思い知らされました笑

以上、カンファレンスの様子をざっと振り返ってみました。

次回は受けたセッションの内容を何回かに分けてお伝え出来たらなと思います。

それでは、ここまで読んでくれた方、ありがとうございました!!

柳沼

ベイズとR

ベイズの定理の初めのほうをまとめておこうと思います。ミーハーなのでついでにプラグインの\(\LaTeX\) の練習も兼ねてます。(読み返すとかえって数式のせいで読みにくくなっている気もするのでとりあえず下にある青字の部分を読んで、困ったら”これならわかる!”を読んでみてください。)
参考は史上最強図解 これならわかる!ベイズ統計学StanとRでベイズ統計モデリング (Wonderful R)

〇楽しいR

Rで何ができるかをそれとなくなぞることができた。すべてのデータの相関係数を一度に出すことができる上に、GUIとCUIの違いのようになれればエクセルの数倍早く操作できるのではないかと思えました(最終物はExcelなので、まあデータの確認とか整理とかの面で)。ただ、慣れればというのが鬼門でこの本を見てもいまいち表題の通り楽しいだけで身についたりはしないので要練習ですね。眺めるのが一番正しい使い方だと思います。あと、Rstudio入れてやったほうがいいと思います。

〇史上最強図解 これならわかる!ベイズ統計学
・内容
集合の基本の式\(P(A|B) = \cfrac{P(B|A)P(A)}{P(B)}\)の説明から始まって,ベイズの展開公式・(突然連続関数にベイズの定理を使ってきてびっくりしますが)確率密度関数に対してのベイズの公式まで導いてくれます。僕のような数学弱者にも優しく同じことを何度も別の例を使って教えてくれる反面、さすがにくどいのではないのかと思うところも多々ありました。しかし、メールフィルターの応用例(すごく単純ですが)等ベイズ統計学すごいなー、と思わせてくれる本でした。
・ベイズの定理
\begin{align}
P(A)=\cfrac{n_{A}}{n_{U}} , P(A|B)=\cfrac{P(A \cap B)}{P(B)}
\end{align}
から考えるとベイズの公式自体はすごく単純なものですが、A<-H(Hは原因や仮定),B<-D(DはHのもとで生まれたデータ)と置き換えてやると、
\begin{align}
P(H|D) = \cfrac{P(D|H)P(H)}{P(D)}
\end{align}

P(D|H): 尤度(ある仮説からそのデータが得られる確率)

P(H):事前確率(ある仮説が正しい確率)

P(H|D):事後確率(データを考量して、ある仮説が正しい確率)

となって、さらに原因が \(H_{1},H_{2},…H_{n}\)と存在するとすると, \(P(D)=P(D \cap H_{1})P(H_{1})+P(D \cap H_{2})P(H_{2})+…+P(D \cap H_{n})P(H_{n}) \) より

\begin{align}
P(H_{i}|D) = \cfrac{P(D|H_{i})P(H_{i})}{P(D \cap H_{1})P(H_{1})+P(D \cap H_{2})P(H_{2})+…+P(D \cap H_{n})P(H_{n})}  (ベイズの展開公式)
\end{align}

 

◎例題として、モンティ・ホール問題を考えます。

  1. 箱が三つあります。
  2. 箱を一つ選んだあと、司会者が一つはずれの箱を消去してくれます。
  3. その後、改めて箱を選びなおすことができます。選びなおしたほうがよいでしょうか?

という問題です。

選んだ箱をA,司会者が空ける箱をB,余りをCと名付けて箱Aが当たりである仮説を\(H_{A}\),司会者がBを開けるという事象を\(D_{B}\)とおいて,

\(P(H_{A}|D_{B}) = \cfrac{P(D_{B}|H_{A})P(H_{A})}{P(D_{B} \cap H_{A})P(H_{B})+P(D_{B} \cap H_{B})P(H_{B})+P(D_{B} \cap H_{C})P(H_{C})}= \cfrac{1}{3}\)

\(P(H_{A})=P(H_{B})=P(H_{C})= \cfrac{1}{3},  P(D_{B}|H_{A})= \cfrac{1}{2} ,  P(D_{B} \cap H_{C} )= 1\)

となって、実は選びなおしたほうがよいという結果が出ます。

ここで、司会者がBを選んだことによってAが当たりである確率が変化したことをベイズ更新 といいます。

事前確率を得られたデータをもとにさらに研ぎ澄ませる感じでしょうか。

また、勝手にすべての箱が同様の当たりの確率であると仮定していますが、このように自然な勘や経験を生かした事前確率を含ませることができるのがベイズの定理の強みであるということです※。

※ただし後述のMCMCでは解析の再現性の低下を避けるために一様分布か薄い正規分布を使う。

 

 

実際には仮説というのは代表値がどんなものであるか、という指標であらわされると考えて\(H_{i} = \theta _{i}\) としてやり、これが連続な値をとると考えてPを確率密度関数に読み替えてあげると

 

\( \pi(\theta_{i}|D)= \cfrac{f(D|\theta_{i})\pi(\theta_{i})}{\pi(D)}\)

という式が出てきます。

 

・MCMC(マルコフ連鎖モンテカルロ法)

モンテカルロ法自体はwikipediaを読んでもらえるとよいのですが、イメージでいうと”円を描いた正方形の紙にマシンガンをぶっ放して(円の中の銃弾)/(打った銃弾の数)で円の面積を推定するという方法です。

ベイズを使って実際にデータを解析するとなると、事前確率\( \pi(\theta_{i})\)や尤度\(f(D|\theta_{i})\)を求めることはできますが、\( \pi(D) \)を求めるのは難しいです。ただ、\( \pi(D) \)は\(\theta\)に依らない正規化定数でとみなせるので、\(f(D|\theta_{i})\pi(\theta_{i})\)から乱数サンプルを多数発生させてその代用とするのがMCMCです。

stanはこれを扱うのに便利なフリーソフトで、心理学関連でよく使われているようです。

もう少し書きたいのですが、思ったよりベイズが長くなったので次回とします。

今試験中かつ風邪をひいている状態なのでなかなか読書が進みませんが読んだ本があったら追加していこうと思います。おそらく1.5週間以内に「まぐれ」の記事を書いて、それから次回の続きを書いていこうと思います。

 

 

統計関連の本

はじめまして!インターンの安岡です。

初投稿から志が低いことを書いてしまうのは心苦しいのですが、私は定期的に何かをするということが続いたことがない性分なので、他のインターンの方々のように自分の学んだことを随時報告することはできないと思います。

その代わりに、社内にある本棚にある本や何かアマゾンで面白そうだと思った本の簡単な要約や感想・考えたことを本の紹介として(自分の備忘録も兼ねて)書いていきます。自分が本を読んで一週間以内(もしくは頭の整理がついたと思えたら)に無理なく更新したいです。面白くなかったら面白くなかったという報告だけを簡潔にしたいと思います。

とりあえず今回は基礎統計の復習に利用した「マンガでわかる統計学」「今日から役立つ統計学の教科書」「入門統計解析」の三冊を書こうと思います。

〇内容雑感

◎マンガでわかる統計学

女子高生ルイちゃんが家庭教師に統計学を教えてもらうストーリー。漫画のわりに本格的に統計学の初歩を学べるとしてアマゾンでも☆4を獲得していますが、ヒストグラムや度数分布の理解に一章をかけていたルイちゃんが終盤には天下り的に渡されたχの二乗検定を自在に使っているので信用できません。数学ⅠAを忘れてしまった人や、三冊目の「入門統計解析」で数学の式を見ているうちに目的を見失ってしまってどうも困るという人はおすすめですが、基礎知識を入れるのには二冊目の今日から役立つ統計学の教科書のほうがいいかなと思います。

◎今日から役立つ統計学の教科書

勘経験度胸のKKDから脱出してデータによる解析に切り替えていこうと説く本です。あまり難しい話は出てこずに実際統計データが出てきたときにどう扱うかということにどう扱うかということに主軸があって、TableauやAAで出してきたデータの分析に使えないかなと思って読んでいました。途中統計の有用性を示すために歴史を紹介してくるのですが、ほぼ意味がないので飛ばしてもよいと思います。p88は面白いです。

◎この二冊で確認したこと(忘れていたこと)

・データはカテゴリーデータと数量データの二種類、統計は推測統計(データから全体ひの特性を推測)と記述統計(グラフや偏差値で全体の特性を表す)の二種類

・パレートの法則(上位二割が八割を占めている)(これ自身の真偽はともかく累積度数の重要性)

・正規分布で±σに68%、±1.96σに95%が含まれる感覚

・χの二乗分布の意義(理論値との乖離を調べる)

・ABC分析(売り上げ貢献度ごとにグループ分けすること),CSポートフォリオ分析(満足度と重要度で項目の分析),PSM分析(適正な価格設定をするための手法)などなどいろいろな分析の仕方があること

 

◎入門統計解析

大学の基礎統計の教科書でした。数学がぼちぼち出てくるのですが、前書き通り高校二年生までの知識+αで読めます。いわゆる「大学の教科書」のようではなくて、統計量や検定方法に対してきちんと例が載っていて、わかりにくいところには説が載っています。エクセルを用いる練習問題がついていて、これをやった当時は適当にやっていたのですが現在は反省して暇な時間にエクセルをポチポチしています。上の二冊を読んだ後だと式変形をしている途中に迷子になることはすくないのではないかなあと思います。

 

〇統計に関するまとめ(StanとRでベイズ統計モデリング (Wonderful R)より)

◎データを取る前に

・背景知識の収集:その分野で頻繁に使われる仮定や手法、可視化手法を調べる

・問題設定:そもそもデータから何を知って何を主張しようとするのか。

・解析計画:ベストシナリオ「仮定Aが成り立っていそうなことが分かって計画Bが見える。」やマイルストーン(この結果が出たら先に進める、撤退するの判断)

◎データ収集後

・データの分布の確認(クロス集計や散布図、ヒストグラムetc…)

をすること。

 

個人的にはデータを取る前の解析計画ができていないせいで、意味のないクロス集計を作り続けて爆死するパターンが多く感じられるのでもう少しベストシナリオを自分なりにでも考えられるようになったらと思います。

〇これからの勉強

今後は『統計学入門』は入門を一通り終えた人におすすめ(Colorless Green Ideas) (この記事を書くにあたって参考にしたサイトです。)で紹介されている

一年で身に付ける!Rと統計学・機械学習の4ステップ(アイアナ:データ分析や人工知能(AI)などの技術雑記)や、

ビジネスにおけるデータ分析のプロを目指すなら揃えておくべき12冊六本木で働くデータサイエンティストのブログ

で紹介されているような本を読みつつちゃんと学んだことをまとめていければと思います。

〇現在読んでいる本

趣味:まぐれ

R関連:楽しいR,StanとRでベイズ統計モデリング (Wonderful R)

これらを読み終わったら(挫折したら)上の統計関連の本を読みます。

 

全体的に雑な投稿となってしまい申し訳ありませんでした。次回以降はもう少し中身のある事を載せられたらと思います。では

 

 

Tableau-折れ線グラフ

こんにちは!インターン生の市川です。
今回は、私の主観なのですが、できそうでできない3つの指標を持つ1つの折れ線グラフの説明をします。
ダッシュボードを作成していたとき、私は「ページビュー数と訪問回数と実訪問者数」の折れ線グラフを作りたいと考えていました。列シェルフに「月・週」などの期間を配置し、行シェルフに3つのメジャーを配置すると、折れ線グラフが3つできてしまいます。
6-1
Excelでは簡単に作成できる3つの折れ線グラフですが、この方法を知らなければTableauではなかなか作れません。

では、その作成方法をお伝えします。
今回は例として、「ページビュー数と訪問回数と実訪問者数」の折れ線グラフを作成します。

まず初めに、3つのメジャーのうち、2つのみ使用して「表示形式」より、2つのメジャーで1つの折れ線グラフを作成します。
6-2
ここでは「ページビュー数と実訪問者数」を使用しています。

6-3
そののち、加えたいもう一つのメジャー(この場合は訪問回数)を折れ線グラフの軸のあたりにドラッグして持ってきます。
そうすると、上図のように黒いかっこ、のようなものが表示されます。それが表示されたらメジャーを離します。

これで3つのメジャーを使用した、1つの折れ線グラフが完成したはずです。
ちなみに、行シェルフを見ると、一つのメジャーが「メジャーバリュー」となっています。
6-4
「メジャーバリュー」の中身を見てみると、行シェルフにない残りの2つのメジャーが存在しています。
2つのメジャーしか行シェルフに置けないところは変わらないようですが、そのうちの1つのメジャーを「メジャーバリュー」としてそこに複数のメジャーを格納できるようにしたということです。

このグラフの作成方法がわかってしまえばもう簡単ですよね!
今後の記事でも、できそうでなかなかできないといった箇所を説明できればと思います。