いちリサーチャーの日記

勉強の記録や自分の生活の観察、考えたことなど

JMRA定性調査がわかる基礎講座(オンライン講座)に参加しました

定性調査について、会社の研修を受けたり実務をしたりはしていましたが、業界スタンダードを改めて学んでみたいなと思い、JMRA定性調査がわかる基礎講座(オンライン講座)を受講しました。

自身の振り返りと、何かと情報発信が弱いマーケティングリサーチ業界への貢献になればという思いで、内容の紹介や感想等を記載します。

※本記事は実施主体等のご指摘・ご依頼などがあれば、削除・修正を行います。

講座の概要

実務経験豊富な講師たちが、体験に基づいた定性調査の魅力と基礎知識をぎゅっと凝縮してお伝えします。
これから定性調査を学ぶ方、定性調査のプロジェクトを進める上でのビギナーやアシスタントの役割を担う方にご参加いただきたいオンライン講座です。
定性調査のおもしろさ、醍醐味、実務の流れ、設計上必要なこと、注意点を、講義とワークとQ&Aで、オンラインなのに体感的に学べます。 

講師の1人である吉田朋子さんは、調査会社20年の勤務を経て独立・年間200件近くの定性調査のモデレーションを行っている凄い方。

他お2人も良いモデレータを抱えていた会社でキャリアを経ていたり、教鞭を取られていたりと実績豊富な方で大変豪華な講師陣でした。 

www.jmra-net.or.jp

 

当日のカリキュラム

2時間×2日間のコンパクトな講座でしたが、グループワークも交えながら定性調査の基礎を学べる内容。若干駆け足な印象はあったので、本当の初学者の方は前後に書籍などで予復習をされるといいかなと思いました。

f:id:takatsuka_htn:20200626121820p:plain

どんな人が参加していたか

厳密なカウントはしていませんが、事業会社:調査会社=1:2くらいの印象でした。部署移動や転職により定性調査に関わることになった方、別部門で機会がないけれど学びたいという方で定性調査の実務経験が0〜2年程度の方が多かったように思います。

デザイン定性調査をしているという方も若干名いらっしゃいました。

 

印象的だった内容

定性調査とは?(定量調査と比較して)

定量調査量的把握、仮説検証、確証を得たい、数字で分析をする

定性調査ヒントを得る、刺激から反応細かな感情の動きを観察、データでは掴みにくい探索・洞察を得る

探索的・診断的/有為に集めたサンプル/情報収拾は自由に変えられる/フレキシビリティに富む/再現性に保証はない/解釈・主観的/発言のみならず態度も分析対象

アンケートやデータでは具体像が見えない背景・要因・その詳細な関係、人の真意(意識していないものまで)を丸ごと理解し、合理的なストーリーを組み立てたい

 

定量調査との比較に関しては定量調査をアンケートの定量分析ではなく、非構造データのアナリティクスまで含めて考える*1と異論はあるのかなとは思いますが、「定性調査は代表性・再現性よりも、ヒントや心の動きや感情など、無意識も含め対象者への深い洞察を得ることに重きを置いたもの」という理解はそうブレるものでもないかなと思いました。

先輩社員のグループインタビューであった「定性は○○、定量は△△」というお題に対しての回答であった、定量をイラストで書かれた虹、定性を写真で撮った虹で表現した(鮮明に明確に明らかにするものと、解釈によって受け取り方が分かれる曖昧さはあるが解像度が高いもの)のはなるほどと思いました。他にも、「定量は電車で定性は車(最初にレールが必要だが確実にそこに行けるものと、どこにでも行けるもの)」、「定量は地図で定性は物語」などもおもしろく、表現力(言語化力)の高さが凄いなと感じました。

 

定性調査で行うには難しいこと

量的評価。n数が限られ、また恣意的に選んだサンプルにおいて、「6人中4人が選んだ」「評価者の平均評価点は4だった」にあまり意味は無い。意思表示に聞くのは良いが、それが調査の結論になるようだと定性調査の意義がない。

講師の方の言葉であった「見ている方は分かりやすかったり、解釈の余地が無い分、報告がしやすかったりするため、目的をきちんとしていない際に数に逃げがちになる」というのは耳が痛かったです。対象者を誘導して言質を取る、ノンバーバルを見ずに言葉だけに引っ張られるなども同様の逃げなのでしょう。

 

定性調査の成否を分けること

10分の8はそこ。条件が一番大事で、次に表現力、定性調査への適性、何を聞くかというフロー、最後がモデレータの技術。

定性調査は数値や縮図ではなく情報を取りたい。ヒントになる答えを持っている人から話を聞くことが重要。スクリーナーで「ややそう思う」の人はあまり考えていない。意識している人から話を聞いて。スクリーナーも態度ではなく行動に落として聞いた方が良い。

対象者を深く掘り下げるものだから、誰を選ぶかが最も大事というのは本当にその通りで、一方で「この人に代表性はあるのか?」ということをまだ私は考えてしまいがちで、それは自身の経験の浅さなのかなと思います。代表性は考えないというのはかなり思い切った判断だと感じており、定性調査に長く携わっている方や結果をビジネスに活かした立場の方にもっと多く話を聞いてみたいなと感じました。*2

ライトユーザーや低関与商材を対象としたものはニーズがありながら、調査課題や対象者条件の設定も広いものになりがちで打ち手に繋がりにくいというのは実感としてあり、効果的な設計を考えるのは今後の課題としたいです。

  • 目的と課題をきちんと持つこと

全ては解くべき問題を解くために

関係者のリクエストから解くべき課題を識別して取り出し、次の手が打てるようにアプローチし、結果で関係者の合意を取らなければならない

目的と課題をきちんと持つことや、調査目的(どういうビジネス課題を解決したいのか)・調査課題(この調査で何を明らかにしたいのか)・調査項目(この調査で何を聞くのか)の違いを分けて整理することは定量調査であろうとアナリティクスであろうと同様に大切なことですが、実査当日の自由度が高い・リアルタイム性が大きい・つい対象者に引っ張られてしまうなどから見失いがちになること、対象者リクルーティングへの影響度が大きいことから強調されているのでしょう。

  • モデレータの技術

これは模擬グループインタビューの中でモデレータの方は重要度が低いとしている一方で、調査会社の方は重要なものとして挙げていました。

自分の実感としても「話しやすい関係を短時間で関係者と作れるか」「誘導せず、対象者の言葉を引き出せるか・言語化を手伝えるか」「言葉に引っ張られず非言語を見れるか」「決められた時間で解くべき課題への解にたどり着けるか」などはモデレータの技術によってかなり差があるように思います。ただ、凄腕モデレータ*3リカバリに頼るような設計や関係者との握りにしないよう、リサーチの主幹は努力しなければ・・・と心を痛めてもいます。

スクリーニング時から方向性が変わってくる、明らかになっていることが少なすぎて調査課題を絞り込めないなどつらいことは多々あり、これは依頼者との関係構築やビジネスへの深い関わり、他の調査やアナリティクスとの組み合わせ、関係者のファシリテーションなどを身につけることで解決していきたいです。*4*5

 

最近の定性調査の動向

  • 定性調査の依頼内容として、依然として多いのはグループインタビューやデプスインタビュー。
  • 日本はオンライン化が遅れていたがコロナ禍で急速に進みつつある。
  • オンラインではグループダイナミクスを得ることが難しいので、グループインタビューよりもデプスインタビューが多い。ただ少しずつグループインタビューも増えてきている。オフラインで一般的な6人設計ではなく3〜4人のミニデプス設計。
  • オンラインインタビューだとモノの呈示や使用ができないため、ホームユーステストも増えてきている。
  • 環境確認の時間があり、実施までの準備期間はオフラインから短縮はされず、むしろプラスでかかるくらい。
  • モバイルエスノグラフィー(対象者がスマホで中継)も新しい動き。ゲーム案件などで。ただし対象者が見せても良いと思ったものしか見られない点は留意が必要。

 正直このテーマだけで2時間程聞きたいくらいでした。ESOMARの発信や実務やセミナー、コミュニケーションなどで情報収集していくのが現実的なところでしょうか。

 

ということで、屈指のモデレータや定性調査のリサーチャーの話が聞ける非常に学びの多い講座でした。今回は参加料も5,000円と安く参加しやすかったです。

良い師に学べることは非常に有意義なので、業務とお金の都合をつけられたら、養成講座も受講したいです。

*1:でもそれは定量調査とは呼ぶことは少ない気もする。データアナリティクス?分類むつかしい・・・

*2:経験に裏打ちされた説得力を感じるものの、「講師の方が言っているからそうなのだろう」も思考停止に思うので

*3:模擬グルインや講座の中でだけでも凄さを感じた。こういう方と一緒に組んで仕事をできるような立場になりたい

*4:志はあるのだけれど、やるのはとっても大変・・・

*5:これは完全に余談だけれど資料のスマートさはこの業界は弱いなと改めて感じたので、個人的には伸ばしていきたい。資料だけキラキラで中身が無いのも嫌だけれど、魅せ方を軽視しがちなのはあんまり良くない

Stay at homeの試行錯誤

少し前に会社から原則在宅勤務の方針が出た。

また、休日はだいぶ前から家で過ごしている。

専門家の意見や海外の様子をみると、この生活は1年以上続くかもなぁと思っている。

海外や地方に家族や友人が居て心配ごとは山のようにあるのだけれど、できることを粛々として、この生活に適合していく他ない。


仕事

  • オンラインでの会議を何度か体験した。資料を事前に共有しておくのは必須。1人1人の発言になるので派生した話題で盛り上がったり、雑談したりはしにくい。うなづいたり、ジェスチャーをしたりを意識的にしている。
  • メールとスレッドでのチャットの使い分けは曖昧。何かルール化した方がいいのかもしれない。
  • 各々の繁忙度や通信環境がわかりづらく、新たな仕事を振った方がいいのか迷う。何かステータスを表示する仕組みがいりそう。
  • 自分の考えごとはwikiにまとめるようにしている。アウトプットの見える化と共有のつもり。


健康

  • 少し前に喉が痛くて、LINEヘルスケアで相談した。もしコロナで自宅で治さなきゃならないときのために薬を購入した。
  • 同僚の出入り先で罹患者が出た。
  • 身体を動かしていない。気まぐれにラジオ体操をしたり、フラフープを回したりしているけれど散歩なども含めてスケジュール化した方が良さそう。
  • スクリーンばかり見ているので目が痛くなる。目を休められる息抜きを見つけることが必要。スクリーンタイムの管理も視野に入れる。
  • 疲れ気味で早く寝落ちて朝方目覚める日が続いている。睡眠時間自体は足りているけど、どうするか考え中。


家事

  • 3月の頭に食洗機を買っていて、この利用がルーティン化してきたのはよい。
  • 意識的に部屋を綺麗に保つようにしている。家事を溜めない・花を飾る・着心地の良い服がすぐ着れる状態にするなど。
  • 自炊が続くので、Oisixの利用を続けたり本を見て料理をしたりしている。同じ食べ物が続くと飽きる。Oisix隔週が今のところ良さそう。
  • ルンバ、ブラーバ、食洗機で家事が自動化できていたのはよい。ただ家に居ると作動音が少し気になる。入浴中などと被らせると良さそう。


コミュニケーション

  • 1人はなかなか寂しい。友人にLINEで様子を聞いたり、家族とビデオ通話をしたりしている。
  • 久しぶりの人に連絡をしやすいのは良い。大切な人と二度と会えなくなることも絶対にないとは言い切れないので、悔いがないようにしている。
  • 以前から遠隔地の家族と時々ビデオ通話をしていたのは、今回もスムーズに連絡が取れてよかった。
  • オンライン会議と同じで複数人が一度に発言するには向かないので、一対一が良さそう。
  • 収束したら遊ぼうという約束をたくさんしている。


勉強

  • 英語の必要性が高まったのと、人と話したいのとでオンライン英会話を始めた。1日のレッスンが無制限なので以前試したNativeCampにした。これもスケジュール化したい。
  • 本を読む時間はとりやすい。アフターデジタルとアドテクノロジーの教科書を今は読んでいる。おすすめの本を勧めてくれている人も居るので、暫く読むものには困らなそう。
  • 各種勉強会がオンラインになっているのは参加しやすくてありがたい。


娯楽

  • ドラゴンクエストⅤのアプリを入れてみたが今のところハマってはいない。
  • 漫画を読むのが自分には良さそう。


買い物

  • 腰痛防止用のクッション、入浴剤を買った。物によっては日用品が安くAmazonで買えることがわかったのでこれは生活が元に戻っても使うつもり。
  • 食洗機用のフライパンセットを買ってから、食洗機の利用がとても便利になった。全部食洗機で済むかそうでないかは雲泥の差がある。サービスを考えるときに意識したい。
  • 隔週で花が届くflowerのアプリがよい。花屋さんの支援になるといいなと思うのと、チケットがもらえるのとで人に勧めている。
  • 服はブラウザと色味が違うと感じることが多い。今まで店舗で買っていた人もオンラインで購入していると思うので小さな生地をサンプル送付する仕組みがあると双方良いのではないか。ただ人に会わないので、暫く服は買わないかもしれない。
  • 家に居るのでお米の消費が激しい。
  • 今のところ物流やAmazonが機能しているので助かっている。徐々に時間がかかったり、在庫が無くなったりするかなと思っている。
  • 外への買い出しは平日の日中が良いかもしれない。娯楽が無いので大きいスーパーに行きたくなるけど我慢している。
  • 支出が増えている気がするので確認する。


直近の試行錯誤はこんなところ。

根を詰めずに、でも上手く適合していきたい。

コロナウイルスと断絶とマーケティングリサーチ

コロナウイルスが猛威をふるっていて、いろいろなことが起こっている。

その事々に対して、自分の周囲の人が異なる反応をしていて、「属性によって反応が異なるのだな」とか「ある集団の一員に見えているものが、集団外の一員には全く見えないのだな」と感じた。


例えば2月28日、小中高の休校が発表された。

該当のお子さんを持つ人が、明日からの子供の世話をどうするか、仕事をどうするか、学童は、祖父母は・・・と考えてざわざわしている一方で、未婚の若い人が「明日から超ディズニー混むね!」と言っていた。


Twitterでこの機会にと良質なオンライン学習が紹介されていた一方で、学童に子供を通わせている人が「学童には宿題を持っていかせなければならなくて、紙の教材が必要だから進研ゼミをやらせていて良かった」と言っていた。(学校からi-padの配布があるような先進的な地域の人だ)

 

これはどちらが悪いという話では無くて、ある程度の解像度を持って知らないものに対しては、人は想像することができない(あるいはその想像が的外れになる)ということなのだろう。


組織において多様性が求められているのは、世の中のいろいろな事々に対して、解像度高く考えられるようにするためなんじゃないかと感じた。なので組織における性別や年代や国籍などの属性を豊富にしても、その生活がほぼ一様であれば多様性のある組織とは言えないのではないだろうか。


悪気はなくても断絶はある。


断絶を埋めるのは、「自分の見えている世界が全てではない」と考えることと、自分の見えていないものを知ろうとする行動なのかなと思った。

見えないものの片鱗に触れたり、それらを見えない人のために可視化することができるので、自分はFGIをはじめとしたリサーチが好きなんだろうなぁ。

【読書】10年戦えるデータ分析入門 SQLを武器にデータ活用時代を生き抜く

データ分析のためのSQL記述を中心に1から教えてくれる本。

通読は複数回終えていたのだけれど、「サンプルデータをインストールしてサンプルコードを始めから終わりまで試してみる」ということも含めて、少し前に終えることができた。


感想

本を読んだだけでも、データ分析に対象を絞って、かつ体系的に書いてくれているのでわかりやすいなと思っていたが、実際に手を動かしてようやくちゃんと読めたと感じた。

(後半の方は体得して使いこなせるレベルにまでは至っていないので、「理解できた」まで言ってしまうと語弊がある)

オンライン学習でも学べる部分はあるのだけれど、実際に自分の環境にデータを入れて分析すると、こうしたらどうなるんだろう?を試せたり、PostgreSQLのテーブルやカラムの見え方がわかったりしておもしろかった。また、興味のある任意のデータを分析することへのハードルが下がった。


良かった点

分析向きのPostgreSQLを使うことを前提としていて、ただ他のものと互換性が無い関数については、コラムで紹介する(またはPostgreSQL以外は〜と記載されている)形になっているのが親切。

「書き捨てのコードではpostgreSQL固有の関数を使っても良いけどバッチ用のSQLでは辞めよう」「クエリが動くかを小さいデータで試してから、徐々に大きいデータに適用しよう」など、現実的なアドバイスがあるのが良いと感じた。

サブクエリーの内容を1つ1つ解説してくれているのは、心が折れなくてありがたい。

所々、数個前の章の知識を引く部分があって、そこで戻るので良い復習になった。時々、前のクエリーを取って置かずに再度書き直すこともあった。

分析対象がECサイトのもので実際に行うこともあるかもなと思えてやる気が出た。

第1部の最終章が「アクセスログのセッション分析をする」という、これまでの内容を総動員して、クエリーを書くものなので、そこのコードを動かす部分までたどり着いた時は感慨深かった。

 

困った点

postgreSQLのインストール方法等を載せてくれているのはありがたい一方で、最新のバージョンがかなり進んでしまっているので実際のインストールに苦労した。検索してなんとか乗り越えたのだけど、WEB上にあるものはエンジニアの方の覚書が多く、書き手が想定外の所で躓いて大変だった。有料で良いのでサポートサイトで最新版の解説など引けると良いなと思った。


access_log_wideのデータが数行しかなかったけど、これは私の環境に依存した問題なのだろうか・・・。

サポートサイトに画面のキャプチャをつけて送ってみたけれど1週間以上経っても返信はないのでよくわからない。


10章でpv_signaturesテーブルに該当するものがなくて最後のコードを実際には動かせなかったのがとても残念だった。粘って、テーブルを作ろうとしたのだけれどrequest_pathもほとんど種類が無くてできなかった。サブクエリが多い箇所だったので、少しづつ区切って自分で動かしてみたかった。

 

まとめ

全てのコードを試すというストイックな読書だったが、任意のデータを好きに分析できるようになったのは嬉しい。

ライフログを分析する 計画編

SQLの勉強を兼ねて、ライフログを分析しようとしています。

本記事はその計画です。


目的の整理

まず、なんのために分析を実施するかを決めないと、適切なデータやその粒度、必要な分析がわからないため、はじめに目的を整理しました。


私は「調子の良い日と悪い日の要因を分析して、調子の良い日を増やす」ことを目的としました。


さて、「調子の良い日」とはどんな日でしょう。私は「調子が良い日」を以下のように定義しました。

①気分がよい

②朝すっきり起きられる

③パフォーマンスが良い(やるべきことができる、思考が冴えている)

④やると決めていることができる


結果指標の設定

次に、上記の定義に合った測定方法を考えました。


①気分がよい

 ⇒気分ログをつけて、それが高スコアである

②朝すっきり起きられる

 ⇒(起床時間)-(覚醒時間)

③パフォーマンスが良い(やるべきことができる、思考が冴えている)

 ⇒TODOリストの消化数、読書のページ数、DataCampの獲得EXP

④やると決めていることができる

 ⇒Habitlyで記録しているルーティンの○×


③④はアプリからデータをエクスポートすることが難しかったため、今回は①②を結果指標の候補としたいと思います。


原因指標の設定

今度は原因となりそうなものをできるだけたくさん考えます。


・スクリーンタイム

・睡眠時間

・歩数

・天気、温度、気圧

twitter ツイート数、RT数

・消費金額


スクリーンタイムはデータのエクスポートに現状対応していませんでしたが、いろいろ調べてみた結果、それ以外は現在調べる限り取得できそうです。


・スクリーンタイム

 →×

・睡眠時間

 →FitbitAltaからのエクスポートは難しそう。

 (覚醒時間)-(就寝時間)

・歩数

 →iphoneのヘルスケアからCSV

・天気、温度、気圧

 →Weather undergroundをIFTTTでGoogleスプレッドシートに記録する。

twitter ツイート数、RT数

 →TwitterアナリティクスからCSV

・消費金額

 →MoneyForwordの有料会員向けCSV


計画としては以上です。

実際に分析する中で、データの処理に困ったり、上手く相関がでなかったりすることは出てくるかなと思いますが、ログが溜まるのが楽しみです。

Google Home miniで自分の生活を便利にする

ルンバとブラーバの購入から派生して、年始にメルカリでGoogle Home miniを買いました。

手に入れたけど何に使って良いかわからない方や、似たようなことをしたい方のお役に立てば。

※WHATの部分が多めでHOWは荒めです。具体的な手順でつまずいたことのやり方は後日別の記事で書きます。


やりたかったこと

  • 「ただいま」の一言でいろいろ操作して、ロボと暮らしてる感を出したい
  • ルンバとブラーバを音声で操作できるようにしてペット感を高める
  • ライフログを取る
  • 位置情報を利用して、エアコンや電気の消し忘れ対策をはかる

 

買ったもの


インストールしたアプリ


「ただいま」の一言でいろいろ操作する

Google Homeアプリのみで可能。

ルーティンという機能を使う。

対応しているスマート家電以外のON・OFFをしたい場合はスマートリモコン(Nature Remo miniなど)とIFTTTが必要。スマートリモコンに赤外線を学習させてIFTTTと連携させることで、リモコンで操作できる家電はGoogle Homeでも操作できるようになる。


私は、「おはよう」「おやすみ」「行ってきます」「ただいま」にエアコンと電気のON・OFFと後述のライフログ、天気予報やラジオなどを連動させた。

ちなみに我が家の電気は以前にPanasonicの光線式ワイヤレスリモコンセットを買ってリモコンで操作できるようにしていた。

 

ルンバとブラーバを任意のワードで操作できるようにする

Google HomeとIFTTTとi robotのアプリで可能。

デフォルトのワードが「(ルンバの名前)に掃除をさせて」だったのが、ペット感が薄くてちょっとなぁと思い、変更にチャレンジした。

IFTTTのTHEN側で連携可能なアプリで操作できるものは、任意のワードで可能。


ライフログをとる

IFTTTで可能。ただ、検索して出てくる記事が書かれてからIFTTTのアプリがアップデートして、だいぶ苦労した。

詳しい操作方法は長くなるのでまた別の記事で書きます。


IFTTTで複数のアクションを実行する

当初「IFTTT 複数操作」で検索してMakerやWebhooksなどが出てきて苦労していたのだけど、最終的にはIFTTT側でなく、Google Homeのルーティンを活用することで簡単にできた。IFTTTでGoogleAssistantのトリガーワードに設定したものを、GoogleHomeのルーティンに設定すればよい。


位置情報を利用してエアコンや電気を操作する

Nature Remo miniとRemoアプリのみでできた。

他にも所定の時間でオン・オフなどもできるので、音声操作をしたいわけではなく、リモコンのある家電を操作したいだけならスマートスピーカーは不要なのだとわかった。なんとなくスマートホームと言うと、まずはスマートスピーカー!みたいな感じになるのはなんでなんだろう。広告がたくさん流れてるからかなぁ。

自分は位置情報くらいしか使わなそうだったのでminiにしたけれど、上位機種だと湿度や人感センサーと連動させた操作もできる。リモコン式の加湿器とかがある人はいいかもしれない。

ちなみにしばらく位置情報を利用して、消し忘れたエアコンをOFFにするようにしてたのだけれど、スマホの充電の減りが早くて辞めて、タイマーにした。小さくて安価な位置情報専用デバイスみたいなのがあると良いなぁ。


番外編 物理スイッチを操作する

廊下の電気が消せたら良いなと思い、Switchbotを買ってIFTTTと連携させたかったのだけどできなかった。

ただ、時間設定で消せるようになったのと、スマホで消せるようになったのはよい。

 

こうなったら良いのになぁという妄想

都度ウェイクアップワードを言うのが結構まどろっこしく、会話感を失わせているように思った。スリープワードを言うまでは、受け答えができるとか、「あと」「それから」のようなワードで次の命令ができれば良いのになと思った。


Google Homeを使ってみての感想

スマートスピーカー」という総称で呼ばれているけれど、「音声リモコン」「スマートコントローラー」などと呼ぶ方が、私の感じた効用には近かった。名前はだいじ。


定額制の音楽サービスは利用していないし、短い文章はともかく長い文章を機械音声で聞くのはスピードやイントネーションの違和感などでストレスが大きい。(ラジオは時々流している。)まとまった分量の情報を受け取るのは、新聞を読んだりスマホを見たりするなど、視覚からの方が向いていると感じた。

それから、表情が無いとペット感を出すのはなかなか難しく、人間が視覚から受け取れる情報は聴覚から受け取れる情報よりも圧倒的に多いのだなと思った。

ベッドで早めに目が覚めたり、まだ起きたくなかったりする時に、暗闇の中で(視覚を使えない状態で)時間や天気を聞くのは便利だった。


ネガの方を先に挙げてしまったけれど、複数のことを一度にするとか、遠くのものを操作できるのはとても便利。声が届く範囲は、目や手が届く範囲よりも広いので、この差を上手く使えると、より活用できそうな気がしている。

こんなことができるかも?などと考えるのは楽しく、私にとっては良い買い物だった。

情報銀行について考える

秋ごろにデータ分析まわりのセミナーや説明会によく足を運んでいて、その中の一つとして「情報銀行プラットフォームを成長させるUI×基盤開発・アプリ開発×データサイエンス」に参加した。

情報銀行については、考えられることがたくさんあって、時間がある時に調べ物をしたり整理をしたりしてから書こうと思っていたのだけれど、だいぶ時間が経ってしまったので、高すぎる目標を掲げて何もしないまま忘れていくのが一番良くないなぁと思い、一旦イベントの感想と、それについて考えたことだけ記載することにした。

※本記事は、オープンにされた情報との理解で書いていますが、何か問題があったり、関係者からご指摘を受けることがあれば削除・修正を行います。

ご連絡は本記事のコメントにてお願いします。


イベントの概要

公式の説明は以下の通り。定員の約4倍参加応募があったらしい。

techplay.jp


テスト段階ということもあってか、「情報銀行ってこういうものだよ」「情報銀行はこういうものを目指しているよ」という話が多かった印象。

情報銀行については、聴講したイベントの主催者ではないが、三菱UFJ信託銀行が公開している資料がわかりやすかった。

www.tr.mufg.jp


各セッションについて

情報銀行のUIUXについて

規約をきちんと読んでもらうためのUI改善をしていて、確かにわかりやすいなと思った。このイベントの中で最も具体的実装まで進んでいる印象を受けた。

f:id:takatsuka_htn:20200114211413p:plain

f:id:takatsuka_htn:20200114211419p:plain

f:id:takatsuka_htn:20200114211422p:plain


情報銀行を加速させるためのシステム開発

外部のパートナーを積極的に活用していくという話があり、正直大丈夫かなぁ…という印象を受けた。具体的なパートナーやサービスについては社外秘ということで言及が無かった。

f:id:takatsuka_htn:20200114211404p:plain


情報銀行のデータサイエンス

購買情報や意識データを本人の許諾を取った上で貯めていって、そのデータを基にサジェストやプロモーションを行うことを想定しているらしい。現在EC等でされている購買データを活用したレコメンドをリアルでの購買や意識データまでデータソースを広げて行おうとしているのだろう。

本人に許諾を取った上でデータを取り、本人が一度許諾を出したデータについても、後から許諾を取り下げることができる設計にする、という話であった。

f:id:takatsuka_htn:20200114211426p:plain

f:id:takatsuka_htn:20200114211430p:plain

f:id:takatsuka_htn:20200114211328p:plain

f:id:takatsuka_htn:20200114211359p:plain

気になった点や質疑

本人の許諾について

Q:「許諾を取り下げたデータは削除する」ということのイメージが湧かなかったのですが、①一度許諾を取って、クライアントに渡してしまったデータについては、取り下げられてから実際に使われなくなるまでタイムラグがあるのでは、②モデルに組み込んでしまったデータを取り消すことは現実的ではないのでは、と思うのですがいかがでしょうか。

A:非常に答えにくいが根本的な質問。②は実質的に不可能かと思う。①についてはどうすべきか難しい。何か期限を決めて、という形にするのがいいのかもしれない。


ビジネス設計について

Q:どういうデータをいくらくらいで販売しようとされていますか。また、売り先をFMCG系にするか、耐久消費財系にするかでどういう粒度でデータを取るかや、何年データを保有するか、データベース設計も大きく変わってくるように思いました。

また、例えば自動車に関するデータを複数の自動車メーカーに販売すれば収益性は上がりますが、競合他社も保有できる(購入しても競合と差別化できない可能性が高い)データに企業が高額を払うことは考えにくいと思いました。


A:どこをターゲットにしてビジネスをしていくかは明言できないが、FMCGなど購入頻度が多い商材の方が短期間でデータが溜まりやすいので、短期的にはそういったところを狙うかもしれない。値付けについては、どの程度の価値を産めるかというところから設計していく方法もあると思っているが、検討中。

競合他社にデータを販売しないで欲しいというリクエストはあると思っているが、「本人が許諾をしているので」という説明をしていく想定。


利用するデータについて

Q:欠損値は拡大推計など、計算で埋めることを考えていますか。

A:アンケートを取るなどして、あくまで実データをとることにこだわりたいと考えている。


考えたこと

  • 耐久消費財は、長期間のデータを保有するよりも、現在利用している各商品の購入年度(ともしかしたら型式)を一度聞いてしまえば良さそう。十年超のデータを保有するのは現実的でないように思うし、また、自分は最近冷蔵庫が壊れて買い換えたが、現在のライフスタイルや間取り、他に使っている家電の機能やCMの印象や予算、行政支援などに基づき購入商品や購入タイミングを決めたので、あまり昔のデータは購入に関係しないように感じた。反対に家族構成や住まいは変化があるごとに、ライフスタイルや価値観などの意識データは定期的に聞いても良いのかもしれない。
  • 情報銀行に対して「機能するかなぁ…」という印象を正直参加した当日は抱いてしまったのだけれど、現在の銀行も登場した当時は荒唐無稽に思われたのかもしれないから、どうすれば上手くいくのかを考えた方がおもしろいのかもなと思った。
  • 難しいのは、通貨は一物一価であるのに対して、情報は取得時点でその価値が定まっていないので、こちらで手に入れたものをあちらで運用して利息をつけるというのが通貨と比較して難しいように思った。これは市場が発達していけば収束するのだろうか。それから、金融資産は銀行等に預けることで堅牢に保管できるが、情報は無限に複製できることから堅牢に保管はできないと感じた。
  • 実データにこだわって取得していきたいというのは凄いし、実現したらおもしろそう。

 

実装の難易度がすごく高いように感じているが、構想は好きだ。

データ分析で便利/豊かにできる範囲が拡がるというのは自分にとっては望ましいことなので、定期的に注視していきたい。