CRESTシンポジウム2014、「機械知能とビッグデータ」に参加レポート

CRESTとは、科学技術イノベーションに大きく貢献する成果の創出を目指すネットワーク型(チーム型)の研究活動です。文部科学省は戦略目標を設定し、将来の研究成果を国民への還元という形で、一つのチームの活動期間は5年以内となっています。その間で、何回か研究成果を評価し、シンポジウムなどを行います。
今回参加したシンポジウムは「機械知能とビッグデータ」です。
【概要】

膨大な画像,映像,テキスト,加速度,位置情報などの多種多様なデータをコンピュータが自動的に理解する知的システムが近年脚光を浴びつつあります.本シンポジウムではこのような膨大かつ多種多様なデータを理解する知能システム構築のための基礎理論から応用までの近年のトレンドや成果を紹介いたします.具体的には,平成26年度から開始いたしましたJST CREST「膨大なマルチメディアデータの理解・要約・検索基盤の構築」における研究内容の紹介や,Googleから2名の研究者をお招きし,Deep Learningとロボットの融合,機械翻訳の最新研究をご講演いただきます.

【開催日時】
2015年3月6日(金)13:00~17:30 (18:00~19:30 懇談会)
【開催場所】
■講演内容
============================================
・(1)講演1 マルチメディア理解 Multimedia Understanding 原田達也,東京大学
 膨大なデータを活用したマルチメディアデータの認識・理解手法に関して講演する.具体的には,画像識別や画像からの文章生成技術の発展や最新の成果を紹介する.

============================================

・(2)講演2 密度比推定による機械学習 Machine Learning by Density Ratio Estimation 杉山将,東京大学
 確率密度関数の比の推定に基づく汎用的な機械学習の枠組みを紹介するとともに,非定常環境適応学習,変化検知,特徴抽出,パターン認識などへの応用例を示す.
============================================
・(3)招待講演1Deep Networks with Applications to Computer Vision and Robotics
Anelia Angelova, Google

============================================

・(4)招待講演2 Title: How Do Machine Translate? 賀沢秀人,グーグル株式会社
機械翻訳は人間が規則を書く時代からデータにもとづいたモデルを学習する時代に移行し長足の進歩を遂げている.本講演では機械翻訳技術の現状について問題点も含めて概説する.
============================================
・(5)講演3 ロボット技術を利用した実世界の情報収集 Robotics technologies for gathering information in the real world 大野和則,東北大学
レスキューロボットや,インフラ点検ロボットを中心に,ロボットや動物を利用して実世界を能動的に探査し,情報を収集・記録する技術の研究開発について紹介する.

============================================

・(6)講演4 人の動きのセンシングと統計的データ解析 Sensing human behavior and its statistical data analytics 下坂正倫,東京大学
スマートフォン,ウェアラブルセンサを含むIOTデバイスの登場により,人の行動のセンシングが容易になってきた.本講演では,人の動きに関するセンシングの技術動向と,統計的な行動モデリングに関する研究事例を紹介する.
============================================

■ 全体の感想

  • 先生方と研究者の皆さんはとてもsmartの感じで(実際はもちろんsmartな方ばかり)、今まで味わったことがないような研究者communityの雰囲気を実感できました。
  • シンポジウムに申し込んでいないのに、むりやり受付の方にお願いしてみて、入れてもらいました。まだ東大の学生なので、luckyでした。会場には席が埋まってしまったが、聞くだけでも得になります。
  • 講演の内容はもちろん研究の紹介や入口の段階にすぎないかもしれないが、自分にとって良い勉強になりました。
    • もっと聞きたかった。面白かった: (1) (3)。最新の研究なので、これから公開されるみたい。
    • 本が出版されたが、以外と知らなかった (2)
    • 自分には詳しいところ (6)
    • 現在の研究と関連そうなところ: (3) (4)
    • みるだけでも大変さがわかる。だが、もっと技術的な話を喋って欲しかった。 (5)
ここから、自分が記録したメモとなります。間違ったり、誤解したりする部分があるかもしれないので、講演者の発表資料と同様に判断しないでください。さらに、自分が勝手に追加した情報などはたくさんあります。あくまではこのレポートを参考とする形だけで嬉しいです。

(1)講演1 マルチメディア理解 (Multimedia Understanding)

原田達也先生,東京大学

膨大なデータを活用したマルチメディアデータの認識・理解手法に関して講演する.具体的には,画像識別や画像からの文章生成技術の発展や最新の成果を紹介する.

略歴:

2001年東京大学大学院工学系研究科機械工学博士課程修了.2013年東京大学大学院情報理工学系研究科教授.現在に至る.実世界知能システム,画像認識,コンテンツ自動生成などの研究に従事.
メモ:
  • 20分遅れたので、前半を聞くことができませんでした。
  • Deep Learningの制度を上げるための手法
    • Network in Network (Lin 2013)
    • Spatial Pyramid Pooling Layer (MS)
      • http://research.microsoft.com/en-us/news/features/spp-102914.aspx
      • http://www.image-net.org/challenges/LSVRC/2014/slides/sppnet_ilsvrc2014.pdf
      • A CNN has 2 parts: convolution layers operate in a sliding-window manner and output feature maps which represent the spatial arrangement of the activations. The convolutional layers do not require a fixed image size and can generate feature maps of any sizes but the fully-connected layers need to have fixed-size/length input.
      • When apply for images with arbitrary size, CNNs require scale to the fixed size, either cropping or warping. Due to object’s scale varies or content loss or distortion, recognition accuracy will be affected.
      • An SPP (spatial pyramid pooling) layer is added on top of the last convolution layer to remove the fixed size constraint of fully-connected layers.
      • SPP pools the features from conv feature maps together like Bag-of-Words but it can maintain spatial information by pooling in local spatial bins. These spatial bins have sizes proportional to the image size, so the number of bins is fixed regardless of the image size.
      • SPP
      • The only real-time CNN detection system among the 38 teams participating in the ImageNet Large Scale Visual Recognition Challenge 2014
    • GoogLe Net
      • Network in a network in a network….with 9 inception modules
      • GoogLeNet inception
  • 大規模な認識システムの難しいところ (Difficulties in Large-Scale Recoginition System):
    • Compute resource
    • Structure (ネットワーク構造をどう構築するか)
    • Optimization(parameter tuning、速いアルゴリズムの開発など)
    • Dataset (大規模なデータセットを用意するのは大変)
  • 原田先生の研究室は特に、compute resourceには力を入れているようです
    • Idea: たくさんマシンで仕事を分担する
    • 最近、成果として登場したのは「Fast Distributed Machine Learning Framework using JavaScript」(論文はまだ未公開)
      • ブラウザだけを立ち上がれば、分散計算が始まり、すべてのマシン(smart devicesを含めて)は計算ネットワークの一部になれます(センサーと同じ意味)。分散計算は簡単になる。
      • Javascriptはやはりsingle threadしかできないので、裏にはWebCL, OpenCLの力を借りて、multi threadを実装する(???)。
      • Frameworkとして、各libraryまで自作
        • Machine Learning Library (Tempura)
        • Visualization Library (Soba)
        • Matrix Calculation Library (Sushi)
        • Distributed Library (Sashimi)
        • Neural network framework Library (Sukiyaki) ここで、Deep Learningなどを使う
      • http://mil-tokyo.github.io/miljs.html
      • デモ sukiyaki browserは
      • 行列計算やDeep Learning (mnistデータセット)ベンチマークで比較
  • Image Caption Generation with Deep Learning
  • 2012, Learning relationship between Images and Sentences
  • Framework of the current recognition system
    • インターネットのデータをHuman Filterでやるのはインターネットの未来
  • Questions
    • Q1: ネットでのデータは様々なcontextで生成されて、contextからも情報を推定するのが必要となります。その話の研究?
      • A1: 画像だけのデータを認識する形となって、まったくcontextの情報を入れていません。しかし、context情報を入力できる構造自体はあれば、その話は不可能ではない。
    • Q2: …

(2)講演2 密度比推定による機械学習 (Machine Learning by Density Ratio Estimation)

杉山将,東京大学

本講演では,確率密度関数の比の推定に基づく汎用的な機械学習の枠組みを紹介するとともに,非定常環境適応学習,変化検知,特徴抽出,パターン認識などへの応用例を示す.

略歴:

2001年東京工業大学博士課程修了.同年同大学助手,2003年同大学准教授,2014年東京大学教授,現在に至る.
  • http://www.amazon.co.jp/Density-Ratio-Estimation-Machine-Learning/dp/0521190177
  • http://www.ai-gakkai.or.jp/my-bookmark_vol27-no4/
  • http://winnie.kuis.kyoto-u.ac.jp/sig-challenge/SIG-Challenge-B402/B402-01.pdf
  • 機会学習の一般分野
    • 危機感:データに対して、タスクの種類が増え、解決するために何十年も必要なる。
    • Big data時代はすべて利用できる汎用的な方法が望ましい
  • もっとも汎用的なアプローチ
    • データの生成規則(分布)を確定すれば、あらゆるタスクが解決できる
    • 生成的アプローチと呼ばれる。
    • 弱点:
      • 確率分布の推定は困難、(限られるデータから正確なモデルを推定するのは難しい)
      • 確率分布の推定を行わず、各タスクを直接解く
      • Ex. SVMはデータの生成分布を推定せず
      • パターン認識は識別アプローチ
  • 結論:各タスクにおいて、生成的アプローチより性能がよいアルゴリズムがある
  • しかし、様々なタスクに個別に研究開発をするのは大変
    • アルゴリズム考案
    • 理論的性能評価
    • 高速かつメモリ効率の良い実装
    • エンジニアの技術習得
  • 本講演で紹介するアプローチ:
    • 中間的なアプローチ、あるクラスのタスク群に対して、研究開発を行う
    • 生成的アプローチ < 中間アプローチ(抽象的) < タスク特化アプローチ
    • 確率密度比に基づく機会学習
      • 複数の確率分布を含む p(x), q(x)
      • しかし、個別の分布を推定するのは必要あい
      • 確率密度関数の比(r(x) = p(x) / q(x))が分かれば十分である
      • 各密度関数をもとめるよりも、密度比を求めるほうが易しい
      • 有限なデータから無限のデータを推定、かならず誤差がある
      • 直感:ぎりぎり頂点までいったほうが、誤差がすくない
      • バブニックの原理
        • ある問題を解くとき、それより一般的な問題を途中階段で解くべきでない(Vapnik (1998))
        • When solving a problem of interest, do not solve a more general problem as an intermediate step
  • 確率密度比法
  • 応用
    • 重点サンプリング
      • 共変量(入力変数の別名)シフト適応
      • 訓練時とテスト時で入力分布が変化するが、入出力関数は変わらない
        • 重要サンプリング
      • 重要度重み付き最小二乗学習
        • 重点最小二乗
      • 実世界応用;
        • 顔画像から年齢予測(Ueki, Sugiyama & Ihara, IEICE-ED2011)
        • 話者認識(Yamada, Sugiyama & Matsui, SigPro2010)
        • テキスト分割(Tsuboi, Kashima, Hido, Bickel & Sugiyama, JIP2008)
        • Brain Computer Interface、心理状態の変化
      • 確率問題
        • 正常値に基づく異常値検出
        • 正常データと傾向が異なるテストデータを異常値とみなす
        • p_regular(x) / p_test(x)で判断する
        • Hyper parameterを交差確認で客観的に設定できる
        • 実世界応用例
          • 製鉄プロセスの異常診断(Hirata, Kawahara & Sugiyama, Patent 2010)
          • 光学部品の品質検査(Takimoto, Matsugu & Sugiyama, DMSS 2009)
          • ローン顧客の検査(Hido, Tsuboi, Kashima, Sugiyama & Kanamori, KAIS2011)
      • 二標本検定
        • 二つのデータセットの小配合の確率分布が同じかどうか、密度比を用いて分布間の距離を推定する
        • カルバック・ライブラー距離
        • ピアソン距離
        • 実応用例
          • 画像中の注目領域抽出 Yamanaka, Matsugu, Sugiyama (IPSJ-TOM2013)
          • Twitter data解析 Liu, Yamada, Sugiyama (NN2013)
      • 相互情報量推定
        • 相互情報を密度比を用いて計算する
        • motion captureデータ解析
        • 医療画像の位置合わせ
        • 移動ロボットの自己位置推定
      • 条件付き確率密度の推定
        • Sugimoto, tangkaratt, Wensveen, Zhao
        • Sugiyama, Takeuchi, Suzuk
      • 確率的パターン認識
  • まとめ
    • データ量の複雑さが増えて、タスクの種類も増える
    • 程よく、抽象的なアルゴリズムを作る
    • 密度比、密度差、距離、情報量、密度微分
    • Sasaki, Hyvarine, Sugiyama (ECML, 2014)
    • Sasaki, Noh, Sugiyama, (AISTATS2015)

(3)招待講演1: Deep Networks with Applications to Computer Vision and Robotics

Anelia Angelova, Google

Deep learning has made rapid progress in areas, such as speech, language understanding and computer vision. This talk will review recent progress in computer vision and robotics that has been possible thanks to developments of deep learning techniques. I will then present a novel application of deep networks to object grasp detection that can simultaneously detect a good grasp for a robotic hand manipulator and recognize the object category. Our method achieves real-time, 13 frames-per-second, processing per image on GPU with only 1/128th of the network capacity. I will further describe an application to pedestrian detection which proposes a “large field of view” deep network which detects pedestrians in multiple locations. This increases the speeds of pedestrian detection 80-100 times.

Bio:
Anelia Angelova is a Senior Research Scientist at Google, working in computer vision and robotics. Previously she was a Research Scientist at NEC Laboratories America and a Software Engineer at Google and ADA 3D, working in various areas of computer vision and machine learning: object recognition and detection, fine-grained recognition, and learning for autonomous navigation. Anelia has a PhD and MS degrees from California Institute of Technology and a MS degree from Sofia University, Bulgaria.

  • Deep Networks introduction
    • Deep Convolution Neural Networks: わかりやすい
      • Not applying same filter
      • Apply different planes (filter) to extract features
    • Deep Nets in CV (Krizhevsky)
    • Follow-up
      • Name, Team, Year, Accuracy, (Number of Deep Net approaches)/Total
      • Supervision, Kizhevsky, 2012, 16.4%, 1/6
      • Clarifai, Zeiler & Fergus, 2013, 11.7, 17/24
      • Google Net, Szegedy, 2014, 6.66, 31/32
      • Recent results:
        • Google 4.82, win human estimate error
      • Large-scale Imagenet data
    • Advances in Detection, Segmentation
      • 20+ layer nets win localization and detection competitions
    • Human Level Face Recognition
      • Labeled Faces in the Wild
      • LFW benchmark
      • Newest result, no publication yet….99%
    • Robotics / Autonomous driving applications
      • Stereo depth estimation
        • Memisevic Conrad
    • Breakthroughs in other domains
      • Speech
    • What makes deep networks successful
      • More complex models
      • Large amounts of data & resources
      • Large scale learning for deep networks
      • Dean et al’12: DistBelief Distributed DNN learning
        • Data parallelism
      • Other recent systems
        • Baidu
        • MS: Adam
        • NUS: Purine
        • Yahoo
    • Why use deep networks:
      • Still exploring, but so far DNNs
        • Improve significantly the sate of the art
        • Shown to have capabilities that…
  • DNN for Grasp Detection
    • Why grasping
      • Manipulation, Cooking
      • Challenges:
        • Detection is still slow, 1o+ seconds/image
        • Need real-time
    • Grasp detection setup
      • Ground truth grasps
        • Grasping rectangle to align robot gripper
        • Multiple viable grasps
    • Grasp detection target objects
      • Cornell Grasping Dataset
      • Different grasping strategies
    • Grasp detection input
      • RGB + Depth data
      • Predicting grasping coordinates
    • Current state of the art
      • Cascade of 2 DNNs
      • Sample candidate rectangles
        • Runtime: 13s/ img (grasp well but slow)
    • Approach
      • Deep NNet over the full image
      • Input
    • Training
      • Multiple crops
      • Transformations
        • Rotations, Translation, Scaling
      • Selects grasp at random
    • Results
      • Poor:
        • Averaging effects
      • Solutions
        • MultiGrasp (detect multiple grasps)
          • Define a grid
          • Each cell predicts a cand. grasp
          • Select highest confidence cells
          • Key is a switching layer: propagates gradients on max response
          • Propose multi grasp at same time frame
      • Failure cases for both Regression and MultiGrasp
        • Missing ground truth
    • Grasp detection results
      • Best previous result Lenz at: 2 state DNN sliding window for 73.9%
      • Our approaches:
        • Improvements about 10% (with DNN Regression), 14.1% with DNN MultiGrasp
        • 76ms, Real-time 13FPS/GPU, 1/13 second, 170X faster
        • Single net per image can do additional operations
    • Summary
      • 88% grasp detection success (high)
      • Simultaneous classification (90%)
      • Runtime: 13FPS for 1/128 compute
      • Handles multi grasp
  • Large Field of View Deep Network for Pedestrian
    • Pedestrian detection: sliding window
      • Dense sampling, 100K patches, slow
      • Deep nets?
    • Proposal
      • Take a bigger area, outputs more information
      • For ex. pedestrian 4 x 4
    • Design network:
      • LFOV Deep Network with 3 layers, small depths, input is resized to 64×64
      • Fast 3ms per 128 patches
    • Detection
      • Still dense sampling, every 4 pixels
      • Speed up: 1/16 sliding
    • Data generation for LFOV training
      • Pedestrian are placed at random 4×4 position
    • Full system
      • 3 stages classifier
        • Stage 1: FLOV Generate proposal ~100m per img
        • Stage 2: Individual 16 x 16 , 3 layers
        • Stage 3: 7 layer DNN, slow 50ms
    • Results and Timing
      • 220-280ms
      • Generation system is ~100ms
      • Bettern 3-5x faster than DNN approaches
      • Pedestrian detection works 63-108x faster
    • Summary
      • Do multi object detections
      • 60x speedup in pedestrian detection
      • High accuracy and speed up
    • Questions
      • For both grasp and pedestrian detect
        • Q: Conflict with priority & specific (..先生)
          • A: Make to apply for more general objects ()
        • Q: Could others can produce same precision with this (杉山先生)
          • A: opensourceするつもり
        • Q: …原田先生の質問はちょっと聞き取れなかった(声が少し小さい)
        • Q: Two robotics hands can do grasp?
          • A: Challenge
        • Q: How nearest reseach design for network or just fine tuning
          • A: Try to understand for genetical model, how many layers, …
          • A: Most engineers learning for each other
  • Break coffe
    • Faculty Research Award and PhD Fellowship
      • Faculty Research Award and PhD Fellowship
        • Research collaboration with universities
        • April 15, October 15 with funding as unrestricted gift
        • CS focused, direct connection via Google sponsor
        • 2014 Round 1: global results
          • 772 proposal, 110 projects funded, 15% acceptance rate
    • Focused Research Awards
      • Support research with significant papers
      • Strong collaborations
    • Student support: PhD Fellowships
      • Recognize outstanding graduate students doing exceptional work in CS
      • Google Research Mentor

(4)招待講演2: How Do Machine Translate?

賀沢秀人,グーグル株式会社

機械翻訳は人間が規則を書く時代からデータにもとづいたモデルを学習する時代に移行し長足の進歩を遂げている.本講演では機械翻訳技術の現状について問題点も含めて概説する.

略歴:
東京大学で物理学で修士を取得後、NTTで機械学習・自然言語処理研究に従事。Google に入社後は検索・機械翻訳技術の研究開発をおこなう。博士(工学)

  • 賀沢秀人さんはSenior Engineering Manager
  • GoogleではResearcherとEngineerの区別がない
  • 翻訳に関して、言語とジャングルによって精度が違う
    • うまくいっているときは、すごくうまく
  • 機械翻訳はまずい、よくない、すごい、できないというものはない
    • 全体的に見て判断じゃなくて、細かいものをみる
  • Translation = Code breaking
    • 人間の翻訳という意味はちょっと違う
    • sequential から別のsequentialに変えるものに過ぎない
    • Foreign Language as an Encryption
      • Choctaw soldiers in…
    • Continue with billions of documents
      • 対応しているものは翻訳になっている
      • Word alignment <> word dictionary
    • EM algorithm
      • initial step all connections equally likely、重みが徐々に増やす
      • model learns that ..
      • word alignments ができれば、dictionaryがでてくると逆
      • people.csail.mit.edu/koehn/publications/tutorial2003.pdf
  • Scale up問題
    • 計算量限界
    • 並列しやすい(EM algorithm) としにくいアルゴリズムがある
  • Translation = Code breaking + (Dictionary + Puzzle)
    • (Dictionary + Puzzle)
    • 個別wordじゃなくて、どのように並べて、文全体の意味、grammarが通じる
      • Puzzle: criteria of success
      • N-gram Language Model
      • 部分部分の並び(phrases)が出ている頻度(bigdataから)→ 良い並びがわかる
        • 簡単に並列できる
        • しかし、機械が意味を理解できない
        • 対策:Word reordering
          • ドイツの単語は英語みたいに並べる、同じ順序からreorderがいらない
          • しかし、順序が違う言語同士、reorderが必要
  • Beyond code breaking
    • Machine Translation Pyramid
    • pyramid
  • NPLはなんでも持って行って、使う
    • Deep learning
      • Fast and Robust Neural Network Joint Models for Statistical Machine Translation
        • 前置き(zoro):Deep  Learningではない。隠れ層は3層だけであり、deepの単語も出てない。隠れ層は2層にしてもスコアは0.2下がるだけ
        • http://www.slideshare.net/HiroyukiTOKUNAGA/acl2014-36939387
        • ニューラルネットを使って、翻訳のBLEUスコアを改善した
        • シンプルなアイデアの組み合わせで良い結果を出した
        • 言語モデル
          • Bengio et al. (2003)のNNLMの拡張
          • 入力は14単語
          • 各単語を192次元のword vectorに変換
          • 512次元の隠れ層を2つ通す
          • 最終層はsoftmax
          • FastAndRobust
        • NNJM: Neural Network Joint Model
          • 言語モデルに翻訳元文の情報を入れ、BLEUが3ptぐらい上がる
        • self-normalization
          • softmaxで正規化の計算が重い
          • 対策:合計が1になるように学習し、デコード時に合計の計算を省略
          • 効果:10倍ぐらい速くなる
        • pre-computing
          • NNの1段目は、入力コンテキストの単語毎に192回の積和が512回実行される。計算回数:192 x 512 x 14(入力単語) = 137万回
          • 単語毎に192次元のベクトル(分散表現)の値は分かっているので、次の層への影響は事前に計算できる。語彙数 x 512 x 14で、500MB以下で保存可能
        • OpenMT12の1位を数トップ上回るBLEU値を達成
      • Sequence to Sequence Learning with Neural Networks, NIPS 2014
        • http://www.slideshare.net/beam2d/pfi-seminar-20141030rnn
        • RNN(Recurrent Neural Networks)のみで機械翻訳を行う
        • 英語の単語列を入力として、フランス語の単語列を出力する
        • 英語の文章ABCを入れて、EOS(文末)に到達したらフランス語の文章WXYZを出力する
        • 英語を読むときとフランス語を出力するときで異なるパラメーターを使う
        • 英語(入力)は前後を反転させて読ませる
          • 英語とフランス語は語順が近いため、対応する単語ペアで近い位置にあるものが多いほうが学習の初期時に有効
          • 出力の最初の方を予測するのに入力の最初の方が強く効くような問題で有効
  • 「Let it go」を翻訳すると「ありのまま」になるのは、機械判定ではゼロ。しかし、人間判定では素晴らしい翻訳
  • Question
    • 杉山先生: 意味を通ることが大事がです、美しい文書を作るという最近の研究?
      • A: 例:字幕、形式、音と関連の制約がある。ニーズがあれば、分野が活発になる。
    • 原田先生: Robotは画像を。。。association
      • A: 人間のfeedbackが必要
    • …先生:ロボットの話になると、ただ暗号breakじゃない。何をやらなければならない
      • A: taskを絞るときに、人間は適用すごい。Robotは人間のadaptionがすごく大事。データはひょっとしたら重要ではなく、feedback, adaptionが必要
      • 比較的に登っていたときに、徐々に合うようになり、徐々に学習するというのは人間のやりかた。

(5)講演3: Robotics technologies for gathering information in the real world

大野和則,東北大学

本講演では,レスキューロボットや,インフラ点検ロボットを中心に,ロボットや動物を利用して実世界を能動的に探査し,情報を収集・記録する技術の研究開発について紹介する.

略歴:

2004年 筑波大学大学院工学研究科博士課程修了,博士(工学).神戸大学・COE研究員,東北大学・助教を経て,現在,東北大学未来科学技術共同研究センター・准教授.
注: 動画が多いため、メモの量が少なくなる
  • ロボット技術を利用した実世界の電子化されていない情報の取集
  • 実世界の検索エンジン
    • 情報収集
    • センサーデータの理解
    • 。。。
  • クローラロボット
  • 飛行口ロボット
  • レスキューロボット
  • 次世代移動体
  • Quince
    • 高い不整地路能力
    • 最初は、福島の放射線を図る
    • しかし、使い機会が少ない、使えるものにするべき
    • 対策:
      • 被災、老朽した構造物を点検
      • 橋の点検
    • 開発中:
      • 球殻ヘリ(フレームは自由回転)
      • 中継ヘリ
      • 駄音装置
      • 犬にロボットをつけて、情報収集を行う
  • 次世代移動体システム
  • まとめ
    • ロボット技術を利用した実世界の情報を集める
      • Rescue Robot (Quince)
      • Infla 点検robot
      • Rescue robog (robot + dog)
      • 次世代移動体
        • 無人移動車
  • Questions
    •  Q: 足りない情報をうまくとれたんですか
    • Q: 被災場所だと、壊れやすいと思うが、安くて手に入れやすいもの
      • A: その前に、maintanceしやすい、壊れにくいものを意識して作る
    • Q: 杉山先生: こういう研究はあまり民間企業に入っていないんですか
      • A: スライドを削除しましたが、見てだけで価値が少ないが、集めた情報をアクセスしやすい形などの方向に行くと、発展できる
      •  A: 実は、点検ロボットは民間企業が入っています
    • 原田先生:普段使って、非常ときに使えるという形ならいいですね
    • …先生:東電さんが使えるものがほしい。使いにくいものは?
      • 一番重要なのは、使いやすいという要求は、普段使っているものをそのまま使ってください(もっと小さいtransitorを乗せたらいいが、要求が違う)というようなものです。一番良いものではなく、企業さんによって使いやすいものとなります。

(6)講演4: Sensing human behavior and its statistical data analytics

下坂正倫,東京大学

スマートフォン,ウェアラブルセンサを含むIOTデバイスの登場により,人の行動の センシングが容易になってきた.本講演では,人の動きに関するセンシングの技術動向と,統計的な行動モデリングに関する研究事例を紹介する.

略歴:

2006年 東京大学博士課程修了,同年東京大学助手,2007年 同大助教,2011年 同大 講師,現在に至る.
  • Mobile sensing
    • Sensors : ambient light, proximity, dual cameras, GPS, accelerometer, dual microphones, compass, gyroscope
    • スマホ登場以前の行動センシング
      • Custom hardware
        • 電子回路設計
        • 組み込みソフト開発
        • データ解析:sensing, feature extraction, classification
    • 規模による分類
      • Individual (1)
        • 個人の行動データをタグつけ
          • 滞在場所、睡眠、動作、運動、姿勢を認識
          • 日常行動とメンタルストレスや学校の成績の関連性
        • データ解析面でトレンド:コンテストの開催
          • Nokia Mobile Data Challenge@Pervasive
            • Open challenge: 問題設定、自体の面白さを競う
            • Dedicated Task: 指定されたタスクの制度を競う
              • Task 1: Semantic place recognition
              • Taks 2: Next place recognition
              • Task 3: Demographic prediction
            • 現状:試行錯誤的なフェーズ
              • feature design
              • task design
          • Ubicomp2014
      • Group (10 ~ 10^3)
        • 組織の構造解析
        • アプリケーション
          • 組織構造の改善、keep layerの推定
            • Relationship by questionaire
            • Relationship by proximity sensing
            • Inferring friendship network structure by using mobile phone data
            • 人の特性(悲劇、楽観か)
      • Crowd (10^4 ~)
        • 都市の様々な側面
        • Crowというよりurban computing
        • Application
          • 被災後の生活パターの変化の解析、都市の地域特性の解析
          • 交通混雑和、地域死別の需要予測
        • NYC311に基づく「騒音」のマッピング
          • データソース:open data
          • 市民の苦情:うるさいかどうか電話をする、スパースデータ
          • スパースデータから(tensor factorization)NYの任意の位置の騒音情報を推定する UbiComp2014 Diagnosing NY city noise with ubiquitous data
  • 研究室の取り組み
    • Group
      • 活動量データを用いた人間関係抽出
      • Wearable活動量計ゴルデータから人と人の関係を分析
        • 個人間の動向を把握
      • Idea
        • 同時刻に歩いている人はたくさん
        • 同行は中が良し
        • 1分ごとの歩数データを数える、時間ごとsliding する、同行検知、活動量パターンの類似性からグループを推定、一緒に活動している
    • Crowd
      • 位置情報ログを用いた都市コンピューティングの流れ
      • ある特定場所で人数を推定
      • 分布を見て、土地を利用するパターンを推定、Midtown, Todaimae, 市場、新宿駅のdensity情報がわかる。Clusteringのみ
    • Question:
      •  Q:(原田先生)デバイースからいろんな情報を集めるのはわかったが、Big Challengeはなんかありますか。これを解くとすごいぞというもの
        •  A: まず、データを集めて、解析手法を出さないと意味がないが、そもそもデータは大きなデータがない、どうやってとるか、designがまだできないところ。
      •  Q:(原田先生)もしそれをclearできたら、その次は
        • A: それはidea次第、まず第一段階で納得してくれないなら、ideaになりません。
      •  Q: 数年前から、smart phoneが登場して、。。。わかると思いますが、最近の流行りtechnology, researchは。。。
        • 私は数年sensingの…あまりやらなくて
        • batteryの制限はどうclearするかなど
      • Q: 人間行動を抽出して、情報量が減ることになります。センサーの数を増やすか、情報量を扱う方法を考えるか
        • バランスをとります
      • Q: Privacyに関して、「データを取っても、すべてわからないよ」というような研究行動、方向の研究生
      •  zoroの意見:今までのアプリケーションは蓄積型なので、もっとreal time、online性が求められるだろう。

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out / Change )

Twitter picture

You are commenting using your Twitter account. Log Out / Change )

Facebook photo

You are commenting using your Facebook account. Log Out / Change )

Google+ photo

You are commenting using your Google+ account. Log Out / Change )

Connecting to %s