SHOEISHA iD

※旧SEメンバーシップ会員の方は、同じ登録情報(メールアドレス&パスワード)でログインいただけます

MarkeZine Day(マーケジンデイ)は、マーケティング専門メディア「MarkeZine」が主催するイベントです。 「マーケティングの今を網羅する」をコンセプトに、拡張・複雑化している広告・マーケティング領域の最新情報を効率的にキャッチできる場所として企画・運営しています。

直近開催のイベントはこちら!

MarkeZine Day 2025 Retail

マーケターのためのAI基礎講座

Googleが火をつけた自動運転競争、自動運転とビッグデータ×AIの深い関係とは?

そもそも自動運転車とは? 4段階のレベル

 以降、自動運転の仕組みについて述べるが、その前に自動運転のレベル(どこまで自動化された状態か)について整理し、読者の認識を統一したい。

 自動運転には、4段階のレベル分けが定義されている。以下は内閣府の資料から転載したものだ。

 「自動運転」と言った場合の一般的なイメージはおそらくレベル3~レベル4だろうが、それより低いレベルの自動化としてレベル1~レベル2が存在することが確認できる。

4段階のレベル分け(クリックで拡大)
4段階のレベル分け(クリックで拡大)

 レベル1はある意味、かなり以前から実現されている。例えば自動ブレーキ制御などが挙げられるが、国土交通省によれば「先進安全自動車(ASV)」※2の研究は1991年からプロジェクト化されていて、衝突被害軽減ブレーキ、レーンキープアシストなどが実用化されている。

 ※2 ASVについては国土交通省「先進安全自動車(ASV)とは?」参照のこと

 また、レベル2を市場に投入している自動車メーカーもすでにある。日産が2016年8月に発売したセレナの「プロ・パイロット」では高速道路単一車線での自動走行を実現しており、先行車両との車間距離を一定に保って走行する。また、同じく2016年に発売されたメルセデス・ベンツのEクラスは高速での車線変更までサポート、ウインカーを操作するだけで車線変更を行う。Teslaの事例も有名で、ご存知の方も多いだろう。

 これに対して、Googleはレベル4を最初から目指している。だからこそ大きなニュースとして取り上げられたし、レベル1から順を追って研究開発および実用化を続けてきたメーカー各社も敏感に反応して、レベル3や4に向けた研究開発を急速に進めざるを得なくなったのかもしれない。

 各社の取り組みは現在、急速に進展しており、ここに記述している情報もすぐに陳腐化するだろう。各社の最新の動向を、継続的にキャッチアップしたいところだ。

自動運転の仕組みと深層学習(ディープ・ラーニング)

 自動運転の仕組みについて、概要を説明していこう。まずは下の図を見てほしい。

自動運転の概念図(クリックで拡大)
自動運転の概念図(クリックで拡大)

 自動運転車に搭載されているカメラやGPS等のセンサーと、地図データとを照合することで「自分がいまどこを走っているのか」を推定する。また、カメラとセンサーのデータから「前方に歩行者がいる」「後ろを走っている車との距離は……」「あの自転車はどっちに動きそうか」など、オブジェクトの認識・距離特定・挙動の予測などを行う。もちろん、建物や標識、信号などの認識も必要で、処理する情報量は膨大だ※3。

 ※3 例えばNHKスペシャル「自動運転革命」で紹介された日産のテスト走行車では、カメラ12台、レーザー4台、レーダー5台を装備していると言及。上記を実現するために必要な情報量がどれほど膨大であるか分かる

 これらを総合して、「次にどう動くか・どう操作するか」を判断する。スピードの加減速や走行レーンの決定などだ。この判断をもとに具体的な操作、すなわちブレーキをかける、アクセルを弱めるなどの操作が行われる。そして、操作の結果と周囲の環境の変化によってまた新たな情報がカメラやセンサーから入力されていく。

 このような一連の処理を高速かつ連続的に行うことで、自動運転が実現されている。

 市場に投入するにあたっては、「誤動作がない」だけではなく、当然「乗り心地」のような体感も含めて完全に最適化されている必要があり、きわめて難易度の高い高度で複雑な処理であると思う。

 さて、なぜGoogleが自動運転を実現できるのか、強みとなる点を再確認したい。

 1ページ目でビッグデータ収集・処理と解析技術について触れたが、上記の一連の仕組みを理解すると、ビッグデータと解析技術を武器にしてレベル4の領域に一気に到達しようというGoogleの戦略、実現可能性の見立てが納得いくものとして再認識できるのではないだろうか。

 ビッグデータという観点では、Googleの自動運転車のテスト走行距離は200万マイル=320万kmを超えたという(2016年10月現在)。地球80周の距離に相当する。すでにそれだけの量のカメラやセンサーデータ、地図データの収集を行い、集めたビッグデータを処理して上述したような認識・予測・判定を研究開発しているのだ。

 解析技術の面でも、上記で特にカメラのデータは深層学習(ディープ・ラーニング)が核として機能することが容易に想像できる。カメラデータ=すなわち動画だ。当連載の第3回で紹介したように、画像・動画の認識において深層学習は圧倒的に高精度なパフォーマンスを発揮している。

 筆者の想像だが、深層学習(それによる画像・動画認識)が登場したことによって、自動運転におけるカメラの重要性がレーダーなどの他センサーと比較して格段に高まったのではないだろうか。逆説的に言えば、深層学習の登場によって、レベル3~レベル4の自動運転が急速に現実味を帯びてきた、と言ってもいいかもしれない。

 また別の観点でも自動運転の仕組みを確認してみよう。

 先に紹介した内閣府の資料中に、分かりやすい記述があるので引用する。

 自動車の走行機能は、認知、判断、操作の3要素で構成される。車両に設置したレーダー等を通じて走路環境を認識する技術(自律型システム)と、車両同士または車両と車両外部の通信を利用して走路環境を認識する技術(協調型システム)がある。自動走行システムの実現には、この両者が統合され、前述の3要素が高度化される事が必要である。交通事故死者を低減するためには、自律型システムのみでは前述の課題解決は難しく、協調型システムにて補完していく必要がある。

 内閣府「戦略的イノベーション創造プログラム(SIP)自動走行システム」より

 すなわち、この「協調型システム」(車両同士または車両外部との通信)の部分はインフラであって、政府として積極的に関与・整備していくべき領域であるとの考えと思われる。この枠組みで言えば、先に説明した仕組みは下図「競争領域」を説明した内容と捉えていただければいいだろう。

政府の動向:自律型と協調型、協調型の部分のインフラ整備(クリックで拡大)
政府の動向:自律型と協調型、協調型の部分のインフラ整備(クリックで拡大)

 同資料の中で、日本政府は2020年、すなわちオリンピックイヤーにレベル3が実現・投入されている状態を目指すと記している。そのために必要なインフラの整備を急速に進めるだろう。自動運転において日本勢はやや出遅れていると言われているが、このような動きも相まって今後追い上げていくことができるのか、注目が集まるところだろう。

 次に、それが現実となったとき何が起こるのか、考えてみたい。

次のページ
自動運転が変える車内外空間の未来

この記事は参考になりましたか?

  • Facebook
  • X
  • Pocket
  • note
関連リンク
マーケターのためのAI基礎講座連載記事一覧

もっと読む

この記事の著者

デジタル・アドバタイジング・コンソーシアム株式会社(DAC)(デジタル アドバタイジング コンソーシアム)

DACは、インターネットに特化したデジタル広告ビジネスを展開しています。
広告枠のバイイングだけでなくクロスメディアプランニングや新たな広告商品開発、ソリューション提供など、インターネット広告に関するサービスを総合的に提供するデジタルエキスパートです。

※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です

この記事は参考になりましたか?

この記事をシェア

MarkeZine(マーケジン)
2016/12/26 12:00 https://markezine.jp/article/detail/25746

Special Contents

PR

Job Board

PR

おすすめ

イベント

新規会員登録無料のご案内

  • ・全ての過去記事が閲覧できます
  • ・会員限定メルマガを受信できます

メールバックナンバー

アクセスランキング

アクセスランキング