無人の自動運転車と事故が起きたら、誰と話すの・・・

先日のエントリーで、2020年からの10年間は、人間が運転する車と、自動運転車が共存する社会になりますという話をしたところ、読者の方からこんな質問をいただきました。

日本政府が2020年までに自動運転車のタクシーを走らせた場合、路上で事故が起きる可能性はありますよね?自分で運転している車が、無人の自動運転車と事故を起こしたら、誰と事故の交渉をするのでしょうか?

今日のエントリーは無人の自動運転車と事故を起こした場合どうなるのか考えてみます。

人間が運転する車と、自動運転車が共存する社会
グーグルカーは2017〜2020年の実用化を目指しており、自動運転が実現する社会が手の届くところまでやって来ました。 日本は自動運転で...

「無人の自動運転車」はいつから?

今の時点では、完全自動運転の自動車は走っておりません。

自動運転のレベルは4段階に分かれていて、現時点で走行している自動運転車は、日産の自動ブレーキなどの「レベル1」、テスラのオートパイロットの「レベル2」まで。

テスラ オートパイロット

「レベル3」の実用化が2020年まで、「レベル4」の完全な自動運転の実用化は2020年〜2030年頃になると言われています。

「レベル1」

「レベル1」は、加速・操舵・制動の運転の3要素のどれかを自動運転システムが制御するだけなので、自動運転といっていいものなのかは謎ですけど。

ちなみに、ACC(前車追従式のクルーズコントロール)も該当しますが、国内でも数件事故があったようです。

自動運転機能、国内で事故2件

「レベル2」

「レベル2」でようやく加速・操舵・制動の運転の3要素のうち、複数の操作を自動運転システムが制御しますが、ドライバーは常時ハンドルを握って運転状況を監視しなければなりません。

先日、テスラの自動運転車で死亡事故がありました。

テスラの自動運転車で初の死亡事故。何が問題だった?

↓死亡事故のあとの国土交通省は自動車メーカー寄りですね。

自動運転「責任は運転者」 国交省、テスラ事故受け指示

国土交通省は6日、米電気自動車(EV)メーカー、テスラモーターズ社の車で「自動運転モード」作動中に死亡事故が起きた問題を受け、日本自動車工業会などにユーザーへの注意喚起を徹底するよう指示した。

「レベル3」

「レベル3」で、加速・操舵・制動の運転の3要素の全てを自動運転システムが制御しますが、緊急時にはドライバーが対応することになっています。まだ運転手としての人間は乗車しなければなりません。

「レベル4」

「レベル4」になってはじめて緊急時も含めて、加速・操舵・制動の運転の3要素の全てを自動運転システムがおこなうことになります。このレベルでようやく無人の自動運転車ということになるのです。

「人間の運転」vs「無人の自動運転」の事故

2016年時点では、もし事故を起こしたとしても、自動運転車は「レベル2」までしか存在しないので、人間のドライバーが乗車しています。2020年に「レベル3」が実用化されたとしても同様です。

「レベル3」までは、ドライバーが乗車しているので、事故を起こした際、人間と話ができますよね。実際は、警察呼んで、保険会社に電話するということになるので、当事者間で交渉するってのはあまりありませんけどね。

問題は「レベル4」です。「レベル4」の自動運転車は人間が乗ってせんから、事故を起こしたら、どうなるんだろうね?

これは任意保険で対応するということになるはず。任意保険のチャットボットとかも登場すると思うし、サポートセンターで事故受付ということになるでしょう。

なので今後、自動運転車に加入する任意保険に、こういった事故の際のサポートも含まれるようになるはず。

AIと人間との応答性の違い

AIは、人間の100倍の応答性を持っていると言われています。

時速100キロで走行していると仮定しましょう。

人間は、「認知 → 判断 → 動作」までに1秒かかると言われており、ブレーキを踏むまでの1秒間に28m進みます。これを空走距離といいます。で、制動距離は56mなので、停止距離は84mということになります。

これに対して、AIの自動運転の場合は監視してから動作まで1/100秒以下なので、空走距離は僅か28cm。制動距離は56mと変わらないので、停止距離は56m28cmということになります。

空走距離分の28mの間に回避できる可能性が非常に高くなるのです。これらの精度が上がってくれば、事故が起こる可能性は少なくなるはず。

自動運転車のログデータの分析が重要

ドライバーの嘘は、ログデータに見破られます。

テスラ「モデルS」の自動運転機能による追突事故 悪いのはオーナー? それともクルマ?

テスラモーターズ、「『モデルX』が勝手に加速し事故を起こした」とのオーナーの主張を否定 なぜなら…

こういうケースでも、ログデータがあれば動かぬ証拠になるからね。

トヨタが1200億円の和解金を払った理由とは?

2009年から10年にかけて複数のトヨタ車に対して発生した「意図せぬ急加速問題」では、豊田章男社長自身が米議会の公聴会で証言した後に、アメリカの運輸省当局は基本的な自動車の電子制御に関する欠陥はなかったことを明らかにしています。
その一方で、この問題に関する民事訴訟では、トヨタ側は最終的に和解に応じており、その総額に関しては訴訟費用等を入れると30億ドル(3000億円)以上になると言われています。

更にこれに加えて、先週3月19日にトヨタは米司法省との「和解」に応じており、12億ドル(1200億円)の和解金を支払う代わりに「刑事訴追」を免れることとなりました。

自動運転車の事故の責任を誰が取るかが鍵となる

テスラのように常時接続でネットに繋がるようになれば、自動車のログは簡単に取れるようになります。

GPSが付いてるので、どこを走ってるかは一目瞭然だし、人間のドライバーがアクセルとブレーキをどのように踏んでるかも、ログを見れば分かります。

自動運転車はログが重要ということになります。

歩行者や自転車の飛び出しなどは、歩行者や自転車などの責任も発生するため、自動運転車のログがしっかり残ることで、「相手方の責任により責任が0」という事故も増えていくでしょう。

あとは、ログを解析した結果、事故の責任を誰が取るのかという綱引きがこれから行われていくことになりますね。

メーカーはPL法の適用にはしたくないし、自動車のユーザーは自分の責任にしたくないからね。

自動運転車の覇権を握るのはグーグルカー?
自動運転車の開発をリードしてるのは、GoogleやテスラなどのIT企業です。 中でもグーグルカーは圧倒的な強さを見せていますよね?覇権...
グーグルカーの実用化はいつ?
Googleの自動運転車プロジェクトは2010年の開始から6年が経ち、約190万キロメートルの走行距離を突破しました。グーグルカーは日常の運...

フォローする

Instagram

▼このエントリーが役に立ったらいいね!
▼このエントリーが役に立ったらいいね!