筑波大学附属駒場高等学校 公民科公開授業「AIと自動運転について法的に考える」

 2018年11月17日(土)、筑波大学附属駒場高等学校第2学年の公民科にて、「AIと自動運転について法的に考える」授業が実施されました。昨今多くの関心を集めているテーマについて、教諭の問いかけに対し生徒が積極的に意見を発信する様子が見られ、授業内容への生徒の関心の高さが伺えました。(本レポート作成にあたり、適宜教材資料より引用させていただきます。)

<単元の計画>

単元名:「AIと自動運転について法的に考える」(全7時間)
第1時 AIによる社会の変化と、それに伴う自動運転事故という社会的課題を把握する。
第2時 自動運転技術の専門家の講義を聴き、自動運転技術の概略と想定される事故を理解する。
第3時 自動運転事故の刑事責任を考察する。(本時)
第4時 自動運転事故の民事責任を考察する。
第5時 現在の法制度を踏まえて、どのように変えるべきか法の変更を構想する。
第6時 構想した法制度を、政策提案書としてまとめる。
第7時 法律専門家に政策提案書を提案し、コメントをもらって自分の考えを再考する。

<授業>

10:40~11:30 2年3組41名(男子)
科目:公民科(政治・経済) 場所:50周年記念会館
本時のテーマ:「自動運転事故の刑事責任を考察する。」
授業者:小貫篤教諭

(生徒には事前に授業プリントが配布されています。教室前方のスクリーンに、授業に沿ってスライドが映し出されていきます。)
授業プリントには、自動運転のレベルを説明した参考資料が記載されています。本時では、このうち、レベル2、3、4について検討していきます。

レベル 概要
運転者が一部又は全ての動的運転タスクを実行
レベル0
運転自動化なし
運転者が全ての動的運転タスクを実行
レベル1
運転支援
システムが縦方向又は横方向のいずれかの車両運転制御のサブタスクを限定領域において実行
レベル2
部分運転自動化
システムが縦方向及び横方向両方の車両運動制御のサブタスクを限定領域において実行
自動運転システムが(作動時は)全ての動的運転タスクを実行
レベル3
条件付運転自動化
・システムが全ての動的運転タスクを限定領域において実行
・作動継続が困難な場合は、システムの介入要求等に適切に応答
レベル4
高度運転自動化
システムが全ての動的運転タスク及び作動継続が困難な場合への応答を限定領域において実行
レベル5
完全運転自動化
システムが全ての動的運転タスク及び作動継続が困難な場合への応答を無制限に(すなわち、限定領域内ではない)実行

【導入:レベル2の刑事責任は?-「過失」-】(法的な考え方の習得1)

【事 例】(千葉日報2017年4月14日「自動ブレーキ作動せず事故」より)
 2016年11月27日午後4時50分ごろ、A自動車販売店営業社員男性(28)は車の試乗に来たトラック運転手男性(38)の助手席に同乗。店舗近くの市道で、運転支援機能が危険を検知して自動停止するとの認識のまま、運転手男性に、「本来はここでブレーキですが、踏むのを我慢してください」と指示。男性はブレーキを踏まず、信号待ちしていた乗用車に衝突。乗っていた30代の夫婦に全治2週間のけがを負わせた。
 交通捜査課によると、本来はカメラで危険を察知して自動ブレーキがかかるが、事故当時は夜間で雨が降っており、追突された車は黒色だった。車に故障や異常はなく、同課では「対向車の前照灯など道路環境や天候が重なり、自動ブレーキが作動しないまま追突した」と結論づけた。営業社員男性は「過去数回、試乗時に運転支援機能を設定していたところ提示した」と話している。

先生:「誰が刑事責任を負うべきと考える?」
(生徒は3人1組となり、1分程度その場で話し合う)
生徒:「営業社員に指示を出した販売店。」
「ブレーキをかける(かけない)最終的な意思決定をした運転者。」
「運転者に指示を出した営業社員。」
「誰も責任を負わない。」
「ブレーキが作動しない自動運転車を製造したメーカー。」
先生:「ちなみに、道路工事で片道通行にしているとき等に現場に立っている誘導員の指示に従って通行して事故が起きた場合はどうかというと、運転者が責任を追うことになります。誘導員の指示に従うかどうかは運転者自身が判断して運転すべきだからです。警察官の指示であれば別ですよ。」

 刑法211条(業務上過失致死傷等)と自動運転処罰法5条(過失運転致死傷)の条文を提示したのち、法的な考え方である「過失」を説明しました。
(1)予見可能性…交通事故の発生が予見可能かつ、
(2)回避可能性…交通事故の回避が可能だったにもかかわらず、
(3)予見義務違反…交通事故の発生を予見せず、
(4)回避義務違反…交通事故の回避のために必要な措置をとらなかった。

 「同社のマニュアルでは、夜間・降雨時の一般道での運転支援機能の使用を禁じていた」とする場合の、販売店・営業社員・運転手・製造者の過失の有無について、
「予見できたか⇒できたとしても回避しなかったか」の順で、それぞれ考えていきました。

 その後、参考までにこの事件に対し千葉県警は、販売店店長と営業社員を業務上過失傷害容疑で、運転手を自動運転処罰法違反(過失傷害)で書類送検したが、最終的には3人とも不起訴になったことを紹介しました。

【展開1:レベル3の刑事責任は?-「信頼の原則」-】(法的な考え方の習得2)

【事 例】
 レベル3の自動運転中、運転席に座っていたAが前方を注視していたところ、前方を横断中の歩行者の列を発見した。自動運転は、速度を緩める気配はなかったが、Aは「システムが速度を緩め、歩行者の列の手前で停止するだろう」と考え、運転者による運転に切り替えることなく、自動運転を継続した。ところが、システムは適切に機能せず、自動車は速度を緩めることなく歩行者の列に突っ込み、多数の死傷者を出した。

先生:「自動運転技術が発達してくると、発生する問題として想定される事例です。この場合、誰が刑事責任を負うべきと考えられる?」
生徒:「システムが作動するものとして売り出した製造者の方が悪いから、運転手と製造者の責任の割合は4:6くらいだと思います。」
「システムを信頼するかどうかの最終判断を下したのは運転手だから、6:4くらいだと思う」などの意見。
先生:「法的な考え方に、『信頼の原則』というものがあります。この考え方をあてはめてみると、どうでしょう。」

(信頼の原則)
 行為者が他の者の適切なふるまいを信頼できる場合には、その他者の不適切なふるまいによって法益侵害結果が生じたとしても、行為者には刑事責任は問われないとする原則。

 
先生:「レベル3の場合、自動運転中に携帯や本を見て過ごすなどの行為は容易に想定されます。平常時は問題なく自動運転がなされ、緊急時には車が警告音を出すものだと運転者は信じているから、運転者に過失を問うのは酷といえるかもしれませんね。製造者はどうかというと、ディープラーニングと深層強化学習によってなされるAIの判断はブラックボックスであるため、製造者も不備を予見することは難しいといえます。実際、2018年3月18日に米国で起きた、ウーバー・テクノロジーズの自動運転実験車による死亡事故では、刑事上の責任を問うのが難しかったですよね。」

 生徒からは、「そもそも適切に機能しなくなるようなシステムを製造者は造ってはいけない」「事例のような場合に対応できるシステムを造れないなら、レベル3に移行すべきでない」などの意見も出されました。

【展開2:レベル4の刑事責任は?-「緊急避難」と「許された危険」-】(法的な考え方の習得3)

【事 例】
 Xは自動車会社Yが製造・販売するレベル4の自動運転車を購入し、一般道で時速40kmで走行していた。本自動車は衝突回避のシステムとして、急制動を行うことで衝突を回避するか、間に合わないと判断した場合には、障害物がより小さい方へハンドルを切るように設計されていた。
 Xが一方通行の道を進行中に、前方からトラックが突っ込んできたため、本自動車はハンドルを切らざるを得なくなった。左側の歩道には歩行者Z1・Z2(母親・1歳の娘)がおり、右側の歩道には5名の大学生のグループが立ち話をしていた。本自動車は左にハンドルを切り、トラックとの衝突は免れたが、Z1・Z2に追突して死亡させた。
刑法37条(緊急避難)
 自己又は他人の生命、身体、自由又は財産に対する現在の危険を避けるため、やむを得ずにした行為は、これによって生じた害が避けようとした害の程度を超えなかった場合に限り、罰しない。ただし、その程度を超えた行為は、情状により、その刑を減軽し、又は免除することができる。

先生:「この事例の場合、『緊急避難』の考え方に基づいて、結果として人を殺してしまうことも起こりうるプログラムを事前に設定することを正当化することはできるのだろうか?」

「正当化できる」と答えた生徒(22人):「結果は一緒だから(AIが殺すのか人間が殺すのかの違い)。」「そうするしかない。」
「正当化できない」と答えた生徒(6人):「人を巻き込まず運転者自身が正面の車に突っ込むべき。」
その他、迷っている生徒もいました。
 反対派の意見に対しては、先生から「緊急避難は、前提として自身の安全が最優先するとの考え方に基づく」との指摘がありました。

 その後、「緊急時のプログラムはどうあるべきか?」との問題提起がなされ、「製造者は商売上売れる車を造る必要があるから、運転者を優先するプログラムにならざるをえない」
「法律に基づいて走るようになっているはずだが、極限状況では道路交通法違反も許されるプログラムを考えるべき」
などの意見が出ました。中には、「AI自身がCPUを守るために緊急避難が適用される可能性もある」との鋭い意見もありました。

先生:「先ほどの事例に戻りましょう。現時点でこの問題はどのように考えられているかというと、『許された危険』に基づき、『緊急避難』は成立すると考える人が多いです」

(許された危険)
 法益侵害の危険を伴うが、社会生活上必要な行為について、その社会的有用性を根拠に、法益侵害の結果が発生した場合にも一定の範囲で許容するという考え方。

先生:「自動車や外科手術がその例ですね。特に自動車は、たくさんの交通事故を引き起こすという危険はあるものの、長距離を高速で移動できるなど、大きな便益があるために許されています。そして自動運転車の便益は、事故減少、高齢者の間違い運転防止、物流サービスの人手不足の解消など多岐にわたります。」

【本時のまとめ】(法的な考え方を活用)
先生:「レベル3・4の自動運転事故の刑事責任は、一次的には誰に設定すべきだろう?」
生徒:「国として刑事責任を負う機関をつくる。」
先生:「刑罰の目的は? 大きく2つ考え方があって、応報刑論と目的刑論 だったよね。日本では、応報刑論に予防の観点も加味した相対的応報刑論がとられているとされています。国の機関が刑事責任を負うとすると刑罰の目的を果たさないのでは?」
生徒:「誰も刑事の責任は負わないこととし、民事責任だけで解決する。そうでないと、自動運転車を買う人はいなくなり、売れなくなり、技術が衰退してしまう。」
生徒:「レベル5の車をつくれるようになるまでは、自動運転車をつくるべきではない。」

先生:「最後に、現在考えられている刑事責任の取り方の一例を紹介します。レベル3では、緊急時には警告音が鳴って運転者に注意喚起するシステムを備える。自動運転車を運転する特別な免許制度をつくったうえで、運転者が責任を負う、などのアイデアが出てきています。レベル4では、車の所有者、運行供用者が責任を負う、という考えがあります。ドイツでは、特定の法的責任を帰属させる限りで、AIに法的人格を承認する構想もあります。ただ、AIに刑事責任をとらせることで、刑罰の目的は達成できるでしょうか。被害者や遺族の感情はどうでしょうか。犯罪の予防はどうでしょうか。もしかしたら、AI研究の発展によって刑罰の目的を再考しないといけなくなるかもしれませんね。自動運転事故の場合、誰が、どのように責任を取るのがよいのか次回も引き続き考えてみましょう。次回は、民事責任について学習をしていきます。」

<取材を終えて>

 「AIと自動運転」という社会的に大きな課題を取り上げ、刑事法上の過失要件、信頼の原則、緊急避難などの法的考え方を学習する、参観者の興味を強く惹く授業でした。生徒が自由に意見を述べる場では、鋭い切り口からのコメントもあり、参観者は多様な考え方に触れ、思考の幅を広げるきっかけになったのではないでしょうか。
 高校の段階から法的な考え方に触れ、法的な考え方を活用して社会問題について考える時間をもてることは、彼らにとって大変貴重な機会であったと思います。

ページトップへ