情報システムの「許されざる危険」

IT法コラム

 刑法の領域には、「許された危険」という考え方があります。これは、社会的に有用な行為は、法益(生命や身体など)侵害結果を伴うものであっても、一定の制約のもとに許容される、という考え方です。典型的なのは、自動車運転です。自動車運転は、これを許せば年間数千人の死者が出ることは分かっていながら、これを禁止すれば社会経済がストップしてしまうために、免許制や安全対策を進めつつも、社会のやむを得ない一部として許容されるわけです。

 とはいえ、いかに社会的に有用な行為であるとしても、それだけで人間の生命や身体への侵害を正当化することには、いかにも無理があります。そこで、例えば自動車運転であれば、自動車に内在する危険性はこれを運転する人間の不注意を伴って初めて現実化する、したがって十分注意して運転すれば事故に至らない、という信念とセットになっています。その可能性があるからこそ、「許された危険」も正当化される、というわけです。実際、事故が起これば、(飲酒運転や危険運転は論外ですので、それらはひとまず措きます)前方不注意や安全不確認や操作不適などの「過失」がえぐり出され、これが事故の原因であったとして刑事罰、行政罰その他のサンクションが科されます。
 しかし、いかに技術が進み、運転環境が整備され、安全運転が啓発されても、事故の死傷者数がゼロになることはあり得ません。端的に言えば、いかに注意してみても、ある確率では自動車事故の発生は避けられないということです。恐らく、法の求める注意義務は人間の注意力の限界を超えており、ある種の過失はもはやフィクションであると言わざるを得ません。例えば、連続して運転する数十分の間、一瞬一秒も途切れることなく前方注意し、安全確認し、適正操作し続けることは、到底人間業とは思われません。にも関わらず、事故がそう簡単には起こらないのは、瞬間瞬間に注意が途切れながらも、たまたま客観的に危険な状況と競合しないだけのことです。このような人間のコントロールを超えたところにあるものを、あれこれの理屈をつけて受け入れることこそ、「許された危険」の本質なのでしょう。

 システム障害にも、これと似たところがあります。情報システムに内在する危険が、人間の企画や開発や保守や運用におけるミスによって現実化し、金融で、通信で、交通で、避けようのない損害を撒き散らしています。しかし、いまさら「情報システム以前」には戻れないので、許されたものとしてそこにある、というわけです。ただし、違う点もいくつかあります。
 一つは、自動車の場合に人間の「注意力」の限界を超えているらしいのに対し、情報システムの場合は人間の「能力」の限界を超えているらしいことです。情報システムは、人間の供給能力を超えた、需要過多に陥っています。もう一つは、情報システムの場合、少なくとも生命等がかかっていなければ、建前のレベルでも障害を根絶させようとはしておらず、リスクとコストのバランスが取れていれば足りるとされていることです。確かに、ただの業務管理システムに、最上級のセキュリティ対策を持ち込むことは合理性を欠いています。ただ問題は、人間は将来の目に見えないリスクをほぼ確実に過小評価してしまう、ということです。実際、そうしたバランスを欠いた情報システムは、枚挙にいとまがありません。

 さて、こうした問題が解消できないまま、社会は自動運転という生命や身体という重大な法益がかかっているシステムに進もうとしています。もっとも、自動運転はむしろ人間の注意を補い、あるいは代替するものとして考えられ、実際にも正に「許された危険」で見て見ぬふりをするほかなかった侵害の軽減が期待されています。しかし、自動運転システムにも、バグはあり得ます。自動運転が「許された危険」を増やすのか減らすのか、自動運転の技術もさることながら、それを現実の社会で生かす制度設計にかかっているように思われます。