
事故の哲学 ソーシャル・アクシデントと技術倫理
ジコノテツガク ソーシャルアクシデントトギジュツリンリ
マイページに作品情報をお届け!
ディープラーニングしたAIの判断の責任は、だれがとればよいのでしょうか?人工物が複雑化すればするほど、事故の因果関係は不明瞭になります。被害は存在しても、加害者を特定できなくなります。また、小さな過失が、巨大事故を引き起こす可能性もますます大きくなっています。人工物が第二の自然になり、事故が第二の天災となる時代に、倫理はどうあるべきなのでしょうか。現在進行中の問題に深く切り込みます。 AI、iPS細胞、自動運転、IoT……。技術の発展は、とどまるところを知りません。身近な医療事故から超巨大な原発事故まで、事故もどんどん巨大化、複雑化しています。 産業革命以降、人工物(主に工学的に人間が作り出したもの)は、ますます大きなエネルギーを社会の中に出現させています。つまり、巨大事故の可能性も大きくなっているのです。 複雑な人工物の出現は、それを補完する社会制度を作ってきました。その制度の基本にある人間観、倫理観を考察します。すると明らかになってくるのが、事故と責任の関係です。 人工物が複雑化すればするほど、事故の因果関係は不明瞭になります。被害は存在しても、加害者を特定できなくなります。また、過失ともいえない過失が、巨大事故を引き起こす可能性がますます大きくなっています。 ディープラーニングしたAIの判断の責任は、だれがとればよいのでしょうか? 人工物が第二の自然になり、事故が第二の天災となる時代に、倫理はどうあるべきなのでしょうか。 現在進行中の問題に深く切り込みます。 【目次】 はじめに ソーシャル・アクシデントの時代 第一章 事故を考えるための技術論 第二章 安全は科学を超える 第三章 組織・システム・制度 第四章 無過失責任の誕生 第五章 人工物の存在論 最後に 天災化する事故 注 あとがき
TOPICS

事故の哲学 ソーシャル・アクシデントと技術倫理
発売日:2019年03月12日
ディープラーニングしたAIの判断の責任は、だれがとればよいのでしょうか?人工物が複雑化すればするほど、事故の因果関係は不明瞭になります。被害は存在しても、加害者を特定できなくなります。また、小さな過失が、巨大事故を引き起こす可能性もますます大きくなっています。人工物が第二の自然になり、事故が第二の天災となる時代に、倫理はどうあるべきなのでしょうか。現在進行中の問題に深く切り込みます。 AI、iPS細胞、自動運転、IoT……。技術の発展は、とどまるところを知りません。身近な医療事故から超巨大な原発事故まで、事故もどんどん巨大化、複雑化しています。 産業革命以降、人工物(主に工学的に人間が作り出したもの)は、ますます大きなエネルギーを社会の中に出現させています。つまり、巨大事故の可能性も大きくなっているのです。 複雑な人工物の出現は、それを補完する社会制度を作ってきました。その制度の基本にある人間観、倫理観を考察します。すると明らかになってくるのが、事故と責任の関係です。 人工物が複雑化すればするほど、事故の因果関係は不明瞭になります。被害は存在しても、加害者を特定できなくなります。また、過失ともいえない過失が、巨大事故を引き起こす可能性がますます大きくなっています。 ディープラーニングしたAIの判断の責任は、だれがとればよいのでしょうか? 人工物が第二の自然になり、事故が第二の天災となる時代に、倫理はどうあるべきなのでしょうか。 現在進行中の問題に深く切り込みます。 【目次】 はじめに ソーシャル・アクシデントの時代 第一章 事故を考えるための技術論 第二章 安全は科学を超える 第三章 組織・システム・制度 第四章 無過失責任の誕生 第五章 人工物の存在論 最後に 天災化する事故 注 あとがき