자율주행차란 운전자가 차량을 직접 제어하지 않아도 도로ㆍ교통 상황을 스스로 파악해 자동으로 주행하는 자동차를 의미한다. 구글과 애플 같은 세계적인 IT 업체는 물론 BMWㆍ벤츠ㆍ도요타ㆍ현대 등 완성차 업체들 또한 ‘완전 자율주행차’를 목표로 상용화 기술개발에 매진하고 있다.
최근 알파고와 이세돌의 바둑대전을 계기로 자율주행차의 인공지능에 대한 우리 국민의 관심도 한층 높아지게 되었는데, 국내의 한 조사연구에 따르면 전체 응답자 364명중 201명(55.2%)이 자율주행차에 대한 관심을 나타냈다. 인구통계적 특성에 따른 관심도를 살펴보면 여성보다는 남성, 연령대가 높고 운전경력이 오래될수록 그리고 영업용과 출퇴근 용도로 차량을 이용하는 운전자에게서 자율주행차에 대한 관심이 상대적으로 높게 나타났다(도로교통공단, 2015).
자율주행차가 가져올 일상의 변화는 무엇일까? 흔히 교통사고의 90%는 운전자의 인적오류로 발생한다고 하므로 자율주행차가 가까운 미래에 상용화된다면 교통사고는 급감하고 도로 위에서 차량소통도 더욱 원활해 질 것으로 보인다. 운전자 또한 자율주행차에 탑승하는 경우, 목적지로 이동 중에 자유롭게 독서를 하거나 영화를 보거나 심지어는 수면을 취할 수도 있어 무척이나 편리하고 쾌적한 이동수단으로 자리매김 할 수 있을 것이다.
그렇다면 자율주행자동차가 도로상에서 발생할 수 있는 다양한 이슈들에 대하여 최선의 해결책이 되는 것일까? 최근 논란이 되고 있는 자율주행차의 윤리적 문제를 한번 고민해보자.
운전자는 윤리적 딜레마가 되는 교통상황에 직면하게 되면 어떠한 이유로든 자신의 운전에 대한 책임을 본인이 감당하여야 한다. 운전자 본인이 법적, 금전적 책임을 감수할 뿐 아니라 누군가 상해를 입히게 되는 경우에는 도덕적인 책임, 즉 자신의 행위에 대한 죄책감 또한 갖게 된다. 그렇다면 자율주행차는 어떠한가? 윤리적 딜레마 상황이 발생하여 자율자동차로 하여금 누군가를 희생하도록 선택하여야 한다면 어떤 알고리즘을 통해서 이러한 윤리적 딜레마를 해결할 수 있을 것인가?
지난해 MIT 테크놀로지 리뷰에서는 주행 중 보행자를 피하면 탑승자가 가드레일에 충돌해 죽고 그렇지 않으면 탑승자는 살지만 보행자는 죽게 되는 소위 ‘자율주행차의 윤리적 딜레마’ 문제가 화두로 등장하였다. 탑승자를 희생시키더라도 보행자를 살릴 것인지, 아니면 그 반대를 선택할 것인지에 대한 자율주행차의 최종 의사결정권에 대한 윤리적 이슈는 결국 교통사고시 책임 소재를 탑승자가 아닌 제조사에 두어야 하는지에 대한 논쟁으로까지 이어지고 있다.
물론 우리나라에서도 자율주행차에 대한 관심만큼 자율주행차의 윤리에 대한 관심이 점차 증대되면서 최근 국토해양부에서는 자율주행차 ‘윤리적ㆍ법적 쟁점’ 세미나를 개최하였으며, 자율주행차의 기술발전을 위해서는 윤리적 선택에 대한 사회적 합의가 필요하다는 의견이 피력되었다.
만약 인간 본성의 관점에서 자율주행차의 윤리적 선택을 본다면 과연 이러한 사회적 합의가 쉽게 이루어질 것인가? 철학이나 윤리학 분야가 아닌 심리학 분야에서도 인간의 윤리 또는 도덕성 발달에 대한 논의가 지속되어 왔다. 대표적인 이론으로는 콜버그의 ‘도덕발달 이론’을 들 수 있는데 이 이론에 따르면 행위의 결과가 아닌 행위의 동기에 따라 인간의 도덕성 발달 수준을 평가할 수 있다는 것이다.
가령, 아픈 아내를 위해서 비싼 약을 살 수가 없어 몰래 약을 훔친 하인즈의 윤리적 딜레마에서 콜버그는 약을 훔쳤다는 행위의 결과가 아닌 행위의 동기가 단순히 법과 질서에 대한 위반으로 보는지 아니면 보편적 도덕 원리에 따른 것인지에 따라 도덕성 발달수준이 다르게 평가되어야 한다고 주장하였다. 자율주행차도 인간처럼 결과가 아닌 행위의 동기에 따라 도덕성이 판단되어질 수 있을까? 아니면 행위의 최종 결과만으로 도덕성이 판단되어야 하는 것인가?
이번에는 ‘자율주행차의 윤리적 딜레마’를 다른 관점에서 한번 살펴보자. 만약 a상황에서 가드레일에 위치한 보행자가 어린 아이고 10명의 보행자는 모두 나이든 노인들이라면, 또는 그 어린아이가 탑승자의 자녀이거나 10명의 노인 중에 내 부모가 포함되어 있다면 탑승자는 단순히 보행자 숫자의 많고 적음에 따라, 아님 자신의 안위에 따라 동일한 결정을 내릴 수 있을 것인가? 자율주행차의 윤리적 딜레마는 이처럼 단순히 ‘최대다수 최대행복’이라는 공리주의 명제로만은 쉽사리 해결되지 않음에 분명하다.
한편, 우리가 인류 보편적인 속성으로 믿고 있는 윤리가 단지 행위자 개인의 도덕적 또는 당위적 신념이나 태도라면 심리학적 관점에서 모든 인간은 항상 자신의 도덕적 신념이나 태도와 일치하게 행동하는 걸까? 물론 우리 중에 누군가는 자신을 희생하더라도 단 한 명의 사람도 희생하고 싶지 않는 사람이 존재 할 수 있겠으나 대다수 사람들은 자신의 도덕적 신념 보다는 이에 반하더라도 본능적으로 자신의 생명을 살리기 위한 방향으로 운전할 가능성이 높다는데 동의할 것이다.
결과적으로 우리 인간은 자신의 생명이 위협받는 윤리적 딜레마 상황에서 자신이 옳다고 믿는 윤리적 신념과 실제 행동간의 불일치(discrepancy)를 피하기 어려운 존재이다. 따라서 자율주행차의 윤리적 딜레마를 해결하기 위한 하나의 알고리즘으로서 인간의 보편적 윤리나 사회적 합의를 인간 본성이 갖는 경험적 기준으로 정의할 것인지 또는 윤리적 신념에 의한 당위적 기준에 따라 정의할 것인지에 대한 충분한 논의가 필요하겠다.