자율주행 윤리적 딜레마 - jayuljuhaeng yunlijeog dillema

자율주행 윤리적 딜레마 - jayuljuhaeng yunlijeog dillema
▲(이미지=셔터스톡)©AI타임스

(AI타임스=윤광제 기자) 운전자가 없더라도 우리가 원하는 장소로 옮겨다 주는 꿈같은 자동차의 실현이 눈앞에 다가왔다. 하지만, 만약 이 ‘꿈의 차’가 살인기계가 될 가능성이 있다면, 당신은 어떻게 할 것인가. 구입할지, 아니면 포기할지, 그리고 차가 일으킨 살인은 누구의 책임이 될까?라는 문제가 대두되고 있다.

자율주행차 개발이 본격화되고 있다. 도요타는 2020년 도쿄 올림픽에서 첫 선을 보인다고 발표, 혼다는 구글 산하의 IT기업 웨이모와 손잡고 2025년까지는 레벨 4(시스템에 따른 주동 운전)의 자율주행 자동차를 개발한다고 밝히고 있다.

이러한 자율주행차량에 대한 기술 개발이 진행되면서 자율주행차량에 대한 윤리문제가 함께 이슈가 되고 있다.

이와 관련해 2014년 ‘자율주행차량의 윤리관’을 묻는 흥미로운 실험이 이루어졌다. 만약 누군가를 희생시켜야 할 경우 자동운전차는 어떤 선택을 해야 할까?"일명 "토롯코 문제"이다.

◆ A를 치면 B를 살린다. ‘광차 문제’가 제기하는 윤리적 딜레마.

광차 문제(鑛車問題, trolley problem)는 윤리학의 사고실험이다. 여기서 광차(鑛車)는 광산 또는 터널 등의 토목공사장에서 광석, 폐석 및 토사, 광산용 자재 등을 수송하는 차량 전체를 아우르는 말로 종종 일본어인 도롯코(トロッコ)로 속칭하기도 한다.

광차 문제는 인간의 도덕적 윤리관을 묻는 문제로 조건은 다음과 같다. 선로를 달리는 광차가 있다. 통제 불능에 빠진 이 광차를 이대로 두면 저 멀리 철로 위에 있는 5명의 인간을 치게 된다. 기관사인 나는 선로의 방향 전환할 수 있는 레버를 갖고 있는데, 만약 5명을 살리려고 한다면 다른 선로 위의 무고한 한 명을 희생시켜야 한다. 레버를 당길 것인가, 그냥 아무것도 하지 말 것인가?

2014년, 매사추세츠 공과 대학의 컴퓨터 과학 연구팀은 ‘도덕·머신(Moral Machine)’라는 퀴즈식 실험을 고안했다. 응답자들은 ‘A를 희생하지 않으면 B가 살 수 없다’ 누군가의 죽음을 피할 수 없는 상황에서, 자동운전차는 어느 쪽의 희생을 택할 것인가를 선택한다. 실험에서는 젊은이, 노인, 부자, 펫 등의 다양한 유형의 ‘희생자’를 준비하고, 희생될 인원의 다소 조절해 13가지의 다른 시나리오를 준비했다.

도덕·머신을 클라우드에 서징결과, 예상을 뛰어넘는 반향을 얻었다. 1년 반 만에 세계 233개국 약 4000만 명의 응답을 얻었고, 매우 흥미로운 결과도 도출됐다고 한다. 나라나 지역, 그 나라의 발전 정도 등에 따라 사람들의 선택이 크게 달랐다는 것이다.

◆ 지역이나 국가의 상황에 따라 다른 가치관
우선 애완동물보다 인간을 보호한다는 것에 관해서는 나이, 성별, 국가나 지역을 불문하고 공통적인 답변이었다.

그러나 이어지는 질문에서는 세분화 되기 시작했다고 전한다.

보고서에 따르면 크게 3개 그룹으로 나뉘는데, 우선 북미나 유럽 제국을 포함한 기독교가 지배적인 A그룹 국가. 다음으로, 일본이나 인도네시아 등 유교나 이슬람교가 강한 B그룹 국가. 마지막으로 중남미 등 구프랑스 식민지의 C그룹 국가로 구분된다고 밝혔다.

A그룹 국가는 B그룹에 비해 노인보다 젊은이를 구하는 일을 선택하는 경향이 있었다고 한다.

더욱이 콜롬비아 등 빈부의 차가 큰 나라 사람들은 더 낮은 지위의 사람을 희생시키는 것을 택했고, 강력한 법치국가인 일본이나 핀란드는 ‘불법’으로 도로를 가로지르는 사람에 대해 냉정한 조치를 취하는 선택을 했다고 한다.

이 실험에서 알 수 있는 것은 나라의 역사적·종교적 배경이나 경제적, 구조적인 요인이 사람들의 윤리의식에 깊이 얽혀 있다는 것이다.

◆ AI의 윤리관은 어디까지...
인간조차 어려운 도덕적 판단을 기계인 자율주행차의 AI는 어디까지 구할 수 있을까? 게다가 ‘정답’이 장소나 판단하는 사람에 따라 다른데, 복잡다양한 상황에서 AI에 윤리관을 심어주는 것이 가능할까?

자율주행차의 ‘운전자’는 AI이다. AI는 통상 인간의 뇌가 행하고 있는, 판단, 기억, 학습, 추측과 같은 것을 인공적으로 해 주는 시스템이다.

AI는 지금까지 방대한 데이터의 축적이나 인간의 지시에 의해 움직이고 있었지만, 현재는 ‘딥러닝’이라고 하는 판단까지 스스로 학습하는 능력이 개발되고 있다. 향후 AI는 도덕관을 포함한 판단조차 ‘학습’을 할 수 있을까?

AI는 의료용 로봇, 군사용 무인기 등 인명에 관련된 것에도 탑재돼 있다. 영국의 로봇 윤리학자 앨런 와인필드씨에 의한, 로봇을 사용한 실험에서 흥미로운 것이 있다.

실험은 구멍에 빠진 2구의 로봇(D)을 다른 1구의 로봇(C)가 구한다는 것이다. C는 주위 물건에 대한 위치를 감지하는 능력이 갖춰져 의도적으로 대상물을 훼손하지는 않지만, 무리해서 구조를 할 필요는 없다는 식으로 프로그램 돼 있었다. 실험에 따르면 C는 구멍에 조금씩 다가가 D를 도우려고 조치했으나 그것을 몇 번인가 반복할 때에 C의 시스템은 쇼트되면서 마침내 C는 2구의 D를 방관한 것이다.

이 문제를 해결하기 위해서는 어떻게 프로그램을 해야 하는가? C는 스스로의 몸을 망치고, D를 구하는 선택을 해야 하는가? 보신이라는 C의 선택이 옳았을까? 만약 이것이 군용기라면 항상 이런 긴박한 선택에 노출될 것이다. AI와 윤리관에 가로놓인 문제는 너무 크다.

◆ 자율주행차 해제까지 앞으로 2년. 문제 해결은?
이야기를 자동운전차로 돌려놓자. ‘광차 문제’에 대해 자동차 회사들은 어떤 반응을 보이고 있을까?

아우디 측 관계자는 첫머리의 MIT 실험에 대해 "가치가 있다"고 전제한 뒤 "자율주행차가 사고를 낼 확률은 기존보다 낮아지겠지만 로봇이 관련된 사건에는 더 주의를 기울일 필요가 있다“고 말했다.

볼보 측 관계자는 ”당사 개발의 자율주행차에 대해 모든 책임을 지겠다“고 공약했다.

일본의 상황은 어떨까? 자율주행차에는 6개의 레벨이 있다. 이 중 운전자가 필요 없고 완전히 AI가 운전을 맡는 것은 레벨 4이상이다. 시시각각 변하는 경치 속, 사람이나 표지판, 도로, 주위의 가게, 가로수 등 다양한 것을 한순간에 식별·판단하고, 그것들에 대해 적절한 반응을 해야 한다는 매우 고도의 지능과 정보처리 능력이 필요하다.

일본 국토 교통성은 지난 2018년 9월 ‘자동 운전 자동차 안전 기술 가이드 라인’에서 ‘2020년까지 레벨 4의 자동운전 차를 지역으로 한정하고 부분적으로 도입한다. 그리고 2025년을 목표에 레벨 4차가 고속 도로에서 주행할 수 있도록 하겠다’고 목표를 정한 바 있다.

윤리적 문제에 대한 답변은 아직까지 나오지 않고 있다. 그러나 자율주행차의 시장화는 눈앞이다. 음주운전과 운전자의 부주의로 인한 사고 등 지금까지 인간이 일으킨 인위적인 사고는 줄어들 것으로 전망한다. 자율주행차의 도입은 인간부주의에 의한 사고 예방차원에서는 긍정적일지 모르지만 실제로 시장화되고 나서, 지금까지 예기치 않았던 과제도 많이 나올 것은 틀림없다.

지금 기술력으로 얼마나 사고를 예측하고 회피할 수 있을지 사회 전체가 함께 고민해야 할 문제인지도 모른다.

【에이아이타임스 aitimes 에이아이타임즈】


2014년 MIT 미디어 랩(MIT Media Lab)의 연구원들은 모럴 머신(Moral Machine)이라는 실험을 설계했다. 자율주행 자동차가 이른바 ‘트롤리 딜레마’의 여러 상황에서 누구의 생명을 우선해야 하는지에 대한 사람들의 의견을 수집하는 플랫폼을 만드는 작업이었다. 이 과정에서 생성된 데이터는 문화에 따른 집단적 윤리적 우선 순위의 차이에 대한 통찰력을 제공할 것으로 기대되었다.

연구원들은 세계에서 그렇게 많은 사람이 이 실험에 응하리라고 전혀 예상하지 못했다. 플랫폼이 가동된 후 4년 간, 233개 국가에서 수백만 명이 4000만 건의 의견을 등록했다. 이 연구는 세계인의 도덕적 선호에 대한 최대 규모의 연구 중 하나가 되었다.

이 데이터를 기반으로 네이처에 게재된 논문은 문화, 경제, 지리적 위치에 따라 윤리 기준이 얼마나 다양한지 보여준다.

일반적인 트롤리 딜레마는 다음과 같다. 기차가 선로를 따라 달려오고 있고, 선로에 다섯 명의 사람이 서 있다. 당신은 선로전환기를 당겨 다섯 명의 사람들을 구할 수 있지만, 그럴 경우 다른 선로에 있던 한 사람이 죽게 된다. 선로전환기를 당겨서 한 명을 희생하여 다섯 명의 사람들을 살리겠는가?

모럴 머신은 이 딜레마에서 아이디어를 얻어 9가지 비교 상황을 실험했다. 자율주행 자동차가 반려 동물보다 사람을, 보행자보다 승객을, 적은 사람보다 많은 사람을, 남자보다 여자를, 노약자보다 젊은이를, 건강하지 못한 사람보다 건강한 사람을, 사회적 지위가 낮은 사람보다 더 높은 사람을, 법을 어기는 사람보다 잘 지키는 사람을 구해야 할까? 자동차는 방향을 바꿔야 할까(take action)? 아니면 원래대로 주행해야 할까(inaction)?

자율주행 윤리적 딜레마 - jayuljuhaeng yunlijeog dillema
모럴 머신 참가자들에게 제시되는 질문 예시

이 실험은 참가자들에게 일대일 비교를 하기보다는 다양한 조합을 제시했다. 이를테면, 자율주행 자동차가 주행 방향을 바꾸지 않고 길을 걷던 노약자 3명이 죽는 상황 또는 바리케이드로 방향을 바꾸어 차 안의 젊은 승객 3명이 죽는 상황 중에 선택하도록 하는 식이다.

연구원들은 사람들의 선호도가 국가마다 크게 달랐던 한편, 문화나 경제와도 높은 상관관계가 있다는 것을 발견했다. 예를 들어, 중국이나 일본과 같은 집단주의 문화권의 참여자들은 젊은이보다 노약자를 살리는 경향을 보였다. 연구자들은 노약자를 존중하는 문화 때문일 가능성이 있다고 가정했다.

개인주의 문화권의 사람들은 젊은이를 살리는 선택을 할 가능성이 더 높다

자율주행 윤리적 딜레마 - jayuljuhaeng yunlijeog dillema
자율주행 자동차를 시범 운행하는 국가간 비교: 응답자들이 젊은이를 구하려는 경향이 큰 경우 그래프의 막대가 1에 가까워지고, 노약자를 구하려는 경향이 크면 -1에 가까워진다. 0은 세계 평균. Created with Data Wrapper

마찬가지로, 법규가 비교적 잘 갖춰지지 않은 빈곤국의 참가자들은 파란불에 횡단하는 보행자들에 비해 무단 횡단하는 사람들에게 더 관대하고, 경제적 불평등이 큰 국가의 참가자들은 사회적 지위의 격차에 따라 큰 차이를 보여준다.

또 연구팀은 어떤 그룹을 구할지 결정하는 데에 있어서 피해를 입는 사람들의 숫자가 항상 가장 중요한 요소는 아니라는 점을 발견했다. 영국, 미국과 같은 개인주의 문화권의 참여자들이 다른 조건들보다 많은 생명을 구하는 것을 더 중요시했는데, 이는 아마 이들 문화권에서 각 개인의 가치를 더 중요하게 여기기 때문일 것으로 연구진은 추정했다.

개인주의 문화권의 사람들은 더 많은 생명을 구하는 선택을 할 가능성이 더 높다

자율주행 윤리적 딜레마 - jayuljuhaeng yunlijeog dillema
자율주행 자동차를 시범 운행하는 국가간 비교: 응답자들이 구하는 생명의 숫자를 중요시할 경우 그래프의 막대가 1에 가까워지고, 그 반대의 경우는 -1에 가까워진다. 0은 세계 평균.
Created with Data Wrapper

연구진은 세계를 서양권, 동양권, 남부권 등 크게 세 권역으로 분류했는데, 인접한 국가들은 비슷한 도덕적 선호도를 보였다.

연구원들은 결과가 왜곡될 수 있다는 것을 인정했다. 참가자들은 스스로 참여했으므로 인터넷 접근성이 좋고, 사회적 지위가 높으며 신기술에 밝은 사람일 가능성이 높기 때문이다. 자율주행 자동차에 관심 있는 사람들 또한 그러한 특징을 가질 경향이 높다.

이 연구는 현재 자율주행 도입을 검토하는 국가들이 자율주행 자동차를 설계하고 규제를 만드는 데 있어 흥미로운 시사점을 준다. 예를 들어, 자동차 제조사는 중국 소비자가 보행자보다 운전자를 보호하는 차를 선호하리라는 것을 알 수 있다.

승객보다 보행자를 구하겠다는 사람들의 나라별 비율

자율주행 윤리적 딜레마 - jayuljuhaeng yunlijeog dillema
응답자는 보행자를 구하는 데 더 중점을 둘수록 막대가 1에 가까워지고, 승객을 구하는데 더 중점을 둘수록 막대가 -1에 가까워진다. 0은 세계 평균. Created with Data Wrapper

그러나 이 논문의 저자들은 연구 결과가 각 나라에 바람직한 행동 방식을 제시하려는 것은 아니라고 강조했다. 저자들은 실제로 몇 가지 경우에서 기술자들과 정책 입안자들이 집단 여론을 무시해야 한다고 느꼈다. 이 논문 저자인 에드먼드 어워드(Edmond Award)는 사회적 지위를 사례로 언급했다. 그는 “사람들이 낮은 지위의 사람보다 높은 지위의 사람을 구해야 한다는 응답이 큰 차이로 많다는 점이 염려된다”며 “중요한 점은 이 데이터를 ‘사용해야 한다’기 보다 ‘계량화할 수 있었다’라는 점이다”라고 말했다. 그는 “이 결과는 산업계와 정부가 서로 다른 디자인과 정책 결정의 윤리에 대해 대중이 어떻게 반응할지를 이해하는 토대로 이용되어야 한다”고 말했다.

어워드는 이번 결과가 기술자들이 자율주행 자동차를 넘어 AI의 윤리에 대해서도 더 깊이 생각하는 데 도움이 되기를 바라고 있다. 그는 “트롤리 딜레마가 이 데이터를 수집하는 데 매우 좋은 방법이기 때문에 이용했지만, 윤리에 대한 논의가 이 주제에만 머물지 않기를 바란다”며 “이 논의는 누가 죽어야 할 지를 넘어, 누가 더 혹은 덜 위험에 처해있는지 분석하는 리스크 분석, 그리고 편견은 어떻게 벌어지는지 등으로 나아가야 한다”고 말했다. 그는 앞으로 이러한 연구 결과가 어떻게 AI의 윤리적 설계와 규제로 전환될 수 있을지 더 연구하고자 한다.

어워드는 “지난 2-3년 동안 많은 사람이 AI의 윤리에 관해 이야기하기 시작했다”며 “사람들의 집단의 성격에 따라 AI가 서로 다른 다양한 윤리적 결과를 일으킬 수 있다는 점에 대한 인식이 높아졌다. 이런 문제를 생각하는 사람들이 나타난다는 사실 자체가 바람직한 일이라 생각한다”고 말했다.