기술이 진보함에 따라, 윤리적 문제는 동반된다.
자율주행자동차의 경우에는 더욱이 좀 더 중요시되는 경향이 있다.
자율주행자동차의 윤리 문제는 크게 5가지로 나누어 볼 수 있다.
1. 책임의 문제
자율주행자동차는 인간이 운전을 하던 것과 달리 컴퓨터가 운전을 담당하므로, 만약 사고가 발생하면 누구에게 책임을 물을 것인지가 문제가 된다.
2. 선별의 문제
만약 자율주행자동차가 사람이나 동물 등을 감지했을 때, 그중 어떤 것을 우선적으로 피할지 선별하는 문제가 있다. 이러한 경우, 어떤 기준을 따라 결정해야 할지가 문제가 된다.
3. 인간 행동 모방의 문제
자율주행자동차가 인간 운전자를 모방하는 기능을 가질 경우, 운전자의 윤리적 판단과 같은 인간적인 가치에 대한 문제가 발생할 수 있다. 예를 들어, 인간 운전자가 신호 위반을 하더라도, 자율주행자동차가 그것을 모방할 것인지 아니면 안전 운행을 위해 신호를 지킬 것인지가 문제가 될 수 있다.
4. 개인정보 보호의 문제
자율주행자동차는 주행 정보나 운전자의 개인정보를 수집할 수 있다. 이러한 정보가 불법적인 목적으로 사용될 가능성이 있기 때문에, 개인정보 보호 문제가 발생할 수 있다.
5. 사회적 영향의 문제
자율주행 자동차가 보행자나 자전거, 동물들을 우선적으로 고려하게 될 경우, 차량의 이동속도나 교통 체계가 바뀔 가능성이 있다. 교통 시스템의 전반적인 구조와 관련된 문제를 야기하기에, 정책적인 대응이 필요하다.
위 5가지는 야기될 수 있는 문제의 종류들로 와닿지 않을 수 있지만, 많이 접해본 트롤리 딜레마는 조금 다르다.
필리파 풋이 먼저 제시했으며 주디스 자비스 톰슨 및 이후의 피터 엉거와 프란세스 캄에 의해 체계적으로 분석되었다. 본래 여기서 말하는 trolley는 광차로 번역되는데, 아마도 본래 mine tram, trolley 등을 의도한 것 같다. 어차피 구체적인 설명이 없으니 대부분 좀 큰 열차 같은 걸로 표현되곤 한다. 그리고 광차라고 한다면 본래 희생양들은 광부들이었던 것으로 보인다. 파생된 시나리오들에서도 주로 인부(worker)들로 나오는 것에서 그 흔적이 있다. 물론 일반인들은 철로 위에 있을 수 있는 개연성이 별로 없기에 그런 가상의 인부들만 (불쌍하게도) 사고 실험의 주재료로 쓰이는 것 같다.
>>>1번 케이스
트롤리는 선로를 따라 달려오고 있고, 선로에는 다섯 사람이 있다. 당신은 선로 밖에 서 있고 다섯 사람을 구하기 위해서는 선로 전환기를 당기면 되지만 그렇게 되면 다른 선로에 있는 다른 한 사람이 죽게 된다. 선로 전환기를 당기는 행위는 도덕적으로 허용 가능한가?
>>>2번 케이스
트롤리는 선로를 따라 달려오고 있고, 선로에는 다섯 사람이 있다. 당신은 선로 밖에 서 있고, 바로 옆에는 상당히 무거운 사람이 한 명 서 있다. 다섯 사람을 구하는 유일한 방법은 옆에 서 있는 사람을 선로 위로 밀쳐서 그 무게로 트롤리를 멈추게 하는 것인데, 이 경우 트롤리는 멈추게 되지만 그 사람은 죽게 된다. 이는 도덕적으로 허용 가능한가?
트롤리 딜레마는 심리학적 관점, 무엇이 옳은 가에 대한 초점이 아닌 대부분의 사람들은 어떻게 반응하는가이다.
극단적인 케이스기 때문에, 옳고 그름의 문제는 아니다.
최근 유튜브에서 다른 자동차를 피하려다가 행인을 치게 되어 사망했다는 내용으로 보도된 뉴스를 접했다.
이 경우 운전자가 유죄를 받았다. 자동차를 쳤어도 다쳤을 것인데, 어쩔 수 없이 둘 중 하나는 피해를 보게 된다면 그것이 무엇이 옳다고 할 수 있을까.
사람의 선택에 있어서도 상황에 따른 문제가 있는데, 이것을 데이터를 통해 AI가 판단하는게 옳은 것일까싶다
'책벌레와 벌레 그 사이 어딘가 > 흥미를 더하다' 카테고리의 다른 글
[흥미를 더하다] 자율주행 자동차 :: ADAS 기술 (4) | 2023.04.20 |
---|---|
[흥미를더하다] ChatGPT의 시대가 의미하는 것(클라우드 시대) (0) | 2023.04.18 |
[흥미를더하다] 자율주행자동차 + @ = 트랜스포머? 자율주행기술레벨 (1) | 2023.03.06 |
[흥미를 더하다] 초거대언어모델 (0) | 2023.02.27 |
[흥미를 더하다] ChatGPT (0) | 2023.02.20 |
댓글