ABOUT ME

-

Today
-
Yesterday
-
Total
-
  • 자율주행차와 윤리적 딜레마 확인
    카테고리 없음 2020. 2. 19. 13:35

    >


    >


    도덕적 견해를 묻는 아주 유명한 질문을 하면 바로 던져 본다. 당신은 브레이크가 촌락하고 있는 기차 기관사다. 기차는 선로에서 작업 중인 인부 5명을 향해서 맹렬히 달리고 있다. 당싱로 달리면 인부 5명을 해치게 된다. 방금 당신 앞에는 선로 변경 스위치가 있지만 그 스위치를 누르면 인부 5명을 살릴 수 있지만 또 다른 선로에 있는 노동자 한 사람을 해칠 수밖에 없다. 그럼 당신은 스위치를 누르는 건가?이 질문을 묻는 설문 조사에서 89퍼센트의 사람들이 스위치를 누르면 대답했다. 이번에는 질문을 바꿔보자. 당신은 기관사가 아니라 그 상황을 지켜보고 있는 구경꾼입니다. 마침 당신 앞에는 덩치가 큰 사람이 있는데, 이 사람을 선로에 놓으면 기차를 세울 수 있는데 그 사람이 죽게 된다. 대신에 인부 5명을 살릴 수 있다. 당신이라면 몸집이 큰 사람을 밀까?이 질문을 받은 사람들은 앞의 질문으로 골똘히 생각한다. 다시 이 이야기로 윤리적 딜레마에 직면하게 된다. 두 질문은<정의란 무엇인가>의 저자'마이클 샌델'이 자주 인용하고 널리 알려진 사람'트롤리 딜레마'이다. 결론적으로 이이에키하면 두번째 질문에 대다수의 사람들(78%)은 깍지 않다고 답했다."최대 다수의 최대 행복"이라는 공리주의적 관점에서 보면 2개의 질문에 사람들의 반응은 모순입니다.우리는 다수를 위해 소수가 희생해야 한다고 주장하지만 동시에 다수를 위한 명분이 소수를 희생해서는 안 된다는 이율배반의 존재가 된다. 과연 그럴까.최근 뇌과학의 발달은 저런 윤리적 딜레마에 대한 인간의 반응이 모순이 아니라는 근거를 제시합니다. 심정학자 조슈아 그린은 fMRI(기능성 자기 공명 영상)을 이용 칠로, 2가지 질문을 받은 사람들의 뇌 활동을 비교할 검토를 했다.검토 결과를 보면 두 가지 질문에 반응하는 사람의 두뇌는 다르게 자신감이 나타났다. 제1의 질문처럼, 스위치만 조작 칠로 자결을 내릴 경우에는 전두엽이 활성화하는 사람이 많았는데, 이는 그 상황에 대해서 이성적 판단을 한 것을 의미한다. 그러나 2번째 질문처럼 누군가를 찍는 행동, 즉 적극적인 행위가 필요한 경우에는 편도체가 활성화하는 사람이 많았는데, 이는 그 상황에 대해서 정성적 판단을 했다는 뜻이다.해석하자면,인간이윤리적결단을내려야하는순간에는이성적판단과정서적판단사이에서적절한편을선택한다는뜻입니다. 그래서 트롤리 딜레마에 대한 인간의 반응은 모순되지 않는다. 조슈아 그린의 표현을 빌리자면 인간의 저런 행동은 이중처리 방식의 도덕적 뇌를 가지고 있기 때문입니다.다만 이는 인간의 반응에 대한 근거를 제시했을 뿐 트롤리 딜레마에 대해 어떤 판단이 옳은지 사회적 합의에 도달한 것은 아니다. 만약 근로자 5명이 자신의 소가족이라면 어떻게 될까? 그래도 덩치 큰 사람을 밀지 않을까? 그때는 누군가를 밀어 소가족을 살리는 것이 오히려 정서적 판단이 되지 않을까. 그렇다면 정서적 판단의 개입이 무조건 옳다고 할 수 있을까.지금까지 트롤리 딜레마는 대학의 정치 철학 강의, 자신의 시민을 위한 교양서적에서만 볼 수 있는 토론 주제였다. 그런 딜레마는 어디까지 자신 인간의 머리 속에서 열린 지적 유희인 현실에서 열리는 1은 정말 거의 없었다. 그런데 상황이 바뀌면서 이 말을 했다.어느새 우리는 4차 산업 혁명을 맞았다. 이제 트롤리 딜레마는 인간 머릿속의 지적 유희가 아니라 개발자가 분명히 알고리즘이 되면서 이 말을 했다. 즉, 인간의 머릿속을 친구로서 자신의 물건 또는 인공지능이 딜레마에 대한 판단을 내려야 하기 때문입니다. 예를 들어 자율주행차를 떠올려보자.


    >


    갑자기 브레이크가 촌락하고 있는 자율주행차가 있다고 소가족이 생각해 보자. 데빈 크로 갈 경우 보행자 5명을 치게 되고 핸들을 꺾으면 보행자 한 사람을 치게 된다. 이 경우 자율주행차는 어떤 알고리즘을 가져야 하는가? 물론 인간의 이성적 판단과 동등하게 핸들을 꺾는 판단을 하는 알고리즘을 가져야 대다수 공감을 얻을 수 있었다. 그런데 핸들을 꺾어서 다치는 사람이 보행자가 아니라 자동차 탑승자라면? 자율주행차는 보행자와 탑승자 사이에 어떻게 보호해야 할까.이 질문은 20하나 6년 6월 과학 학술지'사이언스'에 실린 논문과 관계 있다. 자율주행의 사회적 딜레마(The social dilemma of automous vehicles)라는 제목의 이 논문은 사람들에게 위와 같은 질문으로 설문조사를 했습니다. 이 설문 조사에서 대다수의 사람들(78퍼.세인트)가 다수의 보행자를 보호하는 것이 더욱 윤리적이라고 대답했습니다. 그런데 흥미로운 것은 그 후의 질문이었다.그럼 자동차 탑승자보다 보행자의 안전을 우선으로 하는 자율주행차를 구입합니까?눈치챘는지 모르겠지만 대부분의 사람들은 그런 차를 구입하지 않는다고 대답했습니다. 이성적인 판단으로는 대다수 보행자가 우선인데, 그 자동차 탑승자가 자신이 거인족일 경우 반드시 딜레마에 빠져 예기하고 있었다.그렇다면 자동차 업체의 판단은 어떨까. 얼마 전 메르세데스벤츠 간부입니다. 원은 보행자보다 자동차 탑승자의 안전을 우선한다는 발언을 했는데 언론의 비판을 받았어야 했습니다. 제조사 입장에서는 자연스러운 결론일지 모르지만, 그러한 발언은 사회적 논란을 일으키기 십상이었다. 당시 영국 신문 '데하나리 메하나(Daily Mail)'에서도 이런 기사를 내보냈다.메르세데스벤츠는 자율주행차가 방향을 바꿔 탑승자가 다칠 위험.을 감수하기보다는 아이를 때린다고 인정했습니다.그러자 비판은 있어도 대책이 없는 게 현실이었다. 독일 연방교통부는 문화재를 피할 수 없는 귀취에서 자율주행차가 어떤 선택을 해야 옳은지 판정할 수 없다는 공식 입장을 밝힌 바 있다.글쎄, 그렇다면 역시 자네에게 질문을 하면 던져 보겠네. 이번 자네는 자율주행 개발자다. 위의 귀취에서 트롤리 딜레마가 발생한 경우 당신은 어떤 판단을 내릴 것인가? 이제 너에게는 머릿속에서만 일어나는 지적 유희가 용서되지 않는다. 개발자들은 알고리즘을 가지고 실행해야만 하기 때문에 판정하기 어려울 것이다 조슈아 그린이 증명한 이중처리 방식의 도덕적 뇌를 자율주행차에 자택에 이식한다고 해도 결론을 내릴 수는 없을 것이다. 다시 예기하고 이성적 판단과 정서적 판단을 전체 동원해도 자율주행 알고리즘은 사회적 합의를 이끌어내기 어렵다. 다만 심증만 있을 뿐 자율주행차의 윤리적 딜레마를 연구하는 라황 MIT 교수가 한 예기가 그 심증을 대변한다.사람들은 자신을 희생하는 차를 사지 않지만 다른 사람들이 그런 차를 사기를 원한다.정의란 무엇인가.


    >


    정의는 개발자의 알고리즘에 의해 실장되지 않는다. 그렇게 간단한 문제라면 영화처럼 배트맨이 슈퍼맨과 싸울 리가 없고, 아이 암만이 캡틴 아메리카의 胸살을 잡지 않았을 것입니다. 이들은 전체 정의의 편을 들었지만 각자의 신념에 따라 정의 대 정의는 얼마든지 충돌할 수 있다.트롤리 딜레마 자율주행 알고리즘 문제도 마찬가지다. 4차 산업 혁명은 인간의 철학적 딜레마를 세상 밖으로 끌어내네용앗다. 그 딜레마는, 어느 쪽이 정의라고 간단히 정의할 수는 없다. 정의할 수 없는 알고리즘은 일종의 버그이며 버그를 탑재한 자율주행차는 도로 위를 달릴 수 없다.이런 자율주행차의 윤리적 딜레마를 해결하기 위해 라판 MIT 교수는 '모럴 머신(Moral Machine)'이라는 플랫폼을 개발했습니다. 이는 다양한 딜레마를 설정하고 각 딜레마에 대한 사람들의 소견을 수렴하는 플랫폼입니다. 이처럼 다양한 딜레마에 대해 정량화된 데이터를 도출함으로써 사회적 합의를 이끌어내기 위한 노력이었다. 그 플랫폼은 약 2,600만개의 트롤리 딜레마에 대한 판단을 정량화시켰다. 그리고 탑승자와 보행자의 연령, 성별, 인종 및 행동의 변이 등 여러 변수를 넣고 있어 하나 0개의 언어를 사용하고 다양한 행정부의 400만명을 대상으로 설문 연구한 데이터를 입력했습니다.이렇게 만들어진 '모럴 머신'의 대략적인 결론은 모두 sound와 같았다. 우선 탑승자보다 보행자 안전이 우선했다. 그래서 성인보다 아이를 보호한다는 판단이 많았다. 만약 핸들을 꺾어야 한다면, 교통 법규를 지키는 통행인보다 무단 횡단 보행자를 친다고 판단했습니다. 그러자 신이 모럴 머신의 판단에도 차이점이 있었다. 이를 특정 행정부로 제한할 경우 결과가 달라 자신이 나왔다는 것이었다.예를 들어 보다 많은 생명을 구하는 방향으로 판단한다는 응답이 일반적이라면, 독일 같은 경우에는 교통 법규를 지키는 사람 하나 사람들을 피하고 무단 횡단 보행자들을 찍는다는 판단이 높은 쟈싱타했다. 이런 양상은 여러 딜레마 속에서 다양하게 자신감이 드러났다. 결국 각 국과 가장 올바른 판단의 기준은 달랐다.정의 또는 도덕적 판단은 가치와 신념을 반영합니다. 사람마다 다르며, 국물 솥이나 솥 역시 문화에 따라 다를 수 있다. 게다가 최근에도 각국에서 다른 내용의 규제와 법률이 존재하고 있습니다. 예를 들어 차량 앞에 설치하는 보조 범퍼가 그렇다. 이 보조범퍼는 충돌로부터 탑승자를 보호하기 위해 만들어졌지만 반대로 보행자는 부상 위험이 매우 높다는 연구결과도 있다. 이 보조 범퍼는 영국에서는 불법이지만 미국에서는 합법입니다. 자동차의 LED 라이트도 마찬가지여서 이는 매우 밝고 일석 운전할 때 좋지만 반대편 운전자는 눈부심이 생겨 위험하다. 이 LED 헤드 라이트는 우리 나라에서는 불법이지만, 일본에서는 합법입니다.따라서 모럴머신이 전 지구적인 자율주행차 알고리즘을 개발한다고 해도 모든 행정부에 똑같이 적용하는 것은 사실상 불가능할 수 있다. 아마 각국 가마솥마다 자율주행차의 도덕적 판단기준을 달리할 것이고, 그에 따라 행정부간에 다른 규제나 법안이 탄생할 가능성이 매우 높다. 사실 정부 간 차이도 문제지만 더 심각한 것은 어느 정부 내에서도 사회적 합의를 이끌어내기 어렵다는 점입니다.자율주행차의 가장 궁극적인 모습은 무제동차다. 어쩌면 가까운 장래에 인간의 운전이 위험하다는 이유로 전면 금지하는 법안이 통과될지 모른다. 세계 보건 기구(WHO)에 따르면 매년 세계에는 하나 25만명이 교통사 그것으로 사망하고 있다고 합니다. 만약 자율 주행 차가 상용화되면 사망자가 하나 0분의 한개 이하로 줄어들 것이라고 전문가들은 예상하고 있다. 이렇게 이상적인 자율주행 교통 시스템을 구축하여 교통사고가 없는 세상을 꿈꾸지만, 그 과정에서 택시 운전사, 버스 운전사, 트럭 운전사 등은 일자리를 잃게 될 것입니다. 아마 많은 관련자들이 파업과 시위를 통해 자율주행에 반대할지도 모른다.


    >


    자전거의 발전은 자가용에도 제약을 가하는 것이었다 이렇게 되면 도로 위 차량이 줄어 교통체증이 사라지고 주차장 부족 사건도 해결될 텐데 줄어든 차량일수록 누군가 또 손해를 보게 된다. 주차장 가게, 통행료 업체, 카센터, 운전기사 식당에 이르기까지 많은 업자와 사람들이 이런 변천에 저항할 것뿐 아니라 자율주행차가 사건을 일으켰을 때 생기는 법적인 사건도 골칫거리였다. 그것은 탑승자 때문일까, 아니면 제조사 때문일까? 고소를 해야 한다면, 어떤 고소를 해야 하는지, 그래서 보험처리는 어떻게 해야 하는지? 최근까지 몇 가지 문제로 해결 계획을 모색하고 있으나, 어려운 것이 현실이었다 어쩌면 이런 사건들이 자율주행차 기술혁신의 발목을 잡고 있다고 봐야 한다.최근까지 테슬라 구글 우버 벤츠 도요타 등이 자율주행 기술에 이미 손을 댔다. 그러나 이들 작은 기업이 속한 정부를 보자. 미쿡, 독일, 일본은 자율주행차 상용화에 가장 먼저 갈 것 같지만 현실은 여러 딜레마 속에서 사회적 합의를 도출하기까지 어려움을 겪고 있다.어쩌면 중앙집권적인 정부일수록 자율주행차의 딜레마를 해결하는 것이 가장 쉬울지도 모른다. 예를 들어 아기담 스미스가 이야기한 보이지 않는 손보다 정부의 시장개입이 더 많은 정부라면, 또는 택시기사가 시위를 벌일 수 없고 트럭운전사가 파업을 하기 어려운 정부라면 모든 법적 제도적 철학적 난제를 최고 권력자의 의사표결 한 방에 조용히 잠재울 수 있는 그런 정부. 만약 북한이 핵무기 개발을 포기하고 그만한 노력을 자율주행차에 쏟는다면 세계에서 가장 먼저 자율주행차가 상용화된 정부가 되지 않을까.공리주의가 옳은가


    >


    서기 20일 8년 7월 일 1낮 쟈싱 눙스마ー토폰 속에 다소움 긴 인공 지능 빅스비(Bixby)에 매우 매우 어려운 철학적 난제를 물어보기로 결심했습니다. 그것은 모든 인류가 한번 생각한 질문 1것이다, 트롤리 딜레마만큼 이 쟈싱 대답이 곤란한 질문이다."빅스비, 아버지가 좋아? 아버지가 좋아?" "그러자 빅스비가 대답했어요.음 부모라는 좋은 단어가 있네요.맥 빠지는 동문답이었다. 물론"후"라고 하는 아키타조도 넣어, 꽤 상념하는 흔적이 엿보였습니다. 어쩌면 인공지능에 인간의 감수성이 다소 음침한 정서적 판단을 기대하는 것은 불가능할지도 모른다.아마 인공지능은 공리주의를 내세울 것이다. "최대 다수의 최대 행복"이라는 공리주의는, 모든 판단에 있어서 계산 현실성을 전제로 합니다. 그 계산이란 손해보다 이익이 많은지를 측정하는 것이다. 이런 이유로 공리주의는 도덕철학이라기보다는 도덕과학이다 라는 거죠.윤리적 판단 근거를 비용-편익 분석만으로 이해하면 쉬워진다. 뿐만 아니라 4차 산업 혁명의 최초의 첨단 기술에 심어야 한다 도덕적 알고리즘을 적용하기에도 용이하다. 모든 사물을 통해 광범위한 데이터를 수집할 수 있는 빅 데이터 기술은 이런 공리주의적 판단에 수치화된 근거를 제시할 수 있기 때문이다.보행자와 탑승자 중 누구를 하는 것이 이익 1인지를 판단하는 것이다, 아이와 성인 중의 누구를 하는 것이 이익 1인지를 판단할 것이다. 어쩌면 아랍인이나 미국인이나 인종을 구분하는 데이터 값이 있을지도 모르고 유명인과 1반 시민 중 누구를 하는 것이 이익이 비싼지 수치화된 데이터를 제시할지도 모른다.20일 7년 8월 231세계 최초로 독 1은 자율 주행 차에 대한 윤리 지침을 발표했습니다. 독 1연방 교통성 그리고 일 4명의 과학자와 법률 전문가로 구성된 '디지털 인프라 다소움당 윤리 위원회'은 자율 주행 기술이 지켜야 할 20가지 지침을 만들었다.이 지침에서 주목해야 할 것은 인명에 대해 어떻게 만들어진 지침은 불가능하다는 이야기였다. 그것은, 연령, 성별, 인종, 장애에 대해서 우선 순위를 판단해서는 안 된다는 것입니다. 새삼스럽게 이 이야기에서 자식을 살리기 위해 노인을 죽이는 것은 올바른 판단이 될 수 없다. 이런 독 1의 가이드 라인은 인간의 존엄성에 대해서 공리주의적 판단을 차단했다는 점에서 의의가 있다. 다만 법적인 강제성은 없었다.한 가지 아쉬운 점은 트롤리 딜레마에 대해서도 판단을 유보했다는 점이다. 정이 이야기 결국 이 위원회가 고심 끝에 내린 결론은 다음과 같다.차량 시스템은 인간의 결정에 따라야 합니다.인간의 결정을 대신해야 할 자율주행차에 인간의 결정에 따르라는 다소 어이없는 결론이긴 하지만 어쨌든 인간의 존엄성과 가치판단을 아직 기계로 양보할 수 없다는 의지의 표명으로 이해해야 할 것이다.공리주의는 쉽게 계산할 수 있다는 이점이 있다. 수치화된 데이터로 무장한 공리주의는 4차 산업 혁명에 깊이 관여할지도 모른다. 그러나 우리는 모든 가치가 비용-편익 분석만으로는 환원할 수 없다는 진실을 알고 있다. 알고 있지만, 자율주행 알고리즘에 들어갈 수 있을 정도로 증명되지 않았습니다. 철학과 하면 마치 일 9세기 자신 20세기 정도에 그치는 느낌을 받기도 합니다. 그만큼 철학이 발전하지 못한 것은 아닐까. 자율주행, 인공지능, 빅데이터가 확산되는 시대이지만 아직도 우리는 아리스토텔레스 자신의 벤더 소음, 칸트, 롤스와 같은 고전 읽기 수준의 철학을 이야기하고 있습니다. 그런 철학자는 인공지능 빅스비와 대화한 경험도 없다.최 군은 그들이 남긴 철학적 유산을 4차 산업 혁명에 맞추어 발전시켜야 합니다. 가상현실과 증강현실이 인간사회에 미치는 영향을 탐구해야 하며, 사물인터넷과 빅데이터가 인권을 침해하는 것이 아니라 인권을 보호할 수 있도록 해야 하며, 로봇과 인공지능이 인간을 대체하는 것이 아니라 인간을 풍요롭게 해야 합니다. 우리가 철학적 난제를 회피하면서 과연 윤리적 딜레마를 계산하기 쉬운 공리 주의에만 의존하면서 자율 주행 차와 4차 산업 혁명은 인간에게 재앙이 될 것이다.취한 영감을 준 자료 BOOK호모 제우스(미래사)/유발 하라리/김영사/20일 7.05. 것 9BOOK, 선악/조슈아 그린/시공 회사/20일 7.02.20BOOK정의는 어느/마이클 샌델/와이즈 베리/20일 4. 하루.20SERICEO자율 주행 차가 바꾸는 한국의 도시/정 쿠민/20일 7.09. 것 8


    전편을 보다


    >



    댓글

Designed by Tistory.