:: 게시판
:: 이전 게시판
|
- 자유 주제로 사용할 수 있는 게시판입니다.
- 토론 게시판의 용도를 겸합니다.
통합규정 1.3 이용안내 인용"Pgr은 '명문화된 삭제규정'이 반드시 필요하지 않은 분을 환영합니다.법 없이도 사는 사람, 남에게 상처를 주지 않으면서 같이 이야기 나눌 수 있는 분이면 좋겠습니다."
19/12/12 22:02
제 글은 그 연구결과를 요약한 기사를 요약한 것인데 그 점을 제가 모르고 글을 썼을까요? "자율주행차 운전 시스템에는 이런 상황에 직면했을 경우 자동적으로 어떤 선택을 하도록 하는 프로그램이 내장되어 있어야 할것 같죠"의 의미와 "...프로그램 됐다"의 의미는 같지 않습니다. 해당 연구가 "AI가 자율주행차 트롤리 문제를 해결하는데 도움'이 되게 할 목적으로 이루어졌다는 사실을 염두에 두고 쓴 표현이기도 하고 그냥 일반적으로 맞는 뻔한 주장이 피력된 표현이기도 합니다. 자율주행차 운전 시스템에 비상상황시에 자동으로 어떤 결정이 내려지는 프로그램이 내장되어 있어야 하는 것은 사실이니까요.
19/12/12 22:23
사고를 피할 여력도 없는 비상 상황시에 인공지능이 새삼 안면 인식 해서 누가 노인이고 누가 어리고 각각 몇 명이고 등등등을 판단해서 누굴 죽일 지 결정할 여력이 있을 리가 없지요. 저건 그냥 윤리 덕후들의 놀이일 뿐이지 실제 자율 주행차에 그런 모듈을 탑재할 이유가 없습니다.
19/12/12 22:32
현실에서는 사유실험에서나 설문에서 가정되는 상황과 완전히 동일한 상황이 일어날 수 없을 수도 있습니다. 그러나 그렇다고 해도 그 실험이나 설문의 결과(에 대한 연구)는 그 상황과 부분적으로 유사한 실제 상황을 인공지능이 처리하는데 도움을 줄 수 있죠. 다시 말하지만 기사 제목에도 "AI가 자율주행차 트롤리 문제를 해결하는데 도움이 되게" 운운이 포함되어 있습니다.
19/12/12 22:38
The study has interesting implications for countries currently testing self-driving cars, since these preferences could play a role in shaping the design and regulation of such vehicles. Carmakers may find, for example, that Chinese consumers would more readily enter a car that protected themselves over pedestrians.
19/12/12 22:01
https://pgr21.net/freedom/79180
전에 관련 글을 올린적이 있는데요, 일단 저건 사실 자율차 문제가 아니라 그냥 사람의 윤리 관련 문제입니다. 저런거 프로그래밍 하라고 하면 자율차 제작자 분들이 째려봅니다 크크
19/12/12 22:07
제 글 제목에 괜히 '도적적 판단의 상대성'이 들어가 있는 것은 아닙니다. 물론 자율차가 도덕적 판단을 할 수는 없죠.
어떤 사람들만이 할 수 있는 것이니까요. 다만, '저건'으로 무얼 가리키는 건지 모르겠지만, 기사에서 다룬 연구라면 그 연구가 자율차 트롤리 문제 상황을 가정하고 행해진 연구인 것은 사실입니다. 기사 제목에도 "AI가 자율주행차 트롤리 문제를 해결하는데 도움" 운운 하는 구절이 들어가 있구요.
19/12/13 11:51
저도 신기합니다만, 왜 연장자를 살려야 하는지에 대한 기준이 있을것 같네요.
그것보다 중국의 경우 이미 시민레벨이 정해져있고, 모니터가 가능하기때문에 고렙은 살리고 저렙을 선택하는게 아주 쉬울수 있습니다.
19/12/12 23:11
저라면 다수,나이,성별,계층을 구분하지 않고 사람생명의 가치는 모두 최우선으로 설정하여 진로에 따라 둘중하나를 골라야한다면 두 진로 모두 피해야할 최선의 대상이기 때문에 둘중 하나의 진로결정은 랜덤으로 결정하게 설정할 것 같네요 가치판단을 아예 안하고 난수로 설정하면 소송에는 덜 피곤할거같아서 크크
19/12/13 05:13
실제로 관련된 연구가 학계에서도 꽤나 진행되고 있긴 합니다. 일일이 모든 상황에 대해서 어떻게 행동하라고 하기 보다는 학습 단계에서 도덕적 윤리적 관점에 대한 목표 설정을 하려고 하죠. 실제로 최근에 blame이란 개념을 목표 함수에 추가했더니 AI의 판단이 실제 사람에게 설문했을때 나온 것과 유사한 통계 확률로 이루어진다 라고 주장한 연구가 있었습니다.
최근 자율주행 분야는 더이상 사고율 같은 부분에서는 거의 완성되었다고 보고 피할수 없는 사고가 났을때 ai의 판단이 어떤 근거로 이루어 졌는지, 법리적 도덕적 책임소지를 어떻게 보일 것인지에 대해 초점을 맞추는 것 같습니다.
19/12/13 10:19
인공지능에게 우리는 인간처럼 판단하고 인간처럼 사고하길 바라며 인간의 판단력을 입히려고 합니다.
그렇기 때문에, 최근 기술력이 발전하며 이런 물음도 떠오르는 것이죠. 극단적인 예를 들어서(극단적인 예라고 표현하지만 사실 이 모든 상황들을 염두에 두고 개발해야 많은 리스크가 제거된, 진정한 의미의 상용화가 가능하죠) 시속 200km 로 달리다가 코 앞에서 위와 같은 상황을 마주쳤을 때, 우리는 인공지능이 어떤 판단을 하기를 바랄까요? 인간이 내릴 수 있는 판단과 너무 다른 '비인간적인' 모습을 기대하지는 않을 겁니다. 그러기 위해서 인간과 같은 판단을 하길 바래야 하는데, 결국 우리는 [인간의 의식은 저런 상황에서 어떻게 판단하게 될까요?]라는 질문으로 들어가게 됩니다. 그 질문은 인간의 (극히 짧은 시간에 판단을 내리기 때문에) 무의식과도 연결되고, 뇌신경세포의 움직임을 포착하는 뇌과학과도 연결이 되어있죠. 그래서, 우리는 인공지능을 개발해가고 있는데 역으로 컴퓨터 및 기술의 발달로 그 어느 때보다 인간(의식, 뇌과학, 신경과학 등)에 대한 연구도 활발히 진행되고 있다고 합니다. 누군가에게는(기준이 다른 분도 있겠죠!) 완벽한 강인공지능이란 인간과 완벽히 똑같아서 어느 쪽이 인공지능이고 어느 쪽이 인간인지 구분이 힘든 수준을 이야기할텐데, 그러기위해서는 그 완벽히 똑같이 만들려는 대상인 인간을 알아야 하고, 그 알아가는 과정에서 인간의 사고, 판단, 감각, 지각 등의 기능에 대해서도 상세히 연구가 되고 있다고 하네요.
|