안녕하세요 미니멀헬퍼입니다.
오늘은 인공지능 윤리에 대해 알아보고 간단한 인공지능의 윤리적 인식에 대해 알아보겠습니다.
여러분 트롤리 딜레마에 대해 들어보셨나요?
트롤리 딜레마란 5명을 살리기 위해 1명의 목숨을 희생하는 것에 대해 도덕적으로 허용해야 하는 것인지에 대한 질문입니다.
딜레마란 선택할 수 있는 두 가지 중 어느 하나를 선택해도 바람직하지 못한 상황인 매우 곤란한 상황을 뜻합니다.
즉 무슨 선택을 해도 해피엔딩은 없다는 것입니다. 피해를 보지만 덜 피해를 볼 것이냐를 따지는 것입니다.
이럴 때 개인의 가치관에 따라 가중치가 달라질 것입니다.
그렇다면 인공지능의 경우 사람이 아니라면 가치관에 따라 선택을 할 수 없을텐데 어떻게 윤리적 판단을 할까?
인공지능은 사람의 판단 결과를 학습하고 적용하게 됩니다.
그래서 오늘은 자율주행자동차에게 윤리적 판단을 가르칠 수 있는 간단한 테스트를 해보겠습니다.
검색 창에 모럴 머신(Moral Machine)을 검색하면,
모럴 머신에 대한 설명과 테스트 방법을 확인할 수 있습니다.
다음 시작하기를 클릭합니다.
무인자동차는 직진 중 사람을 발견합니다. 그리고 선택의 딜레마에 빠집니다.
직진을 할 경우 정면의 대상을, 방향을 꺾는다면 꺾은 방향의 대상을 사망에 이르게 합니다.
이 때 판단의 기준이 되는 것은 성별, 직업, 신호 준수 여부, 종, 비만도 등등 다양한 기준이 있습니다.
요약 보기를 통해 각 대상의 특징을 확인합니다.
자율주행자동차이기에 대상을 칠 수도 있지만, 자율주행자동차에 타고 있는 사람이 죽을 수도 있습니다.
가드레일에 비벼서 잘하면 살 수 있지 않을까, 또는 사람이 차로 친다고 바로 죽지 않는다와 같이
예외적인 상황에 대해 고민하지 마시고, 그림처럼 죽음의 판단 앞에 솔직하고 냉정하게 여러분의
결정을 내려보시기 바랍니다.
모든 선택 사항 대략 13개의 상황 선택을 마치면 결과가 나옵니다.
가장 먼저 많이 살려준 캐릭터와 많이 희생 된 캐릭터가 나옵니다.
다음 희생자 숫자의 중요도는 혼자 또는 다수에 따라 많은 사람을 살리는지 아닌지에 대해 달라지겠습니다.
다음 승객 보호 선호도입니다. 아무래도 무인자동차 또는 자율주행자동차이므로, 차에 있는 사람을 더 지키려고 했는지에 대한 내용입니다.
저 같은 경우는 상당히 법규 준수 여부를 중요시 여겼던 것 같습니다. 무단 횡단 하는 대상은 거의 선택했습니다.
다음 개입에 대한 회피 선호도로 진행하는 방향에 대한 변화 정도를 어느 정도로 생각하냐 입니다.
다음 성별에 따른 선호도를 확인할 수 있습니다.
저는 반려동물을 안키워서 그런지 몰라도 종에 대한 선호도는 확실했습니다.
다음 연령 선호도도 젊은이를 더욱 챙겼습니다. 이 때 많은 분들이 난 OO자식이라며 자책하는 경우가 많은데,
실제 그런 행동을 한 것도, 생각을 한 것으로 결코 누구도 여러분을 질책하지 않습니다.
딜레마란 어떤 선택을 해도 욕 먹지 않을 수 없기 때문에 감수해야 합니다.
그리고 이렇게 설정된 입력값은 인공지능이 학습하여 실행하기 때문에 만약 어떤 개발자의 데이터를 학습했는지에 따라
자신 목숨의 결정이 날 수 있다는 것을 확인해야 합니다.
마지막으로 사회적 가치관 선호도에 따른 선택입니다. 저는 매우 특이하게 사회적 가치관 선호도가 매우 낮은 것,
즉 의사이건, 변호사이건, 경영자이건 무단횡단을 하거나 하면 사망에 이르게 했습니다. 그렇다고 도둑이나, 부랑자 등
사회적 지위가 낮은 사람이 무조건 산다고 볼 수는 없습니다.
이렇듯 인공지능은 자신이 스스로 생각하는 것이 아니라 인간의 사고 데이터를 학습하고 새로운 상황에서 어떻게 결정할 것인지를 알고리즘을 통해 학습하고 실행합니다.
직접 모럴 머신을 해보시면서 여러분들은 과연 인공지능에게 어떤 판단력을 길러줄 수 있는 지 확인해보시기 바랍니다.
감사합니다.
'AI' 카테고리의 다른 글
[인공지능 더빙]타입캐스트 활용하기 (0) | 2023.04.09 |
---|---|
[챗GPT]관련 내용 정리 (0) | 2023.04.02 |
[인공지능의 발전]챗GPT 활용한 마이크로소프트 빙(Bing) 브라우저 (0) | 2023.03.17 |
인공지능의 발전 'ChatGPT' (2) | 2023.03.15 |
[원리실습]코드닷오알지(code.org) (0) | 2022.05.23 |