누구를 살릴 것인가? AI의 고민
상태바
누구를 살릴 것인가? AI의 고민
  • 투이컨설팅
  • 승인 2017.10.24 05:34
  • 조회수 2649
  • 댓글 0
이 콘텐츠를 공유합니다

투이컨설팅 강지석 수석컨설턴트 
 


 

AI(Artificial Intelligence)는 데이터를 학습하여 의사결정 방식을 배운다. 기계적인 학습으로 내려진 의사결정은 위험하지 않을까? AI가 운행하는 자율주행자동차는 충돌 사고를 피해야 하는 상황이 주어졌을 때, 인도로 돌진하여 더 큰 희생을 내지는 않을까? AI가 윤리적으로 올바른 의사결정을 내리게 하기 위해서는 어떤 방법으로 학습시켜야 할까? 전문가들은 AI 시스템에 윤리적, 도덕적인 근간을 제공하는 최선의 방법을 고려하기 시작했다. 사람들이 내리는 결정을 배우면서 AI가 윤리 기준에 따라 판단할 수 있도록 가르쳐 보자는 생각이다.

실험실에서 만드는 MORAL MACHINE
MIT 대학은 인공지능과 윤리에 대한 연구로 실험 참가자들에게 절체절명의 순간에 자율주행차가 어떤 선택을 해야 하는지 선택하도록 하였다. 참가자들은 희생자 숫자, 승객 보호 선호도, 법규 준수 여부, 개입에 대한 회피, 인종, 연령, 체력, 사회적 가치관의 9가지 분야의 13가지 문항에 대하여 답을 하였다. AI는 사람들의 응답 결과를 학습하여 도덕적 판단을 배우도록 한다는 것이다.

이는 대다수의 사람들은 윤리적으로 선하며, 이들의 의사결정 방식에 따르면 마찬가지로 선한 의사결정을 내릴 수 있다는 가정을 하고 있다. 윤리 기준으로 옳고 그름을 다수의 선택으로 정할 수 있다고 보는 것이다. 더 나아가서, ‘Moral Machine’은 시나리오에 설정되지 않은 상황이 발생했을 때도 사람들의 선택을 예측하여 적용할 수 있도록 연구가 진전되고 있다. 연구진들은 투표 기반의 윤리 결정 시스템이 AI가 도덕적 의사결정 문제를 해결할 수 있는 방법임을 증명하길 원했다. Moral Machine’의 데이터에 표현되어 있는 집단 윤리적 직관을 알고리즘으로 만들 수 있다고 생각한 것이다. 민주주의 방식으로 AI가 윤리적 의사 결정 문제를 해결하는데 도움이 될 수 있다는 접근법을 제시했다는 점에서 가치가 있다.

[참고] Moral Machine - http://moralmachine.mit.edu/hl/kr
[참고] A Voting-Based System for Ethical Decision Making - https://arxiv.org/pdf/1709.06692.pdf

크라우드소싱으로 구축하는 플랫폼
문제에서 주어진 두 가지 대안 중 하나를 도덕적 기준에 따라 선택하게 한다는 아이디어는 AI를 위해 처음 개발된 것은 아니다. 토마스 아퀴나스(Thomas Aquinas, 1224년 ~ 1274년)가 제시한이중 효과의 원리라는 전통 윤리 방법론을 적용한 것이다. 트롤리가 고장 났을 경우에 누구를 살리는 것이 도덕적으로 올바른 판단인가 하는 문제로 오랜 시간 동안 윤리학에서 논의되던 문제를 해결하기 위한 방법이다. MIT 대학의 연구에서 새로운 부분은이중 효과의 원리'를 머신러닝에 도입했다는 것이다.

듀크 대학의 연구팀을 비롯한 다른 전문가들은 AI 윤리 문제에 대한 최선의 방법은 AI가 윤리적 결정을 내리는 방법을 설명하는 일반적인 플랫폼을 만드는 것이라고 생각한다. 이 연구자들은 ‘Moral Machine’이 자율주행차와 같이 다양한 문제에 대하여, 군중의 집단적이며 도덕적인 견해를 종합하여 만든다면 개인이나 기업이 만드는 것보다 나은 시스템이 될 것이라고 믿는다.

그러나, 크라우드소싱(crowd sourcing) 된 도덕성이 절대 안전한 것은 아니다. 하나의 샘플 그룹은 다른 그룹에 존재하지 않는 편향된 성향을 가질 수 있으며, 같은 데이터를 사용한다고 하더라도 다른 알고리즘을 적용하면 다른 결론에 도달한다. 2016 3월 마이크로소프트는 사람과 대화를 나누며 인간의 언어를 학습하는 인공지능 챗봇 태이(Tay)를 트위터 등에 선보였다가 16시간 만에 이를 중단시켰다. 악의적 이용자들이 각종 차별적 발언과 욕설, 자극적인 정치적 발언 등을 학습시켜 태이가 윤리적으로 잘못된 반응을 보였기 때문이다.

 

4차 산업혁명과 AI
OpenAI의 공동 위원장인 Elon Musk는 윤리적 AI를 만드는 것은 정부로부터 명확한 지침이나 정책이 필요하다고 믿고 있으며, 정부와 기관들도 느리지만 정책에 대해서 고민하고 있다. 독일은 세계 최초로 자율주행차에 대한 윤리 지침을 제정하였고, 미국의 연구기관 해스팅스 센터(Hastings Center)는 “4차 산업혁명의 4대 윤리 문제”를 제기하였으며, 구글의 모회사인 알파벳의 AI 회사인 ‘DeepMind’에는 기술이 우리의 삶의 방식에 미칠 수 있는 영향에 대한 질문에 답변만을 담당하는 부서가 있다.

4차 산업혁명은 우리에게 긍정적인 큰 변화를 줄 것임은 확실하다. 일각에서는 규제가 기술의 발전 속도를 따라갈 수 없으므로 기술을 허용하고 문제가 발생한 부분을 보완하는 네거티브 방식의 규제 변화를 주장하고 있다. 그러나 AI의 의사결정 관련 제도 문제는 이런 방식은 적합하지 않다. 제조업체 생산라인에서 화재가 발생했을 때, 사람을 먼저 구할 것인가 아니면, 설비 및 원자재 손상을 최소화할 것인가의 가치 판단 기준에 따라 결과는 판이하게 다를 것이기 때문이다.

국가 및 산업 차원에서 이러한 문제를 사전에 연구하고 정리해야만 AI 적용을 확대할 수 있다. 도덕과 윤리 기준은 어느 특정 집단의 이익이나 가치관에 따라 결정될 수는 없다. 국가 차원에서 공동체의 공감과 수용을 필요로 한다.

[
참고] 4차 산업혁명의 4대 윤리 문제 - http://www.businessinsider.com/ethics-and-the-technology-industrial-revultion-2016-11
[
참고] DeepMind - https://deepmind.com/blog/why-we-launched-deepmind-ethics-society/


- -

 

 

 

※ 위 내용은 '투이톡' 모바일 앱을 통해서도 확인하실 수 있습니다.
하루 5분, 스마트해지는 시간~투이톡!!

앱 다운로드

 

댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.