화장품/농식품 분야 AI리스크·규제 코치 와이에스엠(YSM)경영컨설팅 윤수만 윤AI세이프랩 소장 모바일 : 010-5577-2355 이메일 : marketer@jm.co.kr

Posted
Filed under AI리스크.규제관리

철학 수업에서 한 번쯤 들어보셨을 트롤리 딜레마라는 난제가 있습니다. 브레이크가 고장 난 기차가 달려오고 있고, 선로 위에는 다섯 명의 인부가 서 있습니다. 당신이 선로를 바꾸면 다섯 명은 살릴 수 있지만, 바뀐 선로 위에 있는 한 명은 희생됩니다. 당신이라면 어떤 선택을 하시겠습니까? 인간도 쉽게 답을 내리지 못하는 이 잔인한 질문이 이제는 로봇 공학자들이 풀어야 할 가장 시급한 코딩 과제가 되었습니다.

자율주행 자동차가 도로 위에서 피할 수 없는 사고 상황에 직면했을 때, 탑승자인 주인을 보호할 것인지 아니면 길을 건너던 보행자를 보호할 것인지 결정해야 합니다. 더 나아가 가정용 로봇이 화재가 발생한 집에서 거동이 불편한 노인과 겁에 질린 아이 중 누구를 먼저 구조해야 할지 판단해야 하는 상황이 올 수도 있습니다. 인간이라면 본능이나 직관에 따라 행동하겠지만, 로봇은 입력된 알고리즘에 따라 냉정하게 계산하고 행동합니다. 즉, 누군가는 로봇에게 생명의 가치를 숫자로 매겨 입력해야 한다는 뜻입니다.

리스크 관리 차원에서 이것은 기술적인 문제를 넘어선 거대한 사회적 합의의 문제입니다. 만약 제조사가 탑승자 우선 보호 알고리즘을 넣는다면 이기적인 자동차라고 비난받을 것이고, 보행자 우선 보호 알고리즘을 넣는다면 내 목숨을 지켜주지 않는 차를 누가 사겠느냐는 반문에 부딪힐 것입니다. 결국 로봇의 도덕적 판단에 대한 기준은 엔지니어 혼자 결정할 수 없으며, 법학자, 윤리학자, 그리고 시민들이 머리를 맞대고 사회적 합의점을 찾아야 합니다.

우리는 로봇이 똑똑해지기를 바라지만, 동시에 그 똑똑함이 인간적인 윤리관을 벗어나지 않기를 원합니다. 기술이 발전할수록 질문은 복잡해집니다. 과연 우리는 기계에게 어떤 도덕을 가르쳐야 하며, 그 결과에 대한 책임은 로봇에게 물을 것인가, 아니면 그것을 만든 인간에게 물을 것인가. 이것이 바로 다가오는 로봇 시대에 우리가 마주한 가장 어려운 숙제입니다.

와이에스엠경영컨설팅 윤수만 소장 (AI리스크관리/AI규제관리)