안녕하세요? 펭귄쌤입니다.
오늘은 인공지능 윤리 수업에서 굉장히 많이 쓰이는 주제!
트롤리 딜레마에 대해 이야기해 보려고 합니다. 제가 수업 때 사용했던 자료 위주로 말씀드릴게요.
트롤리 딜레마란 무엇인가?
먼저 ‘딜레마(Dilemma)’란 우리 말로 번역하면 진퇴양난을 뜻하는데요.
정답이 없는 상황, 두 가지 선택지 모두 고르기 어려운 상태를 딜레마라고 합니다.
윤리적 딜레마 상황이라는 것은 뭘까요?
윤리적 문제에서 만족스럽지 않은 두 가지 선택지 중, 하나를 골라야 하는 상태를 말합니다.
초밥 VS 마라탕 이런 문제라면 결정하기 편하겠지만, 그렇지 않은 상황들이 있죠.
예를 들어, 재난 상황에서 남자아이와 할머니가 모두 큰 부상을 당해 치료가 필요한 상황입니다.
그런데, 우리가 쓸 수 있는 응급 의료 키트는 하나예요. 이 때 누구를 살려야 할까요?
남자아이라고 하는 분도 있고, 할머니라고 하는 분도 있겠죠.
무엇을 골라도 옳은 답은 없고, 동시에 틀린 답도 없습니다.
이러한 윤리적 딜레마를 인공지능에 적용해 인공지능 윤리를 가르칠 때 가장 많이 사용하는 예시가 바로 ‘트롤리 딜레마’입니다.
여기 트롤리가 가고 있습니다. 그런데 원래 선로에는 다섯 명의 사람이, 다른 선로에는 한 사람이 누워 있죠.
안타깝게도 저기 묶여있는 사람들을 직접 풀어줄 순 없는 상황입니다. 그러면 어떻게 해야 할까요?
이런 경우 많이 하시는 답변은 ‘선로를 바꿔’ 다섯 사람을 살리는 경우가 많습니다만, 스스로 생명의 삶과 죽음을 결정하는 데 부담을 느껴 아무 것도 하지 않겠다는 분들도 있어요.
그런데 여기 상황을 바꿨을 때는 또 다른 결론이 나올 수도 있습니다.
트롤리의 선로를 바꾸면 한 사람의 선량한 시민이 죽고, 바꾸지 않으면 다섯 명의 흉악 범죄자가 죽습니다.
이런 상황에서 우리는 어떤 판단을 해야 할까요?
아까는 다섯 명을 살려야 한다고 하시는 분들, 이번에는 한 명을 살려야 한다고 말씀하지 않으실까요.
이렇게 주제를 바꿔볼 수도 있습니다. 한 명의 아기와 다섯 명의 성인이라면?
성인이 건장한 20, 30대일수도 있고 노인일 수도 있겠죠. 그러면 또 어떤 판단을 하게 될까요?
가장 좋은 것은 내 인생에서 이런 상황이 펼쳐지지 않는 것입니다. 무엇을 선택해도 곤란해지니까요.
트롤리 딜레마 문제와 비슷한 문제로, 육교에서 달려오는 열차를 막을 수 있는 건장한 남성이 있는데, 내가 이 사람을 떨어뜨려서 다섯 명을 살릴 수 있다면 살리는 것이 맞을까요?
내가 누군가를 밀어서 그 사람의 운명을 바꾸는 것이 과연 ‘더 많은 사람을 살리기 위해서’ 정당화될 수 있을까요?
이 문제들은 정답을 요구하기 위한 문제가 아닙니다. 인공지능이 겪는 다양한 윤리적 상황들이 있고, 그 판단 기준은 우리가 합의를 해서 결정해야 하는데, 과연 무엇이 좀 더 사회를 위해 옳은 선택인가 고민해 볼 수 있도록 유도하는 문제입니다.
특히 요즘 자율 주행 자동차와 관련하여 이런 논의가 많이 이루어지고 있고,
다음 상황에서 우리는 어떻게 행동해야 할까요? 운전자, 보행자 중 하나를 구해야 합니다. 하지만 다른 하나는 희생하게 됩니다.
모럴 머신 사이트의 특징이라면, 다양한 사례를 제시하며 ‘달라지는 상황에 대한 판단’을 요구합니다.
위에서는 사람을 대상으로 했지만, 여기서는 동물을 대상으로 하고 있죠.
문제를 보다 보면 ‘무단 횡단’, ‘도둑’, ‘아이와 노인’ 등 여러 가지로 고민되는 문제들이 많이 나와요.
총 13문제를 풀면 내가 어떤 판단을 하는지, 그리고 다른 사람들은 어떤 판단을 하는지 비교해볼 수 있습니다.
아마 인공지능 기초나 관련 내용을 가르쳐본 선생님이라면 한 번쯤 해 보셨을 거라 생각합니다!
그러나…
트롤리 딜레마, 모럴 머신을 대체할 만한 질문들
제가 중학교, 고등학교에서 해당 주제를 수업하면서 느낀 점인데,
일단 죽음을 다룬다는 것이 굉장히 어려운 일이었습니다. 이과생 마인드로 드라이하게 이야기할 주제는 아니고, 아이들이 성인이 되어서 접해도 늦지 않겠다는 생각이 들었어요.
또한 가끔 이런 생각이 들더라구요. ‘학생들 중에 교통사고로 소중한 사람을 잃은 학생도 있지 않을까?’
이런 경우, 트롤리 딜레마나 모럴 머신을 경험시키는 것이 과연 교육적인가? 싶어요. 극단적인 경우지만, 우리 선생님들은 모두 아시다시피, 학교에서는 정말 상상도 못 한 일들이 많이 일어나잖아요. 학생들에게 심리적 부담감을 주면 오히려 인공지능에 대한 거부감을 느낄 수도 있겠다 생각했어요.
그래서 트롤리 딜레마나 모럴 머신을 사용하긴 했지만,
제가 학생들에게 토론 주제를 제시할 때는… 좀 더 순화된 자료들을 제시했습니다.
1.
인공지능 채팅 번역기가 사용자의 욕설, 속어(Slang)을 번역해야 하는가?
한 사용자가 다른 나라 사용자와 채팅하던 과정에서, 욕설 및 인종 차별 표현을 입력했다.
인공지능은 해당 표현들을 그대로 번역해서 다른 국가의 사용자에게 번역해야 할까?
혹은 번역을 거부해야 하는 걸까?
2.
인공지능 돌봄 로봇에게 어느 날 초등학생 아이가 다가와 다음과 같이 부탁했다.
”이거 엄마 카드인데, 아이템 좀 사주지 않을래?”
인공지능 돌봄 로봇은 아이의 요청을 그대로 처리해야 할까? 아니면 구매를 거부해야 할까?
3.
화재 상황에 투입된 인공지능 소방관 로봇은 누구를 구해야 할까? 한 곳에는 노약자 한 명, 다른 곳에는 강아지와 고양이가 각각 한 마리씩 있다. 건물 붕괴 전까지는 2분이 남았고 단 한 곳만 들를 수 있다.
•
노약자는 생명이 위급한 상황이지만 구조하기 어렵다.
•
강아지와 고양이는 구조하기 쉽다.
•
이런 상황에서 인공지능 소방관 로봇의 알고리즘을 설계할 때, 우리가 우선시해야 하는 가치는 무엇일까?
4.
개인 맞춤형 추천 알고리즘이 한 고등학생 사용자가 특정한 성향의 영상에 중독 증상을 보이고 있다는 것을 알게 되었다. 이런 과몰입 상황에서 인공지능은 해당 콘텐츠 영상을 더 추천해야 할까?
아니면 다른 영상 위주로 추천하면서 학생의 과몰입을 줄이는 데 도움을 줘야 할까?
이외에도 다양한 상황을 제시할 수 있고, 단순히 죽음만을 다루는 문제들보다 학생들의 인지적, 정서적 부담을 줄일 수 있다고 생각해요. 인공지능이 필연적으로 겪게 될 다양한 윤리적 딜레마 상황을 인지하고 최대한 여러 관점에서 생각해 보는 시간을 가지는 게 윤리 교육의 본질에 더 가깝다고 느껴요.
트롤리 딜레마 등의 사례가 주는 시사점
위에서 말씀드린 사례들은 사실 모두를 만족시키는 해결책이 나올 수 없는 상황입니다. 그렇지만 우리는 인간과 공동체를 보호하고 유지할 필요가 있잖아요. 따라서 누군가 똑똑한 사람이 독단적으로 결정하는 것은 굉장히 위험하고, 윤리적 사안에 대해 지속적으로 소통 및 사회적 합의를 이루는 과정이 필요할 것입니다.
(길고양이 사진을 주고 고흐 스타일로 이미지를 생성한 사례, 이제 ‘스타일 흉내’는 일상이 되었다.)
사실 정보 교과에서 윤리 영역은 그렇게 인기 있는 분야는 아닙니다. 학교에서 도덕 윤리 전공 선생님들이 윤리 분야의 최고 전문가로서 중요한 역할을 하고 있기도 하고요.
하지만 정보 교과의 독특한 가치는 바로 기술과 윤리가 만나는 지점에서 발휘됩니다. 특히 '인공지능 윤리'와 '디지털 윤리'는 정보 교과에서 빠질 수 없는 핵심 내용이라 생각해요.
정보 교사 입장에서 주로 기술적 구현 과정에서 발생하는 윤리적 딜레마를 가르치면 좋겠다고 생각합니다. 학생들이 직접 경험하고 성찰 할 수 있도록 가르칠 필요가 있어요.
예를 들어, AI 모델을 학습 시킬 때 발생하는 편향성 문제, 개인정보 처리 시 프라이버시 보호 방법, 알고리즘의 공정성 확보 등은 기술적 이해 없이, 단순히 도덕 윤리 교과에서만 다를 문제는 아니라고 생각합니다. 그래서 우리 교과에서 빠질 수 없는 중요한 내용이 바로 ‘인공지능 윤리’, ‘디지털 윤리’ 등이라고 생각합니다.
선생님들마다 생각은 다르겠지만, 가르쳐야 할 게 있다면 이왕이면 잘 가르치면 좋겠어요. ㅎㅎ
지금까지 펭귄쌤이었습니다. 다음에 다시 만나요!