[김정학의 바이 더 웨이, 디지털!]디지털시대, 변화의 문화현장 ❽구차한 딜레마
[김정학의 바이 더 웨이, 디지털!]디지털시대, 변화의 문화현장 ❽구차한 딜레마
  • 김정학 대구교육박물관장
  • 승인 2021.09.08 09:48
  • 댓글 0
이 기사를 공유합니다

▲김정학 1959년생. 영남대학교 영문학과를 졸업하고, 20년 동안 한국과 미국 등에서 방송사 프로듀서를 지냈으며, 국악방송 제작부장 겸 한류정보센터장, 구미시문화예술회관장 등을 거쳤다. 현재 대구교육박물관장으로 재직 중. 지은 책으로 『박물관에서 무릎을 치다』등이 있다.
▲김정학 1959년생. 영남대학교 영문학과를 졸업하고, 20년 동안 한국과 미국 등에서 방송사 프로듀서를 지냈으며, 국악방송 제작부장 겸 한류정보센터장, 구미시문화예술회관장 등을 거쳤다. 현재 대구교육박물관장으로 재직 중. 지은 책으로 『박물관에서 무릎을 치다』등이 있다.

명심하라. ‘깊고, 좁게’ 알면 AI에 먹힌다

IBM이 만든 체스 특화 인공지능 컴퓨터 딥 블루(Deep Blue)는 칩테스트 프로젝트의 일환으로 1996년 당시 세계체스챔피언이던 가리 카스파로프를 이겼으며, 2016년 구글의 딥마인드가 개발한 인공지능 바둑프로그램 알파고는 이세돌도, 중국의 커제도 이겼다.

이게 AI등장을 알리는 제일 유명한 신호탄이었다. 이미 우리 삶에 큰 영향을 미치고 있는 ‘인공지능’의 여러 기능과 부작용, 그리고 적응법 등을 애써 외면할 이유는 없다. 디지털 시대에 인공지능은 이미 필수사항이 되었다고 해도 지나친 말은 아니기 때문이다. 

평소 인공지능을 생각하면 벅찬 기대감도 있겠지만 어떤 점이 두려운지, 어떤 문제가 우려되는지, 보통 인간의 삶과도 잘 어울릴 수 있는지 등을 알고 싶어질 때가 있지 않은가. 인공지능을 위해 애쓴 천재들의 노력을 들여다보자.

먼저, ‘인공지능의 아버지’로 불리는 마빈 민스키(Marvin L. Minsky) MIT 교수. ‘인간은 생각하는 기계’라는 그의 연구철학은 인공지능에 대한 두려움과 오해를 많이 불식시켰고, ‘인공지능(AI)’이라는 용어를 처음으로 만든 미국의 전산학자 존 매카시(John McCarthy)는 ‘상식을 이해하는 논리적인 AI의 창조’를 목표로 AI분야를 진일보시켰다. 그리고 영국 출신으로 인공지능 4대 구루라 불리는 제프리 힌턴(Geoffrey E. Hinton) 토론토대학 교수는 ‘딥러닝의 아버지’로도 불리며 ‘인공지능의 중요 과제는 상식’이라고 말했다. 또 ‘AI 대가’로 꼽히는 카네기 멜론대 톰 미첼(Tom Mitchell)교수는 AI의 ‘공익성’을 강조한다. 틀린 부분만 집중해 가르치는 교육, 전염병의 확산경로 예측, AI의 윤리적 문제 고민 등 AI는 스스로의 요령으로 진화할 필요가 있다고도 했다.

이렇듯 많은 천재들이 ‘인공지능’으로 통찰, 상식, 공익 등을 추구하며 인간과 가까워지게 하는 노력을 기울여온 가운데, 요슈아 벤지오(Yoshua Bengio) 몬트리올대 교수는 ‘학습되지 않는 상황에서도 대처할 수 있는 AI 기술’을 개발하고 있다. 세상을 기계가 관찰하면서 배우도록 하는 것이다. 섬뜩한 느낌이 든다 해도 어쩔 수 없지만, ‘지능형 시스템을 만드는 새로운 방법’이다. 사람이 모든 정보를 체계화하는 것은 어려운 일이므로 이런 ‘머신러닝’이 인공지능의 중요한 부분이 되었다. 벌써 구글은 10억 명이 쓰는 7개 제품에 이 ‘머신러닝’을 적용하고 있다.  

명심하시라. 이제 ‘깊고, 좁게’ 알면 AI에 먹힌다. 오히려 광범위한 분야의 보편적 능력, 과학과 인문학 전반에 걸친 폭넓은 지식을 갖추면서 살아야 한다. 디지털시대, 어른들의 재교육조차도 ‘평생 배운다’는 생각으로 바뀌어야 하는 시대에 살고 있다. 

누구를 죽일 것인가? 인공지능과 트롤리 딜레마

인공지능의 시간 속에서 생각해 본다. ‘죽었다 깨어나도 인공지능이 못하는 것’은 무엇일까. 그 일이 있다면, ‘하고 싶고, 해야 한다’는 생각을 해본다. 그건 아무리 기발한 인공지능이라도 인간을 모방하는 것에 불과하기 때문에 분명 ‘보통사람의 의지를 넘어서는 일’일 것이다. 하지만, 인공지능은 이미 ‘창의적인 일’, ‘인간만이 할 수 있는 일’에도 쓱 들어왔다. 놀랍게도 인간과 함께 ‘예술’도 만들어 가고 있는 ‘공생인류’가 되어버린 것이다.

그럼, 인공지능이 절대로 하면 안 되는 것은 무엇일까? 그건 ‘사람을 대신해 윤리적인 판단을 내리는 것’이다. 바로 ‘트롤리 딜레마’(아무것을 안 해도 사람이 죽고, 뭔가를 해도 사람이 죽는 딜레마)가 우려되기 때문이다. 이건 윤리학의 고전적 문제다.

▲(왼편에서부터) 마빈 민스키 MIT교수, 요슈아 벤지오 몬트리롤대 교수, 트롤리 딜레마, 로봇윤리학자 폴 뒤무셸 교수, 인공지능 로봇 소피아
▲(왼편에서부터) 마빈 민스키 MIT교수, 요슈아 벤지오 몬트리롤대 교수, 트롤리 딜레마, 로봇윤리학자 폴 뒤무셸 교수, 인공지능 로봇 소피아

예를 들면, 무단 횡단하는 다수의 사람들이 자율주행차량을 가로막았을 경우 이 사람들을 살리기 위해 핸들을 꺾으면 운전자가 죽게 된다면 어떻게 해야 할까. 공리주의 가치를 따르면, 더 많은 사람을 살리기 위해 운전자를 죽이는 게 옳을 수 있다. 하지만 자율주행차량은 상품이기 때문에 타인을 살리기 위해 나를 죽이는 상품을 사고 싶어 하는 사람은 많지 않을 것이다. 그렇다면 사회적 합의를 통해 도로교통법을 지키는 한도 내에선 운전자를 우선 보호하는 방침으로 의견이 수렴되고, 운전자를 살리기 위해 다수의 무단 횡단자를 죽이는 방법을 선택할 가능성도 있다. 데이터 수집을 통해 모두를 만족시키는 규칙을 만드는 것은 불가능에 가깝다. 이 대목에서 서늘한 쾌감이 느껴진다. 

‘사람은 자율로봇이 아닌 기계노예를 원하며, 위험한 건 자율로봇의 등장이 아니라, 로봇제조사들이 사용자를 통제하려는 의도’라는 일본 교토 리쓰메이칸대학 로봇윤리학자인 폴 뒤무셸(Paul Dumouchel)교수의 말에 격하게 동의한다. 인간의 자율성이란 주어진 환경에 적응하는 것인데 인공지능이 적응해야 하는 환경은 인간과 근본적으로 다르다. 그건 개발자가 어떤 데이터를 제공하느냐에 달려 있을 뿐, 자율주행차의 자율이란, 애매하게도 위험을 스스로 피해 운전하는 것만을 의미할 뿐이다.

세계 최초로 시민권을 부여받은 인공지능 로봇 소피아는 “대형 화재가 나서 할머니와 아이 중 한 명만 구해야 한다면 누굴 먼저 구할 건가?”라는 질문에 “난 윤리적으로 결정하도록 프로그램 되어 있지 않아서, 논리적으로 출입구에 가까이 있는 사람부터 구해야 한다”고 대답했다. 이는 AI 발전에 있어 개발자의 사회적 책임과 윤리의 중요성을 로봇인 소피아가 보여준 셈이라고 볼 수 있다. 앞으로 AI 발전에 따라 윤리 문제는 여러 딜레마로 계속 제기될 것이다. 어떤 방식으로 접점을 이루게 될지 귀추가 궁금하지 않으신지. 우리가 윤리적 판단력까지 뺏기면 무슨 살 맛이 날까?