본문 바로가기
시사/보도

인공지능의 역습? 그보다 사람이 문제다!

by 생각비행 2017. 6. 27.

"나라면 전승할 수 있다"고 큰소리쳤던 커제는 인공지능 알파고와의 바둑 대결에서 3연패를 당하고 끝내 눈물을 흘렸습니다. 바둑 세계 랭킹 1위였던 중국의 커제가 인공지능에 패하자 인터넷 커뮤니티에서는 이러다가 인류사에서 인공지능에게 승리한 마지막 인간이 이세돌이 되는 거 아니냐는 얘기까지 돌았습니다.



출처 - 아주경제


커제의 완패는 조금만 생각해보면 당연한 일입니다. 지금까지 인간 바둑 기사들이 쌓은 전체 기보가 16만여 개에 머무르는 반면 알파고는 이번 커제와의 대국에 임하면서 일부러 인간 기보 데이터를 빼고 인공지능끼리의 대국으로 3000만 개 이상의 기보를 축적한 상태였습니다. 짧은 시간에 알파고가 압도적인 성과를 올린 것은 인간의 지력과 비교 자체를 불허하는 자기 학습 덕분입니다. 커제에게 완승한 인공지능의 압도적인 기량을 보면서 이젠 정말로 4차 산업혁명 시대의 서막이 올랐다는 생각을 하는 분이 많으실 겁니다.


물론 인공지능은 특정한 분야에 국한해서만 그 성능을 선보이기 시작한 수준입니다. 하지만 그 발전 속도는 무섭죠. 레이 커즈와일이 2045년 기술적 특이점이 오면 인공지능은 더 이상 인간이 감히 도달할 수 없는 차원으로 도약하리라 예측했는데 벌써 수긍할 만한 일들이 여기저기서 들려오고 있습니다.


인공지능이 뭔가 대단한 일을 하고 있는 듯하지만 사실은 인간이 쌓아놓은 데이터를 토대로 움직이는 것입니다. 그런데 바로 이 지점에서 때때로 섬뜩한 일도 벌어집니다. 인공지능이 인간들의 편견까지 학습하기 때문입니다.



출처 - 서울신문


글로브(GloVe)라는 유명한 AI 알고리즘을 활용해 연구를 진행한 미국 프린스턴 대학 연구팀은 최근 발표한 논문에서 인공지능이 인간 언어를 학습하는 동안 사회적 편견까지 덩달아 학습할 수 있다고 발표했습니다. 글로브는 인터넷상에 퍼져 있는 텍스트들을 분석하고 인간 언어를 이해하는 딥러닝 AI 알고리즘입니다. 이 알고리즘은 인터넷에 올라온 글의 통계적 데이터 분석을 통해 인간의 중간 개입 없이 텍스트를 스스로 학습하고 각 단어 사이의 의미적 연결성을 스스로 파악할 수 있습니다.



출처 - 한겨레


그런데 문제는 인간이 생성해놓은 텍스트를 기반으로 학습한 이 인공지능이 인종차별이라는 인간의 편견까지 학습하기 시작한 겁니다. 예를 들어 유쾌함(pleasant), 불쾌함(unpleasant)의 두 그룹으로 단어를 분류하는 실험에서 꽃은 유쾌함으로, 벌레는 불쾌함으로 분류했습니다. 이런 실험을 인간에게까지 연장해보니 흔히 백인 이름으로 쓰이는 에밀리나 맷은 유쾌함으로 분류했는데 흑인에게 주로 쓰이는 이름인 에보니, 자말은 불쾌함으로 분류했다고 합니다. 이는 인공지능이 인간 언어를 학습하면서 부정적인 편견까지 그대로 학습했음을 방증합니다.



출처 - 로봇뉴스


사실 이런 일이 처음은 아닙니다. 이보다 먼저 마이크로소프트의 트위터 AI 테이(Tay)는 인터넷에 확산된 인간 언어 습관을 학습하고 이를 공유하는 인공지능이 있었습니다. 테이가 막상 작동을 시작하자 사용자들의 질문에 백인우월주의, 흑인 비하, 대량학살 옹호 등을 일삼아 마이크로소프트가 황급히 서비스 자체를 종료해버린 적이 있습니다.



출처 - 위키피디아


인간의 언어를 중심으로 한 문제는 인공지능 연구에서 큰 화두 중 하나입니다. 2017년 현재 전 세계 295가지 언어로 총 4400만 건 이상의 기사가 공개된 위키피디아에도 그런 문제가 있었습니다. 위키피디아는 기본적으로 그 기사에 관심이 있는 사람이 직접 작성과 수정을 하고 있지만, 방대한 규모 때문에 기사 편집 작업의 일부를 자동화된 소프트웨어, 이른바 봇(Bot)이 담당하게 하여 효율을 높이고 있습니다. 양적으로 봇은 인간의 0.1퍼센트에 불과하지만 위키피디아 전체 편집 작업의 15퍼센트 정도를 담당할 정도로 뛰어난 작업 효율을 자랑합니다.


그런데 옥스퍼드 대학교가 2001년부터 2010년까지의 위키피디아 편집 이력을 분석한 연구 결과에 따르면, 봇끼리 서로의 편집 작업을 삭제하는 싸움을 벌이는 사례가 적지 않다고 합니다. 사람이라면 자기가 작성한 글이 반복해서 삭제되고 반려된다면 그 이유를 알아보고 토의를 통해 타당한 결론을 도출했겠지만, 당시 봇에는 이런 기능이 없었습니다. 이론적으로 봇끼리는 편집을 두고 싸움이 일어나지 않아야 했기 때문이죠. 하지만 연구 결과 이 싸움은 여러 가지 언어를 관통하는 주제에 대해 일어나는 경우가 많았다고 합니다. 예를 들어 한 기사의 특정 단어에 대해 링크가 있다면 봇끼리 영문 정보 링크가 정답이다, 일문 정보 링크가 정답이다를 두고 싸운 겁니다. 언어의 차이가 맹점이 되어 예상치 못한 사태가 일어난 것이죠. 다행히 이런 현상은 2013년 다른 언어 간 링크를 보조하는 위키데이터가 세워진 후 사라졌다고 합니다.



출처 - 이데일리


옥스퍼드 대학교의 연구 결과 언어에 따른 봇의 행동 경향 차이도 드러났습니다. 이는 각각의 봇이나 봇이 동작하는 환경의 이면에 인간 설계자가 존재하기 때문에 발생하는 일입니다. 인공물인 인공지능이 인간 문화를 체현하고 있다는 것이죠. 인류 역사 속에 나타나는 신화를 보면 늘 인간은 조물주인 신을 닮아가려고 합니다. 인공지능이 자신의 조물주인 인간을 닮아가려고 하는 것은 어쩌면 당연한 결과가 아닌가 합니다. 

 

인공지능 기술의 등장으로 사람들은 자신의 일자리가 사라지지 않을까 두려워합니다. 실제로 인공지능의 등장으로 사라질 일자리에 대한 다양한 분석 자료가 우리의 일상을 위협하고 있습니다. 하지만 기술의 발전으로 말미암아 감소하는 일자리를 걱정하여 연대해야 할 대상을 경쟁자로 생각하는 일은 없어야 하겠습니다. 과학기술의 발전이 기존 일자리를 다소 감소시킬 수 있겠으나, 그와 반대로 새로운 일자리를 창출하는 여지도 함께 존재합니다.

 

일자리가 줄어든다는 공포보다 더 심각한 문제는 인공지능 같은 유행에 함몰되어 기계화 기술의 등장으로 우리의 고용 형태가 악화되고 있다는, 하청사회의 진실을 보지 못하는 것입니다. 기존의 일자리 파이가 줄고 그 줄어든 파이를 차지하기 위해 '을들'은 서로 치열하게 경쟁해야 한다, 결국 문제는 개인이 해결해야 한다는 이데올로기를 유포하는 세력이 우리 사회의 '갑들'이 아닌지 돌아보아야 합니다. 이와 관련해 상세한 내용은 생각비행이 펴낸 책, 《하청사회》를 참고하시기 바랍니다.

 

 

인공지능이 우리의 삶을 위협할까 걱정하기 이전에 인공지능 기술을 개발하는 사람과 기업의 문제를 더 근본적으로 봐야 하지 않을까요? 앞서 인공지능이 인간의 편견을 학습했다는 사실을 통해서 우리가 성찰해야 할 대목은 인공지능 기술 그 자체가 아니라 사람들이 만들어내는 문화 속에 있는 차별 혹은 추악한 욕망에 대한 경계가 아닐까 합니다.

 

'갑'을 더 부자로 만들어주는 기술을 만들지, '을'을 자유롭고 풍요하게 만들어주는 기술을 만들지는 인공지능이 아닌 인간의 문제입니다. 우리 속에 내재한 편견을 깨고 화합하는 세상을 위해 노력한다면 인공지능에 의해 내 일자리가 사라질 것을 고민하는 일은 줄어들 겁니다. 인공지능 같은 신기술에 대한 걱정보다 우리에게 시급한 일은 하청사회를 살아가는 '을들'의 단단한 연대가 아닐까 합니다. 인공지능 기술이 지속가능한 갑질의 조건이 되지 않도록 하기 위해서 말입니다.

 

댓글