인간이 상상하는 AI(인공지능)의 가장 불행한 미래는 터미네이터를 탄생시킨 영화 속 스카이넷일 것이다. 스카이넷은 인간이 만든 AI 네트워크지만 결국 인간 사회를 파괴시킨다. AI가 무서운 속도로 우리 생활 속을 파고들면서 그동안 상상 속에서만 존재했던 영화 같은 이야기들을 실제 우려해야 하는 시대가 됐다.
AI가 체스를 두고 얼굴을 인식하고 데이터를 분석하던 단순한 시대에서 이제 인간의 재산 그리고 삶과 목숨까지도 결정하는 새로운 AI 시대가 도래하고 있다. 인간이 원하든 원하지 않든 AI는 사람을 대신해서 그 판단과 결정을 해야 하는 시대가 온 것이다. AI의 종의 기원이 시작되고 있는 것이다.
만약 성인 남자 2명을 태운 자율 주행차가 도로를 달리던 중에 갑자기 초등학생 여자아이 2명이 뛰어들었다면, 자율주행차의 AI는 어떤 선택을 할 것인가? 앞으로 살아갈 날이 많은 초등학생들을 살리고 성인들을 죽게 할 것인가? 원인 제공자인 초등학생들을 죽게 할 것인가? 살아갈 날이 가장 적은 노인들을 죽게 할 것인가? 아니면 여성들을 살리고 남성들을 죽게 할 것인가?
최근 아마존은 2014년부터 사용해 온 AI 채용을 중단했다. AI가 남성지원자들만 채용할 후보로 제시했기 때문이다. AI는 지난 10년간 회사가 채용한 이력서를 학습하다 보니 남성들에게 가점을 더 주기 시작한 것이다. 국내 AI 스피커는 대부분 자신을 여성으로 인식해 양성 평등에 대한 사회적 물의를 일으키기도 했다.
가장 가까운 시기에 도래할 자율주행차의 규율은 자율주행차가 상용화되기 전에 선결돼야 할 핵심적인 과제이다. 또 자율주행차 이외에도 가까운 미래에 인간에게 다가올 AI로는 군사로봇과 섹스로봇 등이 있다. 군사로봇의 윤리는 어디까지 지켜야 할까? 어느 정도 범위까지 기술적 위임과 책임을 지워야 하는가? 섹스로봇은 윤리적으로 타당한가? AI가 발달하면서 끊임없이 고민하고 풀어야 숙제들이다.
많은 학자들은 대형 검색 포털이나 SNS가 개인 취향에 맞는 콘텐츠를 추천해주는 AI 알고리즘은 자기주장이 옳다고 믿게 하는 ‘확증 편향’ 증세를 일으킬 수 있다고 경고하고, AI의 판단을 맹신하면 안 된다고 경고하고 있다. 노스캐롤라이나대 제이넵 투펙치 교수는 “페이스북 등 거대 인터넷 기업들의 알고리즘이 사용자들에게 극단적이고 편향된 정보를 추천해 사회적 갈등을 부추겼다”고 주장한다.
또, 조지아텍 마이클 베스트 교수는 “AI이 고릴라와 바나나를 구분할 수 있는 방법은 고릴라와 바나나의 특징을 나타내는 이미지 데이터를 반복적으로 학습시켜 얻은 것이다. 이런 반복적인 훈련에 의해 인식율을 높이는 것은 편견을 만들고 왜곡된 결과를 도출할 수도 있다”고 지적했다.
즉, AI의 학습에 활용되는 데이터 세트 수가 부족하거나 공정하지 않을수록 얻어진 결과는 편협해지고 이로 인해 인종차별과 성별차별 등 AI의 판단에 편견이 생길 수 있다는 지적이다. 우리가 공정하고 객관적이라고 믿어야 하는 AI의 판단이 심하게 왜곡될 수도 있다는 것이다.
인하대 철학과 고인석 교수는 “우리는 기중기가 물건을 들어 올리는 능력에서 인간을 뛰어넘었다고 생각하지 않는다. 그 이유는 첫째, 기중기는 인간이 만든 도구로 인식됐고 둘째, 초인적 작용의 과정이 합리성의 수준에서 이해되기 때문”이라고 말했다.
AI 체계나 AI 로봇도 이 기준에 부합하게 적용해야 한다고 주장한다. 즉, AI는 우리가 만든 도구라는 점을 정확히 인식하고 작동원리를 이해해 제대로 제어할 수 있다면 AI는 기중기처럼 인간이 만든 도구로 인식될 것이라고 주장한다.
만약 브레이크가 고장 난 차가 행인들을 칠 상황이라면 누구를 구할 것인가? 미국 메사추세츠공대(MIT) 미디어랩은 ‘트롤리 딜레마’ 실험에 참여한 200만명의 응답을 분석한 결과를 발표했다. 결과에 따르면 남성보다 여성, 한 명보다는 여러 명, 나이가 더 어릴수록 구하는 쪽으로 의견이 모아졌다. 앞으로 자율주행차 시대에 이 규율을 적용한다면, 노인일수록, 혼자 다닐수록, 남성일수록 차에 치일 가능성이 더 높아지는 것이다.
미국에서는 한 해 약 3만5000명이 도로에서 교통사고로 사망한다. 이 가운데 94%는 사람의 실수나 선택에 의한 것이다. 많은 사람들은 적어도 AI가 사람보다는 객관적으로 더 좋은 판단을 할 것이라고 믿는다. 인류가 가장 우려하는 AI 분야는 군사로봇이다.
군사로봇은 인간 개입 없이 독자적으로 전투를 수행할 수 있다. 군사로봇은 국제인권기준법을 피해 인간을 살해할 수 있다는 것과 대량학살 등 전쟁 범죄를 저지른 경우 책임의 소재가 불명확하다는 점도 우려의 대상이 되고 있다.
이제 AI의 판단과 윤리 규율 문제는 이제 피할 수 없는 대상이 됐다. AI 윤리 규율은 AI를 도덕적 행위자로 볼 수 있는지에 대한 이슈와 AI가 금전적 손해나 신체적 상해를 입혔을 경우 책임 소재가 누구인지 대한 것이 핵심이다.
AI 윤리 규율을 떠나 앞으로 인간보다 더 객관적이고 합리적으로 판단을 하는, 우리가 공정하고 공평하다고 믿을 수 있는, 어쩌면 인간보다도 더 인간적인 AI 시대가 오기를 이기적인 인간으로서 기대해 본다.