“터미네이터는 먼 얘기 … 당장은 AI 장착된 드론이 더 걱정”

PDF인쇄기사 보관함(스크랩)

‘인공지능 무기화’ 반대 왈시 교수
테러리스트 쉽게 악용할 수 있어
생화학 무기처럼 글로벌 규제 필요

토비 왈시

토비 왈시

“인공지능(AI) 자율 무기는 한반도 평화에도 위협이 될 수 있다.”
 
토비 왈시(54·사진) 호주 뉴사우스웨일스대 교수는 21일 서울 웨스틴조선호텔에서 열린 세미나에서 이렇게 말했다. 과학기술정보통신부와 한국과학기술원(KAIST)이 주최한 국제 세미나 ‘인공지능 길들이기’에서다. 왈시 교수는 지난 4월 KAIST의 인공지능 무기연구를 문제 삼으며 공동 연구 보이콧을 선언한 바 있다. 그가 주도한 보이콧에는 30개국 50여 명의 학자가 참여했다. 공동 연구 중단 선언은 영문 기사 번역 오류에 따른 해프닝으로 결론이 났지만, 인공지능 무기화에 대한 윤리적 문제를 던졌다. 왈시 교수의 한국행은 신성철 KAIST 총장의 주선으로 성사됐다.
 
왈시 교수는 “인공지능 무기를 얘기할 때 우리는 흔히 영화 속 터미네이터를 상상하지만, 이는 아주 먼 미래”라며 “지금 걱정해야 하는 건 아프가니스탄 등에서 군인들이 사용하는 반자율 드론 기술”이라고 강조했다. 그러면서 “인공지능 기술이 적용돼 완전 자율 드론이 나오게 되면 인공지능 무기화에 대한 우려는 더욱 커질 것”이라고 말했다.
 
그는 인공지능 자율 무기가 가져올 디스토피아를 그렸다. 그는 “인공지능이 적용된 자율 살상 무기는 전쟁터에서 24시간 사용될 가능성이 있다”며 “기술 발전으로 한 명의 프로그래머가 다량의 자율 무기를 작동시킬 수 있게 될 수도 있다”고 우려했다.
 
왈시 교수는 “인공지능 자율 무기가 테러에 활용되는 것을 막을 수 있는 방안을 고민할 시점”이라고 말했다. 그의 지적처럼 미국은 2001년부터 무인기인 드론을 테러리스트 암살에 활용하고 있다. 왈시 교수는 2015년 인공지능 국제회의에서 인공지능을 활용한 군사용 자율 로봇 상용화에 반대하는 성명서 작성을 주도한 전력이 있다. 일론 머스크 테슬라 최고 경영자(CEO)와 스티브 워즈니악 애플 공동 창업자와 올해 3월 숨진 스티븐 호킹 교수 등이 이에 서명했다. 그는 이날 킬러 로봇 규제 강조성에 힘을 실었다. 왈시 교수는 이날 세미나에서 “한반도 비핵화 스케줄이 조만간 명확해질 것이지만 세계적으로 테러가 꾸준히 이어지는 등 완벽한 평화가 찾아오진 않았다”고 주장했다. 그러면서 “생화학 무기에 대한 규제를 만든 것처럼 민간 기업이 킬러 로봇을 생산하지 못하게 하는 세계적인 규제를 만들어야 한다”고 덧붙였다.
 

실제로 미국과 중국 정부는 인공지능을 결합한 킬러 로봇에 대한 연구를 꾸준히 이어오고 있다. 그런 가운데 구글은 이달 초 인공지능 비즈니스 윤리 지침을 발표했다. ▶무기 개발에 인공지능 기술을 제공하지 않고 ▶인권 침해 감시에도 활용하지 않는 내용을 지침에 담았다. 구글은 미국 국방부와 협력해 드론이 촬영한 영상을 인공지능으로 분석하는 메이븐 프로젝트를 진행했는데 이에 대한 직원들의 문제 제기가 이어지며 내년 3월 프로젝트를 그만두기로 결정했다. 윤리 지침은 이런 과정을 통해 마련됐다. 왈시 교수는 “구글이 발표한 인공지능 윤리 지침은 가이드라인을 감시할 수 있는 독립기관이 빠져 있어 부족하다”며 “윤리 지침에는 이런 내용이 담겨야 한다”고 지적했다.
 
그는 KAIST에 대한 보이콧에 대해서도 입을 열었다. 왈시 교수는 “언론 보도를 통해 KAIST가 유엔(UN)이 금지하는 자율 살상 무기를 연구하려는 것이라고 생각했다”며 “하지만 인간이 통제 가능한 범위 내에서만 연구를 진행하겠다는 서한을 받고 보이콧을 철회하게 됐다”고 설명했다.
 
강기헌 기자 emckk@joongang.co.kr



[출처: 중앙일보] “터미네이터는 먼 얘기 … 당장은 AI 장착된 드론이 더 걱정”

+ Recent posts