STEPS

  • About
  • Promotion
  • FAQ
  • Notice

story

STEPS STORY와 함께 주식시장이슈와 보도자료를 만나보세요

로봇이 인류 위협? AI 둘러싼 5가지 오해

2018.02.09 | 조회수 368

네트워크로 연결된 세상에서 힘은 ‘몸’이 아니라 ‘지능’이 발휘
사진 : 이투데이
“우리가 걱정하고 대비해야 할 대상은 로봇이 아니라 인간보다 영리한 인공지능(AI)입니다.” 미국 MIT 교수 맥스 테그마크는 이렇게 주장합니다. 테그마크는 총을 들고 다니는 터미네이터 같은 로봇이 세계를 장악하는 이야기는 “정말 비현실적이고 어리석은 시나리오”라고 말합니다. 통제하고 지배하고 파괴하는 힘의 원천은 지능이라고 설명합니다.
“목숨만 살려주세요.”

로봇 아틀라스가 백덤블링에 성공하는 모습을 담은 동영상에 이런 댓글이 올라왔다. 아틀라스는 키 150㎝에 몸무게 75㎏인 이족보행 로봇이다. 아틀라스는 2017년 11월 17일 장애물을 넘어다니더니 공중에 뒤로 몸을 띄워 백덤블링을 했다. 로봇이 일반적인 사람을 능가하는 운동 능력을 보여준 것이다. 이족보행 로봇은 불과 몇 년 전까지만 해도 걷는 동작도 서툴렀다. 최근 로봇이 보여준 놀라운 발달 속도를 보면, 터미네이터 같은 존재의 등장이 머지 않은 것 아닐까?
터미네티어 Coming soon?
로봇이 아니라 인간보다 더 영리한 AI를 두려워해야.
이와 관련해 미국 MIT 교수 맥스 테그마크는 우리가 걱정하고 대비해야 할 대상은 로봇이 아니라 인간보다 영리한 인공지능(AI)이라고 말한다. 그는 총을 들고 다니는 터미네이터 같은 로봇이 세계를 장악하는 이야기는 “정말 비현실적이고 어리석은 시나리오”라고 주장한다. “할리우드 로봇들은 우리보다 별로 똑똑하지 않고 성공적이지도 않다”고 말한다.
그는 『맥스 테그마크의 라이프 3.0』에서 로봇 공포를 비롯해 AI를 둘러싼 오해를 지적하고 사실을 이렇게 설명한다.
첫째, 우리가 대비해야 할 대상은 ‘로봇’보다는 ‘인간보다 영리한 AI’이다.
둘째, 영리한 AI는 물리적인 실체 없이도 공격을 실행할 수 있다.
셋째, AI도 자체 목적을 지닐 수 있다.
넷째, 그는 사람보다 똑똑한 AI가 등장할 시기를 둘러싼 논란에 대해 정리한다.
다섯째, 초지능 AI가 탄생할 시기를 알 수 없는 상황에서 왜 미리미리 대비해야 하는지 설명한다.
아는 것이 힘!
AI의 힘은 지능에서 나온다
테그마크는 “내가 보기에 터미네이터 이야기의 위험은 그런 상황이 발생한다는 것이 아니라, AI가 제기하는 진짜 위험과 기회에서 주의를 돌려놓는다는 점”이라고 말한다. 그는 어떤 존재의 힘은 무엇보다 지능에서 나온다고 설명한다. 지능의 힘을 보여준 존재가 다름 아닌 인류다. 인류는 머리를 써서 도구를 만들어 자연을 활용함으로써 지구의 지배적인 종이 됐다. 그런데 할리우드 영화는 사람보다 영리하지 않은 로봇이 등장해 인류와 전쟁을 벌인다는 개연성이 낮은 시나리오를 전개한다.
인간과 AI의 지능 격차가 크면,
싸움이 아니라 학살로 이어질 수도
그는 코끼리와 인간의 관계를 들어 지능의 차이가 얼마나 강한 공격력의 차이가 될 수 있는지 설명한다. 인간은 지금까지 코끼리 열한 종 가운데 여덟 종을 멸종시켰고, 남은 세 종의 개체도 대부분 죽였다. 그는 “만약 관련된 나라들에서 남은 코끼리를 전부 없애버리기로 하고 공조한다면 작전은 상대적으로 빠르고 쉽게 끝날 것”이라고 말한다.
지능 격차가 충분히 크면 싸움이 아니라 학살이 벌어질 수 있다. 테그마크는 “인간보다 훨씬 영리한 초지능 AI가 인류를 몰살시키기로 결심한다면 훨씬 빠르게 해치울 것이 확실하다”고 말한다.
AI가 몸체 지니지 않고도 공격할 수 있어
무기 없이도 적을 공격할 수 있는 시나리오
테그마크는 “AI의 군사적인 측면 가운데 또 다른 흥미로운 점이 있다”며 무기도 만들지 않고 적을 공격하는 시나리오를 제시한다. AI가 사이버전쟁을 일으킬 수 있다는 시나리오다. 그는 악성코드 스턱스넷의 이란 우라늄 농축 프로그램 침투를 사이버전쟁의 ‘전주곡’으로 자리매긴다. 스턱스넷은 미국과 이스라엘의 정보 당국이 이란의 핵개발을 저지하기 위해 만들었다.
사진 : acquip
스턱스넷은 2010년 이란 나탄즈 우라늄 농축시설의 핵개발용 원심분리기 2000개 중 1000여개를 파괴했다. 이란은 부서진 원심분리기를 교체하느라 1년가량 원전 가동을 정지한 것으로 알려졌다. 이로 인해 이란의 핵개발은 2년 이상 늦춰졌다.

다큐멘터리 제작자인 제임스 배럿은 책 『파이널 인벤션』의 15장 '사이버 에코시스템'에서 다른 악성코드보다 똑똑한 스턱스넷은 '디지털 핵폭탄'이나 '일급 사이버무기'라고 불린다고 전했다.

미국과 이스라엘 정보당국의 전문가들은 이 성과를 자축했지만, 스턱스넷의 우발적인 탈출과 확산은 예상하지 못했다. 이 악성코드는 나탄즈에서 일하던 엔지니어의 컴퓨터에 숨어들었다가 그가 나탄즈를 떠나 자신의 컴퓨터를 인터넷에 연결하자 전 세계에 자신을 복제했다. 또 스턱스넷의 성공에 자극받은 여러 국가가 스턱스넷과 같은 급의 악성코드를 만들었으리라고 추정된다.
사진 : 다아이투데이
스턱스넷이 확산되면서 위험도 커졌다. 쉽게 기술을 확보할 수 있고, 필요한 지식 수준도 단순해졌다.

테그마크는 “악성코드는 적의 자율주행차를 해킹해 파괴할 수 있고, 자율비행기, 원자로, 산업 로봇, 커뮤니케이션 시스템, 금융 시스템, 전력망을 망가뜨릴 수 있으며 결국 경제를 파괴하고 방위를 무장해제할 수 있다”고 우려한다.
AI도 스스로의 목적을 가질 수 있다
목적은 인간만 설정할 수 있다는 통념에 대해 테그마크는 다음 상황을 들어 반박한다. 사람이 AI 로봇을 개발해 가능한 한 많은 양을 늑대로부터 지키라는 임무를 부여했다고 하자. 얼핏 생각하기에 이 AI 로봇은 이타적이어서 자기 보전이나 물질 획득에는 관심이 없을 듯하다. 그러나 이 로봇은 폭탄과 충돌하면 더 이상 양을 지키지 못하고, 따라서 폭탄에 몸이 날아가는 상황은 피하고자 한다. 로봇이 자기 보전이라는 하위 목적을 갖게 되는 것이다. 또 로봇은 또 호기심을 품고 주위 환경을 탐색하면서 활동에 유리한 자원을 획득하고자 한다. 그래야만 늑대의 공격을 효과적으로 막을 수 있기 때문이다. 테그마크는 “자기 보전이나 자원 확보와 같은 하위 목적을 가지는 것이 진화한 생명체만의 속성이라고 볼 수는 없다”고 말한다.
이번 세기에 인간을 뛰어넘은 AI가 등장할까?
초지능 AI가 등장할 시기는 누구도 몰라
기계가 인간의 지능을 현격하게 추월하기까지 얼마나 걸릴까? 테그마크는 “흔한 오해는 우리가 그 답을 아주 확실히 안다는 것”이라고 말한다. 오해는 두 갈래로, 하나는 인류가 이번 세기에 인간을 인간을 뛰어넘은 AI를 갖게 된다는 것이고 다른 하나는 이번 세기에는 그런 일이 불가능하다는 것이다.
테그마크는 첫째 오해에 대해 역사는 ‘기술 과대선전’으로 가득하다며 핵융합발전 등에 대한 장밋빛 전망을 예로 들었다. 이어 AI도 과거에 여러 차례 과장됐고, 이 분야 창립자들 중 일부도 AI를 과장했다는 전철을 지적했다. 둘째 오해에 대해서는 “기술 회의적 예측의 우울한 적중 실적을 고려할 때, 이번 세기에 초인간 AGI의 성공 확률이 제로라고 확언하지 못한다”고 말했다. 그는 “물리학자들은 뇌가 강력한 컴퓨터로 작동하도록 배열된 쿼크와 전자로 이뤄졌음을 알고, 우리가 그보다 똑똑한 장치를 만들지 못하게 막는 물리 법칙은 없음도 안다”고 설명했다.
언제일지 모르는 AI 시대,
왜 미리 대비해야 하나
AI 연구자들에게 지금부터 몇 년 후에 우리가 적어도 50% 확률로 인간 수준 AI를 갖게 될지 묻는 조사가 몇 차례 진행됐는데, 결론은 동일했다. 세계 주요 전문가들의 전망이 일치하지 않아, 알지 못한다는 것이다. 한편 2015년 푸에르토리코 AI 콘퍼런스에서 집계한 대답의 평균(중간값)은 2055년이었다. * 필라델피아 반도체지수는 미국 동부의 필라델피아 증권거래소가 산정해 발표하는 ‘반도체업종지수(Semiconductor Sector Index, SOX)'를 가리키는 말이다. 미국뿐 아니라 세계적인 반도체업종지수로 여겨지고 있으며 국내 반도체기업 주가의 나침반 역할을 하고 있다.
초지능 AI 등장 즈음에 AI 안정성 연구 착수하면 늦어
AI 연구자들은 기계가 인간보다 영리해지는 상황이 이번 세기에 발생하지 않으리라고 100% 확신하지 않는 한, 결국 발생할 상황에 대비하기 위해 당장 AI 안전성 연구를 시작하는 것이 현명하다고 주장한다. AI 안전성 문제 중 많은 것들이 매우 어려워 해결하기까지 수십 년이 걸릴 것이기 때문이라고 설명한다. 초지능 기계가 가시권에 들어왔을 때 비로소 AI 안전성 연구에 착수해서는 너무 늦은 때일 공산이 크다는 얘기다.
close

Q&A

STEPS 앱 이용 시 궁금한 사항을 언제든 문의 하실 수 있습니다.
@
  • * 고객님들께서 전달해 주신 내용은 담당자 확인 후 이메일로 신속히 답변 드리겠습니다.
  • * 개인정보의 보유 및 이용기간 등: 당사가 본 답변을 위한 목적과 관련하여 수집한 개인정보는 관계법령 등의 규정에 의하여 기록ㆍ보존 되고, 기간이 경과할 경우
    「개인정보보호법」등에서 정하는 바에 따라 파기됩니다.또한 본 건과 관련하여 제공한 개인정보는 당사의 마케팅 등에 활용되지 않습니다.
  • * 개인 메일 계정의 스팸 필터 기능에 따라 답변 메일이 수신되지 않을 수 있습니다.
  • * 메일 수신이 원활하지 않을 경우 고객지원센터로 연락 부탁 드립니다. (고객지원센터 080-851-8282 | AM 07:30~PM 06:00 | 주말, 공휴일 휴무)
닫기