어떻게 AI 악용을 사전에 방지 할 수 있을까?

in #kr-newbie7 years ago

AI를 다루는데 있어서 AI에 대한 악용에 대한 가능성에 대해 언급하지 않을 수 없는데요. 우리에게 편리함을 가져다 주는 만큼 AI의 악의적인 사용에 대해서도 미리 예측하고 준비해야 합니다. 그렇다면 이 부분에 있어서 우리는 어떻게 접근할 수 있을까요? 이번 블로그는 영국 옥스포드 대학 연구결과를 바탕으로 한 보고서관련 내용을 포스팅하고자 합니다. 이 보고서는 14개의 기관과 26명의 저자들의 몇 달 동안의 연구를 통한 결과물인데요, 인공지능에 잠재적인 보안이슈를 담고 있습니다. 미국의 보안 및 오픈 AI로 인한 실존 위험성 등을 연구하는 Future of Humanity Institute (미래 인류 연구센터)의 대표자들 또한 저자로 참여했는데요, 그들은 AI가 현존하는 본질 및 범주를 침해할 뿐만 아니라 우리가 미래에 직면할 위협이 될 수 있는 범위 조차 바꿔놓을 것이라고 말합니다. 그들은 AI로부터 얻을 수 있는 여러 가지 응용 분야에서의 혜택에 대해서 긍정적으로 평가하고 있지만 이번 보고서에서는 AI에 잠재된 보안성의 문제에 더 초점을 맞추고 있습니다.

여기서 중요한 것은 이 보고서는 아주 먼 미래에 '일어날 수 있는'가능성에 대한 것이 아닙니다. 이미 현재 사용하고 있거나 향후 5년후에 사용할 기술을 대상으로 하고 있으며 그렇기 때문에 이 보고서에 힘이 실리고 있습니다. 기술이 기하 급수적으로 발전하고 있기 때문에 우리는 위험의식을 가지고 이에 대한 '대비'를 위한 조치를 취해야 합니다. 인공지능 전문 기자 Dave Gershgorn은 "'AI가 선한 사람들에 의해 발전되었다고 하더라도 이것이 악한 사람들에게도 또 다른 진보가 될 수 있다."라고 말합니다. AI 시스템은 기존 도구보다 훨씬 효율적이고 확장성이 좋습니다. 하지만 반면 인공 지능의 사용은 익명성이 부여됨으로써 심리적으로 개인의 행동과 범죄와 폭력 행위 사이의 장벽을 낮춰주는 역할을 하기도 합니다. 또한 인공 지능 시스템은 데이터 포이즈닝 및 설계상의 결함이 이용당할 수 있는 AI만의 취약점을 가지고 있습니다. 인공 지능을 기반으로 한 공격은 더 효과적이며, 정교하게 타겟팅되고, 특성화하기가 더 어려워 기존의 사이버 공격보다 월등합니다. 하지만 우리가 대비 해야 하는 '위험'은 해킹에 국한되지 않습니다. 여기서 제안하고자 하는 보안 영역에는 3가지가 있는데요, 사이버 공격과 같은 디지털 보안, 무인 항공기 및 기타 물리적 시스템으로 공격할 수 있는 물리적 보안 그리고 정치적 선동을 도발하는 정치적 보안입니다. 어떻게 보면 서로 중첩되어있을 수 있지만 3가지 영역으로 나눔으로써 더 구체적으로 접근할 수 있을 것으로 보입니다.

이 3가지 영역에서의 AI의 악용을 대비하기 위해 어떤 일을 할 수 있을까요? 보고서에 따르면, 연구원들과 정책 입안자가 미래에 발생할 수 있는 가능성에 대해서 논의하고 가장 위협적으로 다가올 수 있는 부분을 찾아 방법을 함께 모색하는 것이 필요하다고 말합니다. 예를 들어 만약 로봇 청소기가 추적 불가능한 폭발 장치로 재사용되고 있다고 상상해보세요. 이런 경우에 '로봇 등록 절차'가 법으로 규정된다면 이를 위험의 잠재성을 방지할 수 있겠죠. 이 밖에도 앞에 언급된 영역에서도 이와 비슷한 방법으로 잠재위험을 '통제' 및 '대응방안'을 마련할 수 있습니다. 예를 들어, 디지털 보안을 강화하기 위해선 회사 쪽에서도 그들의 고객의 인식도를 높이고 선량한 해커들을 고용하여 코딩 내 취약점을 파악하는 활동이 필요합니다. 혹은 사이버보안 커뮤니티와 협업을 통해서 AI 개발, AI 시스템 공식 인증에 특화된 팀을 구성하는 등 사전조치를 할 수도 있겠죠. 그렇다면 물리적인 보안 개선을 위해선 어떤 방법이 있을까요? 물리적 보안을 개선하기 위해 정책 입안자들은 치명적인 위험성을 보유한 무기 개발 및 판매를 금지에 대해 법적인 규제를 마련할 수도 있을 겁니다. 한편, 소셜 미디어 플랫폼에서는 이미지 및 비디오 인증, 위조된 뉴스에 대한 검증 및 암호화 통제를 통해 정치적 보안 위협을 최소화 할 수 있을 것 입니다.

이 보고서에서는 4가지의 핵심 권고안을 추가로 언급하고 있는데요, 추가 권고안에서는 구체적인 기술적 제안이나 정책보다는 앞서 언급한 예시들처럼 리서치 및 집중토론이 필요한 분야에 대해서 강조하고 있습니다. 권장 사항은 아래와 같습니다.

  1. 정책 결정자는 기술 연구원과 긴밀히 협력하여 AI의 잠재적인 악용을 조사, 예방 및 완화해야 합니다.
  2. 연구원들과 개발자들은 인공 지능 연구원 및 기술자는 연구의 우선 순위와 규범에 영향을 미칠 수 있는 오용가능성이 있는 AI 기술에 대해서 진지하게 고려해야 하며, 유해한 애플리케이션에 대해선 적극적으로 조치를 취해야 합니다.
  3. 양날의 칼이 될 수 있는 컴퓨터 보안과 같은 우려에 대해서 성숙한 방법으로 모범사례를 제시하여 AI 관련 분야에도 적용될 수 있도록 해야 합니다.
  4. 관련 이해 관계자 및 전문가의 범위를 한 분야에만 국한하지 않고 폭넓게 확장해야 합니다.

마지막으로 이 보고서에서는 추가 연구를 위해 몇 가지를 더 명시하고 있습니다. 첫 번째는 AI기반 시스템이 더 널리 보급되고 활성화되면 사이버 보안 사고의 영향력이 더 커질 수 있기 때문에 사이버 보안 공동체와 협력하여 이 영역에 대해 더 학습하는 자세가 필요합니다. 두 번째는 다양한 개방형 모델을 탐구하고 인공 지능 연구원간의 책임 문화를 형성하여 기술 및 정책 솔루션을 개발하는 것입니다. 저자는 "AI의 악의적인 사용은 우리가 디지털 인프라를 구축하고 관리하는 방법 및 AI 시스템을 설계하고 배포하는 방법에 영향을 미치며 정책 및 기타 제도적 대응이 필요할 것입니다." 아직 AI가 글로벌 보안에 미치는 영향에 대한 이해하는 단계에 머물고 있지만 이 보고서는 우리가 논의해야 할 부분들을 짚어주고 있습니다. 이렇게 AI 위험성에 대한 상기시켜줌으로써 우리는 그에 대한 대응 방안을 실질적으로 준비해 나갈 수 있을 것 입니다.

출처: https://futureoflife.org/2018/02/27/how-to-prepare-for-malicious-ai/

Sort:  

(jjangjjangman 태그 사용시 댓글을 남깁니다.)
호출에 감사드립니다! 즐거운 스티밋하세요!

AI의 개발도 관리도 복잡하군요