글래스톤AI, 인류 멸종 수준의 AI 위협 경고...미 국방부 의뢰로 전문가 200명 설문
AI안전 연구지원, 법으로 AI 보호조치 공식화, AI보호장치의 국제화 등 제안

/이미지=픽사베이

 

 [포쓰저널] 인공지능(AI)의 발전은 엄청난 기회를 제공할 뿐만 아니라 완전히 새로운 종류의 대량 무기를 만들어내고 있다.

대량 살상무기를 가능하게 하는 재앙적 위험의 핵심 동인은 세계에서 가장 진보된 AI 시스템을 구축하려는 선두 AI(인공지능) 연구소들 간의 극심한 경쟁 역학이다.

이러한 개발과 관련된 위험은 전 세계적으로 광범위하며 빠르게 발전, 정책 입안이 따라가지 못하는 상황에 직면하고 있다.

14일 AI 정책 조언 등을 제공하는 미국 민간 업체 글래드스톤 AI에 따르면 미국 국방부의 의뢰를 받아 이번 주 발표된 보고서는 가장 발전한 AI 시스템이 최악의 경우 인류 멸종 수준의 위협이 될 수 있다고 경고하고  미국 정부의 개입을 촉구했다.

보고서는 주요 AI 기업의 최고 경영진, 사이버 보안 연구원, 대량살상무기 전문가, 국가 안보 정부 당국자 등 200여명을 1년여에 걸쳐 인터뷰한 내용을 토대로 작성됐다.

보고서는 어느 시점이 되면 개발 중인 AI 시스템에 대한 통제력을 상실해 잠재적으로 세계 안보에 파괴적인 결과를 초래할 수 있다고 경고했다.

AI와 AGI(범용인공지능)의 부상은 핵무기 도입을 연상시키는 방식으로 세계 안보를 불안정하게 할 가능성이 있다고 했다.

아울러 첨단 AI시스템에 대한 통제력 상실과 무기화로 인한 치명적인 위험을 해결하기 위한 5가지 실행 계획도 제시됐다.

글래스톤 AI가 제시한 실행 계획은 ▲임시 세이프가드 설정 ▲역량 강화 ▲안전 연구 지원 ▲법의 보호조치 공식화 ▲고급 AI 보호 장치 국제화 등이다.

보고서는 AI시스템은 이미 우려할 만한 방식으로 무기화될 수 있으며, AI 기능은 거의 상상할 수 없을 정도로 빠르게 가속화되고 있다며 단기적으로 위험을 줄이면서 장기적으로 포지셔닝하기 위해 세가지의 임시세이프가드 설정이 필요하다고 했다.

▲첨단 AI의 개발을 모니터링해 해당 분야에 대한 미국 정부의 관점이 최신이고 신뢰할 수 있는 지 확인 ▲고급AI 개발을 위한 임시 보호 조치의 구현 및 감독을 조정하기 위한 테스크포스 구성 ▲고급 AI공급망에 대한 통제 시행 등을 임시 세이프로 가드로 제시했다.

글래스톤 AI가 제시한 두 번째 단계는 AI 사고에 대해 신속하게 대비하고 대응할 수 있는 역량 강화다.

▲실행 계획에 대한 작업그룹 설정 ▲교육과 훈련을 통한 준비 강화 ▲고급 AI 및 AGI  사고에 대한 조기 경고 프레임워크 개발 ▲시나리오 기반 비상 계획 개발 등이 필요한 것으로 제안됐다.

세 번째 실행계획은 AI 안전 연구 지원이다.

글래스톤AI는 매우 유능한 AI 시스템을 제어하는 것은 여전히 해결되지 않은 기술적 문제라며 이러한 기술적 격차를 최대한 빨리 좁히기 위해 ▲AGI 확장 가능성 포함한 고급 AI 안전 및 보안 연구 지원 ▲책임있는 AI 개발 및 채택을 위한 안전 및 보안 표준 개발이 필요하다고 했다.

네 번째 실행계획은 법으로 보호 조치를 공식화하는 것이다.

글래스톤AI는 첨단AI와 AGI의 출현 가능성으로 인한 새로운 위험을 설명하는 법적 프레임워크가 필요하다며 두가 지를 제시했다. ▲규칙 제정 및 라이언스 권한을 가진 고급 AI 규제 기관 마련 ▲ 빠르게 변화하는 위협에 신속하게 대응할 수 있도록 비상 권한을 포함한 형사 및 민사 책임제도 구축 등이다.

글래스톤AI는 다섯 번째 실행계획으로 고급 AI 보호 장치의 국제화를 제시했다.

첨단AI가 성숙해짐에 따라 국가들은 자주적인 첨단 AI 역량을 구축하기 위해 경쟁할 수 있으며 이 상황을 책임감있게 관리하지 않으면 역학관계로 인한 다양한 형태의 에스컬레이션이 발생할 위험이 있다고 했다.

그러면서 책임있는 관리 방안으로 ▲재앙적인 AI 위험과 필요한 보호 조치에 대한 국내외 공감대 구축 ▲안전장치의 국제법 명시 ▲안전 조치의 준수 여부 모니터링 및 검증을 위한 국제 기관 설립 ▲이중 용도 AI 기술의 확산을 제한하기 위해 파트너와 공급망 통제 체제 구축 등을 제시했다.

저작권자 © 포쓰저널 무단전재 및 재배포 금지