미국과 영국이 인공지능(AI) 모델들이 일으킬 수 있는 위험성 측정과 평가에 관한 협력을 위한 세계 최초 양자 협정을 맺었다.

미국 상무부와 영국 과학혁신기술부는 지난 1일(현지시각) 최첨단 인공지능 모델에 대한 안전성 테스트 개발을 위해 협력하겠다는 양해각서(MOU)를 맺었다. 이 협정은 세계 최초의 인공지능 안전에 대한 양자 협정이다. 영국 파이낸셜타임스는 “(이번 협정은) 새로운 인공지능이 심각한 사이버 공격이나 생물무기 설계에 사용되는 등 기술의 존재로 인해 생길 수 있는 위험을 규제하기 위해 정부가 나선 데 따른 것”이라고 보도했다. 미셸 도널런 영국 과학혁신기술부 장관은 “다음 세대 인공지능 모델들이 출시되고 있다. 내년은 우리가 빠르게 행동해야 하는 시기”라며 “(새 인공지능은) 게임체인저가 될 수 있지만 우리는 그 기술들이 어디까지 능력을 발휘할지는 알지 못하고 있다”고 말했다고 이 신문은 전했다. 이번 협정은 지난해 11월 세계 최초로 영국이 개최해 미국, 중국, 유럽연합(EU) 등 28개 국가·지역이 모인 ‘인공지능 안전 정상회의’에서 나온 합의 결과이기도 하다.

미국과 영국은 지난 11월 영국 정부가 출범시킨 인공지능안전연구소(AISI)와 미국에서 곧 출범할 기관의 연구진을 상호 파견하는 등 교류하는 방식으로 전문지식을 공유할 예정이다. 또한, 오픈에이아이(OpenAI)·구글과 같은 기업이 개발한 인공지능 모델을 평가하는 방법도 논의할 것으로 보인다.

다만 도널런 장관은 “영국 정부가 단기적으로는 인공지능을 규제하진 않을 것”이라고 선을 그었다. 이는 유럽연합(EU)이 지난달 13일 ‘인공지능 법안’(AI Act)을 최종 승인해 세계 최초로 인공지능 규제에 나선 점과는 차이가 있다.

최근 미국과 일본 등 세계 각국 정부는 인공지능 안전성 연구와 평가를 위한 전담 기구 설치에 나서는 등 규제 기반을 닦고 있다. 인공지능 발전 속도가 걷잡을 수 없이 빨라지고 있지만, 국가 안보나 윤리성, 신뢰성 차원에서 이 기술이 일으킬 위험성을 제대로 인지하지 못하고 있다는 문제의식 때문이다. 미국 주간지 타임은 “의회와 기업은 인공지능 모델이 실제로 위험한지 확인하려는 계획을 만들고는 있지만, 이 계획은 아직 존재하지도 않는 안전성 평가 테스트에 모든 것을 걸고 있다”고 짚었다.

면책 조항: 이 글의 저작권은 원저작자에게 있습니다. 이 기사의 재게시 목적은 정보 전달에 있으며, 어떠한 투자 조언도 포함되지 않습니다. 만약 침해 행위가 있을 경우, 즉시 연락해 주시기 바랍니다. 수정 또는 삭제 조치를 취하겠습니다. 감사합니다.