미국 백악관(WH)은 인공지능(AI) 기술의 안전하고 신뢰할 수 있는 개발을 추진하고자 행정부 고위 관료 및 8개 주요 AI 기업(Adobe, Cohere, IBM, Nvidia, Palantir, Salesforce, Scale AI, Stability)과 함께 ‘자발적인 AI 안전 서약’에 대해 논의했다고 발표했다.
올해 5월 4일, 미국 카멀라 해리스(Kamala Devi Harris) 부통령을 비롯한 백악관 고위 관료들은 AI 혁신의 최전선에 있는 미국 기업들과 만나 AI와 관련된 위험에 대한 우려를 공유하는 회의를 개최했다.
이후 7월 21일, 백악관은 7개의 주요 AI 기업(Amazon, Anthropic, Google, Inflection, Meta, Microsoft, OpenAI)을 소집해 안전하고 투명한 AI 기술 개발을 위해 이들 기업으로부터 자발적인 AI 안전 서약을 확보했다고 발표했다.
기존 7개 주요 AI 기업에 동 발표로 인해 추가된 8개 기업이 더해져 총 15개 AI 기업들은 ‘안전’, ‘보안’, ‘신뢰’라는 3가지 원칙을 강조하며 책임감 있는 AI 개발을 위해 동 안전 서약에 합의하였으며 구체적인 행정명령은 향후 발표될 예정이다.
AI 안전 서약의 주요내용을 살펴보면, 첫째, 대중에게 제품을 소개하기 전에 제품의 안전성 보장이다. 기업은 제품을 출시하기 전에 외부 전문가 등이 수행하는 AI 시스템에 대한 내부 및 외부 보안 테스트를 실시해야 하고 동 테스트는 바이오 보안 및 사이버 보안과 같은 가장 중요한 AI 위험 요소와 광범위한 사회적 영향에 대비하는 것을 목적으로 한다. 또한 AI 위험 관리에 관한 정보 등(안전 모범 사례, 안전장치 우회 시도에 대한 정보, 기술 협력 포함)을 업계 전반과 정부, 시민사회, 학계와 공유해야 한다.
둘째, 보안을 최우선으로 하는 시스템 구축이다. AI 시스템의 취약점을 발견 시 강력한 보고 메커니즘을 통해 이를 신속하게 발견하고 수정해야 하고 이를 위해 사이버 보안 및 내부 위협 보호 장치 등에 투자하여 독점 및 미공개 AI 모델 가중치(Model Weight)를 보호하는 데 합의했다. 이 합의에서는 ▲AI 모델 가중치가 AI 시스템에서 가장 핵심적인 부분이고 ▲보안 위험 가능성을 고려할 때 의도된 경우에만 모델 가중치를 공개한다는 것에 동의해야 한다.
셋째, 대중의 신뢰 얻기다. 강력한 기술 메커니즘(워터마킹(Watermarking) 등)을 개발하여 사용자에게 본인의 콘텐츠가 AI로 생성된 경우 알 수 있도록 공지하고 AI 시스템의 기능, 한계, 적절·부적절한 사용 영역을 공개적으로 보고해야 하고, 부정적인 편견과 차별을 방지하고 프라이버시를 보호하는 등 AI 시스템이 초래할 수 있는 사회적 위험에 대한 연구를 우선적으로 진행할 것과 사회적 위험을 완화하는 AI를 출시할 것을 약속했다.
이 기사 좋아요 2
<저작권자 ⓒ 특허뉴스 무단전재 및 재배포 금지>
댓글
인공지능,ai, 관련기사목록
|
많이 본 기사
|