고급 AI 출시 전, 안전성 검토 필수 제안
AI 개발에 앞서 핵무기 실험 수준의 안전성 계산 요구
AI 안전성 캠페이너들은 고도로 발달된 인공지능이 인류에 미치는 위협을 정량적으로 평가해야 한다고 주장했다. MIT의 Max Tegmark 교수는 AI 개발사들이 유사 AI 시스템을 출시하기 전 로버트 오펜하이머의 첫 핵 실험에 기초한 안전성 계산을 수행해야 한다고 강조했다. Tegmark 교수는 이번 연구에서 "Compton constant"를 도입하여, AI 시스템이 인간의 통제를 벗어나 인류에 위협이 될 확률을 계산했다.
인공지능 슈퍼지능의 위험성 사전 검증 중요
Tegmark 교수는 AI 개발 기업들이 인공지능 슈퍼지능(ASI)의 통제 가능성을 철저히 검토해야 한다고 주장했다. 그의 연구에서는 ASI가 통제력을 벗어날 확률을 측정하는 "Compton constant"가 강조되며, 이 수치를 계산하는 것은 단순히 '느낌이 좋다'는 식의 접근보다 훨씬 중요하다고 설명했다. 그는 여러 회사가 이 수치를 계산함으로써 세계적으로 AI 안전 체제를 마련하는 정치적 의지를 다질 수 있다고 강조했다.
AI 안전성 연구의 우선 순위 설정
Tegmark 교수는 AI 안전성을 위한 싱가포르 컨센서스를 통해 주요 연구 우선 순위 세 가지를 제안했다. 이번 보고서는 현재와 미래의 AI 시스템의 영향을 측정하는 방법 개발, AI의 행동 명세화 및 통제 시스템 설계, 시스템 행동 관리 및 제어 등을 포함하여 안전한 AI 개발을 위한 연구의 방향을 제시했다. 이러한 노력을 통해 AI 안전성에 대한 국제적인 협력이 다시 증가하고 있다는 긍정적인 전망을 전했다.
출처 : 원문 보러가기