06월 13일(금)

구글, AI 안전성과 영향평가 다뤄

구글
지난 21일 진행된 책임감 있는 AI 포럼 2회차 행사 후 참석자들이 기념사진을 촬영하고 있다. (사진 출처-구글 제공)

구글 코리아가 ‘책임감 있는 AI 포럼’을 통해 인공지능 기본법의 주요 쟁점을 집중 조명하며, 책임 있는 AI 개발과 규제 방향에 대한 논의를 이어가고 있다.

구글 코리아 디지털책임위원회는 올해 상반기 두 차례 ‘책임감 있는 AI 포럼’을 개최했다.

지난 12월 제정된 AI 기본법에 따른 고영향 AI 정의, AI 영향 평가 등에 대해서도 심도 있게 다뤘다고 26일 밝혔다.

‘책임감 있는 AI 포럼’은 구글코리아가 책임 있는 디지털 생태계 조성을 목표로 운영하는 디지털책임위원회 산하 포럼으로, 올해는 법률, 정책, 기술, 스타트업 등 각계 전문가 14인이 참여하고 있다.

이들은 국내외 AI 법제화 흐름과 사회윤리적 과제를 연간 4회에 걸쳐 논의하며 책임 있는 AI 기술 활용과 규제 방향을 제안하고 있다.

1회차 포럼은 지난 3월, 고영향 AI의 정의와 적용 범위를 주제로 열렸다.

AI 기본법은 인간의 생명과 안전, 기본권에 중대한 영향을 미칠 수 있는 인공지능 시스템을 고영향 AI로 규정하고 있지만, 관련 기준이 모호하다는 지적도 이어지고 있다.

이에 포럼은 고려대학교 이성엽 교수를 발제자로 초청해 고영향 AI의 기준과 해석, 국제 규제 현황, 산업계에 미칠 영향을 종합 검토했다.

전문가들은 고영향 AI 규정의 해석에 따라 실제 산업 적용 시 법적 혼선이 발생할 수 있다며, AI 산업 생태계의 현실을 반영한 법안 보완이 필요하다고 강조했다.

또한 중복되거나 모호한 조항에 대한 재정비와 후속 규정의 명확화가 시급하다는 데 의견을 모았다.

2회차 포럼에서는 AI 안전성과 투명성 확보, AI 영향 평가 의무화에 대한 논의가 진행됐다.

AI 기본법은 기술의 급속한 발전으로 인한 위험을 방지하고 국민의 기본권을 보호하기 위해 이러한 조항을 포함하고 있다.

그러나 다양한 AI 기술 수준에 동일한 규제를 적용할 경우 과잉 규제 우려가 있으며, 영향 평가의 범위와 기준이 불명확하다는 점도 지적돼 왔다.

이상용 건국대 교수는 포럼에서 AI 기술의 위험을 ‘맥락 위험’과 ‘능력 위험’으로 구분해 평가하고, 유연하고 자율적인 AI 규제 프레임워크가 필요하다고 설명했다.

권은정 가천대 교수도 영향 평가 제도의 실효성을 높이기 위해 정부와 민간의 협력 플랫폼 구축이 필요하다고 덧붙였다.

전문가들은 이번 포럼에서 AI 영향 평가의 대상과 주체, 책임 범위 등 실질적 실행 방안이 보다 정밀하게 설계돼야 한다고 입을 모았다.

특히 스타트업 등 다양한 기술 주체가 부담 가능한 방식으로 책임 있는 AI 규제 체계가 운영돼야 한다는 데 공감했다.

국제 규범과의 정합성, 기술 발전 속도에 대응하는 단계적 접근 방식도 핵심 쟁점으로 부각됐다.

최재식 KAIST 김재철AI대학원 교수 겸 XAI 연구센터장은 “대다수의 기업과 기관, 개인들이 AI 프로그램을 사용하는 시대에 AI의 안전하고도 효율적인 사용이 그 어느 때보다 중요하다”고 언급했다.

이어 “기존의 AI 서비스들이 갖는 한계와 취약성에 얼마나 잘 대응하는지가 앞으로 AI의 책임성과 안전성, 나아가 AI 리더십의 향배를 결정짓는 요인이 될 것”이라고 말했다.

한편 구글코리아는 하반기 책임감 있는 AI 포럼에서 AI 에이전트, AI 로봇 기술 등 산업 전반에 걸친 차세대 AI 기술의 영향과 전망을 집중적으로 논의할 계획이라고 밝혔다.

배동현 (grace8366@sabanamedia.com) 기사제보

답글 남기기