생성형 AI 이용자 보호 가이드라인, 3월 28일 시행

방송통신위원회(방통위)는 28일 생성형 인공지능(AI) 서비스 이용 과정에서의 이용자 피해를 방지하기 위한 ‘생성형 인공지능(AI) 서비스 이용자 보호 가이드라인’ 을 발표했다.
해당 가이드라인은 다음 달 28일부터 시행된다.
이번 생성형 인공지능(AI) 서비스 이용자 보호 가이드라인 은 생성형 AI 개발사 및 서비스 제공자를 대상으로 서비스 전반에서 추구해야 할 4가지 기본원칙과 6가지 실행 방식을 제시한다.
기본원칙은 ▲인간 중심 ▲설명 가능성 확보 ▲안전한 작동 ▲공정한 서비스 운영이다.
실행방식으로는 ▲이용자 인격권 보호 ▲산출물의 AI 생성 여부 고지 ▲다양성 존중 ▲입력 데이터 관리 ▲문제 해결을 위한 책임 및 참여 ▲건전한 유통·배포 노력이 포함된다.
특히, AI 산출물이 이용자의 인격권을 침해하지 않도록 알고리즘을 구축하고 신고 절차를 마련해야 한다.
또한, 차별 및 편향적 콘텐츠 생성을 방지하기 위한 필터링 기능을 적용하고, 이용자의 입력 데이터를 학습에 활용할 경우 사전 동의 절차를 거치도록 규정했다.
방통위는 정보통신정책연구원(KISDI) 및 AI 전문가들과 연구반을 구성해, 기존 생성형 AI 피해 사례와 국내외 이용자 보호 현황을 검토한 후 가이드라인을 마련했다.
시행 이후에는 2년마다 가이드라인 타당성을 검토해 개선 조치를 취할 방침이다.
방통위 관계자는 “생성형 AI 사업자가 바람직한 이용자 보호 방안을 마련하는 데 이번 가이드라인이 도움이 될 것”이라며, “이용자 권리 보장과 신뢰받는 AI 서비스 환경 조성을 기대한다”고 밝혔다.
배동현 (grace8366@sabanamedia.com) 기사제보