과기정통부 '인공지능 신뢰성 제고를 위한 공개 세미나' 발표 내용
2020년 12월 발표된 '인공지능 윤리기준'에 대한 활용책
정부기관·학계·기업·시민단체 등 다양한 분야 의견 청취
과기정통부(장관 임혜숙)는 23일 '인공지능 신뢰성 제고를 위한 공개 세미나'를 열고 '인공지능 윤리기준 실천을 위한 자율점검표' 초안을 공개했다.
작년 12월 과기정통부가 마련한 일반 AI 윤리 원칙을 실제 현장에 적용할 수 있는 방법을 구체화한 결과물이다. 자율점검표인 만큼 법률과 달리 강제성을 띠진 않으며 기업의 자체 준수를 권장한다.
해당 자율점검표는 과기정통부가 작년 12월 발표한 '인공지능 윤리기준'에 대한 활용책이라고 볼 수 있다.
문아람 정보통신정책연구원(KISDI) 박사는 “작년 발표한 AI 윤리기준에서 기술·제도·윤리 측면의 3대 전략과 10대 실행과제를 제시했다. 이에 대한 구체적 실천수단을 마련하는 과정에서 나온 결과물”이라고 말했다.
이어 “유럽연합, 세계경제포럼 등 세계 각국과 국제기구 사례를 보면 AI 윤리 원칙 발표 이후 순차적으로 실천 가이드나 평가 문항을 마련하고 있다. 유네스코에서 준비 중인 윤리 권고안에서도 실행 원칙과 회원국의 여러 정책 과제들을 제시할 것으로 알고 있다”며 자율점검표 마련 필요성을 강조했다.
과기정통부가 의도한 자율점검표 활용 대상은 AI 사업과 개발에 밀접하게 참여하는 민·관 종사자다. 자율점검표 초안 구성 작업은 올해 4월부터 9월까지 이뤄졌으며, 이후 2개월 간 학계·기업·시민단체 의견을 토대로 수정 작업이 진행됐다.
AI 윤리 자율점검표 초안에서는 작년 12월 과기정통부가 마련한 AI 윤리기준 내 10대 핵심 요건에 해당하는 체크리스트 문항 47개를 제시한다.
문아람 박사는 “자율점검표 구성을 위해 권장대상이 유사한 ‘인공지능 신뢰성 개발 가이드북’ 추진기관과 협업체계를 구축했다. 사용 주체의 혼란을 최소화하기 위해 중심축이 되는 기준을 AI 윤리 기준으로 가져왔다. AI 신뢰성 개발 가이드북에서는 윤리 핵심 기준 중에서도 기술적으로 구현할 수 있는 속성을 식별해 이에 맞는 문항을 제공한다”고 설명했다.
이어 “편의성을 높이기 위해 AI 신뢰성 개발 가이드북, 개인정보보호 자율점검표 문항과의 매칭표와 통합점검표도 만들었다. 추상적인 문항들에 대한 이해를 높이기 위해 관련 실 사례도 포함했다”고 전했다.
알고리즘, 역추론 등 개념 분명히 해야...자율점검표 도입할 동인도 필요
이날 행사에는 정부기관, 학계, 기업, 시민단체 등 여러 분야 관계자가 참석해 과기정통부가 마련한 AI 윤리 자율점검표 초안에 대해 의견을 냈다. 학계에서는 주로 자율점검표 내 세부 사항에 관한 개선 부분을 지적했다.
김명주 서울여대 교수는 “역추론과 재식별을 구분해서 사용하면 개인정보보호법과 잘 연계될 것 같다”고 말했다. 이어 “연대성 부분은 초거대 AI 모델의 전기 사용 문제 내용인데 이는 자율점검표를 통해 개발자가 체크할 수 있는 범위를 넘어선 주제라고 본다. 클라우드 기업이나 국가 정책 단위에서 논의할 대상”이라고 전했다.
김종욱 동아대 교수는 개발자들 사이에서 논란이 있는 AI 알고리즘의 범위를 분명히 명시할 것을 주문했다. 그는 “결국 AI가 사용하는 모든 규칙과 설정값이 모두 알고리즘에 포함되는데 이 부분을 명시하면 좋겠다”고 강조했다.
이어 “AI로 인한 사고가 났을 경우 조사관이 알고리즘 흐름과 사용 데이터를 시간 역순으로 추적할 수 있어야 한다. 책임성 항목에서 관련 내용을 언급할 필요가 있다”고 말했다.
자율점검표를 활용할 핵심 주체인 기업에서는 실 활용 사례를 공유할 것을 제안했다. 최성진 코리아스타트업포럼 대표는 “각 기업이 우수 사례를 많이 만들고 이를 공유해야 한다. 해당 기업 내에서만 머물면 자율점검표 활용에 한계가 있을 것”이라고 전했다.
규모가 작은 기업에서 자율점검표를 적극 활용할 환경도 마련할 필요가 있다는 주장이 나왔다.
노태영 김·장 법률사무소 변호사는 “자율점검표를 파악하고 실행할 수 있는 물적, 인적 자원을 갖추지 못한 스타트업들은 충분히 활용하지 못할 가능성이 크다. 자율점검표를 자세히 둘러볼 동기를 마련하는 것도 필요하다. 모든 것을 기업 자율에만 맡기면 공들여 만든 자율점검표가 제대로 활용되지 못할 수 있다”고 강조했다.
이호영 KISDI 본부장은 “최근 NeurIPS 조직위원회에서 모든 발표자들에게 윤리적 측면과 미래 사회 영향에 대한 진술을 의무화하겠다고 발표했다. 이에 대해 과학자 커뮤니티에서 많은 반발이 있었다”고 말했다.
이어 “이러한 상황에서 AI 과학자들이 같이 생각해봤다는 점에서 의미가 있다고 본다. 근시안적이 아닌 중장기적인 시각에서 바라봐야 한다”고 전했다.
AI타임스 박성은 기자 sage@aitimes.com
Copyright © '인공지능 전문미디어' AI타임스 (http://www.aitimes.com/)
무단전재 및 재배포 금지
'AI정책' 카테고리의 다른 글
AI 강국 되려면 산업 현장 특수성 이해해야...석박사 배출만으로는 부족 (0) | 2021.12.06 |
---|---|
유네스코, 인공지능 기술이 ‘전례 없는 도전’ 불러온다 경고...193개국 권고안 채택 (0) | 2021.11.29 |
3018억원 규모 '사람중심 AI 원천기술사업', 어떻게 진행되나 (0) | 2021.11.18 |
"데이터 사용 특례와 AI 인재창출 방안 필요"...인공지능에 관한 법률안 두고 AI 기관·업체 한 목소리 (0) | 2021.11.17 |
구글, 12조 펜타곤 AI 프로그램 재계약 추진한다...3년전 반대한 직원들의 반응은 (0) | 2021.11.17 |