트윗봇 테이 문제는 천성이 아니라, 양육의 결과가 분명해
AI, 사람들의 삶 침범하고, 일상 생활에서 변화 일으킬 것
윤리적으로 설계, 배치하는 로봇 프로그램 개발 교육 중시
한국지능정보사회진흥원(NIA)은 지난 6일 ‘NIA 국가 인공지능 사업추진 윤리원칙’을 제정하고, 대구 본원에서 선포식을 개최했다. 국내에서 AI에 대한 윤리원칙이 제정된 것은 이번이 처음이다.
그동안 인공지능은 알게 모르게 많은 사고를 일으켰던 것이 사실이다. 그 대표적 사례 중의 하나가 지난 2016년 7월 12일, 미국 캘리포니아주 스탠퍼드 쇼핑센터에서 AI 보안 로봇이 16개월 된 유아를 공격한 것이다.
12일(현지시각) 미국 ABC 7시 뉴스에 따르면, 무게 136kg, 152cm 신장의 이 로봇은 갑자기 아이에게 돌진해 공격했다. 큰 부상을 입지는 않았지만, 아이의 오른발의 피부가 부풀어 오를 정도로 긁힌 것으로 전해졌다.
이외에도 미국에선 자산 관리 AI 로봇 어드바이저가 계산 실수를 저질러서 뉴욕 증시가 폭락하는 웃지 못할 일도 벌어졌고, 승차 공유업체 우버의 자율주행차 알고리즘 오작동으로 보행자가 사망하는 사고도 발생했다. 딥러닝을 활용한 딥페이크(Deepfake) 기술도 큰 윤리 문제를 일으키고 있다.
이에 선진국의 경우, 지난 2018년에 유럽위원회(EC)는 정책 문서를 통해 윤리 지침을 공개했고, OECD 등 국제기구와 구글 및 SAP와 같은 기업들이 AI 원칙을 공개한 후, 지난 2019년 9월까지 약 84개의 AI 윤리 가이드라인이 기업, 정부 기관, 대학/연구소, 비영리조직 등을 통해 발표됐다.
특히, 최근 들어 자율주행차를 비롯해 사람과 같이 생활하는 인공지능 챗봇이 증가하면서, AI의 윤리 문제는 심각한 사안으로 부상했다.
전문가에 따르면, 인공지능이 인간을 행복하게 하려면, 기술과 윤리 양 측면에서 조화를 이루며 발전해 나가야 한다.
기술만 앞세운 일방적인 발전은 대단히 위험하며, 인공지능이 일으키는 각종 편향과 차별의 문제, 오류에 의한 안전 문제, 해커처럼 AI를 악용하는 범죄자의 문제 등으로 인간 사회는 더 혼란해질 수도 있다고 경고한다.
그 대비책이 바로 인공지능의 윤리이며, AI 개발자들에 대한 사전 교육이 중요하다고 그들은 조언한다.
챗봇, 10대처럼 말하는 법 배워
지난 2016년 3월 25일 기술 전문 웹사이트 뉴스 ‘아스 테크니카(Ars Technica)’는 마이크로소프트(MS)가 인종차별주의 챗봇 실패에 대한 사과를 발표했다고 보도했다.
이 기사를 쓴 북미의 기술 전문 기자 데이브 리(Dave Lee)에 따르면, MS는 자사의 트윗 로봇 ‘테이(Tay)’의 인종차별 및 정치 편향적 트윗 업로드로 브랜드 이미지가 훼손됐기 때문에 사과한 것이라고 전했다.
또 이 인공지능 챗봇은 10대처럼 말하는 법을 배웠고, 홀로코스트를 부인하는 인종차별주의자로 변했다고 덧붙였다.
그러나 이는 트윗 로봇 테이의 견해가 천성이 아니라, 양육의 결과라는 것이 분명해졌다. 테이는 우리가 이미 알고 있는 것을 확인해 줬는데 그것은 인터넷에 있는 사람들이 잔인해질 수 있다는 것이라고 주장했다.
MS에 따르면, 소셜 미디어상에서 18세에서 24세 사이의 어린이들을 목표로 제작된 테이는 트위터에서 실제 사람들과의 상호작용으로부터 배우도록 고안됐다.
그러나 이 기회를 포착한 일부 악성 사용자들은 테이에 인종차별적이고, 모욕적인 정보를 제공했다. 즉, 이 부분적 그룹의 악성 공격에 표적이 된 테이는 개발자가 원치 않는 말을 하게 된 것이다.
이에 관해 MS의 연구 책임자 피터 리(Peter Lee)는 “MS가 의도하지 않은 공격적이고, 상처를 주는 트윗에 대해 깊이 사과한다.”라며, 신속하게 테이를 트위터에서 제외했다고 밝혔다.
또 피터 리는 “테이는 이제 오프라인 상태고, 우리의 원칙과 가치에 충돌하는 악의적인 의도를 더 잘 예측할 수 있을 때에만 테이를 다시 데려올 수 있도록 노력할 것”이라고 발표했다.
AI 편향 문제, “뿌리부터 알아야 해”
머신러닝에 기반한 AI 챗봇은 사람들과 대화를 하면서 더욱더 많은 학습을 하는 것이 일반적이다. 하지만 이는 소수의 악성 이용자들에 의해 악용될 소지가 크고, 챗봇 테이 외에도 많은 문제가 발생했다.
국내 스타트업에서 만든 ‘이루다’는 성소수자에 대한 혐오 발언 및 개인정보 유출 등의 논란을 일으켜 서비스가 잠정 중단되기도 했다. 또 외국에선 욕설 따라 하기는 물론 인종차별, 사회적 편견 요소까지 대답하는 챗봇들로 인해 큰 논란이 일어났다.
지난해 11월 21일 애들린 베아트리체(Adilin Beatrice) 애널리틱스 인사이트에 “조심해라! 인공지능은 우리의 모든 최악의 편견 충동을 배우고 있다”란 제하의 칼럼을 올렸다.
베아트리체에 따르면, MS의 챗봇 테이가 트위터에 욕설 내용을 올린 후, 다운됐는데 인공지능은 인간을 돕기 위해 존재하는 기술 그 이상이 되기 시작했으며, 서서히 사람들의 삶을 침범하고, 심지어 일상생활에서 변화를 일으키고 있다는 것이다.
비록 인공지능이 인간에게만 좋을 수 있는 미래지향적인 기술처럼 보일지라도 편견에 대한 우려가 존재한다고 그녀는 주장했다.
베아트리체는 AI는 우리가 생각하는 낭만적 공상 과학 영화와는 다르다며, 인간에 의해 설계되고, 개발되는 인공지능은 인간처럼 콘텐츠를 추상화하고, 반응하는 메커니즘에 가깝다는 것이다.
그녀는 인종차별, 페미니즘 등과 같은 이슈를 지원하기 위해 전 세계적으로 계속되는 시위와 폭력이 이미 궤도에 올랐고, 여기서 문제는 인간의 데이터가 인공지능의 기능을 만드는 중요한 물질이라고 지적했다.
바로 여기에 AI-바이어스 문제가 있고, 이는 데이터에 내재한 편견으로, AI 알고리즘을 만드는 데 사용된다. 이것은 궁극적으로 차별과 다른 사회적 결과를 초래할 수 있다는 것이 그녀의 주장이다.
베아트리체는 MS가 런칭한 테이의 사례를 들며, AI 챗봇에 대한 문제점을 제기했다. 그녀의 주장에 따르면, 테이는 런칭 후 16시간 동안 95,000번 이상을 트위터에 올렸는데, 대부분은 욕설들이었다.
그녀는 “AI 편향의 문제는 어디서 어떻게 시작되었는지 아는 것에서부터 출발해야 한다”라며, “AI 메커니즘의 배후에 있는 사람들은 편견이 없어야 한다”고 지적했다.
서비스 로봇, 윤리적 설계에 초점
지난 9일 텍사스 대학 뉴스는 “윤리적인 인공지능은 새로운 로봇 프로그램의 초점”이라는 기사를 실었다.
기사는 미래의 기술자들이 자신의 창조물에 대한 긍정적이고 잠재적으로 부정적인 의미를 이해하도록 훈련시킬 텍사스 대학 오스틴 프로그램에 의해 윤리가 로봇 교육의 선두가 될 것이라고 소개했다.
반면에 기사는 오늘날 이러한 기술들이 어떻게 사생활이나 추가적인 경제적 불평등을 침해할 수 있는지를 포함해 그것이 사회에 미칠 수 있는 해로운 영향을 고려하지 않고, 많은 로봇 기술이 개발되고 있다고 지적했다.
이에 새로운 UT 오스틴 프로그램은 교과과정에서 이러한 문제들을 우선시함으로써 중요한 교육 격차를 메울 것이라고 전했다.
이 프로그램의 리더 건축대학의 부교수 준펑자오(Jun Peng Zhao)는 기사를 통해 “향후 10년 안에 우리는 로봇들과 더 가까이 살 것이고, 우리는 그러한 로봇들이 공정하고, 포괄적이며, 편견으로부터 자유롭기를 원한다”고 말했다.
또 “우리가 만든 로봇들은 우리 자신을 반영하는 것이기 때문에, 기술자들이 훌륭한 윤리 교육을 받는 것이 필수적이다”고 역설했다.
소개된 CREATE(Convergent, Responsible, Ethical AI Training Experience for Roboticists) 프로그램은 책임 있는 설계와 구현에 대한 대학원 과정과 전문적인 개발을 제공하는 것으로 알려졌다.
이 프로그램은 텍사스 로보틱스(Texas Robotics), 산업 파트너와 사회에 도움이 되고, AI 기술을 설계하고자 하는 UT의 그랜드 챌린지 연구 이니셔티브 굿 시스템즈(Good Systems) 간의 협업으로 이뤄져 있다.
또 최근 32명의 박사과정 학생들이 과정 연구, 멘토링, 전문 개발, 인턴십, 연구 및 공공 서비스 기회를 받을 수 있도록 지원하는 연구 연수 프로그램을 통해 국립과학재단으로부터 300만 달러의 보조금을 받았다.
특히, 이 프로그램은 학생들이 배달, 공장 작업, 가정 청소 등을 할 수 있는 서비스 로봇을 윤리적으로 설계, 개발, 배치하는 방법 등에 초점이 맞춰져 있다.
배달 서비스 로봇들은 더 포괄적이고, 모든 사람에게 다가갈 방법과 홈 서비스 로봇이 거주자의 사생활을 보호하는 방법 등과 같은 요소들을 고려해 설계된다.
이 프로그램의 경우, 컴퓨터 과학, 건축, 공학, 정보, 공공 업무를 포함한 UT의 다양한 분야의 연구원들이 참여하고, 소니 AI, 보쉬, 아마존, 스파크코그니션, 앱트로닉 등을 포함한 몇몇 유명한 로봇 회사들이 학생들에게 인턴십을 제공한다.
이외에도 이 프로그램의 교육생 중 절반 이상이 로봇 분야에 매우 필요한 다양성을 가져오도록 돕기 위해 여성과 소수 인종을 포함한 STEM 교육을 통해 대표성이 낮은 그룹 중에서 선발된다.
윤리적 로봇 공학의 5개 수업을 포함하는 이 강좌는 대학원 포트폴리오 프로그램으로 제도화되고, UT 오스틴의 모든 STEM 대학원생들이 이용할 수 있는 것으로 전해졌다.
텍사스 로봇공학과 피터 스톤(Peter Stone) 교수는 “이 프로그램은 자율로봇을 설계하고, 만드는 기술적인 세부사항에 기반을 두고 있을 뿐만 아니라 그들 작업의 사회적 의미를 충분히 고려할 수 있는 장비를 갖춘 다재다능한 로봇공학자들을 교육할 수 있게 해줄 것”이라고 밝혔다.
AI타임스 조행만 객원 기자 chohang5@kakao.com
Copyright © '인공지능 전문미디어' AI타임스 (http://www.aitimes.com/)
무단전재 및 재배포 금지
'라이프&컬쳐' 카테고리의 다른 글
AI가 만든 베토벤 미완성 교향곡 10번...9일 초연 앞두고 전문가들 설왕설래 (0) | 2021.10.05 |
---|---|
OMAF 2021, 'AI가 만든 작품부터 AR, VR 기술 활용 예술'까지 새로운 감성을 내놓다 (0) | 2021.09.14 |
훈련에서 전술까지..인공지능 코치가 조언하는 축구 경기 열린다 (0) | 2021.09.06 |
"인공지능(AI)과 함께 춤을"...현대 무용 예술가들의 새로운 도전 (0) | 2021.09.01 |
“그 목소리가 AI였다니”...다큐멘터리 속 스타 셰프 목소리 딥페이크 응용 내레이션 논란 (0) | 2021.07.20 |