AI테크

AI가 공정한지 진단하는 시스템, 국내서 개발...IBM·MS·구글 모델보다 성능 우수

AI타임스 2022. 3. 4. 14:07

카이스트 인공지능 공정성 연구센터 'MAF 2022' 개발
AI 알고리즘과 데이터의 공정성을 검출·완화하는 기술
AI 안면인식·챗봇 등의 편향성 문제 사전에 해결 가능
IBM·MS·구글이 오픈소스로 공개한 모델보다 성능 높아
센터 "누구나 사용할 수 있도록 오픈소스로 공개할 것"

 
유창동 카이스트 교수가 센터장으로 있는 카이스트 인공지능 공정성 연구센터가 AI 공정성을 진단하고 편향성을 교정하는 진단시스템을 개발했다. (사진=김동원 기자)

인공지능(AI) 공정성을 진단하고 편향성을 교정하는 진단시스템이 국내 연구진에 의해 개발됐다. 카이스트 인공지능 공정성 연구센터(센터장 유창동)는 AI 모델과 학습데이터의 편향성을 분석·탐지·완화·제거하는 프레임워크 'MSIT AI FAIR 2022(MAF 2022)'를 개발했다. 기존에 공개된 IBM, 마이크로소프트(MS), 구글이 내놓은 진단시스템보다 높은 성능을 자랑한다. 기업이 아닌 연구소에서 AI 공정성을 진단하는 프레임워크를 개발한 것은 이번이 처음이다.

 

AI 공정성 진단시스템, 왜 필요할까?


AI 공정성을 진단해 교정하는 시스템은 AI 발전에 꼭 필요한 장치로 꼽힌다. AI는 방대한 데이터를 학습하는 머신러닝 과정에서 편향된 데이터를 학습할 수 있고, 프로그래머가 작성한 알고리즘 자체가 편견을 지니고 있을 수 있어서다. 이 때문에 AI는 사람처럼 감정에 치우치거나 심리 상태에 따라 일관적인 의사결정을 할 것이란 일부 사람들의 기대와 달리, 세상의 편견을 그대로 반영한 편향된 결과를 도출하기도 한다.

 

실제로 AI가 편향된 결과를 도출한 사례는 쉽게 찾아볼 수 있다. 대표 사례는 안면인식에서 나타나는 피부색에 대한 편향이다. 2018년 MIT 미디어랩은 MS, IBM, 메그비의 안면인식 기술을 비교한 결과 피부색이 검을수록 인식 오류율이 높다는 것을 찾아냈다. 피부색이 검은 여성의 경우 인식 오류율은 무려 35%로 나타났다. 미국 표준기술연구소(NIST)는 2019년 99개 개발 그룹이 만든 190개의 안면인식 알고리즘에 대한 성능평가를 실시한 결과, 아시아인과 흑인의 얼굴이 백인보다 10배에서 100배 이상 잘못 인식된다고 발표했다.

 

AI가 편향된 결과를 내놓는 것은 챗봇에서도 마찬가지다. MS는 2016년 트위터에 '테이(Tay)'라는 AI 챗봇을 소개했지만, 16시간 만에 서비스를 중단했다. 테이가 사람들과 트윗을 주고받는 과정에서 "정말 페미니스트가 싫다", "히틀러는 옳았고, 나는 유대인을 증오한다"는 등의 인종차별적이고 성차별적인 글을 남겨서다. 국내 스타트업 스캐터랩이 개발한 챗봇 '이루다'도 여러 사전 테스트를 거쳤음에도 불구하고 성희롱과 성 소수자에 대한 차별 글을 남기면서 서비스가 폐쇄된 바 있다.

 

카이스트가 개발한 MAF 2022는 AI 공정성을 평가하는 과정에서 더 많은 알고리즘을 정밀한 검증이 가능하고, 시각화 기능이 있어 사용자 편의성도 높다. (사진=카이스트)

카이스트가 이번에 개발한 MAF 2022는 이러한 AI 편향성을 사전에 막을 수 있는 장치다. 데이터 학습 과정에서 편향된 데이터를 학습하고 있는 것은 아닌지, 개발한 AI가 사용되는 분야에 맞춰 공정한 결과를 내는지를 분석하고 조치하는 역할을 한다. 과기정통부의 혁신성장동력프로젝트(R&D) 중 하나로 개발됐다.

 

유창동 카이스트 인공지능 공정성 연구센터장은 <AI타임스>와 인터뷰에서 "MAF 2022는 오픈소스로 공개된 AI 공정성 진단시스템 중 가장 높은 성능을 자랑한다"면서 "이 시스템에서 AI 공정성을 테스트하면 시스템이 제시하는 범위 안에서는 AI가 편향적이지 않고 공정한 결과를 내릴 수 있다고 볼 수 있다"고 말했다.

 

유창동 교수는 "MAF 2022는 오픈소스로 공개된 AI 공정성 진단시스템 중 가장 높은 성능을 자랑한다"고 말했다. (사진=김동원 기자)

 

카이스트가 개발한 MAF 2022, IBM·MS 시스템보다 성능 우수


현재 존재하는 AI 공정성 시스템은 IBM의 'AIF360', MS의 'Fairlearn', 구글의 'What ifTool'이 있다. 유 센터장에 따르면, 센터에서 개발한 MAF 2022는 이 세 모델보다 더 많은 알고리즘을 제공하고, 처리할 수 있는 데이터가 다양하다. 공정성 평가 결과를 시각화로 제공해줘 사용자 편의성도 높은 편이다.

 

실제로 MAF 2022가 보유하고 있는 알고리즘은 총 19개다. 프리프로세싱(Preprocessing) 단계에서 4개의 알고리즘을, 인프로세싱(Inprocessing) 과정에서 12개의 알고리즘을, 포스트프로세싱(Postprocessing) 단계에서 3개의 알고리즘을 제공한다. IBM 모델(14개), MS 모델(8개)보다 많다. 유 센터장은 "병원과 비교할 때 한 병원은 8개의 진단장비로 환자를 진단한다고 하면, 우리는 더 많은 19개의 장비로 환자를 더 세심하게 진단할 수 있다고 보면 된다"고 말했다.

 

또 "공정성을 위해 고려할 부분은 성별, 종교, 빈부, 지역, 장애, 연령, 학력 등 많은데, 무엇을 평가하는지에 따라 보호변수가 달라진다"면서 "보호변수에 따라 진단 테스트가 달라야 하기 때문에 많은 알고리즘이 필요하다"고 설명했다. 이어 "예를 들어 의료에서는 환자를 학력을 보고 차별해서는 안 되지만 성별에 따라서는 진료가 달라지기 때문에 차별된 치료를 해야 하고, 채용에서는 성별에 대해서는 공정해야 하지만 학력에서는 차별을 둬야 한다"면서 "이러한 케이스가 많은 만큼, 다양한 알고리즘이 필요하다"고 덧붙였다.

 

MAF 2022는 IBM과 MS의 시스템보다 더 많은 알고리즘을 제공한다. (자료=카이스트)

MAF 2022는 기존 제품과 달리 비정형데이터를 처리할 수 있는 것도 장점이다. 기존 공개된 AI 공정성 시스템은 데이터셋과 처리하는 과정에서 모두 정형데이터를 사용했다. 하지만 최근 AI 동향을 보면 텍스트와 이미지, 동영상 등 데이터 모델이 정의되지 않은 비정형데이터를 사용하는 경우가 증가하고 있다. 카이스트 인공지능 공정성 연구센터는 이러한 동향에 맞춰 비정형데이터를 처리할 수 있도록 MAF 2022를 개발, 현재 고도화 작업을 진행하고 있다.

 

MAF 2022의 또 다른 장점은 테스트 결과를 시각화로 보여주는 작업을 시스템 안에서 처리할 수 있다는 점이다. 데이터 편향성, 예측 편향성을 다양한 형태로 시각화할 수 있는 기능을 시스템 내에서 제공하고 있다. 기존 시스템의 경우 별도 시각화 도구를 활용해 작업을 해야 했다. MAF 2022는 이 작업을 한 번에 해내기 때문에 처리 속도가 빠르고 사용자 편의성도 높다.

 

MAF 2022는 시스템 안에서 시각화할 수 있는 기능을 제공해 구글 시스템보다 사용자 편의성이 높다. (자료=카이스트)

카이스트 인공지능 공정성 연구센터는 MAF 2022를 누구나 사용할 수 있도록 오픈소스로 공개할 예정이다. 현재 부분적으로 시스템을 공개해놨고, 올해 안으로 시스템을 고도화해 완전 오픈소스로 공개한다는 계획이다. 유창동 교수는 "공정성을 해치는 AI는 사회적 문제를 야기할 수 있고 개발한 기업에도 막대한 피해를 줄 수 있다"며 "건강한 AI 산업 발전을 위해 MAF 2022를 모두가 사용할 수 있도록 제공하겠다"고 밝혔다.

 

이어 "AI 기술 개발 속도가 빠른 만큼, MAF 2022 역시 이에 부합하는 기술 개발이 계속 이뤄져야 한다"면서 "AI 공정성을 진단하고 조치하는 분야는 어설프게 하다가는 사회에 치명적이 결과를 초래할 수 있기 때문에 연구소에 있는 전문 인력들과 계속 기술을 고도화해 나가겠다"고 강조했다.

 

AI타임스 김동원 기자 goodtuna@aitimes.com

 

Copyright © '인공지능 전문미디어' AI타임스 (http://www.aitimes.com/)
무단전재 및 재배포 금지

 

 

AI가 공정한지 진단하는 시스템, 국내서 개발...IBM·MS·구글 모델보다 성능 우수 - AI타임스

인공지능(AI) 공정성을 진단하고 편향성을 교정하는 진단시스템이 국내 연구진에 의해 개발됐다. 카이스트 인공지능 공정성 연구센터(센터장 유창동)는 AI 모델과 학습데이터의 편향성을 분석·

www.aitimes.com