AI 공정성 진단하고 편향성 교정하는 진단시스템 개발 AI가 사람 평가하며 발생하는 편향성 문제, 기술로 극복 2019년 개발 시작, 현존하는 진단시스템보다 성능 우위 "AI 공정성 진단은 이제 시작, 기술 업그레이드 계속 필요" 카이스트 인공지능 공정성 연구센터(센터장 유창동)가 인공지능(AI)의 공정성을 진단하고 편향성을 교정하는 진단시스템 'MSIT AI FAIR 2022(MAF2022)'를 개발했다. AI 모델과 학습데이터의 편향성을 분석·탐지·완화·제거하는 도구다. 개발한 AI가 윤리적 원칙이나 공정성 정책을 준수하는지 진단해 결과를 시각화 자료로 보여준다. 문제가 있는 경우 교정도 가능하다. AI 공정성은 기술 발전에 따라 계속 야기된 문제점 중 하나다. AI가 감정에 치우치지 않고 일관적인 ..