카이스트인공지능공정성연구센터 2

[인터뷰] 유창동 카이스트 교수 "AI, 빠른 발전 속도만큼 안전장치 마련 시급"

AI 공정성 진단하고 편향성 교정하는 진단시스템 개발 AI가 사람 평가하며 발생하는 편향성 문제, 기술로 극복 2019년 개발 시작, 현존하는 진단시스템보다 성능 우위 "AI 공정성 진단은 이제 시작, 기술 업그레이드 계속 필요" 카이스트 인공지능 공정성 연구센터(센터장 유창동)가 인공지능(AI)의 공정성을 진단하고 편향성을 교정하는 진단시스템 'MSIT AI FAIR 2022(MAF2022)'를 개발했다. AI 모델과 학습데이터의 편향성을 분석·탐지·완화·제거하는 도구다. 개발한 AI가 윤리적 원칙이나 공정성 정책을 준수하는지 진단해 결과를 시각화 자료로 보여준다. 문제가 있는 경우 교정도 가능하다. AI 공정성은 기술 발전에 따라 계속 야기된 문제점 중 하나다. AI가 감정에 치우치지 않고 일관적인 ..

AI초대석 2022.03.08

AI가 공정한지 진단하는 시스템, 국내서 개발...IBM·MS·구글 모델보다 성능 우수

카이스트 인공지능 공정성 연구센터 'MAF 2022' 개발 AI 알고리즘과 데이터의 공정성을 검출·완화하는 기술 AI 안면인식·챗봇 등의 편향성 문제 사전에 해결 가능 IBM·MS·구글이 오픈소스로 공개한 모델보다 성능 높아 센터 "누구나 사용할 수 있도록 오픈소스로 공개할 것" 인공지능(AI) 공정성을 진단하고 편향성을 교정하는 진단시스템이 국내 연구진에 의해 개발됐다. 카이스트 인공지능 공정성 연구센터(센터장 유창동)는 AI 모델과 학습데이터의 편향성을 분석·탐지·완화·제거하는 프레임워크 'MSIT AI FAIR 2022(MAF 2022)'를 개발했다. 기존에 공개된 IBM, 마이크로소프트(MS), 구글이 내놓은 진단시스템보다 높은 성능을 자랑한다. 기업이 아닌 연구소에서 AI 공정성을 진단하는 프레..

AI테크 2022.03.04