MAF2022 3

[김동원의 Eye-T] AI 면접, 정말 공정하고 객관적이라고 생각해?

일상에 편의 가져온 AI, 사람까지 평가한다? 채용과 근무, 신용대출 평가에 AI 기술 쓰여 사람보다 AI가 객관적이고 공정하다는 이유 AI가 사람 평가했을 때 발생한 문제점 많아 빠른 기술 도입보단 안전장치 확보가 우선 [편집자 주] [김동원의 Eye-T]는 IT 소식을 직접 눈(Eye)으로 보는 것처럼 생생하게 전달하는 것을 목적으로 합니다. 다양하고 재미있는 IT 기술과 솔루션을 쉽고 자세하게 보여드리겠습니다. 인공지능(AI) 기술이 일상에 많은 편의를 가져오고 있습니다. AI가 업무상 대화를 녹음해 자동으로 텍스트로 작성해주기도 하고요. 번역을 해주기도 하죠. 카메라로 촬영한 영상을 판독해주는 역할도 해요. MRI나 CT 영상을 판독해 건강 이상 여부를 알려주기도 하고 공항 출국 시 물품 검사를 ..

인사이트 2022.04.06

[인터뷰] 유창동 카이스트 교수 "AI, 빠른 발전 속도만큼 안전장치 마련 시급"

AI 공정성 진단하고 편향성 교정하는 진단시스템 개발 AI가 사람 평가하며 발생하는 편향성 문제, 기술로 극복 2019년 개발 시작, 현존하는 진단시스템보다 성능 우위 "AI 공정성 진단은 이제 시작, 기술 업그레이드 계속 필요" 카이스트 인공지능 공정성 연구센터(센터장 유창동)가 인공지능(AI)의 공정성을 진단하고 편향성을 교정하는 진단시스템 'MSIT AI FAIR 2022(MAF2022)'를 개발했다. AI 모델과 학습데이터의 편향성을 분석·탐지·완화·제거하는 도구다. 개발한 AI가 윤리적 원칙이나 공정성 정책을 준수하는지 진단해 결과를 시각화 자료로 보여준다. 문제가 있는 경우 교정도 가능하다. AI 공정성은 기술 발전에 따라 계속 야기된 문제점 중 하나다. AI가 감정에 치우치지 않고 일관적인 ..

AI초대석 2022.03.08

AI가 공정한지 진단하는 시스템, 국내서 개발...IBM·MS·구글 모델보다 성능 우수

카이스트 인공지능 공정성 연구센터 'MAF 2022' 개발 AI 알고리즘과 데이터의 공정성을 검출·완화하는 기술 AI 안면인식·챗봇 등의 편향성 문제 사전에 해결 가능 IBM·MS·구글이 오픈소스로 공개한 모델보다 성능 높아 센터 "누구나 사용할 수 있도록 오픈소스로 공개할 것" 인공지능(AI) 공정성을 진단하고 편향성을 교정하는 진단시스템이 국내 연구진에 의해 개발됐다. 카이스트 인공지능 공정성 연구센터(센터장 유창동)는 AI 모델과 학습데이터의 편향성을 분석·탐지·완화·제거하는 프레임워크 'MSIT AI FAIR 2022(MAF 2022)'를 개발했다. 기존에 공개된 IBM, 마이크로소프트(MS), 구글이 내놓은 진단시스템보다 높은 성능을 자랑한다. 기업이 아닌 연구소에서 AI 공정성을 진단하는 프레..

AI테크 2022.03.04