AI편향 2

AI가 공정한지 진단하는 시스템, 국내서 개발...IBM·MS·구글 모델보다 성능 우수

카이스트 인공지능 공정성 연구센터 'MAF 2022' 개발 AI 알고리즘과 데이터의 공정성을 검출·완화하는 기술 AI 안면인식·챗봇 등의 편향성 문제 사전에 해결 가능 IBM·MS·구글이 오픈소스로 공개한 모델보다 성능 높아 센터 "누구나 사용할 수 있도록 오픈소스로 공개할 것" 인공지능(AI) 공정성을 진단하고 편향성을 교정하는 진단시스템이 국내 연구진에 의해 개발됐다. 카이스트 인공지능 공정성 연구센터(센터장 유창동)는 AI 모델과 학습데이터의 편향성을 분석·탐지·완화·제거하는 프레임워크 'MSIT AI FAIR 2022(MAF 2022)'를 개발했다. 기존에 공개된 IBM, 마이크로소프트(MS), 구글이 내놓은 진단시스템보다 높은 성능을 자랑한다. 기업이 아닌 연구소에서 AI 공정성을 진단하는 프레..

AI테크 2022.03.04

[단독인터뷰] 팀닛 게브루 박사가 한국에 던진 질문 "한국 빅테크 기업 개발자는 자신의 소신을 밝힐 수 있는가"

AI 편향성...빅테크 기업 구조적 문제 심각 개발자 목소리 안 들려...유연한 환경 필요 AI 안전성 보장은 촘촘한 법률에서 시작돼 대규모 언어모델...인종·기후변화 노출 영향 AI타임스는 인공지능(AI) 윤리 확립에 앞장서고 있는 팀닛 게브루(Timnit Gebru) 박사와 단독 인터뷰를 가졌다. 그는 이번 인터뷰에서 AI의 윤리적인 발전을 위해서는 개발자가 마음껏 목소리를 낼 수 있는 자유로운 환경이 필요하다고 강조했다. "AI 윤리를 지키려면 개발자가 기업에 자유롭게 목소리 낼 수 있는 환경이 조성돼야 한다"는 게 그의 주장이다. 팀닛 게브루 박사는 인공지능(AI) 편향성을 전 세계에 알린 인물이다. 구글 AI윤리팀을 신설하고 2020년 12월까지 공동대표로 근무한 그는 AI 윤리와 편향성 문제에..

AI정책 2022.02.12