팀닛게브루 8

[AI티타임] 팀닛 게브루 박사 인터뷰 비하인드 "한국 AI 기업 중 네이버 안다. 그런데 포털이라고?"

[편집자주] 'AI티타임'은 기자가 취재한 내용을 간단한 티타임을 가지며 이야기한다는 의미와 AI타임스 줄임말인 'AIT'를 활용, 'AI타임스의 시간이다'라는 의미를 갖고 있습니다. 기자들이 취재한 내용 중 중요한 부분이나 취재 뒷 얘기를 영상으로 소개합니다. 짧은 영상으로, 알고 있으면 좋은 AI 정보 담아가시기 바랍니다. 가 지난 2월 구글의 AI 알고리즘 편향성을 전 세계에 알린 팀닛 게브루 박사를 인터뷰 했습니다. 이번 인터뷰에서 팀닛 게브루 박사는 한국 AI 기업으로 '네이버'를 잘 안다고 얘기했습니다. 네이버를 포털이 아닌, AI 연구 기업으로 알고 있었는데요. 그만큼 국내 기업의 AI 연구 성과가 글로벌에 미치는 파급력이 큰 것 같습니다. 팀닛 게브루 박사는 네이버에 대해 어떻게 알고 있었..

인사이트 2022.03.14

[AI 주간브리핑] AI 편향문제에 슬기롭게 대처하는 방법

[편집자주] 한 주간 주요 인공지능(AI) 동향을 가 정리해 드립니다. [AI 주간브리핑]을 보시며 주요 AI 이슈를 만나보세요. 본문 내 제목을 클릭하면 자세한 기사 내용을 보실 수 있습니다. 인공지능(AI)이 공정하다고 생각하시나요? 사람처럼 감정에 치우치지 않고 일관적인 의사결정을 할 수 있다고 보시나요? 사실 아닙니다. 그동안 많은 사례가 있었죠. 안면인식에서 백인의 얼굴은 잘 인식하면서 흑인 얼굴은 인식하지 못하는 경우가 있었고요. 흑인 여성을 보고 고릴라라고 판단한 사례도 있습니다. 챗봇 역시 인종차별적이고 성차별적인 내용을 얘기해 문제가 된 경우가 몇 있지요. 이러한 AI의 편향성 문제를 어떻게 극복할 수 있을까요? 카이스트 인공지능 공정성 연구센터는 이 문제를 기술적으로 풀었습니다. AI ..

인사이트 2022.03.08

[AI티타임] 팀닛 게브루 박사 "AI 천천히 개발하자"...'왜?'

[편집자주] 'AI티타임'은 기자가 취재한 내용을 간단한 티타임을 가지며 이야기한다는 의미와 AI타임스 줄임말인 'AIT'를 활용, 'AI타임스의 시간이다'라는 의미를 갖고 있습니다. 기자들이 취재한 내용 중 중요한 부분이나 취재 뒷 얘기를 영상으로 소개합니다. 짧은 영상으로, 알고 있으면 좋은 AI 정보 담아가시기 바랍니다. 가 지난 2월 팀닛 게브루 박사와 인터뷰를 가졌습니다. 팀닛 게브루 박사는 구글의 AI 알고리즘 편향성을 전 세계에 알린 인물입니다. 현재 비영리 연구 기관 'DAIR(Distributed AI Research Institute)'에서 AI 편향성, 인종차별 등을 연구해 세상에 알리고 있는데요. 그는 이번 인터뷰에서 국내뿐 아니라 전 세계 AI 발전을 위한 조언을 남겼습니다. 어떤..

인사이트 2022.03.04

[AI 주간브리핑] 구글 검색엔진 지적한 해외 연구자, 국내 AI 개발자에 의미심장한 질문 던졌다

[편집자주] 한 주간 주요 인공지능(AI) 동향을 가 정리해 드립니다. [AI 주간브리핑]을 보시며 주요 AI 이슈를 만나보세요. 본문 내 제목을 클릭하면 자세한 기사 내용을 보실 수 있습니다. 팀닛 게브루 박사, AI 윤리 발전 방법으로 '개발자 위한 환경 조성' 강조 [단독인터뷰] 팀닛 게브루 박사가 한국에 던진 질문 "한국 빅테크 기업 개발자는 자신의 소신을 밝힐 수 있는가" 구글 검색엔진의 AI 편향성 문제를 알리고, 대규모 AI 언어모델이 가진 탄소배출 문제를 지적한 팀닛 게브루 박사가 와 단독 인터뷰를 진행했습니다. 그는 구글 AI윤리팀 공동대표로 근무하다 구글의 AI 윤리 문제를 지적해 부당 해고된 사람이지요. 지금은 비영리 연구 기관 'DAIR(Distributed AI Research I..

인사이트 2022.02.14

[단독인터뷰] 팀닛 게브루 박사가 한국에 던진 질문 "한국 빅테크 기업 개발자는 자신의 소신을 밝힐 수 있는가"

AI 편향성...빅테크 기업 구조적 문제 심각 개발자 목소리 안 들려...유연한 환경 필요 AI 안전성 보장은 촘촘한 법률에서 시작돼 대규모 언어모델...인종·기후변화 노출 영향 AI타임스는 인공지능(AI) 윤리 확립에 앞장서고 있는 팀닛 게브루(Timnit Gebru) 박사와 단독 인터뷰를 가졌다. 그는 이번 인터뷰에서 AI의 윤리적인 발전을 위해서는 개발자가 마음껏 목소리를 낼 수 있는 자유로운 환경이 필요하다고 강조했다. "AI 윤리를 지키려면 개발자가 기업에 자유롭게 목소리 낼 수 있는 환경이 조성돼야 한다"는 게 그의 주장이다. 팀닛 게브루 박사는 인공지능(AI) 편향성을 전 세계에 알린 인물이다. 구글 AI윤리팀을 신설하고 2020년 12월까지 공동대표로 근무한 그는 AI 윤리와 편향성 문제에..

AI정책 2022.02.12

팀닛 게브루, 독립 AI 연구소 DAIR 설립...구글에서 해고된 지 1년만에

빅테크 기업 영향 벗어난 독립 연구소...370만달러 투자금 모아 초거대 AI 환경 오염 문제 지적한 게브루, 이제 SNS 악용에 집중 빅테크 밖 AI 윤리 연구가 구글, 아마존 등 기업 내 정책 바꿀 것 구글 경영진과 갈등을 겪다 해고된 인공지능(AI) 연구자 팀닛 게브루(Timnit Gebru)가 지난 2일(현지시간) AI 연구소 'DAIR(The Distributed Artificial Intelligence Research Institute)'를 설립했다. 구글 내 AI 윤리팀을 이끌던 게브루 박사는 초거대 인공지능(AI) 모델의 부정적 영향을 알리는 연구를 진행하다 작년 12월경 구글로부터 해고를 당한 바 있다. [관련기사]점입가경 팀닛 게브루 논문 논란, MIT가 분석해보니… DAIR는 커뮤니..

AI테크 2021.12.07

팀닛 게브루, "AI 제품으로 감시하는 이커머스, 편의·안전으로 포장되는 양면성 주의해야"

"감시는 항상 편리성과 안전성으로 판매된다"고 강조 인지하지 못하는 상황에서 데이터 수집 문제 발생 생체인식을 통한 '감정인식기술'에 대해 주의해야 구글에서 AI 윤리 문제를 지적해 해고당한 후, 블랙 인 AI(Black in AI)를 공동설립한 팀닛 게브루는 26일 2021 글로벌 AI 서밋에서 이커머스(e-Commerce)에 대한 양면성 문제를 제기했다. 그는 아마존의 감시 방식을 예로 들며, 우리가 인지하지 못하는 상황에서 발생하는 개인정보가 담긴 데이터 수집 문제에 대해 지적했다. "아마존은 매년 사람들이 새로운 기술이 들어간 제품을 사게 한다"며, "'감시는 사람들을 편안하게 하고, 안전을 위해 중요하다'는 마케팅으로 제품을 판매하고 있다"고 말했다. 특히, 얼굴 표정을 해석하고, 피부에 흐르는..

AI산업 2021.11.29

죽은 약혼자를 챗봇으로 살려낸 남자...AI윤리 논쟁 불러일으키나

프로젝트 디셈버‥ GPT-3 베타버전 접목시킨 챗봇 사이트기본 메뉴 외 커스터마이징 기능도 존재캐나다 거주 한 남성, 8년 전 죽은 약혼녀 소환언어모델 악용 사례냐 아니냐 두고 논쟁...사용자는 만족 자연어처리(NLP) 기술을 접목해 더욱 인간에 가깝게 대화하는 챗봇이 연이어 등장하고 있다. 발전속도가 빠를수록 이에 대한 찬반논란도 거세다. 지난 23일(이하 현지시간) 샌프란시스코 크로니클은 사용자가 직접 커스터마이징 할 수 있는 챗봇을 이용해 세상을 떠난 약혼자와 대화를 나눈 한 캐나다 남성의 이야기를 보도했다. ◆ 프로젝트 디셈버 속 특별한 기능 지난해 가을 조슈아 바흐보우(Joshua Barbeau)는 우연히 ‘프로젝트 디셈버(Project December)’라는 이름의 챗봇 사이트를 발견한다. 프..

AI테크 2021.07.28