AI정책

[단독인터뷰] 팀닛 게브루 박사가 한국에 던진 질문 "한국 빅테크 기업 개발자는 자신의 소신을 밝힐 수 있는가"

AI타임스 2022. 2. 12. 11:15

AI 편향성...빅테크 기업 구조적 문제 심각
개발자 목소리 안 들려...유연한 환경 필요
AI 안전성 보장은 촘촘한 법률에서 시작돼
대규모 언어모델...인종·기후변화 노출 영향

 

팀닛 게브루 박사. (사진=DAIR)

 

AI타임스는 인공지능(AI) 윤리 확립에 앞장서고 있는 팀닛 게브루(Timnit Gebru) 박사와 단독 인터뷰를 가졌다. 그는 이번 인터뷰에서 AI의 윤리적인 발전을 위해서는 개발자가 마음껏 목소리를 낼 수 있는 자유로운 환경이 필요하다고 강조했다. "AI 윤리를 지키려면 개발자가 기업에 자유롭게 목소리 낼 수 있는 환경이 조성돼야 한다"는 게 그의 주장이다.

 

팀닛 게브루 박사는 인공지능(AI) 편향성을 전 세계에 알린 인물이다. 구글 AI윤리팀을 신설하고 2020년 12월까지 공동대표로 근무한 그는 AI 윤리와 편향성 문제에 한 획을 그은 연구자로 알려져 있다. 게브루 박사는 2020년 12월 구글로부터 부당하게 해고됐다. 대규모 언어모델(LLM) 단점을 짚은 논문 영향이 컸다. 각국 수많은 AI 학자·개발자는 여전히 소셜네트워크서비스(SNS)로 그의 해고에 대한 부당함을 외치는 등 지지를 이어가고 있다.

 

게브루 박사는 지난해 12월 비영리 연구 기관 ‘DAIR(Distributed AI Research Institute)’을 설립했다. 자본과 권력에서 독립된 연구 기관이다. AI 빅테크 기업이 가져오는 편향성, 인종차별 등을 연구해 세상에 알리는 창구 역할을 한다. 올해 초 구글에서 AI윤리 연구를 진행하던 알렉스 한나(Alex Hanna)와 딜런 베이커(Dylan Baker)도 DAIR에 합류했다.

 

팀닛 게브루 박사의 활동은 현재 AI 산업에 시사하는 바가 크다. 유럽연합(EU)과 미국 등 AI 발전에 속도를 올리는 국가에서는 AI 발전 만큼이나 AI 윤리를 강조하고 있어서다. 한국 역시 마찬가지로 AI 법제화 준비부터 신뢰할 수 있는 AI, 설명할 수 있는 AI 개발에 많은 노력을 기울이고 있다.

 

게브루 박사는 작년 12월 비영리 연구 기관 ‘DAIR(Distributed AI Research Institute)’을 설립했다. (영상=김미정 기자)

 

Q. 커뮤니티 기반 독립 연구소 DAIR을 설립했다고 들었다. 구체적 연구 동향은 무엇인가.

 

작년 말 설립해서 아직 연구 중인 분야가 대다수다. 하나 꼽아보자면 과거 남아프리카공화국 인종차별정책(apartheid)이 남긴 공간적 흔적(spatial legacy)을 위성 이미지 약 7000개와 컴퓨터 비전 기술로 연구하고 있다. 공간에 나타나는 인종차별 흔적이 어떻게 변화했고 유지됐는지 비전 기술로 분석한다. AI에 역사, 문화, 사회를 하나로 생각해 보는 접근법이다. 

 

Q. 주로 북미에서 활동하던데, 아시아 AI 윤리적 상황은 어떻게 보나.

 

북미 상황과 크게 다르지 않다고 생각한다. 최근 나렌드라 모디(Narendra Modi) 인도 총리가 속한 인도국민당(BJP)이 '테크 포그(Tek Fog)' 프로그램으로 SNS 알고리즘을 조작한 의혹을 받고 있다. 중국에서는 안면인식 기술로 살벌해진 감시가 문제다. 이는 과거 미국 페이스북-케임브리지 애널리티카 사건 등 미국·유럽에서 일어나는 상황과 비슷하다.

 

Q. 연구자로서 관심 있게 보는 한국 AI기업·기관은.

 

특히 네이버 AI랩스가 해당 분야에서 활발이 연구 중이라는 건 알고 있다.

 

"‘기업-개발자-정부’라는 틀 안에 골고루 있어야 하는 힘 균형이 틀어졌다"고 지적한 게브루 박사. (사진=셔터스톡)

Q. 최근 전 세계적으로 AI 시스템이 만드는 편향성을 줄이자는 목소리는 높아졌지만 갈 길이 멀다. 현재 가장 큰 문제는.

 

빅테크 기업이 가진 구조적 문제(structural problem)다. 지금 전 세계적으로 빅테크 기업 힘이 너무 강하다. 국가와 개발자를 비롯해 시민과 함께 골고루 나눠야 할 힘 균형이 깨졌다는 의미다.

 

심지어 어떤 기업은 정부가 만든 법망 위에서 군림하는 경우도 있다. 기업은 정부가 무섭지 않다. 이런 상황에서는 AI 알고리즘 편향성을 지적하거나 시민에 알리려는 개발자 목소리가 묻힌다. ‘기업-개발자-정부’라는 틀 안에 골고루 있어야 하는 힘 균형이 틀어져서다.

 

Q. 개발자는 힘이 없는 건가.

 

삼성, 네이버, 카카오에서 일하는 개발자 파워가 얼마나 강한지 묻고 싶다. 그 사람들은 기술 개발을 위한 비윤리적 데이터 사용이 안전하지 않다는 걸 분명히 알고 있다. 그런데 힘이 없어서 말을 못하는 게 문제다. 

 

빅테크 기업 임원들은 서로 다 친하다. 만나서 관련 업무뿐만 아니라 회사 직원 이야기도 한다. 눈에 띄거나 기업에 손해를 입히는 직원이 생기면 다른 회사 임원도 안다는 거다. 한번 찍힌 개발자는 이 분야에서 살아남을 수 없다.

 

빅테크 기업이 사용하는 상품·기술이 비윤리적일 경우, 이를 자유롭게 말할 수 있는 '개발자 보호망'이 필요하다. (사진=셔터스톡)

Q, 극복 방안이 있다면 무엇인가.

 

기술 개발은 임원이 아닌 개발자가 한다. 빅테크 기업의 비윤리적인 행태를 활발히 말할 수 있는 '개발자 보호망(worker protection)'이 필요하다. AI 상품이나 기술에 인종·성차별적 편향이 확인되면 바로 지적할 수 있는 공론장이 절실하다. 정부도 이런 보호망 필요성을 잊어선 안 된다.

 

Q. 너무 이상적인 건 아닌지.

 

AI 기술 개발이 윤리적 방향으로 흘러가려면 반드시 필요하다. 현재 개발자 업무 환경은 너무 열악하다. 문제 지적도 못하고 노동 시간도 너무 길다. 힘 센 기업은 이에 귀 기울이지 않는다. (이런 분위기에서는) 당연히 잠재적 위험을 가진 AI 상품·기술이 나올 수밖에 없다.

 

팀닛 게브루는 AI 법제화가 안전한 AI 기술 개발을 위한 필수 단계라고 말했다. (영상=김미정 기자)

 

Q. 한국도 유럽처럼 AI 법제화를 준비하고 있다. 기업 측은 AI 개발 속도가 지연된다며 탐탁치 않아 보인다. 이 상황은 어떻게 보나.

 

기업이 생각하는 방식부터 잘못됐다. AI는 개발 속도가 빨라선 안 된다. AI 기술은 천천히 발전해야 한다. 고려해야 할 점이 많기 때문이다. AI와 인간, 환경, 국가 관계 등 모두 연결돼서다. 그런데 테크기업은 개발 속도 높이기에 혈안이다.

 

개발자가 “이 AI 상품은 100% 안전하다”고 확신할 때까지 안전한 게 아니다. 여기서 필요한 게 AI 법제화다. 안전성 보장은 촘촘한 법률에서 시작한다. 내가 살고 있는 미국도 이 부분에선 한참 뒤처졌다.

 

게브루 박사는 ‘친환경’이라는 단어를 너무 단순화해서 생각해선 안된다고 지적했다. (사진=셔터스톡)

Q. 대규모 언어모델(LLM)이 가져오는 탄소 배출을 지적한 걸로 알고 있다. 훈련에 드는 에너지를 친환경으로 바꿀 수도 있지 않은가.

 

‘친환경’이라는 단어를 너무 단순화해서 생각했다. 현재 관련 개발자들은 “우리 모델은 탄소중립적(carbon neutral)이다” 거나 “태양광이나 풍력으로 작동해서 환경에 문제 없다”고 말한다. 그러나 이는 눈속임이다.

 

태양광이나 풍력자원도 여전히 환경에 영향을 끼친다. 태양광 패널을 제작하기 위해 미네랄을 비롯한 광석을 캐야 한다. 여러 장비가 사용될 거고 탄소도 배출된다. 풍력 에너지를 개발하려고 평지에 멀쩡히 있던 수천 그루 나무를 가차 없이 베기도 한다.

 

Q. 그 외 다른 문제점이 있다면.

 

대규모 언어모델(LLM)에서 오는 인종차별과 기후변화와의 관계다. LLM에서 불리한 인종은 기후변화 영향에 더 크게 노출돼 있다. 이를 '환경적 인종차별(environmental racism)'이라 부를 수 있다.

 

예를 들어, 미국인이 이란인보다 LLM 우위에 있다고 치자. 미국인이 이란인보다 더 자주 표현되고 사용되는 인종이라는 의미다. 놀라운 건 LLM에서 불리한 인종은 오염된 환경에 더 크게 그리고 자주 노출된다. 반대로 기후변화 주범은 LLM에서 더 선호되고 빈번하게 노출되는 인종이다.

 

기후변화를 가속하는 건 바로 LLM에서 더 많이 등장하고 더 자주 사용되는 인종이라는 점을 알아야 한다.

 

팀닛 게브루는 DAIR을 통해 AI 윤리 연구에 매진하겠다고 밝혔다. (사진=게티이미지)

Q. AI 윤리 발전을 위해 팀닛 게브루과 DAIR의 향후 목표는.

 

늘 그래왔듯 어떻게 하면 사람들이 AI로 인한 편향성에서 벗어날 수 있을까에 대해 고심하겠다. 소외된 커뮤니티에서 나오는 목소리도 세상에 들리도록 노력하겠다. 또 비윤리적인 데이터 사용과 감시로부터 안전한 사회를 만들기 위해서도 지속적으로 연구하고 활동하겠다.

 

팀닛 게브루(Timnit Gebru)는 스탠퍼드대학(Standford University)에서 컴퓨터공학 박사 학위를 받았다. 박사후 과정으로 마이크로소프트(MS) ‘FATE(Fairness Accountability Transparency and Ethics in AI)’ 그룹에서 알고리즘 편향과 데이터 윤리에 대해 연구했다. 구글 AI윤리팀 공동대표도 역임했다. 작년 구글에서 부당 해임된 후, 같은 해 12월 커뮤니티 기반 독립 연구소 DAIR을 설립했다.

 

AI타임스 김미정 기자 kimj7521@aitimes.com

 

Copyright © '인공지능 전문미디어' AI타임스 (AI타임스 (aitimes.com))
무단전재 및 재배포 금지

 

 

 

[단독인터뷰] 팀닛 게브루 박사가 한국에 던진 질문 "한국 빅테크 기업 개발자는 자신의 소신을

AI타임스는 인공지능(AI) 윤리 확립에 앞장서고 있는 팀닛 게브루(Timnit Gebru) 박사와 단독 인터뷰를 가졌다. 그는 이번 인터뷰에서 AI의 윤리적인 발전을 위해서는 개발자가 마음껏 목소리를 낼 수

www.aitimes.com