AI윤리 22

[김동원의 Eye-T] AI 면접, 정말 공정하고 객관적이라고 생각해?

일상에 편의 가져온 AI, 사람까지 평가한다? 채용과 근무, 신용대출 평가에 AI 기술 쓰여 사람보다 AI가 객관적이고 공정하다는 이유 AI가 사람 평가했을 때 발생한 문제점 많아 빠른 기술 도입보단 안전장치 확보가 우선 [편집자 주] [김동원의 Eye-T]는 IT 소식을 직접 눈(Eye)으로 보는 것처럼 생생하게 전달하는 것을 목적으로 합니다. 다양하고 재미있는 IT 기술과 솔루션을 쉽고 자세하게 보여드리겠습니다. 인공지능(AI) 기술이 일상에 많은 편의를 가져오고 있습니다. AI가 업무상 대화를 녹음해 자동으로 텍스트로 작성해주기도 하고요. 번역을 해주기도 하죠. 카메라로 촬영한 영상을 판독해주는 역할도 해요. MRI나 CT 영상을 판독해 건강 이상 여부를 알려주기도 하고 공항 출국 시 물품 검사를 ..

인사이트 2022.04.06

이상직 변호사, AI와 공존의 길 찾다...'나는 인공지능을 변호한다' 출간

인간의 삶의 녹아든 AI와의 공존에 대한 내용 다뤄 AI를 바로 알아야 기술 주체될 수 있단 메시지 담아 "AI가 정부·전문가 영역이어선 안돼, 국민 이해 필요" AI가 가져오는 혜택과 문제점 누구나 알기 쉽게 집필 이상직 법무법인 태평양 변호사가 '나는 인공지능을 변호한다' 신간을 출간한다. 인공지능(AI) 기술이 생활에 밀접하게 연관되면서 발생하는 문제점을 지적하고 공존의 길을 찾는다. 책에는 정보통신과 개인정보, 데이터 관련 업무를 진행해온 이 변호사의 경험과 지식이 담겼다. 책은 오는 23일 정식 출간될 예정이다. 2016년 3월 딥마인드가 개발한 AI 알파고와 이세돌 9단의 바둑대결은 세계인의 이목을 집중시켰다. 그동안 빛을 보지 못했던 AI 기술이 수면 위에 드러난 순간이었다. 이후 6년이 지..

인사이트 2022.03.18

AI가 공정한지 진단하는 시스템, 국내서 개발...IBM·MS·구글 모델보다 성능 우수

카이스트 인공지능 공정성 연구센터 'MAF 2022' 개발 AI 알고리즘과 데이터의 공정성을 검출·완화하는 기술 AI 안면인식·챗봇 등의 편향성 문제 사전에 해결 가능 IBM·MS·구글이 오픈소스로 공개한 모델보다 성능 높아 센터 "누구나 사용할 수 있도록 오픈소스로 공개할 것" 인공지능(AI) 공정성을 진단하고 편향성을 교정하는 진단시스템이 국내 연구진에 의해 개발됐다. 카이스트 인공지능 공정성 연구센터(센터장 유창동)는 AI 모델과 학습데이터의 편향성을 분석·탐지·완화·제거하는 프레임워크 'MSIT AI FAIR 2022(MAF 2022)'를 개발했다. 기존에 공개된 IBM, 마이크로소프트(MS), 구글이 내놓은 진단시스템보다 높은 성능을 자랑한다. 기업이 아닌 연구소에서 AI 공정성을 진단하는 프레..

AI테크 2022.03.04

[AI티타임] 팀닛 게브루 박사 "AI 천천히 개발하자"...'왜?'

[편집자주] 'AI티타임'은 기자가 취재한 내용을 간단한 티타임을 가지며 이야기한다는 의미와 AI타임스 줄임말인 'AIT'를 활용, 'AI타임스의 시간이다'라는 의미를 갖고 있습니다. 기자들이 취재한 내용 중 중요한 부분이나 취재 뒷 얘기를 영상으로 소개합니다. 짧은 영상으로, 알고 있으면 좋은 AI 정보 담아가시기 바랍니다. 가 지난 2월 팀닛 게브루 박사와 인터뷰를 가졌습니다. 팀닛 게브루 박사는 구글의 AI 알고리즘 편향성을 전 세계에 알린 인물입니다. 현재 비영리 연구 기관 'DAIR(Distributed AI Research Institute)'에서 AI 편향성, 인종차별 등을 연구해 세상에 알리고 있는데요. 그는 이번 인터뷰에서 국내뿐 아니라 전 세계 AI 발전을 위한 조언을 남겼습니다. 어떤..

인사이트 2022.03.04

[AI 주간브리핑] AI 윤리 확산에 팔 걷어붙인 정부

[편집자주] 한 주간 주요 인공지능(AI) 동향을 가 정리해 드립니다. [AI 주간브리핑]을 보시며 주요 AI 이슈를 만나보세요. 본문 내 제목을 클릭하면 자세한 기사 내용을 보실 수 있습니다. 이번 주에는 인공지능(AI) 발전과 관련한 정부 소식이 많았습니다. 정부는 AI 윤리 확산을 위한 '제1기 인공지능 윤리 정책 포럼'을 24일 출범시켰습니다. 의료 AI 발전과 메타버스 플랫폼 성장을 위한 정부지원 공모도 시작했습니다. 이러한 노력 덕분일까요? 한국은 '2021 인공지능 민주적 가치 지수'에서 최상위 등급을 받는 성과를 기록했습니다. 기업과 연구기관도 다양한 AI 연구성과를 발표했습니다. AI 윤리에 팔 걷어붙인 정부 정부, AI 윤리 확산 나섰다...'제1기 인공지능 윤리 정책 포럼' 출범 정부..

인사이트 2022.02.28

정부, AI 윤리 확산 나섰다...'제1기 인공지능 윤리 정책 포럼' 출범

윤리분과·기술분과·교육분과 등 3개 위원회로 구성 고학수 서울대 법학전문대학원 교수, 위원장 임명 전 국민 대상 AI 윤리 교육 위한 콘텐츠 개발 나서 AI 발전 양상·국제 동향 고려한 윤리과제 발굴 예정 정부가 인공지능(AI)의 윤리적 개발과 활용을 촉진하기 위해 나섰다. 과학기술정보통신부는 정보통신정책연구원(KISDI), 한국정보통신기술협회(TTA)와 24일 '제1기 인공지능 윤리 정책 포럼'을 출범시켰다. 포럼은 전 국민 대상 AI 윤리 교육과 윤리 정책의 방향 등을 제시해나갈 계획이다. AI 윤리는 'AI 관련 이해관계자들이 준수해야 할 사회 규범'으로 정의할 수 있다. AI 기술개발 과정에서 사람의 프라이버시를 침해하거나 AI가 잘못된 판단으로 편견과 차별을 조장하는 등 사회적 규범에 반하는 결..

카테고리 없음 2022.02.28

[단독인터뷰] 팀닛 게브루 박사가 한국에 던진 질문 "한국 빅테크 기업 개발자는 자신의 소신을 밝힐 수 있는가"

AI 편향성...빅테크 기업 구조적 문제 심각 개발자 목소리 안 들려...유연한 환경 필요 AI 안전성 보장은 촘촘한 법률에서 시작돼 대규모 언어모델...인종·기후변화 노출 영향 AI타임스는 인공지능(AI) 윤리 확립에 앞장서고 있는 팀닛 게브루(Timnit Gebru) 박사와 단독 인터뷰를 가졌다. 그는 이번 인터뷰에서 AI의 윤리적인 발전을 위해서는 개발자가 마음껏 목소리를 낼 수 있는 자유로운 환경이 필요하다고 강조했다. "AI 윤리를 지키려면 개발자가 기업에 자유롭게 목소리 낼 수 있는 환경이 조성돼야 한다"는 게 그의 주장이다. 팀닛 게브루 박사는 인공지능(AI) 편향성을 전 세계에 알린 인물이다. 구글 AI윤리팀을 신설하고 2020년 12월까지 공동대표로 근무한 그는 AI 윤리와 편향성 문제에..

AI정책 2022.02.12

AI챗봇 '이루다'가 돌아온다...내년 1월 비공개 테스트

AI 챗봇 '이루다', 내년 '이루다2.0'으로 출시 예정 스캐터랩, 클로즈 베타테스트로 윤리적 이슈 사전 예방 일반 사용자 3000명 대상으로 테스트 1월 진행 올 초 인공지능(AI) 윤리성 논란을 일으켰던 AI 챗봇 '이루다'가 새 버전 출시를 위해 박차를 가하고 있다. ‘이루다 2.0’을 내놓기 전 비공개 테스트로 AI 윤리적 이슈를 미리 예방할 방침이다. AI 스타트업 스캐터랩(대표 김종윤)이 클로즈 베타테스트를 내년 1월부터 진행한다고 21일 밝혔다. 내년 ‘이루다2.0’을 공식적으로 출시하기 전 진행하는 테스트다. 서비스 전반에 걸쳐 AI 윤리를 점검하고 실제 사용자 의견을 받아 서비스를 고도화하기 위해서다. 공식 출시는 해당 테스트를 통해 사용자의 의견과 개선 사항을 점검한 후 결정할 방침이..

AI산업 2021.12.24

딥마인드도 초거대 AI 언어모델 고퍼 공개...크기 대비 성능이 차별점

관련 논문 2개 함께 발표...2800억개 매개변수로 구성 GPT-3보다 크기 조금 크지만 MMLU 성능은 2배 능가 검색 언어모델 RETRO, 25분의 1 크기로 GPT-3와 같은 성능 딥마인드가 초거대 인공지능(AI) 언어모델 개발 경쟁에 처음 합류했다. 모델 크기를 늘리는 여타 기업과 달리 AI 학습 효율을 높여 개발 비용을 줄이는 전략을 택했다. 9일(현지시간) 딥마인드는 자체 개발한 초거대 AI 언어모델 고퍼(Gopher)를 공개했다. 고퍼의 성능을 증명하는 논문과 함께 이날 딥마인드는 검색 언어모델(Retrieval Language Model)과 거대 언어모델의 윤리 문제를 각기 다룬 논문 2개를 함께 발표했다. 먼저 고퍼의 크기에 대해 살펴보자면 2800억개 매개변수로 구성됐다. 오픈AI의 ..

AI테크 2021.12.14

AI가 낸 사고 다루려면 어떤 법 필요할까? 자율주행차부터 AI 챗봇까지

과기정통부 '제3차 인공지능 법제정비단 공개발표회' 내용 자율주행차 사고 중재하는 전문가 위원회 필요...챗봇 악용 사용자 제재도 AI 기본법에서 AI 정의, 실제로 쓰려면 기술적으로 보다 명료해야 자율주행차 사고 시 손해 배상은 어떻게 진행할까? 사용자를 모욕하는 AI 챗봇을 처벌할 수 있을까? 법조계 전문가들이 모여 인공지능(AI)을 통해 피해를 입었을 시 필요한 법제도를 논의하는 자리가 마련됐다. 과기정통부는 9일 코엑스에서 '제3차 인공지능 법제정비단 공개발표회'를 개최했다. 인공지능 법제정비단은 과기정통부 주관으로 구성한 전문가 협의체다. AI와 관련된 법, 제도, 규제 관련 주요 이슈를 논의하기 위한 곳이다. 인공지능 법제정비단에서는 매월 공개 발표회를 개최해 학계, 업계, 국민 의견을 수렴하..

AI정책 2021.12.10