SOUTH KOREA INTERNET GOVERNANCE FORUM

[튜토리얼 1] AI 윤리 가이드라인의 글로벌 조망

□ 제안자

 

최은창(Free Internet Project)

 

□ 제안 취지 및 쟁점

 

지난 5년 동안 수많은 IT 민간기업, 연구기관, 공공 기관 등은 윤리적 인공지능(AI)에 대한 원칙과 지침을 발표했다. AI가 ‘윤리적’이어야한다는 당위성에는 공감대가 형성되고 있지만 그 구현에 필요한 요소, 기술 표준, 모범 사례가 무엇인가에 대한 논쟁은 여전하다. 윤리적 AI에 대한 글로벌 합의를 이루기 위한 토론이 본격화되는 가운데 윤리적 AI에 관한 현재 원칙과 가이드라인을 검토할 필요가 있다.

 

대표적 5 가지 윤리적 원칙은 투명성, 공정성,익명성, 설명가능성, 데이터 프라이버시 등이다. 구글·페이스북·아마존·IBM 등 글로벌 IT 기업들과 산하 연구소들이 모인 The Partnership on AI는 이미 2016년에 사적 영역에서의 AI 윤리와 거버넌스에 대한 검토를 시작했다. 한편 OECD 2019년에 인공지능 활용 원칙 권고안을 만장일치로 채택하여 공적 영역에서의 AI 거버넌스 논의를 시작했다. 2020년 출범한 ‘인공지능에 대한 글로벌 파트너십’ GPAI(Global Partnership on AI)는 국가간 AI 정책 협의체로서 프랑스와 캐나다 정부가 주도하고 사무국은 OECD 본부가 맡는다. 그 결과 국제기구 차원에서 AI 관련 논의는 OECD에서 GPAI 로 옮겨가게 되었고 여기에는 한국 정부도 참여하고 있다. 그러나 현재 AI 윤리와 거버넌스에 대한 정책적 사고는 여전히 형성적 단계에 머물고 있다.

그런데 윤리적 AI 자체는 윤리라는 개념 자체나 기술적 표준만이 전부는 아니라 AI를 설계하고, 관련 상품과 서비스를 제조하고, 사용하는 단계에 있는 다양한 이해관계자들이 참여하는 합의의 과정을 요구한다. 윤리적 AI와 관련하여 대립적 관점도 불거지고 있다. 예컨대 지능적 의사 결정 시스템이 널리 보급됨에 따라 AI가 통제 불가능한 위험을 야기할 수 있다는 인식이 높아지고 있으나 기업들은 위험은 충분히 통제 가능하다고 주장한다. EU은 AI의 유용성과 동일하게 안전과 신뢰를 강조하면서 ‘신뢰할수 있는 AI 윤리 가이드라인’을 발표했다. 한편, 글로벌 사우스(Global South) 국가들은 AI의 활용과 보급은 ‘개발’과 ‘포섭’의 관점에서 이루어져야 한다고 주장한다. AI를 ‘지능형 시스템’으로 정의할지 ‘인간을 닮은 자동화 기계’로 정의할지도 의견이 분분하다. AI가 비용과 위험을 최소화하고 다수에게 혜택을 극대화하는 방식으로 사용될 수 있는 방법에 대한 이해의 저변을 넓히고 토론 참여자들을 확장하기 위해서 튜토리얼을 제안하고자 한다.

 

발표 : 최은창(프리인터넷프로젝트)

 

* 강의자의 의견은 그 단체 또는 소속의 의견이 아님을 알려드립니다.

No Comments Yet

댓글 남기기

이메일은 공개되지 않습니다. 필수 입력창은 * 로 표시되어 있습니다.