과학기술정보통신부(이하 과기정통부)와 정보통신정책연구원은 12월 23일 대통령 직속 4차산업혁명위원회 전체회의에서 인공지능 시대 바람직한 인공지능 개발·활용 방향을 제시하기 위한 사람이 중심이 되는 '인공지능(AI) 윤리기준'을 마련했다.
이는 윤리적 인공지능을 실현하기 위해 정부·공공기관, 기업, 이용자 등 모든 사회구성원이 인공지능 개발~활용 전 단계에서 함께 지켜야 할 주요 원칙과 핵심 요건을 제시하는 기준으로서,
그간 인공지능·윤리학·법학 등 학계·기업·시민단체를 아우르는 주요 전문가들이 자문과 의견수렴 과정에 참여했으며 11월 27일 초안 발표 이후 12월 7일 공개 공청회 등 시민 의견수렴을 거쳤다.
인공지능 기술의 발전·확산과 함께 인공지능 기술의 윤리적 개발·활용 역시 세계 각국과 주요 국제기구의 관심 대상이 돼왔으며, 지난해 우리나라가 주도적으로 참여한 OECD 인공지능 권고안을 비롯해 OECD, 유럽연합(EU) 등 세계 각국과 국제기구, 기업, 연구기관 등 여러 주체로부터 다양한 인공지능 윤리 원칙이 발표됐다.
이에 과학기술정보통신부는 이러한 글로벌 추세에 발 맞추어 지난해 발표된 '인공지능 국가전략' 주요 과제로 ‘인공지능 윤리기준’ 마련을 추진해왔다.
과기정통부는 올해 4월부터 인공지능·윤리 전문가로 구성된 인공지능 윤리연구반을 통해 국내외 주요 인공지능 윤리원칙을 분석하고, 그 결과를 윤리철학의 이론적 논의와 연계해 ‘인간성을 위한 인공지능(AI for Humanity)’를 목표로 하는 윤리기준 초안을 마련했으며, 3개월에 걸쳐 학계·기업·시민단체 등 각계의 다양한 전문가로부터 의견을 수렴했다.
이러한 과정을 거쳐 마련된 '인공지능 윤리기준'은 ‘사람 중심의 인공지능’을 위한 최고 가치인 ‘인간성(Humanity)’을 위한 3대 기본원칙과 10대 핵심요건을 제시하고 있다.
3대 기본원칙은 ‘인간성(Humanity)’을 구현하기 위해 인공지능의 개발 및 활용 과정에서 ①인간의 존엄성 원칙, ②사회의 공공선 원칙, ③기술의 합목적성 원칙을 지켜야 한다.
이러한 3대 기본원칙을 실천하고 이행할 수 있도록 인공지능 개발~활용 전 과정에서 ⓵인권 보장, ⓶프라이버시 보호, ⓷다양성 존중, ⓸침해금지, ⓹공공성, ⓺연대성, ⓻데이터 관리, ⓼책임성, ⓽안전성, ⓾투명성의 요건이 충족돼야 한다.
과기정통부는 그간 전문가·시민 의견수렴 과정에서 제기된 바와 같이 향후 윤리기준의 현장 확산을 돕기 위해 개발자·공급자·이용자 등 주체별 체크리스트 개발, 인공지능 윤리 교육 프로그램 마련 등 구체적인 실천방안을 마련하고 추진해나갈 계획이며,
앞으로도 ‘인공지능 윤리기준’을 기본 플랫폼으로 해 다양한 이해관계자 참여하에 인공지능 윤리 이슈를 지속 논의하고 윤리기준이 기술·사회 변화를 반영해 계속해서 발전될 수 있도록 노력할 예정이다.
과기정통부 최기영 장관은 “지난 11월 27일 윤리기준 초안을 발표한 후 공청회 등 폭넓은 공개 의견수렴을 거쳐 '인공지능 윤리기준'이 마련된 만큼, 동 윤리기준이 인공지능 윤리 이슈에 대한 우리사회의 토론과 숙의의 시작점이자 사람 중심의 인공지능으로 나아가는 플랫폼이 되도록 노력하겠다”고 밝혔다.