〈인공지능 국가전략〉(과학기술정보통신부, 2019.12.17)
인공지능 기술의 발전·확산과 함께 인공지능 기술의 윤리적 개발·활용 역시 세계 각국과 주요 국제기구의 관심 대상이 되어 왔다., 2019년 한국이 참여한 경제협력개발기구(OECD) 인공지능 권고안(‘19.5)을 비롯하여 OECD, 유럽연합(EU) 등 세계 각국과 국제기구, 기업, 연구기관 등 여러 주체로부터 다양한 인공지능 윤리 원칙이 발표된 바 있다.
- 인공지능 윤리기준 발표 이후 윤리기준의 현장 확산을 돕기 위해 개발자·공급자·이용자 등 주체별 체크리스트 개발, 인공지능 윤리 교육 프로그램 마련 등 구체적인 실천 방안을 마련하고 추진 중이다.
- 또한 2022년 출범한 AI 윤리정책 포럼을 통해 학계, 산업계, 교육계, 법조계, 시민사회 등 분야별 AI 또는 AI 윤리 전문가가 참여하여 AI의 발전과 사회적 확산에 따라 새롭게 등장하는 윤리적 이슈에 대하여 논의를 진행함으로써 AI 신뢰성 확보에 대한 사회적 합의 기반이 활성화되었다.
- 2020년 12월 23일 대통령 직속 4차산업혁명위원회 전체회의에서 인공지능 시대 바람직한 인공지능 개발·활용 방향을 제시하기 위한 사람이 중심이 되는 ‘인공지능(AI) 윤리기준’을 의결하였다.
- 인공지능·윤리학·법학 등 학계·기업·시민단체를 아우르는 주요 전문가들이 자문과 의견수렴 과정에 참여했으며 11.27 초안 발표 이후 12.7 공개 공청회 등 시민 의견수렴 과정의 결과물이다.
- 「인공지능 윤리기준」은 ‘사람 중심의 인공지능’을 위한 최고 가치인 ‘인간성(Humanity)’을 위한 3대 기본원칙과 10대 핵심요건을 제시하였다. - 인공지능 윤리 기준의 목표와 지향점: ① 모든 사회 구성원이 ② 모든 분야에서 ③ 자율적으로 준수하며 ④ 지속 발전하는 윤리기준을 지향한다
- 3대 기본원칙 : 인간성(Humanity)’을 구현하기 위해 인공지능의 개발 및 활용 과정에서 ❶ 인간의 존엄성 원칙, ❷ 사회의 공공선 원칙, ❸ 기술의 합목적성 원칙을 지켜야 한다.
- 10대 핵심요건: 3대 기본원칙을 실천하고 이행할 수 있도록 인공지능 개발~활용 전 과정에서 ⓵ 인권 보장, ⓶ 프라이버시 보호, ⓷ 다양성 존중, ⓸ 침해금지, ⓹ 공공성, ⓺ 연대성, ⓻ 데이터 관리, ⓼ 책임성, ⓽ 안전성, ⓾ 투명성의 요건이 충족되어야 한다.
〈인공지능(AI) 윤리기준)〉(과학기술정보통신부, 2020.12.22)
인공지능 윤리 소통채널(https://ai.kisdi.re.kr/aieth/main/main.do)