반응형
Ⅰ. 인공지능 윤리 기준의 정의
- 인간 기준의 인공지능 개발을 목표로 과학기술정보통신부에서 제안한 개발과 활용 과정에서 지켜야할 3대 기본 원칙과 10대 핵심 요건의 윤리 기준
Ⅱ. 인공지능 윤리 기준 3대 기본원칙과 10대 핵심요건
가. 3대 기본 원칙
기원 원칙 | 설명 |
인간 존엄성 원칙 | - 인간은 인간을 위해 개발된 기계제품과 교환 불가한 가치 - 인간의 생명, 정신적 및 신체적 건강에 해가 되지 않는 개발 및 활용 - 인공지능 개발과 활용은 안전성과 견고성을 갖추어 해가 되지 않아야 함 |
사회 공공선 원칙 | - 공동체로서 사회는 가능한 많은 사람의 행복 가치 추구 - 인공지능은 사회 약자와 취약 계층의 접근성 보장 - 공익 증진을 위한 인공지능은 사회, 국가 관점에서 보편적 복지 향상 |
기술 합목적성 원칙 | - 인공지능 기술은 인류 삶의 필요 도구라는 목적과 의도에 맞게 개발 - 인류의 삶과 번영을 위한 인공지능 개발 및 활용 장려 |
나. 10대 핵심 요건
기본 원칙 | 핵심 요건 | 설명 |
인간 존엄성 | 인권 보장 | - 모든 인간의 권리 존중, 권리 보장 - 인간의 권리와 자유를 침해하지 않음 |
프라이버시보호 | - 개발 활용 과정에서 개인 프라이버시 보호 - 개인 정보의 오용을 최소화 |
|
다양성 존중 | - 사용자의 다양성, 편향과 차별 최소화, 공정 적용 - 사회적 약자, 취약 계층 접근성 보장 |
|
사회 공공성 | 침해금지 | - 인간에게 직간접적인 해를 입히는 목적 활용 금지 - 위험과 부정적 결과에 대응 방안 마련 |
공공성 | - 사회적 공공성 증진과 인류의 공동 이익 추구 - 긍정적 사회변화를 이끄는 방향으로 활용 - 순기능 극대화, 역기능 최소화 교육 |
|
연대성 | - 집단 간의 관계 연대성 유지 - 다양한 주체들의 공정한 참여 기회 보장 - 윤리적 개발 및 활용에 국제사회 협력 |
|
기술의 합목적성 | 데이터 관리 | - 데이터 목적 외 용도 활용 금지 - 데이터 편향성 최소화, 데이터 품질 관리 |
책임성 | - 개발 과정 책임 주체 명확히 설정 | |
안전성 | - 잠재적 위험 방지와 안전 보장 - 오류 및 침해 발생시 작동 제어 기능 마련 |
|
투명성 | - 적합한 수준의 투명성과 설명 가능성 마련 - 제품 서비스에 인공지능 위험성 등의 유의사항 사전 고지 |
- AI for Humanity를 위해 개발 및 활용 전 과정에서 고려되어야 할 기준
반응형