반응형
Ⅰ. 인공지능 윤리 기준의 정의
- 인간 기준의 인공지능 개발을 목표로 과학기술정보통신부에서 제안한 개발과 활용 과정에서 지켜야할 3대 기본 원칙과 10대 핵심 요건의 윤리 기준
Ⅱ. 인공지능 윤리 기준 3대 기본원칙과 10대 핵심요건
가. 3대 기본 원칙
| 기원 원칙 | 설명 |
| 인간 존엄성 원칙 | - 인간은 인간을 위해 개발된 기계제품과 교환 불가한 가치 - 인간의 생명, 정신적 및 신체적 건강에 해가 되지 않는 개발 및 활용 - 인공지능 개발과 활용은 안전성과 견고성을 갖추어 해가 되지 않아야 함 |
| 사회 공공선 원칙 | - 공동체로서 사회는 가능한 많은 사람의 행복 가치 추구 - 인공지능은 사회 약자와 취약 계층의 접근성 보장 - 공익 증진을 위한 인공지능은 사회, 국가 관점에서 보편적 복지 향상 |
| 기술 합목적성 원칙 | - 인공지능 기술은 인류 삶의 필요 도구라는 목적과 의도에 맞게 개발 - 인류의 삶과 번영을 위한 인공지능 개발 및 활용 장려 |
나. 10대 핵심 요건
| 기본 원칙 | 핵심 요건 | 설명 |
| 인간 존엄성 | 인권 보장 | - 모든 인간의 권리 존중, 권리 보장 - 인간의 권리와 자유를 침해하지 않음 |
| 프라이버시보호 | - 개발 활용 과정에서 개인 프라이버시 보호 - 개인 정보의 오용을 최소화 |
|
| 다양성 존중 | - 사용자의 다양성, 편향과 차별 최소화, 공정 적용 - 사회적 약자, 취약 계층 접근성 보장 |
|
| 사회 공공성 | 침해금지 | - 인간에게 직간접적인 해를 입히는 목적 활용 금지 - 위험과 부정적 결과에 대응 방안 마련 |
| 공공성 | - 사회적 공공성 증진과 인류의 공동 이익 추구 - 긍정적 사회변화를 이끄는 방향으로 활용 - 순기능 극대화, 역기능 최소화 교육 |
|
| 연대성 | - 집단 간의 관계 연대성 유지 - 다양한 주체들의 공정한 참여 기회 보장 - 윤리적 개발 및 활용에 국제사회 협력 |
|
| 기술의 합목적성 | 데이터 관리 | - 데이터 목적 외 용도 활용 금지 - 데이터 편향성 최소화, 데이터 품질 관리 |
| 책임성 | - 개발 과정 책임 주체 명확히 설정 | |
| 안전성 | - 잠재적 위험 방지와 안전 보장 - 오류 및 침해 발생시 작동 제어 기능 마련 |
|
| 투명성 | - 적합한 수준의 투명성과 설명 가능성 마련 - 제품 서비스에 인공지능 위험성 등의 유의사항 사전 고지 |
- AI for Humanity를 위해 개발 및 활용 전 과정에서 고려되어야 할 기준
반응형