새로운 형태의 책임성을 향한 논의 동향
◇ 정부의 정책과 서비스의 설계 및 제공에 있어서 인공지능 채택이 증가함에 따라 알고리즘 및 기초 데이터의 편향성 제거, 데이터 윤리에 대한 이해도 향상 등 필요 - OECD는 정부의 투명성 제고, 시민과의 신뢰 강화를 위해 인공지능 책임에 대한 새로운 접근 방식을 이해, 테스트, 도입하는데 도움이 되는 실용적인 사례를 소개 ◇ 알고리즘 책임성은 알고리즘을 구축, 조달, 사용하는 사람들이 알고리즘의 영향에 대해 책임질 수 있도록 보장하는 것을 의미 - 공공 부문은 다른 어떤 분야보다도 AI 도입으로 인한 피해가 발생하지 않도록 주의해야 할 의무가 높음 - 네덜란드의 보육수당 스캔들, 미국 얼굴 인식 알고리즘에 의한 부당 체포 등의 사례를 통해 공공에서 발생한 알고리즘의 오작동이 국민의 신체와 재산에 미치는 영향과 사회적 문제를 설명 ◇ 반면, 알고리즘의 부작용에 대하여 해당 알고리즘을 금지하는 방법이외에는 법률 및 규제 프레임워크 측면에서 공공 행정에서의 알고리즘 사용에 대한 명확성이 현재로서는 부족한 상황 - 개인정보 보호 규정의 해석을 통한 제한, 독립적인 감독기구 설치 및 공공부문 알고리즘 사용에 대한 감사 논의 등이 진행 중이며, 2021년 제안된 EU의 인공지능법과 인공지능 책임 지침은 AI의 위험성 관리를 명시하고 있으나 의회의 의결까지는 많은 시간이 소요될 것으로 예상됨 - 알고리즘과 AI 시스템 이외에도 최신 AI 시스템을 학습시키는 데 사용되는 기초 데이터와 관련된 문제에도 세심한 주의 필요 - 데이터 거버넌스는 알고리즘 코드 및 위험 관리 프로세스와 함께 기초 데이터 자체의 무결성과 적절성을 보장하는 데 도움 ◇ AI법 및 기타 국제 및 국내 규정이 다가옴에 따라 정부와 기업 모두 데이터, 코드 및 프로세스 수준에서 빠른 진전을 이룰 수 있도록 노력해야 함 |
출처 : Global Trends in Government Innovation 2023 (2023.5, OECD)
소개된 요약 자료에 대한 전체 내용은 첨부하는 파일을 다운로드하여 확인하여 주시기 바랍니다. 감사합니다.