| 제목 | [산업분석] AI 위험 사례집 |
|---|
| 분류 | 성장동력산업 | 판매자 | 장민환 | 조회수 | 38 | |
|---|---|---|---|---|---|---|
| 용량 | 24.07MB | 필요한 K-데이터 | 20도토리 |
| 파일 이름 | 용량 | 잔여일 | 잔여횟수 | 상태 | 다운로드 |
|---|---|---|---|---|---|
| 24.07MB | - | - | - | 다운로드 |
| 데이터날짜 : | 2025-11-28 |
|---|---|
| 출처 : | 국책연구원 |
| 페이지 수 : | 92 |
[ 서론 ]
최근 인공지능(AI)은 급속한 발전 속에서 일상생활의 필수적 요소로 기능함과 동시에 국가안보·경제·복지 등 분야에서 각국의 경쟁력을 좌우하는 핵심 전략자산으로 부상하였다.
그러나, 현재 AI 시스템들은 △내부 작동의 불투명성 △데이터 편향 등 자체적 한계에 더해 스보안 체계 미흡 △윤리 기준 미비 등 다양한 문제점을 안고 있다. AI 기술이 급속도로 발전·확산되고 있는 상황에서 이러한 문제들로부터 비롯될 위험요인을 사전에 예측하고 대비하는 노력을 기울이지 않는다면, 향후 대형 AI 사고 발생 시 국가적 대응 시스템이 제 기능을 발휘하기 어려울 것이다.
이에 본 사례집은 AI로 인해 발생 가능한 위협에 대한 AI 위험관리 전략 수립의 기초자료로 활용되는 것을 목표로 각 분야에서 발생 가능한 대표적 사고·피해 시나리오 70건과 이에 대한 예방·대응방안을 정리하였다.
이와 관련, AI로 인한 위협 발생 가능 분야는 1국가안보 2재난·재해·인프라 3경제·산업·의료 ▲사회·민생·인권 등 네 가지로 구분하였으며, 위협 유형 역시 1「AI 자체 오류」(AI가 개발자 또는 사용자의 의도와 다르게 작동하여 착오·기만·통제상실 등 의도치 않은 결과를 초래) 2'오용·악용」(AI가 사용자에 의해 사이버공격·무기 개발·감시 등 부적절한 목적으로 이용) 3「AI 대상 공격」(해커 등이 AI의 오작동·마비 등을 목표로 AI 시스템 외부에서 공격을 수행 또는 AI 시스템 내부에 침입하여 조작) 4「사회 구조 변화」(AI가 사회 시스템에 광범위한 영향을 끼치며 인권침해나 사회적 불평등 심화 등을 초래) 등 네 가지로 분류하였다.
각 위협 사례는 이상의 분야·유형 등 기준을 뼈대로 배경 → 사고 전개 및 결과 순서의 시나리오로 서술되었으며, 사례별 대비책과 함께 유사 사고·연구 사례를 덧붙여 위험 개연성·실현성에 대한 독자들의 체감도를 높이는데 노력하였다. 마지막에는 사례별 관계부처들을 명기한 바, 국민 안전에 기반한 AI 기본사회 구현을 위해 각급기관별로 소관 업무와 관련해 본 책자보다 더욱 상세한 위험요인 파악과 대책 마련이 시급히 이뤄지길 기대한다.
------------------------------------------------------------------------------------------------------------------------------------------------
![[산업분석] AI 위험 사례집.jpg](/files/attach/images/2026/01/02/0e28ea6426b17d341da339118cf555e0.jpg)
※ 본 서비스에서 제공되는 각 저작물의 저작권은 자료제공사에 있으며 각 저작물의 견해와 DATA 365와는 견해가 다를 수 있습니다.

