| 제목 | [정책분석] 인공지능 규제의 글로벌 동향과 한국 산업기술 정책 |
|---|
| 분류 | 성장동력산업 | 판매자 | 김민성 | 조회수 | 35 | |
|---|---|---|---|---|---|---|
| 용량 | 806.38KB | 필요한 K-데이터 | 11도토리 |
| 파일 이름 | 용량 | 잔여일 | 잔여횟수 | 상태 | 다운로드 |
|---|---|---|---|---|---|
| 806.38KB | - | - | - | 다운로드 |
| 데이터날짜 : | 2026-03-03 |
|---|---|
| 출처 : | 국책연구원 |
| 페이지 수 : | 27 |
1 EU: 위험 기반 규제 체계 선도
EU는 2024년 8월 「AI Act[Regulation (EU) 2024/1689]」를 발효시키며 세계 최초의 포괄적 AI규제 법률을 도입했다. EU 「AI Act」는 기존 제품 안전 규제 체계를 기반으로 AI 시스템을 위험 수준에 따라 분류하고 차등적 의무를 부과한다. 이러한 위험 기반 접근법은 각국 AI 규제의 준거 모델이 되었다. EU 「AI Act」는 단계적으로 시행되는데, 금지행위 규정은 2025년 2월 2일부터, 범용 AI(General-Purpose Artificial Intelligence, GPAI) 모델에 대한 규제는 2025년 8월 2일부터 시행되었으며, 고위험 AI 시스템 의무 중 제2유형(독자적 제품·서비스에 활용되는AI)은 2026년 8월 2일부터 전면 적용된다.
위험 기반 4단계 분류 체계
EU 「AI Act」의 핵심은 AI 시스템을 위험 수준에 따라 4단계 ‒수용 불가 위험, 고위험, 제한적 위험, 최소 위험 ‒로 분류하고 규제 의무를 차등화한 것이다. 수용 불가 위험(Unacceptable risk)을 가진 AI 시스템은 출시와 활용이 전면 금지된다. 여기에는 인지적 행동 조작, 취약 계층 악용, 사회적 평가의 점수화(social scoring), 특정 유형의 실시간 원격 생체인식 등이 포함된다. 고위험(High-risk) AI 시스템은 생애주기 동안 엄격한 규제 요건을 충족해야 하며, 두 가지 유형으로 구분된다. 제1유형은 자동차, 의료기기, 완구 등 기존 안전 법률이 적용되는 제품의 안전 구성요소(Safety component)로 사용되는 AI 시스템이고, 제2유형은 교통, 교육, 고용, 신용평가, 법 집행 등 “Annex III”에 열거된 분야에서 독자적으로 활용되는 AI 시스템이다. 챗봇, 감정인식 AI 등 이용자와 직접 상호작용하는 시스템은 제한적 위험(Limited risk) AI로 분류되어 투명성 의무가 적용된다. 이상의 범주에 속하지 않는 AI 시스템은 최소
------------------------------------------------------------------------------------------------------------------------------------------------------
![[정책분석] 인공지능 규제의 글로벌 동향과 한국 산업기술 정책.jpg](/files/attach/images/2026/03/17/94e39b1aa3e2885ec872cfb2265354ce.jpg)
※ 본 서비스에서 제공되는 각 저작물의 저작권은 자료제공사에 있으며 각 저작물의 견해와 DATA 365와는 견해가 다를 수 있습니다.

