EU가 AI법(AI Act) 가운데 고위험 AI 시스템에 적용되는 요건의 시행을 연기하기로 했다. 고위험 범주에는 의료 진단, 채용·고용 의사결정, 법 집행, 교육 평가 등에 쓰이는 AI가 포함된다. 해당 조항은 데이터 품질 관리, 투명성 보고, 인적 감독 체계 구축 등을 의무화하는 내용으로 업계의 준수 부담이 상당하다. EU 입법자들과 회원국들은 기업이 충분한 시간을 갖고 체계를 갖출 수 있도록 시행 시점을 뒤로 미루기로 잠정 합의했다.
연기 배경에는 업계의 강한 반발이 있다. AI 기업들은 준수 비용이 과도하고 기술적으로 요건을 충족하기 어렵다고 주장해왔다. 혁신 속도와 규제 강도 사이의 긴장은 EU만의 문제가 아니다. 트럼프 행정부도 AI 모델 검증에 관한 행정명령을 검토 중이고, 중국 법원은 AI로 직원을 대체하는 해고가 불법이라고 판결했다. 각국이 AI 규제의 범위와 강도를 놓고 서로 다른 접근법을 실험하고 있는 셈이다.
EU AI법은 세계 최초의 포괄적 AI 규제 법률이라는 상징성이 크다. 고위험 시스템 요건 연기가 규제 후퇴를 의미하는 것은 아니지만, 법 제정과 현장 적용 사이에 상당한 간극이 있다는 점을 인정한 결과이기도 하다. EU 시장에 AI 제품을 수출하는 한국 기업도 적용 대상이므로 시행 일정 변경을 면밀히 추적할 필요가 있다. AI 산업이 성장 속도를 높이는 만큼 규제 프레임워크도 유연하게 진화해야 한다는 과제가 남아 있다.