트럼프 행정부가 새로운 AI 모델의 출시 전 사전 검증 절차를 포함하는 행정명령(Executive Order)을 검토하고 있다. 핵심은 기술 기업 경영진과 정부 관료가 함께 참여하는 AI 워킹그룹(working group)을 구성해 신규 AI 모델의 잠재적 위험을 출시 전에 평가하는 체계를 만드는 것이다. 정부가 일방적으로 규제를 부과하는 방식이 아니라 업계와 공동으로 감독 기준을 설계하는 협력적 접근법이 논의되고 있다.
이는 규제 완화를 기조로 삼아온 트럼프 행정부의 AI 정책에서 미묘한 방향 전환을 시사한다. 파이브 아이즈(Five Eyes) 동맹 역시 최근 에이전틱 AI(agentic AI)의 안전 위험을 공식 경고한 바 있어 국제적으로 AI 감독 논의가 확산되는 흐름이다. 에이전틱 AI에 Q2에만 426억 달러가 쏟아지며 자율적으로 행동하는 AI 에이전트가 급속히 확산되고 있는 상황에서 안전 장치에 대한 요구도 함께 커지고 있다.
중국이 AI로 인한 근로자 해고를 불법으로 판결한 사례나 보스턴 공립학교가 AI 리터러시를 졸업 요건에 포함시킨 움직임처럼 각국 정부와 기관이 AI에 대한 대응 체계를 빠르게 갖추고 있다. 미국 연방 차원에서 AI 모델 사전 검증이라는 구체적 메커니즘이 논의되고 있다는 점은 주목할 만하다. 다만 구체적인 검증 기준이나 강제력의 범위가 아직 확정되지 않은 만큼 실질적인 규제 효과는 최종 행정명령의 내용에 달려 있다.