당사 뉴스레터의 10월호에는 오슬로에서 열린 '전자산업 내 AI 신뢰성' 정상회의 보고가 포함되어 있었습니다. 해당 행사와 유사한 다른 행사들에서 강조된 핵심 사항은, AI의 혜택을 극대화하면서 위험을 완화하는 열쇠는 견고한 거버넌스와 윤리적 관행에 있다는 점입니다.
인공지능(AI) 분야의 발전 속도는 매우 빠르기 때문에, 개인정보 보호와 오용 방지를 포함하여 AI 기술의 책임 있는 개발과 배포를 보장하기 위해서는 규제가 그 속도를 따라잡아야 합니다. 필요한 프레임워크와 규칙을 마련하기 위해서는 정책 입안자, 기술 전문가, 그리고 사회 전반의 협력이 요구됩니다.
규제 프레임워크 중 하나는 EU의 AI 법(AI Act, 규정 (EU) 2024/1689)으로, 2024년에 도입되었습니다. 유럽연합 집행위원회는 최근 AI 관련 디지털 옴니버스를 발표했는데, 이는 **디지털 간소화 패키지(Digital Simplification Package)**의 핵심 요소입니다. 이 규정은 AI 법의 원활하고 일관된 시행을 보장하고, 유럽의 준비 수준에 맞춰 속도를 조정하기 위해 설계된 타겟형 개정 규정입니다.
반면, 미국은 아직 AI를 규제하는 포괄적인 연방 법률이 없습니다. 대신 특정 조항과 자율적 가이드라인에 초점을 맞춘 노력이 진행되고 있습니다. 2020년 제정된 국가 AI 이니셔티브 법(National AI Initiative Act)은 특정 규제를 부과하지 않고 연방 기관 간 AI 활용을 조정하기 위한 프레임워크를 마련했습니다.
올해 초, 현 미국 행정부는 **행정명령 14179호 ‘Removing Barriers to American Leadership in Artificial Intelligence’**를 발표했는데, 이는 AI 개발의 혁신을 촉진하고 규제 부담을 줄이는 것을 목표로 하며, 이전 행정부가 마련한 많은 안전 및 감독 조치를 철회하는 내용입니다.
그러나 올해 미국의 50개 주와 준주 모두 AI 관련 자체 법률을 도입했습니다. 따라서 혁신과 경쟁력 강화에 대한 추진이 있는 반면, 통합된 연방 프레임워크의 부재로 인해 기업들은 다양한 주 법률을 준수해야 하는 복잡한 환경에 직면해 있습니다.
세계 다른 지역에서도 AI 관련 규제 프레임워크가 마련되었거나 마련 중입니다.
국제적으로는 IEC와 ISO 같은 표준화 기관이 중요한 통합 역할을 수행하고 있으며, ISO/IEC 42000 시리즈를 포함한 다양한 관련 표준을 발표했습니다. 특히 ISO/IEC 42001은 **AI 관리 시스템(AIMS)**에 대한 인증 가능한 표준입니다.
Nemko는 이 표준에 따른 기업 인증뿐만 아니라 AI 내장 제품에 대한 AI Trust Mark 인증도 제공합니다.
추가 정보 또는 서비스 신청을 원하시면, Bas.Overtoom@nemko.com또는 korea@nemko.com으로 문의해주시기 바랍니다.
(참고: IEC는 12월 2~3일에 한국 서울에서 AI 표준 Summit을 개최할 예정이며, 관련 내용은 여기를 참고해주시기 바랍니다.)