생성형 AI가 산업을 변화시키기 시작하면서 글로벌 정책 입안자들은 기술의 위험을 완화하면서 기회를 최적화하기 위한 법률을 제정하고 있습니다.
인간에게 긍정적인 영향을 미칠 수 있는 AI의 잠재력은 모두를 위한 가치 창출에 중점을 둔 책임감 있고 인간 중심적인 접근 방식에 달려 있습니다.
대규모 언어 모델(LLM)을 포함한 생성형 인공지능(GenAI)의 기능과 실시간 지리적 위치 데이터, 안면 인식 및 고급 인지 처리를 사용하는 시스템의 가속화로 인해 AI 규제가 정책 입안자의 우선순위 맨 위에 올랐습니다.
간단하지 않습니다. 예를 들어, 유럽에서는 일부 회원국이 경찰의 안면 인식 사용을 자유화하기를 원한 반면, EU 의회는 AI 법의 일환으로 엄격한 제한을 부과하기를 원했기 때문에 타협점을 찾기까지 마라톤협상이 이루어졌습니다.
2023년 4월 인도 전자정보통신부는 AI 입법에 대한 또 다른 논의에서 AI 규제에 반대하고 "강력한 AI 부문을 육성하기 위해 필요한 정책과 인프라 조치를 시행하고 있지만 성장을 규제하기 위한 법안을 도입할 의도는 없다"는 강력한 성명을 발표했습니다. 그러나 2023년 5월 IT장관은 인도가 ChatGPT와 같은 AI 플랫폼을 규제할 계획이며 "알고리즘 및 저작권의 편향과 관련된 영역을 포함하는 AI에 대한 규제 프레임워크를 고려하고 있다"고 발표했습니다.
마찬가지로, 미국이 조만간 AI에 대한 새로운 연방 법안을 통과시킬 가능성은 낮지만, 2023년 10월 바이든 행정부가 발표한 행정 명령은 AI 연방 조달의 주요 고려 사항으로 안전, 보안 및 시민권에 대한 우려를 강조했으며, 연방거래위원회(FTC)와 같은 규제 기관은 생성형 AI의 영향에 대한 대중의 우려에 대응했습니다. 일부 AI 플랫폼에 대한 광범위한 조사를 시작합니다.
AI는 금융, 제조업에서 농업, 의료에 이르기까지 다양한 산업의 운영을 개선하고 업무의 성격을 재편함으로써 산업을 변화시키고 있습니다. AI는 더 스마트한 차량 관리 및 물류를 가능하게 하고, 에너지 예측을 최적화하고, 환자 데이터 및 예측 모델링을 분석하여 병상을 보다 효율적으로 사용하고, 첨단 제조의 품질 관리를 개선하고, 개인화된 소비자 경험을 창출합니다.
또한 납세자에게 더 낮은 비용으로 시민에게 더 나은 서비스를 제공할 수 있는 능력을 가진 정부에서도 채택하고 있습니다. 전 세계 민간 부문이 AI에 투자하면서 투자 수준은 2013년보다 18배 증가했습니다. AI는 잠재적으로 경제 성장의 강력한 원동력이자 공공 서비스의 핵심 원동력입니다.
그러나 GenAI의 위험과 의도하지 않은 결과도 현실입니다. 다양한 레지스터를 설득력 있게 모방할 수 있는 텍스트 생성 엔진은 오용될 수 있습니다. 음성 모방 소프트웨어는 은행, 직장 또는 친구를 설득할 수 있을 만큼 개인의 음성 패턴을 충분히 모방할 수 있습니다. 챗봇은 테스트에서 속임수를 쓸 수 있습니다. AI 플랫폼은 성별, 인종 또는 성적 지향에 근거한 인간의 역사적 편견을 강화하고 영속화하며, 개인의 권리를 훼손하고, 데이터 보안을 손상시키고, 잘못된 정보와 허위 정보를 생산하고, 금융 시스템을 불안정하게 만들고, 전 세계적으로 다른 형태의 혼란을 일으킬 수 있습니다. 위험 부담이 큽니다.
입법자, 규제 기관 및 표준 제정자는 AI의 위험을 완화하면서 사회에 대한 AI의 이점을 극대화하기 위한 프레임워크를 개발하기 시작했습니다. 이러한 프레임워크는 탄력적이고 투명하며 공평해야 합니다. EY는 진화하는 규제 환경을 파악하기 위해 캐나다, 중국, 유럽연합(EU), 일본, 한국, 싱가포르, 영국, 미국 등 8개 국가의 규제 접근 방식을 분석했습니다. 규칙과 정책 이니셔티브는 경제협력개발기구(OECD)의 AI 정책 관측소에서 제공되었습니다. 전체 보고서의 부록에 나열되어 있습니다.
인공 지능의 6가지 규제 동향
각 관할권이 서로 다른 문화적 규범과 법적 맥락에 따라 서로 다른 규제 접근 방식을 취해 왔다는 점을 인식하고, AI의 잠재적 피해를 완화하는 동시에 시민의 경제적, 사회적 이익을 위해 AI를 사용할 수 있도록 한다는 광범위한 원칙 아래 통합되는 6가지 영역이 있습니다. 이러한 통합 영역은 세부 규정을 구축할 수 있는 강력한 기초를 제공합니다.
1. (핵심 원칙) 고려 중인 AI 규제 및 지침은 OECD에서 정의하고 G20에서 승인한 AI의 핵심 원칙과 일치합니다. 여기에는 인권 존중, 지속 가능성, 투명성 및 강력한 위험 관리가 포함됩니다.
2. (위험 기반 접근 방식) 이러한 관할 구역은 AI 규제에 대해 위험 기반 접근 방식을 취하고 있습니다. 이것이 의미하는 바는 AI와 관련하여 인식된 위험에 대한 AI 규정을 개인 정보 보호, 차별 금지, 투명성 및 보안과 같은 핵심 가치에 맞게 조정하고 있다는 것입니다. 이 "조정"은 규정 준수 의무가 위험 수준에 비례해야 한다는 원칙을 따릅니다(낮은 위험은 의무가 없거나 매우 적음을 의미하고, 높은 위험은 중요하고 엄격한 의무를 의미함).
3. (Sector-agnostic 및 sector-specific) AI의 다양한 사용 사례로 인해 일부 관할 구역에서는 부문에 구애받지 않는 규제 외에도 부문별 규칙의 필요성에 초점을 맞추고 있습니다.
4. (정책 조정) 관할 구역은 사이버 보안, 데이터 개인 정보 보호 및 지적 재산권 보호와 같은 다른 디지털 정책 우선 순위의 맥락에서 AI 관련 규칙 제정을 수행하고 있으며 EU는 가장 포괄적인 접근 방식을 취하고 있습니다.
5. (민간 부문 협업) 이러한 관할 구역 중 다수는 민간 부문이 정책 입안자와 협력하여 안전하고 윤리적인 AI를 촉진한다는 핵심 목표를 충족하는 규칙을 개발하고 면밀한 감독이 적절할 수 있는 AI와 관련된 고위험 혁신의 영향을 고려하기 위한 도구로 규제 샌드박스를 사용하고 있습니다.
6. (국제 협력) 강력한 새로운 생성 및 범용 AI 시스템으로 인한 안전 및 보안 위험에 대한 근본적인 불확실성에 대한 공통된 우려에 따라 각국은 이러한 위험을 이해하고 해결하기 위한 국제 협력을 추구하고 있습니다.
정책 입안자를 위한 AI에 대한 추가 고려 사항
AI 정책 개발 시 고려해야 할 다른 요소는 다음과 같습니다.
1. 규제 기관이 이러한 정책을 성공적으로 구현, 모니터링 및 시행할 수 있도록 충분한 주제 전문 지식에 액세스할 수 있도록 보장
2. 규칙 제정의 의도가 기술 자체(예: 자연어 처리 또는 얼굴 인식과 같은 속성) 또는 AI 기술 사용 방식(예: 채용 프로세스에 AI 적용) 또는 둘 다에서 발생하는 위험을 규제하는 것이라면 정책 명확성 보장
3. 위험 관리 정책 및 절차와 규정 준수에 대한 책임이 AI 관련 제품 및 서비스를 제공하는 제3자 공급업체에 적용되어야 하는 범위를 조사
또한 정책 입안자들은 규제 차익 거래와 관련된 위험을 최소화하기 위해 가능한 한 관할권 간의 AI 규칙을 상호 운용 가능하고 비교 가능하게 만들기 위한 다자간 프로세스에 참여해야 하며, 이는 AI와 같은 초국가적 기술의 사용을 관리하는 규칙을 고려할 때 특히 중요합니다.
기업을 위한 실천 단계
기업 리더의 경우, AI 규칙의 근간이 되는 핵심 원칙을 이해하면 해당 규칙이 현재 적용되지 않더라도 고객과 규제 기관이 AI 사용에 대한 확신을 심어줄 수 있으며, 이를 통해 시장에서 경쟁 우위를 확보할 수 있습니다. 또한 기업이 AI 개발 및 사용에 적용될 수 있는 거버넌스 요구 사항 및 규정 준수 요구 사항을 예측하여 민첩성을 높이는 데 도움이 될 수 있습니다.
식별된 추세를 바탕으로 기업이 빠르게 진화하는 AI 규제 환경에서 한 발 앞서 나가기 위해 지금 취할 수 있는 조치는 최소 세 가지입니다.
1. 사업을 영위하는 시장에서 시행 중인 AI 규정을 이해합니다. 내부 AI 정책을 이러한 규정 및 관련 감독 표준에 맞게 조정할 수 있습니다.
2. 강력하고 명확한 거버넌스 및 위험 관리 구조와 프로토콜은 물론 적절한 경우 책임 메커니즘을 구축하여 AI 기술 관리 방법을 개선합니다.
3. 공공 부문 공무원 및 기타 사람들과 대화하여 진화하는 규제 환경을 더 잘 이해하고 정책 입안자에게 유용할 수 있는 정보와 통찰력을 제공합니다.
거버넌스 접근 방식이 정부 감독과 혁신 사이에서 적절한 균형을 이루려면 기업, 정책 입안자 및 기타 이해 관계자가 열린 대화에 참여하는 것이 중요합니다. 이 모든 당사자들은 AI가 가능하게 하는 새로운 가능성을 찾기 위해 노력하고 있습니다. 새로운 규칙이 필요할 것입니다. 다행히도 우리의 검토에서 알 수 있듯이 AI 사용을 통제하기 위한 기본 원칙에 대해 국가 간에 광범위한 합의가 있습니다. 가능성과 위험이 공존하는 이 특별한 순간에, 지금이야말로 이러한 원칙을 실천으로 옮기기 위해 협력해야 할 때입니다.
이상의 기사는 2024년 1월 12일 EY(Ernst & Young) Global 홈페이지에 게재된 “How to navigate global trends in Artificial Intelligence regulation”제목의 기사 내용을 편집하여 작성하였습니다.
* 추가 정보 : https://drive.google.com/file/d/1xgRiWEN79XHO8RvvnyBAVID__od55LMT/view
* 정보 출처 : https://www.ey.com/en_gl/ai/how-to-navigate-global-trends-in-artificial-intelligence-regulation?WT.mc_id=10482660&AA.tsrc=display&dclid=CNuT47qs4YQDFVqI6QUd_7ICVQ
저작권자 ⓒ 창조아고라, 무단 전재 및 재배포 금지