EU, 인공지능 규제 강화에 전문가들 '반발'

by 편집부 posted May 09, 2023
?

단축키

Prev이전 문서

Next다음 문서

ESC닫기

+ - Up Down Comment Print

EU, 인공지능 규제 강화에 전문가들 '반발' 

 

유럽연합(EU) 의회가 세계 최초로 현재 논란이 되고있는 ChatGPT나 Midjourney와 같은 생성 시스템 등 인공지능에 대한 포괄 규제 초안에 합의에 도달, 11일(목) 소관 위원회 표결과 6월 본회의 표결을 통해 최종 확정할 예정이다.

이번 법안에 따르면 언론과 경제계에 큰 파장을 일으키고 있는 인공지능 시스템은 최소 제한에서부터 허용이 어려운 높은 단계까지 위험도를 분류해야 한다. 

초안에 따르면 고위험 시스템의 사용의 금지까지 제한하지는 않을 계획이지만, 최대한 시스템에 대한 정보가 가능한만큼 투명해야 한다고 독일 슈피겔(Spiegel)지는 보도했다.

또한 인공지능 시스템 제조업체는 개발에 저작권이 있는 자료가 사용되었는지의 여부와 함께 인공지능이 정확히 어떻게 작동하는지 공개해야한다. 

고도의 기술이 사용되었지만 여전히 신뢰할 수 없는 인공지능 시스템이 간혹 잘못된 정보를 제공하기도 하고, 시스템이 이념적 편향성을 가지고 프로그래밍되는 경우가 많은데 이를 막겠다는 것이 유럽연합의 목표이다.

그러나 유럽의 선도적인 인공지능 과학자들과 전문가들은 현재 유럽연합이 논의 중인 인공지능(AI) 규제 강화에 관한 법안을 반대한다는 성명을 발표했다. 

라이온(Laion) 협회의 공개 서한에 따르면, 이들은 유럽연합 의회의 의원들에게 인공지능 규제 초안이 연구와 기술 발전에 끼칠 영향을 고려해달라고 촉구했다.

이번 서한에는 인공지능 이미지 생성기 스테이블 디퓨전(Stable Diffusion)의 공동 개발자인 로빈 롬바흐(Robin Rombach), 독일 인공지능 연구센터장 안토니오 크루거(Antonio Krüger), 막스 플랑크 인공지능 시스템 연구소장 베른하르트 숄코프(Bernhard Schölkopf) 등 저명한 인공지능 과학자들이 참여했다.

라이온 협회의 성명에 따르면 "우리는 분명히 인공지능 기술에 대한 유럽연합의 감독에 찬성한다. 하지만 이는 유럽이 경쟁력을 유지할 수 있는 방식으로 설계되어야 한다“라고 전문가들은 규제안의 범위 설정에 대한 우려를 표했다.

현재 인공지능 과학자들은 특히 소스 코드를 공개하는 이른바 '오픈 소스 모델'에 대한 과도한 규제에 대해 우려하고 있다. 

오픈 소스 모델에서는 모든 사람과 모든 기업이 기술에 접근할 수 있고 취약점을 식별하며 인공지능의 이점을 활용할 수 있기 때문에, 이 모델을 도입할 때 무엇보다도 "보안과 경쟁력"이 매우 중요하다고 전문가들은 한 목소리를 내고 있다.

전문가들은 오픈 소스 모델을 통해 '필수 기술'이 몇몇 대기업의 손에 들어가는 것을 막아야 한다고 강조하고 있다. 

EU 의회는 오픈 소스를 제한하는 대신 법으로 공동 기술과 같은 개발을 촉진해야만 한다고 전문가들은 덧붙였다. 

라이온 협회는 “이러한 법적 지원 없이는 유럽은 인공지능 개발에서 훨씬 뒤처질 뿐만 아니라, 우리 사회를 형성할 결정적인 기술에 대한 자체 의사 결정권은 사라지고 소비자 역할로만 유럽의 역할이 제한될 것이다"라고 비판했다.

이번 EU의회가 규제하는 사항을 유럽KBA자료를 인용해 정리한다.

 

* 일반목적 인공지능(General Purpose AI)

가장 논란이 되던 일반목적 인공지능 규제와 관련, 챗GPT와 같은 일반목적 AI를 규제하는 이른바 '파운데이션 모델'이란 세부 카테고리를 설정, 보다 강화된 규제를 도입한다.

특히, 유럽의회는 일반목적 인공지능의 경우 디자인 및 개발 단계에서 EU법, 표현의 자유 등 기본권 보호 강화 의무 부여

 

* 금지된 인공지능 분야

예기치 않은 위험 초래 가능성에 따른 인공지능 사용 금지 분야와 관련, 생체인식 소프트웨어, 의도적 조작(Purposeful Manipulation), 감정인식 소프트웨어, 예측치안(Predictive Policing) 등을 인공지능 금지 분야로 지적된다.

일부 정파는 인공지능을 통한 모든 인간간의 통신에 대한 모니터링 금지를 요구하였으나, 최대 정파 국민당그룹(EPP)이 이를 강력 거부, 채택되지 못했다.

생체인식 소프트웨어의 경우 당초 실시간 사용만이 금지되었으나, 유럽의회는 사후 사용의 경우도 심각한 범죄 적발을 위한 경우로 법원의 승인 아래 사용할 수 있도록 제한했다.

감정인식 소프트웨어의 경우 사법, 국경관리, 직장 및 교육 분야 등에서의 사용이 금지되며, 예측치안의 경우 경찰 사법 이외 ㄹ행정 분야에서도 사용이 금지된다.

 

* 고위험 분야 (High-Risk AI and Use)

이른바 '고위험 분야'는 인공지능의 사용과 관련하여 위험 관리, 투명성 및 데이터 거버넌스 등에 관한 보다 강화된 규제가 적용된다.

당초 법안은 부칙 3(Annex III)*에 해당하는 인공지능 분야 및 사용의 경우 고위험 분야로 지정하였으나, 유럽의회는 부칙 3에 해당하는 인공지능 분야 및 사용의 경우에도 보건, 안전 및 기본권 등에 심각한 위해를 초래하는 경우를 고위험 분야로 지정했다.

 

*생체인증·범주화, 핵심기반시설의 관리·운영, 교육·직업훈련, 채용·인사관리·자영기회, 필수적 공공·민간서비스의 접근·향유, 법집행, 이민·난민·출입국관리, 사법과 민주적 절차의 집행

특히, '심각한 위해'는 위해의 정도, 강도, 발생 가능성 및 효과의 지속성 등의 종합적 결과와 개인이나 다수 또는 특정 그룹에 대한 영향을 고려하여 판단토록 규정했다.

또한, 녹색당그룹의 요구에 따라, 에너지 그리드 등 중요 인프라 분야에 사용되는 인공지능의 경우 심각한 환경적 위험을 초래할 가능성이 있는 경우에는 고위험 분야로 분류했다.

국민당그룹의 요구에 따라, 디지털서비스법(DSA)에서 규정한 이른바 '거대온라인플랫폼(Very Large Online Platform, VLOP)'도 고위험 분야에 포함키로 합의했다.

 

* 왜곡 정보 탐지(Detecting biases)

유럽의회는 성적 지향성 또는 종교적 신념 등 민감 개인정보를 처리하는 고위험 분야 인공지능 서비스 제공자는 익명, 가명 또는 암호화 처리 등을 통해 왜곡된 정보가 공개되지 않도록 보장하도록 요구했다.

또한, 인공지능 서비스 제공자는 민감 정보의 판단을 통제된 환경에서 수행해야 하며, 민감 정보가 제3자에게 이전되지 않도록 하고, 왜곡된 것으로 판단된 정보는 삭제해야 한다.

 

* 일반 원칙(General Principle)

일반 원칙은 인공지능 서비스제공자에 대해 새로운 의무를 부여하지는 않지만, 인공지능 기술표준 또는 안내문 등에 인공지능에 관한 기본 원칙으로 적용되어야 한다.

유럽의회는 인공지능의 일반원칙으로 인간에 의한 감시, 기술적 안정성, 개인정보 보호 및 데이터 거버넌스, 투명성, 사회 및 환경, 다양성, 비차별성 및 공정성 등을 제시했다.

 

* 지속가능한 고위험 분야 인공지능

위험 분야 인공지능 시스템은 환경발자국에 대한 기록을 보관해야 하며, 파운데이션 모델의 경우 유럽 환경기준을 준수해야 한다.

<사진: 슈피겔지 전재>

 

독일 유로저널 김지혜 기자

eurojournal03@eknews.net

유로저널광고

Articles

4 5 6 7 8 9 10 11 12 13

나눔글꼴 설치 안내


이 PC에는 나눔글꼴이 설치되어 있지 않습니다.

이 사이트를 나눔글꼴로 보기 위해서는
나눔글꼴을 설치해야 합니다.

설치 취소

Designed by sketchbooks.co.kr / sketchbook5 board skin

Sketchbook5, 스케치북5

Sketchbook5, 스케치북5

Sketchbook5, 스케치북5

Sketchbook5, 스케치북5