콘텐츠로 건너뛰기

EU, AI의 위험 완화를 목표로

유럽연합(EU)에서는 곧 인공지능(AI)의 사용에 대해 보다 엄격한 규칙이 적용될 것이다. 유럽 ​​이사회와의 장기 협상 이후 유럽 의회 대표는 다음 사항에 대해 합의에 이르렀다. AI법의 주요 특징.

제안된 법안은 유럽에서 AI가 안전하고 기본적인 권리와 민주주의가 존중되고 기업이 그 기술로부터 최대한의 이익을 얻을 수 있도록 하는 것을 목적으로 합니다. 티에리 브루턴 유럽 위원(역내 시장 담당)은 X(구 Twitter)에 관한 합의를 ‘역사적’이라고 말했다. 울즐라 폰 데어 라이언 위원장은 ‘세계적인 신규성’에 대해 말했다.

새로운 기술적 위험

AI 분야의 급속한 진보에 따라 비판의 양도 증가하고 있습니다. 메드스케이프 의료 뉴스 보고함). 비평가들은 위험성을 강조하고 규제를 요구하고 있다.

유럽위원회는 2021년 4월 AI법 입법 제안을 처음으로 공표했다. 그러나 협상은 최근 소위 기초모델의 규제 문제를 둘러싸고 거의 결렬했다. 이들은 광범위한 데이터를 사용하여 훈련된 매우 강력한 AI 모델입니다. 이들은 ChatGPT를 포함한 많은 다른 응용 프로그램의 기반으로 사용할 수 있습니다.

제안된 법안 조항은 AI의 잠재적 위험과 그 영향의 범위에 중점을 둡니다. 응용 프로그램의 잠재적 위험이 클수록 요구 사항이 엄격해집니다. 특히 위험한 형식의 AI 응용 프로그램은 금지될 수 있습니다.

OpenAI, Microsoft, Google 등의 주요 AI 기업에는 투명성 규칙이 부과되고 있다. 기술 교육에 사용되는 데이터와 저작권법이 어떻게 보호되는지에 대한 정보를 제공해야 합니다.

이 법의 내용

AI 법의 가장 중요한 측면은 다음과 같습니다.

  • 일반적인 AI 보호 대책
  • 법 집행 기관에 의한 생체 인증 시스템의 사용 제한
  • 소셜 스코어링 및 AI 금지(즉, 운영에 사용되는 시스템 및 사용자의 약점을 찌르는 시스템)
  • 사용자가 불만을 제출하고 의미 있는 설명을 받을 권리
  • 3,500만 유로(전세계 매출의 7%) 벌금, 최대 750만 유로(매출의 1.5%)

얼굴 인식

ChatGPT와 같은 언어 모델은 위험 기반 정렬에 맞지 않으므로 자체 규칙 세트로 관리됩니다. 독일, 프랑스, ​​이탈리아는 혁신의 감속을 우려하여 언어 모델의 규제에 저항하고 있다.

대규모 언어 모델의 목적은 명확하지 않습니다. 따라서 법안에서는 범용 AI(GPAI)라고 합니다. 체계적 위험이 높은 GPAI 모델에 대해서는 의회의 수석 협상관이 마찬가지로 엄격한 조건을 도입했다.

어떤 AI 기술이 불법인지에 대한 문제와 관련하여, 유럽 의회는 여러 측면에서 합의했습니다. 공개된 데이터에서 얼굴을 대규모로 스캔하는 시스템은 금지됩니다. 직장이나 교육 기관에서 감정을 인식하려는 AI 소프트웨어도 금지됩니다.

일부 EU 회원국은 수사당국이 특정 기술을 사용할 수 있도록 일부 금지에 예외를 마련하도록 주장하고 있다. 예를 들어, 실시간 얼굴 인식은 원칙적으로 금지되어야 하지만 테러 방지나 살인이나 납치 사건의 용의자 수색 등 일부 예외에서는 인정되어야 한다.

합의된 문서가 EU 법이 되려면 의회와 이사회가 정식으로 승인해야 합니다.

이 기사는 아래에서 번역된 것입니다. Medscape 독일어 버전.

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다