#IT

마이크로소프트 AI 이미지 생성기 안전 미비 논란: 내부 폭로로 드러난 윤리적 위험

AI펀쿵 2024. 3. 7. 20:54
반응형

 

마이크로소프트 AI 이미지 생성기 안전 미비 논란: 내부 폭로로 드러난 윤리적 위험

 

  마이크로소프트 AI 이미지 생성기, 안전장치 미비로 위험한 이미지 생성 논란
  최근 마이크로소프트(Microsoft, 이하 MS) 내부에서 제기된 폭로에 따르면, 회사의 인공지능(AI) 기반 이미지 생성 도구가 폭력적이고 선정적인 이미지를 만들어내고 있다는 주장이 제기되었습니다. 이는 인종 역차별적 이미지 생성으로 물의를 빚은 구글의 AI '제미나이(Gemini)' 이후 AI 기술의 윤리적 문제를 다시 한번 도마 위에 올리는 사건입니다.

  CNBC의 보도에 따르면, MS의 소프트웨어 엔지니어 셰인 존스는 AI 이미지 생성 도구인 '코파일럿 디자이너(Copilot Designer)'가 '책임감 있는 AI 원칙'에 어긋나는 이미지를 생성하고 있다며, 이에 대한 우려를 미국 연방거래위원회(FTC)에 서한을 통해 전달했습니다.

  존스에 따르면, MS가 지난해 3월 오픈AI의 기술을 기반으로 출시한 '코파일럿 디자이너'는 소총을 든 10대, 폭력적인 장면에서 여성의 성적인 이미지, 미성년자의 음주 및 약물 사용 등의 부적절한 콘텐츠를 생성하는 것으로 나타났습니다. 존스는 12월부터 코파일럿 테스트의 레드팀으로 활동하며 이러한 문제점을 발견하고 내부에 보고했으나, MS는 제품의 시장 철수를 결정하지 않았고, 그의 우려는 무시된 것으로 보입니다.

  이 문제가 공개되자 존스는 링크드인에 관련 내용을 포스팅했지만, MS 법무팀은 지난 1월 즉시 삭제를 요구했습니다. 존스는 이에 그치지 않고 미국 상원의원들에게 서한을 보내고, 리나 칸 FTC 위원장과 MS 이사회에도 문제를 제기했습니다. 이 서한은 CNBC를 비롯한 주요 매체들에도 공유되었습니다.

  존스는 "지난 3개월 동안 나는 MS에 코파일럿 디자이너의 사용을 중단하고, 더 나은 안전장치가 마련될 때까지 공개적으로 사용하지 말 것을 거듭 촉구했다"라고 밝혔습니다. 이어 "MS가 이 권고를 거부했기 때문에 제품의 이용 등급을 성인용으로 변경할 것을 제안했다"라고 덧붙였습니다.

  존스는 또한 "MS와 오픈AI가 지난해 10월 AI 모델이 공개되기 전까지 이러한 위험을 알고 있었다"며 "MS는 '누구나, 어디서나, 모든 기기(Anyone. Anywhere. Any Device)'라는 문구를 계속 사용했다"라고 지적했습니다. 그의 주장에 따르면, 코파일럿 팀은 매일 1000건 이상의 제품 피드백을 받고 있으며, 발생하는 모든 문제를 해결하기 위해서는 새로운 보호 기능을 도입하거나 모델을 재교육하는 데 상당한 투자가 필요하다고 합니다.

  MS 측은 이에 대해 "회사 정책에 따라 직원들이 제기하는 모든 문제를 해결하기 위해 최선을 다하고 있다"라고 답변하며, "직원들이 잠재적인 영향을 미칠 수 있는 안전 우회 및 우려 사항에 대해 문제를 적절히 조사하고 해결하기 위한 내부 보고 체계를 갖추고 있다"라고 전했습니다.

  이 사건은 구글 '제미나이'의 인종 역차별 이미지 생성 논란에 이어, AI 기술의 윤리적 문제에 대한 사회적 관심이 높아지고 있는 시점에서 발생했습니다. 구글 창립자 세르게이 브린은 "테스트 부족으로 확실하게 망쳤다"라고 인정하며, 제미나이의 이미지 생성 기능을 일시 중단한 바 있습니다.

  AI 기술이 사회에 광범위하게 도입되면서, 이러한 기술의 윤리적 사용과 안전장치 마련의 중요성이 강조되고 있습니다. 이번 사건은 기술 기업들이 AI를 개발하고 배포하는 과정에서 책임과 투명성을 어떻게 확보해야 하는지, 그리고 무엇보다 사용자의 안전을 어떻게 보장할 것인지에 대한 중요한 논의를 촉발할 것으로 보입니다.

 

 

반응형