[전채남의 AI Story] AI도 윤리가 필요하다

  • 전채남 〈주〉더아이엠씨 대표
  • |
  • 입력 2022-07-26   |  발행일 2022-07-26 제22면   |  수정 2022-07-26 06:47

2022072501000733000031021
전채남 〈주〉더아이엠씨 대표

AI(Artificial Intelligence)는 우리 일상생활과 밀접한 분야에 적용되기 시작하면서 지속적으로 발전하고 있다. AI는 위험을 미리 감지하고 정확한 의사결정을 지원하면서 인간의 지원자(Supporter)로 자리를 잡아가고 있다. 그러나 작년에 AI 챗봇 '이루다'의 성차별적 혐오 발언으로 AI의 윤리성에 대한 이슈가 제기되었다. 이루다는 20세 여대생을 가정한 AI 캐릭터로 사람들이 페이스북 메신저를 통해 친근한 대화를 나눌 수 있도록 설계된 AI 챗봇이다. 본래 목적과는 다르게 이루다는 성소수자를 어떻게 생각하느냐는 질문에 혐오스럽다고 답하고 흑인에 대해선 징그럽게 생겼다고 답하며 논란이 되었다. 해당 사건은 AI가 사회문화 전반의 규범과 윤리적 가치에도 영향을 주며 다양한 갈등 거리를 만들어 낼 수 있음을 시사하였다.

AI 윤리(Ethics)는 AI 기술의 책임 있는 개발과 사용을 알리기 위한 도덕적 원칙 및 기법의 체계이며 AI가 공정성과 투명성을 충족하여 편견성 없이 개발되고 사용되는 것을 의미한다. 한양대 이상욱 교수는 AI 윤리를 AI의 '산출물' 특히 인간의 지속적인 통제를 받지 않는 '자동화된 결정(Automated Decisions)'이 다양한 사회적 가치를 최대한 존중하는 방식으로 활용되기 위해서 어떤 점에 주목하고 어떤 방식의 제도적 대응을 수행해야 하는지에 대한 논의라고 정의하였다.

존스홉킨스대학 외 2개 대학의 공동 연구진은 최근 AI 편견성에 대한 연구 결과를 발표했다. 연구에 따르면 현재 인터넷에 올라와 있는 각종 데이터를 기반으로 구축된 AI를 로봇에 적용했더니 로봇이 인종과 성에 대해 차별적으로 행동한다는 것이다. 연구진은 로봇에게 백인과 흑인, 라틴계, 동양인 남성과 여성 사진을 제시하고, 로봇이 이 얼굴들을 의사, 주부, 범죄자 등으로 구분하는 실험을 했다. 로봇은 흑인 남성을 백인 남성보다 10% 더 많이 범죄자로 인식했고, 라틴계 남성을 백인보다 10% 더 청소부로 인식했다. AI가 사람이 가진 편견을 그대로 학습하여 행동한 것이다. AI의 편견성은 AI 개발 시 인간이 선정한 알고리즘과 데이터로 인해 발생한다. AI는 데이터에 포함된 편견을 받아들이고 심화학습을 통해 이를 강화한다.

AI는 가치중립적이지 않으며 윤리적, 정치적 쟁점을 발생시킬 수 있으므로 AI 윤리에 대한 가이드라인이 필요하다. 국내에서는 인공지능의 신뢰성 확보를 위한 '2022 신뢰할 수 있는 인공지능 개발 안내서'가 있다. 인공지능 제품이나 서비스를 설계하고 개발하는 실무자가 참고할 만한 가이드라인이다. 국제적 AI 윤리 가이드라인에는 유네스코가 발표한 전 세계 AI 윤리를 표준화하는 '유네스코 AI 윤리 권고안'이 있다. 주목할 점은 AI 윤리 교육의 중요성이 점점 더 강조되고 있다는 것이다. 초등학교부터 대학원까지 모든 교육 기관에서 AI 윤리를 필수적으로 교육할 것을 권고하고 있다. 윤리 교육을 통해 AI의 사회적 부작용을 예방할 수 있을 것이다.

AI 개발자는 윤리성을 가지고 개발하고, 소비자는 윤리적 가치를 고려하며 AI를 사용하도록 한다. AI를 만드는 것은 인간이며, 결국 윤리성을 갖춘 개발자가 더 나은 AI를 만들 수 있다고 알려야 한다. AI 기술은 사회의 민주화와 시민의 삶의 질을 증진하는 방향으로 발전해야 한다. 우리는 AI가 과학자가 만드는 첨단 기술일 뿐만 아니라 우리 사회 전체의 윤리적 수준을 반영하고 사회적 공감대를 투영하는 문화적 산물이라는 것을 잊지 말아야 한다.

<〈주〉더아이엠씨 대표>

영남일보(www.yeongnam.com), 무단전재 및 수집, 재배포금지

오피니언인기뉴스

영남일보TV





영남일보TV

더보기




많이 본 뉴스

  • 최신
  • 주간
  • 월간