
추현호 (주)콰타드림랩 대표
다가오는 9월 송도 컨벤시아에서 개최되는 UN(United Nations) 심포지엄에서 발표자로 초청을 받았다. 주제는 AI시대로의 전환에 따른 정부와 사회의 역할 등이다. 교육 현장에서도 에듀테크와 AI를 활용한 혁신이 활발히 이뤄지고 있다. 에듀테크 소셜벤처의 대표로서 나도 지방 소도시의 학생들에게 AI 기반 학습 솔루션을 제공하고자 다양한 시도를 하고 있다. AI는 교육격차를 줄이는 강력한 도구가 될 수 있지만, 동시에 새로운 형태의 불평등을 만들 위험도 존재한다. 중요한 것은 기술의 활용 여부가 아니라 그것이 어떻게 사용되는가이다.
최근 몇 년간 AI는 단순한 기술 혁신을 넘어 사회 전반을 재편하는 동력이 되고 있다. 챗봇이 기사를 작성하고, 이미지 생성기가 예술 작품을 만들며, 의료 AI가 질병을 조기 진단하는 시대다. 이러한 변화 속에서 반드시 생각해보아야 할 질문이 생겼다. AI는 놀라운 속도로 학습하고 발전하지만, 모든 과정은 데이터에 기반을 둔다. 데이터 가공 과정에서 편견과 불평등이 반영된다면 어떤 결과를 초래할 것인가? 실제로 일부 AI 채용 시스템이 특정 성별 지원자를 우대하거나, 얼굴 인식 기술이 유색 인종을 더 자주 오인하는 사례가 보고된 바 있다. 기술의 중립성은 이상적이지만 실제 사용 과정에서 AI는 설계자의 가치관, 데이터의 한계, 그리고 사용 환경에 따라 편향될 수 있다.
Open AI가 공개한 영상 생성 모델 Sora는 몇 초 만에 사실적인 영상을 만들 수 있는 기술이다. 그러나 허위 뉴스나 가짜 증거 제작에 악용될 가능성이 높아 공개 범위와 접근 권한 설정을 둘러싼 국제적 논쟁이 발생했다. 유럽과 미국에서는 선거를 앞두고 AI 기반 딥페이크 영상이 정치인의 발언을 조작하거나 허위 사실을 퍼뜨리는 사건이 잇따랐다. 실제 인물과 구분이 어려운 수준의 음성·영상 합성이 가능해지면서 표현의 자유와 민주주의를 동시에 위협한다는 우려가 제기되었다. 유럽연합은 세계 최초의 포괄적인 AI 규제 법안인 EU AI Act를 통과시켰다. 그러나 고위험군 AI의 범위와 규제 강도를 두고 기업, 시민단체, 정부 간 이해 충돌이 나타났다. 일부 기업은 과도한 규제가 혁신을 저해한다고 주장했고, 시민단체는 오히려 규제가 더 강화되어야 한다고 반박했다.
AI가 잘못된 결정을 내렸을 때 그 책임의 귀속이 모호하다. 자율주행차가 사고를 일으켰을 때 제조사, 운전자, 소프트웨어 개발자 중 누구에게 책임을 물어야 하는지는 여전히 불분명하다. 이러한 윤리적 이슈는 기술 신뢰를 떨어뜨리고 부득이한 상황이 발생했을 때 피해자 구제를 어렵게 한다. AI를 개발하고 운영하는 주체는 책임의 경로를 사전에 명확히 설정하고 이를 투명하게 공개해야 한다. AI 윤리의 핵심은 인간 중심성이다. 유럽연합(EU)은 신뢰할 수 있는 AI를 위한 윤리 가이드라인에서 7대 원칙을 제시하며, 그 첫 번째로 '인간의 자율성 존중'을 꼽았다. 이는 기술이 인간의 선택권을 제한하거나 대체해서는 안 된다는 의미를 담고 있다.
기업과 세계 여러 정부가 AI 경쟁에 몰두하며 속도를 앞세운다. 그러나 기술의 속도가 윤리를 앞지르면 부작용이 사회를 덮칠 가능성이 크다. AI 윤리는 혁신을 막기 위한 족쇄가 아니라, 올바른 방향으로 이끄는 나침반이다. 윤리 없는 질주와 느린 속도이지만 촘촘한 윤리적 설계 중 우리는 무엇을 선택해야할까? AI 시대를 살아가는 사용자는 기술의 소비자이자, 동시에 그 결과의 책임자다. 기술이 인간을 위한 도구로 남기 위해서는 '무엇을 할 수 있는가'보다 '무엇을 해야 하는가'를 먼저 물어야 한다.
영남일보(www.yeongnam.com), 무단전재 및 수집, 재배포금지