[테크월드뉴스=김민진 기자] 지난 몇 년간 교육 현장에서 가장 많이 활용되고 이름이 오르내린 분야는 코딩이다. 프로그래밍 언어의 문법을 뜻하는 코딩은 인공지능과 사물인터넷, 지능형 로봇, 빅데이터 등 4차 산업혁명 시대의 주요 기술의 기초 문법이나 다름없는 기술이다.

쉽게 말하면 컴퓨터 프로그램이 어떤 기능을 가지게 할지를 입력해 주는 작업으로 수많은 정보통신기술들 대부분이 기본적인 코딩에서 출발하기에 미래에 활약할 인재를 키우는 교육 현장에서는 코딩 교육에 대한 니즈가 갈수록 늘어나는 추세다.

이에 교육부에서는 2022년, 2025년부터 코딩 교육을 의무화하겠다는 정책을 발표한 바 있다. 이처럼 교육 현장에서는 매년 달라지는 산업 현장의 변화에 발맞춰 교육 정책을 변경하고 있다.

하지만 적어도 생성형 인공지능(AI) 부분에서는 이러한 변화가 조금 뒤처지는 모양새다. 최근 화제가 되었던 딥페이크 성 착취물로 인해 불거진 AI 교육의 필요성과 교육 현장에서 진행 중인 AI 교육에 대해 살펴보자.

[출처 = 게티이미지뱅크]
[출처 = 게티이미지뱅크]

청소년 대상으로 확산되는 ‘딥페이크’ 활용 범죄
지난 8월 클라우드 기반 인터넷 메신저 ‘텔레그램’에서 딥페이크를 활용한 음란물이 유포되는 디지털 성범죄가 벌어지고 있다는 언론 보도가 있었다. 일반인의 얼굴을 딥페이크로 합성한 음란물을 유포하는 텔레그램 단체방이 있다는 보도였다.

단체방에는 1300여명이나 2300여명이 참가하고 있었으며 대학의 이름이나 중ㆍ고교 겹지인방, 지인능욕방 등의 이름으로 단체방이 운영되고 있었다.

단체방에서는 피해자의 신상이 아무런 제약 없이 공유되고 있었으며 피해자의 SNS 게시물에서 셀카를 무단으로 수집, 딥페이크를 통해 성행위 영상에 얼굴을 합성시킨 음란물이 유포 중이었다.

생면부지의 모르는 사람을 대상으로 선정하기도 했으며 단체방 인원들끼리 아는 지인을 특정해 범죄를 저지르기도 했다. 뿐만 아니라 텔레그램의 익명성, 보안성에 기대어 피해자에게 합성된 영상물을 전송하고 조롱하며 2차 가해를 이어가기도 했다. 문제는 이 사건이 특정 집단의 단발성 범죄가 아니라는 사실이다.

지난 8월에 처음으로 해당 단체방의 존재가 알려진 뒤 유사한 범죄가 끊임없이 발생하며 보도되고 있다. 텔레그램의 사례처럼 단체방에서 피해자의 딥페이크 합성 영상을 유포하는 사례도 있지만 지인의 얼굴을 활용, 텔레그램 내에 존재하는 성 착취물 자동 생성 봇 프로그램으로 영상을 만들어 소지하고 유포하는 사례도 있었다.

그중에서 특히 사회적으로 문제가 되는 것이 중고등학교 사례다. 중ㆍ고등학생들 중 일부가 재미로 혹은 장난으로 딥페이크 합성 영상을 제작해 유포하고 있는 것이다.

실제로 같은 반 친구의 사진으로 영상을 만들어 10여개를 소지하고 있던 학생이 경찰에 체포된 바 있으며 교사의 사진으로 영상을 제작해 검거된 학생도 있었다.

전국 중ㆍ고등학교를 대상으로 피해 사례가 나날이 확산되면서 교실에서는 여학생들이 남학생들이 텔레그램에 가입돼 있는지를 확인해달라는 요구를 하는 해프닝까지 일어난 바 있다.

지난 9월2일 한국청소년정책연구원이 발표한 ‘청소년 디지털 인재를 어떻게 양성할까’ 보고서에 따르면 지난 3년간 허위 영상물 범죄 혐의로 입건된 피의자 중 10대의 비율은 매년 60%를 넘어가고 있다.

피의자로 입건된 중고등학생들은 자신들의 행위가 심각한 범죄라는 사실을 이해하지 못하는 경우가 많다. 단순히 내가 좋아하는 친구의 얼굴을 영상으로 소장하고 있을 뿐이고 상대가 모르면 그만 아니라는 안일한 생각을 하는 것이다.

위에서 살펴본 것처럼 디지털 기기와 소프트웨어 조작에 능숙한 중고등학생들은 너무나도 쉽고 간편하게 딥페이크나 생성형 AI를 사용하고 있다. 교육 현장에서도 학생들의 경쟁력을 위해 새로운 기술의 활용법과 조작을 알려주고 있지만 정작 이 기술들이 초래할 결과와 그로 인한 영향 등 윤리적 관점에서의 교육은 등한시하고 있다.

이에 학생들에게 적절한 AI 교육을 해야 하는 것 아니냐는 날 선 비판이 이어지고 있다.

[출처 = 교육부]
[출처 = 교육부]

AI 리터러시(AI 윤리) 교육의 중요성
본래 AI 교육이란 학습자가 AI를 어떻게 하면 더 잘 활용할 수 있는지와 같은 기술적 부분에 초점을 맞춰 진행된다. 하지만 최근에는 AI 기술이 발전하면서 AI를 활용하는 데 특별한 기술이나 노하우가 필요하지 않게 됐다.

생성형 AI로 대표되는 기술들은 따로 코딩이나 전문 기술을 배우지 않아도 자연어 처리로도 충분히 다양한 작업물을 만들어 낼 수 있다. 이에 AI 윤리, 혹은 AI 리터러시의 개념이 중요해지게 됐다.

AI 리터러시는 AI가 할 수 있는 것과 AI가 작동하는 데 필요한 요소들을 알며 AI가 인간과 사회에 미칠 수 있는 윤리적 영향을 고려해 AI를 일상생활 및 직업환경에서 사용할 수 있는 능력을 말한다. 이러한 AI 윤리, AI 리터러시는 사실 AI가 발전하면서 꾸준히 그 중요성이 제기된 바 있다.

AI의 활용도와 영향력이 높아질수록 AI를 올바르게 활용하는 방안에 대한 논의가 높아진 것이다. 실제로 인간과 다를 바 없는 외견을 지닌 버추얼 휴먼이 등장할 때마다 이들의 외견을 소재로 한 음란물이 함께 유포돼 사회적 문제가 된 바 있다.

2021년 개발된 AI 챗봇 이루다는 일부 사용자가 AI의 학습 능력을 잘못된 방향으로 활용해 소수자 차별, 혐오 발언을 하도록 유도하기도 했다. 여기에 이루다와의 대화를 성희롱적인 내용으로 유도하고 성적 모욕을 하는 사용자도 많아 결국 이루다는 서비스를 잠정 중단했다.

이처럼 AI 윤리와 AI 리터러시의 중요성이 높아지면서 2022년 교육부는 ‘교육분야 인공지능 개발, 활용에 대한 규범(윤리원칙)’을 확정해 발표한 바 있다.

이 규범은 ‘사람의 성장을 지원하는 인공지능’이라는 대원칙을 세우고 10대 세부원칙으로 ▲인간성장의 잠재성을 이끌어낸다 ▲학습자의 주도성과 다양성을 보장한다 ▲교수자의 전문성을 존중한다 ▲교육당사자 간의 관계를 공고히 유지한다 ▲교육의 기회균등과 공정성을 보장한다 ▲교육공동체의 연대와 협력을 강화한다 ▲사회 공공성 증진에 기여한다 ▲교육당사자의 안전을 보장한다 ▲데이터 처리의 투명성을 보장하고 설명 가능해야 한다 ▲데이터를 합목적적으로 활용하고 프라이버시를 보호한다 등이 있다.

영국 교육부에서 지지 의견을 표방할 정도로 체계적인 규범이라는 의견이 많았지만 일각에서는 실효성 있는 AI 윤리 교육에 대한 규범으로서는 다소 부족하다는 비판도 있다.

이는 비단 중고등학생의 문제만이 아니다. 지난 4월 진행된 ‘챗GPT 시대의 AI 윤리’를 주제로 한 포럼에서는 서울대학교에서도 67.7%의 대학원생들이 ‘생성형 AI와 윤리적 활용’에 대한 내용이 연구에 가장 큰 도움이 됐다고 말했다는 내용이 소개됐다.

더불어 이미 대학원생과 대학생들이 챗GPT를 연구나 과제에 적극 활용하고 있는 만큼 AI 윤리에 대한 교육이 더욱 활성화되어야 한다는 논의가 이어졌다.

출처 = 게티이미지뱅크
출처 = 게티이미지뱅크

한국 AI 윤리 교육의 사례
이미 지방 교육청에서는 AI 윤리 교육을 위한 지침과 교육 모델 개발이 진행되고 있다. 서울시교육청에서는 AI 리터러시를 키우는 교육을 지원하기 위해 ‘서울형 인공지능 윤리교육 자료’와 ‘교원을 위한 인공지능 첫걸음’을 개발해 보급한 바 있다.

여기에는 서울미래교육의 핵심가치인 존엄과 포용, 공존을 국가수준 인공지능 윤리기준의 3대 기본원칙과 융합해 교육과정에 바로 적용할 수 있는 내용체계가 포함돼 있다.

경기도교육청 역시 ‘AI 원리로 배우는 AI 윤리’ 장학자료를 통해 인권보장을 주제로 한 4차시 학습모델을 제시한 바 있다. 시각장애 보조용 AI나 청각장애 보조용 AI를 체험하고 제작해 보면서 학습자가 자연스럽게 AI 윤리에 대한 고민을 이어가도록 한 모델이다.

충남교육청에서는 전국 최초로 ‘충남형 AI 윤리교육 도움자료’를 개발해 각급 학교에 배포한 바 있다. 실생활에서 자주 마주하는 AI 기술을 소재로 AI 윤리에 대한 고민을 이어간 학습자료로 2022년에는 ‘충남형 AI 융합교육과정 도움자료’를 추가로 개발해 AI 윤리 교육 모델을 제시했다.

다만 세 사례 모두 온전히 AI 윤리만을 목표로 개발된 학습모델이 아니다보니 한정된 수업 시간에 AI 기술을 체험하고 AI 윤리까지 배우기에는 다소 무리가 있다는 현실적인 피드백이 제시된 바 있다.

더불어 실질적인 AI 윤리보다는 다소 거시적이고 큰 개념에서 AI 윤리를 설명하고 있어 실효성이 떨어진다는 분석도 있다.

세상에서 가장 날카로운 검을 어린아이의 손에 쥐어주면 어떻게 될까. AI 역시 마찬가지다. 아무리 우리에게 도움이 되는 기술이라고 해도 이를 제대로 활용하지 못한다면 사회에 해악이 될 수밖에 없다.

잘 드는 날카로운 칼을 올바르게 사용할 수 있는 힘, 그것이 AI 윤리 교육과 AI 리터러시다.

딥페이크 활용 범죄를 비롯해 AI를 악용하는 범죄를 줄이기 위해서라도 실효성 있는 AI 윤리 교육과 AI 리터러시가 선행돼야 할 것으로 보인다.

회원가입 후 이용바랍니다.
개의 댓글
댓글 정렬
BEST댓글
BEST 댓글 답글과 추천수를 합산하여 자동으로 노출됩니다.
댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글수정
댓글 수정은 작성 후 1분내에만 가능합니다.
내 댓글 모음
저작권자 © 테크월드뉴스 무단전재 및 재배포 금지