[에듀플러스]“AI 부정행위 우려 커지자…대학가 5대 윤리원칙 제시”

Photo Image
김자미 고려대 교수가 AI 윤리 가이드라인 배경을 설명하고 있다.(사진=권미현 기자)

인공지능(AI) 확산에 따른 부작용 우려가 커지는 가운데, 대학가가 5대 윤리원칙 마련에 나섰다.

교육부와 한국대학교육협의회는 27일 서울역 삼경교육센터에서 '대학 인공지능(AI) 활용 윤리 지침 마련을 위한 간담회'를 열고 대학 현장의 의견을 수렴했다.

이날 발제를 맡은 김자미 고려대 교육대학원 교수는 국내외 45개 대학·기관의 AI 활용 정책을 분석하고 세부 지침과 핵심 키워드를 재구조화해 원칙을 도출했다고 밝혔다.

5대 핵심원칙은 △학문적 진실성 △인간 중심성과 책임성 △투명성과 신뢰성 △공정성 △정보 보호 및 보안이다.

교육 목적에 부합하는 AI 활용과 윤리 기준 준수, 결과에 대한 최종 결정권과 책임을 인간에게 두는 점, AI 사용 사실과 과정의 공개를 규정한 투명성 원칙 등이 가이드라인에 담겼다. 이와 함께 개인이나 집단의 배경에 따른 차별 없는 AI 활용을 지향하는 공정성과 개인정보 보호·안전성 확보를 강조하는 보안 원칙도 포함됐다.

교수자를 위한 실무적 운영 예시도 제시됐다. 교수자는 수업 설계 단계에서 AI의 강점과 한계를 함께 안내하고, 복합적 사고를 요구하는 질문을 설계해야 한다. 과제 평가 시에는 AI 활용 여부와 출처 명시를 평가 항목에 포함해 학습자의 정직한 활용을 유도한다.

김 교수는 “116개로 정리했던 원칙에서 중의성을 제거해 57개로 정제한 뒤, 최종적으로 핵심원칙·세부원칙·영역·세부영역 체계로 구조화했다”며 “전문가 의견 수렴을 거쳐 5대 핵심원칙과 12개 세부원칙을 초안에 담았다”고 가이드라인 배경을 설명했다.

이어 “국제적인 기술 윤리 동향을 반영하는 한편 평가 부정행위나 학문적 진실성 훼손 등 최근 대학 현장에서 제기된 사회적 이슈를 사전에 예방하고 선언적 원칙에 그치지 않고 실제 수업과 평가 상황에 적용할 수 있도록 현장 적합성과 실효성을 높이는 방향으로 윤리 기준을 수립했다”고 강조했다.

Photo Image
Photo Image
AI 활용을 위한 간담회에서 AI 윤리 가이드라인의 실효성과 적합성에 관한 토론이 진행됐다. (사진=권미현 기자)

이 자리에서는 AI 가이드라인의 실효성과 현장 적용 가능성을 둘러싼 논의가 이어졌다.

변순용 서울교대 교수는 “기술 변화 속도가 빠른 만큼 지나치게 추상적이거나 과도하게 구체적인 기준 모두 한계가 있다”며 “현장에서 실제 문제 상황을 해결할 수 있는 유연한 기준 제시가 필요하다”고 지적했다. 이어 AI 탐지 도구의 신뢰성이 충분히 확보되지 않은 상황에서 탐지기 중심 접근은 신중해야 한다는 의견도 제시했다.

이은화 신라대 교수는 AI 리터러시를 교수·학습 세부 원칙에 보다 명확히 반영하고, 인간의 지적 역량을 확장하는 방향으로 AI를 활용해야 한다고 강조했다. AI가 교수·학습 과정에 활용되더라도 최종 판단과 책임은 인간에게 있다는 점을 더욱 분명히 해야 한다는 제안이다.

오세원 숭실대 전략기획센터장은 “인간 중심성과 책임성 원칙은 일방적 규제가 아니라, 교수자와 학습자의 합의를 바탕으로 활용 기준을 정하는 방향이어야 한다”고 강조했다.

그는 “AI 활용이 일상화될수록 이를 뒷받침할 체계적인 AI 리터러시 교육이 병행돼야 한다”며 “결과물 중심의 전통적 평가 방식은 이미 한계를 드러내고 있는 만큼, 과정 중심 평가나 구술 평가 등으로의 패러다임 전환을 적극 검토할 필요가 있다”고 말했다.

아울러 이러한 변화가 교수자 개인의 부담으로만 귀결돼서는 안 되며, 대학 본부와 교육기관 차원의 연구 지원과 제도적 기반 마련이 함께 이뤄져야 실효성을 확보할 수 있다고 덧붙였다.

한편 교육부와 대교협은 이날 제시된 전문가와 현장 의견을 반영해 윤리 기준을 보완한 뒤, 확정된 가이드라인을 각 대학에 안내할 계획이다.


권미현 기자 mhkwon@etnews.com

브랜드 뉴스룸