– AI를 먼저 받아들인 학생, 뒤따르는 교수와 제도. 지금 필요한 것은 ‘윤리적 교육 설계’다
“AI는 왔고, 대학은 준비되지 않았다”
2025년, 고등교육의 교실은 조용히 재편되고 있다. 인공지능(AI)은 더 이상 실험실의 미래 기술이 아니라, 학생들의 일상적인 학습 도구가 되었고, 과제 제출, 리포트 작성, 요약, 분석 등 대부분의 학습 과정에 깊숙이 개입하고 있다. 그러나 캠퍼스의 또 다른 주체인 교수와 제도는 여전히 준비되지 않았다는 평가가 이어진다.
EDUCAUSE가 발표한 『2025 AI Landscape Study』는 미국 350여 개 고등교육기관의 실제 데이터를 분석한 대규모 보고서다. 이 보고서에서 가장 눈에 띄는 대목은 “학생이 교수보다 AI를 훨씬 더 많이 사용하고 있다”는 점이다. 전체 응답자 중 68%가 이 격차를 지적했고, 이는 교수자 중심의 교육 설계가 AI 활용 흐름을 따라가지 못하고 있음을 보여준다.
그 결과, 지금 교실에서는 기술의 역전 현상이 벌어지고 있다. 교수는 아직 사용법과 윤리 문제를 검토 중이지만, 학생은 이미 AI를 학습과 실전에 활용하고 있다. 이 비대칭은 단순한 도구 격차가 아니라, 교육의 권위 구조와 학습의 주도성을 뒤흔드는 요소가 되고 있다.
준비되지 않은 대학, 커지는 격차
AI를 둘러싼 혼란은 단지 교수와 학생 사이의 문제가 아니다. 대학 간, 캠퍼스 내 부서 간, 그리고 정책과 현실 사이의 격차 또한 빠르게 벌어지고 있다. EDUCAUSE 보고서에 따르면, 응답 대학의 단 9%만이 “우리의 정책(AUP)이 AI 시대에 충분히 대응하고 있다”고 답했다. 나머지 91%는 보안, 프라이버시, 저작권, 평가 방식 등 여러 영역에서 제도적 공백을 인정하고 있었다.
기술 인프라와 예산 규모의 차이는 격차를 더욱 심화시킨다. 연구 중심 대형 대학은 전담 AI TF와 윤리 위원회를 가동하고 있지만, 중소규모 대학은 아직도 AI 도입 자체가 부담이라는 곳이 많다. 일부 학교는 특정 도구의 사용을 일괄 금지하거나, 교수 재량에 맡기는 수준에서 머물러 있다. 이는 AI에 대한 두려움 기반 규제만 남기고, 제대로 된 사용 교육이나 윤리 설계는 부재한 상황을 만들어낸다.
그 결과, 학생들은 AI를 쓰고 싶어도 어떻게 써야 하는지 배울 수 없고, 교수는 도입을 고려해도 어디서부터 시작해야 할지 막막한 상황에 처한다. 이 불균형은 곧 ‘디지털 AI 격차(digital AI divide)’라는 새로운 형태의 교육 불평등으로 이어지고 있다.
AI 윤리는 부정행위 문제가 아니다
많은 대학들이 AI를 처음 다룰 때 가장 먼저 마주한 쟁점은 ‘표절’이었다. 학생이 과제를 ChatGPT로 대신 작성하거나, 생성형 AI를 활용해 시험 문제를 풀었다는 사례가 등장하면서, 대학은 일단 ‘단속’부터 시작했다. 이에 따라 많은 학교들이 사용 금지 조항을 신설하거나, 학문적 부정행위(academic dishonesty)의 연장선상에서 AI를 규율하고 있다.
하지만 문제는, 이런 접근이 너무 좁고 기술의 본질을 놓치고 있다는 점이다. AI는 더 이상 외부의 도구가 아니라, 학습과 사고의 방식 자체를 바꾸고 있다. 이 시점에서 ‘사용 금지’는 효과적인 대응이 될 수 없다. 오히려 중요한 것은 AI를 어떻게 윤리적으로, 책임 있게 사용할 것인가를 가르치는 일이다. AI 윤리는 표절 방지로 환원될 수 없다.
Forbes에 실린 「An AI Ethics Roadmap Beyond Academic Integrity」라는 기고문은 이 점을 명확히 지적한다. 글의 저자는 AI 시대의 윤리 교육이 “사용 여부가 아니라 사용 방식에 초점을 맞춰야 한다”고 주장한다. 학생이 생성형 AI를 어떻게 활용하고, 어디까지가 적절한 편집이며, 어떤 방식이 책임 있는 창작인지에 대한 학습이 필요하다는 것이다. 교수진 역시 도구의 위험성을 경고하는 데 머무를 것이 아니라, 학생이 올바르게 사용할 수 있도록 윤리적 상상력을 구조화해주는 역할을 해야 한다고 강조한다.
책임 있는 AI 활용, 대학이 설계할 수 있을까
실제 고등교육 현장에서는 이러한 문제의식을 반영한 실험도 일부 이루어지고 있다. 문법 교정 도구로 널리 알려진 Grammarly는 최근 ‘Authorship’이라는 기능을 도입해, AI가 작성한 문장과 사용자가 편집한 부분을 구분 표시하는 시스템을 제공하고 있다. 이 기능은 단순한 편집기능을 넘어, 학생이 어떤 방식으로 AI를 활용했는지를 교수자가 맥락 있게 지도할 수 있도록 도와준다.
데이터 분석 플랫폼 SAS는 알고리즘의 편향을 감지하고 투명하게 기록할 수 있도록 ‘윤리 설계 카드(ethical model cards)’ 기능을 탑재했다. 이 기능은 AI가 왜 그런 판단을 내렸는지를 추적할 수 있도록 하여, 기술 결정 과정에 대한 설명 가능성과 책임성을 강화하는 데 초점을 둔다.
University of Delaware는 자체적으로 15년치 강의자료를 기반으로 ‘Study Aid’라는 AI 기반 학습 플랫폼을 개발했다. 이 시스템은 단순히 요약을 제공하는 것이 아니라, 학생 개인의 학습 이력을 바탕으로 맞춤형 설명과 질문 유도 기능을 제공하며, 교수와의 협업을 전제로 한 윤리 설계를 강조하고 있다. 이들은 교육과 기술의 경계를 허물기보다는, 양쪽을 동시에 존중하며 설계하는 방향으로 나아가고 있다.
이러한 사례는 공통적으로 윤리는 가르치는 것이 아니라 ‘설계하는 것’이라는 점을 시사한다. 학생이 스스로 윤리적 판단을 할 수 있도록 지원하는 플랫폼 설계, 교수와 학생이 함께 도구의 경계를 이해하는 구조, 그리고 교육기관이 기술 활용의 기준을 명확히 제시하는 시스템이 핵심이다.

AI를 피할 수 없다면, 함께 배워야 한다
대학은 더 이상 ‘AI를 쓸 수 있느냐’의 문제로 논쟁해서는 안 된다. 학생들은 이미 AI를 사용하고 있고, 교육의 현장은 그 사실을 부정할 수 없다. 이제 필요한 것은 AI를 함께 학습하고, 함께 통제하며, 함께 윤리적 책임을 나누는 교육 방식이다. 교육기관이 AI를 통제의 대상으로만 본다면, 그 틈 사이로 학생들은 무분별한 사용을 학습하게 될 것이다. 반대로, 교육이 AI와 함께 사고하고, 실험하고, 반성하는 공간이 된다면, 기술은 오히려 교육의 깊이를 확장시킬 수 있다.
교수와 학생은 이제 단순한 지식 전달자와 수용자가 아니라, AI 시대의 학습 동료가 되어야 한다. 교수는 도구의 위험성을 경고하는 대신, 그 도구를 어떻게 사용하고 언제 멈출지를 함께 고민하는 가이드가 되어야 한다. 학생은 빠르고 편리한 기능에만 기대기보다, 그 기술이 자신에게 어떤 책임과 한계를 부여하는지를 배워야 한다. 이 상호 학습의 구조 없이는, 어떤 교육도 AI에 대한 윤리적 면역력을 갖추지 못할 것이다.
디지털 AI 격차를 줄이기 위한 집단적 대응
『2025 EDUCAUSE AI Landscape Study』는 기술의 확산이 단지 사용자의 손에 달린 문제가 아니라, 대학 제도와 정책, 예산과 인프라, 문화와 리더십의 총합적인 대응이 필요하다는 사실을 보여주고 있다. AI를 단속하거나 금지하는 것으로는 교육의 미래를 설계할 수 없다. 지금 필요한 것은 각 대학이 스스로 AI 교육 생태계를 구성할 수 있도록 정책적 지원과 공공적 리더십을 마련하는 것이다.
기술은 언제나 빠르고, 교육은 언제나 느리다. 그러나 이 간극이 벌어질수록, 그 사이에서 가장 먼저 영향을 받는 것은 학생이다. 그리고 결국 그 영향은 사회 전체로 이어진다. 따라서 지금 고등교육이 해야 할 일은 명확하다. 기술의 속도를 따라잡는 것이 아니라, 그 속도를 이해하고 설계할 수 있는 역량을 갖추는 일. 그것이 바로 AI 시대에 대학이 가야 할 길이다.
#AI윤리 #EDUCAUSE2025 #디지털격차 #대학AI전략 #학생과AI #교수역할변화 #윤리적AI활용 #AI리터러시교육 #Grammarly #Delaware대학사례 #AI시대의대학