이제는 ‘썼느냐’가 아니라 ‘어떻게 썼느냐’를 묻자 – 로이 리의 도발과 대학의 과제
AI가 이미 우리 안에 들어왔다
“AI가 과제를 대신했다는 이유로 학교에서 쫓겨났어요. 그런데 그 AI로 아마존과 메타에 붙었죠.” 로이 리(Roy Lee)의 이야기는 단순한 이슈가 아니라, 지금 대학이 직면한 교육 패러다임의 충돌을 압축적으로 보여준다.
그는 AI로 작성한 과제가 문제 되어 명문대에서 퇴학당했지만, 같은 AI로 작성한 이력서와 포트폴리오를 통해 아마존과 메타의 면접까지 통과했다. 그 경험을 바탕으로 만든 AI 기반 모의면접 스타트업 ‘클루이(Cluely)’는 최근 100만 달러 투자 유치에도 성공했다.
이 사례는 한 가지 질문을 우리 앞에 던진다. “우리는 여전히 AI 사용 여부만을 따져야 하는가, 아니면 AI를 활용해 어떤 창의적 결과를 만들어냈는지를 평가해야 하는가?”
ChatGPT, Claude, Gemini 같은 생성형 AI는 이제 더 이상 실험적 기술이 아니다. 학생들은 매일 이 도구들을 사용해 보고서 초안을 짜고, 번역하고, 기획서를 구성한다. 이미 AI는 대학 안으로 들어왔고, 우리 곁에서 사고하고 말하고 결정하고 있다. 문제는 ‘AI를 썼느냐’가 아니라, ‘어떻게 썼느냐’, 그리고 ‘무엇을 위해 썼느냐’이다.
하지만 현실의 대학은 여전히 ‘AI 사용 = 부정행위’라는 이분법적 판단에 머물러 있다. 이러한 태도는 학생들의 실제 사용 행태와는 괴리를 일으키고 있으며, 창의적 가능성을 오히려 억제하고 있다. AI가 교육을 침범한 것이 아니라, 교육이 AI를 받아들이지 못하고 있는 것이다.
‘AI 사용 = 부정행위’라는 낡은 등식
한국의 많은 대학은 여전히 AI 활용을 ‘표절’이나 ‘무임승차’로 간주한다. 실제로 모 일간지 보도에 따르면, 교수 중 일부는 AI가 생성한 답안을 미리 수집한 뒤, 이를 대조해 과제 제출자의 AI 사용 여부를 판별하는 방식으로 학생을 역추적하기도 했다. 이는 감시 중심의 교육이 여전히 강력하게 작동하고 있음을 보여준다.
“AI가 작성한 문장을 섞었는지, 스타일이 바뀌었는지 보면 티가 난다”는 교수의 발언은, 마치 학생은 항상 부정행위를 저지를 수 있는 존재이며, 교수는 그것을 적발해야 하는 수사관처럼 느껴지게 만든다. 그 결과 학생들은 AI를 어떻게 잘 활용할 것인가를 고민하기보다는, 어떻게 들키지 않게 쓸 수 있을지를 고민하게 된다.
물론 과제를 전적으로 AI에게 맡기고, 결과를 이해하지 못한 채 제출하는 경우도 분명 문제다. 그러나 모든 AI 사용을 동일한 기준으로 단죄하고, 학생의 ‘사용 목적’과 ‘이해 수준’, ‘창작 기여도’를 평가하지 않는 구조는 교육의 본질을 훼손하는 방향으로 작동할 수 있다. AI는 도구일 뿐이다. 부정행위인지, 학습 도우미인지는 그 사용 방식과 맥락에 따라 달라져야 한다.
AI 활용을 금지하는 정책은 표면적으로는 공정성을 추구하는 듯 보이지만, 실제로는 학생들 간의 기술 활용 능력 격차, 정보 접근성, 배움의 기회 자체에 대한 불평등을 심화시킬 수 있다. 모두가 쓰고 있지만, 아무도 배울 수 없게 만드는 구조. 그것이 지금 교육 현장의 현실이다.
로이 리, “왜 AI로 면접을 보면 안 되나요?”
로이 리는 대학에서 퇴학당한 학생이다. 그는 “AI가 다 해줬다”는 말 한마디로 교수들의 분노를 샀고, 결국 그의 이름은 캠퍼스에서 지워졌다. 하지만 그 이후, 그는 같은 AI를 활용해 아마존과 메타의 면접 절차를 통과했고, 오히려 기업들로부터 “정말 준비를 잘했다”는 긍정적인 평가를 받았다.
그는 말한다. “모두가 똑같은 도구를 가지고 있는 시대라면, 진짜 실력은 그 도구를 얼마나 잘 활용하느냐에서 갈린다.” 이 말은 단순한 자기합리화가 아니다. 그것은 현대 사회에서 ‘능력’과 ‘성과’를 어떻게 정의할 것인가에 대한 본질적인 문제제기다. 예전에는 정보의 양이나 속도가 곧 개인의 경쟁력이었다. 하지만 이제는 정보는 넘쳐나고, 도구는 평등하게 제공된다. 이때 중요한 것은, 누가 더 빨리 정보를 찾는가가 아니라, 누가 그 정보를 더 창의적으로 엮어 의미 있는 결과를 만드는가다. 로이 리는 이를 ‘생산성의 철학’이라고 부른다.
그는 AI가 사람을 대신하는 게 아니라, 사람이 해야 할 더 고차원적인 일에 집중할 수 있도록 만드는 보조자라고 주장한다. AI가 처음 초안을 잡아주면, 그것을 재구성하고, 재해석하고, 맥락에 맞게 재설계하는 과정이야말로 진짜 실력이라는 것이다. 그는 이를 실제로 증명했다. 그가 AI를 활용해 만든 ‘Cluely’는 모의 면접 플랫폼이다. 사용자는 실제 면접처럼 질문을 받고, 자신의 답변을 녹음해 피드백을 받는다. AI는 이를 바탕으로 표현력, 논리성, 시선처리, 태도 등 다차원적 분석 결과를 제공한다. 결과적으로 Cluely는 AI를 통해 사람의 약점을 발견하고, 강점을 극대화할 수 있도록 설계된 ‘인간 중심의 보조시스템’이다.
AI 활용을 ‘치트’로만 볼 것인가
AI를 쓴다는 이유만으로 ‘편법’이나 ‘치트’라고 간주하는 시각은, AI의 기능과 그 사용자의 태도를 구분하지 못하는 데서 비롯된다. 로이 리는 이에 대해 명확한 입장을 갖고 있다. “AI는 모두가 접근 가능한 도구다. 오히려 공정하다.”
Cluely는 사용자의 이력서 작성, 자기소개 구성, 예상 질문 답변 등 모든 과정을 AI가 돕도록 설계되어 있다. 그러나 이 AI는 ‘정답’을 알려주는 것이 아니라, 사용자가 놓친 맥락, 자기소개에서 드러나지 않은 의미, 직무 적합성과의 연결 고리를 지적하고 수정하도록 유도한다. 즉, AI는 대신 해주는 것이 아니라, 스스로 더 나은 답을 만들도록 ‘훈련시키는 파트너’ 역할을 한다.
여기서 중요한 지점이 등장한다. 바로 ‘AI를 어떻게 쓰느냐’는 결국 사용자의 책임이며, AI는 그 사람의 사고 과정과 창의성의 일부분이 된다는 점이다. 이는 로이 리가 대학에서 제적당할 때, 아무도 묻지 않았던 질문이기도 하다. “당신은 그 결과물을 어떻게 만들었고, 어느 부분에 직접 기여했는가?” 우리는 AI가 도와준 결과를 두고, 그 사람이 진짜 이해했는가, 자기 언어로 설명할 수 있는가, 사용을 통해 배운 것이 있는가를 질문해야 한다. 이것이야말로 창의성과 주도성을 평가하는 새로운 기준이 되어야 한다.
평가 방식은 무엇을 기준으로 하는가
우리가 교육 현장에서 하는 평가란, 결국 무엇이 ‘좋은 결과물’인가를 정의하고 그것을 기준으로 판단하는 일이다. 문제는, AI의 등장이 이 기준 자체를 흔들고 있다는 점이다. 지금까지의 평가는 대체로 “얼마나 잘 썼는가”, “지식이 얼마나 정확한가”, “문장이 얼마나 매끄러운가” 등 결과 중심으로 이뤄졌다. 하지만 이제 이러한 결과는 AI가 쉽게 구현할 수 있다.
그렇다면 AI가 만든 답변과 인간이 만든 답변을 어떻게 구분할 것인가? 그보다 더 중요한 질문은, “AI가 만든 결과를 무조건 감점해야 하는가”, 아니면 “AI를 사용하더라도 그 사람이 얼마나 주도적으로 기여했는지를 판단해야 하는가”이다.
현행 교육 시스템은 이 질문에 대한 준비가 전혀 되어 있지 않다. 많은 교수들이 여전히 결과물 자체만을 평가하며, 그 결과에 이르는 과정과 맥락, 사용자의 사고 흐름, 도구 활용의 적절성은 고려 대상이 아니다. 이러한 방식은 AI 도입 이후 점점 더 평가의 실효성을 떨어뜨릴 것이다. 학생들은 더 이상 ‘직접 쓰는 것’이 학습이라고 생각하지 않고, AI가 짜준 구조에 단어 몇 개만 바꾸는 식으로 과제를 수행하게 될 것이다.
따라서 이제는 평가 방식도 바뀌어야 한다. 단지 ‘결과’를 보는 것이 아니라, ‘과정’을 확인하고, ‘설명할 수 있는 능력’, 그리고 ‘도구를 활용해 문제를 해결한 주체성’을 함께 평가해야 한다. 이것은 단지 시험방식의 변화가 아니라, 대학이 교육의 목표를 재정의하는 문제이기도 하다.

이미 존재하는 현실을 부정하는 교육
AI는 더 이상 예외적 기술이 아니다. 학생들은 이미 과제를 시작할 때, 글의 구조를 짤 때, 번역이 필요할 때, 아이디어가 막혔을 때 자연스럽게 ChatGPT나 기타 AI 도구에 질문을 던진다. 이는 새로운 방식의 ‘초안 구성’이자 ‘사고의 스캐폴딩’ 역할을 한다. 그런데 대학은 이러한 현실을 마치 존재하지 않는 것처럼 외면하고 있다.
AI 사용을 금지하거나, 학생들이 자발적으로 사용 사실을 고백하도록 유도하는 제도는 실효성보다 위선성이 크다.
학생들은 알고 있다. AI를 ‘어디까지’ 써야 문제되지 않는지를 스스로 조정하면서, 교수자의 눈을 피해 자신만의 경계를 설정하고 있다는 것을. 결국 교육 현장은 AI 사용의 투명성보다 비공식적인 회피와 불신이 우선하는 문화로 물들고 있다.
이럴 때 대학이 해야 할 일은 명확하다. AI를 막는 것이 아니라, 어떻게 잘 쓸 것인지를 가르쳐야 한다. 그리고 평가할 때도 AI를 썼는지를 따지기보다, 그것을 ‘어떻게 썼고’, ‘얼마나 이해했고’, ‘어떤 배움이 있었는지’를 묻는 방향으로 바뀌어야 한다. AI는 이미 학생들의 글을 함께 쓰고 있다. 그 사실을 외면한 채, 과제를 통해 ‘진짜 실력’을 알아내겠다는 것은 모순이다. 이제는 그들과 함께 쓰인 글 안에서, 학생 자신의 흔적과 개입, 성장의 순간을 찾아내려는 노력이 필요하다.
창의성과 주도성, 그 진짜 평가 방법
많은 사람들이 AI를 사용할수록 창의성은 사라진다고 걱정한다. 하지만 그 질문은 다시 던져야 한다. “AI를 사용했기 때문에 창의성이 줄었는가, 아니면 창의적인 사용법을 평가할 수 있는 기준이 없기 때문에 그렇게 보이는가?”
창의성은 ‘무에서 유를 만드는 능력’이 아니다. 그것은 기존의 자원과 도구를 새롭게 조합하여 새로운 맥락을 만들어내는 능력이다. 이 관점에서 보면, AI 역시 창의성의 일부가 될 수 있다.중요한 것은 어떤 질문을 던졌고, 어떤 맥락에서 AI의 출력을 선택했으며, 그것을 어떻게 재해석했는가다.
예를 들어, 단순히 AI가 제시한 내용을 복사해 붙이는 학생과, AI에게 여러 번 피드백을 주고받으며 답변을 구조화하고, 거기에 자신의 경험과 관점을 통합한 학생의 결과물은 질적으로 완전히 다르다. 그러나 지금의 평가 방식은 이 차이를 포착하지 못한다. 단지 결과물이 얼마나 ‘인간처럼’ 보이느냐만을 따질 뿐이다.
이제는 ‘창의성’의 정의 자체를 재구성하고, 그것이 어떤 방식으로 드러나는지를 평가할 수 있는 프레임워크가 필요하다. 학생의 결과물을 제출받을 때, AI 활용 일지( 어떤 질문을 했고, 어떤 답을 받았는가), 결과물 설명서( 최종 결과물에 대한 자기 설명과 판단 기준), 피드백 저널( AI와 상호작용하며 느낀 점과 학습 포인트) 과 같은 항목들을 함께 제출하도록 하는 것이 방법이 될 수도 있다.
이러한 기록들은 단지 관리 목적이 아니라, 학생이 자신이 무엇을 배우고 있는지를 스스로 설명할 수 있게 하는 훈련 도구가 될 수 있다. 그리고 그것이야말로 진짜 학습의 흔적이다.
AI 사용의 윤리, 학생만의 책임인가
AI를 사용할 때 따라오는 윤리적 질문들은 결코 단순하지 않다. 저작권, 출처의 불투명성, 허위 정보, 편향된 알고리즘 등 수많은 위험이 존재한다. 하지만 이 복잡한 윤리적 문제를 학생 개개인이 모두 책임져야 한다고 말하는 것은 무책임한 전가에 불과하다. 지금까지의 대학은 AI 활용을 ‘학생의 문제’로만 취급했다. 그러나 교육이란 본래 가르치는 자와 배우는 자가 공동으로 책임지는 공간이다. AI의 윤리적 사용, 효과적 활용법, 리스크 관리, 맥락적 해석 등은 교수자와 제도가 함께 고민하고 안내해야 할 의무다.
예를 들어, 과제에 AI 사용을 허용한다면, 교수자는 그 사용에 대한 지침도 명확히 제시해야 한다. 허용 범위, 인용 방법, 사용 사실 기입 여부, AI와 인간의 협업에서 중요하게 보는 기준 등을 안내하는 것이 단순한 규제가 아니라 교육 그 자체가 되어야 한다. 또한 대학 차원에서는 AI 사용 지침의 명문화, 교수자 대상 AI 리터러시 교육 확대, 학생들의 AI 활용 가이드를 위한 튜터링·워크숍 운영,공정성과 창의성의 균형을 고려한 새로운 평가 rubrics 개발 과 같은 변화가 필요하다.
AI 시대의 윤리는 단지 잘못을 단죄하는 게 아니라, 사용할 줄 아는 인간을 길러내는 윤리다. 그것은 학생만이 아니라, 교수자와 제도가 함께 배워야 할 책임이기도 하다.
“AI가 문제인가, 시스템이 문제인가?”
AI가 교육의 위기를 초래한 것일까? 아니다. 오히려 AI는 기존 교육 시스템의 오래된 한계를 드러내는 ‘거울’에 가깝다. 우리는 지금까지 결과 중심, 암기 중심, 시간 효율 중심의 평가 체계 속에서 학생을 길러왔다. 과제는 평가를 위한 통과의례였고, 학습은 ‘채워 넣는’ 작업이었다. 이런 구조에서는 AI가 등장하는 순간, 대체하거나 모방하거나 생략하는 일이 자연스럽게 발생할 수밖에 없다. 다시 말해, AI는 문제를 만든 것이 아니라, 기존 교육이 갖고 있었던 ‘깊이 없는 평가’, ‘주도성 없는 학습’, ‘피상적인 창의성’의 빈자리를 노출시켰을 뿐이다. 그리고 그 빈자리는 ‘금지’가 아니라 ‘재설계’로 채워야 한다.
지금 우리가 직면한 진짜 문제는, “AI를 쓰면 안 되는가?”가 아니라, “AI가 있는 세상에서 우리는 어떻게 배워야 하는가?”라는 질문이다. 이 질문에 응답하지 못한 교육은 시대를 따라가지 못할 뿐만 아니라, 학생들에게 거짓된 정직과 모순된 윤리를 강요하는 교육이 될 수 있다.
대학은 이제 어떤 질문을 던져야 하는가
교육은 기술보다 먼저 인간을 말해야 한다. 그리고 그 인간은, 도구를 잘 다루는 존재일 뿐만 아니라, 도구를 넘어서 사고하고 판단하고 책임지는 존재여야 한다. AI는 이제 우리와 함께 있는 기술이다. 그것을 막는 데 에너지를 쏟기보다, 어떻게 더 잘 쓰게 할지를 고민하고, 그 사용을 통해 무엇을 배웠는지를 확인하는 방향으로 대학은 나아가야 한다. 진짜 배움은 AI 없이 만든 결과물에 있지 않다. 그보다는, AI를 도입해도 여전히 자기 사고와 의도, 책임이 담긴 결과물,그 과정에서 자신만의 언어와 설명, 판단과 실험이 녹아 있는 흔적에서 진정한 배움이 시작된다.
이제 대학은 물어야 한다. “그 학생은 AI를 어떻게 썼는가?” “그는 무엇을 배우고, 무엇을 성장시켰는가?” “그 도구를 통해, 어떤 새로운 것을 만들었는가?”
이러한 질문이 평가의 중심이 될 때, AI는 위협이 아니라 교육의 동반자가 될 수 있다. 그리고 그 질문을 던지고, 스스로 답을 만들 수 있는 공간이 바로 대학이어야 한다.
#AI활용교육 #로이리 #AI윤리와교육 #생성형AI시대 #대학과제평가 #Cluely #창의성평가 #AI사용금지논란 #교수자책임 #대학의질문 #AI와배움