“AI 때문에 할 줄 모르게 된 것들이 많아졌다” — ‘디스킬 제너레이션’이 경제·교육을 바꾸는 방식
1) 지금 꼭 알아야 할 핵심: ‘AI가 실력을 대체’하는 순간, 성장 속도는 느려질 수 있어요
이번 콘텐츠의 가장 큰 메시지는 이거예요. AI를 쓰면 ‘생산성’은 올라가도, 학생(학습자)이 반드시 쌓아야 할 ‘기초 스킬’은 덜 쌓이거나 생략될 수 있다는 경고죠. 그 결과가 김재인 교수님이 말한 디스킬 제너레이션(탈숙련/탈스킬 세대)의 핵심 맥락이에요.
특히 강조 포인트는 두 가지예요. ① 할 줄 알던 게 사라지는 ‘지식/기술 퇴행’ ② 애초에 기초가 쌓이지 않는 ‘성장 생략’ 이 두 축이 동시에 진행될 수 있다는 겁니다.
여기에 더해 교수님이 우려하는 위험이 “인지적 성인병”이에요. 운동 안 하면 생기는 성인병처럼, 생각의 근육을 안 쓰면 사고 능력도 병처럼 굳어질 수 있다는 비유죠. 이 프레임을 이해하면, 왜 ‘AI 활용’이 단순 찬반이 아니라 “언제/어디에/어떤 방식으로” 해야 하는 문제인지 바로 보이기 시작해요.
2) 용어 정리: 디스킬 제너레이션은 ‘AI 네이티브’가 만드는 부작용?
김재인 교수님 관점에서 디스킬 제너레이션은 이런 상황을 말해요.
- 대상: 주로 학생 단계(초·중·고·대)에서 더 해당
- 구조: ‘기초를 채우는 훈련 시기’가 생략됨
- 양상 1: 외주(아웃소싱) — AI나 도구에 맡기며 내가 할 일을 줄임
- 양상 2: 인지적 오프로딩(cognitive offloading) — 사고 과정을 도구에 위임
여기서 포인트는 “AI가 나쁜 도구”라서가 아니라, 학생이 성장해야 할 구간에서 ‘학습의 엔진’이 꺼질 수 있다는 거예요. 그래서 기존에 축적되던 학습의 ‘미천(채워 넣는 시기)’이 건너뛰어질 수 있다고 봐요.
3) 교육에서 특히 무너지는 능력: 글쓰기(사고 과정)·토론·협업·검증 능력
교수님이 “대부분 무너진다”고 말한 구체 항목들이 있어요. 그중 가장 중심에 글이 있어요.
- 글쓰기: 결과물만이 아니라 글을 쓰기까지의 사고 과정 전반(정리, 논리, 근거 구성)
- 요약: AI가 요약해도 ‘정답인지’ 판단하는 훈련이 없으면 위험
- 토론/소통/협업: 사고 훈련이 덜 되면 종합 능력이 같이 흔들림
- 언어 역량(번역 등): “좋아 보이는 결과”를 걸러내는 능력 부족
즉, AI가 글을 대신 써주면 “문장 생성”은 빨라져요. 하지만 교수님은 그보다 중요한 게 “내가 제대로 이해하고 수정·검증하는 능력”이라고 보는 거죠. 이 검증 능력이 약하면, 교육은 실제 실력으로 연결되지 않을 수 있어요.
4) “AI를 써도 된다 vs 쓰면 안 된다” 논쟁에 대한 교수님의 결론: ‘교육’과 ‘업무’를 분리해야 해요
교수님은 업계와 교육을 같은 잣대로 보지 말자고 정리해요.
- 산업(업무) 영역: AI가 ‘도구’로 유용한 구간이 분명 있음
- 교육 영역: 학생은 아직 기초 능력을 만들고 있는 중이라 트레이드오프가 더 큼
왜냐하면 교육에서 AI 사용은 “편의”만이 아니라, 성장해야 할 기간에 잠재력의 훈련이 덜 일어나는 대가가 생길 수 있기 때문이에요. 그래서 “학교에서 AI 사용을 의무화”하는 접근을 폭력일 수 있다고까지 표현하죠.
5) 가장 날카로운 주장: “AI에게 지식을 묻지 말라” — 질문만 바꾸면 답도 바뀐다
여기서 교수님의 실험 논지가 꽤 강렬해요. 같은 질문을 창을 열고/닫고 반복하면 답이 달라질 수 있고, 심지어 내용이 달라질 수 있다는 거예요.
- 답변이 매번 달라짐: 정답으로 수렴하는 구조가 아니라 확률적 문장 생성 성격
- ‘틀린 답’을 주는데도 그럴듯함: 그래서 학생이 ‘90점이면 충분’ 같은 기준을 갖게 될 위험
- 중요 주제일수록 위험: 전문성 없는 상태에서 AI 답을 채택하면 손실이 커짐
교수님이 강조하는 건 “모델이 100% 진실을 보장하지 않는다”는 점이에요. 따라서 검색(검증 가능한 자료 탐색)과 AI 답변을 같은 방식으로 믿으면 안 된다는 관점으로 이어져요.
6) “프롬프트를 더 잘 쓰면 되지 않나요?”에 대한 답: 그래도 100점은 어렵다
반론이 자연스럽게 나오죠. “프롬프트를 구체화하고 출처를 요구하면 더 정확해지지 않나요?” 이에 대해 교수님은 RA(도구/응답 검증 관련) 같은 시도도 한계가 있고, 그래도 100%에 가까운 진실을 보장하기 어렵다고 봐요.
즉, 교육에서 필요한 건 ‘그럴듯한 답’이 아니라 틀렸을 때 스스로 잡아내는 능력이란 거죠. 그 능력은 AI 사용만으로 자동으로 길러지지 않고, 훈련이 필요하다는 결론이에요.
7) “AI를 안 쓰면 도태” 논리에 대한 반박: 도태 위험의 방향이 다를 수 있어요
교수님은 “AI를 사용하지 않으면 도태될 영역이 분명히 있다”는 말은 인정하면서도, 반대로 AI를 사용하면 도태될 영역도 훨씬 많다고 봐요.
- 오남용 사례: 판사·변호사 등 전문가가 AI 답을 근거로 활용했다가 징계/사고로 이어진 경우
- 핵심 논리: 중요한 판단에선 ‘검수’가 필수인데, 교육 단계의 학생은 검수 능력이 부족할 수 있음
또 하나의 포인트는 “업종마다”가 다르다는 점이에요. 모든 업무에 AI를 의무적으로 넣는 게 진실이 아니다라는 식으로 선을 그어요.
8) ‘AI 비관론 vs 개발자만 떠들어도 되나’ — 인문학자의 목소리, 왜 필요하냐
이 논쟁은 결국 사회적 책임 문제로 이어져요. “왜 전문성이 부족한 인문학자가 AI를 말하냐”라는 질문에 대해 교수님은 자동차 비유로 답합니다.
- 자동차: 엔지니어만 품질을 말하는 게 아니라, 사용자는 승차감/운전감을 경험하고 평가할 권리가 있음
- AI도 제품: 서비스/제품이라면 사용자(사회)가 영향과 위험을 평가·비판할 권리가 있음
- 교육 영역은 특히: 성장 방해 위험이 있으니 ‘최소화’가 필요하다는 메시지
결국 인문학자의 역할은 기술을 만들자는 게 아니라, 기술이 인간과 사회에 미치는 영향의 경고·검토를 촉진하는 쪽에 있다고 보는 거예요.
9) 현실적인 방향 제시: “검증 가능한 정보 루트 + 검수 훈련”이 더 중요
교수님 본인은 AI를 ‘디폴트’처럼 쓰기보다, 중요할수록 위키/뉴스 같은 우회 경로를 거쳐 출처를 확인하는 습관을 말해요.
- 출처 확인: AI 답변에 붙는 출처가 엉터리일 수 있음
- 이상 징후 포착: 번역/문장을 보고 어색한 지점을 ‘눈치채는 독해력’이 중요
- 교차 검증: 다른 도구로 돌려보고 차이를 판단
이 관점에서 보면, AI는 “정답 생성기”가 아니라 초안/보조재 + 검증 파트(사람)의 역할 분담이 핵심이 돼요.
10) (블로그 관점) 경제·고용에서 봐야 할 포인트: 생성형 AI는 생산성 도구지만, 훈련 방식이 고용 구조를 바꿀 수 있어요
여기서 경제 전망 관점으로 연결하면 이런 그림이 나와요.
- 생성형 AI(예: ChatGPT류)는 반복 작업·초안 작업에서 비용을 낮추고 속도를 올려요. 그래서 기업은 자동화와 효율을 통해 단기 생산성(밸류 체인)을 개선하려 합니다.
- 하지만 교육/훈련이 ‘검증 능력·사고 근육’을 약화시키면, 장기적으로는 숙련(스킬) 공급이 줄거나 질이 달라지는 현상이 생길 수 있어요.
- 결국 디스킬이 심해지면, 사람의 역할이 “판단/검증/책임”에서 약해질 수 있고 이는 특정 직무(기획·분석·문서·번역·법/컴플라이언스 등)에서 리스크로 전환될 수 있습니다.
이 흐름은 AI 자동화, 생성형 AI, 디지털 전환, 생산성, 인재개발 같은 키워드로 요약돼요. 특히 기업 입장에선 “도입”보다 “교육/검수 체계”가 경쟁력의 일부가 되는 흐름을 더 강하게 보게 됩니다.
11) 다른 곳에서 잘 안 다루는 ‘가장 중요한 추가 정리’ (이번 글의 진짜 보너스)
많은 사람들은 AI를 “유용함/위험함”으로만 나누는데, 이번 인터뷰가 더 무서운 이유는 위험의 형태가 ‘실수’가 아니라 ‘학습의 누락’일 수 있다는 점이에요.
정리하면 딱 이 3가지가 핵심이에요.
- AI가 답을 주는 순간, 학생은 ‘정답을 검증하는 훈련’을 덜 하게 될 수 있음
- 그래서 실력이 쌓이는 게 아니라, “그럴듯한 결과물”에 적응하며 기준이 낮아질 수 있음
- 오남용 사고는 개인의 부주의로 끝나지 않고, 조직/업무 전체의 리스크로 번질 수 있음
즉, AI 시대의 질문은 “AI를 쓰냐/안 쓰냐”가 아니라 어떤 단계(학습 vs 업무)에서, 어떤 역할(초안 vs 검증)을 사람에게 남길 것이냐로 바뀐 거예요.
이 글에서 독자가 바로 가져가면 좋은 한 줄
“AI는 도구로 쓰되, 학생은 AI에게 ‘정답’이 아니라 ‘검증 능력’으로 성장하도록 설계해야 한다.”
< Summary >
- 김재인 교수는 AI 사용이 학습자에게 디스킬 제너레이션(탈스킬/기초 생략)을 만들 수 있다고 경고
- 문제는 단순 생산성 저하가 아니라 글·토론·협업·검증 같은 사고 근육이 덜 자란다는 점
- 교육과 업무를 분리해야 하며, 교육에서 AI 의무화는 트레이드오프로 성장 누락 위험이 큼
- AI 답은 확률적이라 질문을 반복해도 답이 달라질 수 있고 100점 진실 보장이 어렵다
- 결론적으로 중요한 영역은 AI 초안 활용 + 사람의 검수/출처 확인/교차 검증 체계가 핵심
- 인문학자의 AI 비판은 전문성 논쟁이 아니라 사회적 영향과 위험 경고를 위한 소비자/사용자의 권리
[관련글…]



