AI 디스킬 세대 경고

·

·

“AI 때문에 할 줄 모르게 된 것들이 많아졌다” — ‘디스킬 제너레이션’이 경제·교육을 바꾸는 방식

1) 지금 꼭 알아야 할 핵심: ‘AI가 실력을 대체’하는 순간, 성장 속도는 느려질 수 있어요

이번 콘텐츠의 가장 큰 메시지는 이거예요. AI를 쓰면 ‘생산성’은 올라가도, 학생(학습자)이 반드시 쌓아야 할 ‘기초 스킬’은 덜 쌓이거나 생략될 수 있다는 경고죠. 그 결과가 김재인 교수님이 말한 디스킬 제너레이션(탈숙련/탈스킬 세대)의 핵심 맥락이에요.

특히 강조 포인트는 두 가지예요. ① 할 줄 알던 게 사라지는 ‘지식/기술 퇴행’ ② 애초에 기초가 쌓이지 않는 ‘성장 생략’ 이 두 축이 동시에 진행될 수 있다는 겁니다.

여기에 더해 교수님이 우려하는 위험이 “인지적 성인병”이에요. 운동 안 하면 생기는 성인병처럼, 생각의 근육을 안 쓰면 사고 능력도 병처럼 굳어질 수 있다는 비유죠. 이 프레임을 이해하면, 왜 ‘AI 활용’이 단순 찬반이 아니라 “언제/어디에/어떤 방식으로” 해야 하는 문제인지 바로 보이기 시작해요.

2) 용어 정리: 디스킬 제너레이션은 ‘AI 네이티브’가 만드는 부작용?

김재인 교수님 관점에서 디스킬 제너레이션은 이런 상황을 말해요.

  • 대상: 주로 학생 단계(초·중·고·대)에서 더 해당
  • 구조: ‘기초를 채우는 훈련 시기’가 생략됨
  • 양상 1: 외주(아웃소싱) — AI나 도구에 맡기며 내가 할 일을 줄임
  • 양상 2: 인지적 오프로딩(cognitive offloading) — 사고 과정을 도구에 위임

여기서 포인트는 “AI가 나쁜 도구”라서가 아니라, 학생이 성장해야 할 구간에서 ‘학습의 엔진’이 꺼질 수 있다는 거예요. 그래서 기존에 축적되던 학습의 ‘미천(채워 넣는 시기)’이 건너뛰어질 수 있다고 봐요.

3) 교육에서 특히 무너지는 능력: 글쓰기(사고 과정)·토론·협업·검증 능력

교수님이 “대부분 무너진다”고 말한 구체 항목들이 있어요. 그중 가장 중심에 글이 있어요.

  • 글쓰기: 결과물만이 아니라 글을 쓰기까지의 사고 과정 전반(정리, 논리, 근거 구성)
  • 요약: AI가 요약해도 ‘정답인지’ 판단하는 훈련이 없으면 위험
  • 토론/소통/협업: 사고 훈련이 덜 되면 종합 능력이 같이 흔들림
  • 언어 역량(번역 등): “좋아 보이는 결과”를 걸러내는 능력 부족

즉, AI가 글을 대신 써주면 “문장 생성”은 빨라져요. 하지만 교수님은 그보다 중요한 게 “내가 제대로 이해하고 수정·검증하는 능력”이라고 보는 거죠. 이 검증 능력이 약하면, 교육은 실제 실력으로 연결되지 않을 수 있어요.

4) “AI를 써도 된다 vs 쓰면 안 된다” 논쟁에 대한 교수님의 결론: ‘교육’과 ‘업무’를 분리해야 해요

교수님은 업계와 교육을 같은 잣대로 보지 말자고 정리해요.

  • 산업(업무) 영역: AI가 ‘도구’로 유용한 구간이 분명 있음
  • 교육 영역: 학생은 아직 기초 능력을 만들고 있는 중이라 트레이드오프가 더 큼

왜냐하면 교육에서 AI 사용은 “편의”만이 아니라, 성장해야 할 기간에 잠재력의 훈련이 덜 일어나는 대가가 생길 수 있기 때문이에요. 그래서 “학교에서 AI 사용을 의무화”하는 접근을 폭력일 수 있다고까지 표현하죠.

5) 가장 날카로운 주장: “AI에게 지식을 묻지 말라” — 질문만 바꾸면 답도 바뀐다

여기서 교수님의 실험 논지가 꽤 강렬해요. 같은 질문을 창을 열고/닫고 반복하면 답이 달라질 수 있고, 심지어 내용이 달라질 수 있다는 거예요.

  • 답변이 매번 달라짐: 정답으로 수렴하는 구조가 아니라 확률적 문장 생성 성격
  • ‘틀린 답’을 주는데도 그럴듯함: 그래서 학생이 ‘90점이면 충분’ 같은 기준을 갖게 될 위험
  • 중요 주제일수록 위험: 전문성 없는 상태에서 AI 답을 채택하면 손실이 커짐

교수님이 강조하는 건 “모델이 100% 진실을 보장하지 않는다”는 점이에요. 따라서 검색(검증 가능한 자료 탐색)과 AI 답변을 같은 방식으로 믿으면 안 된다는 관점으로 이어져요.

6) “프롬프트를 더 잘 쓰면 되지 않나요?”에 대한 답: 그래도 100점은 어렵다

반론이 자연스럽게 나오죠. “프롬프트를 구체화하고 출처를 요구하면 더 정확해지지 않나요?” 이에 대해 교수님은 RA(도구/응답 검증 관련) 같은 시도도 한계가 있고, 그래도 100%에 가까운 진실을 보장하기 어렵다고 봐요.

즉, 교육에서 필요한 건 ‘그럴듯한 답’이 아니라 틀렸을 때 스스로 잡아내는 능력이란 거죠. 그 능력은 AI 사용만으로 자동으로 길러지지 않고, 훈련이 필요하다는 결론이에요.

7) “AI를 안 쓰면 도태” 논리에 대한 반박: 도태 위험의 방향이 다를 수 있어요

교수님은 “AI를 사용하지 않으면 도태될 영역이 분명히 있다”는 말은 인정하면서도, 반대로 AI를 사용하면 도태될 영역도 훨씬 많다고 봐요.

  • 오남용 사례: 판사·변호사 등 전문가가 AI 답을 근거로 활용했다가 징계/사고로 이어진 경우
  • 핵심 논리: 중요한 판단에선 ‘검수’가 필수인데, 교육 단계의 학생은 검수 능력이 부족할 수 있음

또 하나의 포인트는 “업종마다”가 다르다는 점이에요. 모든 업무에 AI를 의무적으로 넣는 게 진실이 아니다라는 식으로 선을 그어요.

8) ‘AI 비관론 vs 개발자만 떠들어도 되나’ — 인문학자의 목소리, 왜 필요하냐

이 논쟁은 결국 사회적 책임 문제로 이어져요. “왜 전문성이 부족한 인문학자가 AI를 말하냐”라는 질문에 대해 교수님은 자동차 비유로 답합니다.

  • 자동차: 엔지니어만 품질을 말하는 게 아니라, 사용자는 승차감/운전감을 경험하고 평가할 권리가 있음
  • AI도 제품: 서비스/제품이라면 사용자(사회)가 영향과 위험을 평가·비판할 권리가 있음
  • 교육 영역은 특히: 성장 방해 위험이 있으니 ‘최소화’가 필요하다는 메시지

결국 인문학자의 역할은 기술을 만들자는 게 아니라, 기술이 인간과 사회에 미치는 영향의 경고·검토를 촉진하는 쪽에 있다고 보는 거예요.

9) 현실적인 방향 제시: “검증 가능한 정보 루트 + 검수 훈련”이 더 중요

교수님 본인은 AI를 ‘디폴트’처럼 쓰기보다, 중요할수록 위키/뉴스 같은 우회 경로를 거쳐 출처를 확인하는 습관을 말해요.

  • 출처 확인: AI 답변에 붙는 출처가 엉터리일 수 있음
  • 이상 징후 포착: 번역/문장을 보고 어색한 지점을 ‘눈치채는 독해력’이 중요
  • 교차 검증: 다른 도구로 돌려보고 차이를 판단

이 관점에서 보면, AI는 “정답 생성기”가 아니라 초안/보조재 + 검증 파트(사람)의 역할 분담이 핵심이 돼요.

10) (블로그 관점) 경제·고용에서 봐야 할 포인트: 생성형 AI는 생산성 도구지만, 훈련 방식이 고용 구조를 바꿀 수 있어요

여기서 경제 전망 관점으로 연결하면 이런 그림이 나와요.

  • 생성형 AI(예: ChatGPT류)는 반복 작업·초안 작업에서 비용을 낮추고 속도를 올려요. 그래서 기업은 자동화와 효율을 통해 단기 생산성(밸류 체인)을 개선하려 합니다.
  • 하지만 교육/훈련이 ‘검증 능력·사고 근육’을 약화시키면, 장기적으로는 숙련(스킬) 공급이 줄거나 질이 달라지는 현상이 생길 수 있어요.
  • 결국 디스킬이 심해지면, 사람의 역할이 “판단/검증/책임”에서 약해질 수 있고 이는 특정 직무(기획·분석·문서·번역·법/컴플라이언스 등)에서 리스크로 전환될 수 있습니다.

이 흐름은 AI 자동화, 생성형 AI, 디지털 전환, 생산성, 인재개발 같은 키워드로 요약돼요. 특히 기업 입장에선 “도입”보다 “교육/검수 체계”가 경쟁력의 일부가 되는 흐름을 더 강하게 보게 됩니다.

11) 다른 곳에서 잘 안 다루는 ‘가장 중요한 추가 정리’ (이번 글의 진짜 보너스)

많은 사람들은 AI를 “유용함/위험함”으로만 나누는데, 이번 인터뷰가 더 무서운 이유는 위험의 형태가 ‘실수’가 아니라 ‘학습의 누락’일 수 있다는 점이에요.

정리하면 딱 이 3가지가 핵심이에요.

  • AI가 답을 주는 순간, 학생은 ‘정답을 검증하는 훈련’을 덜 하게 될 수 있음
  • 그래서 실력이 쌓이는 게 아니라, “그럴듯한 결과물”에 적응하며 기준이 낮아질 수 있음
  • 오남용 사고는 개인의 부주의로 끝나지 않고, 조직/업무 전체의 리스크로 번질 수 있음

즉, AI 시대의 질문은 “AI를 쓰냐/안 쓰냐”가 아니라 어떤 단계(학습 vs 업무)에서, 어떤 역할(초안 vs 검증)을 사람에게 남길 것이냐로 바뀐 거예요.

이 글에서 독자가 바로 가져가면 좋은 한 줄

“AI는 도구로 쓰되, 학생은 AI에게 ‘정답’이 아니라 ‘검증 능력’으로 성장하도록 설계해야 한다.”

< Summary >

  • 김재인 교수는 AI 사용이 학습자에게 디스킬 제너레이션(탈스킬/기초 생략)을 만들 수 있다고 경고
  • 문제는 단순 생산성 저하가 아니라 글·토론·협업·검증 같은 사고 근육이 덜 자란다는 점
  • 교육과 업무를 분리해야 하며, 교육에서 AI 의무화는 트레이드오프로 성장 누락 위험이 큼
  • AI 답은 확률적이라 질문을 반복해도 답이 달라질 수 있고 100점 진실 보장이 어렵다
  • 결론적으로 중요한 영역은 AI 초안 활용 + 사람의 검수/출처 확인/교차 검증 체계가 핵심
  • 인문학자의 AI 비판은 전문성 논쟁이 아니라 사회적 영향과 위험 경고를 위한 소비자/사용자의 권리

[관련글…]


“AI 때문에 할 줄 모르게 된 것들이 많아졌다” — ‘디스킬 제너레이션’이 경제·교육을 바꾸는 방식 1) 지금 꼭 알아야 할 핵심: ‘AI가 실력을 대체’하는 순간, 성장 속도는 느려질 수 있어요 이번 콘텐츠의 가장 큰 메시지는 이거예요. AI를 쓰면 ‘생산성’은 올라가도, 학생(학습자)이 반드시 쌓아야 할 ‘기초 스킬’은 덜 쌓이거나 생략될 수 있다는 경고죠. 그 결과가 김재인 교수님이…

Feature is an online magazine made by culture lovers. We offer weekly reflections, reviews, and news on art, literature, and music.

Please subscribe to our newsletter to let us know whenever we publish new content. We send no spam, and you can unsubscribe at any time.

English