경영진 리더십 블로그 | 더 클래리티 프랙티스

AI 생산성의 거짓: 전략 없는 자동화가 가치를 파괴하는 이유

작성 게리 맥레이 | 2026년 2월 25일 오전 6시 55분 49초

만약 제가 당신의 조직에서 어떤 결정을 인간이 내려야 하는지를 보여주는 곳을 알려달라고 한다면, 무엇을 보여주시겠습니까?

AI 관리 정책도 아니고, 책임 체계도 아닙니다. "이 작업에는 인간의 맥락과 판단이 필요합니다. 이 작업에는 필요하지 않습니다. 이유는 다음과 같습니다."라고 보여주는 실제 의사 결정 로그입니다

이 질문은 거의 나오지 않습니다. 기업들은 비용 절감과 효율성 향상을 보여주기 위해 서두르고 있기 때문입니다.

2024년 노벨상 수상자인 다론 아세모글루는최근 그 이유를 다음과 같이 설명했습니다. 현재의 인센티브 체계는 증강보다는 자동화를 우선시합니다. 리더들은 의식적으로 그 길을 선택하는 것이 아니라, 그저 따라가고 있는 것입니다.

자동화 아래에 있는 패턴

노벨상 수상 경제학자인 다론 아세모글루는 최근 MIT 슬론 팟캐스트에서 인공지능이 생산성을 향상시키지 못한다고 분명히 밝혔습니다.

AI가 생산성을 향상시킬 수 없어서가 아닙니다. 대부분의 조직은 AI를 도입할 때 생산성 향상보다는 자동화를 우선시하는 인센티브 체계를 따르고 있습니다. 그 결과, AI는 근로자의 역량을 강화하기보다는 오히려 대체하는 역할을 합니다.

그는 기술의 운명이 정해져 있지 않다고 주장합니다. 오늘날의 선택이 인공지능이 인간의 능력을 향상시킬지, 아니면 단순히 자동화와 불평등을 가속화할지를 결정한다는 것입니다.

제가 싱가포르에서 함께 일하는 대부분의 리더들은 그러한 선택을 적극적으로 하는 것이 아니라, 그저 상황에 따라 행동하는 것입니다.

그들은 이렇게 묻습니다:

  • 어떤 AI 도구를 사용해야 할까요?
  • 이 과정을 어떻게 자동화할 수 있을까요?
  • 이 시범 사업의 투자 수익률(ROI)은 얼마인가요?

이것들은 전술적인 질문들입니다. 전략적인 질문은 제기되지 않고 있습니다. 어떤 업무는 인간의 판단력, 상황적 맥락, 그리고 결과에 대한 책임감을 필요로 하고, 어떤 업무는 그렇지 않은가?

따라서 경계는 효율성 지표를 우선시하는 IT 팀, 자동화 플랫폼을 판매하는 벤더, 그리고 비용 절감을 최적화하는 컨설턴트에 의해 정해집니다.

그러다가 보통 6개월쯤 지나면 뭔가 문제가 생깁니다.

  • 자동화된 신용 심사 시스템은 알고리즘이 인간 심사원처럼 문화적 맥락을 파악할 수 없기 때문에 승인되었어야 할 고객을 거부합니다.
  • 사기 탐지 봇은 학습되지 않은 시장에서 발생한 정상적인 거래를 사기 거래로 표시합니다.
  • 고객 서비스 자동화 시스템이 고객에게 실제로 중요한 것이 무엇인지 이해하지 못하기 때문에 문제 해결 과정에서 오류를 범하는 경우가 있습니다.

그때쯤 되면, 한때 그러한 문제들을 잡아내던 인간의 능력은 이미 사라진 후입니다. 그러한 판단을 내리는 방법을 알고 있던 팀은 떠났거나, 재교육을 받았거나, 재배치되었거나, 교체되었을 것입니다.

당신은 예방할 수 있었던 결과들을 수습하고 있는 것입니다.

지도자들이 묻지 않는 질문

지금 로드맵에 포함된 AI 프로젝트 수를 세어보세요.

그들 중 얼마나 많은 사람들이 "이 작업은 자동화되어야 할까요, 아니면 맥락과 판단력, 결과에 대한 책임감을 가진 사람이 필요할까요?"라는 질문으로 시작했을까요?

답이 '없음'이라면 자동화를 선택하는 것이 아니라, 자동화를 기본값으로 받아들이는 것입니다.

이를 문제 해결 과정이 역전된 상황이라고 생각해 보세요. 당신의 책상에 올라와서는 안 될 결정들이 이제는 알고리즘에 의해 처리되고 있는 것입니다.

아세모글루의 말이 맞습니다. 현재의 인센티브 체계는 자동화를 기본적으로 장려합니다. 공급업체는 효율성을 내세우고, 컨설턴트는 비용 최적화에 집중합니다. 시범 사업은 가치 보존이 아닌 시간 절약으로 평가됩니다.

하지만 그것은 필연적인 것이 아닙니다. 그것은 당신이 의식적으로 내리는 디자인 선택이 아닙니다.

실제로 효과가 있는 것

저는 고객들이 AI를 배포하기 전에, 즉 배포 후에가 아니라, CAS 시스템을 사용하여 이 경계를 설정합니다.

명쾌함

어떤 일이 제대로 수행되려면 인간의 판단력, 삶의 맥락, 문화적 이해, 그리고 결과에 대한 책임감이 필요할까요? 어떤 일은 완전히 기계적이고, 손실 없이 시스템화될 수 있을까요?

책임

그 경계를 어디에 설정할지에 대한 결정권은 누구에게 있는가? 이는 IT 부서, 구매 부서 또는 공급업체에 위임할 수 있는 문제가 아니다. 이는 전략적 리더십의 결정이다.

지원하다

자동화에 대한 압력이 커지는 상황에서 어떻게 경계를 유지할 수 있을까요? 결정이 모호해지지 않고 명확하게 드러나도록 하려면 어떤 구조를 활용해야 할까요?

현재 조직에서 진행 중인 AI 파일럿 프로젝트를 살펴보세요.

어떤 것들은 속도와 규모가 중요하고, 오류를 쉽게 발견하고 수정할 수 있으며, 문화적 맥락이 필요하지 않은 진정한 기계적 작업입니다.

어떤 것들은 프로세스 맵상으로는 기계적으로 보이지만, 제대로 수행하려면 판단력이 필요합니다. 문화적 맥락, 관계의 이력, 그리고 알고리즘이 파악할 수 있는 지표를 넘어 비즈니스에 중요한 것이 무엇인지 이해하는 것이 중요합니다.

그 경계를 명확하게 구분할 수 없다면, 당신은 AI를 제대로 조종하고 있는 것이 아닙니다. 의도적인 설계가 아닌, 무의식적으로 AI에 권한을 위임하고 있는 것입니다.

"자동화 가능"과 "자동화해야 함" 사이의 간극에서 조직은 의도치 않게 역량을 잃게 됩니다. 이러한 손실이 가시화될 즈음에는 해당 기능을 제공하던 팀이 사라지거나, 재교육을 받거나, 재배치되거나, 교체된 후입니다.

그려야 할 경계선

하면서 인공지능을 도입 어떤 업무를 인간이 계속 수행해야 할지 명확하게 결정하지 않았다면, 사실상 생략을 통해 선택을 하고 있는 셈입니다.

아세모글루의 주장은 이것이 회사 차원을 넘어 중요한 문제라는 것입니다. 리더들이 자동화에 의존하는 누적 효과는 AI가 광범위한 번영보다는 불평등을 심화시킨다는 것입니다. 하지만 그 시작은 개개인의 선택입니다.

핵심 질문은 "인공지능이 이것을 할 수 있을까?"가 아니라 "인공지능이 이것을 해야 할까?"입니다

해당 업무에 업계 경험이 있거나, 문화를 이해하거나, 결과에 대한 책임을 질 수 있는 사람이 필요하다면, 그것은 사람이 해야 할 일입니다. 인공지능을 그 업무에 통합하는 것이 아니라, 그 업무를 둘러싸고 구축해야 합니다.

그 경계가 어디에 있는지 확실하지 않다면, 그것은 기술적인 문제가 아니라 리더십의 문제입니다.

경계가 정확히 어디인지 확신할 수 없다면, 잘못 추측해서 발생하는 비용이 정확하게 지도를 작성하는 데 드는 비용보다 훨씬 더 큽니다.