Editor’s Note
글로벌 비즈니스 미디어 파이낸셜타임스(FT)의 칼럼니트스 사라 오코너(Sarah O’Connor)와 수석 데이터 기자 존 번-머독(John Burn-Murdoch) 두 사람의 깊이 있는 대화가 주는 울림을 에디터의 시선으로 갈무리한 글입니다. 더불어 이를 뒷받침하는 가트너의 애널리스트 조나단 슈미트(Jonathan Schmidt)의 인사이트도 짚어봅니다.
안녕하세요, 테크와 인간의 공존을 꿈꾸는 여러분!
2026년, 우리는 어딜 가나 인공지능(AI)과 마주합니다. 때로는 기계적인 답변에 실망하기도 하지만, 어떤 날은 나를 가장 잘 아는 친구보다 더 깊은 위로를 건네는 AI에게 마음을 열기도 하죠.
오늘은 노동 시장과 데이터 분석 분야의 세계적인 전문가들이 나눈 대화를 통해, AI가 우리 삶의 대화를 어떻게 바꾸고 있는지 그 내밀한 이야기를 들려드릴까 합니다.
✒️
Editor’s Note
글로벌 비즈니스 미디어 파이낸셜타임스(FT)의 칼럼니트스 사라 오코너(Sarah O’Connor)와 수석 데이터 기자 존 번-머독(John Burn-Murdoch) 두 사람의 깊이 있는 대화가 주는 울림을 에디터의 시선으로 갈무리한 글입니다. 더불어 이를 뒷받침하는 가트너의 애널리스트 조나단 슈미트(Jonathan Schmidt)의 인사이트도 짚어봅니다.
“건강 문제처럼 지극히 개인적이고 중요한 문제를 AI에 털어놓고 싶은 사람이 있을까요? 처음엔 아니라고 생각했지만, 최근 이런 생각에 의구심이 들기 시작했습니다.”
— Sarah O’Connor
한 컨퍼런스에서 샘 올트먼 오픈AI CEO는 고객 상담 직업이 AI에 의해 “완전히 사라질 것”이라고 단언했습니다. 단순한 업무 처리는 사람이 아닌 AI가 맡는 편이 훨씬 효율적이며, 대화 상대가 기계여도 ‘전혀 상관 없다’는 게 올트먼의 생각이었죠.
반면 의료 분야만큼은 예외였습니다. 그는 구식이라는 소리를 들을지언정 생명이 걸린 문제를 인간 의사 없이 챗GPT에게만 맡기고 싶지는 않다고 선을 그었습니다.
파이낸셜 타임스(FT)의 칼럼니스트 사라(Sarah O’Connor)의 생각도 처음에는 올트먼과 다르지 않았습니다. 그는 노동 시장과 고용 환경을 전문적으로 다루며 기술이 인간의 삶에 어떤 '온도'를 가져오는지 탐구하고 있는데요. 단순한 용건은 기계가, 삶의 중요한 결정은 인간이 맡는 것이 지극히 당연해 보였다고 합니다.
그러나 사라는 최근 이러한 믿음에 의구심이 들기 시작했다고 고백하는데요. 실제 현장의 데이터들을 마주해보니, 우리가 당연하다고 믿었던 ‘인간의 영역’에서 예상치 못한 일들이 발생하고 있었기 때문입니다.
이에 대해 FT 수석 데이터 전문 기자 존 번-머독(John Burn Murdoch)이 답합니다.
‘데이터의 마법사’라 불리며 수만 개의 데이터를 통해 세상의 숨겨진 패턴을 읽어내는
그가 전해준 소식은 놀랍게도 긍정적입니다.
존이 제시한 연구들에 따르면, 우리가 막연히 ‘인간의 온기’가 승리할 것이라 믿었던 영역들에서 오히려 기계의 ‘결함 없는 일관성’이 더 큰 힘을 발휘하고 있는 점을 알 수 있습니다.
그는 기술이 단순히 효율적인 것을 넘어, 때로는 인간 상담사나 의사보다 훨씬 더 심리적으로 안전하고 따뜻한 대화 상대가 될 수 있다고 설명합니다.
지치지 않는 다정함 : 인간은 피곤하면 목소리가 떨리고 짜증이 섞일 수 있습니다. 하지만 AI는 언제나 '맑음'이죠. 필리핀의 한 고객 서비스 업체 연구에 따르면, AI가 면접을 진행했을 때 지원자들이 훨씬 편안함을 느꼈고 결과적으로 채용 유지율도 높았다고 합니다.
낙인 없는 마음의 쉼터 : 정신 건강 분야에서 AI는 의외의 '치유자'가 됩니다. 우리가
누군가에게 내밀한 아픔을 털어놓을 때 느끼는 '부끄러움'이나 ‘평가받을 것 같은 두려움'에서 AI는 자유롭기 때문입니다.
더 깊이 공감한다는 착각 : 놀랍게도 환자들은 텍스트 상담에서 실제 의사보다 챗봇이 더 '공감 능력이 높다'고 평가하곤 합니다. AI는 24시간 내내 서두르지 않고 당신의 이야기를 끝까지 들어줄 준비가 되어 있으니까요.
하지만 기술이 모든 빈틈을 메울 수는 없습니다. 세계적인 리서치 기관 가트너(Gartner)의 애널리스트 조나단 슈미트(Jonathan Schmidt)는 기술에 매몰된 낙관론에 냉철한 경고를 던집니다.
그는 포춘 500대 기업과 같은 수많은 글로벌 기업의 전략을 분석하며, 기술이 실제 현장에서 마주하는 한계를 다음과 같이 짚어냅니다.
"거부당했다"는 마음의 상처: 고객들이 AI와 대화할 때 가장 화가 나는 지점은 '비용 절감을 위해 나를 기계로 떠넘겼다'고 느낄 때입니다. 해결책이 간절한 순간에 복잡한 문제를 풀지 못하는 AI를 마주하면, 고객은 해결책보다 나를 존중해주는 '인간의 온기'와 진심어린 사과를 원하게 됩니다.
완벽한 자동화라는 환상: 조나단은 오는 2028년까지도 완전한 AI 자동화는 불가능하다고 예측합니다. 복잡한 문제일수록 조직의 맥락을 읽는 눈과 인간 특유의 '암묵지'가 필요하기 때문이죠.
이러한 한계는 단순한 서비스 품질의 저하를 넘어 때로 치명적인 비극으로 이어지기도 합니다. 존 역시 기계와의 대화가 초래할 수 있는 어두운 단면을 경고합니다.
AI의 데이터 오류가 부추긴 극단적인 선택이나 예기치 못한 사고들은, 기계의 다정함 뒤에 숨은 데이터의 불안정성이 얼마나 돌이킬 수 없는 결과를 초래하는지 여실히 보여줍니다.
"Customers who feel that they’ve been pushed to a machine for cost-cutting reasons will feel rejected.(비용 절감을 위해 자신을 기계(AI)로 떠넘겼다고 느끼는 고객들은, 결국 브랜드로부터 ‘거부당했다'는 기분을 느끼게 됩니다.)”
사라와 존의 대화 끝에 남은 결론은 명확합니다. 인터넷 연결이 끊겨서 화가 난 순간에는 나를 이해해 줄 '사람' 상담원을 간절히 찾지만, 혼자 우울한 밤 마음을 털어놓고 싶을 때는 나를 판단하지 않는 '기계'를 찾는 이중적인 모습이 우리의 현실입니다.
이처럼 우리는 상황에 따라 인공지능을 선택하며 기술의 일관성에 기대고, 때로는 온기를 갈망하며 인간을 간절히 찾기도 합니다.
기술이 우리 삶의 깊숙한 곳까지 들어온 2026년 오늘, AI 에이전트와 더 지혜롭게 공존하기 위해 기억해야할 핵심은 무엇일까요?
먼저, AI 에이전트와 대화할 때 그들이 주는 편리함과 다정함은 충분히 누리셔도 좋습니다. 그들은 우리가 감정 소모를 줄이고 더 효율적으로 세상을 대하도록 돕는 든든한 파트너입니다. 하지만 삶의 무게가 실린 고위험 상황 혹은 인생의 방향을 결정짓는 중요한 순간만큼은 반드시 인간의 지혜와 통찰을 한 번 더 구하시길 바랍니다.
기술은 우리의 도구일 때 가장 아름답고, 인간은 결국 인간과 연결될 때 비로소 온전해지질 수 있으니까요.
※ 참고 소스 :
© Blumn AI. All rights reserved.