AI 팀원에 대한 신뢰 형성: 인간-AI 협업의 미래
인공지능의 역할은 단순한 도구적 차원을 넘어 본질적인 변화를 맞이하고 있다. 브루킹스 연구소는 AI를 단순한 생산성 도구가 아닌 팀 기반 문제 해결의 능동적 지원자로 통합하는 접근법인 "Vibe teaming"을 제시했다. 이 개념은 OpenAI 공동 창업자이자 前 Tesla AI 디렉터인 Andrej Karpathy가 제안한 "Vibe coding"에서 영감을 받은 것으로, 기존의 프롬프트 기반 AI 워크플로우와 달리 사람간의 대화를 AI 모델의 첫 번째 입력으로 시작한다.
브루킹스 연구팀이 불과 90분 만에 세계 수준의 극빈 퇴치 전략을 수립한 사례는 소규모 인간 그룹과 AI의 조합이 전통적인 연구기관의 지식 창출 프로세스를 어떻게 변화시킬 수 있는지를 잘 보여준다. 이는 AI가 지식 창출을 대체하는 것이 아니라, 하위 수준의 작업(전사, 초안 작성)을 처리함으로써 인간이 판단, 협업, 의사결정 등 가치 사슬의 더 높은 곳에 집중할 수 있도록 하는 증폭기 역할을 한다는 것을 시사한다.
2026년, 만약 여러분의 팀에 인간이 아닌 AI가 팀원으로 합류한다면 어떨까? 매우 유능할 것이라는 기대감과 함께, 과연 이 AI 동료를 인간처럼 신뢰할 수 있을지에 대한 막연한 불안감이나 호기심이 생기는 것은 자연스러운 일이다. 연구자들은 AI 기반 시스템의 성공적인 구현을 위해서는 시스템 적합성, 조직 적합성, 데이터 품질과 더불어 인간의 신뢰와 통제가 핵심 요소임을 강조한다. McAllister(1995)의 고전적 신뢰 이론에 따르면, 인지적 신뢰(cognitive trust)는 상대방의 신뢰성과 역량에 기반한 이성적 판단이며, 정서적 신뢰(affective trust)는 상호 간의 배려와 관심에 근거한 감정적 유대감이다.
대인 신뢰에서는 의도가 중요하지만, 인간-자동화 신뢰에서는 역량이 가장 중요하다. 그러나 AI에 대한 신뢰 연구는 역량과 의도를 모두 포함하는데, 이는 AI가 인간적 특성과 자동화된 특성의 조합을 통해 인식되고 있음을 나타낸다. 이러한 사회인지적 관점은 AI가 단순한 도구나 완전한 인간 대체물이 아닌, 독특한 특성을 가진 새로운 범주의 팀원으로 이해되어야 함을 시사한다.
실증 연구: AI 팀원에 대한 신뢰 형성 메커니즘
2025년 11월 18일, Harry Spurrier, Rajeev Kamineni, Manjula Dissanayake, Noel Lindsay 등 애들레이드 대학교 연구진이 Journal of Small Business Management에 발표한 논문에서는 AI 팀원에 대한 신뢰 형성의 미묘한 역학을 규명했다. 연구진은 205명의 참가자를 대상으로 시나리오 기반 실험을 수행했으며, 긴급한 자금 조달을 앞둔 스타트업 "FlexTech Solutions"라는 금융 소프트웨어 개발 회사를 가상으로 설정했다.
초기 단계 창업팀에서 새로운 팀원에 대한 신뢰 인식은 벤처 적합성과 성과를 형성한다. 참가자들은 세 가지 조건 중 하나에 무작위로 배정되었다: (1) 순수 인간 동료, (2) 순수 AI 동료, 또는 (3) AI를 활용하는 인간 동료. 각 조건의 새로운 팀원은 동일한 인상적인 포트폴리오를 가지고 있었고, 비즈니스 모델 캔버스(Business Model Canvas) 작성이라는 동일한 과업을 부여받았다.
연구는 AI를 관계적 비인간 행위자로 개념화하는 신흥 개념을 확장하여, AI를 창업팀 내 통합된 팀원으로 위치시키고, 인간-AI 팀 구성과 창업팀 형성 이론의 통찰을 혼합했다. 이는 단순히 AI를 도구로 보는 기존 관점에서 벗어나, AI를 실제 팀 역학의 일부로 이해하려는 중요한 이론적 전환을 나타낸다.
주요 발견 1: AI 활용 인간 동료의 우월성
연구의 가장 놀라운 발견은 참가자들이 가장 신뢰하는 동료가 순수 인간도 순수 AI도 아닌, AI를 활용하는 인간 동료였다는 점이다. 이 조건은 전반적인 신뢰도(trustworthiness)와 정서적 신뢰(affective trust) 모두에서 일관되게 가장 높은 평균 점수를 받았다.
이 연구는 인간-AI 사용 팀원 조건을 도입하고 실증적으로 테스트함으로써, 증강이 완전 자동화와 다르게 신뢰에 영향을 미친다는 새로운 개념을 제시했다. 이는 AI 사용에 대한 공개가 부정적 사회적 낙인을 초래할 것이라는 일부 선행 연구(Schilke & Reimann, 2025)의 예측과 대조적인 결과였다.
참가자들은 AI의 도움을 받는 동료를 능력이 부족하거나 편법을 쓴다고 여기지 않았다. 오히려 인간의 책임감, 윤리적 판단, 맥락 이해 능력과 AI의 데이터 처리 능력, 분석 역량, 효율성이 결합된 이 '증강된(augmented)' 모델에서 최상의 시너지를 발견했다. 연구진의 결론에 따르면, 이러한 접근 방식은 기존의 관계적 신뢰 역학을 파괴하기보다는 보존하는 효과를 보였다.
이는 조직에서 AI 도입 시 중요한 전략적 시사점을 제공한다. 조직이 AI로부터 이점을 얻기 위해서는 작업장에 AI를 신중하게 통합하는 것이 중요하지만, 최상의 협업 인텔리전스와 통합 접근법을 만들기 위한 공통된 공식은 아직 없다. 그러나 이 연구는 인간이 중심이 되어 AI를 도구로 활용하는 방식이 가장 효과적일 수 있음을 시사한다.
주요 발견 2: AI의 신속한 신뢰 획득
실험 초기 단계(Time 1)에서 순수 AI 동료는 예상대로 신뢰도 측면에서 불리한 출발을 보였다. 특히 동료에 대한 보살핌이나 유대감과 관련된 정서적 신뢰에서 AI 활용 인간 동료보다 현저히 낮은 점수를 기록했다(p < 0.001). 이는 AI가 감정적 교류를 할 수 없다는 인식과 AI 시스템의 불투명성이 사용자의 이해와 신뢰를 저해할 수 있다는 선행 연구와 일치하는 결과였다.
그러나 AI 동료가 비즈니스 모델 캔버스를 작성하는 과업을 성공적으로 완료한 후(Time 2), 참가자들의 평가는 극적으로 변화했다. AI의 전반적인 신뢰도와 정서적 신뢰도가 모두 통계적으로 유의미하게 상승했다(p < 0.05). 특히 정서적 신뢰의 증가폭이 가장 컸으며, 이는 AI가 작업을 성공적으로 수행함으로써 단순한 기술적 역량 이상의 것을 입증했음을 시사한다.
이는 AI에 대한 신뢰가 고정된 것이 아니며, 입증된 역량을 통해 매우 빠르게 구축될 수 있음을 보여준다. AI 성능과 시스템의 일반적 행동은 인간-AI 팀에서 신뢰가 어떻게 개발되고, 상실되거나 조정되는지를 설명하는 핵심 선행 요인이라는 점이 실증적으로 확인된 것이다.
AI 에이전트에 대한 신뢰는 인간-AI 협업의 기초 요소를 구성하며, AI 에이전트와 협업하려는 의지가 중요한 요인으로 나타난다. 이는 AI가 감정적인 연결고리 없이도, 유능하고 신뢰할 수 있는 파트너임을 성과로 증명함으로써 직원들로부터 관계적 신뢰를 얻을 수 있다는 것을 의미한다.
주요 발견 3: 인간에 대한 더 높은 기대치와 엄격한 평가
연구진은 역량과 신뢰성에 기반한 신뢰, 즉 인지적 신뢰(cognitive trust)를 측정했다. 흥미롭게도, 세 유형의 동료(인간, AI, AI 활용 인간)가 모두 정확히 동일한 수준의 결과물을 제출했음에도 불구하고, 참가자들의 반응은 팀원의 유형에 따라 달랐다.
제출된 과업은 의도적으로 '유능하지만 개선의 여지가 있는' 수준으로 설계되어, 각 동료의 화려한 포트폴리오와 실제 결과물 사이에 약간의 격차를 만들어냈다. 신뢰 조정 과정은 입증된 역량뿐만 아니라 범주적 팀원 정체성에도 민감하며, 이는 팀원의 작업 결과물이 동일하게 유지되는 경우에도 마찬가지였다.
그 결과, 인간 동료와 AI 활용 인간 동료에 대한 인지적 신뢰도는 Time 2에서 소폭 감소한 반면, 순수 AI 동료에 대한 인지적 신뢰도는 통계적으로 안정적인 수준을 유지했다. 이는 사람들이 동일한 결과물에 대해 AI보다 인간을 더 엄격하게 평가한다는 것을 보여준다.
연구진은 이를 다음과 같이 해석했다: 일반적으로 사람들은 인간 동료에게 더 높은 초기 기대치를 가지고 있을 가능성이 높다. 따라서 그들의 결과물이 완벽하지 않을 때 약간의 실망감을 느끼고 신뢰도를 낮추는 것이다. 반면, AI에 대해서는 초기 기대치가 낮기 때문에 동일한 수준의 결과물에도 실망하지 않거나 오히려 기대를 충족했다고 판단하여 신뢰도를 유지하는 경향을 보였다.
연구진은 이를 AI에 대한 초기 팀 형성 단계에서의 어느 정도의 관대함 또는 낮은 성과 기대치가 반영된 결과일 수 있다고 분석했다. 이는 조직에서 AI를 도입할 때 현실적인 기대치 설정의 중요성을 강조한다.
결론: AI와의 협업을 다시 생각하다
2026년, 우리 팀에 합류할 AI는 기계가 아니라 우리의 맥락을 이해하고 함께 고민하는 따뜻한 '동료'가 될 잠재력을 가지고 있다. Harry Spurrier 등의 연구는 AI가 초기에는 정서적 신뢰를 얻기 힘들지만, 시간과 상호작용을 통해 충분히 신뢰받는 파트너가 될 수 있음을, 그리고 인간이 주도권을 쥐고 AI를 활용하는 '증강된 인간' 모델이 가장 강력한 신뢰를 구축할 수 있음을 실증적으로 보여주었다.
"Vibe Teaming"은 이러한 이론적 발견을 실천으로 옮기는 강력한 방법론이다. AI를 창의적 프로세스의 시발점에 초대하고, 인간과 AI가 서로의 결과물을 끊임없이 보정하며 나아갈 때, 우리는 단순한 생산성 향상을 넘어선 '혁신적 공진화(Innovative Co-evolution)'를 경험하게 될 것이다. AI는 지식 창출을 대체하는 것이 아니라 하위 수준의 작업을 처리하는 증폭기로, 인간이 가치 사슬의 더 높은 곳—판단, 협업, 의사결정—에 집중할 수 있게 한다. 이것이 바로 진정으로 효과적인 인간-AI 파트너십의 본질이다.
미래의 팀 경쟁력은 '누가 더 좋은 AI를 쓰느냐'가 아니라, '누가 AI와 더 깊은 신뢰 관계를 구축하고 진정한 동료로 대우하느냐(Teaming)'에 달려 있다. 리더들은 지금 당장 기술 도입을 넘어, 어떻게 우리 조직 내에 '신뢰할 수 있는 AI 동료'를 안착시킬 것인가에 대한 사회·심리학적 설계를 시작해야 한다. 이것이 2026년 비즈니스 생태계에서 살아남기 위한 가장 확실한 전략이다.
글: 투이컨설팅 디지털연구소