GPTs·Gems를 쓰고 있다면, 그게 AI Agent일까요?
GPTs·Gems를 쓰고 있다면, 그게 AI Agent일까요?
유능한 비서를 떠올려 보세요. "이번 주 임원 보고 준비해줘"라고 말 한 마디를 건네면, 비서는 스스로 일정을 확인하고, 필요한 자료를 수집하고, 초안을 작성하고, 피드백을 반영해 최종본을 완성합니다. 중간중간 "이 방향이 맞는지"를 스스로 점검하면서요.
요즘 많은 기업에서 GPTs나 Gems와 같은 맞춤형 챗봇을 도입하며 "우리도 이제 AI Agent를 활용하고 있다"고 말합니다. 그런데 정말 그럴까요? GPTs와 Gems는 분명 강력한 도구입니다. 하지만 위의 비서처럼 스스로 판단하고, 행동하고, 목표를 달성할 때까지 반복하는 존재와는 본질적으로 다릅니다.
AI Agent라는 개념이 주목받으면서 현장에서의 혼동도 커지고 있습니다. 이 글에서는 GPTs·Gems와 같은 맞춤형 챗봇과 AI Agent가 무엇이 다른지, 그리고 AI Agent를 기업 교육에 어떻게 접근해야 하는지를 함께 살펴보려고 합니다.
GPTs·Gems vs AI Agent, 무엇이 다른가?
많은 분들이 GPTs·Gems와 같은 맞춤형 챗봇에 "이번 분기 교육 기획안을 작성해줘"라고 요청해본 경험이 있을 겁니다. 질문뿐만 아니라 이런 요청이나 목표 지시도 얼마든지 입력할 수 있죠. 그렇다면 GPTs·Gems와 AI Agent의 차이는 어디서 오는 걸까요?
차이는 무엇을 요청하느냐가 아닙니다. 요청을 받은 이후에 무슨 일이 일어나는가에 있습니다.
GPTs·Gems와 같은 맞춤형 챗봇은 어떤 요청을 받든 결과물을 항상 '답변'의 형태로 반환합니다. "교육 기획안을 작성해줘"라고 하면 텍스트로 된 기획안을 돌려주는 것으로 역할이 끝납니다. 그 결과물이 실제로 목적에 맞는지, 부족한 부분은 없는지 스스로 판단하거나 수정하지 않습니다.
반면 AI Agent는 다릅니다. 목표를 받으면 이를 달성하기 위해 스스로 행동하고, 판단하고, 반복합니다. 필요한 정보를 직접 수집하고 처리하며, 중간 결과물을 스스로 검토합니다. 목표가 달성되지 않았다고 판단하면 전략을 수정해 다시 수행합니다. 이 반복(Loop)이 AI Agent의 본질입니다.
결국 핵심 질문은 하나입니다.
"목표 달성 여부를 스스로 판단하고, 달성될 때까지 Loop를 수행하는가?"
이 질문에 '예'라고 답할 수 있어야 비로소 AI Agent라고 부를 수 있습니다.
AI Agent는 하나가 아니다 — 자율도 스펙트럼
AI Agent를 도입하겠다고 결정했다면, 다음 질문이 중요합니다. "어떤 수준의 AI Agent를 도입할 것인가?" AI Agent는 하나의 고정된 개념이 아닙니다. 얼마나 많은 자율성을 AI에게 부여하느냐에 따라 크게 세 가지 수준으로 나눌 수 있습니다.
첫 번째는 워크플로우 설계형입니다. 사람이 전체 업무 흐름을 직접 설계합니다. 어떤 구간은 코드 기반 자동화 봇이 데이터를 수집·가공하고, 어떤 구간은 AI가 그 데이터를 받아 판단·처리하는 방식으로 역할을 나눕니다. AI의 자율성은 낮지만, 사람이 흐름을 통제하기 때문에 리스크도 낮습니다.
두 번째는 반자율형입니다. 일정 범위 안에서는 AI가 스스로 판단하고 수행하되, 중요한 분기점에서는 사람이 개입해 방향을 결정합니다. 효율성과 통제 가능성 사이의 균형점을 찾는 방식입니다.
세 번째는 완전 자율형입니다. 목표만 부여하면 AI가 스스로 판단하고, 행동하고, Loop를 돌며 목표를 달성합니다. 가장 강력한 형태이지만, 동시에 가장 높은 리스크를 수반합니다.
자율도가 높아질수록 사람은 편해지지만, AI가 처리해야 할 데이터의 범위와 시스템 접근 권한도 함께 넓어집니다. 마치 신뢰할 수 있는 직원에게 업무를 위임할 때, 권한을 얼마나 줄 것인지 신중하게 결정하는 것과 같은 이치입니다.
완전 자율형 AI Agent, 왜 기업 현장에서 쓰기 어려운가?
완전 자율형 AI Agent가 강력하다는 건 분명합니다. 그렇다면 왜 기업 현장에서는 도입이 쉽지 않을까요? 핵심은 보안입니다.
완전 자율형 AI Agent가 Loop를 돌며 목표를 달성하려면, 외부 시스템에 자유롭게 접근할 수 있는 권한이 필요합니다. 사내 데이터베이스 조회, 파일 읽기·수정·삭제, 외부 API 호출, 메일·메신저 발송 등이 그 예입니다. 문제는 이 접근 권한이 넓어질수록 데이터 유출, 오작동, 무단 처리 등의 리스크가 함께 커진다는 점입니다. 특히 임직원의 인사 정보, 재무 데이터, 고객 정보 등 민감한 데이터를 다루는 기업 환경에서는 이 리스크를 감수하기가 현실적으로 매우 어렵습니다.
기술적으로는 AI Agent의 접근 권한을 제한하는 샌드박싱, API 접근 제어, 권한 범위 설정 등의 방법으로 이 문제를 해결할 수 있습니다. 하지만 이는 개발자 수준의 설계와 구현 역량이 필요한 영역입니다. 비개발자인 일반 구성원이 직접 운용하기에는 현실적인 한계가 있습니다.
결국 지금 당장 기업의 일반 구성원이 활용할 수 있는 현실적인 대안은 워크플로우 설계형 AI Agent입니다. 사람이 전체 흐름을 설계하고, AI와 자동화 봇이 각자의 역할을 수행하는 방식은 보안 리스크를 통제하면서도 AI의 강점을 실무에 녹여낼 수 있는 접근법입니다.
그래서 HRD 담당자는 무엇을 준비해야 하는가?
AI Agent의 개념을 이해했다면, 이제 HRD 담당자에게 실질적인 질문이 남습니다. "그래서 우리 조직의 임직원에게 무엇을 가르쳐야 하는가?"
첫 번째는 워크플로우를 설계하는 역량입니다. 워크플로우 설계형 AI Agent를 실무에서 활용하려면, 임직원이 자신의 업무 흐름을 구조적으로 파악하고 설계할 수 있어야 합니다. "이 업무에서 어떤 구간은 자동화 봇이 처리하고, 어떤 구간은 AI가 판단하게 할 것인가?"를 스스로 그려낼 수 있는 능력입니다. 단순히 AI 도구 사용법을 익히는 것과는 본질적으로 다른 역량입니다.
두 번째는 AI에게 명확한 목표를 부여하는 역량입니다. 워크플로우 설계형이든 반자율형이든, AI Agent가 제대로 작동하려면 사람이 목표를 정확하게 정의해야 합니다. "좋은 보고서를 써줘"가 아니라 "이 데이터를 기반으로 임원 보고용 3페이지 분량의 요약 보고서를 작성해줘"처럼, AI가 판단할 수 있는 수준으로 목표를 구체화하는 능력이 필요합니다.
세 번째는 조직이 감당할 수 있는 자율도 수준을 설정하는 기준입니다. 모든 조직이 동일한 수준의 AI Agent를 도입할 필요는 없습니다. HRD 담당자는 조직의 데이터 보안 수준, 구성원의 AI 활용 역량, 업무의 민감도 등을 종합적으로 고려해 적절한 자율도 수준을 설정하는 교육 설계 기준을 마련해야 합니다.
마치며
GPTs·Gems와 같은 맞춤형 챗봇은 분명 강력한 도구입니다. 하지만 이것이 AI Agent와 같은 개념이라고 보기는 어렵습니다. AI Agent는 목표를 달성할 때까지 스스로 판단하고 반복하는 존재이며, 그 자율도의 수준에 따라 워크플로우 설계형부터 완전 자율형까지 다양한 형태로 존재합니다.
지금 기업 현장에서 현실적으로 활용 가능한 것은 완전 자율형이 아닙니다. 보안 리스크와 기술적 구현의 장벽을 고려하면, 사람이 전체 흐름을 설계하고 AI와 자동화 봇이 각자의 역할을 수행하는 워크플로우 설계형이 가장 실질적인 출발점입니다.
HRD 담당자의 역할은 여기서 시작됩니다. 맞춤형 챗봇과 AI Agent의 개념 혼동을 걷어내고, 임직원이 워크플로우를 설계하고 AI에게 명확한 목표를 부여할 수 있는 역량을 체계적으로 육성하는 것입니다. 이때 AI가 올바르게 판단하고 수행하도록 필요한 모든 맥락을 설계하는 역량, 즉 Context Engineering이 핵심 키워드로 떠오릅니다. 이에 대해서는 다음 글에서 더 깊이 다뤄보겠습니다.
AI Agent 도입을 고민하고 있다면, 지금 당장 거창한 기술 도입보다 임직원이 업무 흐름을 설계하고 AI를 운용할 수 있는 역량부터 체계적으로 쌓아가시길 권합니다. 포텐스닷은 조직의 AI 전환 여정에서 이 역량을 함께 설계해 드립니다.