안녕하세요! 여러분의 AI 아키텍처 길잡이, 팬돌프입니다.지난 2편에서 우리는 LangGraph의 3대 요소인 State, Node, Edge를 활용해 AI의 뇌(순환 구조)를 직접 그려보았습니다. 이제 AI는 빙글빙글 돌며 스스로 생각할 수 있는 기본적인 틀을 갖추게 되었습니다.하지만 통 속에 들어있는 뇌는 혼자서 아무것도 할 수 없습니다. "오늘 서울 날씨 어때?"라고 물어봤을 때, 2023년까지의 데이터만 학습한 LLM은 "저는 실시간 정보를 알 수 없습니다"라고 대답할 수밖에 없죠.AI가 세상과 상호작용하려면 손과 발이 필요합니다. 오늘은 LLM이 스스로 판단하여 날씨 API를 호출하고, 구글 검색을 실행하는 마법, Tool Calling(도구 사용)과 외부 API 연동의 원리를 파헤쳐 보겠습니다..