반응형

OpenAI 2

[AI 엔지니어링] 5. [RAG 기초] LLM에 지식을 연결하다: Retrieval-Augmented Generation 아키텍처

안녕하세요! 여러분의 AI 파트너, 팬돌프입니다.지난 시간, 우리는 회사 매뉴얼 같은 방대한 문서를 잘게 쪼개서(Chunking) 벡터 데이터베이스에 예쁘게 저장하는 파이프라인을 구축했습니다. 이제 재료 손질은 끝났습니다.하지만 지금 상태로는 DB에 데이터가 들어만 있을 뿐, 아무 일도 일어나지 않습니다. 이제 뇌(LLM)와 기억(Vector DB)을 신경망으로 연결할 차례입니다.오늘은 AI 엔지니어링의 꽃, RAG(검색 증강 생성) 아키텍처를 통해 "내 데이터를 보고 대답하는 챗봇"을 실제로 작동시켜 보겠습니다. "모르는 건 모른다"고 말하는 정직한 AI 만들기, 지금 시작합니다!1. 챗GPT의 거짓말과 '오픈 북 시험'챗GPT 같은 LLM은 '다음에 올 단어를 확률적으로 예측하는 기계'입니다. 그래서..

AI Engineering 2026.02.17

[AI 엔지니어링] 4. [구축] 데이터 파이프라인: 문서를 쪼개고(Chunking) 벡터로 변환하기

안녕하세요! 여러분의 데이터 요리사, 팬돌프입니다.지난 시간, 우리는 데이터를 담을 그릇인 Vector DB를 선택했습니다. (Pinecone, Milvus, pgvector 중 하나를 고르셨겠죠?)이제 그릇에 담을 재료(데이터)를 손질할 시간입니다. 많은 분이 "그냥 PDF 파일을 통째로 AI한테 주면 되는 거 아니에요?"라고 묻습니다. 안타깝게도 LLM은 한 번에 읽을 수 있는 글자 수(Context Window)에 제한이 있습니다. 마치 코끼리를 냉장고에 넣으려면 토막을 내야 하는 것과 같죠.하지만 막 썰면 안 됩니다. 문맥이 끊기지 않게 예쁘게 썰어야 AI가 똑똑해집니다. 오늘은 RAG 성능의 50%를 결정짓는 핵심 기술, 청킹(Chunking) 전략과 데이터 파이프라인(ETL) 구축 실습을 진행..

AI Engineering 2026.02.16
반응형