-
LCEL(LangChain Expression Language): LangChain 컴포넌트를 조합하는 도구
1. Prompt + LLM: Pipe 연산자 사용
from langchain_openai import ChatOpenAI from langchain_core.prompts import ChatPromptTemplate llm = ChatOpenAI( model="gpt-4o-mini", temperature=0.5, max_tokens=50, ) messages = [ ("system", "You are a assistant."), ("user", "{query}"), ] # 메시지 리스트를 템플릿으로 변환 prompt = ChatPromptTemplate.from_messages(messages) prompt.input_variables >> query prompt_text = prompt.format(query="블라블라") response = llm.invoke(prompt_text) print(response.content)Chain 구성
chain = prompt | llm print(chain.input_schema.schema()) >> {'title': 'PromptInput', 'type': 'object', 'properties': {'query': {'title': 'Query', 'type': 'string'}}, 'required': ['query']}OutputParser(https://reference.langchain.com/python/)
Prompt + LLM _ Output Parser 의 구성으로 출력 데이터의 형태를 지정할 수 있음
invoke를 통해 날린 질의의 응답은 AIMESSAGE 객체이며 여기서 필요한 부분만 추출하여 가공 후 출력
- StrOutputParser
- JsonOutputParser( Json 형태로 출력해달라고 Prompt에 명시해야함! )
RnnablePassthrough: 데이터 전달
RunnableLambda: 데이터 변환
'✎ 2025년' 카테고리의 다른 글
Cache Fusion (0) 2025.12.31 LangChain 기본 알아보기 (0) 2025.12.24 PQ와 QC (4) 2025.06.27 CDC(Change Data Capture) (0) 2025.04.05 프로젝트 성패를 결정짓는 데이터 모델링 이야기 (3) 2025.03.03