덕분에 어려운 관문은 잘 통과하였습니다. ^^ 1) from langchain_community.llms import Ollama # model llm = Ollama(model="gemma:2b") # chain 실행 response = llm.invoke("지구의 자전 주기는?") response '지구의 자전 주기는 24시간 59분 30초입니다.' 2) 그 다음을 test 하였는데 from langchain_core.output_parsers import StrOutputParser # prompt + model + output parser prompt = ChatPromptTemplate.from_template("You are an expert in astronomy. Answer the question. : {input}") output_parser = StrOutputParser() ==> prompt = ChatPromptTemplate.from_template("You are an expert in astronomy. Answer the question. : {input}") 요기서 에러가 나타나는데, 문법이 틀렸는지 위 동영상 화면에서는 전체 내용이 보이지 않아서 잘 모르겠네요 ^^