llm = Ollama( model="mistral", ) chat_engine = SimpleChatEngine.from_defaults( llm=llm, system_prompt=system_prompt, output_parser=PydanticOutputParser(output_cls=Choice), )