demo_server.py", line 169, in query_ind
chat_engine = index.as_chat_engine(service_context=service_context, chat_mode='react', chat_history=custom_chat_history, verbose=False, similarity_top_k=4, text_qa_template=custom_prompt)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "/llama_index/indices/base.py", line 360, in as_chat_engine
return ReActChatEngine.from_query_engine(
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
TypeError: llama_index.chat_engine.react.ReActChatEngine.from_query_engine() got multiple values for keyword argument 'service_context'