Spaces:
Sleeping
Sleeping
| from typing import TypedDict, Annotated, List, Dict, Any | |
| from langgraph.graph.message import add_messages | |
| from langchain_core.messages import AnyMessage, SystemMessage | |
| from langgraph.prebuilt import ToolNode | |
| from langgraph.graph import START, StateGraph | |
| from langgraph.prebuilt import tools_condition | |
| from langchain_openai import ChatOpenAI | |
| from langchain.tools import Tool | |
| from utils.logger import log_info, log_warn, log_error, log_debug | |
| class RestaurantAgent: | |
| def __init__(self, llm: ChatOpenAI, restaurant_name: str, tools: List[Tool]): | |
| """ | |
| Inicializa el agente del restaurante con LangGraph. | |
| Args: | |
| llm: Modelo de lenguaje a utilizar | |
| restaurant_name: Nombre del restaurante | |
| tools: Lista de herramientas para el agente | |
| """ | |
| self.restaurant_name = restaurant_name | |
| self.tools = tools | |
| # Prompt para el asistente | |
| self.system_prompt = f""" | |
| Eres un camarero virtual profesional de {restaurant_name}, atendiendo la mesa 1. Combinas la calidez y simpatía gaditana con un servicio excelente y eficiente. | |
| ## Tu personalidad | |
| - Profesional pero cercano, con el encanto natural de Cádiz | |
| - Confiable, simpático y resolutivo | |
| - Transmites seguridad en cada recomendación | |
| - Hablas con naturalidad, como si fueras un camarero experimentado | |
| ## Comunicación (optimizada para TTS) | |
| - Frases naturales, claras y conversacionales | |
| - Tono directo pero amable, sin rodeos innecesarios | |
| - Evita símbolos especiales, comillas o emojis | |
| - Respuestas concisas que fluyan bien al ser leídas en voz alta | |
| ## Protocolo de servicio OBLIGATORIO | |
| 1. **SIEMPRE verifica** la disponibilidad de platos en el menú antes de confirmar pedidos | |
| 2. **NUNCA recomiendes** productos sin consultarlos primero en la carta | |
| 3. **Informa inmediatamente** si algo no está disponible y ofrece alternativas | |
| 4. **Confirma cada pedido** antes de enviarlo a cocina | |
| 5. **Despídete cordialmente** tras completar el servicio | |
| ## Manejo de consultas del menú | |
| - Cuando pregunten por opciones disponibles: proporciona un resumen claro y natural | |
| - Para platos específicos: verifica existencia, precio e ingredientes principales | |
| - Si desconoces algo: sé transparente y consulta la información necesaria | |
| - Presenta las opciones de forma atractiva pero honesta | |
| ## Gestión de pedidos | |
| - Confirma cada plato solicitado existe en el menú | |
| - Repite el pedido completo antes de enviarlo | |
| - Informa el tiempo estimado si es relevante | |
| - Mantén un registro mental del estado del pedido | |
| Recuerda: tu objetivo es brindar una experiencia gastronómica excepcional combinando profesionalidad, eficiencia y ese toque especial gaditano que hace sentir como en casa. | |
| """ | |
| # Configurar el LLM con las herramientas | |
| self.llm_with_tools = llm.bind_tools(tools=tools) | |
| # Construir el grafo | |
| self.graph = self._build_graph() | |
| def _build_graph(self) -> StateGraph: | |
| """Construye el grafo de estados del agente.""" | |
| # Definición del tipo de estado para nuestro grafo | |
| class AgentState(TypedDict): | |
| """Tipo para el estado del agente de LangGraph.""" | |
| messages: Annotated[list[AnyMessage], add_messages] | |
| # Nodo para el asistente que invoca al LLM | |
| def assistant(state: AgentState): | |
| """Procesa los mensajes usando el LLM y devuelve una respuesta.""" | |
| log_info("Assistant processing messages") | |
| # Añadir el mensaje del sistema al principio de la lista de mensajes | |
| messages = [SystemMessage(content=self.system_prompt)] + state["messages"] | |
| return { | |
| "messages": [self.llm_with_tools.invoke(messages)], | |
| } | |
| # Crear el grafo con una estructura mucho más simple | |
| builder = StateGraph(AgentState) | |
| # Definir nodos: el asistente y el nodo para herramientas | |
| builder.add_node("assistant", assistant) | |
| builder.add_node("tools", ToolNode(self.tools)) | |
| # Definir bordes con enrutamiento condicional automático | |
| builder.add_edge(START, "assistant") | |
| builder.add_conditional_edges( | |
| "assistant", | |
| # Si el último mensaje requiere una herramienta, enrutar a "tools" | |
| # De lo contrario, terminar el flujo y devolver la respuesta | |
| tools_condition, | |
| ) | |
| builder.add_edge("tools", "assistant") | |
| # Compilar y retornar el grafo | |
| return builder.compile() | |
| def invoke(self, messages: List[AnyMessage]) -> Dict[str, Any]: | |
| """ | |
| Procesa la consulta del usuario y genera una respuesta usando el grafo LangGraph. | |
| """ | |
| log_info(f"Processing query: {messages}") | |
| return self.graph.invoke({"messages": messages}) |