Chatbots y arquitectura de conocimiento
19 de julio de 2025 10 min

En qué fallan los chatbots cuando tienen que responder preguntas sobre un catálogo de productos

Por qué un chatbot falla al responder sobre catálogos de productos aunque use embeddings y RAG, y qué arquitectura híbrida mejora cobertura, filtros y precisión.

Responder sobre un catálogo no es lo mismo que responder sobre documentos

Muchos chatbots responden razonablemente bien cuando trabajan sobre FAQs, manuales o contenido editorial. Pero cuando la pregunta del usuario exige navegar un catálogo de productos, comparar atributos, filtrar opciones o asegurar cobertura completa, el problema cambia por completo. Ya no basta con recuperar contexto parecido: hay que decidir si la respuesta necesita revisar un conjunto estructurado de datos y no solo los fragmentos “más cercanos”.

Ahí empiezan las frustraciones típicas: el bot omite productos relevantes, responde con una opción parcial, mezcla atributos de referencias distintas o parece “inventar” una comparación porque solo vio una fracción del catálogo real.

Por qué falla incluso cuando hay embeddings y base vectorial

En un flujo RAG clásico, los embeddings convierten texto en vectores y una base vectorial recupera los chunks más parecidos a la consulta. Eso funciona bien para traer contexto semántico, pero no garantiza cobertura total ni exactitud estructurada. Si la pregunta requiere evaluar todo el catálogo, comparar modelos o aplicar filtros sobre atributos, la recuperación semántica por sí sola se queda corta.

  • La recuperación puede traer solo una parte del catálogo relevante y dejar fuera otras opciones válidas.
  • Los chunks mejor rankeados no necesariamente contienen la visión completa para una comparación seria.
  • Una pregunta como “cuáles sirven para X y además tienen Y” suele requerir filtros estructurados, no solo similitud semántica.
  • El chunking puede separar atributos que deberían evaluarse juntos, como precio, compatibilidad, talla o disponibilidad.
  • Si el catálogo cambia seguido, el índice vectorial puede quedar desalineado respecto del dato operativo actual.

Qué arquitectura suele responder mejor

  1. Usar embeddings para intención, no como única fuente de verdad

    Los embeddings son valiosos para entender la consulta, rescatar lenguaje equivalente y encontrar zonas relevantes del conocimiento. Pero cuando la pregunta depende de atributos objetivos, conviene consultar además una fuente estructurada del catálogo.

  2. Separar preguntas exploratorias de preguntas exhaustivas

    “Cuéntame sobre esta categoría” no exige la misma lógica que “muéstrame todos los productos con estas condiciones”. El sistema debe distinguir cuándo basta con RAG y cuándo necesita recorrer el conjunto completo.

  3. Combinar búsqueda semántica con filtros y reglas

    Una arquitectura híbrida puede usar recuperación vectorial para contextualizar y luego aplicar filtros sobre atributos como marca, uso, rango de precio, compatibilidad o stock. Esa mezcla suele dar respuestas más confiables.

  4. Diseñar fallback y transparencia

    Si el sistema no puede asegurar cobertura o detecta información incompleta, conviene que lo diga, ofrezca derivación o pida un criterio adicional. Eso genera más confianza que una respuesta cerrada pero incompleta.

La idea central

Los embeddings son una pieza muy potente, pero no bastan por sí solos para responder bien sobre productos. Cuando una consulta exige cobertura, comparación o precisión estructurada, la solución suele ser híbrida: intención semántica por un lado y datos de catálogo bien consultados por otro.

¿Quieres conocer y probar Clarabot con un enfoque más sólido para catálogos?

Revisa cómo funciona Clarabot y agenda una prueba para ver cómo combina contexto semántico y catálogo completo al responder sobre productos.